KI-Forschung

Keine Killerroboter: KI-Petition findet schnell Tausende Unterstützer

Matthias Bastian
Beim Wort Killer-Roboter denken wir an Science-Fiction und den Terminator. Dabei geht es gar nicht um das Erscheinungsbild der Waffe.

Forscher und Unternehmer setzen gemeinsam ein Zeichen gegen Killerroboter.

Innerhalb kürzester Zeit haben Tausende teils bekannte Personen, Unternehmen und Organisationen, die selbst mit und an Künstlicher Intelligenz arbeiten, eine Petition gegen Killerroboter des Future of Life (FIL) Instituts unterzeichnet.

Die Unterzeichner der Petition stimmen überein, dass die Entscheidung über Leben und Tod nicht an Maschinen abgegeben werden darf. Diese könnten sonst zu einem "mächtigen Instrument für Gewalt und Unterdrückung" werden, speziell in Kombination mit Überwachungssystemen, heißt es im Begleittext zur Unterschriftenliste.

Bekannte Forscher und Entwickler unterzeichnen die Petition

Auf der Unterschriftenliste stehen unter anderem der Deepmind-Gründer Demis Hassabis, Tesla-Lenker Elon Musk und viele namhafte Wissenschaftler bekannter Universitäten. Jeffrey Dean, der Leiter der KI-Forschungsabteilung bei Google, hat ebenfalls unterzeichnet.

Deans Unterschrift hat eine besondere Bedeutung: Erst vor wenigen Wochen stieg Google nach anhaltenden Mitarbeiterprotesten aus einem lukrativen Vertrag mit dem US-Militär zu Künstlicher Intelligenz aus.

Ziel der Kooperation war allerdings nicht die Entwicklung von autonomen Waffensystemen. Stattdessen ging es um fortschrittliche Bildanalyseverfahren, beispielsweise für Aufklärungsflüge von Drohnen. Google stellte nach dem Stopp des Militärprojekts neue ethische Leitlinien vor, die die Entwicklung von KI-Waffen ausschließen.

Wehret den Anfängen

Das vom Physiker Max Tegmark gegründete FIL will die für die Menschheit existenziellen Bedrohungen beseitigen. Neben Nuklearwaffen, dem Klimawandel und Biotechnologie steht Künstliche Intelligenz ganz oben auf der Liste.

Das Institut will KI nicht pauschal aus der Welt schaffen, sondern ihren Einsatz in für Menschen potenziell bedrohlichen Szenarien verhindern. Autonome Waffensysteme sind das offensichtlichste Beispiel für so ein Szenario.

Das FLI fürchtet bei KI-Waffen einen Büchse-der-Pandora-Effekt: Sind die Systeme erst mal verfügbar, könnten sie gehackt und über den Schwarzmarkt vertrieben werden und so beispielsweise in die Hände von Terrororganisationen fallen. Die Bevölkerung müsse über akzeptable und inakzeptable KI-Anwendungen aufgeklärt werden.

Tegmark begrüßt den großen Zuspruch der KI-Branche für seine Petition. Die Technologie habe ein großes Potenzial, der Menschheit zu helfen - sofern der Missbrauch verhindert werden könne.

Im November 2017 veröffentlichte das FIL einen dystopischen Sci-Fi-Kurzfilm, der die Bedrohung durch autonome Waffensysteme visualisiert.

Weiterlesen über KI-Waffen: