Inhalt
newsletter Newsletter

Eine südkoreanische Universität soll mit einem Rüstungsunternehmen an autonomen Waffensystemen arbeiten. KI-Experten weltweit sind besorgt und rufen zu einem internationalen Boykott auf. 

Das Korea Advanced Institute of Science and Technology (KAIST) eröffnete im Februar ein Forschungszentrum, das nationale Verteidigungssysteme auf Basis künstlicher Intelligenz entwickeln soll. In einer mittlerweile gelöschten Ankündigung hieß es, dass die Universität unter anderem an KI-gestützten Entscheidungssystemen, U-Booten und Flugzeugen arbeitet.

Für die Forschung kooperiert KAIST mit Hanwha, einem der größten südkoreanischen Konzerne. Hanwha stellt Streumunition her, die in 120 Ländern verboten ist - mit Ausnahme der USA, Russland, China und Südkorea.

Widerstand der internationalen KI-Gemeinschaft

Die Allianz hat unter KI-Experten Besorgnis erregt. Toby Walsh, ein KI-Professor der Universität von South Wales, wurde durch einen Zeitungsartikel auf die Kooperation aufmerksam und versuchte, mit KAIST in Kontakt zu treten, erhielt jedoch keine Antwort.

Anzeige
Anzeige

Nun organisiert der KI-Spezialist einen Widerstand gegen die Pläne der Universität. Mit einem offenen Brief, der von mehr als 50 KI-Forschern aus knapp 30 Ländern unterzeichnet wurde, ruft er zu einem Boykott der Forschungseinrichtung auf.

In dem Schreiben steht, dass man künftig nicht mehr mit KAIST zusammenarbeiten oder Forscher der Universität empfangen werde. Der Grund: Die Allianz zwischen der Universität und dem Waffenhersteller würde zu einem KI-Waffenwettrüsten beitragen, der Killer-Roboter hervorbringen könnte.

"Es gibt viele großartige Dinge, die man mit KI machen kann, die - auch im militärischen Kontext - Leben retten können. Aber offen zu verkünden, dass man autonome Waffen mit einem derartigen Partner entwickelt, ist besorgniserregend", sagt Walsh gegenüber The Guardian.

Der Leiter der Universität Sung-Chul Shin bedauert den Boykott und weist alle Anschuldigungen von sich. "KAIST hat keine Absichten, autonome Waffensysteme und Killer-Roboter zu bauen", schreibt Shin in einer Stellungnahme. "Als akademische Institution halten wir Menschenrechte und ethische Standards hoch."

Wehret den Killer-Roboter-Anfängen

Der KI-Philosoph Max Tegmark sieht in der Künstlichen Intelligenz eine große Chance für die Menschheit - sofern sie die Zügel in der Hand behält. Laut Tegmark muss die Menschheit für eine positive Entwicklung von KI-Technologie drei Grundregeln beachten. Eine dieser Regeln lautet, die Entwicklung und den Einsatz autonomer Waffensysteme zu verhindern. Hierfür brauche es internationale Abkommen.

Empfehlung

Tegmark gehört zum Kreis der Forscher und Tech-Experten, die sich im Juli in einem offenen Brief an die UN gegen Killer-Roboter aussprachen. Angeführt werden die 116 Experten von Tech-Visionär Elon Musk und Mustafa Suleyma, Mitgründer von Googles KI-Abteilung Deepmind.

Der Boykott der südkoreanischen Universität wurde im Vorfeld eines Treffens der Vereinten Nationen ausgerufen, das nächste Woche in Genf stattfindet und sich mit der Entwicklung autonomer Waffensysteme beschäftigt.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
| Featured Image: Warner Bros. | Source: Guardian
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Tomislav schreibt über Künstliche Intelligenz im Kontext der XR, Kunst und virtueller Wesen: Wie trägt KI zur Entwicklung von VR und AR bei, wie rekonstruiert und erweitert sie das menschliche Kunstschaffen und welche neue Formen des Geschichtenerzählens und der NPC-Interaktion ermöglicht sie?
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!