Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
DEEP MINDS #12: Künstliche Intelligenz regulieren

Die großen Militärmächte erforschen autonome Waffensysteme. Die Non-Profit-Organisation Human Rights Watch glaubt, dass sie nach der Martens’schen Klausel verboten werden müssen.

Autoren der Human Rights Watch schlussfolgern in einem Bericht, dass autonome Waffensysteme internationale Menschenrechte brechen. Die Gruppe fordert daher ein sofortiges, präventives Verbot entsprechender Systeme.

Die Autoren des Berichts begründen ihre Verbotsforderung mit der Martens’schen Klausel. Sie wurde 1899 formuliert und seitdem regelmäßig erweitert.

Maschinen ohne ethischen Kompass sollen nicht töten dürfen

Die Klausel soll Situationen in Kriegen regulieren, die nicht durch geltendes internationales Recht gedeckt sind. Sie schlägt Brauch, Gewissen und Menschlichkeit als Maßstäbe für die Bewertung von Aktionen der Kriegsteilnehmer vor:

Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung

„In Fällen, die von den geschriebenen Regeln des internationalen Rechts nicht erfasst sind, verbleiben Zivilpersonen und Kombattanten unter Schutz und der Herrschaft der Grundsätze des Völkerrechts, wie sie sich aus den feststehenden Gebräuchen, aus den Grundsätzen der Menschlichkeit und aus den Forderungen des öffentlichen Gewissens ergeben.“

Da autonome Waffensysteme weder über Emotionen noch über ein juristisches oder ethisches Urteilsvermögen verfügen, sehen die Autoren sie als unvereinbar mit der Martens’schen Klausel.

Die praktische Relevanz der Klausel ist umstritten. Die Autoren führen jedoch einige Fälle auf, in denen bereits mit ihr argumentiert wurde. Ein Beispiel ist das Verbot von Blendwaffen durch die UN 1995.

Die Technologie ist weiter als die Moral

Auf die Frage, wie und ob autonome Maschinen ethisch vertretbare Entscheidungen treffen können, gibt es noch keine zufriedenstellende Antwort. Die Entwicklung der Waffensysteme schreitet dennoch voran.

Einige Staaten, zum Beispiel die USA, versichern daher, dass sie die Entscheidung, Gewalt auszuüben, in den Händen von Menschen lassen wollen.

Empfehlung

Eine optimale Lösung ist das nicht, das zeigt der Blick in die Geschichtsbücher: Sollte sich ein Staat nicht mehr an diese Abmachung halten, könnten andere Staaten moralische Bedenken zugunsten der Sicherheit über Bord werfen.

Beispiele für halbautomatisierte Waffensysteme gibt es bereits genug: Die demilitarisierte Zone in Korea wird schon seit einigen Jahren von automatisierten Geschützen überwacht. Israels Raketenabwehrsystem „Iron Dome“ ist ebenfalls teilweise autonom. Israel, Russland, Frankreich, England und die USA erforschen in spezialisierten Programmen autonome Waffensysteme.

Weiterlesen über KI-Waffen:

Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!