Künstliche Intelligenz

Verbotsforderung: Autonome Waffen verstoßen gegen Menschenrechte

Maximilian Schreiner
Beim Wort Killer-Roboter denken wir an Science-Fiction und den Terminator. Dabei geht es gar nicht um das Erscheinungsbild der Waffe.

Die großen Militärmächte erforschen autonome Waffensysteme. Die Non-Profit-Organisation Human Rights Watch glaubt, dass sie nach der Martens’schen Klausel verboten werden müssen.

Autoren der Human Rights Watch schlussfolgern in einem Bericht, dass autonome Waffensysteme internationale Menschenrechte brechen. Die Gruppe fordert daher ein sofortiges, präventives Verbot entsprechender Systeme.

Die Autoren des Berichts begründen ihre Verbotsforderung mit der Martens’schen Klausel. Sie wurde 1899 formuliert und seitdem regelmäßig erweitert.

Maschinen ohne ethischen Kompass sollen nicht töten dürfen

Die Klausel soll Situationen in Kriegen regulieren, die nicht durch geltendes internationales Recht gedeckt sind. Sie schlägt Brauch, Gewissen und Menschlichkeit als Maßstäbe für die Bewertung von Aktionen der Kriegsteilnehmer vor:

"In Fällen, die von den geschriebenen Regeln des internationalen Rechts nicht erfasst sind, verbleiben Zivilpersonen und Kombattanten unter Schutz und der Herrschaft der Grundsätze des Völkerrechts, wie sie sich aus den feststehenden Gebräuchen, aus den Grundsätzen der Menschlichkeit und aus den Forderungen des öffentlichen Gewissens ergeben."

Da autonome Waffensysteme weder über Emotionen noch über ein juristisches oder ethisches Urteilsvermögen verfügen, sehen die Autoren sie als unvereinbar mit der Martens’schen Klausel.

Die praktische Relevanz der Klausel ist umstritten. Die Autoren führen jedoch einige Fälle auf, in denen bereits mit ihr argumentiert wurde. Ein Beispiel ist das Verbot von Blendwaffen durch die UN 1995.

Die Technologie ist weiter als die Moral

Auf die Frage, wie und ob autonome Maschinen ethisch vertretbare Entscheidungen treffen können, gibt es noch keine zufriedenstellende Antwort. Die Entwicklung der Waffensysteme schreitet dennoch voran.

Einige Staaten, zum Beispiel die USA, versichern daher, dass sie die Entscheidung, Gewalt auszuüben, in den Händen von Menschen lassen wollen.

Eine optimale Lösung ist das nicht, das zeigt der Blick in die Geschichtsbücher: Sollte sich ein Staat nicht mehr an diese Abmachung halten, könnten andere Staaten moralische Bedenken zugunsten der Sicherheit über Bord werfen.

Beispiele für halbautomatisierte Waffensysteme gibt es bereits genug: Die demilitarisierte Zone in Korea wird schon seit einigen Jahren von automatisierten Geschützen überwacht. Israels Raketenabwehrsystem "Iron Dome" ist ebenfalls teilweise autonom. Israel, Russland, Frankreich, England und die USA erforschen in spezialisierten Programmen autonome Waffensysteme.

Weiterlesen über KI-Waffen: