Inhalt
summary Zusammenfassung

Google hat seine ethischen KI-Richtlinien überarbeitet und erlaubt nun den Einsatz seiner KI-Technologie für Waffen und Überwachung. Der Konzern folgt damit einem Trend in der KI-Branche.

Anzeige

Google hat am Dienstag seine ethischen Richtlinien für künstliche Intelligenz grundlegend überarbeitet. Wie die Washington Post berichtet, entfernte der Konzern die bisherigen Beschränkungen für den Einsatz seiner KI-Technologie in Waffen und Überwachungssystemen.

Zuvor enthielten die Richtlinien eine Liste von vier Anwendungen, die Google ausdrücklich ausschloss: Waffen, Überwachung, Technologien, die "Schaden verursachen oder wahrscheinlich verursachen werden" sowie Anwendungen, die gegen internationales Recht und Menschenrechte verstoßen.

Der Tech-Gigant begründet diesen Schritt mit dem zunehmenden globalen Wettbewerb um die KI-Führungsrolle. "Demokratien sollten die KI-Entwicklung anführen, geleitet von Grundwerten wie Freiheit, Gleichheit und Respekt für Menschenrechte", erklärten Googles KI-Chef Demis Hassabis und Senior Vice President James Manyika in einem Blogbeitrag.

Anzeige
Anzeige

Die neuen Richtlinien sehen vor, dass die Technologie im Einklang mit "allgemein akzeptierten Prinzipien des internationalen Rechts und der Menschenrechte" eingesetzt werden soll. Google will dabei nach eigenen Angaben durch menschliche Aufsicht und Tests "unbeabsichtigte oder schädliche Folgen" minimieren.

KI-Labore im Dienst der nationalen Sicherheit

Google-Mitarbeiter haben in den vergangenen Jahren immer wieder gegen den militärischen Einsatz der von ihnen entwickelten KI-Systeme protestiert. Doch das wirkt mittlerweile wie aus einer anderen Zeit.

Auch andere KI-Labore haben ihre Haltung geändert: Kürzlich gab OpenAI eine Partnerschaft mit dem Rüstungskonzern Anduril bekannt, um KI-basierte Drohnenabwehrsysteme für das US-Militär zu entwickeln.

Meta hat seine Llama-KI-Modelle dem US-Militär zur Verfügung gestellt und Anthropic arbeitet mit dem Rüstungsunternehmen Palantir zusammen, um US-amerikanischen Geheimdiensten und Verteidigungsbehörden den Zugriff auf Versionen von Claude über Amazon Web Services zu ermöglichen.

Microsoft schlug dem US-Verteidigungsministerium im vergangenen Jahr vor, den KI-Bildgenerator DALL-E von OpenAI für die Entwicklung von Software für militärische Operationen zu nutzen, wie aus internen Präsentationsunterlagen hervorgeht.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Google hat seine ethischen KI-Richtlinien überarbeitet und erlaubt nun den Einsatz seiner KI-Technologie für Waffen und Überwachung, begründet mit dem globalen Wettbewerb um die KI-Führungsrolle.
  • Laut den neuen Richtlinien soll die Technologie im Einklang mit Prinzipien des internationalen Rechts und der Menschenrechte eingesetzt werden. Unbeabsichtigte oder schädliche Folgen sollen durch menschliche Aufsicht und Tests minimiert werden.
  • Auch andere KI-Labore wie OpenAI, Meta, Anthropic und Microsoft haben ihre Haltung geändert und arbeiten mit Rüstungskonzernen zusammen oder stellen ihre Technologie dem US-Militär zur Verfügung.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!