Inhalt
summary Zusammenfassung

Das KI-Start-up Anthropic will nicht, dass seine Modelle zur Überwachung von US-Bürger:innen eingesetzt werden. In Washington sorgt das für wachsenden Unmut.

Anzeige

Das US-KI-Unternehmen Anthropic blockiert die Nutzung seiner Modelle durch US-Strafverfolgungsbehörden in bestimmten Anwendungsbereichen und zieht damit den Unmut der Trump-Regierung auf sich. Wie Semafor berichtet, lehnte Anthropic zuletzt Anfragen von Auftragnehmern ab, die mit US-Bundesstrafverfolgungsbehörden zusammenarbeiten. Grund sei die unternehmenseigene Nutzungsrichtlinie, die den Einsatz der Claude-Modelle für „domestic surveillance“ untersagt. Unter anderem sind die Nutzungsmöglichkeiten für FBI, Secret Service und Immigration and Customs Enforcement (ICE) eingeschränkt, da diese Behörden Überwachung betreiben.

Was genau unter diesem Begriff zu verstehen ist, bleibt jedoch unklar. Die Richtlinie enthält keine präzise Definition – ein Umstand, der laut Regierungsvertretern zu Unsicherheit und Unmut führt. In Washington äußerten zwei hochrangige Beamte die Sorge, Anthropic verfolge seine Richtlinien selektiv aus politischen Gründen und nutze vage Terminologie, die eine breite Auslegung erlaubt.

Anthropic hat Verträge mit dem US-Verteidigungsministerium

Dabei ist Anthropic eigentlich gut im Regierungsapparat verankert: Claude-Modelle sind über Amazon Web Services GovCloud verfügbar; in manchen Fällen sind sie die einzigen Spitzenmodelle, die für Top-Secret-Sicherheitslagen freigegeben sind. Außerdem existiert ein Vertrag, der Regierungsbehörden Claude für einen symbolischen Betrag von einem Dollar zur Verfügung stellt. Auch eine Zusammenarbeit mit dem US-Verteidigungsministerium besteht, wobei Anthropic den Einsatz seiner Technologie zur Entwicklung von Waffensystemen kategorisch ausschließt.

Anzeige
Anzeige

Im Vergleich dazu formuliert Konkurrent OpenAI seine Richtlinien deutlich pragmatischer: Verboten ist lediglich die „nicht autorisierte Überwachung“, was legalen Einsatz durch Ermittlungsbehörden implizit erlaubt.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Anthropic verbietet US-Strafverfolgungsbehörden in bestimmten Fällen die Nutzung seiner KI-Modelle für Überwachungszwecke und lehnt Anfragen von Auftragnehmern für FBI, Secret Service und ICE ab, da die Unternehmensrichtlinie den Einsatz für „domestic surveillance“ untersagt.
  • Die Richtlinie ist nicht klar definiert, was laut Regierungsvertretern zu Unsicherheit und Kritik führt: Sie werfen Anthropic vor, vage Formulierungen zu nutzen und die Regel selektiv aus politischen Gründen anzuwenden.
  • Trotz enger Verbindungen zur US-Regierung, darunter Verträge mit dem Verteidigungsministerium und der Bereitstellung von Claude-Modellen für Sicherheitsbehörden, bleibt Anthropic bei seinem Verbot, während OpenAI lediglich „nicht autorisierte Überwachung“ ausschließt und legalen Einsatz durch Ermittlungsbehörden ermöglicht.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!