Das KI-Start-up Anthropic will nicht, dass seine Modelle zur Überwachung von US-Bürger:innen eingesetzt werden. In Washington sorgt das für wachsenden Unmut.
Das US-KI-Unternehmen Anthropic blockiert die Nutzung seiner Modelle durch US-Strafverfolgungsbehörden in bestimmten Anwendungsbereichen und zieht damit den Unmut der Trump-Regierung auf sich. Wie Semafor berichtet, lehnte Anthropic zuletzt Anfragen von Auftragnehmern ab, die mit US-Bundesstrafverfolgungsbehörden zusammenarbeiten. Grund sei die unternehmenseigene Nutzungsrichtlinie, die den Einsatz der Claude-Modelle für „domestic surveillance“ untersagt. Unter anderem sind die Nutzungsmöglichkeiten für FBI, Secret Service und Immigration and Customs Enforcement (ICE) eingeschränkt, da diese Behörden Überwachung betreiben.
Was genau unter diesem Begriff zu verstehen ist, bleibt jedoch unklar. Die Richtlinie enthält keine präzise Definition – ein Umstand, der laut Regierungsvertretern zu Unsicherheit und Unmut führt. In Washington äußerten zwei hochrangige Beamte die Sorge, Anthropic verfolge seine Richtlinien selektiv aus politischen Gründen und nutze vage Terminologie, die eine breite Auslegung erlaubt.
Anthropic hat Verträge mit dem US-Verteidigungsministerium
Dabei ist Anthropic eigentlich gut im Regierungsapparat verankert: Claude-Modelle sind über Amazon Web Services GovCloud verfügbar; in manchen Fällen sind sie die einzigen Spitzenmodelle, die für Top-Secret-Sicherheitslagen freigegeben sind. Außerdem existiert ein Vertrag, der Regierungsbehörden Claude für einen symbolischen Betrag von einem Dollar zur Verfügung stellt. Auch eine Zusammenarbeit mit dem US-Verteidigungsministerium besteht, wobei Anthropic den Einsatz seiner Technologie zur Entwicklung von Waffensystemen kategorisch ausschließt.
Im Vergleich dazu formuliert Konkurrent OpenAI seine Richtlinien deutlich pragmatischer: Verboten ist lediglich die „nicht autorisierte Überwachung“, was legalen Einsatz durch Ermittlungsbehörden implizit erlaubt.