Emil Michael, der Technikchef des US-Kriegsministeriums, macht mit seiner Begründung für die Einstufung von Anthropic als Lieferkettenrisiko deutlich, dass es sich um eine ideologisch motivierte Maßnahme handelt. Claude-Modelle würden die Lieferkette "verschmutzen", weil in ihnen eine "andere Richtlinien-Präferenz" verankert sei, sagte Michael bei CNBC. Er verwies auf Anthropics "Verfassung", ein Regelwerk, das Ethik und Sicherheit betont. Dies könne dazu führen, dass Soldaten unwirksame Ausrüstung erhalten. Die Maßnahme sei "nicht als Strafe gedacht".
Anthropic ist das erste US-Unternehmen mit dieser Einstufung, die eigentlich ausländischen Gegnern vorbehalten ist. Die KI-Firma klagt dagegen und erhält Unterstützung von Microsoft-, OpenAI- und Google-Angestellten sowie Ex-US-Militärs. Anthropic wehrte sich zuvor dagegen, dass die eigenen KI-Modelle für US-Massenüberwachung und autonome Waffen genutzt werden.
Die Trump-Regierung zeigte bereits zuvor, dass sie KI ideologisch steuern möchte, indem sie Regulierungen gegen sogenannte "woke AI" erließ – kommuniziert als Verpflichtung zu politischer Neutralität. Das Vorgehen erinnert an die chinesische Regierung, die ebenfalls versucht, KI-Modelle politisch zu steuern.
