US-Militär nutzt Anthropics KI-Modell Claude für Zielauswahl im Iran-Krieg
Kurz & Knapp
- Das US-Militär nutzt im Krieg gegen den Iran erstmals generative KI im großen Stil: Anthropics Claude analysiert in Palantirs Maven-System Echtzeitdaten und schlug am ersten Tag rund 1.000 priorisierte Ziele vor.
- Experten warnen, die KI komprimiere Angriffsplanung von Wochen auf Minuten und könne dazu führen, dass Entscheider sich von den Konsequenzen entkoppelt fühlen.
- Paradox: Die Trump-Regierung hat Anthropic von Regierungssystemen verbannt – das Militär nutzt Claude aber weiter, weil es laut Washington Post inzwischen unverzichtbar ist.
Im Krieg gegen den Iran setzt das US-Militär laut Berichten erstmals generative KI in großem Maßstab für Zielauswahl und Angriffsplanung ein. Genutzt wird das Modell des Unternehmens, das Washington gerade verbannt hat.
Das US-Militär hat im laufenden Krieg gegen den Iran erstmals generative KI in großem Umfang für Kampfoperationen eingesetzt. Laut Berichten des Guardian und der Washington Post ist Anthropics KI-Modell Claude in das sogenannte Maven Smart System der War-Tech-Firma Palantir eingebettet, das klassifizierte Daten aus Satelliten, Überwachungssystemen und Geheimdienstquellen in Echtzeit analysiert.
Das System schlug laut Washington Post Hunderte Ziele vor, lieferte präzise Koordinaten und priorisierte die Ziele nach Bedeutung. Palantirs System empfiehlt laut Guardian zusätzlich Bewaffnung unter Berücksichtigung von Beständen und bisheriger Leistung gegen vergleichbare Ziele und soll automatisiert die Rechtsgrundlage für einzelne Angriffe prüfen. Allein in den ersten 24 Stunden griff das US-Militär rund 1.000 Ziele an. Die Operationen wurden gemeinsam mit israelischen Streitkräften durchgeführt, die ähnliche Systeme bereits eingesetzt hat.
Wochenlange Planung schrumpft auf Minuten
Akademiker sprechen von "Decision Compression": KI komprimiert die Planungszeit komplexer Angriffe von Tagen oder Wochen auf Minuten oder Sekunden. "Die KI-Maschine macht Empfehlungen für Ziele, was in gewisser Weise tatsächlich viel schneller ist als die Geschwindigkeit des Denkens", sagte Craig Jones, Senior Lecturer für politische Geographie an der Newcastle University und Experte für sogenannte Kill Chains, dem Guardian.
Paul Scharre vom Center for a New American Security erklärte gegenüber der Washington Post: "Der entscheidende Paradigmenwechsel ist, dass KI dem US-Militär ermöglicht, Zielpakete mit Maschinengeschwindigkeit statt mit menschlicher Geschwindigkeit zu entwickeln." Der Nachteil: "KI liegt falsch. … Wir brauchen Menschen, die den Output generativer KI prüfen, wenn es um Leben und Tod geht."
David Leslie, Professor für Ethik, Technologie und Gesellschaft an der Queen Mary University of London, der Demonstrationen militärischer KI-Systeme beobachtet hat, warnte im Guardian vor "Cognitive Off-Loading": Menschliche Entscheider können sich von den Konsequenzen eines Angriffs entkoppelt fühlen, weil die Denkarbeit von einer Maschine erledigt wurde. Am Samstag traf ein Raketenangriff eine Schule im Süden Irans und tötete laut staatlichen Medien 165 Menschen, darunter viele Kinder. Die genaue Zahl ist weiterhin nicht unabhängig verifiziert, da internationale Medien kaum Zugang haben. Die Schule befand sich allerdings offenbar in der Nähe einer Militärkaserne. Die UN sprach von einem "schweren Verstoß gegen humanitäres Recht". Das US-Militär erklärte, die Berichte zu prüfen.
Verbannt und trotzdem unverzichtbar
Die Situation birgt auch ein bemerkenswertes Paradox: Nur Stunden vor Beginn der Bombardierung hatte die Trump-Regierung angekündigt, Anthropic von sämtlichen Regierungssystemen zu verbannen. Vorausgegangen war ein erbitterter Streit: Anthropic hatte sich geweigert, seine Technologie für vollautonome Waffen und die Massenüberwachung von US-Bürgern freizugeben. Für den Übergang gilt eine Sechsmonatsfrist.
Das Militär nutzt Claude laut den Berichten bisher weiter. Denn laut Washington Post sind Kommandeure so abhängig vom System, dass die Regierung staatliche Befugnisse einsetzen würde, um die Technologie bis zu einem Ersatz zu sichern, sollte Anthropic-CEO Dario Amodei die Nutzung einseitig beenden. Stand Mai 2025 arbeiteten über 20.000 Militärangehörige mit Maven. Eine Georgetown-Studie zur Nutzung des Systems durch das 18. Luftlandekorps der US-Armee belegte, dass eine einzelne Artillerieeinheit mit 20 Personen dank des Systems die Arbeit von 2.000 Mitarbeitern erledigen konnte.
Anthropics Konkurrenten stehen bereit: OpenAI unterzeichnete vergangene Woche einen eigenen Vertrag mit dem Pentagon.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnieren