WSJ-Bericht liefert neue Details zum KI-Einsatz im Krieg gegen den Iran
Das Wall Street Journal bestätigt und erweitert bisherige Berichte über den massiven Einsatz generativer KI im US-Militäreinsatz gegen den Iran. Neue Details zeigen, wie tief KI bereits in Aufklärung, Zielauswahl und Logistik verankert ist.
Ein ausführlicher Bericht des Wall Street Journal liefert neue Einblicke in den Einsatz künstlicher Intelligenz im laufenden Krieg gegen den Iran. Der Bericht bestätigt und erweitert erste Berichte über den Einsatz von KI im Iran-Krieg.
Laut WSJ haben die USA seit Beginn der Angriffe am Samstag mehr als 3.000 Ziele im Iran getroffen. Zum Vergleich: In den ersten 24 Stunden waren es laut früheren Berichten rund 1.000. KI-Werkzeuge helfen demnach bei der Aufklärung, der Zielauswahl, der Planung von Bombenmissionen und der Schadensbewertung "mit Geschwindigkeiten, die zuvor nicht möglich waren", so das WSJ.
Jahrelange Geheimdienstarbeit als Grundlage
Das Wall Street Journal berichtet, dass israelische Geheimdienste jahrelang gehackte Verkehrskameras in Teheran überwacht und die Kommunikation hochrangiger iranischer Funktionäre abgehört haben. KI kam dabei zunehmend zum Einsatz, um die Flut abgefangener Daten zu sichten. Diese Vorarbeit ermöglichte letztlich den Angriff israelischer Kampfjets mit ballistischen Raketen auf die Residenz des iranischen Obersten Führers Ali Khamenei, der den aktuellen Krieg auslöste.
Menschliche Analysten können laut US-Offizieren, die in dem Bereich gearbeitet haben, maximal 4 Prozent des gesammelten Geheimdienstmaterials auswerten. "Der größte unmittelbare Einfluss von KI liegt in der Aufklärung", sagte der israelische Oberst Yishai Kohn, Leiter für Planung, Wirtschaft und IT im Verteidigungsministerium, dem WSJ. "Viele potenzielle Missionen fanden schlicht nie statt, weil die Manpower nicht existierte", um wichtige Geheimdienstinformationen auszuwerten.
KI-gestützte maschinelle Bilderkennung kann dem Bericht zufolge inzwischen schnell eine große Zahl von Zielen identifizieren und dabei spezifische Flugzeug- oder Fahrzeugmodelle unterscheiden. Nutzer können die Ergebnisse mit Abfragen vertiefen, etwa um jeden Raketenwerfer in der Nähe eines Krankenhauses zu identifizieren, oder Alarme setzen: "Sag mir jedes Mal, wenn jemand in der Nähe dieser Militärbasis ein Foto macht."
Das Pentagon als "Hardware-Firma im Software-Zeitalter"
Der erste KI-Chef des Pentagon, der pensionierte Air-Force-Generalleutnant Jack Shanahan, beschrieb gegenüber dem WSJ ein grundlegendes Problem: "Das Verteidigungsministerium wurde als Hardware-Firma im Industriezeitalter gebaut und hat sich schwer damit getan, eine digitale Firma in einer software-zentrierten Ära zu werden." Shanahan hatte vor fast einem Jahrzehnt das KI-gestützte Projekt Maven im Irak geleitet.
Die KI-Werkzeuge des Pentagon ähneln laut WSJ ChatGPT und anderen kommerziellen Sprachmodellen, sind aber auf Kriegsführung beschränkt und für spezifische Aufgaben mit relevanten Daten trainiert. Dennoch sei Krieg "eine der chaotischsten und komplexesten menschlichen Unternehmungen", die einzigartige Probleme selbst für modernste KI aufwerfe. Ein Grund: Viele verfügbare Trainingsdaten seien veraltet oder unklar.
Von zehn Militärangehörigen stehen laut dem Bericht höchstens zwei im Kampfeinsatz. Bis zu 90 Prozent des Personals arbeiten in Unterstützungsrollen. Genau diese Bereiche, Aufklärung, Missionsplanung und Logistik, seien besonders reif für KI-gestützte Effizienzgewinne.
20 Personen ersetzen 2.000
Das WSJ bestätigt eine Zahl, die bereits aus einer Georgetown-Studie bekannt war: Das 18. Luftlandekorps der US-Armee erreichte mit Software von Palantir Technologies in einer Übungsreihe namens "Scarlet Dragon" seinen eigenen Rekord als effizienteste Zielerfassungsoperation des Militärs. Laut Emelia Probasco, Senior Fellow am Georgetown Center for Security and Emerging Technology, gelang dies mit nur 20 Personen, verglichen mit mehr als 2.000 Mitarbeitern, die im Irak für die gleiche Aufgabe nötig waren.
Auch die NATO nutzt KI bereits operativ. Der französische Admiral Pierre Vandier, NATOs oberster Offizier für digitale Transformation, sagte dem WSJ, dass Bündnismitglieder KI einsetzen, um Russlands Schattentankerflotte zu verfolgen. Dabei würden Millionen Quadratmeilen mehrmals täglich nach Schiffen gescannt, die illegal auf See Treibstoff umschlagen. "Die Zahl der Ziele, die man durch KI benennen kann, schießt in die Höhe", sagte Vandier.
Von wochenlanger Planung zu Tagen
Die Missionsplanung, die früher wochenlang dauerte und "papiergefüllte Ordner" füllte, kann laut Militärführern durch KI potenziell in Tagen erledigt werden. An der Planung eines Militärangriffs sind typischerweise rund 40 Fachleute beteiligt, darunter Geheimdienstoffiziere, Kampfkommandeure, Waffenexperten und Logistikmanager. Jede Änderung hat Kaskadeneffekte: Verschiebt die Aufklärung etwa ein Bombenziel auf ein weiter entferntes Objekt, ändern sich möglicherweise Flugzeugtyp, Bewaffnung, Personalplanung, Flugrouten und Treibstoffverbrauch. KI könne diese komplexen Wechselwirkungen nun in Echtzeit verarbeiten, so das WSJ.
Für die Schadensbewertung nach Angriffen setzt das Militär auf sogenannte Sensor Fusion: KI verarbeitet gleichzeitig Bilder, Radar, Wärmesignaturen und Massenspektroskopie, um eine Liste möglicher Schlussfolgerungen zu synthetisieren. Die schnelle Analyse, wo Angriffe erfolgreich waren oder scheiterten, hilft bei der Verfeinerung nachfolgender Ziellisten.
Warnung vor Übervertrauen in die Maschine
Trotz der Effizienzgewinne warnen mehrere am WSJ-Bericht beteiligte Militäroffizielle, dass die Leistungsfähigkeit der Technologie dazu verleiten könne, sich zu stark auf KI-generierte Informationen zu verlassen. Dieser Trend werde intern mit dem Satz "The computer said to do this" beschrieben.
Emelia Probasco, die früher verschiedene Posten in der US-Marine bekleidete und heute als Senior Fellow an der Georgetown University forscht, bezeichnete die Gefahr einer solchen Abgabe von Entscheidungen an KI als "ernsthafte Sorge". Wie bei anderen Waffensystemen müssten Schutzmaßnahmen implementiert werden, um die Risiken zu begrenzen, sagte sie dem WSJ. "Die Infrastruktur dafür ist derzeit unterfinanziert", so Probasco. Gemeint sind die Kontroll- und Aufsichtsmechanismen, die sicherstellen sollen, dass Menschen KI-Empfehlungen kritisch prüfen, bevor sie in tödliche Entscheidungen münden.
Das WSJ berichtet zudem, dass US-Militärermittler glauben, dass amerikanische Streitkräfte wahrscheinlich für einen Angriff am ersten Kriegstag verantwortlich waren, bei dem Dutzende Kinder an einer Mädchenschule im Iran getötet wurden. Diese Formulierung ist deutlicher als bisherige Berichte, die von einer noch laufenden Prüfung sprachen.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnierenKI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.