OpenAI hat in einem neuen Bericht mehrere internationale Kampagnen aufgedeckt, die seine KI-Modelle für Cyberangriffe, politische Einflussnahme und betrügerische Beschäftigungsschemata missbrauchten. Die Aktivitäten reichen von Nordkorea über Russland bis Kambodscha.
Laut einem aktuellen Bericht von OpenAI verwendeten Betrüger ChatGPT, um mehrsprachige Rekrutierungsnachrichten für ein angebliches Arbeitsangebot zu erstellen. Für das einfache Liken von Social-Media-Beiträgen wurden Summen von mehr als fünf US-Dollar angeboten – ein ökonomisch absurder Betrag, der deutlich über den Marktpreisen liegt. Auf einschlägigen Plattformen kosten 1.000 Likes teilweise weniger als zehn US-Dollar.
Die Betrüger gingen in drei Phasen vor: Erst lockten sie Opfer mit unrealistischen Angeboten ("Ping"), dann bauten sie mit gefälschten Erfolgsgeschichten und kleinen Zahlungen Vertrauen auf ("Zing"). Am Ende forderten sie Geld - etwa als Eintrittszahlung oder in Kryptowährung ("Sting").
Die als "Wrong Number" bezeichnete Operation wurde durch einen Zufall aufgedeckt: Einer der OpenAI-Ermittler erhielt selbst eine der initialen SMS-Nachrichten. Die Nachricht forderte zur Kontaktaufnahme über WhatsApp auf und leitete dann an einen "Mentor" auf Telegram weiter.
OpenAI stoppt russische KI-Propaganda zur Bundestagswahl
OpenAI hat nach eigenen Angaben auch eine russischsprachige Einflussoperation gestoppt, die mit Hilfe von ChatGPT Inhalte in deutscher Sprache zur Bundestagswahl 2025 generierte. Die verdeckte Kampagne lief unter dem Namen "Operation Helgoland Bite" und nutzte unter anderem einen Telegram-Kanal mit dem Namen "Nachhall von Helgoland" sowie ein X-Konto mit mehr als 27.000 Followern.
Die Inhalte richteten sich gegen die USA und die NATO und unterstützten die rechtspopulistische Partei Alternative für Deutschland (AfD). Zudem wurden mit ChatGPT Informationen über deutsche Oppositionsaktivisten und Blogger recherchiert sowie russischsprachige Texte ins Deutsche übersetzt. Nach Angaben von OpenAI war die Reichweite der Kampagne begrenzt.
Chinas Einflussoperationen: Von Taiwan bis zu gefälschten Journalisten
Mehrere Operationen lassen sich laut OpenAI einem chinesischen Ursprung zuordnen. "Sneer Review" generierte Kommentare zu geopolitischen Themen auf Plattformen wie TikTok oder X, auch zur Diskreditierung von Kritikern wie der pakistanischen Aktivistin Mahrang Baloch.
Die Operation "VAGue Focus" nutzte gefälschte Medienaccounts, um Informationen über westliche Zielpersonen zu sammeln. Eine dritte Kampagne, "Uncle Spam", streute gegensätzliche politische Aussagen in den US-Diskurs, etwa zu Zollpolitik, und nutzte KI-generierte Profilbilder von angeblichen Veteranen.
Insgesamt hat OpenAI in seinem aktuellen Bericht "Disrupting malicious uses of AI: June 2025" zehn internationale Kampagnen identifiziert, bei denen Bedrohungsakteure KI-Modelle von OpenAI für betrügerische, politische oder kriminelle Zwecke eingesetzt haben.