OpenAI hat eine verdeckte Einflussoperation aus dem Iran aufgedeckt und gestoppt, bei der ChatGPT verwendet wurde, um Inhalte zu verschiedenen Themen zu generieren, darunter auch zum US-Präsidentschaftswahlkampf.
OpenAI hat eine Reihe von ChatGPT-Konten gesperrt, die mit einer verdeckten iranischen Einflussoperation namens Storm-2035 in Verbindung stehen. Auch Microsoft berichtete diese Woche über KI-gestützte Manipulationsversuche aus dem Iran und weiteren Ländern.
Laut OpenAI nutzte die Operation ChatGPT, um Inhalte zu einer Vielzahl von Themen zu generieren, darunter Kommentare zu Kandidaten auf beiden Seiten der US-Präsidentschaftswahlen. Diese Inhalte wurden dann über Social-Media-Konten und Websites verbreitet.
Ähnlich wie bei den im Mai gemeldeten verdeckten Einflussoperationen erzielte auch diese Operation laut OpenAI keine nennenswerte Resonanz beim Publikum. Die Mehrheit der identifizierten Social-Media-Beiträge erhielt nur wenige oder gar keine Likes, Shares oder Kommentare. Auch Hinweise auf eine Verbreitung der Artikel in sozialen Medien wurden nicht gefunden.
Die Operation nutzte ChatGPT für zwei Zwecke: zur Erstellung längerer Artikel und kürzerer Social-Media-Kommentare. Im ersten Arbeitsablauf wurden Artikel über die US-Politik und globale Ereignisse erstellt und auf fünf Websites veröffentlicht, die sich als progressive und konservative Nachrichtenportale ausgaben.
Im zweiten Workflow wurden kurze Kommentare auf Englisch und Spanisch verfasst und in sozialen Medien gepostet. OpenAI identifizierte ein Dutzend Accounts auf X und einen auf Instagram, die an dieser Operation beteiligt waren. Einige X-Konten gaben sich als progressiv, andere als konservativ aus.
Die Themen der generierten Inhalte waren hauptsächlich der Gaza-Konflikt, die Präsenz Israels bei den Olympischen Spielen und die US-Präsidentschaftswahlen. In geringerem Umfang wurden auch die Politik in Venezuela, die Rechte der Latinx-Gemeinschaften in den USA (sowohl auf Spanisch als auch auf Englisch) und die Unabhängigkeit Schottlands behandelt.
Die bloße Existenz generativer KI spielt den Lügnern in die Hände
KI kann auf verschiedene Weise für politische Propaganda eingesetzt werden, sei es durch das massenhafte Schreiben manipulativer Texte wie im obigen Beispiel oder durch die Erzeugung glaubwürdiger Stimmen- und Bildfälschungen.
Der einfachste Weg, KI manipulativ einzusetzen, ist die Behauptung, dass andere KI einsetzen. Das hat der US-Präsidentschaftskandidat Donald Trump jüngst erneut gezeigt, als er behauptete, Fotos eines begeisterten Publikums bei einem Empfang von Kamala Harris seien "A.I.’d", also mit KI manipuliert.
Damit bewahrheitet sich die Vorhersage des Erfinders der Deepfake-Technologie, Ian Goodfellow, dass Menschen Bildern und Videos im Netz nicht mehr automatisch glauben sollten. Wenn aber alles gefälscht werden kann, ist nichts mehr zweifelsfrei wahr und das Vertrauen in die Medien erodiert.