Inhalt
summary Zusammenfassung

OpenAI hat eine verdeckte Einflussoperation aus dem Iran aufgedeckt und gestoppt, bei der ChatGPT verwendet wurde, um Inhalte zu verschiedenen Themen zu generieren, darunter auch zum US-Präsidentschaftswahlkampf.

Anzeige

OpenAI hat eine Reihe von ChatGPT-Konten gesperrt, die mit einer verdeckten iranischen Einflussoperation namens Storm-2035 in Verbindung stehen. Auch Microsoft berichtete diese Woche über KI-gestützte Manipulationsversuche aus dem Iran und weiteren Ländern.

Laut OpenAI nutzte die Operation ChatGPT, um Inhalte zu einer Vielzahl von Themen zu generieren, darunter Kommentare zu Kandidaten auf beiden Seiten der US-Präsidentschaftswahlen. Diese Inhalte wurden dann über Social-Media-Konten und Websites verbreitet.

Ähnlich wie bei den im Mai gemeldeten verdeckten Einflussoperationen erzielte auch diese Operation laut OpenAI keine nennenswerte Resonanz beim Publikum. Die Mehrheit der identifizierten Social-Media-Beiträge erhielt nur wenige oder gar keine Likes, Shares oder Kommentare. Auch Hinweise auf eine Verbreitung der Artikel in sozialen Medien wurden nicht gefunden.

Anzeige
Anzeige
Bild: OpenAI

Die Operation nutzte ChatGPT für zwei Zwecke: zur Erstellung längerer Artikel und kürzerer Social-Media-Kommentare. Im ersten Arbeitsablauf wurden Artikel über die US-Politik und globale Ereignisse erstellt und auf fünf Websites veröffentlicht, die sich als progressive und konservative Nachrichtenportale ausgaben.

Im zweiten Workflow wurden kurze Kommentare auf Englisch und Spanisch verfasst und in sozialen Medien gepostet. OpenAI identifizierte ein Dutzend Accounts auf X und einen auf Instagram, die an dieser Operation beteiligt waren. Einige X-Konten gaben sich als progressiv, andere als konservativ aus.

Die Themen der generierten Inhalte waren hauptsächlich der Gaza-Konflikt, die Präsenz Israels bei den Olympischen Spielen und die US-Präsidentschaftswahlen. In geringerem Umfang wurden auch die Politik in Venezuela, die Rechte der Latinx-Gemeinschaften in den USA (sowohl auf Spanisch als auch auf Englisch) und die Unabhängigkeit Schottlands behandelt.

Die bloße Existenz generativer KI spielt den Lügnern in die Hände

KI kann auf verschiedene Weise für politische Propaganda eingesetzt werden, sei es durch das massenhafte Schreiben manipulativer Texte wie im obigen Beispiel oder durch die Erzeugung glaubwürdiger Stimmen- und Bildfälschungen.

Der einfachste Weg, KI manipulativ einzusetzen, ist die Behauptung, dass andere KI einsetzen. Das hat der US-Präsidentschaftskandidat Donald Trump jüngst erneut gezeigt, als er behauptete, Fotos eines begeisterten Publikums bei einem Empfang von Kamala Harris seien "A.I.’d", also mit KI manipuliert.

Empfehlung

Damit bewahrheitet sich die Vorhersage des Erfinders der Deepfake-Technologie, Ian Goodfellow, dass Menschen Bildern und Videos im Netz nicht mehr automatisch glauben sollten. Wenn aber alles gefälscht werden kann, ist nichts mehr zweifelsfrei wahr und das Vertrauen in die Medien erodiert.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI hat eine verdeckte Einflussoperation aus dem Iran aufgedeckt und gestoppt, bei der ChatGPT verwendet wurde, um Inhalte zu verschiedenen Themen wie dem US-Präsidentschaftswahlkampf, dem Gaza-Konflikt und der Politik in Venezuela zu generieren.
  • Die Operation nutzte ChatGPT, um längere Artikel für Websites zu erstellen, die sich als Nachrichtenportale ausgaben, sowie kürzere Kommentare auf Englisch und Spanisch für Social-Media-Konten, die sich als progressiv oder konservativ darstellten.
  • Trotz der Versuche, die öffentliche Meinung zu beeinflussen, erzielte die Operation laut OpenAI keine nennenswerte Resonanz. Die Existenz von generativer KI erleichtert es jedoch, die Echtheit von Inhalten anzuzweifeln und das Vertrauen in Medien zu untergraben, selbst wenn keine Manipulation stattgefunden hat. Donald Trump beispielsweise hat sich diesen Effekt bereits mindestens zweimal zunutze gemacht.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!