Inhalt
summary Zusammenfassung

In einer Studie wurde untersucht, wie viele Profile auf X (ehemals Twitter) KI-generierte Profilbilder verwenden und welche Inhalte sie verbreiten. Die Ergebnisse deuten auf gezielte Fehlinformationen hin, die aber wahrscheinlich keine große Wirkung haben.

Anzeige

Laut einer aktuellen Studie der Ruhr-Universität Bochum, des GESIS – Leibniz-Instituts für Sozialwissenschaften in Köln und des CISPA Helmholtz Center for Information Security in Saarbrücken. verwenden 0,052 Prozent der Profile auf X (ehemals Twitter) ein KI-generiertes Profilbild. Die False-Positive-Rate lag bei 1,4 Prozent.

Die Forscher analysierten fast 15 Millionen X-Accounts und fanden 7.723 Profile mit KI-generierten Porträtbildern. Diese Accounts zeigen ein auffälliges Verhaltensmuster: Sie haben durchschnittlich weniger Follower und folgen selbst weniger Accounts.

"Mehr als die Hälfte dieser Accounts wurden erst 2023 erstellt, teilweise hunderte innerhalb weniger Stunden - ein klares Indiz dafür, dass es sich nicht um echte Nutzer handelt", erklärt Hauptautor Jonas Ricker. Nach neun Monaten waren mehr als die Hälfte dieser Accounts von X gesperrt worden.

Anzeige
Anzeige

Trump, Corona und Ukraine als Hauptthemen

Aufgrund der angewandten Methode könnte es jedoch eine hohe Dunkelziffer von nicht erkannten KI-Fake-Porträts geben. Denn die Forscher konzentrierten sich auf die Erkennung von Bildern, die mit dem KI-Modell StyleGAN 2 erstellt wurden, das auch hinter der Website thispersondoesnotexist.com steht.

Beispiel für ein mit StyleGan2 generiertes KI-Bild. | Bild: via thispersondoesnotexist.com

Das bedeutet wiederum, dass Bilder, die mit neueren und wahrscheinlich weiter verbreiteten KI-Systemen erstellt wurden, nicht erkannt wurden und daher nicht in der Statistik auftauchen.

Die Studie sollte daher nicht als aussagekräftig in Bezug auf den Anteil gefälschter KI-Profilbilder bei X angesehen werden, und noch weniger in Bezug auf den Anteil gefälschter Konten, die auch echte, keine oder illustrative Bilder verwenden können.

Interessant ist aber, was die erkannten Accounts mit KI-Fake-Bild bei X erzählen. Die manuelle Inhaltsanalyse von 1000 der Accounts mit KI-Fake-Bild zeigt klare thematische Schwerpunkte: Politik - häufig im Zusammenhang mit Trump -, Covid-19 und Impfungen sowie der Krieg in der Ukraine. Auch Lotterien und Finanzthemen wie Kryptowährungen tauchen häufig auf.

Balkendiagramm: Verteilung von 1000 Twitter-Accounts auf 5 Themenkategorien, Politik führt mit fast 400 Accounts.
Die Analyse von 1000 manuell geprüften aktiven X-Accounts zeigt eine klare Dominanz politischer und finanzwirtschaftlicher Themen, während Business, Sex und diverse Themen weniger Raum einnehmen. | Bild: Ricker et al.

Laut Ricker ist es zwar spekulativ, aber naheliegend, dass einige der Accounts "gezielt zur Verbreitung von Desinformation und politischer Propaganda eingerichtet wurden". Die Tatsache, dass viele Fake-Image-Accounts massenhaft erstellt wurden und identische Metadaten aufweisen, deute darauf hin, dass sie Teil eines organisierten Netzwerks seien, heißt es in der Studie.

Empfehlung
UMAP-Diagramm: Farbige Cluster englischer Tweets nach Themen gruppiert, plus Balkendiagramm der Themenverteilung aktiver Accounts.
Die Visualisierung offenbart distinkte Themenclustering in englischsprachigen Tweets, wobei Politik und Finanzen dominieren. | Bild: Ricker et al.

In einem nächsten Schritt wollen die Forschenden die Automatisierung von KI-Fake-Profilbildern ausbauen und neuere Muster in die Analyse einbeziehen.

Viel KI, wenig Wirkung?

Die Reichweite der geprüften Fake-Bild-Accounts haben die Forscher nicht untersucht. Die Tatsache, dass die untersuchten X-Accounts im Durchschnitt weniger Follower haben und weniger Accounts folgen, deutet jedoch darauf hin, dass sie auch nur eine geringe Reichweite erzielen.

Auch eine OpenAI-Studie zum Missbrauch von ChatGPT für politische Propaganda und Betrug zeigte, dass Social-Media-Accounts, die diese KI-generierten Botschaften verbreiteten, kaum Resonanz erhielten und damit wirkungslos waren.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Eine Studie der Ruhr-Universität Bochum, des GESIS - Leibniz-Institut für Sozialwissenschaften und des CISPA Helmholtz Center for Information Security hat ergeben, dass 0,052 Prozent der Profile auf X (ehemals Twitter) KI-generierte Profilbilder verwenden. Untersucht wurden nur Bilder, die mit StyleGAN 2 erstellt wurden - es gibt also eine mögliche Dunkelziffer.
  • Die manuelle Inhaltsanalyse von 1.000 dieser Accounts mit KI-Fake-Bildern zeigt klare thematische Schwerpunkte wie Politik (oft im Zusammenhang mit Trump), Covid-19 und Impfungen, den Krieg in der Ukraine sowie Lotterien und Finanzthemen wie Kryptowährungen.
  • Die massenhafte Erstellung der Accounts und die identischen Metadaten deuten laut den Forschern auf organisierte Netzwerke zur gezielten Verbreitung von Desinformation und politischer Propaganda hin. Viel Wirkung dürften sie allerdings nicht erzielt haben.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!