Inhalt
summary Zusammenfassung

ChatGPT-generierte Inhalte finden ihren Weg auf Twitter. Steht uns die seit Jahren prophezeite Welle manipulativer, demokratiegefährdender Bots bevor?

Anzeige

2016 war das Jahr des Brexit-Referendums und der Wahl von Donald Trump zum US-Präsidenten. Diese unerwarteten Ereignisse lösten eine hitzige Debatte über die Auswirkungen von Social-Media-Bots auf demokratische Prozesse aus. Manipulierte eine kleine Minderheit mit Hilfe von Technologie die Massen?

Dass soziale Medien bei diesen und anderen Ereignissen eine zentrale Rolle spielten und spielen, ist unbestritten. Einige Forscherinnen und Forscher vermuteten jedoch, dass staatliche und andere Akteure mithilfe von Bots automatisierte Meinungsmache betrieben - und dass diese wirksam war.

Je nach Meldung soll es sich um Zehntausende, Hunderttausende oder gar Millionen von Bots handeln, die die Reichweite auf Twitter und anderen Plattformen erhöhen. Die Debatte flammt immer wieder auf, zuletzt etwa, als Elon Musk vor der Übernahme von Twitter von einem massiven Bot-Problem auf der Plattform sprach.

Anzeige
Anzeige

Die Rolle von Social Bots in demokratischen Prozessen ist wissenschaftlich nicht belegt

Während in den USA vorwiegend der Begriff "Bot" verwendet wird, spricht man im deutschsprachigen Raum konkret von "Social Bots". Ob dies dem Wunsch nach präzisen Begriffen oder der "German Angst" geschuldet ist, sei dahingestellt.

Forscher wie der Berliner Datenjournalist Michael Kreil oder Prof. Dr.-ing. Florian Gallwitz von der TH Nürnberg beschäftigen sich seit 2016 mit Social Media Bots.

Kreils Fazit zum Fall Trump: „Social Bots haben Wahlen beeinflusst. Klingt plausibel? Ja, klingt es. Ist es wissenschaftlich belegt? Kein bisschen.“ Der Forscher spricht von einer "Armee, die niemals existierte".

Die beiden Forscher kritisieren zudem Tools, die Bots aufspüren sollen: Diese seien ungenau und würden oft Menschen als Bots klassifizieren. Das wiederum führe mitunter zu einer Begriffsverschiebung: Bots seien nicht mehr nur automatisierte, womöglich KI-gestützte Systeme. Es reiche bereits aus, als Mensch mit wenigen Followern Teil einer gezielten Kampagne zu sein, also "bot-ähnliches" Verhalten zu zeigen, um als Bot klassifiziert zu werden.

"Die zahllosen Medienberichte aus den vergangenen Jahren über menschenähnliche politische Social Bots, die über die Fähigkeit verfügen sollen, Texte automatisch zu generieren, sind reine Märchen. Sie beruhen auf methodisch abwegiger Forschung, die grundlegendste wissenschaftliche Standards verletzt", sagt mir Gallwitz. Laut des Forschers wurden "ganz normale menschliche Twitter-Nutzer immer wieder massenhaft zu Unrecht als 'Social Bots' abgestempelt."

Empfehlung

Social Bots waren also Dystopie statt Realität und zugleich der Versuch, vermeintlich unerklärliche Ereignisse wie den Brexit zu erklären.

Macht ChatGPT die Dystopie zur Wirklichkeit?

Sechs Jahre später ist mit ChatGPT von OpenAI eine Technologie in der Öffentlichkeit angekommen, die erfordert, dass Fragen nach den Möglichkeiten von Social Bots neu gestellt werden.

Denn die Qualität des Chatbots übertrifft die anderer verfügbarer Systeme bei weitem. Von ChatGPT generierte Texte sind kaum oder gar nicht mehr als künstliches Produkt zu erkennen. Tatsächlich gibt es bereits erste Beispiele von ChatGPT-generierten Twitter-Beiträgen.

Steht uns also ein Wandel bevor?

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

"Mit ChatGPT, und eingeschränkt auch mit dessen Basismodell GPT-3, steht nun erstmals eine Technologie zur Verfügung, mit der es überhaupt möglich wäre, frei formulierte Tweets zu aktuellen Themen oder auch weitgehend sinnvolle Antworten auf Tweets anderer Accounts automatisch zu generieren", sagt Gallwitz über OpenAIs Chatbot.

Mit einer geeigneten Kombination der Programmierschnittstellen von OpenAI und Twitter ließe sich ein Bot realisieren, der sich automatisch in Konversationen einklinkt oder aktuelle Nachrichten mit einer kurzen Zusammenfassung twittert, so der Professor für Medieninformatik.

Ist ChatGPT zu langweilig für Twitter?

Gallwitz ist allerdings skeptisch, dass ein ChatGPT-Bot die Twitter-Aufmerksamkeit auf sich ziehen könnte.

"Reichweite auf Twitter wird vor allem durch Witz und Originalität bestimmt, oft auch durch Provokationen, Emotionalität und Neuigkeitswert. ChatGPT wurde dagegen so trainiert, dass es wahrscheinliche Wortfolgen produziert, die selten Überraschungen oder gar neue Gedanken enthalten, und die dazu oft wortreich und langatmig daherkommen", sagt Gallwitz. "Das ist das glatte Gegenteil dessen, was auf einem Medium wie Twitter Erfolg verspricht."

Zudem gebe es Tools, die ChatGPT-Texte recht zuverlässig erkennen könnten. "Insofern rechne ich nicht damit, dass ChatGPT oder ähnliche Tools in absehbarer Zeit die Basis für politische Manipulationsversuche auf Twitter bilden werden."

Geht es nach Gallwitz, bleibt die Dystopie vorerst genau das: eine Drohung, deren Realisierung noch infrage steht.

Anzeige
Anzeige

Tatsächlich könnten KI-Systeme wie GPT-3 eine ganz andere Rolle in Informationskriegen spielen: In einer Studie wurden mit GPT-3 Antworten reproduziert, die menschlichen Antwortmustern entlang feinkörniger demografischer Achsen entsprachen. Die Forscherinnen und Forscher sehen in großen Sprachmodellen daher ein neuartiges und mächtiges Werkzeug für die Sozial- und Politikwissenschaften.

Sie warnen aber auch vor möglichem Missbrauch. Mit einigen methodischen Fortschritten könnten die Modelle genutzt werden, um bestimmte Gruppen gezielt auf ihre Anfälligkeit für Desinformation, Manipulation oder Betrug zu testen.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Social Bots sind seit 2016 ein Thema, doch ihre Existenz und vor allem ihre Wirkung sind umstritten. Empirische Beweise gebe es nicht, meint etwa Prof. Dr.-Ing. Florian Gallwitz.
  • OpenAIs ChatGPT könne aber Texte oder Tweets frei formulieren und sei eine technische Grundlage für Bots, die sich glaubwürdig in menschliche Gespräche einmischen.
  • Gallwitz bezweifelt jedoch, dass ChatGPT-Bots Reichweite generieren können: Das KI-Modell sei zu brav, um in den sozialen Medien Aufmerksamkeit zu erregen.
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!