Forschende manipulieren X-Feed mit KI, um politische Polarisierung zu steuern
Kurz & Knapp
- Eine unabhängige Studie zeigt, dass das Ausblenden toxischer Inhalte auf X die politische Feindseligkeit signifikant senkt, während eine Erhöhung sie verstärkt.
- Forschende nutzten eine Browser-Erweiterung und KI, um die Feeds von 1.256 freiwilligen Nutzern in Echtzeit zu manipulieren, ohne auf die Kooperation der Plattform angewiesen zu sein.
- Die Bereinigung der Feeds führte zudem zu weniger "Likes" und geringerer Verweildauer, was nahelegt, dass Plattformen wirtschaftliche Anreize haben, polarisierende Inhalte zuzulassen.
Eine neue Studie in Science zeigt, dass die Sortierung von Social-Media-Feeds direkten Einfluss auf die politische Feindseligkeit hat. Den Forschenden gelang der Nachweis durch einen technischen Trick, der die Kooperation der Plattform überflüssig machte.
Die Frage, ob Social-Media-Algorithmen die politische Spaltung der Gesellschaft vorantreiben, wird seit Jahren debattiert. Nicht, weil der Verdacht nicht zumindest sehr nahe liegt, sondern weil belastbare Daten fehlen – gerade auch, weil hierfür eine enge Zusammenarbeit mit den Anbietern nötig ist. Nun hat ein Team von Wissenschaftlern in der Fachzeitschrift Science Ergebnisse eines Feldexperiments veröffentlicht, das einen kausalen Zusammenhang nahelegt.
Den Forschenden manipulierten die Feeds von 1.256 US-Nutzern auf der Plattform X (ehemals Twitter) während des US-Wahlkampfs im Sommer 2024 in Echtzeit. Das Ergebnis: Wurden Inhalte mit antidemokratischen Haltungen und parteiischer Feindseligkeit (AAPA) durch einen Algorithmus ausgeblendet, sanken die negativen Gefühle gegenüber der gegnerischen politischen Partei signifikant. Umgekehrt stieg die Abneigung, wenn solche Inhalte künstlich hervorgehoben wurden.
Die gemessenen Effekte waren beträchtlich. Die Veränderung der sogenannten affektiven Polarisierung durch den Eingriff entsprach laut den Autoren in ihrer Größenordnung etwa dem Wandel, der in den USA über einen Zeitraum von drei Jahren beobachtet wurde.
Browser-Erweiterung hebelt Plattform-Kontrolle aus
Im Gegensatz zu früheren, teils umstrittenen Experimenten von Tech-Konzernen handelte es sich hierbei nicht um einen heimlichen Eingriff in Nutzerkonten. Die Teilnehmenden wurden über Umfrageplattformen rekrutiert, gaben ihre informierte Einwilligung und installierten die Erweiterung freiwillig gegen eine Aufwandsentschädigung von 20 US-Dollar. Dass ihr Feed manipuliert wurde, wussten sie, jedoch nicht, in welche Richtung (mehr oder weniger toxische Inhalte).
Diese Erweiterung fing den Datenverkehr des "Für dich"-Feeds auf X ab. Ein im Hintergrund laufendes Large Language Model (LLM) analysierte die politischen Beiträge in Echtzeit auf Merkmale wie Unterstützung politischer Gewalt oder die Abwertung politischer Gegner. Je nach Experimentalgruppe sortierte die Erweiterung diese Beiträge neu: In der Gruppe "Reduzierte Exposition" wurden toxische Inhalte verbannt, in der Gruppe "Erhöhte Exposition" prominent platziert.
Weniger Hass bedeutet weniger Klicks
Die Studie liefert auch ökonomische Einsichten. Die Analyse der Nutzungsdaten zeigte, dass das Ausblenden toxischer Inhalte "auf Kosten eines leicht reduzierten Engagements" ging.
Teilnehmende, deren Feed von feindseligen Inhalten bereinigt wurde, verbrachten im Schnitt weniger Zeit auf der Plattform und verteilten weniger "Likes". Umgekehrt korrelierte eine erhöhte Dosis an AAPA-Inhalten mit stärkeren negativen Emotionen wie Ärger und Traurigkeit. Die Effekte waren symmetrisch: Sowohl Demokraten als auch Republikaner reagierten in gleichem Maße auf die Veränderung des Algorithmus.
Die Autoren sehen in ihrer Methode auch einen Weg in die Unabhängigkeit: Wissenschaftler seien nicht länger darauf angewiesen, dass Tech-Konzerne ihnen Zugriff auf die "Black Box" ihrer Algorithmen gewähren.
Vor kurzem hatten ähnliche Versuche noch mit größeren Einschränkungen zu kämpfen. So lieferten Studien zu Facebook und Instagram während der US-Wahl 2020, die in Zusammenarbeit mit Meta durchgeführt wurden, gemischte Ergebnisse. Diese Studien konnten jedoch nur Interventionen testen, denen die Plattform im Vorfeld zugestimmt hatte.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnieren