Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

Plattformen wie Facebook und Twitter stehen seit längerem in der Kritik, weil sie Fake News eine Bühne bieten. Der jüngste Vorwurf gegen Youtube wiegt schwerer: Ein ehemaliger Mitarbeiter will nachgewiesen haben, dass die Algorithmen des Videoportals Nutzern bevorzugt irreführende und extremistische Inhalte serviert.

Vergangenen Sommer meldete Youtube einen neuen Rekord: Rund 1,5 Milliarden Menschen loggen sich monatlich in die Plattform ein und schauen im Durchschnitt mehr als eine Stunde pro Tag Videos. Laut Google-Ingenieuren ist dieser Erfolg nicht ohne das Empfehlungssystem denkbar, das Nutzer mit interessanten Videovorschlägen bei der Stange hält.

Der 36-jährige Programmierer Guillaume Chaslot war an der Entwicklung der streng geheimen Algorithmen beteiligt. Er wurde 2013 gefeuert, nach eigenen Aussagen, weil er Kritik an Googles Herangehensweise äußerte. Laut Chaslot sei oberste Priorität gewesen, Nutzer möglichst lange auf der Plattform zu halten. Alles andere sei nachrangig gewesen.

Im Sommer 2016 entwickelte Chaslot ein Programm, um das Empfehlungssystem systematisch auszuwerten. Die Anwendung simuliert Youtube-Nutzer, die nach dem Zufallsprinzip Videovorschlägen folgen. Diesen Prozess ließ Chaslot vom Programm tausende Male wiederholen und die Empfehlungen aufzeichnen. Die Ergebnisse seiner Datenerhebung veröffentlichte der Programmierer auf der seiner Internetseite Algo Transparency.

Anzeige
Anzeige

Systematische Unausgewogenheit

Die Resultate legen nahe, dass fragwürdige Inhalte tendenziell Vorzug haben, darunter Verschwörungstheorien, Fake News, Propaganda und Gewaltvideos.

Ein Journalist des Guardian wertete die Daten aus, die von Chaslot während der US-Präsidentschaftswahlen aufgezeichnet wurden. Das Ergebnis: Zwischen August und November 2016 schlug Youtube sechsmal häufiger Videos vor, die für Trump als für Clinton warben - ein Missverhältnis, das bei den Wahlen eine Rolle gespielt haben könnte. Schließlich wurden die Wahlvideos mehr als drei Milliarden Mal aufgerufen. 

Völlig unbekannte Youtuber berichten gegenüber der Tageszeitung, wie ihre Wahlpropaganda dank dem Empfehlungssystem plötzlich ein Millionenpublikum erreichte: "Jedes Video, dass ich über die Clintons veröffentlichte, ging mit Youtubes Hilfe durch die Decke", sagt etwa der Youtuber Daniel Alexander Cannon.

Youtube: "Die Nutzer sind schuld"

Die Youtube-Vertreterin Juniper Downs wurde kürzlich vor einem britischen Parlamentsausschuss zu dem Bericht befragt. Sie brachte zur Verteidigung vor, dass die Videovorschläge lediglich widerspiegeln würden, was die Menschen interessiert. "Es ist schwierig, Inhalte vorzuschlagen, die die Nutzer nicht sehen wollen. Sie würden sich von der Plattform abwenden."

Selbst wenn Downs Recht hat, kann sich Youtube damit kaum aus der Verantwortung stehlen: Die grundsätzliche Frage lautet, ob die Inhalte, die am meisten Aufmerksamkeit generieren, automatisch auch jene sind, die die meisten Menschen sehen sollten.

Empfehlung

Um Missbrauch entgegenzuwirken, kündigte Youtube an, das Heer von Moderatoren auf über 10.000 aufzustocken. Unterstützt werden sie durch eine KI, die anhand des manuellen Auswahlverfahrens menschlicher Moderatoren trainiert wird. Als weitere Maßnahme will Youtube Inhalte von Verschwörungstheoretikern sowie Videos staatlicher Einrichtungen in Zukunft als solche kenntlich machen. Änderungen am Empfehlungssystem wurden nicht angekündigt.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
| Featured Image: Next News Network (Screenshot) | Source: The Guardian
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Tomislav schreibt über Künstliche Intelligenz im Kontext der XR, Kunst und virtueller Wesen: Wie trägt KI zur Entwicklung von VR und AR bei, wie rekonstruiert und erweitert sie das menschliche Kunstschaffen und welche neue Formen des Geschichtenerzählens und der NPC-Interaktion ermöglicht sie?
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!