Künstliche Intelligenz

Künstliche Intelligenz: Favorisieren Youtubes Algorithmen Fake News?

Tomislav Bezmalinovic
Ein ehemaliger Mitarbeiter will nachgewiesen haben, dass Youtube Nutzern bevorzugt irreführende und extremistische Inhalte serviert.

Plattformen wie Facebook und Twitter stehen seit längerem in der Kritik, weil sie Fake News eine Bühne bieten. Der jüngste Vorwurf gegen Youtube wiegt schwerer: Ein ehemaliger Mitarbeiter will nachgewiesen haben, dass die Algorithmen des Videoportals Nutzern bevorzugt irreführende und extremistische Inhalte serviert.

Vergangenen Sommer meldete Youtube einen neuen Rekord: Rund 1,5 Milliarden Menschen loggen sich monatlich in die Plattform ein und schauen im Durchschnitt mehr als eine Stunde pro Tag Videos. Laut Google-Ingenieuren ist dieser Erfolg nicht ohne das Empfehlungssystem denkbar, das Nutzer mit interessanten Videovorschlägen bei der Stange hält.

Der 36-jährige Programmierer Guillaume Chaslot war an der Entwicklung der streng geheimen Algorithmen beteiligt. Er wurde 2013 gefeuert, nach eigenen Aussagen, weil er Kritik an Googles Herangehensweise äußerte. Laut Chaslot sei oberste Priorität gewesen, Nutzer möglichst lange auf der Plattform zu halten. Alles andere sei nachrangig gewesen.

Im Sommer 2016 entwickelte Chaslot ein Programm, um das Empfehlungssystem systematisch auszuwerten. Die Anwendung simuliert Youtube-Nutzer, die nach dem Zufallsprinzip Videovorschlägen folgen. Diesen Prozess ließ Chaslot vom Programm tausende Male wiederholen und die Empfehlungen aufzeichnen. Die Ergebnisse seiner Datenerhebung veröffentlichte der Programmierer auf der seiner Internetseite Algo Transparency.

Systematische Unausgewogenheit

Die Resultate legen nahe, dass fragwürdige Inhalte tendenziell Vorzug haben, darunter Verschwörungstheorien, Fake News, Propaganda und Gewaltvideos.

Ein Journalist des Guardian wertete die Daten aus, die von Chaslot während der US-Präsidentschaftswahlen aufgezeichnet wurden. Das Ergebnis: Zwischen August und November 2016 schlug Youtube sechsmal häufiger Videos vor, die für Trump als für Clinton warben - ein Missverhältnis, das bei den Wahlen eine Rolle gespielt haben könnte. Schließlich wurden die Wahlvideos mehr als drei Milliarden Mal aufgerufen. 

Völlig unbekannte Youtuber berichten gegenüber der Tageszeitung, wie ihre Wahlpropaganda dank dem Empfehlungssystem plötzlich ein Millionenpublikum erreichte: "Jedes Video, dass ich über die Clintons veröffentlichte, ging mit Youtubes Hilfe durch die Decke", sagt etwa der Youtuber Daniel Alexander Cannon.

Youtube: "Die Nutzer sind schuld"

Die Youtube-Vertreterin Juniper Downs wurde kürzlich vor einem britischen Parlamentsausschuss zu dem Bericht befragt. Sie brachte zur Verteidigung vor, dass die Videovorschläge lediglich widerspiegeln würden, was die Menschen interessiert. "Es ist schwierig, Inhalte vorzuschlagen, die die Nutzer nicht sehen wollen. Sie würden sich von der Plattform abwenden."

Selbst wenn Downs Recht hat, kann sich Youtube damit kaum aus der Verantwortung stehlen: Die grundsätzliche Frage lautet, ob die Inhalte, die am meisten Aufmerksamkeit generieren, automatisch auch jene sind, die die meisten Menschen sehen sollten.

Um Missbrauch entgegenzuwirken, kündigte Youtube an, das Heer von Moderatoren auf über 10.000 aufzustocken. Unterstützt werden sie durch eine KI, die anhand des manuellen Auswahlverfahrens menschlicher Moderatoren trainiert wird. Als weitere Maßnahme will Youtube Inhalte von Verschwörungstheoretikern sowie Videos staatlicher Einrichtungen in Zukunft als solche kenntlich machen. Änderungen am Empfehlungssystem wurden nicht angekündigt.

| Featured Image: Next News Network (Screenshot) | Source: The Guardian