Künstliche Intelligenz

Corona-Krise: Mehr Verantwortung für KI bei YouTube und Co.

Matthias Bastian
Künstliche Intelligenz soll temporär mehr Inhalte auf Googles Content-Plattformen moderieren, während sich der Konzern in der Coronakrise neu aufstellt.

Künstliche Intelligenz soll für Google, Facebook und Twitter temporär mehr Inhalte auf den jeweiligen Content-Plattformen moderieren, während sich die Konzerne in der Coronakrise neu aufstellen.

Das Coronavirus schickt die Wirtschaft in die Krise und verändert, wie wir arbeiten - das gilt auch für globale Tanker wie Google. Der Konzern fährt die Präsenzpflicht im eigenen Unternehmen daher so weit wie möglich zurück.

Eine von Googles Anti-Coronavirus-Maßnahmen ist eine stärkere Automatisierung von Prozessen durch Künstliche Intelligenz.

Man habe schon immer auf eine Kombination aus Mensch und Maschine gesetzt, um Inhalte auf den eigenen Content-Plattformen zu überwachen, heißt es in einer Mitteilung des Unternehmens. In Anbetracht der "einzigartigen Situation" wolle man den Anteil an KI-Arbeit erhöhen, um so die Notwendigkeit zu reduzieren, dass Angestellte in das Büro kommen müssen.

Überstunden für Künstliche Intelligenz

Speziell bei YouTube sollen die maschinellen Lernsysteme mehr Verantwortung bei der Moderation von Inhalten übernehmen. Bislang durfte die KI den potenziell zu löschenden Inhalt nur an menschliche Prüfer weiterleiten, die dann darüber entscheiden, ob der Inhalt tatsächlich gegen Googles Richtlinien verstößt.

Jetzt soll die KI den Prozess komplett durchlaufen - von der Erkennung bis zur Löschentscheidung. "Im Rahmen unserer neuen Maßnahmen fangen wir temporär damit an, mehr Technologie einzusetzen für die Arbeiten, die normalerweise von menschlichen Prüfern erledigt werden", teilt Google im YouTube-Blog mit.

Diese Entscheidung sei notwendig, um sowohl die YouTube-Plattform vor schädlichen Inhalten zu schützen als auch die Arbeitsumgebung vor dem Coronavirus.

Google warnt vor maschinellen Fehlentscheidungen

Vorausschauend warnt Google davor, dass die KI womöglich mehr streitbare oder falsche Entscheidungen treffen könnte. Es könnten Videos entfernt werden, die nicht gegen Richtlinien verstoßen.

Google verzichtet daher auf grundlegende Verwarnungen, sogenannte "Strikes", außer in Fällen, in denen sich die KI "sehr sicher" sei, dass der Inhalt tatsächlich ein Verstoß ist. Ungeprüfte Videos könnten möglicherweise nicht über die Suche auffindbar sein und würden nicht empfohlen.

Wer meint, dass die YouTube-KI ein Video zu Unrecht gelöscht hat, kann bei Google Protest einlegen. Dann entscheidet ein Mensch statt der Maschine - allerdings mit Verzögerung. Man sei sich bewusst, dass dieser Schritt für Nutzer und YouTuber gleichermaßen disruptiv sei, schreibt Google.

Auch Facebook und Twitter wollen Content-Moderation stärker automatisieren

So wie Google bei YouTube stellen sich auch Facebook und Twitter auf: Beide Social-Media-Plattformen wollen den Anteil an automatisierter Moderation auf den eigenen Plattformen erhöhen - und warnen vor möglichen Fehlentscheidungen im Zuge der Umstellung.

So hätten maschinelle Lernsysteme "manchmal nicht den Kontext unserer Teams, was zu Fehlern führen könnte", heißt es bei Twitter. Accounts sollen daher nicht rein auf Basis einer KI-Entscheidung dauerhaft gesperrt werden. Menschen sollten "an den wirkungsvollsten Stellen" in den Prüfprozess eingebunden werden.

Titelbild: Szabo Viktor bei Unsplash

Weiterlesen über Künstliche Intelligenz: