Anzeige
Skip to content

Google schreibt KI-Forschern "positiven Ton" vor

Image description
Unsplash

Google soll für ethisch kritische KI-Forschungsarbeiten einen neuen Prüfungsprozess eingeführt haben, bei dem Arbeiten auch auf ihre Tonalität geprüft und falls nötig in ein positives Licht gedreht werden.

Der Nachrichtendienst Reuters berichtet unter Berufung auf insgesamt acht aktuelle und ehemalige Google-Angestellte, dass Google seit wahrscheinlich Juni 2020 einen neuen Prüfungsprozess für KI-Forschungsarbeiten über "sensible Themen" eingeführt hat. In mindestens drei Fällen soll so die Tonalität von Forschungsarbeiten in eine positive Richtung beeinflusst worden sein.

Als sensibel gelten unter anderem Themen mit starker ethischer Dimension wie die Ölindustrie, China, Iran, Israel, COVID-19, Haussicherheit, Versicherungen, Standortdaten, Religion, selbstfahrende Fahrzeuge, Telekommunikation und Systeme, die Webinhalte empfehlen oder personalisieren.

Forschungsarbeiten, die in diesen sensiblen Bereich fallen, müssten ergänzend zum standardmäßigen Prüfungsprozess eine Zusatzrunde drehen, berichtet Reuters. Dabei soll es in mindestens drei Fällen zu einer nachträglichen Einflussnahme bezüglich der Tonalität der Arbeit gekommen sein.

Anzeige
DEC_D_Incontent-1

Fördern Empfehlungssysteme Desinformation oder Fairness?

Bei einer Forschungsarbeit über Empfehlungssysteme, die bei Services wie YouTube die Auswahl angezeigter Inhalte personalisieren, soll den Wissenschaftlern seitens eines Senior-Managers dazu geraten worden sein, besonderen Wert auf einen positiven Ton zu legen - ohne sich allerdings vor den Herausforderungen entsprechender Systeme zu verstecken.

"Achten Sie sehr auf einen positiven Ton", heißt es in der internen Korrespondenz, die Reuters vorgelesen wurde. "Das bedeutet nicht, dass wir uns vor den wirklichen Herausforderungen verstecken sollten."

In besagter Arbeit über Empfehlungssysteme soll im Originaltext der Satz gestanden haben, dass diese "Desinformation, diskriminierende oder anderweitig unfaire Ergebnisse", "unzureichende Vielfalt der Inhalte" und "politische Polarisierung" begünstigen könnten.

In der veröffentlichten Forschungsarbeit mit dem Titel "Wofür optimierst du? Empfehlungssysteme an menschlichen Werten ausrichten" steht hingegen, dass Empfehlungsalgorithmen "genaue Informationen, Fairness und Vielfalt der Inhalte" fördern könnten sowie die Reduzierung von Sucht und Polarisierung möglich sei. An dieser Stelle im Text werden jeweils andere Forschungsarbeiten zitiert.

Anzeige
DEC_D_Incontent-2

Das Produkt YouTube oder Google-Forscher werden in der veröffentlichten Version nicht mehr erwähnt. Der Verweis auf YouTube soll vor der Veröffentlichung aus der Arbeit entfernt worden sein.

KI-Forschung bei Google: Senior-Forscherin beklagt Wissenschaftszensur

Ein Forschungspapier über das maschinelle Verstehen einer Fremdsprache, bei dem ein Fehler von Googles Übersetzungsservice Translate referenziert wird, wurde laut Reuters nach einer internen Anfrage ebenfalls abgeschwächt.

In einem weiteren Forschungspapier wurde beschrieben, wie die mit Internetdaten trainierte KI GPT-2 persönliche Informationen und urheberrechtlich geschütztes Material - darunter eine Seite aus einem Harry Potter-Roman - als Ergebnis ausgeben kann. Auch Google trainiert KI-Sprachmodelle mit Internettext.

Ein Entwurf des Forschungspapiers beschrieb, wie die KI daher gegen Urheberrechte oder europäisches Datenschutzrecht verstoßen könnte. Nach einer internen Überprüfung entfernten die Autoren die Verweise auf mögliche rechtliche Risiken und das Papier wurde veröffentlicht.

Ein Google-Mitarbeiter beschreibt den Prüfungsprozess gegenüber Reuters als "Marathon", bei dem mehr als 100 E-Mails zwischen Forschern und Gutachtern gewechselt wurden. Diskussionen zu Urheber- und Datenschutzrecht bei großen KI-Sprachmodellen wurden stattdessen bei Berkeley Artificial Intelligence Research und in Googles AI Blog veröffentlicht.

"Wenn wir mit unserer Expertise das Richtige erforschen und uns die Veröffentlichung aus Gründen nicht erlaubt wird, die nicht im Einklang mit einer qualitativ hochwertigen Peer Review stehen, dann bekommen wir ein ernsthaftes Zensurproblem", sagt die für Google tätige Senior-Forscherin Margeret Mitchell.

Quelle: Reuters, The Guardian

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren