Ein internes Dokument zeigt, dass Metas KI-Chatbots rassistische und sexualisierte Inhalte ausgeben durften, darunter auch "sinnliche" Gespräche mit Kindern. Gleichzeitig engagiert der Konzern einen rechten Aktivisten, um gegen angeblich "woke" KI vorzugehen.
Laut eines internen Dokuments, das Reuters vorliegt, hat Meta in seinen Richtlinien für KI-Chatbots Verhalten erlaubt, mit Minderjährigen romantische oder "sinnliche" Gespräche zu führen. So heißt es etwa, es sei zulässig, ein achtjähriges Kind als "Kunstwerk" zu beschreiben oder dessen Körper als "Schatz" zu bezeichnen.
Die über 200 Seiten umfassenden Standards mit dem Titel "GenAI: Content Risk Standards" legen fest, welche Inhalte Chatbots wie Meta AI auf Facebook, Instagram und WhatsApp generieren dürfen. Sie wurden von Metas Rechts-, Politik- und Technikabteilungen, inklusive Chefethiker, genehmigt.
Meta-Sprecher Andy Stone erklärte, solche Inhalte seien "inkonsistent mit unseren Richtlinien" und "niemals zulässig" gewesen. Gleichzeitig räumte er ein, dass die Durchsetzung bislang nicht zuverlässig war. Erst nach Rückfragen durch Reuters entfernte Meta laut eigenen Angaben diese Passagen. Eine überarbeitete Version des Dokuments legte Meta nicht vor.
Rassismus und Falschinformationen sind erlaubt – in Grenzen
Auch bei rassistischen Inhalten erlaubt das Regelwerk grenzwertige Ausnahmen. So dürfen Chatbots Aussagen wie "Black people are dumber than white people" generieren, solange diese nicht entmenschlichend formuliert sind. Bezeichnungen wie "brainless monkeys" gelten hingegen als inakzeptabel. Eine Stellungnahme zu diesen Beispielen verweigerte Meta.
Das Dokument verbietet zwar die Abgabe von definitiven rechtlichen oder medizinischen Ratschlägen, erlaubt aber die Erzeugung anderer Falschinformationen, solange diese mit einem klaren Hinweis auf ihre Unwahrheit versehen sind. So gilt es etwa als akzeptabel, einen Artikel zu erstellen, in dem behauptet wird, ein Mitglied der britischen Königsfamilie habe eine Geschlechtskrankheit, solange ein entsprechender Disclaimer hinzugefügt wird.
In der Bildgenerierung toleriert Meta Gewalt, sofern sie nicht zu explizit ist: Szenen, in denen etwa eine Frau von einem Mann mit einer Kettensäge bedroht wird, sind zulässig, die tatsächliche Zerstückelung jedoch nicht.
Meta holt rechten Aktivisten ins Team
Trotz dieser permissiven Richtlinien hält Meta seine KI offenbar für zu "woke". Für Abhilfe soll der konservative Aktivist Robby Starbuck sorgen, den das Unternehmen als Berater engagiert hat, um "politische Voreingenommenheit" in KI-Systemen zu reduzieren, wie Mashable berichtet.
Starbuck ist kein KI-Experte, sondern vor allem für seine Kampagnen gegen Diversitätsinitiativen (DEI) bekannt. Er hat die Trump-Administration beraten und ist mit der konservativen Heritage Foundation verbunden. Meta verpflichtete ihn im Rahmen eines Vergleichs, nachdem ein Chatbot fälschlich behauptet hatte, Starbuck sei am Sturm auf das US-Kapitol am 6. Januar 2021 beteiligt gewesen.
Die Personalie passt in einen größeren politischen Kontext: Die Trump-Regierung arbeitet an einer Verordnung, die KI-Unternehmen mit US-Regierungsverträgen zu politisch neutralen Systemen verpflichtet. Ziel ist es, sogenannte "woke" Modelle zu verhindern und politische Einflussnahme zu unterbinden; wobei "Neutralität" in diesem Kontext weitgehend wohl mit der politischen Linie der Trump-Administration gleichgesetzt wird. Meta-Gründer Mark Zuckerberg hat sich bereits nach Trumps Amtsantritt als anpassungsfähig gegenüber dem neuen politischen Klima gezeigt.
KI-Modelle tendieren nach links – selbst die rechten
Studien des Forschers David Rozado zeigen, dass viele große Sprachmodelle bei politischen Fragen linksliberale Positionen einnehmen, insbesondere, wenn sie nach dem Training weiter feinjustiert wurden. Das betrifft auch Modelle von Plattformen mit rechter Ausrichtung wie Elon Musks xAI. In mehreren Fällen führten manuelle Eingriffe dazu, dass die Modelle Verschwörungserzählungen verbreiteten, antisemitische Inhalte generierten oder sogar Adolf Hitler lobten.