- Google hat ein Statement veröffentlicht, wie es zu dem Fehler kam.
- Google hat die Generierung von Personenbildern zunächst gestoppt, bis das Problem behoben ist.
Aktualisierung vom 23. Februar 2024:
Google hat einen Beitrag darüber veröffentlicht, was bei der Bilderzeugung mit Gemini schiefgelaufen ist (siehe unten).
Laut Google ist die App, die auf Imagen 2 basiert, so eingestellt, dass sie keine gewalttätigen, sexuell eindeutigen oder realen Bilder generiert. Außerdem soll sie vielfältige Ergebnisse liefern.
Was ist also schief gelaufen? Kurz gesagt, zwei Dinge. Erstens, unsere Einstellung, die sicherstellen sollte, dass Gemini diverse Personen anzeigt, berücksichtigte nicht die Fälle, in denen eindeutig keine Diversität ausgegeben werden sollte. Und zweitens wurde das Modell mit der Zeit viel vorsichtiger, als wir es beabsichtigt hatten, und weigerte sich, auf bestimmte Prompts vollständig zu reagieren - und interpretierte einige sehr harmlose Promps fälschlicherweise als sensibel.
Beides führte dazu, dass das Modell in einigen Fällen überkompensierte und in anderen Fällen übervorsichtig war, was zu peinlichen und falschen Bildern führte.
Das Unternehmen erinnerte die Nutzer daran, dass Gemini, das als Kreativitäts- und Produktivitätswerkzeug konzipiert wurde, nicht immer zuverlässig ist, insbesondere bei aktuellen Ereignissen und sensiblen Themen.
Für "frische, qualitativ hochwertige Informationen" empfiehlt das Unternehmen die Nutzung der Google-Suche. NewsGuard weist in einer neuen Studie darauf hin, dass die Google-Suche auch unter dem Druck von KI-generierten Fake-Inhalten steht.
Google hat die Generierung von Personenbildern abgeschaltet und will sie erst nach einer "signifikanten" Verbesserung und "ausgiebigen Tests" wieder aktivieren.
Originalartikel vom 22. Februar. 2024:
Googles KI-Bildgenerator verzerrt Geschichte, um nicht rassistisch zu sein
KI-Bildgeneratoren wurden in den vergangenen Jahren häufig wegen sozialer und rassistischer Verzerrungen kritisiert. Bei dem Versuch, dem entgegenzuwirken, ist Google nun über das Ziel hinausgeschossen.
Rassistische und soziale Vorurteile in KI-Bildsystemen wurden in den vergangenen Jahren in Forschung und Praxis nachgewiesen. Sie lassen sich leicht erklären: KI-Systeme übernehmen Vorurteile, die in den Trainingsdaten enthalten sind. Dabei besteht die Gefahr, dass sich diese Vorurteile verfestigen oder sogar ausweiten.
Gerade die großen KI-Unternehmen kämpfen daher mit Vorurteilen. Da sie diese aber nicht ohne Weiteres aus den Trainingsdaten entfernen können, müssen sie Umwege finden.
OpenAI etwa lässt die Bild-KI DALL-E 3 ChatGPT die vom Nutzer eingegebenen Prompts umschreiben, um mehr Vielfalt in die Bilder zu bringen. Bittet man das Bildsystem beispielsweise, ein Foto eines typischen Amerikaners zu generieren, erhält man stets Bilder von weißen, asiatischen und schwarzen Menschen.
Google scheint einen ähnlichen Mechanismus zu verwenden, der jedoch im historischen Kontext zu falschen Bildern führen kann. So kann die Suchanfrage "Foto eines deutschen Soldaten 1943" auch stilisierte Bilder von Schwarzen und Asiaten hervorbringen, und ein Papst-Prompt kann Bilder eines nicht weißen Papstes generieren.
Google räumt Fehler ein und verspricht Abhilfe
Natürlich könnte man argumentieren, dass es nicht die Aufgabe eines KI-Bildgenerators ist, historisch akkurate Bilder zu erzeugen, und dass diese Visualisierungen Fantasiegebilde sind. Schließlich sind Halluzinationen, also maschinelle Fantasie, wenn man so will, eine Funktion des Systems und kein Fehler.
Aber natürlich wäre diese Argumentation Wasser auf die Mühlen konservativer Kräfte, die KI-Unternehmen vorwerfen, zu "woke" und rassistisch gegenüber Weißen zu sein, weil sie sich um Vielfalt bemühen.
Gemini-Produktmanager Jack Krawczyk spricht von "Ungenauigkeiten in einigen Darstellungen der historischen Bilderzeugung" und verspricht schnelle Abhilfe. Auch Google selbst räumt einen Fehler ein. Generell sei es gut, dass Gemini Bilder mit Menschen unterschiedlicher Herkunft generiere. Im historischen Kontext würde die Bild-KI jedoch ihr Ziel verfehlen. Google stoppt die Generierung von Personenbildern, bis das Problem "bald" adressiert ist.
Der bekannte Entwickler John Carmack, der selbst an KI-Systemen arbeitet, fordert mehr Transparenz für KI-Regeln: "Die Leitplanken für KI-Verhalten, die durch Prompt Engineering und Filterung gesetzt werden, sollten öffentlich sein - die Schöpfer sollten mit Stolz hinter ihrer Vision stehen, was das Beste für die Gesellschaft ist und wie sie es in Befehle und Code umgesetzt haben. Ich vermute, viele schämen sich sogar", schreibt Carmack.
Update: Eine frühere Version dieses Artikels enthielt einen Link zu angeblich KI-generierten Bildern von Justin Trudeau. Dabei handelte es sich allerdings um echte Aufnahmen. Die Bilder wurden entfernt.