Inhalt
summary Zusammenfassung
Update
  • Google hat ein Statement veröffentlicht, wie es zu dem Fehler kam.
  • Google hat die Generierung von Personenbildern zunächst gestoppt, bis das Problem behoben ist.

Aktualisierung vom 23. Februar 2024:

Google hat einen Beitrag darüber veröffentlicht, was bei der Bilderzeugung mit Gemini schiefgelaufen ist (siehe unten).

Laut Google ist die App, die auf Imagen 2 basiert, so eingestellt, dass sie keine gewalttätigen, sexuell eindeutigen oder realen Bilder generiert. Außerdem soll sie vielfältige Ergebnisse liefern.

Was ist also schief gelaufen? Kurz gesagt, zwei Dinge. Erstens, unsere Einstellung, die sicherstellen sollte, dass Gemini diverse Personen anzeigt, berücksichtigte nicht die Fälle, in denen eindeutig keine Diversität ausgegeben werden sollte. Und zweitens wurde das Modell mit der Zeit viel vorsichtiger, als wir es beabsichtigt hatten, und weigerte sich, auf bestimmte Prompts vollständig zu reagieren - und interpretierte einige sehr harmlose Promps fälschlicherweise als sensibel.

Beides führte dazu, dass das Modell in einigen Fällen überkompensierte und in anderen Fällen übervorsichtig war, was zu peinlichen und falschen Bildern führte.

Google

Das Unternehmen erinnerte die Nutzer daran, dass Gemini, das als Kreativitäts- und Produktivitätswerkzeug konzipiert wurde, nicht immer zuverlässig ist, insbesondere bei aktuellen Ereignissen und sensiblen Themen.

Anzeige
Anzeige

Für "frische, qualitativ hochwertige Informationen" empfiehlt das Unternehmen die Nutzung der Google-Suche. NewsGuard weist in einer neuen Studie darauf hin, dass die Google-Suche auch unter dem Druck von KI-generierten Fake-Inhalten steht.

Google hat die Generierung von Personenbildern abgeschaltet und will sie erst nach einer "signifikanten" Verbesserung und "ausgiebigen Tests" wieder aktivieren.

Originalartikel vom 22. Februar. 2024:

Googles KI-Bildgenerator verzerrt Geschichte, um nicht rassistisch zu sein

KI-Bildgeneratoren wurden in den vergangenen Jahren häufig wegen sozialer und rassistischer Verzerrungen kritisiert. Bei dem Versuch, dem entgegenzuwirken, ist Google nun über das Ziel hinausgeschossen.

Rassistische und soziale Vorurteile in KI-Bildsystemen wurden in den vergangenen Jahren in Forschung und Praxis nachgewiesen. Sie lassen sich leicht erklären: KI-Systeme übernehmen Vorurteile, die in den Trainingsdaten enthalten sind. Dabei besteht die Gefahr, dass sich diese Vorurteile verfestigen oder sogar ausweiten.

Empfehlung

Gerade die großen KI-Unternehmen kämpfen daher mit Vorurteilen. Da sie diese aber nicht ohne Weiteres aus den Trainingsdaten entfernen können, müssen sie Umwege finden.

OpenAI etwa lässt die Bild-KI DALL-E 3 ChatGPT die vom Nutzer eingegebenen Prompts umschreiben, um mehr Vielfalt in die Bilder zu bringen. Bittet man das Bildsystem beispielsweise, ein Foto eines typischen Amerikaners zu generieren, erhält man stets Bilder von weißen, asiatischen und schwarzen Menschen.

Google scheint einen ähnlichen Mechanismus zu verwenden, der jedoch im historischen Kontext zu falschen Bildern führen kann. So kann die Suchanfrage "Foto eines deutschen Soldaten 1943" auch stilisierte Bilder von Schwarzen und Asiaten hervorbringen, und ein Papst-Prompt kann Bilder eines nicht weißen Papstes generieren.

Bild: Screenshot via X

Google räumt Fehler ein und verspricht Abhilfe

Natürlich könnte man argumentieren, dass es nicht die Aufgabe eines KI-Bildgenerators ist, historisch akkurate Bilder zu erzeugen, und dass diese Visualisierungen Fantasiegebilde sind. Schließlich sind Halluzinationen, also maschinelle Fantasie, wenn man so will, eine Funktion des Systems und kein Fehler.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Aber natürlich wäre diese Argumentation Wasser auf die Mühlen konservativer Kräfte, die KI-Unternehmen vorwerfen, zu "woke" und rassistisch gegenüber Weißen zu sein, weil sie sich um Vielfalt bemühen.

Gemini-Produktmanager Jack Krawczyk spricht von "Ungenauigkeiten in einigen Darstellungen der historischen Bilderzeugung" und verspricht schnelle Abhilfe. Auch Google selbst räumt einen Fehler ein. Generell sei es gut, dass Gemini Bilder mit Menschen unterschiedlicher Herkunft generiere. Im historischen Kontext würde die Bild-KI jedoch ihr Ziel verfehlen. Google stoppt die Generierung von Personenbildern, bis das Problem "bald" adressiert ist.

Der bekannte Entwickler John Carmack, der selbst an KI-Systemen arbeitet, fordert mehr Transparenz für KI-Regeln: "Die Leitplanken für KI-Verhalten, die durch Prompt Engineering und Filterung gesetzt werden, sollten öffentlich sein - die Schöpfer sollten mit Stolz hinter ihrer Vision stehen, was das Beste für die Gesellschaft ist und wie sie es in Befehle und Code umgesetzt haben. Ich vermute, viele schämen sich sogar", schreibt Carmack.

Update: Eine frühere Version dieses Artikels enthielt einen Link zu angeblich KI-generierten Bildern von Justin Trudeau. Dabei handelte es sich allerdings um echte Aufnahmen. Die Bilder wurden entfernt.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • KI-Bildgeneratoren wie Googles Gemini und OpenAIs DALL-E 3 haben in der Vergangenheit rassistische und soziale Verzerrungen gezeigt, die auf Vorurteile in Trainingsdaten zurückzuführen sind.
  • Um mehr Vielfalt in generierten Bildern zu erreichen, verwenden diese Systeme Mechanismen, die Nutzer-Prompts umschreiben, was jedoch im historischen Kontext zu ungenauen oder falschen Darstellungen führen kann.
  • Google hat Fehler bei der Generierung historischer Bilder eingeräumt und Besserung gelobt, sagt aber auch, dass es grundsätzlich gut sei, wenn die Generatoren Vielfalt zeigten.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!