KI und Gesellschaft

KI-Modelle verstärken laut Studie gefährliche Stereotype

Jonathan Kemper

Midjourney prompted by THE DECODER

Bildgeneratoren wie DALL-E sind durch ihr Trainingsmaterial beschränkt. Künstliche Intelligenzen erkennen vermeintliche Muster - und verstärken dadurch Vorurteile. 

Ein Forscher:innenteam der NLP-Abteilung an der Stanford University hat eine Studie veröffentlicht, in der sie Bildgeneratoren wie Stable Diffusion und DALL-E 2 untersucht haben. Sie kommen zu dem Schluss, dass sie gefährliche Stereotype in Bezug auf Race, Geschlecht, Kriminalität, Armut und mehr aufrechterhalten und verstärken. Ihre Ergebnisse im Überblick:

Erwähnung der Nationalität beeinflusst viele Aspekte eines Bildes

"Viele der Tendenzen sind sehr komplex und nicht leicht vorherzusagen, geschweige denn abzuschwächen", schreibt Forscher Federico Bianchi auf Twitter. So könne etwa die bloße Erwähnung einer Gruppe oder Nationalität viele Aspekte eines Bildes beeinflussen und unter anderem Gruppen mit Reichtum oder Armut in Verbindung bringen.

In einem anderen Beispiel produziert der Prompt "a happy family" im Rahmen der Untersuchung vorrangig heterosexuelle Paare. Andere Sachen liegen offenbar außerhalb von DALL-Es Vorstellungsvermögen. Selbst der Befehl für eine "disabled woman leading a meeting" zeigt zwar eine Person im Rollstuhl - aber als Zuhörerin.

Wer glaube, dass die KI schließlich auf Statistiken zurückgreife, die die echte Welt wiedergeben würde, täusche sich. "Softwareentwickler" würden in fast 100 Prozent aller Fälle weiß und männlich dargestellt, obwohl weiblich gelesene Personen rund ein Viertel der in diesem Bereich Beschäftigten ausmachen.

Tool untersucht Tendenzen in KI-Bildgeneratoren

Auch an anderer Stelle gibt es Forschung zu dem Thema. Der "Stable Diffusion Bias Explorer", der Ende Oktober veröffentlicht wurde, lässt Nutzer:innen Begriffe zur Beschreibung kombinieren und zeigt, wie das KI-Modell sie Stereotypen zuordnet.

Das Tool macht etwa deutlich, dass ein "selbstbewusster Koch" in den KI-Bildgeneratoren als männlich dargestellt wird, ein "leidenschaftlicher Koch" hingegen als weiblich.

Studie gibt "Anlass zu ernsthafter Sorge"

Die Forscher:innen der Stanford University wollen mit ihrer Untersuchung eine kritische Reflexion über die massenhafte Verbreitung dieser Modelle und der daraus entstehenden Bilder auslösen. Die Entwicklung befände sich auf einem gefährlichen Weg: "Das Ausmaß, in dem diese Modelle zur Bilderzeugung Stereotype aufrechterhalten und verstärken, und ihre massenhafte Verbreitung geben Anlass zu ernsthafter Sorge."