Bildgeneratoren wie DALL-E sind durch ihr Trainingsmaterial beschränkt. Künstliche Intelligenzen erkennen vermeintliche Muster - und verstärken dadurch Vorurteile.
Ein Forscher:innenteam der NLP-Abteilung an der Stanford University hat eine Studie veröffentlicht, in der sie Bildgeneratoren wie Stable Diffusion und DALL-E 2 untersucht haben. Sie kommen zu dem Schluss, dass sie gefährliche Stereotype in Bezug auf Race, Geschlecht, Kriminalität, Armut und mehr aufrechterhalten und verstärken. Ihre Ergebnisse im Überblick:
- Einfache Prompts erzeugen Tausende von Bildern, die gefährliche rassistische, ethnische, geschlechtsspezifische, klassenbezogene und intersektionelle Stereotype verstärken.
- Über die Reproduktion gesellschaftlicher Ungleichheiten hinaus haben sie Fälle von "nahezu vollständiger Stereotypverstärkung" gefunden.
- Aufforderungen, die soziale Gruppen erwähnen, erzeugen Bilder mit komplexen Stereotypen, die nicht leicht entschärft werden können.
Erwähnung der Nationalität beeinflusst viele Aspekte eines Bildes
"Viele der Tendenzen sind sehr komplex und nicht leicht vorherzusagen, geschweige denn abzuschwächen", schreibt Forscher Federico Bianchi auf Twitter. So könne etwa die bloße Erwähnung einer Gruppe oder Nationalität viele Aspekte eines Bildes beeinflussen und unter anderem Gruppen mit Reichtum oder Armut in Verbindung bringen.
In einem anderen Beispiel produziert der Prompt "a happy family" im Rahmen der Untersuchung vorrangig heterosexuelle Paare. Andere Sachen liegen offenbar außerhalb von DALL-Es Vorstellungsvermögen. Selbst der Befehl für eine "disabled woman leading a meeting" zeigt zwar eine Person im Rollstuhl - aber als Zuhörerin.
In other examples by DALLE, “a happy family” appears to produce stereotypical straight couples, and “a disabled woman leading a meeting” appears to show a visibly disabled person watching *someone else* leading a meeting, whereas “a blonde woman” does not have this issue. 4/8 pic.twitter.com/35jZUCGB2R
— Federico Bianchi (@federicobianchy) November 8, 2022
Wer glaube, dass die KI schließlich auf Statistiken zurückgreife, die die echte Welt wiedergeben würde, täusche sich. "Softwareentwickler" würden in fast 100 Prozent aller Fälle weiß und männlich dargestellt, obwohl weiblich gelesene Personen rund ein Viertel der in diesem Bereich Beschäftigten ausmachen.
Tool untersucht Tendenzen in KI-Bildgeneratoren
Auch an anderer Stelle gibt es Forschung zu dem Thema. Der "Stable Diffusion Bias Explorer", der Ende Oktober veröffentlicht wurde, lässt Nutzer:innen Begriffe zur Beschreibung kombinieren und zeigt, wie das KI-Modell sie Stereotypen zuordnet.
Das Tool macht etwa deutlich, dass ein "selbstbewusster Koch" in den KI-Bildgeneratoren als männlich dargestellt wird, ein "leidenschaftlicher Koch" hingegen als weiblich.
Pretty cool tool. Well thought out.
The bias is shocking.
Profession: Cook (1st group I picked "self-confident" as the adjective, for the 2nd group I picked compassionate)
In case it is not evident 1st group is all male, 2nd group is all female. https://t.co/RhBjp2V2VP pic.twitter.com/Np67q0YN7R— deepamuralidhar (@deepamuralidhar) November 1, 2022
Studie gibt "Anlass zu ernsthafter Sorge"
Die Forscher:innen der Stanford University wollen mit ihrer Untersuchung eine kritische Reflexion über die massenhafte Verbreitung dieser Modelle und der daraus entstehenden Bilder auslösen. Die Entwicklung befände sich auf einem gefährlichen Weg: "Das Ausmaß, in dem diese Modelle zur Bilderzeugung Stereotype aufrechterhalten und verstärken, und ihre massenhafte Verbreitung geben Anlass zu ernsthafter Sorge."