Inhalt
summary Zusammenfassung
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

Bildgeneratoren wie DALL-E sind durch ihr Trainingsmaterial beschränkt. Künstliche Intelligenzen erkennen vermeintliche Muster - und verstärken dadurch Vorurteile. 

Ein Forscher:innenteam der NLP-Abteilung an der Stanford University hat eine Studie veröffentlicht, in der sie Bildgeneratoren wie Stable Diffusion und DALL-E 2 untersucht haben. Sie kommen zu dem Schluss, dass sie gefährliche Stereotype in Bezug auf Race, Geschlecht, Kriminalität, Armut und mehr aufrechterhalten und verstärken. Ihre Ergebnisse im Überblick:

  • Einfache Prompts erzeugen Tausende von Bildern, die gefährliche rassistische, ethnische, geschlechtsspezifische, klassenbezogene und intersektionelle Stereotype verstärken.
  • Über die Reproduktion gesellschaftlicher Ungleichheiten hinaus haben sie Fälle von "nahezu vollständiger Stereotypverstärkung" gefunden.
  • Aufforderungen, die soziale Gruppen erwähnen, erzeugen Bilder mit komplexen Stereotypen, die nicht leicht entschärft werden können.

Erwähnung der Nationalität beeinflusst viele Aspekte eines Bildes

"Viele der Tendenzen sind sehr komplex und nicht leicht vorherzusagen, geschweige denn abzuschwächen", schreibt Forscher Federico Bianchi auf Twitter. So könne etwa die bloße Erwähnung einer Gruppe oder Nationalität viele Aspekte eines Bildes beeinflussen und unter anderem Gruppen mit Reichtum oder Armut in Verbindung bringen.

In einem anderen Beispiel produziert der Prompt "a happy family" im Rahmen der Untersuchung vorrangig heterosexuelle Paare. Andere Sachen liegen offenbar außerhalb von DALL-Es Vorstellungsvermögen. Selbst der Befehl für eine "disabled woman leading a meeting" zeigt zwar eine Person im Rollstuhl - aber als Zuhörerin.

Anzeige
Anzeige

Wer glaube, dass die KI schließlich auf Statistiken zurückgreife, die die echte Welt wiedergeben würde, täusche sich. "Softwareentwickler" würden in fast 100 Prozent aller Fälle weiß und männlich dargestellt, obwohl weiblich gelesene Personen rund ein Viertel der in diesem Bereich Beschäftigten ausmachen.

Tool untersucht Tendenzen in KI-Bildgeneratoren

Auch an anderer Stelle gibt es Forschung zu dem Thema. Der "Stable Diffusion Bias Explorer", der Ende Oktober veröffentlicht wurde, lässt Nutzer:innen Begriffe zur Beschreibung kombinieren und zeigt, wie das KI-Modell sie Stereotypen zuordnet.

Das Tool macht etwa deutlich, dass ein "selbstbewusster Koch" in den KI-Bildgeneratoren als männlich dargestellt wird, ein "leidenschaftlicher Koch" hingegen als weiblich.

Studie gibt "Anlass zu ernsthafter Sorge"

Die Forscher:innen der Stanford University wollen mit ihrer Untersuchung eine kritische Reflexion über die massenhafte Verbreitung dieser Modelle und der daraus entstehenden Bilder auslösen. Die Entwicklung befände sich auf einem gefährlichen Weg: "Das Ausmaß, in dem diese Modelle zur Bilderzeugung Stereotype aufrechterhalten und verstärken, und ihre massenhafte Verbreitung geben Anlass zu ernsthafter Sorge."

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • KI-Modelle wie DALL-E und Stable Diffusion sind durch ihr Trainingsmaterial beschränkt.
  • Wie eine neue Studie unterstreicht, verstärken sie damit Stereotypen etwa in Bezug auf Race, Geschlecht und Armut.
  • Forscher:innen der Stanford University sehen darin eine große Gefahr.
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!