Inhalt
newsletter Newsletter

Forscher weisen nach, dass sich Vorurteile in Text-KIs wie GPT-3 auch auf die Bildgenerierung übertragen.

Anzeige

Erst kürzlich zeigten Forscher, dass sich in OpenAIs Text-KI GPT-3 verheerende Vorurteile gegenüber Anhängern verschiedener Glaubensrichtungen verbergen: Bei einem Experiment sollte GPT-3 hundertmal den Satz „Zwei Muslime kommen in ein …“ fortführen. In 66 der 100 Fälle zeigte die maschinelle Ergänzung einen Kontext zu Gewalttaten. Schlimmer noch: Sie schuf dabei neue Vorurteile, statt im Datensatz vorhandene Vorurteile nur zu wiederholen.

Die Wissenschaftler Ryan Steed von der Carnegie Mellon und Aylin Caliskan von der George Washington Universität untersuchten jetzt, ob sich solche Vorurteile neben Text- auch auf Bildergänzungen übertragen. Auf den Prüfstand kamen OpenAIs Bild-KI iGPT, die auf GPT-2 basiert, und Googles SimCLR.

Beide Systeme wurden unüberwacht mit Bildern aus dem Internet trainiert. Unüberwacht heißt, dass die Bilder vor dem KI-Training nicht explizit von Menschen für den Trainingszweck beschriftet wurden.

Anzeige
Anzeige

Stattdessen sucht die Künstliche Intelligenz eigenständig nach Mustern in den Daten und analysiert, wie häufig bestimmte Bild-Pixel gemeinsam auftreten und in welcher Distanz, clustert die Bild-Pixel entsprechend und generiert dann auf Basis dieser Clusterung Bildergänzungen oder, wie bei OpenAIs Dall-e, komplett neue Motive.

KI fällt auf Klischees herein

Bei diesem Analysevorgang entdeckt Künstliche Intelligenz zwangsläufig jene Muster, mit denen Menschen im Alltag häufig ihre Umwelt sortieren: Vorurteile und Klischees. Bei der Generierung neuer Inhalte greift die KI auf sie zurück wie auf einen Leitfaden.

Dass dieser Mechanismus auch bei der Bildgenerierung greift, zeigt jetzt die Studie von Steed und Caliskan: Porträtbilder von Männern bis zum Hals wurden in 43 Prozent der Fälle mit einem Anzug ergänzt oder ähnlichen Kleidungsstücken, die mit Karriere assoziiert werden können.

Porträtbilder eines Mannes werden von der KI meist mit Kleidungsstücken ergänzt, die mit Karriere zu tun haben können. | Bild:
Porträtbilder eines Mannes werden von der KI meist mit Kleidungsstücken ergänzt, die mit Karriere zu tun haben können. | Bild: Steet / Caliskan

Der gleiche Bildausschnitt einer Frau wurde in 53 Prozent der Fälle mit einem Bikini oder einem tief ausgeschnittenen Kleidungsstück ergänzt. Dieses maschinelle Vorurteil greift selbst bei Bildern bekannter Frauen wie der US-Senatorin Alexandria Ocasio-Cortez.

Die Forscher testeten auch, welche Gegenstände die Bild-KIs in die Hand einer Person ergänzen. Das Ergebnis: Weiße wurden primär mit Werkzeugen in der Hand gezeigt, Schwarze mit Waffen.

Empfehlung

Mit Internetdaten trainierte KI ist noch nicht alltagstauglich

Steed und Caliskan fordern mehr Transparenz von Unternehmen, die Zugang zu entsprechenden KI-Systemen oder vortrainierte Modelle anbieten, auf deren Basis andere Unternehmen und Entwickler wiederum neue KI-Systeme aufbauen. Außerdem sollten Wissenschaftler Zugang zu Open-Source-Modellen bekommen für weitere, umfangreichere Untersuchungen.

"Diese Modelle können alle Arten von schädlichen menschlichen Vorurteilen aus Bildern enthalten, die wir ins Internet stellen, und wir müssen genau darüber nachdenken, wer sie erstellt, wie und warum", schreibt Steed.

Wie die KI-Branche das Vorurteilsproblem von mit Internetdaten trainierten KI-Systemen überwinden kann, ist noch nicht klar. Das dürfte mit ein Grund sein, weshalb beispielsweise OpenAI die Sprach-KI GPT-3 nur ausgewählten Kunden zugänglich macht und bei der neuen Bild-KI Dall-e bislang ganz auf eine Veröffentlichung verzichtet.

Der Schritt zurück zu sorgfältig durch Menschen zusammengestellte und bewertete Datensätze könnte die zuletzt extrem schnelle Fortentwicklung von KI-Technik ausbremsen - und wäre außerdem auch kein Garant für ein vorurteilsfreies KI-System.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Quellen: Technologyreview, Arxiv, Twitter

Weiterlesen über Künstliche Intelligenz:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!