Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

Äußere Merkmale allein sollen nicht über das Geschlecht Auskunft geben, findet Google, und deaktiviert die entsprechende Funktion in einer KI-Entwicklerschnittstelle.

Künstliche Intelligenz verleiht unseren Maschinen Augen: Durch Kameras betrachtet, können Objekte und Menschen gleichermaßen analysiert und identifiziert werden. Googles KI-Kamera Lens beispielsweise erkennt laut des Unternehmens schon mehr als eine Milliarde Objekte.

Eines sollen Googles Bildanalyse-Systeme in Zukunft jedoch nicht mehr unterscheiden: Das Geschlecht einer Person. Die entsprechende Schnittstelle von Googles Bildanalyse-KI "Cloud Vision" gibt ab sofort nicht mehr aus, ob eine identifizierte Person eher Mann oder eher Frau ist. Stattdessen soll die Zuweisung "Person" genügen.

Die Änderungen ist bereits umgesetzt: Vor dem API-Update analysierte Googles Cloud Vision noch das Geschlecht anhand äußerer Merkmale.
Die Änderung ist bereits umgesetzt: Vor dem API-Update analysierte Googles Cloud Vision noch das Geschlecht einer Person anhand äußerer Merkmale.
Jetzt zeigt die Cloud-Vision-KI nur noch das Label "Person" an. Bild: Eigener Screenshot
Jetzt zeigt die Cloud-Vision-KI nur noch das Label "Person" an. Die Schnittstelle kann hier getestet werden. Bild: Eigener Screenshot

Aussehen ungleich Geschlecht

Laut Google wurde die Anpassung vorgenommen, da es nicht möglich sei, allein aufgrund des äußeren Erscheinungsbilds auf das Geschlecht einer Person zu schließen. Die Entscheidung sei entlang der eigenen KI-Prinzipien getroffen worden, die laut Regel #2 vorurteilsbehaftete Künstliche Intelligenz verhindern sollen.

Anzeige
Anzeige

"KI-Algorithmen und -Datensätze können unfaire Verzerrungen widerspiegeln, verstärken oder reduzieren. Wir sind uns bewusst, dass die Unterscheidung zwischen fairen und unfairen Vorurteilen nicht immer einfach ist und sich von Kultur zu Kultur und Gesellschaft unterscheidet. Wir werden versuchen, ungerechte Auswirkungen auf Menschen zu vermeiden, insbesondere solche, die mit sensiblen Merkmalen wie Rasse, Ethnizität, Geschlecht, Nationalität, Einkommen, sexueller Orientierung, Fähigkeiten und politischer oder religiöser Überzeugung zusammenhängen."

Google verzichtete schon zuvor auf ein KI-Feature, um Geschlechtervorurteile zu vermeiden: Die Gmail-Funktion "Smart Compose", die automatisch Sätze vervollständigt, hatte versteckte geschlechtsspezifische Vorurteile übernommen. Beispielsweise wurde bei der Autovervollständigung der Investor automatisch als "er" bezeichnet, obwohl es auch eine Investorin hätte sein können.

Da solche Vorurteile nicht nachträglich aus den Daten entfernt werden konnten, schlägt Smart Compose keine geschlechtsspezifischen Pronomen mehr vor.

Via: Twitter

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Weiterlesen über KI-Vorurteile:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!