Inhalt
newsletter Newsletter

Künstliche Intelligenz kann nur so objektiv urteilen, wie sie es aus ihren Daten lernt. Das kann ganz schön schiefgehen, zeigt ein neuer Fall bei Amazon: Eine KI-gestützte Auswahlsoftware für Bewerber soll Vorurteile gegenüber Frauen entwickelt haben.

Anzeige

Den perfekten Kandidaten für einen Job zu finden, ist für Unternehmen ein ungeheurer Aufwand. Aufwand bedeutet Kosten. Und die sollen für gewöhnlich möglichst geringgehalten werden.

Wie praktisch wäre es also, wenn eine Künstliche Intelligenz automatisch aus Hunderten oder gar Tausenden möglicher Kandidaten den Hauptpreis zieht? Sehr praktisch. Und günstig.

Kein Wunder also, dass gerade große Konzerne wie Amazon, die einen hohen Durchlauf an Mitarbeitern haben und permanent wachsen, in KI-Software für die automatisierte Personalauswahl investieren.

Anzeige
Anzeige

Bewertung nach dem Fünf-Sterne-Prinzip

Jetzt berichtet Reuters, dass Amazons seit Anfang 2017 eingestellte KI-Software für die Mitarbeitersuche ein bedeutendes Defizit hatte: Sie hatte Vorurteile gegenüber Frauen.

Entwickelt und eingesetzt wurde die Software seit 2014. Sie durchsuchte das Web nach geeigneten Kandidaten und bewertete sie auf einer Fünf-Sterne-Skala - so ähnlich wie Amazon-Produkte.

"Jeder wollte diesen heiligen Gral", zitierter Reuters eine mit dem Projekt vertraute Quelle. "Es sollte eine Software sein, in die man 100 Bewerbungen eingibt und fünf Bewerber werden ausgegeben, die dann eingestellt werden."

Trainingsdaten hauptsächlich aus männlichen Lebensläufen

2015 fiel den Verantwortlichen auf, dass männliche Kandidaten für Entwicklerjobs und andere technische Berufe unverhältnismäßig besser eingestuft wurden als entsprechend qualifizierte Frauen.

Grund dafür soll sein, dass die KI-Software mit passenden Amazon-Bewerbungen der letzten zehn Jahre trainiert wurde - und diese Bewerbungen kamen vornehmlich von Männern.

Empfehlung

Laut der Quellen von Reuters wertete die Software Bewerbungen mit dem Wort "Frauen" darin grundsätzlich ab. Absolventinnen zweier weiterführender Schulen für Frauen wurden ebenfalls schlechter eingestuft. Bevorzugt wurden außerdem Verben, die eher in männlichen Lebensläufen auftauchten, so wie "ausgeführt" oder "erobert".

Die Amazon-Entwickler sollen versucht haben, die KI-Software für die entsprechenden Begriffe nachträglich zu neutralisieren - ohne Erfolg. Entscheider stellten das Projekt Anfang 2017 ein und lösten das Entwicklerteam auf.

Die Vorurteile zugunsten von Männern sollen nicht das einzige Problem gewesen sein: Insgesamt bewerten Reuters Quellen die Empfehlungen als "zufällig". Häufig seien völlig ungeeignete Kandidaten für alle möglichen Jobs empfohlen worden.

Die Personalverantwortlichen bei Amazon sollen in dieser Zeit die Software zwar genutzt, sich aber nicht ausschließlich auf die automatischen Empfehlungen verlassen haben.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Neuer Anlauf geplant

Derzeit hat Amazon laut Reuters eine deutlich reduzierte Version der KI-Software im Einsatz, die einfache Aufgaben übernimmt, beispielsweise doppelte Kandidaten aus der Datenbank entfernt.

Ein neu geformtes Team soll angeblich den nächsten Anlauf für eine vollumfängliche KI-Software für die automatische Personalauswahl unternehmen - diesmal mit einem Schwerpunkt auf Diversität.

Weiterlesen über Künstliche Intelligenz:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!