Bericht: Amazon stellt KI Recruiting-Software mit Vorurteilen gegen Frauen ein
Künstliche Intelligenz kann nur so objektiv urteilen, wie sie es aus ihren Daten lernt. Das kann ganz schön schiefgehen, zeigt ein neuer Fall bei Amazon: Eine KI-gestützte Auswahlsoftware für Bewerber soll Vorurteile gegenüber Frauen entwickelt haben.
Den perfekten Kandidaten für einen Job zu finden, ist für Unternehmen ein ungeheurer Aufwand. Aufwand bedeutet Kosten. Und die sollen für gewöhnlich möglichst geringgehalten werden.
Wie praktisch wäre es also, wenn eine Künstliche Intelligenz automatisch aus Hunderten oder gar Tausenden möglicher Kandidaten den Hauptpreis zieht? Sehr praktisch. Und günstig.
Kein Wunder also, dass gerade große Konzerne wie Amazon, die einen hohen Durchlauf an Mitarbeitern haben und permanent wachsen, in KI-Software für die automatisierte Personalauswahl investieren.
Bewertung nach dem Fünf-Sterne-Prinzip
Jetzt berichtet Reuters, dass Amazons seit Anfang 2017 eingestellte KI-Software für die Mitarbeitersuche ein bedeutendes Defizit hatte: Sie hatte Vorurteile gegenüber Frauen.
Entwickelt und eingesetzt wurde die Software seit 2014. Sie durchsuchte das Web nach geeigneten Kandidaten und bewertete sie auf einer Fünf-Sterne-Skala - so ähnlich wie Amazon-Produkte.
"Jeder wollte diesen heiligen Gral", zitierter Reuters eine mit dem Projekt vertraute Quelle. "Es sollte eine Software sein, in die man 100 Bewerbungen eingibt und fünf Bewerber werden ausgegeben, die dann eingestellt werden."
Trainingsdaten hauptsächlich aus männlichen Lebensläufen
2015 fiel den Verantwortlichen auf, dass männliche Kandidaten für Entwicklerjobs und andere technische Berufe unverhältnismäßig besser eingestuft wurden als entsprechend qualifizierte Frauen.
Grund dafür soll sein, dass die KI-Software mit passenden Amazon-Bewerbungen der letzten zehn Jahre trainiert wurde - und diese Bewerbungen kamen vornehmlich von Männern.
Laut der Quellen von Reuters wertete die Software Bewerbungen mit dem Wort "Frauen" darin grundsätzlich ab. Absolventinnen zweier weiterführender Schulen für Frauen wurden ebenfalls schlechter eingestuft. Bevorzugt wurden außerdem Verben, die eher in männlichen Lebensläufen auftauchten, so wie "ausgeführt" oder "erobert".
Die Amazon-Entwickler sollen versucht haben, die KI-Software für die entsprechenden Begriffe nachträglich zu neutralisieren - ohne Erfolg. Entscheider stellten das Projekt Anfang 2017 ein und lösten das Entwicklerteam auf.
Die Vorurteile zugunsten von Männern sollen nicht das einzige Problem gewesen sein: Insgesamt bewerten Reuters Quellen die Empfehlungen als "zufällig". Häufig seien völlig ungeeignete Kandidaten für alle möglichen Jobs empfohlen worden.
Die Personalverantwortlichen bei Amazon sollen in dieser Zeit die Software zwar genutzt, sich aber nicht ausschließlich auf die automatischen Empfehlungen verlassen haben.
Neuer Anlauf geplant
Derzeit hat Amazon laut Reuters eine deutlich reduzierte Version der KI-Software im Einsatz, die einfache Aufgaben übernimmt, beispielsweise doppelte Kandidaten aus der Datenbank entfernt.
Ein neu geformtes Team soll angeblich den nächsten Anlauf für eine vollumfängliche KI-Software für die automatische Personalauswahl unternehmen - diesmal mit einem Schwerpunkt auf Diversität.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnierenKI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.