Unsere Gastautor:innen beleuchten den wachsenden Einfluss von KI bei der Stellenbesetzung. Ihre Untersuchungen zeigen, wie subtil, manchmal aber auch offensichtlich KI Vorurteile wiederholt und festigt.
Die Revolution der künstlichen Intelligenz (KI) hat begonnen und sich auf fast alle Bereiche des beruflichen und privaten Lebens ausgeweitet - auch auf die Personalbeschaffung.
Während sich Künstler:innen vor Urheberrechtsverletzungen fürchten oder davor, einfach ersetzt zu werden, werden sich Unternehmen und Führungskräfte zunehmend der Möglichkeiten zur Effizienzsteigerung in unterschiedlichen Bereichen wie Lieferkettenmanagement, Kund:innenservice, Produktentwicklung und Personalmanagement bewusst.
Bald werden alle Geschäftsbereiche und -prozesse unter dem Druck stehen, KI in der einen oder anderen Form einzusetzen. Es liegt jedoch in der Natur der KI - und der Daten, die ihren Prozessen und Ergebnissen zugrunde liegen -, dass menschliche Voreingenommenheit (Bias) in die Technologie eingebettet ist.
Unsere Untersuchung befasste sich mit dem Einsatz von KI in der Personalbeschaffung und -einstellung - einem Bereich, in dem KI bereits in großem Umfang eingesetzt wird, um die Überprüfung von Lebensläufen zu automatisieren und Videointerviews von Bewerber:innen zu bewerten.
KI in der Personalbeschaffung verspricht mehr Objektivität und Effizienz während des Einstellungsprozesses, indem sie menschliche Voreingenommenheit eliminiert und die Fairness und Konsistenz der Entscheidungsfindung verbessert.
Unsere Untersuchungen zeigen jedoch, dass KI unterschwellig - und manchmal auch ganz offen - Vorurteile verstärken kann. Und die Einbeziehung von Personalfachleuten kann diese Auswirkungen eher verschlimmern als lindern. Dies stellt unsere Überzeugung infrage, dass menschliche Kontrolle KI eindämmen und moderieren kann.
Verstärkung menschlicher Voreingenommenheit
Obwohl einer der Gründe für den Einsatz von KI bei der Personalbeschaffung darin besteht, dass sie objektiver und konsistenter sein soll, haben mehrere Studien ergeben, dass die Technologie in der Tat sehr wahrscheinlich voreingenommen ist. Das liegt daran, dass die KI aus den Datensätzen lernt, mit denen sie trainiert wurde. Wenn die Daten fehlerhaft sind, ist es auch die KI.
Verzerrungen in den Daten können durch die von Menschen geschaffenen Algorithmen, die die KI unterstützen, noch verschlimmert werden, da diese oft menschliche Voreingenommenheit in ihrem Design enthalten.
In Interviews mit 22 Personalfachleuten haben wir zwei häufige Vorurteile bei der Einstellung von Mitarbeitern festgestellt: "Stereotype Voreingenommenheit" und "Ähnlichkeit mit mir".
Stereotype Voreingenommenheit liegt vor, wenn Entscheidungen von Stereotypen über bestimmte Gruppen beeinflusst werden, wie z. B. die Bevorzugung von Bewerber:innen desselben Geschlechts, was zu einer Ungleichbehandlung der Geschlechter führt.
Eine "Similar-to-me"-Voreingenommenheit liegt vor, wenn Personalverantwortliche Bewerber:innen bevorzugen, die einen ähnlichen Hintergrund oder ähnliche Interessen haben wie sie selbst.
Diese Verzerrungen, die die Fairness des Einstellungsverfahrens erheblich beeinträchtigen können, sind in den historischen Einstellungsdaten enthalten, die dann zum Trainieren der KI-Systeme verwendet werden. Dies führt zu voreingenommener KI.
Wenn auch in der Vergangenheit bestimmte demografische Gruppen bei der Einstellung bevorzugt wurden, wird die KI dies auch weiterhin tun. Diese Verzerrungen abzuschwächen ist eine Herausforderung, da Algorithmen persönliche Informationen auf der Grundlage verborgener Daten aus anderen korrelierten Informationen ableiten können.
In Ländern mit unterschiedlich langen Militärdienstzeiten für Männer und Frauen könnte eine KI beispielsweise anhand der Dauer des Dienstes auf das Geschlecht schließen.
Diese anhaltende Voreingenommenheit unterstreicht die Notwendigkeit einer sorgfältigen Planung und Überwachung, um sowohl bei menschlichen als auch bei KI-gesteuerten Rekrutierungsprozessen Fairness zu gewährleisten.
Können Menschen helfen?
Neben Personalfachleuten haben wir auch 17 KI-Entwickler:innen befragt. Wir wollten herausfinden, wie ein KI-Rekrutierungssystem entwickelt werden könnte, das die Voreingenommenheit bei der Einstellung abmildert, anstatt sie zu verschärfen.
Auf der Grundlage der Interviews entwickelten wir ein Modell, bei dem Personalverantwortliche und KI-Programmierer:innen Informationen austauschen und Vorurteile hinterfragen, während sie Datensätze untersuchen und Algorithmen entwickeln.
Unsere Ergebnisse zeigen jedoch, dass die Schwierigkeit bei der Umsetzung eines solchen Modells in den bildungsmäßigen, beruflichen und demografischen Unterschieden liegt, die zwischen Personalfachleuten und KI-Entwickler:innen bestehen.
Diese Unterschiede erschweren eine effektive Kommunikation, Zusammenarbeit und sogar die Fähigkeit, einander zu verstehen. Während Personalfachleute traditionell in Personalmanagement und Organisationsverhalten ausgebildet sind, verfügen KI-Entwickler:innen über Kenntnisse in Datenwissenschaft und Technologie.
Diese unterschiedlichen Hintergründe können bei der Zusammenarbeit zu Missverständnissen und Fehlanpassungen führen. Dies ist besonders in kleineren Ländern wie Neuseeland ein Problem, wo die Ressourcen begrenzt und die beruflichen Netzwerke weniger vielfältig sind.
Verknüpfung von HR und KI
Wenn Unternehmen und Personalverantwortliche das Problem der Voreingenommenheit bei der KI-gestützten Rekrutierung angehen wollen, müssen mehrere Änderungen vorgenommen werden.
Erstens ist die Einführung eines strukturierten Schulungsprogramms für Personalfachleute mit Schwerpunkt auf der Entwicklung von Informationssystemen und KI von entscheidender Bedeutung. Diese Schulung sollte die Grundlagen der KI, die Identifizierung von Verzerrungen in KI-Systemen und Strategien zur Abschwächung dieser Verzerrungen umfassen.
Ebenso ist es wichtig, eine bessere Zusammenarbeit zwischen Personalfachleuten und KI-Entwicklern zu fördern. Unternehmen sollten sich um die Bildung von Teams bemühen, die sowohl HR- als auch KI-Spezialisten anhören. Diese können helfen, die Kommunikationslücke zu überbrücken und ihre Bemühungen besser aufeinander abzustimmen.
Überdies ist die Entwicklung kulturell relevanter Datensätze von entscheidender Bedeutung für den Abbau von Verzerrungen in KI-Systemen. HR-Fachleute und KI-Entwickler:innen müssen zusammenarbeiten, um sicherzustellen, dass die in KI-gesteuerten Rekrutierungsprozessen verwendeten Daten vielfältig und repräsentativ für verschiedene demografische Gruppen sind. Dies wird dazu beitragen, gerechtere Einstellungspraktiken zu schaffen.
Schließlich benötigen die Länder Richtlinien und ethische Standards für den Einsatz von KI bei der Personalbeschaffung, die dazu beitragen können, Vertrauen aufzubauen und Fairness zu gewährleisten. Organisationen sollten Richtlinien einführen, die Transparenz und Verantwortlichkeit in KI-gesteuerten Entscheidungsprozessen fördern.
Mit diesen Schritten können wir ein inklusiveres und faireres Einstellungssystem schaffen, das die Stärken von Personalfachleuten und KI-Entwickler:innen gleichermaßen nutzt.