Anzeige
Skip to content

Amazon KI-Forscher erklärt, weshalb menschliche Vorurteile schwerer wiegen als maschinelle

Image description

Künstliche Intelligenz kann bei ihren Entscheidungen ebenso wie der Mensch von Vorurteilen beeinflusst werden. Dabei wirkt sie vermeintlich objektiv. KI-Kritiker sehen darin in ein Risiko. 

Eine Maschine lernt, was der Mensch ihr aufträgt. Ihre Lerngrundlage sind unsere Daten. Stecken in diesen Daten Vorurteile, dann übernimmt die Maschine sie.

Ein typisches Beispiel ist die Stichprobenverzerrung. Wenn in einer Bilddatenbank zum Suchwort Ärzte mehr Bilder von Männern als von Frauen angezeigt werden, könnte eine KI annehmen, dass Ärzte typischerweise männlich sind - und diese Information in ihre komplexe Entscheidungsfindung integrieren.

Ein weiteres Beispiel: Facebooks Algorithmus zur Nachrichtenauswahl schließt anhand des Nutzerverhaltens auf Informationsbedürfnisse und bedient sie einseitig. So schließt der Algorithmus den Nutzer in einer Informationsblase ein, der sich dessen womöglich gar nicht bewusst ist.

Anzeige
DEC_D_Incontent-1

Wenn Künstliche Intelligenz immer mehr Alltagsaufgaben übernimmt, dann könnten solche Vorurteile im großen Stil automatisiert werden.

"Wenn man nicht weiß, mit welchen Daten der Algorithmus trainiert wurde, dann sollte man ihm nicht trauen", urteilte kürzlich John Giannandrea, der bis vor kurzem Googles KI-Entwicklung leitete und jetzt in gleicher Position bei Apple arbeitet.

Maschinen können leichter geändert werden als Menschen

Ralf Herbrich arbeitet bei Amazon als Direktor für maschinelles Lernen. Mit seinem Team programmiert er die Algorithmen, die Amazons Einkaufserlebnis optimieren und die Umsätze steigern sollen.

Beispielsweise kann Künstliche Intelligenz laut Herbrich Modetrends vorhersagen, indem sie Schnitte und Farben von zehntausenden verkauften Kleidungsstücken analysiert. So eine KI-Prognose könne zwar falsch sein, sagt Herbrich dem Tagesspiegel, aber "weitaus seltener als menschliche Vorhersagen".

Anzeige
DEC_D_Incontent-2

Maschinelle Vorurteile bezeichnet Herbrich zwar als Gefahr, da sich "statistische Unwuchten verstärken könnten", wenn Künstliche Intelligenz hochrechnet.

Doch diese statistischen Verzerrungen könnten leichter angepasst werden als das menschliche Vorurteil. Die Haltung eines Menschen sei nur schwer zu ändern, ein Algorithmus hingegen könne analysiert und technisch korrigiert werden, erklärt Herbrich.

"Einen Menschen zu bitten, all die Verzerrungen zu kompensieren, die er durch Erfahrungen und Sozialisation in seinem Leben angesammelt hat, ist dagegen sehr schwer", sagt Herbrich.

Herbrich befürchtet nicht, dass sich Künstliche Intelligenz in naher Zukunft verselbstständigen könnte: "Zu glauben, dass Künstliche Intelligenz eben intelligent ist, also über sich selbst nachdenken und Schlüsse ziehen, sich selber modifizieren und selbst Lernverfahren erfinden könnte - das ist heute nicht möglich und noch ein sehr offenes Forschungsgebiet."

Titelbild: Amazon / Herbrich

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren