Killer-Roboter sind Unsinn, glaubt Googles KI-Chef John Giannandrea. Ein reales Risiko hingegen seien mit menschlichen Vorurteilen behaftete Datensätze, mit denen KI-Systeme trainiert werden.
Hinter dem größten Teil aktueller KI-Projekte verbergen sich maschinelle Lernverfahren. Algorithmen sollen lernen, möglichst verlässlich Muster in großen Datenmengen zu identifizieren. Dafür werden sie mit zur Aufgabenstellung passenden Datensätzen trainiert, die meist aus Bildern, Text und mittlerweile auch aus kurzen Videos und Tonausschnitten bestehen.
Der trainierte Algorithmus kann anschließend für aufwendige und automatisierte Analyseverfahren eingesetzt werden, die für Menschen zu komplex und zeitaufwendig wären. Auch die umstrittene Studie zweier US-Wissenschaftler, deren Algorithmus Homosexualität anhand der Gesichtsform erkennen können soll, basiert auf solchen Lernverfahren.
Transparenter Umgang mit Trainingsdaten
Laut Googles KI-Chef John Giannandrea birgt das maschinelle Lernen ein Sicherheitsrisiko, das absolut nichts mit dem Terminator zu tun hat: Es ist abhängig von Daten, die von Menschen erstellt werden.
In diesen Daten verstecken sich potenziell Vorurteile, die das Analyseergebnis verfälschen können. Das wiegt besonders schwer, wenn Menschen dem Urteil des vermeintlich neutralen Computers blind vertrauen.
"Es ist wichtig, dass wir mit den Trainingsdaten sehr transparent umgehen und dass wir sie auf versteckte Vorurteile untersuchen, ansonsten bauen wir Systeme mit Vorurteilen", sagt Giannandrea der Webseite MIT Technology Review.
Er warnt davor, einen Blackbox-Algorithmus zum Beispiel im medizinischen Sektor als Entscheidungshilfe einzusetzen. "Wenn man nicht weiß, mit welchen Daten der Algorithmus trainiert wurde, dann sollte man ihm nicht trauen."
Algorithmen haben Einfluss auf die Gesellschaft
Solche algorithmischen Probleme wurden zuletzt im Kontext von Wahlen in Deutschland und den USA kontrovers diskutiert. Facebooks Algorithmus zur Nachrichtenauswahl geriet in die Kritik, da er anhand des Nutzerverhaltens auf Informationsbedürfnisse schließt - und diese dann einseitig bedient. Aus den dabei entstehenden Informationsblasen können sich Nutzer kaum mehr befreien. Facebook nimmt so - gewollt oder ungewollt - Einfluss auf die Meinungsbildung.
Ein weiteres Beispiel ist die Software Compas, die von einigen US-Richtern eingesetzt wird, um das Rückfallrisiko eines Straftäters einzuschätzen. Die Software spuckt anhand von verschiedenen Faktoren eine Zahl aus, die das Risikopotenzial stark vereinfacht beschreibt. Wie genau diese Zahl berechnet wird, verrät der Hersteller Northpointe nicht. Der Software wird nachgesagt, dass sie Vorurteile gegenüber Minderheiten und farbigen Menschen habe. Northpointe widerspricht diesem Vorwurf.