Inhalt
newsletter Newsletter

Bevor Künstliche Intelligenz alles automatisiert, was zu automatisieren ist, soll sie sich erklären können - wenigstens in besonders kritischen Fällen. Das ist der Wunsch von Google-Chef Sundar Pichai. Andernfalls will Google entsprechende Technologie nicht anbieten.

Anzeige

Künstliche Intelligenz erstellt Bilder, Videos, lenkt Autos und Roboter, antizipiert den Todeszeitpunkt von Patienten, sagt Erdbeben vorher - und vieles mehr. Anders gesagt: KI funktioniert.

Aber wie sie funktioniert, das wissen die Entwickler nur ungefähr. Denn die Systeme sind mathematisch so komplex, dass zwischen Ein- und Ausgabe die Nachvollziehbarkeit verloren gehen kann. In der Fachsprache heißt das: "Blackbox".

Im Interview mit der Frankfurter Allgemeinen Sonntagszeitung verspricht Google-Chef Sundar Pichai zukünftig mehr Transparenz im Umgang mit KI-Systemen. Andernfalls solle die Technologie nicht in sensiblen Bereichen wie der Medizin eingesetzt werden.

Anzeige
Anzeige

"Maschinelle Lernmethoden sind heute wie eine Blackbox. Wir forschen daran, wie wir die Transparenz verbessern können", sagt Pichai. "Bevor die Systeme nicht nachvollziehbar sind, verkaufen wir sie nicht. Das ist der Kompromiss, den wir eingehen müssen."

Aus diesem Grund biete Google zum Beispiel keine generelle Programmierschnittstelle für die Gesichtserkennung an - obwohl sie Mitbewerber wie Amazon bereits verkaufen.

Ohnehin, so Pichai, müsse die letztliche Verantwortung für eine Entscheidung immer beim Menschen liegen. Dies sei eines der wichtigsten Prinzipien in Googles KI-Strategie.

Pichai nimmt Tech-Branche in die Verantwortung

Google stellte im vergangenen Sommer ethische Leitlinien für die KI-Entwicklung vor, nachdem die eigenen Mitarbeiter zuvor wochenlang gegen den militärischen Einsatz einer Google-KI protestierten.

Schon im vergangenen Dezember warnte Pichai vor einem unbedarften Einsatz Künstlicher Intelligenz und forderte die Tech-Konzerne auf, sich selbst zu regulieren: "Ich denke, dass die Tech-Branche erkennen muss, dass sie KI nicht einfach bauen und dann reparieren kann."

Empfehlung

Auf das Blackbox-Problem gibt es alternative Perspektiven: Der Biomediziner und Computerwissenschaftler Vijay Pande beispielsweise argumentiert, dass letztlich auch der menschliche Verstand eine Blackbox sei. Menschen könnten sich zwar erklären, aber die wahren Ursachen für ihre Entscheidungen auch nur vermuten.

Titelbild: Maurizio Pesce bei Flickr. Lizenziert nach CC BY 2.0.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Weiterlesen über KI-Ethik:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!