Etwas Unsicherheit könnte die Entscheidungsfreudigkeit Künstlicher Intelligenz reduzieren - und dem Menschen Verantwortung zurückgeben.
KI-Systeme rechnen so komplex, dass ihre Entscheidungen für Menschen nicht mehr vollständig nachvollziehbar sind. Der daraus resultierende Kontrollverlust ist ein Drohszenario für die Menschheit.
Denn eine Maschine muss keinen boshaften Eigensinn entwickeln, um Schaden zu verursachen: Ungeschickte oder nicht ausreichend konkrete Anweisungen sowie problematische Datensätze fürs KI-Training könnten gefährliche Kettenreaktionen zur Folge haben.
Die Steuerung eines KI-Systems ist daher alles andere als banal: Die Komplexität der realen Welt ist so hoch, dass eine einzelne Entscheidung unzählige Konsequenzen haben kann. Nicht alle Konsequenzen sind berechenbar, da sie nicht eindeutig sind.
Wie zum Beispiel übersetzt man Freiheit oder Wohlbefinden in eine Formel? Menschen sind sich nicht einmal untereinander einig, wie diese Begriffe zu deuten sind.
Unsichere KIs für mehr Sicherheit
Eine Lösung für dieses Dilemma könnte sein, KI-Systeme differenzierte Überlegungen und Planungen anstellen zu lassen - und die letztliche Entscheidung über eine Aktion zurück in die Verantwortung eines Menschen zu geben.
Eben jenes Vorgehen schlägt der KI-Forscher Peter Eckersley vor (Paper / via MIT). Eckersley arbeitet für die Non-Profit-Organisation "Partnership on AI", die einen vorbildlichen Umgang mit Künstlicher Intelligenz erforschen soll. Gegründet wurde die Organisation unter anderem von Amazon, Facebook, Microsoft und Google.
Konkret will Eckersley die Entscheidungsfreudigkeit Künstlicher Intelligenz mit etwas Unsicherheit einschränken: Die KI soll zwischen verschiedenen Vorlieben schwanken, anstatt einer eindeutigen Präferenz zu folgen.
Auch Menschen träfen viele Entscheidungen aus einer Unsicherheit heraus, erklärt Eckersley. Moralisches Verhalten sei voller Unsicherheit.
Würde man allerdings Ethik einer Maschine einprogrammieren wollen, müsse man diese konkretisieren und so von der Unsicherheit befreien. Das wiederum kann in problematische maschinelle Entscheidungen münden, die in ihrer Eindeutigkeit nicht zu rechtfertigen sind.
A, B oder C?
Ein Algorithmus kann laut Eckersley auch so programmiert werden, dass er beispielsweise eigene Soldaten und eigene Zivilisten fremden Soldaten vorzieht, ohne eine eindeutige Präferenz zwischen den eigenen Soldaten und Zivilisten zu haben. Eine teilweise Ungewissheit, sozusagen ("Partial Ordering").
Eine weitere Möglichkeit ist es, zwar eindeutige Präferenzen zu definieren, diese aber mit einer Wahrscheinlichkeit zu versehen. Beispielsweise zieht der Algorithmus eigene Soldaten den fremden vor - aber nur in drei von vier Fällen ("Uncertain Ordering").
Diese Unsicherheit soll dazu führen, dass die KI-Black-Box anstatt einer finalen Entscheidung mehrere Optionen ausspucken kann. Die Verantwortung für die letztliche Entscheidung trägt dann wieder der Mensch. Das Risiko für ungewollte Kettenreaktionen könnte so zumindest reduziert werden.
"Lass das System explizit unsicher sein", fordert Eckersley. "Gebt das Dilemma den Menschen zurück."