Eine Forschergrupppe begründet in der Theorie, weshalb eine mögliche Super-KI für den Menschen nicht mehr zu kontrollieren wäre.
In Spezialgebieten kann künstliche die menschliche Intelligenz schon übertreffen. Wo es noch hakt, ist die Übertragung intelligenter Ansätze zwischen einzelnen Aufgaben und einem größeren Verständnis für den allgemeinen Zusammenhang der Dinge - der sogenannte gesunde Menschenverstand.
Doch einige KI-Forscher streben an, diese Barriere zu durchbrechen. Und könnte Künstliche Intelligenz erst mal stärker generalisieren, hätte sie ein grundlegendes Konzept für die Welt, wäre sie vielleicht sogar in ihr verkörpert - was würde sie daran hindern, sich selbst zu verbessern und so die menschliche Intelligenz weit zu übertreffen? Das wäre die Geburtsstunde der Super-KI.
Die Super-KI nistet sich im Internet ein
Ein internationales Forscherteam unter Beteiligung von Wissenschaftlern des Max-Planck-Instituts für Bildungsforschung veröffentlichen jetzt theoretische Überlegungen, die zeigen sollen, dass eine mögliche superintelligente KI nicht mehr durch Menschen kontrollierbar wäre.
Für ihre wissenschaftliche Arbeit "Superintelligence Cannot be Contained: Lessons from Computability Theory" gehen die Forscher von einem Szenario aus, das guter Stoff wäre für einen Science-Fiction-Film: Jemand programmiert eine Künstliche Intelligenz, die dem Menschen überlegen ist und die alles selbstständig lernen kann.
"Angeschlossen an das Internet, hätte die KI Zugriff auf alle Daten der Menschheit, sie könnte alle bestehenden Programme ersetzen und alle ans Internet angeschlossenen Maschinen kontrollieren", heißt es in der Beschreibung des Super-KI-Szenarios.
Ob dieses Szenario in eine Utopie oder Dystopie führt, liegt laut der Forscher dann nicht mehr in der Hand der Menschheit. Dafür wollen sie einen mathematischen Beweis erdacht haben.
Keine Kontrolle über die Super-KI
Grundsätzlich existierten zwei Ansätze, wie eine Super-KI zu kontrollieren sei: Man schränkt ihre Ressourcen ein und lässt sie beispielsweise nicht in das Internet. Das wäre aber nicht im Sinne des Erfinders, die Fähigkeiten der KI wären so eingeschränkt, ihre Erfindung letztlich ad absurdum geführt. Die großen Probleme der Menschheit könnte sie so wohl nicht mehr lösen.
Oder, das ist der zweite Ansatz, man würde KI von Anfang an algorithmisch kontrollieren, indem man ihr beispielsweise Regeln und Ziele vorgibt, die nur im Sinne der Menschheit sind.
Das zweite Szenario stellt die Forschergruppe in ihrer Studie auf den Prüfstand: Ein theoretischer Algorithmus simuliert das Verhalten einer möglichen Super-KI, die der Menschheit nicht schaden darf - und stoppt sie, sobald sie es dennoch tut.
Das Resultat der Forscher: Ein solcher Algorithmus, der erkennt, ob eine KI der Welt Schaden zufügt, könne nicht programmiert werden. Ohnehin ließe sich nach aktuellen Erkenntnissen nicht berechnen, ob und wann eine KI den Status "superintelligent" erreicht hätte.
"Bricht man das Problem auf einfache Grundregeln aus der theoretischen Informatik herunter, zeigt sich, dass ein Algorithmus, der einer KI befehlen würde, die Welt nicht zu zerstören, versehentlich seine eigenen Prozesse zum Stillstand bringen könnte. Man wüsste dann nicht, ob der Algorithmus die Bedrohung noch analysiert oder ob er aufgehört hat, die schädliche KI einzudämmen. Das macht diesen Algorithmus praktisch unbrauchbar", sagt Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine.
Dass eines Tages eine maschinelle Superintelligenz entstehen könnte, schließen die Forscher indes nicht aus: "Eine superintelligente Maschine, die die Welt kontrolliert, klingt nach Science-Fiction. Doch schon heute gibt es Maschinen, die bestimmte wichtige Aufgaben selbständig erledigen, ohne dass diejenigen, die sie programmiert haben, komplett verstehen, wie sie das gelernt haben", sagt Manuel Cebrian, Co-Autor der Studie und Leiter der Forschungsgruppe "Digitale Mobilisierung" am Forschungsbereich Mensch und Maschine am Max-Planck-Institut für Bildungsforschung.
Quellen: Journal of Artificial Intelligence Research, Max-Planck-Gesellschaft | Titelbild: Iyad Rahwan