Ein Neurobiologe und ein KI-Pionier sind sich einig: Die Menschheit muss die Auslöschung durch eine Killer-KI nicht fürchten.
Künstliche Intelligenz empfiehlt uns Produkte, spricht mit uns, verbessert unsere Bilder oder hilft beim Programmieren. Das ist praktisch - und hat somit wenig mit den Horrorszenarien zu tun, die bekannte Science-Fiction-Werke zeichnen, nämlich dass Maschinen die Menschheit unterjochen. Bislang erweisen Maschinen sich eher als nützliche Helfer – die durch KI noch etwas nützlicher werden. Und mein Smartphone wird wohl kaum zum Terminator.
Doch es gibt KI-Warner wie Elon Musk oder Nick Bostrom, die vor der Entstehung einer Superintelligenz warnen. Die könnte den Menschen ausradieren oder als Haustier halten, angetrieben vom eigenen Überlebenswillen oder gar aus für Menschen völlig unzugänglichen Gründen.
Wenn es nach KI-Pionier Yann LeCun und Neurobiologe Anthony Zador geht, sind solche Untergangsszenarien jedoch reine Fiktion – heute und für immer.
Die Evolution schafft unangenehme Zeitgenossen
Muss ein intelligentes Wesen – ob biologisch oder künstlich – zwangsläufig um das eigene Überleben kämpfen, sogar wenn es dafür die gesamte Menschheit opfern würde? Das ist ein Missverständnis, meinen die beiden Wissenschaftler in einer Veröffentlichung.
Der Grund für diese falsche Einschätzung sei unsere biologische Natur. Menschliche Intelligenz sei eine evolutionäre Anpassung, entstanden unter dem Druck der natürlichen Selektion. Sie soll das Überleben sichern: ein Trieb, der jedem Lebewesen tief ins Nervensystem geschrieben ist.
Mit einem solchen Nervensystem ausgestattet, verwechseln wir Werkzeug mit Zweck, sagen die Autoren: Intelligenz sei in der Tat dem Überleben zuträglich – so wie scharfe Klauen, die Fähigkeit zu Fliegen oder Hörner. Doch weder Intelligenz noch Horn dürften mit dem Überlebensinstinkt gleichgesetzt werden – beides seien Werkzeuge, mit denen biologische Lebewesen ihre Überlebenschancen erhöhten.
Eine Künstliche Intelligenz hingegen gehe nicht durch den "Schmelztiegel der natürlichen Selektion" und entwickle daher keinen Überlebensinstinkt. In einer KI seien Intelligenz und Überleben entkoppelt – sie kann jedem Ziel dienen, das ihr Menschen setzen.
Kein Terminator ohne Mensch
Das Narrativ der Versklavung oder Auslöschung durch eine Supermaschine lenke darüber hinaus von den tatsächlich existierenden Gefahren Künstlicher Intelligenz ab, schreiben die Autoren. Jobverluste, die Zementierung oder Verstärkung bestehender Ungleichheiten und mit automatisierte KI-Kriege – all das seien ernstzunehmende Risiken.
Im besten Fall würde KI-Technologie unsere alltäglichen Arbeiten erledigen und uns ein Leben in einer besseren Welt ermöglichen. Im schlimmsten Fall würde der dritte Weltkrieg von einer Armee intelligenter Roboter geführt.
Doch selbst in diesem schlimmsten Fall würden die Roboter unter unserem Kommando bleiben, und Menschen könnten sich nur selbst die Schuld an ihrem Ende geben, so Zador und LeCun.
Wer die Gegenthese dazu verstehen möchte, liest ein Interview mit KI-Philosoph Nick Bostrom und weshalb KI-Forscher Steven Pinker sehr wohl Angst vor einer Killer-KI haben sollte.
Quelle: Scientific American