Kognitionsforscher Steven Pinker hält nichts von der vermeintlichen Killer-KI, die – gewollt oder ungewollt - das Ende der Menschheit herbeiführt. Sein Beitrag zeigt, dass die KI-Sicherheitsdebatte besser nicht von Optimisten geführt werden sollte.
Steven Pinker ist Kognitionsforscher, Psychologe und erfolgreicher Autor. Eine seiner Thesen ist, dass es den Menschen immer besser geht. Mit Statistiken bekämpft er Pessimismus gegenüber unserer Gesellschaft und Technologie.
In einem Aufsatz aus dem Sammelband "Possible Minds - 25 Ways of Looking at AI" bezieht er Position zu den gängigen KI-Weltuntergangsszenarien. Die Süddeutsche Zeitung hat den Aufsatz vor kurzem als Gastbeitrag veröffentlicht.
Pinkers Behauptung: Dystopische Zukunftsszenarien zu KI gehen völlig an der Realität vorbei. Er unterscheidet zwei Tech-Prophezeiungen:
- Amok laufende Computer, die mit unaufhaltbarem Welteroberungsdrang die Menschheit versklaven oder auslöschen.
- Computer, die ihren Auftrag ausführen und uns dabei aus Versehen versklaven oder auslöschen.
Beide Prophezeiungen hält er für Hirngespinste, da sie von einer sogenannten generellen Künstlichen Intelligenz (GKI) ausgehen: Sie versteht abstrakte Konzepte und kann Schlussfolgerungen ziehen, besitzt also die Fähigkeit, neue, unbekannte Aufgaben eigenständig zu lösen. Damit gleicht sie in puncto Intelligenz und Handlungsvermögen dem Menschen.
So eine generelle KI könnte sich jedoch womöglich schneller verbessern als der Mensch: Evolution in Petaflop-Geschwindigkeit. So würde sie zur Superintelligenz, die dem Menschen weit überlegen und eine potenzielle Bedrohung wäre.
Das wundersame Elixier
Pinkers Argumente gegen diese Szenarien lassen sich in zwei Kategorien aufteilen: eine Kritik am Intelligenzbegriff und sein gesunder Optimismus.
Pinker wirft den Tech-Propheten ein falsches, vereinfachtes Verständnis von Intelligenz vor. Dieses habe zwei Facetten:
- Intelligenz wird als wundersames, allmächtiges Elixier gegen alle Probleme angesehen.
- Intelligenz wird mit Motivation verwechselt.
Für Pinker ist Intelligenz keine ominöse Fähigkeit, die all unsere Probleme auf wundersame Weise lösen kann. Solchen Vorstellungen läge ein falsches Verständnis von Intelligenz als homogene Fähigkeit zu Grunde.
"Menschen haben davon mehr als Tiere, und ein künstlich intelligenter Computer oder Roboter wird mehr davon haben als Menschen", beschreibt Pinker diese Auffassung.
Jedem Problem seine eigene Intelligenz.
Der Kognitionsforscher sieht biologische Intelligenz stattdessen als "Verbund aus mehreren Software-Modulen, die mit Fähigkeiten ausgestattet sind, unterschiedliche Ziele zu erreichen, oder sich diese anzueignen".
Für Pinker gibt es also nicht die eine, homogene Intelligenz. Vielmehr existieren unterschiedliche Probleme, für deren Lösung verschiedene kognitive Fähigkeiten ("Module") notwendig sind: Menschen könnten etwa Nahrung finden, Freunde gewinnen, andere beeinflussen, Kinder aufziehen und sich frei in der Welt bewegen.
Manche dieser Fähigkeiten können Computern einprogrammiert werden, andere nicht. In manchen Bereichen, wie der Klimasimulation oder beim Sortieren von Millionen Buchhaltungsunterlagen, übertreffen die Computerfähigkeiten unsere bei weitem. In anderen sind sie nutzlos.
Existiert eine generelle Intelligenz?
Pinkers Intelligenzbegriff ist sinnvoll. Ein Blick in die Natur bestätigt die Annahme des Kognitionsforschers: Tiere sind häufig Spezialisten.
Auch ein Blick auf uns selbst zeigt, dass Intelligenz in einem Bereich oft nicht direkt auf einen anderen übertragen werden kann. Ein guter Mathematiker ist nicht automatisch ein begabter Tischler.
Doch der Blick auf den Menschen zeigt auch, dass es eine Art Intelligenz in uns gibt, die so im Tierreich nicht vorkommt: eine generelle Intelligenz.
Wir begreifen unsere Umwelt in Konzepten, aus denen wir abstrakte Schlüsse ziehen können. Dieses logische Denken ist die Grundlage für den Erfolg unserer Spezies, denn es klappt sogar dann, wenn wir einer Situation das erste Mal ausgesetzt sind. So können wir Probleme lösen, die unseren Vorfahren nie begegnet sind – etwa im Weltall überleben.
Es ist diese generelle Intelligenz, die eine KI zu einer Super-KI machen könnte und die Ziel der Warnungen der "Tech-Propheten" ist.
Insofern ist unklar, an wen Pinker seinen Vorwurf richtet: Die Vorstellung einer einfachen, homogenen Intelligenz ist in der wissenschaftlichen Debatte über KIs kaum zu finden. Seine Kritik geht daher an ernstzunehmenden Bedenken vorbei und trifft höchstens popkulturelle Killer-KIs.
Intelligenz und Motivation sind nicht dasselbe
Pinkers zweiter Kritikpunkt an KI-Angst: Eine Super-KI habe nicht unweigerlich Willen zur Macht und die Zerstörung der Menschheit als Ziel. Diese in Dystopien weit verbreitete Auffassung (man denke an Terminators Skynet) habe den Fehler, dass ihre Schöpfer Intelligenz mit Motivation verwechseln.
Der Überlegung zugrunde liegt die sogenannte Orthogonalitätsthese, die besagt, dass nahezu jede Intelligenzstufe mit nahezu jedem Handlungsziel kompatibel ist. Aus der Intelligenz eines Akteurs lässt sich kein Ziel ableiten.
Ein Beispiel: Eine hochintelligente Super-KI kann einem einfachen Ziel folgen, etwa Büroklammern herstellen.
Pinker hat daher recht mit der Behauptung, dass aus wachsender Intelligenz nicht notwendigerweise Böswilligkeit entsteht. Das seien Hirngespinste der auf Konkurrenz ausgelegten Spezies Mensch, sagt Pinker.
Ist eine Super-KI, die Büroklammern herstellt, deswegen harmlos?
Böswilligkeit ist keine Voraussetzung für Schaden.
Der Philosoph Nick Bostrom ist anderer Meinung. Er schreibt:
"Angenommen, das einzige Ziel einer KI ist es, so viele Büroklammern wie möglich herzustellen. Die KI wird schnell erkennen, dass es viel besser wäre, wenn es keine Menschen gäbe, da Menschen sich entscheiden könnten, sie auszuschalten. Außerdem enthalten menschliche Körper viele Atome, die zu Büroklammern verarbeitet werden können. Die Zukunft, auf die die KI hinarbeiten würde, wäre eine, in der es viele Büroklammern gäbe – aber keine Menschen."
Bostroms Punkt: Eine Super-KI kann der Menschheit gefährlich werden, ohne böswillig zu agieren, nämlich dann, wenn der Mensch ihrer Zielerreichung im Wege steht. Unsere Spezies würde aus logischer Notwendigkeit ausgelöscht statt aus Hass.
Pinker hat Recht, Intelligenz und Motivation zu trennen. Doch es ist nicht nur das Ziel einer KI, das der Menschheit gefährlich werden kann. Viel wahrscheinlicher ist es der Weg zum Ziel.
Es wird doch wohl keiner so idiotisch sein?
Pinker hält diese versehentliche Auslöschung für unrealistisch: Tech-Propheten würden Mensch und KI unterschätzen.
Sie gingen davon aus, dass Menschen, trotz der Fähigkeit, eine Super-KI zu entwickeln, so idiotisch seien, dass sie ihr die Kontrolle des Universums ohne Vorbehalte übergeben würden. "Zum Glück widerlegen sich solche Gedankenexperimente selbst", meint Pinker.
Und eine Super-KI wäre hochintelligent, würde aber gleichzeitig Schaden anrichten, nur weil sie einen Befehl missversteht? Es sei doch gerade die Fähigkeit, Kompromisse zu finden, die der Kern der Intelligenz sei, argumentiert Pinker.
Eine Sicherheitskultur wird nicht von Optimisten aufgebaut.
Gegen Pinkers Optimismus spricht die Historie: Der Mensch hat im Laufe der Geschichte mehrfach bewiesen, dass er sehr wohl in der Lage ist, Hochtechnologie zu entwickeln, ohne deren Gefahren zu erkennen - oder sie einfach zu ignorieren, zum Beispiel aus Profitgier.
Darüber hinaus scheint Pinker seinen eigenen modularen Intelligenzbegriff nicht ernst zu nehmen. Wir wissen: Menschen können intelligent in einer Situation und dumm in einer anderen handeln.
Es ist unklar, warum das nicht auch für eine Super-KI gelten sollte: Intelligenz und Motivation sind getrennt, einfache Ziele für intelligente Akteure möglich und gefährliche Nebeneffekte daher denkbar. Pinkers einziges Argument, dass diese bei der KI-Evolution ausbleiben, ist Optimismus.
Die Sicherheitskultur wird’s schon richten
Dieser Optimismus zeigt sich auch in Pinkers letztem Argument gegen die "Hirngespinste" der KI-Warner: Wir leben laut Pinker in einer Sicherheitskultur.
In der ersten Hälfte des 20. Jahrhunderts sei die Zahl der Unfalltoten im Haushalt, Straßenverkehr und in der Industrie um 95 bis 99 Prozent gesunken. Selbst unwahrscheinliche Unfallrisiken würden minimiert, zum Beispiel durch Rauchverbot an Tankstellen.
Für Pinker entspringen die Befürchtungen der KI-Warner daher nur aus dem von ihm bekämpften Pessimismus.
Allerdings ist unklar, ob die beschriebene Sicherheitskultur schon auf den Open-Source-Ansatz aktueller KI-Forschung vorbereitet ist. Und ob sich eine Super-KI überhaupt um Sicherheitsnetze schert. Vieles spricht dagegen.
Pinker argumentiert kurzsichtig.
Man kann Pinker zustimmen, wenn er argumentiert, dass "eine Sicherheitskultur in einer fortgeschrittenen Gesellschaft ein Bollwerk gegen den autoritären oder ausbeuterischen Einsatz von Technologie ist".
Doch genau diese Sicherheitskultur wird nicht von Optimisten aufgebaut.
Pinker argumentiert so ungewollt für die "Hirngespinste" der vermeintlichen Pessimisten. Und er zeigt, wie kurzsichtig seine Auffassung ist, die Debatte zur KI-Sicherheit sei nur ein weiterer Auswuchs eines grassierenden Tech-Pessimismus.
Die Gefahren einer Super-KI sollten nicht unterschätzt werden, nur weil noch keine KI versucht hat, die Kontrolle über die Welt zu übernehmen. Wer mit seinen Sorgen wartet, bis das passiert, hat den Moment für Sicherheitsbedenken schon verpasst.
Ganz egal, ob eine Super-KI in fünf, 20 oder 200 Jahren oder vielleicht niemals entsteht: Wir sollten die Zeit jetzt nutzen. Denn im Fall des Falles gibt es nur ein davor - kein danach.