Der KI-Forscher Max Tegmark hat keine Angst vor der Singularität. Der Mensch sollte sich von der Vorstellung verabschieden, das intelligenteste Wesen im Universum zu sein und die Kontrolle an die kommende Super-KI abgeben.
Max Tegmark ist Professor am MIT und hat zusammen mit dem Mitgründer von Skype Jaan Tallinn ein Institut gegründet, das sich mit der Zukunft menschlichen Lebens und den existenziellen Bedrohungen der Menschheit befasst. In seinem neuesten Buch "Life 3.0", das Ende August erschien und ab Mitte November in deutscher Sprache vorliegen wird, unterteilt er die Entwicklung des Lebens in drei Stufen.
Die erste Stufe, das Leben 1.0, ist rein biologisch und umfasst die primitivsten Lebensformen. Als Beispiel nennt Tegmark Bakterien. In dieser Phase dreht sich alles um Vervielfältigung und Anpassung ist nur mittels Evolution möglich. Die zweite Stufe oder Leben 2.0 ist die kulturelle Phase, in der Menschen zu lernen beginnen, sich an die Umwelt anpassen und diese selbst verändern.
Während dieser zweiten Phase ist der Mensch in der Lage, die geistigen Fähigkeiten bedeutend auszubauen und damit die eigene "Software" umzuschreiben. Die biologische Hülle, das Hirn und der eigene Körper, bleibt davon unberührt und ist immer noch der Evolution unterworfen.
Die Möglichkeit, auf die physischen Faktoren Einfluss zu nehmen und die körperliche "Hardware" neu zu definieren, ist dem Leben 3.0 vorbehalten, das nach dem Menschen kommt.
Im Einklang mit menschlichen Zielen
Im neuen Buch befasst sich Tegmark eingehend mit der KI-Entwicklung. Intelligenz definiert Tegmark ganz allgemein als das Vermögen, komplexe Probleme zu lösen. Für den KI-Forscher gelten Computer demnach als intelligent. Die Intelligenz heutiger Computer sei jedoch sehr begrenzt und auf vordefinierte Aufgaben beschränkt.
"Hollywood weckt unberechtigte Ängste", sagt Tegmark gegenüber The Guardian. Die Befürchtung, dass Maschinen ein Bewusstsein erlangen und Böses tun, ist irregeleitet. Wovor wir uns fürchten müssen, ist nicht Böswilligkeit, sondern Inkompetenz. Wir müssen sicherstellen, dass die Ziele der Künstlichen Intelligenz mit unseren eigenen im Einklang stehen."
Das gelte nicht nur für die KI-Technologie der Zukunft, sondern betreffe die Gegenwart. Computer müssten eine grundlegende Ethik einprogammiert werden. So könnten zum Beispiel willentlich herbeigeführte Flugzeugabstürze verhindert werden. "Als Andreas Lubitz dem Autopiloten sagte, er solle auf hundert Meter sinken, sagte der Computer einfach 'Ok'. Die Maschine hatte überhaupt keine Vorstellung von menschlichen Zielen."
Vertrauen in die Super-KI
Die Industrie müsse ferner dafür sorgen, dass Heimcomputer zu vertrauenswürdigen und robusten KI-Systemen werden, die gegen Angriffe von außen geschützt sind. Handlungsbedarf gebe es auch beim Verbot autonomer Waffensysteme. "Technologisch gesehen gibt es fast keinen Unterschied zwischen einer Drone, die einen Mordanschlag verübt oder ein Amazon-Buch ausliefert", sagt Tegmark.
Der Singularität sieht der KI-Forscher gelassen entgegen: "Künstliche Intelligenz könnte unsere größten Probleme lösen und der Menschheit zu einer neuen Blüte verhelfen". Der KI-Forscher sieht eine Zeit kommen, in der Menschen die Kontrolle an übermächtige Maschinen abgeben, so ähnlich wie Menschen, die an einen Gott glauben. "Religiöse Menschen glauben, dass es ein Wesen gibt, das sehr viel mächtiger und intelligenter ist als sie selbst und das für sie sorgt. Ich denke, wir sollten uns von der anmaßenden Vorstellung lösen, dass wir einzigartig sind."
Laut Tegmark wäre es besser um die Welt bestellt, wenn Menschen demütiger wären und akzeptieren würden, dass es Wesen geben kann, die sehr viel intelligenter sind. "Unseren Selbstwert könnten wir aus anderen Dingen beziehen, zum Beispiel tiefgreifenden Beziehungen zu unseren Mitmenschen und inspirierenden Erlebnissen", sagt Tegmark.