Im März verstarb der bekannte Physiker Stephen Hawking. In seinem letzten Buch warnt er die Menschheit vor ihrer Auslöschung.
Am 16. Oktober erschien Hawkings voraussichtlich letztes Buch "Kleine Antworten auf große Fragen" (bei Amazon ansehen), in dem er die Menschheit humorvoll, optimistisch und in einfachen Worten auf ihre Auslöschung hinweist - sofern nicht noch ein paar sehr kluge Menschen ganz hervorragende Ideen haben.
Noch zu seinen Lebzeiten warnte Hawking regelmäßig vor den Gefahren einer außer Kontrolle geratenen Künstlichen Intelligenz. Diese Warnung findet sich entsprechend in seinem letzten Werk wieder und zwar mit Nachdruck:
"Eine Super-KI wäre entweder das Beste oder Schlimmste, das der Menschheit zustößt", schreibt Hawking. Diese Formulierung verwendete er in den vergangenen Jahren häufiger. Sie doppelt sich sogar im Buch.
Das wahre Risiko Künstlicher Intelligenz sei nicht der Missbrauch, sondern Kompetenz. Eine KI sei womöglich so gut und resolut in ihren Entscheidungen, dass die Auslöschung der Menschheit ein Nebenprodukt sei.
Gefährlich werde es, wenn die KI nach einem höheren Ziel strebt, bei dem ihr die Menschheit im Wege steht. "Wenn die Ziele der KI nicht mit unseren Zielen übereinstimmen, haben wir ein Problem", schreibt Hawking.
Reiche Supermenschen entkommen der Nuklearkatastrophe und den Aliens
Wenn es nicht die Künstliche Intelligenz ist, die der Menschheit ein Ende setzt, dann übernimmt es womöglich die Menschheit selbst. Hawking befürchtet eine Minderheit genetisch modifizierter Supermenschen, die unverbesserten Menschen deutlich überlegen sind.
"Wenn diese Supermenschen auftauchen, hat das große politische Probleme zur Folge", schreibt Hawking. Normale Menschen könnten nicht konkurrieren und würden womöglich aussterben oder unwichtig werden.
Ein mögliches Beispiel für so einen Supermenschen wäre aus Hawkings Sicht wohl Oculus-Gründer Palmer Luckey, der kürzlich verkündete, dass er seine hunderte Millionen US-Dollar (zum Teil) einsetzen wird, um noch zu seinen Lebzeiten zu einem "übermenschlichen Cyborg" zu werden.
"Ich will mich kurzfristig selbst optimieren. Mit Maschinen klappt das wahrscheinlich am besten", sagt Luckey.
Vielleicht jedoch wird er bei seinem Versuch von einem Alien-Besuch gestoppt. Die gibt es laut Hawking nämlich auch und wahrscheinlich, so der Physiker, geht der erste Kontakt nicht zugunsten der Menschheit aus.
Fast schon bodenständig wirkt im Vergleich seine Prognose, dass die Menschheit in den nächsten 1.000 Jahren durch eine Nuklear- oder Umweltkatastrophe vom Erdboden getilgt werden könnte.
Diesen zahlreichen Drohszenarien zum Trotz - oder gerade wegen ihnen - glaubt Hawking, dass die Menschheit letztlich glimpflich davonkommt: "Die Risiken inspirieren den nächsten Einstein. Wo auch immer sie ist."
Weiterlesen über Transhumanismus:
- Legt Facebook die Grundlage für eine Transhumanismus-Dystopie?
- Elon Musk verspricht Übermenschen dank Hirn-Computer-Interface
- Dieses Startup will euren Geist in einer Computersimulation konservieren