Inhalt
newsletter Newsletter

Im März verstarb der bekannte Physiker Stephen Hawking. In seinem letzten Buch warnt er die Menschheit vor ihrer Auslöschung.

Am 16. Oktober erschien Hawkings voraussichtlich letztes Buch "Kleine Antworten auf große Fragen" (bei Amazon ansehen), in dem er die Menschheit humorvoll, optimistisch und in einfachen Worten auf ihre Auslöschung hinweist - sofern nicht noch ein paar sehr kluge Menschen ganz hervorragende Ideen haben.

Noch zu seinen Lebzeiten warnte Hawking regelmäßig vor den Gefahren einer außer Kontrolle geratenen Künstlichen Intelligenz. Diese Warnung findet sich entsprechend in seinem letzten Werk wieder und zwar mit Nachdruck:

"Eine Super-KI wäre entweder das Beste oder Schlimmste, das der Menschheit zustößt", schreibt Hawking. Diese Formulierung verwendete er in den vergangenen Jahren häufiger. Sie doppelt sich sogar im Buch.

Anzeige
Anzeige

Das wahre Risiko Künstlicher Intelligenz sei nicht der Missbrauch, sondern Kompetenz. Eine KI sei womöglich so gut und resolut in ihren Entscheidungen, dass die Auslöschung der Menschheit ein Nebenprodukt sei.

Gefährlich werde es, wenn die KI nach einem höheren Ziel strebt, bei dem ihr die Menschheit im Wege steht. "Wenn die Ziele der KI nicht mit unseren Zielen übereinstimmen, haben wir ein Problem", schreibt Hawking.

Reiche Supermenschen entkommen der Nuklearkatastrophe und den Aliens

Wenn es nicht die Künstliche Intelligenz ist, die der Menschheit ein Ende setzt, dann übernimmt es womöglich die Menschheit selbst. Hawking befürchtet eine Minderheit genetisch modifizierter Supermenschen, die unverbesserten Menschen deutlich überlegen sind.

"Wenn diese Supermenschen auftauchen, hat das große politische Probleme zur Folge", schreibt Hawking. Normale Menschen könnten nicht konkurrieren und würden womöglich aussterben oder unwichtig werden.

Ein mögliches Beispiel für so einen Supermenschen wäre aus Hawkings Sicht wohl Oculus-Gründer Palmer Luckey, der kürzlich verkündete, dass er seine hunderte Millionen US-Dollar (zum Teil) einsetzen wird, um noch zu seinen Lebzeiten zu einem "übermenschlichen Cyborg" zu werden.

Empfehlung

"Ich will mich kurzfristig selbst optimieren. Mit Maschinen klappt das wahrscheinlich am besten", sagt Luckey.

Vielleicht jedoch wird er bei seinem Versuch von einem Alien-Besuch gestoppt. Die gibt es laut Hawking nämlich auch und wahrscheinlich, so der Physiker, geht der erste Kontakt nicht zugunsten der Menschheit aus.

Fast schon bodenständig wirkt im Vergleich seine Prognose, dass die Menschheit in den nächsten 1.000 Jahren durch eine Nuklear- oder Umweltkatastrophe vom Erdboden getilgt werden könnte.

Diesen zahlreichen Drohszenarien zum Trotz - oder gerade wegen ihnen - glaubt Hawking, dass die Menschheit letztlich glimpflich davonkommt: "Die Risiken inspirieren den nächsten Einstein. Wo auch immer sie ist."

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Weiterlesen über Transhumanismus:

| Featured Image: Flickr, Lwp Kommunikáció, Lizenziert nach CC BY 2.0
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!