Abschiedsgruß: Stephen Hawking warnt vor KI und Supermenschen
Im März verstarb der bekannte Physiker Stephen Hawking. In seinem letzten Buch warnt er die Menschheit vor ihrer Auslöschung.
Am 16. Oktober erschien Hawkings voraussichtlich letztes Buch "Kleine Antworten auf große Fragen" (bei Amazon ansehen), in dem er die Menschheit humorvoll, optimistisch und in einfachen Worten auf ihre Auslöschung hinweist - sofern nicht noch ein paar sehr kluge Menschen ganz hervorragende Ideen haben.
Noch zu seinen Lebzeiten warnte Hawking regelmäßig vor den Gefahren einer außer Kontrolle geratenen Künstlichen Intelligenz. Diese Warnung findet sich entsprechend in seinem letzten Werk wieder und zwar mit Nachdruck:
"Eine Super-KI wäre entweder das Beste oder Schlimmste, das der Menschheit zustößt", schreibt Hawking. Diese Formulierung verwendete er in den vergangenen Jahren häufiger. Sie doppelt sich sogar im Buch.
Das wahre Risiko Künstlicher Intelligenz sei nicht der Missbrauch, sondern Kompetenz. Eine KI sei womöglich so gut und resolut in ihren Entscheidungen, dass die Auslöschung der Menschheit ein Nebenprodukt sei.
Gefährlich werde es, wenn die KI nach einem höheren Ziel strebt, bei dem ihr die Menschheit im Wege steht. "Wenn die Ziele der KI nicht mit unseren Zielen übereinstimmen, haben wir ein Problem", schreibt Hawking.
Reiche Supermenschen entkommen der Nuklearkatastrophe und den Aliens
Wenn es nicht die Künstliche Intelligenz ist, die der Menschheit ein Ende setzt, dann übernimmt es womöglich die Menschheit selbst. Hawking befürchtet eine Minderheit genetisch modifizierter Supermenschen, die unverbesserten Menschen deutlich überlegen sind.
"Wenn diese Supermenschen auftauchen, hat das große politische Probleme zur Folge", schreibt Hawking. Normale Menschen könnten nicht konkurrieren und würden womöglich aussterben oder unwichtig werden.
Ein mögliches Beispiel für so einen Supermenschen wäre aus Hawkings Sicht wohl Oculus-Gründer Palmer Luckey, der kürzlich verkündete, dass er seine hunderte Millionen US-Dollar (zum Teil) einsetzen wird, um noch zu seinen Lebzeiten zu einem "übermenschlichen Cyborg" zu werden.
"Ich will mich kurzfristig selbst optimieren. Mit Maschinen klappt das wahrscheinlich am besten", sagt Luckey.
Vielleicht jedoch wird er bei seinem Versuch von einem Alien-Besuch gestoppt. Die gibt es laut Hawking nämlich auch und wahrscheinlich, so der Physiker, geht der erste Kontakt nicht zugunsten der Menschheit aus.
Fast schon bodenständig wirkt im Vergleich seine Prognose, dass die Menschheit in den nächsten 1.000 Jahren durch eine Nuklear- oder Umweltkatastrophe vom Erdboden getilgt werden könnte.
Diesen zahlreichen Drohszenarien zum Trotz - oder gerade wegen ihnen - glaubt Hawking, dass die Menschheit letztlich glimpflich davonkommt: "Die Risiken inspirieren den nächsten Einstein. Wo auch immer sie ist."
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnierenKI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.