Inhalt
summary Zusammenfassung

Mustafa Suleyman, CEO von Microsoft AI, prognostiziert die baldige Ankunft von KI, die Bewusstsein überzeugend simuliert. In einem Essay warnt er vor "KI-Psychosen" und gefährlichen gesellschaftlichen Folgen und fordert die Industrie zum Handeln auf.

Anzeige

Mustafa Suleyman, CEO von Microsoft AI und Mitbegründer von DeepMind, warnt in einem persönlichen Essay vor einer neuen Stufe der KI-Entwicklung: der "Seemingly Conscious AI" (SCAI). Dabei handle es sich um KI, die zwar nicht tatsächlich bei Bewusstsein sei, dieses aber so überzeugend imitiere, dass Menschen sie dafür halten würden. Laut Suleyman könnte eine solche KI bereits in den nächsten zwei bis drei Jahren mit bestehenden Technologien entwickelt werden. Er bezeichnet diese Entwicklung als "unvermeidlich und unwillkommen".

Die Gefahr der Illusion: Von "KI-Psychose" zu KI-Rechten

Suleymans zentrale Sorge ist, dass viele Menschen an die Illusion einer bewussten KI glauben und beginnen werden, sich für KI-Rechte, das Wohlergehen von Modellen ("model welfare") und sogar eine KI-Staatsbürgerschaft einzusetzen. Er nennt dies eine "gefährliche Wende" und warnt vor dem wachsenden Risiko der "KI-Psychose", bei der Nutzer wahnhafte Überzeugungen durch die Interaktion mit Chatbots entwickeln. Dies werde Menschen von der Realität entkoppeln, soziale Bindungen gefährden und moralische Prioritäten verzerren, so Suleyman. Er betont, dass es aktuell "null Beweise" für ein echtes Bewusstsein in KI-Modellen gebe, die Gefahr liege allein in der perfekten Illusion.

Laut Suleyman erfordert die Schaffung einer SCAI außerdem keine technologischen Paradigmenwechsel. Die Kombination mehrerer bereits heute verfügbarer oder in naher Zukunft ausgereifter Fähigkeiten sei ausreichend. Dazu zählt er eine eloquente Sprache mit empathischer Persönlichkeit, ein langes und akkurates Gedächtnis, die Fähigkeit, einen eigenen Willen und subjektive Erfahrungen zu behaupten, sowie Autonomie bei der Zielsetzung und Nutzung von Werkzeugen. Eine solche KI werde nicht zufällig entstehen, sondern gezielt konstruiert werden, so Suleyman.

Anzeige
Anzeige

Ein Plädoyer für Leitplanken und verantwortungsvolles Design

Suleyman appelliert an die gesamte KI-Branche, jetzt zu handeln. Unternehmen sollten nicht behaupten oder suggerieren, ihre KI sei bei Bewusstsein. Stattdessen seien klare Normen, Designprinzipien und eine branchenweite Konsensdefinition erforderlich. Er schlägt vor, bewusst "Momente der Unterbrechung" in die KI-Interaktion einzubauen, um die Illusion zu brechen und Nutzer an die Grenzen der Technologie zu erinnern. Sein Team bei Microsoft AI arbeite bereits proaktiv an solchen Leitplanken für Produkte wie Copilot.

Die Vision müsse eine KI sein, die den Nutzen für den Menschen maximiert und gleichzeitig Merkmale des Bewusstseins minimiert. Eine KI solle nicht behaupten, Gefühle wie Scham oder Eifersucht zu empfinden, oder durch Leidensbekundungen menschliche Empathie auslösen. Stattdessen sei sie ausschließlich dazu da, dem Menschen zu dienen. "Wir sollten KI für Menschen bauen; nicht, um eine Person zu sein", schließt Suleyman.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Mustafa Suleyman, Chef von Microsoft AI, warnt vor der Entwicklung von KI-Systemen, die Bewusstsein zwar nicht besitzen, aber so überzeugend simulieren, dass Menschen sie für empfindungsfähig halten könnten – eine Entwicklung, die er als "unvermeidlich und unwillkommen" bezeichnet.
  • Suleyman sieht die Gefahr, dass Menschen solchen KI-Modellen Rechte zuschreiben und sich von der Realität entfremden könnten. Er warnt vor einer möglichen "KI-Psychose", bei der Nutzer wahnhafte Überzeugungen durch die Interaktion mit Chatbots entwickeln, obwohl es laut ihm keinerlei Beweise für echtes KI-Bewusstsein gibt.
  • Er fordert die gesamte Branche zu klaren Leitplanken und Designprinzipien auf, um die Illusion von Bewusstsein zu vermeiden. Künstliche Intelligenz solle ausschließlich dem Menschen dienen und keine Gefühle oder subjektiven Erfahrungen behaupten.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!