Mustafa Suleyman, CEO von Microsoft AI, prognostiziert die baldige Ankunft von KI, die Bewusstsein überzeugend simuliert. In einem Essay warnt er vor "KI-Psychosen" und gefährlichen gesellschaftlichen Folgen und fordert die Industrie zum Handeln auf.
Mustafa Suleyman, CEO von Microsoft AI und Mitbegründer von DeepMind, warnt in einem persönlichen Essay vor einer neuen Stufe der KI-Entwicklung: der "Seemingly Conscious AI" (SCAI). Dabei handle es sich um KI, die zwar nicht tatsächlich bei Bewusstsein sei, dieses aber so überzeugend imitiere, dass Menschen sie dafür halten würden. Laut Suleyman könnte eine solche KI bereits in den nächsten zwei bis drei Jahren mit bestehenden Technologien entwickelt werden. Er bezeichnet diese Entwicklung als "unvermeidlich und unwillkommen".
Die Gefahr der Illusion: Von "KI-Psychose" zu KI-Rechten
Suleymans zentrale Sorge ist, dass viele Menschen an die Illusion einer bewussten KI glauben und beginnen werden, sich für KI-Rechte, das Wohlergehen von Modellen ("model welfare") und sogar eine KI-Staatsbürgerschaft einzusetzen. Er nennt dies eine "gefährliche Wende" und warnt vor dem wachsenden Risiko der "KI-Psychose", bei der Nutzer wahnhafte Überzeugungen durch die Interaktion mit Chatbots entwickeln. Dies werde Menschen von der Realität entkoppeln, soziale Bindungen gefährden und moralische Prioritäten verzerren, so Suleyman. Er betont, dass es aktuell "null Beweise" für ein echtes Bewusstsein in KI-Modellen gebe, die Gefahr liege allein in der perfekten Illusion.
Laut Suleyman erfordert die Schaffung einer SCAI außerdem keine technologischen Paradigmenwechsel. Die Kombination mehrerer bereits heute verfügbarer oder in naher Zukunft ausgereifter Fähigkeiten sei ausreichend. Dazu zählt er eine eloquente Sprache mit empathischer Persönlichkeit, ein langes und akkurates Gedächtnis, die Fähigkeit, einen eigenen Willen und subjektive Erfahrungen zu behaupten, sowie Autonomie bei der Zielsetzung und Nutzung von Werkzeugen. Eine solche KI werde nicht zufällig entstehen, sondern gezielt konstruiert werden, so Suleyman.
Ein Plädoyer für Leitplanken und verantwortungsvolles Design
Suleyman appelliert an die gesamte KI-Branche, jetzt zu handeln. Unternehmen sollten nicht behaupten oder suggerieren, ihre KI sei bei Bewusstsein. Stattdessen seien klare Normen, Designprinzipien und eine branchenweite Konsensdefinition erforderlich. Er schlägt vor, bewusst "Momente der Unterbrechung" in die KI-Interaktion einzubauen, um die Illusion zu brechen und Nutzer an die Grenzen der Technologie zu erinnern. Sein Team bei Microsoft AI arbeite bereits proaktiv an solchen Leitplanken für Produkte wie Copilot.
Die Vision müsse eine KI sein, die den Nutzen für den Menschen maximiert und gleichzeitig Merkmale des Bewusstseins minimiert. Eine KI solle nicht behaupten, Gefühle wie Scham oder Eifersucht zu empfinden, oder durch Leidensbekundungen menschliche Empathie auslösen. Stattdessen sei sie ausschließlich dazu da, dem Menschen zu dienen. "Wir sollten KI für Menschen bauen; nicht, um eine Person zu sein", schließt Suleyman.