Der bekannte KI-Forscher Stuart Russell und andere warnen vor überzogenen Erwartungen an KI, die sie zum Teil selbst herbeigeführt haben.
Diese Erwartungen könnten leicht zu einer Blase führen, die irgendwann platzt: "Sie rennen dann einfach alle so schnell sie können zu den Ausgängen", sagt Russell. "Und dann kann alles wirklich, wirklich, wirklich schnell zusammenbrechen." Über den KI‑Winter der 1980er Jahre sagt Russell rückblickend: "[Die Systeme] haben kein Geld eingebracht, wir fanden nicht genug Anwendungen mit hohem Wert."
Bemerkenswert ist Russells Aussage auch deshalb, weil er 2023 zu den Unterzeichnern des sogenannten Pause-Briefs gehörte, der aus Sicherheitsgründen ein Moratorium für die KI-Entwicklung forderte – damals, weil angeblich alles zu schnell ging. Heute warnt er hingegen vor dem gegenteiligen Risiko: dass übersteigerte Erwartungen die Branche in einen überhitzten Wirbel treiben, der abrupt kollabieren könnte.
Ironischerweise hat gerade der Pause-Brief jene Erwartungen erst weiter befeuert, indem er die Vorstellung nährte, KI-Systeme stünden kurz vor einem nicht mehr kontrollierbaren Durchbruch. Verstärkt wurde dieses Narrativ durch die wiederkehrenden, hochtrabenden Blogbeiträge von OpenAI‑Chef Sam Altman und ähnliche Aussagen anderer Tech‑Protagonisten. So wurden Investoren wiederholt darin bestätigt, anzunehmen, dass dem Menschen ebenbürtige oder gar übermächtige KI (AGI), die die gesamte Wirtschaft von heute auf morgen auf den Kopf stellt, unmittelbar bevorsteht.
GPT‑5 als Symbol der Ernüchterung
Die Debatte rund um eine mögliche Stagnation generativer KI hat durch den für manche enttäuschenden Launch von GPT‑5 zuletzt Auftrieb erhalten. Ernüchterung herrscht dabei weniger über die Leistung des Modells an sich – GPT‑5 liefert erwartbare Verbesserungen und ist deutlich kosteneffizienter – sondern über die Diskrepanz zwischen monatelangen Versprechungen fast allmächtiger Systeme und der nüchternen Realität.
Die Märkte hatten längst die nächste Tech‑Revolution eingepreist, was die Enttäuschung verstärkt. "Für GPT‑5 … haben die Leute erwartet, etwas völlig Neues zu entdecken. Doch das haben wir nicht bekommen", sagt Thomas Wolf, Mitgründer von Hugging Face. Sogar OpenAI‑Chef Sam Altman räumte kürzlich ein, dass man wohl in einer Blase sei.
Auch Metas KI-Chefforscher Yann LeCun verweist auf die Grenzen des bisherigen LLM‑Pfads: Der Nutzen "reiner Sprachmodelle, die mit Text trainiert werden" nehme ab – doch er sieht weiter Skalierungspotenzial in multimodalen Deep-Learning-Modellen, die aus Videos und anderen Modalitäten lernen. Das sagt LeCun allerdings schon seit Jahren.
Genau hier setzt Russells Warnung an: Die Branche benötigt jetzt echte Durchdringung in Märkten und robuste Use Cases, die passend zu den Milliardeninvestitionen bezahlt werden. Sonst kann ein plötzlicher Stimmungsumschwung den Hype zum Einsturz bringen, völlig unabhängig davon, wie nützlich die Technologie letztlich im Alltag ist.
Besonders hohe Erwartungen ruhen derzeit auf sogenannten agentischen KI-Systemen, die in der Lage sein sollen, über längere Zeiträume komplexere Aufgaben zu erfüllen. Ob die Zuverlässigkeit dieser Architekturen schon ausreicht, um als hochpreisige Angebote im Unternehmensumfeld zu bestehen, ist jedoch fraglich. Denn gerade agentische KI weist noch Schwachstellen bei der Verlässlichkeit und vor allem bei der Cyber-Sicherheit auf.