OpenAI hat sein "AGI Readiness"-Team aufgelöst, das die Entwicklung fortschrittlicher KI-Systeme überwachen sollte. Der scheidende Teamleiter warnt vor mangelnder Regulierung und fehlender Vorbereitung auf superintelligente KI.
Wie CNBC berichtet, löst OpenAI ein weiteres Team auf, das sich mit den Risiken hoch entwickelter KI befasste. Das Team "AGI Readiness" ist Geschichte, die Mitarbeitenden werden auf andere Abteilungen verteilt.
AGI steht für Artificial General Intelligence, also eine KI, die dem Menschen mindestens ebenbürtig oder sogar überlegen ist. Es gibt zahlreiche Definitionen, OpenAI selbst legt eine ökonomische an: Eine AGI muss stark autonom agieren und viele Jobs automatisieren können.
Ehemaliger interner AGI-Berater warnt vor fehlender Regulierung
OpenAIs nun ehemaliger Senior Advisor for AGI Readiness, Miles Brundage, verlässt das Unternehmen und übt in einer sehr ausführlichen Stellungnahme scharfe Kritik:
"Weder OpenAI noch irgendein anderes führendes KI-Labor ist bereit für AGI, und die Welt ist es auch nicht", schreibt Brundage.
Er warnt insbesondere vor mangelnder Regulierung. KI-Unternehmen hätten starke finanzielle Anreize, eine effektive Aufsicht zu vermeiden. Die Entwicklung sicherer und nützlicher KI-Systeme sei kein Automatismus, sondern erfordere bewusste Entscheidungen von Regierungen, Unternehmen und der Zivilgesellschaft.
Brundage will nun eine gemeinnützige Organisation gründen oder einer bestehenden beitreten. Extern könne er mehr bewirken als in der Industrie, wo es schwierig sei, unparteiisch zu bleiben und frei zu publizieren, so der KI-Experte. Brundages Team hat für OpenAI die fünf Stufen des KI-Fortschritts entwickelt.
Zweites Sicherheitsteam innerhalb weniger Monate aufgelöst
Erst im Mai hatte OpenAI das "Superalignment"-Team aufgelöst, das sich mit langfristigen KI-Risiken beschäftigte. Dessen Leiter Jan Leike kritisierte damals öffentlich, dass bei OpenAI "Sicherheitskultur und -prozesse hinter polierten Produkten zurückstehen müssen".
Im vergangenen Monat verließen drei Führungskräfte OpenAI, darunter CTO Mira Murati und Forschungschef Bob McGrew. Trotz der Unruhe im Team und noch hoher Verluste wurde OpenAIs Wert von Investoren zuletzt auf 157 Milliarden US-Dollar geschätzt.
Die Auflösung der AGI- und ASI-Sicherheitsteams lässt zwei Interpretationen zu: Entweder glaubt OpenAI selbst nicht mehr an die baldige Entwicklung einer übermächtigen KI - oder das Unternehmen handelt unverantwortlich, wie Kritiker von OpenAI-CEO Sam Altman vermuten.
Altman beteuert weiterhin, dass er AGI für möglich und bald erreichbar hält. Dario Amodei, CEO von Anthropic, dem größten Konkurrenten von OpenAI, sagte kürzlich, dass AGI 2026 möglich, aber auch viel länger dauern könnte. Kurz gesagt: Er weiß es nicht.