Laut eines ehemaligen OpenAI-Mitarbeiters haben fast die Hälfte der KI-Sicherheitsforscher das Unternehmen verlassen. Gründe sind wohl Meinungsverschiedenheiten über den Umgang mit den Risiken einer möglichen Superintelligenz.
Etwa die Hälfte der Sicherheitsforscher bei OpenAI hat das Unternehmen in den vergangenen Monaten verlassen, darunter auch prominente Führungskräfte. Das berichtet der ehemalige OpenAI-Sicherheitsforscher Daniel Kokotajlo gegenüber dem Magazin Fortune.
Kokotajlo selbst äußert sich nicht zu den Gründen für alle Kündigungen, vermutet aber, dass sie mit seiner eigenen Überzeugung übereinstimmen: OpenAI sei der Entwicklung einer Superintelligenz (AGI) "ziemlich nah", aber nicht bereit, "alles zu bewältigen, was damit verbunden ist".
Dies habe laut Kokotajlo zu einer "abschreckenden Wirkung" auf diejenigen im Unternehmen geführt, die versuchten, Forschung über die Risiken von AGI zu veröffentlichen. Zudem gebe es einen "zunehmenden Einfluss der Kommunikations- und Lobbyabteilungen von OpenAI" darauf, was angemessen sei zu veröffentlichen.
Auch die zwischenzeitliche Entlassung von OpenAI-CEO Sam Altman wurde mit Sicherheitsbedenken in Verbindung gebracht. Eine Anwaltskanzlei entlastete Altman nach seiner Wiedereinstellung.
Prominente Abgänge und Auflösung des "Superalignment"-Teams
Von etwa 30 Mitarbeitenden, die sich mit Fragen der AGI-Sicherheit befasst hätten, seien etwa 16 übrig. Diese Abgänge seien laut Kokotajlo keine "koordinierte Sache" gewesen, sondern die Leute hätten "individuell aufgegeben".
Zu den Abgängen gehören Jan Hendrik Kirchner, Collin Burns, Jeffrey Wu, Jonathan Uesato, Steven Bills, Yuri Burda, Todor Markov und OpenAI-Mitbegründer John Schulman.
Besonders aufmerksamkeitsstark waren die Rücktritte von Chefwissenschaftler Ilya Sutskever und Jan Leike, einem weiteren Forscher, die im Mai gemeinsam das sogenannte "Superalignment"-Team des Unternehmens leiteten.
Dieses Team, das sich mit der Sicherheit zukünftiger Hochleistungs-KI-Systeme beschäftigte, wurde von OpenAI anschließend aufgelöst.
Experten verlassen OpenAI, aber nicht KI
Kokotajlo zeigt sich enttäuscht, aber nicht überrascht, dass sich OpenAI gegen den kalifornischen Gesetzentwurf SB 1047 ausgesprochen habe, der das Risiko von fortschrittlichen KI-Systemen kontrollieren soll.
Er ist Mitunterzeichner eines offenen Briefs an den zuständigen Senator, der OpenAIs Vorgehen kritisiert. Dieses sei ein Betrug an OpenAIs ursprünglichen Plänen, die langfristigen Risiken von AGI gründlich zu bewerten, um daraus Regulierungen und Gesetze abzuleiten, so Kokotajlo.
Leike und Schulman wechselten in die Sicherheitsforschung beim OpenAI-Konkurrenten Anthropic, der SB 1407 mit Einschränkungen unterstützt. Schulman sagte vor seinem Abgang bei OpenAI, er halte eine AGI für in zwei bis drei Jahren möglich. Sutskever ging noch einen Schritt weiter und gründete direkt sein eigenes Start-up für die Entwicklung einer sicheren Superintelligenz.
Auffällig an den Abgängen ist, dass die Forscher zwar OpenAI den Rücken kehren, aber dem Thema KI treu bleiben. Das spricht dafür, dass sie in der Technologie weiter Substanz sehen, aber OpenAI nicht mehr als den richtigen Arbeitgeber betrachten.