Inhalt
summary Zusammenfassung

Laut eines ehemaligen OpenAI-Mitarbeiters haben fast die Hälfte der KI-Sicherheitsforscher das Unternehmen verlassen. Gründe sind wohl Meinungsverschiedenheiten über den Umgang mit den Risiken einer möglichen Superintelligenz.

Anzeige

Etwa die Hälfte der Sicherheitsforscher bei OpenAI hat das Unternehmen in den vergangenen Monaten verlassen, darunter auch prominente Führungskräfte. Das berichtet der ehemalige OpenAI-Sicherheitsforscher Daniel Kokotajlo gegenüber dem Magazin Fortune.

Kokotajlo selbst äußert sich nicht zu den Gründen für alle Kündigungen, vermutet aber, dass sie mit seiner eigenen Überzeugung übereinstimmen: OpenAI sei der Entwicklung einer Superintelligenz (AGI) "ziemlich nah", aber nicht bereit, "alles zu bewältigen, was damit verbunden ist".

Dies habe laut Kokotajlo zu einer "abschreckenden Wirkung" auf diejenigen im Unternehmen geführt, die versuchten, Forschung über die Risiken von AGI zu veröffentlichen. Zudem gebe es einen "zunehmenden Einfluss der Kommunikations- und Lobbyabteilungen von OpenAI" darauf, was angemessen sei zu veröffentlichen.

Anzeige
Anzeige

Auch die zwischenzeitliche Entlassung von OpenAI-CEO Sam Altman wurde mit Sicherheitsbedenken in Verbindung gebracht. Eine Anwaltskanzlei entlastete Altman nach seiner Wiedereinstellung.

Prominente Abgänge und Auflösung des "Superalignment"-Teams

Von etwa 30 Mitarbeitenden, die sich mit Fragen der AGI-Sicherheit befasst hätten, seien etwa 16 übrig. Diese Abgänge seien laut Kokotajlo keine "koordinierte Sache" gewesen, sondern die Leute hätten "individuell aufgegeben".

Zu den Abgängen gehören Jan Hendrik Kirchner, Collin Burns, Jeffrey Wu, Jonathan Uesato, Steven Bills, Yuri Burda, Todor Markov und OpenAI-Mitbegründer John Schulman.

Besonders aufmerksamkeitsstark waren die Rücktritte von Chefwissenschaftler Ilya Sutskever und Jan Leike, einem weiteren Forscher, die im Mai gemeinsam das sogenannte "Superalignment"-Team des Unternehmens leiteten.

Dieses Team, das sich mit der Sicherheit zukünftiger Hochleistungs-KI-Systeme beschäftigte, wurde von OpenAI anschließend aufgelöst.

Empfehlung

Experten verlassen OpenAI, aber nicht KI

Kokotajlo zeigt sich enttäuscht, aber nicht überrascht, dass sich OpenAI gegen den kalifornischen Gesetzentwurf SB 1047 ausgesprochen habe, der das Risiko von fortschrittlichen KI-Systemen kontrollieren soll.

Er ist Mitunterzeichner eines offenen Briefs an den zuständigen Senator, der OpenAIs Vorgehen kritisiert. Dieses sei ein Betrug an OpenAIs ursprünglichen Plänen, die langfristigen Risiken von AGI gründlich zu bewerten, um daraus Regulierungen und Gesetze abzuleiten, so Kokotajlo.

Leike und Schulman wechselten in die Sicherheitsforschung beim OpenAI-Konkurrenten Anthropic, der SB 1407 mit Einschränkungen unterstütztSchulman sagte vor seinem Abgang bei OpenAI, er halte eine AGI für in zwei bis drei Jahren möglich. Sutskever ging noch einen Schritt weiter und gründete direkt sein eigenes Start-up für die Entwicklung einer sicheren Superintelligenz.

Auffällig an den Abgängen ist, dass die Forscher zwar OpenAI den Rücken kehren, aber dem Thema KI treu bleiben. Das spricht dafür, dass sie in der Technologie weiter Substanz sehen, aber OpenAI nicht mehr als den richtigen Arbeitgeber betrachten.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Bei OpenAI hat in den letzten Monaten etwa die Hälfte der Sicherheitsforscher das Unternehmen verlassen, darunter prominente Führungskräfte wie Chefwissenschaftler Ilya Sutskever und Jan Leike, die das "Superalignment"-Team leiteten.
  • Laut dem ehemaligen OpenAI-Sicherheitsforscher Daniel Kokotajlo gab es Meinungsverschiedenheiten über den Umgang mit den Risiken einer möglichen Superintelligenz (AGI). OpenAI sei der Entwicklung einer AGI "ziemlich nahe", aber nicht bereit, alle damit verbundenen Risiken zu tragen.
  • Die meisten der ausgeschiedenen Forscher blieben dem Thema KI treu und wechselten zu Konkurrenten wie Anthropic oder gründeten eigene Start-ups. Dies zeigt, dass sie weiterhin Potenzial in der Technologie sehen, aber OpenAI nicht mehr als den richtigen Arbeitgeber betrachten.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!