Mehrere teils führende Super-KI-Sicherheitsforscher haben OpenAI in den vergangenen Monaten verlassen. Interne Quellen berichten von einem Vertrauensverlust gegenüber CEO Sam Altman.
Seit November letzten Jahres haben mindestens sieben Mitarbeiter OpenAI verlassen, die an KI-Sicherheit im Kontext einer AGI gearbeitet haben. Darunter sind Ilya Sutskever, der ehemalige Chief Scientist, und Jan Leike, die gemeinsam das sogenannte Superalignment Team leiteten.
Die Sicherheitsforscher Cullen O'Keefe, Daniel Kokotajlo und William Saunders haben laut Vox ebenfalls gekündigt. Leopold Aschenbrenner und Pavel Izmailov vom Superalignment-Team wurden wegen angeblicher Leaks entlassen.
Das Superalignment Team soll sicherstellen, dass eine zukünftige Superintelligenz auf die Ziele der Menschheit ausgerichtet bleibt. Leike hat OpenAI öffentlich scharf dafür kritisiert, diese Aufgabe nicht ernst genug zu nehmen.
Leikes öffentliche Äußerung könnte ein besonderes Signal sein, denn ehemalige Mitarbeiterinnen und Mitarbeiter dürfen sich aufgrund restriktiver Vertraulichkeitsvereinbarungen nicht öffentlich äußern. Ihnen droht unter anderem der Verlust von Aktienanteilen, die mehrere Millionen wert sein können, berichtet Vox unter Berufung auf Insiderquellen.
OpenAI bestreitet diese Klauseln nicht, weist aber darauf hin, dass bisher keine Anteile von aktuellen oder ehemaligen Mitarbeitenden gelöscht wurden, die bei ihrem Ausscheiden keine Vertraulichkeits- oder Geheimhaltungsvereinbarung unterzeichnet haben. Ob und inwieweit Leike von diesen Klauseln betroffen ist, ist nicht bekannt.
Angeblicher Vertrauensverlust in OpenAI CEO Sam Altman
Ähnlich wie Leike äußerte sich der KI-Sicherheitsforscher Daniel Kokotajlo, der die restriktiven Dokumente bei seinem Abschied nicht unterzeichnet hat, gegenüber Vox. Da er bei seiner Einstellung Vertraulichkeits- oder Geheimhaltungsvereinbarung unterzeichnet habe, dürfe er dennoch nicht alles sagen.
"Ich bin mit der großen Hoffnung beigetreten, dass OpenAI der Situation gewachsen ist und sich verantwortungsbewusster verhält, je näher die Verwirklichung der AGI rückt. Allmählich wurde vielen von uns klar, dass dies nicht der Fall sein würde", sagt Kokotajlo. "Ich verlor schrittweise das Vertrauen in die OpenAI-Führung und ihre Fähigkeit, mit AGI verantwortungsvoll umzugehen, und verließ die Organisation."
Kokotajlo hat OpenAI im April 2024 verlassen, und verzichtete laut eigenen Angaben auf eine große Summe, die "mindestens" 85 Prozent des Gesamtvermögens seiner Familie entsprochen hätte, um die Papiere nicht unterzeichnen zu müssen.
Eine andere Person mit Insiderwissen über OpenAI spricht im Zusammenhang mit KI-Sicherheit von "Vertrauen, das nach und nach zusammenbricht, wie Dominosteine, die einer nach dem anderen fallen."
Altman spiele ein doppeltes Spiel, sei manipulativ und sein Verhalten stehe im Widerspruch zu seinen Aussagen zur KI-Sicherheit, heißt es in dem Bericht.
Ähnlich kritisch äußerte sich das Board bei der Entlassung Altmans im November: Altman sei nicht "konsistent aufrichtig" gewesen, hieß es in der Begründung für die Entlassung. Die Debatten rund um die Sicherheit von KI waren vermutlich ausschlaggebend für die internen Streitigkeiten, die zu seiner Entlassung führten.
Die Untersuchung einer Anwaltskanzlei, die nach Altmans Rückkehr eingeschaltet wurde, entlasteten Altman, seine Entlassung sei ungerechtfertigt gewesen.
Nach seiner Entlassung stellte sich zudem ein großer Teil des OpenAI-Personals hinter Altman und beschleunigte so seine Rückkehr. Der Vorstand musste nachgeben, sonst wäre OpenAI wahrscheinlich zusammengebrochen oder mehrheitlich zu Microsoft abgewandert. Das spricht nicht für ein generelles Führungsproblem Altmans.
Wenn es stimmt, dass Altman und OpenAI die Sicherheitsforschung rund um eine mögliche Super-KI tatsächlich nicht angemessen wahrnehmen, gibt es zwei Szenarien: Das Start-up wird von Google, Open Source und anderen Unternehmen unter Druck gesetzt und muss Geschwindigkeit über Sicherheit stellen. Was nach außen locker und leicht wirkt, kann intern mit großem Druck einhergehen.
Oder das Management hält im Gegensatz zu Forschern wie Leike eine zeitnahe Realisierung einer AGI nicht mehr für realistisch und priorisiert das Thema entsprechend runter.
Dazu passt, dass OpenAI-CEO Sam Altman in den vergangenen Monaten defensiver zum Thema AGI kommuniziert hat. Unter anderem sagte er, dass die Skalierung bestehender Systeme nicht ausreichen würde, sondern neue Techniken notwendig seien. Zuletzt sagte er Mitte Januar 2024, dass eine AGI "in relativ naher Zukunft" denkbar sei.