OpenAI entlässt zwei Forscher wegen angeblicher unerlaubter Informationsweitergabe, darunter einen mutmaßlichen Verbündeten des Mitbegründers Ilya Sutskever.
Nach internen Machtkämpfen hat OpenAI zwei KI-Sicherheitsforscher entlassen, die vertrauliche Informationen weitergegeben haben sollen, berichtet The Information.
Einer der Entlassenen ist Leopold Aschenbrenner, ein jetzt ehemaliges Mitglied des "Superalignment"-Teams, das sich mit der gesellschaftlichen Sicherheit fortgeschrittener künstlicher Intelligenz befasst. Das Team soll Techniken zur Kontrolle und Steuerung einer möglichen Super-KI entwickeln.
Der andere entlassene Mitarbeiter, Pavel Izmailov, arbeitete an KI-Reasoning und war zeitweise auch im Sicherheitsteam tätig.
Aschenbrenner soll zudem ein Verbündeter des Chefwissenschaftlers Ilya Sutskever sein, der im Herbst an einem gescheiterten Versuch beteiligt war, CEO Sam Altman zu entmachten.
Seitdem ist Sutskever nicht mehr öffentlich in Erscheinung getreten, ohne dass sich OpenAI oder Altman explizit dazu geäußert hätten. Zuletzt hatte Altman Mitte März erklärt, Sutskever gehe es "gut", er wolle sich aber nicht zu dessen Rolle im Unternehmen äußern.
Geht es um den Q*-Leak?
Es ist unbekannt, welche Informationen die beiden entlassenen Mitarbeiter ausgeplaudert haben sollen.
Einen größeren Leak gab es bei OpenAI in jüngerer Vergangenheit aber nur rund um Q*, OpenAIs Logik-Einheit für große Sprachmodelle, die in GPT-5 erstmals zum Einsatz kommen könnte.
Das Profil der beiden Forscher passt jedenfalls zu diesem Leak, da Q* das Reasoning von LLMs und damit vermutlich auch sicherheitsrelevante Fragen verstärkt.
Laut The Information hatte Aschenbrenner Verbindungen zur Bewegung des "Effektiven Altruismus", die dem Kampf gegen die Gefahren von KI Vorrang vor kurzfristigen Gewinnen oder Produktivitätsvorteilen einräumt.
Ob dies im Kontext seiner Entlassung steht oder möglicherweise ein Motiv für ein Leak war, ist nicht bekannt. Innerhalb von OpenAI soll es Meinungsverschiedenheiten darüber gegeben haben, ob das Start-up KI sicher genug entwickelt.