Inhalt
summary Zusammenfassung

OpenAI entlässt zwei Forscher wegen angeblicher unerlaubter Informationsweitergabe, darunter einen mutmaßlichen Verbündeten des Mitbegründers Ilya Sutskever.

Nach internen Machtkämpfen hat OpenAI zwei KI-Sicherheitsforscher entlassen, die vertrauliche Informationen weitergegeben haben sollen, berichtet The Information.

Einer der Entlassenen ist Leopold Aschenbrenner, ein jetzt ehemaliges Mitglied des "Superalignment"-Teams, das sich mit der gesellschaftlichen Sicherheit fortgeschrittener künstlicher Intelligenz befasst. Das Team soll Techniken zur Kontrolle und Steuerung einer möglichen Super-KI entwickeln.

Der andere entlassene Mitarbeiter, Pavel Izmailov, arbeitete an KI-Reasoning und war zeitweise auch im Sicherheitsteam tätig.

Anzeige
Anzeige

Aschenbrenner soll zudem ein Verbündeter des Chefwissenschaftlers Ilya Sutskever sein, der im Herbst an einem gescheiterten Versuch beteiligt war, CEO Sam Altman zu entmachten.

Seitdem ist Sutskever nicht mehr öffentlich in Erscheinung getreten, ohne dass sich OpenAI oder Altman explizit dazu geäußert hätten. Zuletzt hatte Altman Mitte März erklärt, Sutskever gehe es "gut", er wolle sich aber nicht zu dessen Rolle im Unternehmen äußern.

Geht es um den Q*-Leak?

Es ist unbekannt, welche Informationen die beiden entlassenen Mitarbeiter ausgeplaudert haben sollen.

Einen größeren Leak gab es bei OpenAI in jüngerer Vergangenheit aber nur rund um Q*, OpenAIs Logik-Einheit für große Sprachmodelle, die in GPT-5 erstmals zum Einsatz kommen könnte.

Das Profil der beiden Forscher passt jedenfalls zu diesem Leak, da Q* das Reasoning von LLMs und damit vermutlich auch sicherheitsrelevante Fragen verstärkt.

Empfehlung

Laut The Information hatte Aschenbrenner Verbindungen zur Bewegung des "Effektiven Altruismus", die dem Kampf gegen die Gefahren von KI Vorrang vor kurzfristigen Gewinnen oder Produktivitätsvorteilen einräumt.

Ob dies im Kontext seiner Entlassung steht oder möglicherweise ein Motiv für ein Leak war, ist nicht bekannt. Innerhalb von OpenAI soll es Meinungsverschiedenheiten darüber gegeben haben, ob das Start-up KI sicher genug entwickelt.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI hat zwei KI-Sicherheitsforscher entlassen, die vertrauliche Informationen weitergegeben haben sollen.
  • Einer der Entlassenen, Leopold Aschenbrenner, war Mitglied des Superalignment-Teams, das sich mit der sozialen Sicherheit fortgeschrittener KI beschäftigt. Der andere Entlassene, Pavel Izmailov, arbeitete an KI-Reasoning und war zeitweise auch im Sicherheitsteam tätig.
  • Es ist unklar, welche Informationen die beiden Mitarbeiter ausgeplaudert haben sollen. Zuletzt gab es jedoch ein größeres Leck rund um Q*, OpenAIs Logik-Unit für große Sprachmodelle, die in GPT-5 erstmals zum Einsatz kommen könnte. Das Profil der beiden Forscher passt zu diesem Leak.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!