OpenAI hat das "Superalignment"-Team aufgelöst, das sich mit der Sicherheit zukünftiger Hochleistungs-KI-Systeme beschäftigte, berichtet Bloomberg. Die Arbeit des Teams soll in die allgemeine Sicherheitsforschung integriert werden.
OpenAI-CEO Sam Altman und Mitgründer und Präsident Greg Brockman haben nach den Vorwürfen und der Kritik des Ex-Sicherheitsforschers Jan Leike eine ausführliche, aber letztlich nichtssagende Erklärung bei X veröffentlicht.
Der Tenor: Der Weg zu AGI sei ungewiss und OpenAI werde sich weiterhin für die Sicherheit von KI einsetzen. Leike kritisierte nach seinem Abschied die OpenAI-Führung scharf dafür, dass sie sich nicht ernsthaft mit den Risiken hoch entwickelter KI-Systeme auseinandersetze.
Hat OpenAI das AGI-Risiko überschätzt?
Eine These zu den Entwicklungen bei OpenAI ist, dass AGI schlicht überschätzt und daher die Sicherheitsforschung in Richtung Super-KI übertrieben wurde.
Das Management sieht diese Entwicklung, kürzt entsprechend die Ressourcen. Das Sicherheits-Team fühlt sich missverstanden - und geht. Dazu passt, dass das Super-Alignment-Team nun ganz abgeschafft wurde.
"Wenn man genügend Menschen mit einer derart verzerrten Sicht der Realität in einem Raum versammelt, dass sie ein drohendes großes Übel wahrnehmen, geraten sie oft in eine 'Spirale der Reinheit', die sie immer extremere Überzeugungen vertreten lässt. Schon bald werden sie zum Gift für die Organisation, die sie beherbergt und finanziert. Sie werden ausgegrenzt und verlassen schließlich die Organisation", schreibt Metas KI-Chefforscher Yann LeCun, der eine Anti-AGI-Haltung vertritt.
Im Widerspruch zu dieser Annahme stehen jedoch die jüngsten Äußerungen des ChatGPT-Erfinders und OpenAI-Mitbegründers John Schulman, der Leikes Rolle übernehmen soll. Schulman geht sehr wohl davon aus, dass AGI innerhalb der nächsten zwei bis drei Jahre möglich sein wird.
Schulman schlägt sogar organisationsübergreifende Regeln inklusive einer möglichen Pause vor, damit ein solches System nicht ohne klare Sicherheitsregeln an viele Menschen ausgerollt wird. Er habe aber noch keine gute Antwort.
OpenAI-Chef Altman wusste angeblich nichts von Knebelverträgen
Eine weitere Anekdote, die das Vertrauen in OpenAI als Unternehmen und Altman als qualifizierten Firmenchef nicht gerade stärkt: Er habe nichts von den Knebelverträgen gewusst, die OpenAI-Mitarbeiter bei ihrem Ausscheiden unterschreiben mussten, so OpenAI-CEO Altman auf X.
Eine Klausel drohte den Angestellten mit dem Verlust ihrer OpenAI-Anteile in Millionenhöhe, sollten sie sich nach ihrem Ausscheiden kritisch über das Unternehmen äußern. Die Klausel wurde von einer Vox-Journalistin enthüllt. Das passt so gar nicht zum Bild des netten Start-ups, das die Welt vom bösen Zwilling Google befreien und in eine bessere Zukunft mit Wohlstand und Glück für alle führen will.
"Auch wenn wir nie etwas zurückverlangt haben, hätte dies niemals in den Dokumenten oder der Kommunikation erwähnt werden dürfen", schreibt Altman. "Es ist meine Schuld und eines der wenigen Male, in denen ich mich wirklich schäme, OpenAI zu leiten; ich wusste nicht, was vor sich ging, und ich hätte es wissen müssen."