Inhalt
summary Zusammenfassung

OpenAI hat das "Superalignment"-Team aufgelöst, das sich mit der Sicherheit zukünftiger Hochleistungs-KI-Systeme beschäftigte, berichtet Bloomberg. Die Arbeit des Teams soll in die allgemeine Sicherheitsforschung integriert werden.

OpenAI-CEO Sam Altman und Mitgründer und Präsident Greg Brockman haben nach den Vorwürfen und der Kritik des Ex-Sicherheitsforschers Jan Leike eine ausführliche, aber letztlich nichtssagende Erklärung bei X veröffentlicht.

Der Tenor: Der Weg zu AGI sei ungewiss und OpenAI werde sich weiterhin für die Sicherheit von KI einsetzen. Leike kritisierte nach seinem Abschied die OpenAI-Führung scharf dafür, dass sie sich nicht ernsthaft mit den Risiken hoch entwickelter KI-Systeme auseinandersetze.

Hat OpenAI das AGI-Risiko überschätzt?

Eine These zu den Entwicklungen bei OpenAI ist, dass AGI schlicht überschätzt und daher die Sicherheitsforschung in Richtung Super-KI übertrieben wurde.

Anzeige
Anzeige

Das Management sieht diese Entwicklung, kürzt entsprechend die Ressourcen. Das Sicherheits-Team fühlt sich missverstanden - und geht. Dazu passt, dass das Super-Alignment-Team nun ganz abgeschafft wurde.

"Wenn man genügend Menschen mit einer derart verzerrten Sicht der Realität in einem Raum versammelt, dass sie ein drohendes großes Übel wahrnehmen, geraten sie oft in eine 'Spirale der Reinheit', die sie immer extremere Überzeugungen vertreten lässt. Schon bald werden sie zum Gift für die Organisation, die sie beherbergt und finanziert. Sie werden ausgegrenzt und verlassen schließlich die Organisation", schreibt Metas KI-Chefforscher Yann LeCun, der eine Anti-AGI-Haltung vertritt.

Im Widerspruch zu dieser Annahme stehen jedoch die jüngsten Äußerungen des ChatGPT-Erfinders und OpenAI-Mitbegründers John Schulman, der Leikes Rolle übernehmen soll. Schulman geht sehr wohl davon aus, dass AGI innerhalb der nächsten zwei bis drei Jahre möglich sein wird.

Schulman schlägt sogar organisationsübergreifende Regeln inklusive einer möglichen Pause vor, damit ein solches System nicht ohne klare Sicherheitsregeln an viele Menschen ausgerollt wird. Er habe aber noch keine gute Antwort.

OpenAI-Chef Altman wusste angeblich nichts von Knebelverträgen

Eine weitere Anekdote, die das Vertrauen in OpenAI als Unternehmen und Altman als qualifizierten Firmenchef nicht gerade stärkt: Er habe nichts von den Knebelverträgen gewusst, die OpenAI-Mitarbeiter bei ihrem Ausscheiden unterschreiben mussten, so OpenAI-CEO Altman auf X.

Empfehlung

Eine Klausel drohte den Angestellten mit dem Verlust ihrer OpenAI-Anteile in Millionenhöhe, sollten sie sich nach ihrem Ausscheiden kritisch über das Unternehmen äußern. Die Klausel wurde von einer Vox-Journalistin enthüllt. Das passt so gar nicht zum Bild des netten Start-ups, das die Welt vom bösen Zwilling Google befreien und in eine bessere Zukunft mit Wohlstand und Glück für alle führen will.

"Auch wenn wir nie etwas zurückverlangt haben, hätte dies niemals in den Dokumenten oder der Kommunikation erwähnt werden dürfen", schreibt Altman. "Es ist meine Schuld und eines der wenigen Male, in denen ich mich wirklich schäme, OpenAI zu leiten; ich wusste nicht, was vor sich ging, und ich hätte es wissen müssen."

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI hat das "Superalignment"-Team aufgelöst, das sich mit der Sicherheit zukünftiger KI-Systeme mit allgemeiner Künstlicher Intelligenz (AGI) beschäftigte. Die Arbeit des Teams soll nun in die allgemeine Sicherheitsforschung integriert werden.
  • Über die Gründe für diese Entwicklung gibt es widersprüchliche Einschätzungen: Möglicherweise wurde die Möglichkeit einer zeitnahen AGI und damit auch die Sicherheitsforschung an AGI überschätzt.
  • Andererseits bestätigt OpenAI-Mitbegründer John Schulman in einem aktuellen Podcast, dass er AGI in zwei bis drei Jahren für möglich hält. Schulman übernimmt die Rolle des ausgeschiedenen AGI-Sicherheitsforschers Jan Leike.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!