Inhalt
summary Zusammenfassung

Jan Leike, ehemaliger Leiter der Abteilung für KI-Ausrichtung und Sicherheit von Superintelligenzen bei OpenAI, übt scharfe Kritik an seinem ehemaligen Arbeitgeber wegen mangelnder Sicherheitsprioritäten und -prozesse.

Anzeige

Jan Leike, bis vor Kurzem Leiter der Abteilung für KI-Ausrichtung und Superintelligenz-Sicherheit bei OpenAI, hat gestern seinen Rücktritt vom Unternehmen bekannt gegeben. Kurz zuvor hatte bereits der renommierte KI-Forscher, Mitbegründer und KI-Sicherheitsguru Ilya Sutskever das Unternehmen verlassen.

In einem langen Thread auf X übt Leike nun scharfe Kritik an der Sicherheitskultur von OpenAI.

Leike kam zu OpenAI, weil er glaubte, dass es der weltweit beste Ort für KI-Sicherheitsforschung speziell für Super-Intelligenz sei.

Anzeige
Anzeige

Doch schon seit einiger Zeit gab es Meinungsverschiedenheiten mit der Leitung von OpenAI über die Kernprioritäten des Unternehmens, bis schließlich ein Punkt erreicht war, "an dem es nicht mehr ging", so Leike.

Der Sicherheitsforscher ist überzeugt, dass OpenAI viel mehr Rechenbandbreite für die Vorbereitung auf und Sicherheit der nächsten Generationen von KI-Modellen aufwenden müsse.

Ein Screenshot des Twitter-Threads von Jan Leike.
Bild: Jan Leike via X

Bei der Ankündigung des Teams für die Ausrichtung einer Super-KI im letzten Sommer sagte OpenAI, dass es dem Sicherheitsteam 20 Prozent der zu diesem Zeitpunkt verfügbaren Rechenleistung zur Verfügung stellen würde. Offenbar wurde das Versprechen nicht gehalten.

KI-Sicherheit sei eine große Herausforderung und Leike ist besorgt, dass OpenAI nicht auf dem richtigen Weg sei, um dorthin zu gelangen.

"Die Entwicklung von Maschinen, die intelligenter sind als der Mensch, ist ein gefährliches Unterfangen. OpenAI übernimmt im Namen der gesamten Menschheit eine enorme Verantwortung", schreibt Leike.

Empfehlung

In den vergangenen Monaten habe sein Team "gegen den Wind gesegelt". Manchmal habe man um Rechenleistung kämpfen müssen. Es sei immer schwieriger geworden, diese entscheidende Forschung durchzuführen.

Sicherheitskultur und -prozesse hinken den "schönen neuen Produkten" hinterher, so Leike. Es sei höchste Zeit, sich intensiv mit den Auswirkungen einer allgemeinen künstlichen Intelligenz auseinanderzusetzen.

Das Ausscheiden von Sutskever und Leike passt zu früheren Gerüchten, dass sich bei OpenAI eine Strömung gegen eine zu starke Kommerzialisierung generativer KI und ein zu schnelles Wachstum entwickelt habe.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Jan Leike, ehemaliger Leiter der Abteilung für KI-Ausrichtung und Superintelligenz-Sicherheit bei OpenAI, hat seinen Rücktritt bekannt gegeben und übt scharfe Kritik an der Sicherheitskultur des Unternehmens. Zuvor hatte bereits der renommierte KI-Forscher Ilya Sutskever OpenAI verlassen.
  • Leike ist überzeugt, dass OpenAI mehr Rechenbandbreite für die Vorbereitung und Sicherheit der nächsten KI-Generationen aufwenden muss. Er ist besorgt, dass das Unternehmen nicht auf dem richtigen Weg ist, um die großen Herausforderungen der KI-Sicherheit zu bewältigen.
  • Laut Leike hinkt die Sicherheitskultur und -prozesse bei OpenAI den "schönen neuen Produkten" hinterher. Es sei höchste Zeit, sich intensiv mit den Auswirkungen einer allgemeinen künstlichen Intelligenz auseinanderzusetzen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!