OpenAI hat offenbar die Sicherheitstests für sein neuestes KI-Modell GPT-4 Omni stark abgekürzt. Mitarbeiter kritisieren, dass das Unternehmen Geschwindigkeit über Gründlichkeit gestellt habe.
OpenAI soll die Sicherheitstests für sein neues KI-Modell GPT-4 Omni in nur einer Woche abgeschlossen haben. Das berichtet die Washington Post unter Berufung auf drei mit der Angelegenheit vertraute Personen.
Demnach fühlten sich einige Mitglieder des Sicherheitsteams unter Druck gesetzt, das neue Testprotokoll für katastrophale Risiken zu beschleunigen, um den von der Führung festgelegten Starttermin im Mai einzuhalten. "Wir sind im Grunde bei dem Prozess gescheitert", wird eine anonyme Quelle zitiert.
Noch bevor die Tests begannen, lud OpenAI die Mitarbeiter zu einer Party ein, um das Produkt zu feiern. "Sie planten die Launch-Afterparty, bevor sie wussten, ob es sicher war, es zu veröffentlichen", so ein Insider.
In einer Stellungnahme sagte OpenAI-Sprecherin Lindsey Held, das Unternehmen habe "keine Abkürzungen bei unserem Sicherheitsprozess genommen, auch wenn wir zugeben, dass der Start für unsere Teams stressig war." Um den politische Verpflichtungen nachzukommen, habe OpenAI "umfangreiche interne und externe" Tests durchgeführt.
Ein Vertreter des Preparedness-Teams, der nicht genannt werden möchte, sagt, dass alle Tests durchgeführt wurden, aber die Zeit dafür verkürzt wurde: "Wir überdenken unseren gesamten Ansatz", sagt er. "Es war einfach nicht der beste Weg."
Ist OpenAI rücksichtslos - oder wird KI-Sicherheit übertrieben?
OpenAI wirkt zunehmend gehetzt. Das zeigt sich auch daran, dass die Anfang Mai groß angekündigte Sprachfunktionalität mit GPT-4 Omni wegen ausstehender Sicherheitstests erst im Herbst verfügbar sein wird, begleitet von einer verwirrenden Kommunikation. Viele Nutzer erwarteten die neue Sprachfunktionalität direkt mit Omni.
Hinzu kommt eine Reihe von Abgängen hochrangiger Sicherheitsforscher in den vergangenen Monaten, die zum Teil heftige Kritik an den Sicherheitspraktiken von OpenAI geübt haben.
William Saunders, Mitarbeiter für KI-Sicherheit bei OpenAI, der im Februar 2024 das Unternehmen verließ, sagte kürzlich in einem Podcast, OpenAI habe sich in ein Produktunternehmen verwandelt und er "wolle nicht am Ende für die Titanic der KI arbeiten".
Das Gesamtbild lässt zwei Schlüsse zu: Entweder agiert OpenAI leichtsinnig und fahrlässig und nimmt für den wirtschaftlichen Erfolg gesellschaftliche Risiken in Kauf.
Oder das Management geht davon aus, dass die Sicherheitsbedenken gegenüber heutiger generativer KI übertrieben sind, die Entstehung einer AGI gänzlich unklar ist - und das Thema KI-Sicherheit daher überbewertet ist und primär eine Marketingfunktion erfüllt.
Ein Beispiel aus der Vergangenheit zeigt, dass dies funktioniert. Wir erinnern uns an GPT-2, das KI-Modell, das von OpenAI 2019 als zu gefährlich eingestuft wurde, und dessen Leistungsniveau nur wenige Monate später von einigen Studierenden nachgebaut wurde. Im Vergleich zu den heute frei verfügbaren Modellen ist die Leistung von GPT-2 lächerlich gering.