Inhalt
summary Zusammenfassung

OpenAI hat offenbar die Sicherheitstests für sein neuestes KI-Modell GPT-4 Omni stark abgekürzt. Mitarbeiter kritisieren, dass das Unternehmen Geschwindigkeit über Gründlichkeit gestellt habe.

Anzeige

OpenAI soll die Sicherheitstests für sein neues KI-Modell GPT-4 Omni in nur einer Woche abgeschlossen haben. Das berichtet die Washington Post unter Berufung auf drei mit der Angelegenheit vertraute Personen.

Demnach fühlten sich einige Mitglieder des Sicherheitsteams unter Druck gesetzt, das neue Testprotokoll für katastrophale Risiken zu beschleunigen, um den von der Führung festgelegten Starttermin im Mai einzuhalten. "Wir sind im Grunde bei dem Prozess gescheitert", wird eine anonyme Quelle zitiert.

Noch bevor die Tests begannen, lud OpenAI die Mitarbeiter zu einer Party ein, um das Produkt zu feiern. "Sie planten die Launch-Afterparty, bevor sie wussten, ob es sicher war, es zu veröffentlichen", so ein Insider.

Anzeige
Anzeige

In einer Stellungnahme sagte OpenAI-Sprecherin Lindsey Held, das Unternehmen habe "keine Abkürzungen bei unserem Sicherheitsprozess genommen, auch wenn wir zugeben, dass der Start für unsere Teams stressig war." Um den politische Verpflichtungen nachzukommen, habe OpenAI "umfangreiche interne und externe" Tests durchgeführt.

Ein Vertreter des Preparedness-Teams, der nicht genannt werden möchte, sagt, dass alle Tests durchgeführt wurden, aber die Zeit dafür verkürzt wurde: "Wir überdenken unseren gesamten Ansatz", sagt er. "Es war einfach nicht der beste Weg."

Ist OpenAI rücksichtslos - oder wird KI-Sicherheit übertrieben?

OpenAI wirkt zunehmend gehetzt. Das zeigt sich auch daran, dass die Anfang Mai groß angekündigte Sprachfunktionalität mit GPT-4 Omni wegen ausstehender Sicherheitstests erst im Herbst verfügbar sein wird, begleitet von einer verwirrenden Kommunikation. Viele Nutzer erwarteten die neue Sprachfunktionalität direkt mit Omni.

Hinzu kommt eine Reihe von Abgängen hochrangiger Sicherheitsforscher in den vergangenen Monaten, die zum Teil heftige Kritik an den Sicherheitspraktiken von OpenAI geübt haben.

William Saunders, Mitarbeiter für KI-Sicherheit bei OpenAI, der im Februar 2024 das Unternehmen verließ, sagte kürzlich in einem Podcast, OpenAI habe sich in ein Produktunternehmen verwandelt und er "wolle nicht am Ende für die Titanic der KI arbeiten".

Empfehlung

Das Gesamtbild lässt zwei Schlüsse zu: Entweder agiert OpenAI leichtsinnig und fahrlässig und nimmt für den wirtschaftlichen Erfolg gesellschaftliche Risiken in Kauf.

Oder das Management geht davon aus, dass die Sicherheitsbedenken gegenüber heutiger generativer KI übertrieben sind, die Entstehung einer AGI gänzlich unklar ist - und das Thema KI-Sicherheit daher überbewertet ist und primär eine Marketingfunktion erfüllt.

Ein Beispiel aus der Vergangenheit zeigt, dass dies funktioniert. Wir erinnern uns an GPT-2, das KI-Modell, das von OpenAI 2019 als zu gefährlich eingestuft wurde, und dessen Leistungsniveau nur wenige Monate später von einigen Studierenden nachgebaut wurde. Im Vergleich zu den heute frei verfügbaren Modellen ist die Leistung von GPT-2 lächerlich gering.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI hat die Sicherheitstests für sein neues KI-Modell GPT-4 Omni einem Bericht zufolge in nur einer Woche abgeschlossen. Mitarbeiter kritisieren, dass das Unternehmen Schnelligkeit über Gründlichkeit gestellt habe.
  • Einige Mitglieder des Sicherheitsteams fühlten sich unter Druck gesetzt, das neue Testprotokoll für katastrophale Risiken zu beschleunigen, um den vom Management gesetzten Starttermin im Mai einzuhalten. Ein Vertreter des Preparedness-Teams räumt ein, dass die Tests zwar durchgeführt, aber zeitlich verkürzt wurden.
  • Das Vorgehen von OpenAI lässt zwei Schlüsse zu: Entweder agiert das Unternehmen leichtsinnig und nimmt für den wirtschaftlichen Erfolg Risiken in Kauf, oder das Management geht davon aus, dass die Sicherheitsbedenken gegenüber heutiger generativer KI übertrieben sind und das Thema KI-Sicherheit primär eine Marketingfunktion erfüllt.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!