Inhalt
summary Zusammenfassung

OpenAI verkürzt die Testphasen für seine leistungsfähigsten KI-Modelle auf wenige Tage. Tester warnen vor einem leichtsinnigen Umgang mit potenziellen Risiken – getrieben vom Druck des KI-Wettrennens.

Anzeige

OpenAI hat den Zeitraum für Sicherheitsprüfungen seiner neuesten Sprachmodelle drastisch reduziert. Während für GPT-4 noch sechs Monate veranschlagt wurden, bleiben Testern beim neuen Modell „o3“ nur wenige Tage. Beteiligte Personen berichten von weniger gründlichen Tests und fehlenden Ressourcen. Mit zunehmender Leistungsfähigkeit der Modelle steige das Gefahrenpotenzial – etwa durch Missbrauch für biologische oder sicherheitsrelevante Zwecke. Dennoch wolle OpenAI die Veröffentlichung beschleunigen, um im Wettbewerb mit Meta, Google und xAI nicht ins Hintertreffen zu geraten, heißt es in einem Bericht der Financial Times.

OpenAI hatte sich in der Vergangenheit dazu verpflichtet, speziell angepasste Tests durchzuführen, um etwaige Missbrauchsmöglichkeiten – etwa zur Entwicklung biologischer Waffen – zu prüfen. Diese Verfahren erfordern erhebliche Ressourcen: spezielle Datensätze, Feintuning, externe Fachleute. Laut FT-Bericht wurden solche Tests jedoch nur mit älteren, weniger leistungsfähigen Modellen durchgeführt. Wie sich neuere Modelle wie o1 oder o3-mini unter ähnlichen Bedingungen verhalten würden, ist unklar.

Im Sicherheitsbericht zu o3-mini verweist OpenAI lediglich darauf, dass GPT-4o eine bestimmte biologische Aufgabe nach Feintuning lösen konnte – Ergebnisse für neuere Modelle fehlen. Der frühere OpenAI-Sicherheitsforscher Steven Adler kritisiert: „Wenn OpenAI diese Tests nicht durchführt, obwohl es sie angekündigt hat, sollte die Öffentlichkeit das wissen.“

Anzeige
Anzeige

Sicherheitstests testen nicht das finale Modell

Ein weiterer Kritikpunkt betrifft die Praxis, Sicherheitsprüfungen an sogenannten Checkpoints – also Zwischenständen eines Modells – durchzuführen, die später weiterentwickelt werden. Ein ehemaliger technischer Mitarbeiter bezeichnet das als „schlechte Praxis“. OpenAI entgegnet, die Checkpoints seien „nahezu identisch“ mit den finalen Modellen.

OpenAI verweist zudem auf Effizienzgewinne durch automatisierte Testverfahren. Laut Johannes Heidecke, Leiter der Sicherheitssysteme bei OpenAI, habe man eine „gute Balance“ zwischen Geschwindigkeit und Gründlichkeit gefunden. Es gebe keine einheitliche Vorgabe, wie etwa Feintuning durchzuführen sei, aber man halte sich an die bestmöglichen Methoden und dokumentiere diese transparent.

Derzeit existieren weltweit keine verpflichtenden Regeln für KI-Sicherheitstests. Unternehmen wie OpenAI haben lediglich freiwillige Zusagen gegenüber Behörden in den USA und Großbritannien unterzeichnet. Mit dem Inkrafttreten des europäischen KI-Gesetzes Ende des Jahres wird sich das ändern: Dann müssen Anbieter ihre leistungsfähigsten Modelle verpflichtend auf Risiken prüfen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI hat die Dauer der Sicherheitsprüfungen für neue KI-Modelle drastisch reduziert. Bei dem kommenden Modell "o3" hatten Tester nur wenige Tage Zeit, um potenzielle Risiken und Fähigkeiten zu analysieren, während bei früheren Modellen wie GPT-4 mehrere Monate für diesen Prozess eingeplant waren.
  • Die Entscheidung stößt sowohl intern als auch extern auf Kritik, da die Modelle immer leistungsfähiger und potenziell missbrauchbar werden. Ehemalige Mitarbeiter und Experten betonen, dass der Wettbewerbsdruck Unternehmen dazu verleitet, immer schneller neue Modelle zu veröffentlichen, ohne ausreichend über riskante Fähigkeiten zu informieren.
  • OpenAI rechtfertigt die beschleunigten Verfahren mit technischen Verbesserungen und automatisierten Tests, während Kritiker bemängeln, dass die Tests oft auf früheren Versionen und nicht auf den endgültigen Modellen basieren. Ab Ende des Jahres plant die EU strengere Anforderungen an Sicherheitstests durchzusetzen.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!