Skip to content

Post für OpenAI CEO Sam Altman: US-Regierung fragt zur KI-Sicherheit nach

Image description
OpenAI (YouTube Screenshot)

Kurz & Knapp

  • Eine Gruppe von US-Senatoren hat OpenAI CEO Sam Altman in einem Brief aufgefordert, bis zum 13. August 2024 detaillierte Informationen über die Sicherheitspraktiken und Beschäftigungsbedingungen des Unternehmens offenzulegen.
  • Hintergrund sind Medienberichte, initiiert von ehemaligen Mitarbeitern, die als Whistleblower auf mögliche Sicherheitsrisiken bei OpenAI hingewiesen haben, darunter Kündigungen prominenter KI-Sicherheitsforscher, Sicherheitslücken und Bedenken von Mitarbeitern.
  • Die Senatoren betonen, dass die Öffentlichkeit darauf vertrauen können muss, dass OpenAI seine Systeme sicher entwickelt, was die Integrität der Unternehmensführung, Sicherheitstests, Beschäftigungspraktiken, Einhaltung öffentlicher Versprechen und Cybersicherheitsrichtlinien betrifft.

Mehrere US-Senatoren haben einen Brief an OpenAI-CEO Sam Altman geschickt, in dem sie detaillierte Informationen über die Sicherheitspraktiken und Beschäftigungsbedingungen des Unternehmens verlangen. Hintergrund sind Berichte von Whistleblowern über Sicherheitsrisiken.

Eine Gruppe von US-Senatoren hat OpenAI CEO Sam Altman in einem Brief aufgefordert, bis zum 13. August 2024 detaillierte Informationen über die Sicherheitspraktiken und Beschäftigungsbedingungen des Unternehmens zur Verfügung zu stellen.

Hintergrund sind Medienberichte, die zum Teil von ehemaligen Mitarbeitern initiiert wurden, die als Whistleblower auf mögliche Sicherheitsrisiken bei OpenAI hingewiesen haben.

Unter anderem berichteten die New York Times, Vox und die Washington Post über Kündigungen prominenter KI-Sicherheitsforscher, Sicherheitslücken, die zu einem Hack führten, und Bedenken von Mitarbeitern über die Sicherheitspraktiken von OpenAI.

Einige Forscher, wie der ehemalige Super-KI-Sicherheitschef Jan Leike, wandten sich mit scharfer Kritik direkt an die Öffentlichkeit. So würde OpenAI die Veröffentlichung von Produkten auf Kosten der Sicherheit vorantreiben.

Das neue KI-Modell GPT-4o sei nur eine Woche in der Sicherheitsprüfung gewesen. Es kann durch die Formulierung von Prompts in der Vergangenheitsform dazu gebracht werden, kritische Inhalte wie die Bauanleitung für eine Bombe zu generieren.

Die Senatoren weisen darauf hin, dass OpenAI sich öffentlich zu einer sicheren und verantwortungsvollen Entwicklung von KI bekannt und entsprechende Selbstverpflichtungen gegenüber der Biden-Administration abgegeben habe. Zudem arbeite OpenAI mit US-Behörden zusammen, um KI-gestützte Cybersicherheitstools zum Schutz kritischer Infrastrukturen zu entwickeln.

Die Öffentlichkeit müsse darauf vertrauen können, dass OpenAI seine Systeme sicher entwickelt. Dies betreffe die Integrität der Unternehmensführung und der Sicherheitstests ebenso wie die Beschäftigungspraktiken, die Einhaltung öffentlicher Versprechen und die Cybersicherheitsrichtlinien.

Möglicherweise als Reaktion auf den Brief veröffentlicht OpenAI bei X einige Stellungnahmen, in denen auf das kürzlich gegründete Safety and Security Committee, die durchgesickerten und damit offiziell bestätigten Schritte bis zur AGI, das Preparedness Framework und den Prozess der Überarbeitung der kritisierten Arbeitsverträge verwiesen wird, die Rechte ehemalige Mitarbeitender als Whistleblower einschränken sollen.

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren