Inhalt
summary Zusammenfassung

OpenAI etabliert ein unabhängiges Aufsichtsgremium für Sicherheit und Sicherheitsmaßnahmen bei der Entwicklung und Einführung von KI-Modellen. Das Gremium soll weitreichende Befugnisse erhalten.

Anzeige

Laut einer Mitteilung des Unternehmens wird das Safety and Security Committee zu einem unabhängigen Aufsichtsgremium des Vorstands, das kritische Sicherheitsmaßnahmen bei der Entwicklung und Einführung von KI-Modellen überwachen soll.

Das Gremium wird von Zico Kolter geleitet, dem Direktor der Abteilung für maschinelles Lernen an der Carnegie Mellon University. Weitere Mitglieder sind Adam D'Angelo, Mitbegründer und CEO von Quora, der pensionierte US-Army-General Paul Nakasone und Nicole Seligman, ehemalige Vizepräsidentin und Chefjuristin von Sony Corporation.

Zu den Aufgaben des Komitees gehört die Überwachung der Sicherheits- und Sicherheitsprozesse, die die Modellentwicklung und -einführung von OpenAI leiten. Das Gremium wird von der Unternehmensführung über Sicherheitsevaluierungen für wichtige Modellveröffentlichungen informiert und hat zusammen mit dem gesamten Vorstand die Befugnis, eine Veröffentlichung zu verzögern, bis Sicherheitsbedenken ausgeräumt sind.

Anzeige
Anzeige

Die Umstrukturierung folgt den Empfehlungen des Komitees selbst, die nach einer 90-tägigen Überprüfung der sicherheits- und sicherheitsbezogenen Prozesse und Schutzmaßnahmen von OpenAI abgegeben wurden.

"Information Sharing and Analysis Center" soll Informationsaustausch zwischen Unternehmen fördern

OpenAI kündigte zudem an, die Entwicklung eines "Information Sharing and Analysis Center" (ISAC) für die KI-Branche zu prüfen. Dieses soll den Austausch von Bedrohungsinformationen und Cybersicherheitsdaten zwischen Unternehmen im KI-Sektor ermöglichen.

Das Unternehmen plant außerdem, seine internen Informationssegmentierungen zu erweitern und zusätzliches Personal einzustellen, um die rund um die Uhr arbeitenden Sicherheitsteams zu verstärken. Darüber hinaus will OpenAI transparenter über die Fähigkeiten und Risiken seiner KI-Modelle informieren.

Erst im vergangenen Monat unterzeichnete OpenAI eine Vereinbarung mit der US-Regierung zur Forschung, Erprobung und Bewertung der KI-Modelle des Unternehmens. Davor verlor das Unternehmen einige seiner führenden KI-Sicherheitsexperten - und löste das Alignment-Team auf.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI richtet ein unabhängiges Aufsichtsgremium namens Safety and Security Committee ein, das kritische Sicherheitsmaßnahmen bei der Entwicklung und Einführung von KI-Modellen überwachen soll.
  • Das Gremium wird von Zico Kolter geleitet und hat weitreichende Befugnisse, einschließlich der Möglichkeit, Modellveröffentlichungen zu verzögern, bis Sicherheitsbedenken ausgeräumt sind.
  • Zusätzlich plant OpenAI die Entwicklung eines "Information Sharing and Analysis Center" für den Austausch von Bedrohungsinformationen in der KI-Branche sowie den Ausbau interner Sicherheitsmaßnahmen und mehr Transparenz über die Fähigkeiten und Risiken seiner KI-Modelle.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!