OpenAI etabliert ein unabhängiges Aufsichtsgremium für Sicherheit und Sicherheitsmaßnahmen bei der Entwicklung und Einführung von KI-Modellen. Das Gremium soll weitreichende Befugnisse erhalten.
Laut einer Mitteilung des Unternehmens wird das Safety and Security Committee zu einem unabhängigen Aufsichtsgremium des Vorstands, das kritische Sicherheitsmaßnahmen bei der Entwicklung und Einführung von KI-Modellen überwachen soll.
Das Gremium wird von Zico Kolter geleitet, dem Direktor der Abteilung für maschinelles Lernen an der Carnegie Mellon University. Weitere Mitglieder sind Adam D'Angelo, Mitbegründer und CEO von Quora, der pensionierte US-Army-General Paul Nakasone und Nicole Seligman, ehemalige Vizepräsidentin und Chefjuristin von Sony Corporation.
Zu den Aufgaben des Komitees gehört die Überwachung der Sicherheits- und Sicherheitsprozesse, die die Modellentwicklung und -einführung von OpenAI leiten. Das Gremium wird von der Unternehmensführung über Sicherheitsevaluierungen für wichtige Modellveröffentlichungen informiert und hat zusammen mit dem gesamten Vorstand die Befugnis, eine Veröffentlichung zu verzögern, bis Sicherheitsbedenken ausgeräumt sind.
Die Umstrukturierung folgt den Empfehlungen des Komitees selbst, die nach einer 90-tägigen Überprüfung der sicherheits- und sicherheitsbezogenen Prozesse und Schutzmaßnahmen von OpenAI abgegeben wurden.
"Information Sharing and Analysis Center" soll Informationsaustausch zwischen Unternehmen fördern
OpenAI kündigte zudem an, die Entwicklung eines "Information Sharing and Analysis Center" (ISAC) für die KI-Branche zu prüfen. Dieses soll den Austausch von Bedrohungsinformationen und Cybersicherheitsdaten zwischen Unternehmen im KI-Sektor ermöglichen.
Das Unternehmen plant außerdem, seine internen Informationssegmentierungen zu erweitern und zusätzliches Personal einzustellen, um die rund um die Uhr arbeitenden Sicherheitsteams zu verstärken. Darüber hinaus will OpenAI transparenter über die Fähigkeiten und Risiken seiner KI-Modelle informieren.
Erst im vergangenen Monat unterzeichnete OpenAI eine Vereinbarung mit der US-Regierung zur Forschung, Erprobung und Bewertung der KI-Modelle des Unternehmens. Davor verlor das Unternehmen einige seiner führenden KI-Sicherheitsexperten - und löste das Alignment-Team auf.