OpenAI sucht neuen Sicherheitschef für KI-Risiken wie Cyberangriffe und psychische Gesundheit
OpenAI stellt einen Leiter für "Preparedness" ein. Die Stelle soll sich mit Sicherheitsrisiken von KI-Modellen befassen. Als Beispiel nennt OpenAI-CEO Sam Altman die mittlerweile gut dokumentierten Auswirkungen von KI-Modellen auf die psychische Gesundheit. Zudem seien die Modelle inzwischen so gut in Cybersecurity, dass sie kritische Schwachstellen finden können.
Modelle verbessern sich schnell und sind jetzt zu vielen großartigen Dingen fähig, aber sie beginnen auch, einige echte Herausforderungen darzustellen.
Der neue Leiter soll unter anderem daran arbeiten, dass Verteidiger im Bereich Cybersicherheit die neuesten Fähigkeiten nutzen können, während Angreifer davon ausgeschlossen werden. Auch der sichere Umgang mit biologischen Fähigkeiten – also wie KI-Modelle biologisches Wissen freigeben – und selbstverbessernden Systemen gehört zu den Aufgaben. Altman warnt: Der Job sei stressig und man springe sofort ins kalte Wasser.
OpenAI stand zuletzt speziell von ehemaligen Angestellten in der Kritik, sie würden vor lauter Produktfokus die Sicherheit der Modelle vernachlässigen. Viele Sicherheitsforscher verließen das Unternehmen.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnieren