OpenAI stellt einen Leiter für "Preparedness" ein. Die Stelle soll sich mit Sicherheitsrisiken von KI-Modellen befassen. Als Beispiel nennt OpenAI-CEO Sam Altman die mittlerweile gut dokumentierten Auswirkungen von KI-Modellen auf die psychische Gesundheit. Zudem seien die Modelle inzwischen so gut in Cybersecurity, dass sie kritische Schwachstellen finden können.
Modelle verbessern sich schnell und sind jetzt zu vielen großartigen Dingen fähig, aber sie beginnen auch, einige echte Herausforderungen darzustellen.
Der neue Leiter soll unter anderem daran arbeiten, dass Verteidiger im Bereich Cybersicherheit die neuesten Fähigkeiten nutzen können, während Angreifer davon ausgeschlossen werden. Auch der sichere Umgang mit biologischen Fähigkeiten – also wie KI-Modelle biologisches Wissen freigeben – und selbstverbessernden Systemen gehört zu den Aufgaben. Altman warnt: Der Job sei stressig und man springe sofort ins kalte Wasser.
OpenAI stand zuletzt speziell von ehemaligen Angestellten in der Kritik, sie würden vor lauter Produktfokus die Sicherheit der Modelle vernachlässigen. Viele Sicherheitsforscher verließen das Unternehmen.
