Ehemalige Mitarbeiter:innen von OpenAI und anderen Tech-Riesen kritisierten in einer Anhörung vor dem US-Senat die Sicherheitspraktiken der Unternehmen und warnten vor möglichen Gefahren durch Künstliche Intelligenz.
William Saunders, ehemaliger Mitarbeiter von OpenAI, hat in einer Anhörung vor dem US-Senat schwere Vorwürfe gegen seinen früheren Arbeitgeber erhoben. Laut Saunders vernachlässige OpenAI die Sicherheit zugunsten einer schnellen Entwicklung von Künstlicher Intelligenz.
"Ohne gründliche Tests könnten Entwickler gefährliche Fähigkeiten übersehen", warnte Saunders. Als Beispiel nannte er, dass das neue KI-System von OpenAI Experten bei der Planung zur Reproduktion einer bekannten biologischen Bedrohung unterstützen könne.
Saunders zufolge sei es möglich, dass bereits in drei Jahren ein System mit künstlicher allgemeiner Intelligenz (AGI) entwickelt werden könnte. Als Grund nennt er in seinem Statement auch die Leistung des jüngst veröffentlichte o1-Modell von OpenAI in Mahtematik- und Coding-Wettbewerben: "OpenAIs neues System macht einen Sprung vom Nichtbestehen zur Goldmedaille und übertrifft mich in einem Bereich, der für meinen eigenen Job relevant ist. Es gibt noch bedeutende Lücken zu schließen, aber ich halte es für plausibel, dass ein AGI-System in nur drei Jahren entwickelt werden könnte."
Ein solches System könnte die meisten wirtschaftlich wertvollen Arbeiten besser ausführen als Menschen. Dies berge erhebliche Risiken, etwa durch autonome Cyberangriffe oder die Unterstützung bei der Entwicklung biologischer Waffen.
Der ehemalige Entwickler kritisierte auch die internen Sicherheitsmaßnahmen bei OpenAI. "Es gab lange Zeiträume, in denen Schwachstellen es mir oder Hunderten anderen Ingenieuren im Unternehmen ermöglicht hätten, Zugangskontrollen zu umgehen und die fortschrittlichsten KI-Systeme des Unternehmens zu stehlen, inklusive GPT-4", sagte Saunders.
Um die Risiken zu minimieren, forderte Saunders eine stärkere Regulierung der KI-Branche. "Wenn eine Organisation eine Technologie entwickelt, die erhebliche Risiken für alle mit sich bringt, müssen die Öffentlichkeit und die wissenschaftliche Gemeinschaft an der Entscheidung beteiligt werden, wie diese Risiken vermieden oder minimiert werden können", betonte Saunders.
Auch Kritik vom ehemaligen Vorstandsmitglied von OpenAI
Neben Saunders äußerten in der Anhörung vor dem US-Senat drei weitere ehemalige Mitarbeiter führender KI-Unternehmen schwerwiegende Bedenken hinsichtlich der Sicherheitsstandards in der KI-Branche, warnten vor den Gefahren einer zu schnellen Markteinführung von KI-Systemen und forderten eine stärkere staatliche Regulierung.
Helen Toner, ehemalige Vorstandsmitglied von OpenAI, kritisierte die fragilen internen Kontrollmechanismen der Unternehmen. Sie berichtete von Fällen, in denen Sicherheitsbedenken ignoriert wurden, um Produkte schneller auf den Markt zu bringen. Laut Toner sei es "unmöglich für die Unternehmen, die Interessen einer breiten Öffentlichkeit vollständig zu berücksichtigen", wenn sie allein für detaillierte Entscheidungen über Sicherheitsmaßnahmen verantwortlich seien.
David Evan Harris, ehemaliger Mitarbeiter von Meta, bemängelte den Abbau von Sicherheitsteams in der gesamten Branche. Er warnte davor, sich auf freiwillige Selbstregulierung zu verlassen und forderte verbindliche gesetzliche Regelungen.
Margaret Mitchell, die zuvor bei Google an ethischen KI-Fragen arbeitete, kritisierte die fehlenden Anreize für Sicherheit und Ethik in KI-Unternehmen. Laut Mitchell würden Mitarbeiter, die sich auf diese Themen konzentrieren, seltener befördert.
Die Experten forderten übereinstimmend eine stärkere staatliche Regulierung der KI-Branche. Zu den vorgeschlagenen Maßnahmen gehören:
- Verbindliche Transparenzanforderungen für Entwickler von KI-Systemen mit hohem Risiko
- Verstärkte Forschungsinvestitionen in die Messung, Bewertung und Sicherheit von KI
- Aufbau eines robusten Ökosystems für unabhängige Audits
- Verbesserter Schutz für Whistleblower in KI-Unternehmen
- Erhöhung der technischen Expertise in Regierungsbehörden
- Klärung der Haftung für KI-bedingte Schäden
Die Sachverständigen betonten, dass eine angemessene Regulierung Innovation nicht behindern, sondern fördern würde. Klare Regeln würden das Vertrauen der Verbraucher stärken und den Unternehmen Planungssicherheit geben.
Senator Richard Blumenthal, Vorsitzender des Unterausschusses, kündigte an, bald einen Gesetzentwurf zur KI-Regulierung vorzulegen. Er betonte die Dringlichkeit des Handelns: "Wir müssen jetzt handeln. Die Konsequenzen, es falsch zu machen, wären katastrophal."
OpenAI arbeitet mit US-Regierung zusammen
Die Kritik von Saunders und anderen reiht sich ein in eine Serie von Warnungen ehemaliger OpenAI-Mitarbeiter. Erst kürzlich wurde bekannt, dass OpenAI die Sicherheitstests für sein KI-Modell GPT-4 Omni offenbar stark verkürzt hat. Laut einem Bericht der Washington Post sollen die Tests in nur einer Woche abgeschlossen worden sein, was bei einigen Mitarbeitern für Unmut sorgte.
OpenAI wies die Vorwürfe zurück. Eine Sprecherin erklärte, das Unternehmen habe "keine Abkürzungen bei unserem Sicherheitsprozess genommen". Man habe "umfangreiche interne und externe" Tests durchgeführt, um politischen Verpflichtungen nachzukommen.
Seit November letzten Jahres hat das Unternehmen mehrere Mitarbeiter verloren, die an KI-Sicherheit arbeiteten. Neben Saunders gehören dazu auch Ilya Sutskever, der ehemalige Chief Scientist, und Jan Leike, die gemeinsam das sogenannte Superalignment Team leiteten.
Diese Woche stellte OpenAI ein neues, "Safety and Security Committee" unter der Führung von Zico Kolter vor, das weitreichende Befugnisse zur Überwachung von Sicherheitsmaßnahmen bei der Entwicklung und Einführung von KI-Modellen hat. Wenige Wochen davor hatte OpenAI eine Vereinbarung mit dem US National Institute of Standards and Technology (NIST) getroffen. Diese Kooperation ermöglicht dem US AI Safety Institute den Zugang zu neuen KI-Modellen vor und nach deren Veröffentlichung, um gemeinsam an der Erforschung, Prüfung und Bewertung der KI-Sicherheit zu arbeiten.