Inhalt
summary Zusammenfassung

Das US-amerikanische National Institute of Standards and Technology (NIST) hat Vereinbarungen mit Anthropic und OpenAI getroffen, um gemeinsam an der Erforschung, Prüfung und Bewertung der Sicherheit künstlicher Intelligenz zu arbeiten. Die Vereinbarungen zielen darauf ab, sichere und vertrauenswürdige KI-Innovationen zu fördern.

Anzeige

Die Absichtserklärungen mit den beiden Unternehmen schaffen laut NIST den Rahmen für den Zugang des US AI Safety Institute zu wichtigen neuen Modellen der Unternehmen vor und nach der Veröffentlichung. Die Vereinbarungen ermöglichen eine gemeinsame Forschung zur Bewertung von Sicherheitsfähigkeiten und -risiken sowie von Methoden zur Eindämmung dieser Risiken.

"Sicherheit ist entscheidend, um bahnbrechende technologische Innovationen voranzutreiben. [...] Diese Vereinbarungen sind nur der Anfang, aber sie sind ein wichtiger Meilenstein auf dem Weg zu einer verantwortungsvollen Gestaltung der Zukunft der KI", sagt Elizabeth Kelly, Direktorin des U.S. AI Safety Institute.

Darüber hinaus plant das U.S. AI Safety Institute, Anthropic und OpenAI Feedback zu möglichen Sicherheitsverbesserungen ihrer Modelle zu geben, in enger Zusammenarbeit mit seinen Partnern am U.K. AI Safety Institute.

Anzeige
Anzeige

Das U.S. AI Safety Institute baut auf der mehr als 120-jährigen Tradition des NIST auf, Technologien und Standards weiterzuentwickeln. Die Bewertungen im Rahmen der Vereinbarungen mit Anthropic und OpenAI sollen die Arbeit des NIST im Bereich der KI vorantreiben und auf der KI-Verordnung der Biden-Harris-Regierung sowie freiwilligen Verpflichtungen führender KI-Unternehmen aufbauen.

Anthropic und OpenAI sind bei KI-Sicherheit auf Kollisionskurs

Obwohl das NIST hier die beiden großen amerikanischen KI-Start-ups gemeinsam anspricht, scheint die Marktrealität, zumindest was die Sicherheit betrifft, eher zugunsten von Anthropic auszufallen.

Zuletzt verließen zahlreiche Sicherheitsforscher OpenAI und heuerten teilweise bei Anthropic an, insbesondere die beiden hochrangigen Experten Jan Leike, ehemaliger Super-KI-Sicherheitsforscher bei OpenAI, und OpenAI-Mitbegründer John Schulman.

Anthropic unterstützt auch den kalifornischen Gesetzesentwurf SB 1047, der die Gefahren von hoch entwickelter KI eindämmen soll. OpenAI lehnt das Gesetz ab, da diese Fragen auf nationaler Ebene geregelt werden sollten.

Insofern ist die Kooperation von OpenAI mit dem NIST auch eine Stellungnahme in der kalifornischen Debatte. OpenAI CEO Sam Altman begrüßt die Zusammenarbeit mit dem NIST auf X. Es sei aus "vielen Gründen" wichtig, dass dies auf nationaler Ebene geschehe.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Das U.S. Artificial Intelligence Safety Institute (NIST) hat Vereinbarungen mit Anthropic und OpenAI getroffen, um gemeinsam an der Erforschung, dem Testen und der Bewertung der KI-Sicherheit zu arbeiten.
  • Im Rahmen der Vereinbarungen erhält das NIST vor und nach der Veröffentlichung Zugang zu wichtigen neuen Modellen der Unternehmen. Dies ermögliche kollaborative Forschung zur Bewertung von Fähigkeiten und Sicherheitsrisiken sowie zu Methoden zur Eindämmung dieser Risiken.
  • Trotz der gemeinsamen Vereinbarung mit dem NIST scheinen Anthropic und OpenAI bei der KI-Sicherheit auf Kollisionskurs zu sein. Zahlreiche Sicherheitsforscher haben OpenAI verlassen und sind teilweise zu Anthropic gewechselt. Zudem unterstützt Anthropic ein kalifornisches Gesetz zur Eindämmung der Gefahren fortschrittlicher KI, während OpenAI dieses ablehnt.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!