Inhalt
summary Zusammenfassung

Ein von der US-Regierung in Auftrag gegebener Bericht warnt vor erheblichen nationalen Sicherheitsrisiken durch KI und schlägt beispielsweise vor, die Veröffentlichung von Open-Source-Modellen zu verbieten - notfalls mit Gefängnisstrafen.

Ein von der US-Regierung in Auftrag gegebener Bericht warnt vor erheblichen nationalen Sicherheitsrisiken durch Künstliche Intelligenz. Diese könnten im schlimmsten Fall eine existenzielle Bedrohung für die Menschheit darstellen, heißt es in dem Bericht, der dem Nachrichtenmagazin TIME vor der Veröffentlichung vorlag.

Die drei Autoren des Berichts mit dem Titel "An Action Plan to Increase the Safety and Security of Advanced AI" haben mehr als ein Jahr daran gearbeitet. Sie haben mit mehr als 200 Regierungsbeamten, Experten und Mitarbeitern führender KI-Unternehmen wie OpenAI, Google DeepMind, Anthropic und Meta gesprochen.

Der Plan umfasst fünf strategische Ansätze. Dazu gehören die Einrichtung von Schutzmaßnahmen gegen Missbrauch, die Stärkung der Fähigkeiten und Kapazitäten zur Handhabung von KI-Risiken, die Förderung von Sicherheitsforschung, die Schaffung gesetzlicher Grundlagen für Schutzmaßnahmen und die Internationalisierung dieser Schutzvorkehrungen. Die Autoren betonen auch die Notwendigkeit, sowohl aktuelle als auch potenzielle zukünftige Risiken zu adressieren, um eine sichere und verantwortungsvolle Nutzung von KI-Technologien zu gewährleisten.

Anzeige
Anzeige
Der Bericht schlägt eine Reihe verknüpfter Maßnahmen vor, die KI sicherer machen sollen. | Bild: Gladstone AI

Der Bericht empfiehlt eine Reihe weitreichender politischer Maßnahmen, die die KI-Branche grundlegend verändern könnten. So schlägt er beispielsweise vor, dass der US-Kongress das Training von KI-Modellen ab einer bestimmten Rechenleistung verbieten sollte. Diese Schwelle sollte von einer neuen Bundesbehörde für KI festgelegt werden. Als Beispiel nennt der Bericht eine Schwelle, die etwas über der Rechenleistung liegt, die benötigt wird, um aktuelle Spitzenmodelle wie OpenAIs GPT-4 und Googles Gemini zu trainieren.

Gefängnis für Open-Source-KI?

Die Autoren des Berichts, Jérémie und Edouard Harris, CEO bzw. CTO von Gladstone AI, sind sich laut Bericht bewusst, dass ihre Empfehlungen von vielen in der KI-Branche als übertrieben streng angesehen werden. Insbesondere erwarten sie, dass ihre Empfehlung, das Open-Sourcing von Gewichten für fortgeschrittene KI-Modelle zu verbieten, nicht populär sein wird. Verstöße könnten beispielsweise mit Gefängnisstrafen geahndet werden, heißt es laut TIME in dem Bericht. Eine solche Maßnahme würde etwa Meta betreffen, das mit der geplanten Veröffentlichung von Llama 3 wohl ein offenes Modell auf GPT-4-Niveau anbieten wird. Metas KI-Chef Yann LeCun sieht Open-Source als wichtigen Baustein für sicherere KI.

Angesichts der potenziellen Gefahren durch KI sei die Philosophie "move fast and break things" jedoch nicht mehr angemessen, so die Autoren. "Unsere derzeitige Standardtrajektorie scheint sehr darauf ausgerichtet zu sein, Systeme zu schaffen, die mächtig genug sind, um entweder katastrophal als Waffen eingesetzt zu werden oder unkontrollierbar zu sein", sagt Jeremie Harris. Er fügt hinzu: "Eines der schlimmsten Szenarien ist, dass ein katastrophales Ereignis die KI-Forschung für alle vollständig stoppt und wir nicht in der Lage sind, die unglaublichen Vorteile dieser Technologie zu nutzen."

Tech-Mitarbeitende in KI-Unternehmen äußern anonym Sicherheitsbedenken

Der Bericht offenbart erhebliche Sicherheitsbedenken der Mitarbeiterinnen und Mitarbeiter führender KI-Unternehmen. So äußerten einige der Befragten starke Bedenken hinsichtlich der Sicherheit ihrer Arbeit und der Anreize, die ihre Führungskräfte setzen.

Einige der Befragten äußerten sich besorgt, etwa über die ihrer Meinung nach unzureichenden Sicherheitsmaßnahmen in vielen KI-Labors. "Nach dem persönlichen Urteil vieler ihrer eigenen technischen Mitarbeiter sind die Sicherheitsmaßnahmen in vielen KI-Laboren unzureichend, um einer anhaltenden IP-Exfiltration durch einen hoch entwickelten Angreifer zu widerstehen", heißt es in dem Bericht. Bei einem solchen Angriff würden die Modelle eigentlich geschlossener KI-Systeme gestohlen und könnten für bösartige Zwecke missbraucht werden.

Empfehlung

Ein Mitarbeiter eines nicht genannten KI-Labors verwies auf einen laxen Sicherheitsansatz seines Labors, der darauf zurückzuführen sei, dass man die Arbeit an leistungsfähigeren Systemen nicht verlangsamen wolle. Ein anderer Befragter gab an, dass sein Labor nicht über ausreichende Schutzmaßnahmen verfüge, um den Verlust der Kontrolle über eine AGI zu verhindern, obwohl das Labor die Entwicklung einer AGI für eine naheliegende Möglichkeit halte.

Plan fordert strengere Sicherheitstests

Darüber hinaus empfiehlt der Bericht, dass sich die Regulierungsbehörden nicht auf KI-Sicherheitstests verlassen sollten, die heute gängige Praxis sind, um die Fähigkeiten oder das gefährliche Verhalten eines KI-Systems zu bewerten. Dem Bericht zufolge können solche Bewertungen leicht untergraben und manipuliert werden, da KI-Modelle von ihren Entwicklern oberflächlich angepasst oder "verfeinert" werden können, um Bewertungen zu bestehen, wenn die Fragen im Voraus bekannt sind.

Der Bericht wurde von Gladstone AI verfasst, einem vierköpfigen Unternehmen, das technische Briefings zu KI für Regierungsbeamte durchführt. Der Bericht wurde im November 2022 im Rahmen eines Bundesvertrags im Wert von 250.000 US-Dollar in Auftrag gegeben.

Eine Executive Summary sowie der komplette Aktionsplan sind auf der Webseite von Gladstone AI verfügbar.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Ein von der US-Regierung in Auftrag gegebener Bericht warnt vor erheblichen nationalen Sicherheitsrisiken durch Künstliche Intelligenz und empfiehlt Maßnahmen wie das Verbot der Veröffentlichung von Open-Source-Modellen und die Regulierung des Trainings von KI-Modellen ab einer bestimmten Rechenleistung.
  • Der Bericht "An Action Plan to Increase the Safety and Security of Advanced AI" basiert auf Gesprächen mit über 200 Experten, Regierungsbeamten und Mitarbeitern von KI-Unternehmen wie OpenAI, Google DeepMind, Anthropic und Meta.
  • Mitarbeiter von KI-Unternehmen äußern anonym Sicherheitsbedenken, darunter unzureichende Sicherheitsmaßnahmen in KI-Laboren und mangelnde Anreize für Führungskräfte, die Sicherheit ihrer Arbeit zu gewährleisten.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!