Inhalt
summary Zusammenfassung
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

 OpenAIs CEO Sam Altman forderte eine neue Behörde für KI-Regulierungen, Lizenzen und Verbote - und traf damit auf Zustimmung und Skepsis im US Senat.

In der ersten Anhörung des US-Senats zum Thema "Oversight of A.I.: Rules for Artificial Intelligence" wurde schnell klar, dass sich irgendwie alle einig sind: OpenAI-CEO Sam Altman, IBM Chief Privacy & Trust Officer Christina Montgomery und Deep-Learning-Kritiker Gary Marcus forderten den US-Senat auf, Künstliche Intelligenz zu regulieren.

Die Senatoren sahen das ähnlich und zeigten sich zum Teil erstaunt über die Forderungen, die etwa Altman vorbrachte: "Ich kann mich nicht erinnern, wann das letzte Mal Unternehmen zu uns gekommen sind und uns gebeten haben, sie zu regulieren", sagte US-Senator Dick Durbin während der Anhörung. Montgomery begründete die Forderung nach Regulierung so: "Vertrauen ist unsere Betriebslizenz. Wir fordern seit Jahren eine präzise Regulierung von KI. KI muss dort reguliert werden, wo Risiken entstehen."

OpenAI CEO fordert neue US-Behörde für KI

Konkret sprachen sich alle drei Gäste für Lizenzen für den Betrieb von KI-Modellen ab einem bestimmten Risikoniveau aus, Marcus und Altman forderten darüber hinaus die Schaffung einer neuen US-Regulierungsbehörde für KI und die Initiierung einer internationalen Regulierungsbehörde, die mal mit dem CERN, mal mit der Internationalen Atomenergiebehörde verglichen wurde. Bestehende Behörden oder Instrumente wie Klagen auf der Grundlage bestehender Gesetze "decken nicht genug ab und sind zu langsam, um die Dinge zu schützen, die uns wirklich wichtig sind", sagte Marcus.

Anzeige
Anzeige

Eine neue KI-Behörde müsse Sicherheitsüberprüfungen vor und nach dem Einsatz von KI-Modellen durchführen und eine "agile Überwachungsbehörde" sein, die in der Lage sei, KI-Entwicklungen zu verfolgen und Produkte zurückzurufen, so Marcus. Er forderte auch mehr Investitionen in die KI-Sicherheitsforschung und mehr Transparenz von Unternehmen wie OpenAI.

Altman warnte davor, kleine KI-Startups und die Open-Source-Gemeinschaft mit zu weitreichenden Vorschriften zu ersticken. Stattdessen schlug er vor, dass Unternehmen ihre KI-Modelle ab einer bestimmten Fähigkeitsgrenze von der neuen Behörde lizenzieren lassen müssten und diese auch wieder verlieren könnten, wenn sie die Sicherheitsstandards nicht einhalten. Die Modelle müssten auch auf bestimmte Fähigkeiten getestet werden, bevor sie eingesetzt werden dürften, wie etwa die Fähigkeit, sich selbst zu replizieren oder aus einem System auszubrechen. Altman sprach sich auch dafür aus, diese Prozesse von unabhängiger, externer Seite überprüfen zu lassen.

Montgomery vertrat hingegen die Ansicht, dass bestehende Behörden die Regulierung übernehmen könnten und orientierte sich bei seinen Regulierungsvorschlägen immer wieder am EU AI Act. Notwendig sei ein zielgerichteter Regulierungsansatz für KI, der spezifische Anwendungsfälle und nicht die Technologie selbst reguliere. Es brauche eine klare Definition der Risiken je nach Anwendungsfall und unterschiedliche Regeln für unterschiedliche Risiken. Der Schwerpunkt müsse auf Transparenz und Erklärbarkeit liegen.

"Die Büchse der Pandora braucht mehr als Worte"

Altman und Marcus verwiesen auf unmittelbare Gefahren wie Wahlmanipulation oder andere Formen der gezielten Beeinflussung, aber auch auf Gefahren, die erst mit dem Aufkommen von allgemeiner Künstliche Intelligenz (AGI) entstehen könnten. Lizenzen seien vor allem für das notwendig, was KI-Modelle einmal können werden, und nicht nur für das, was sie jetzt können, so Altman. Bezüglich eines möglichen Moratoriums für KI-Trainings, etwa für GPT-5, betonte er, dass sein Unternehmen derzeit keinen Grund sehe, das Training neuer KI-Modelle zu stoppen, sondern stattdessen weiterhin umfassende Sicherheitstests vor der Veröffentlichung durchführen wolle.

Die meisten US-Senatoren schienen für die Idee einer neuen KI-Behörde offen zu sein, einige sprachen sich offen dafür aus, darunter Peter Welch und Richard Blumenthal, der allerdings warnte: "Die Büchse der Pandora braucht mehr als Worte wie 'Lizenzierung' und 'neue Behörde'".

Empfehlung

"Es ist eine wirklich schwierige Entscheidung, die Regeln an das Risiko anzupassen. Sie dürfen nicht schädlich sein, sie müssen effektiv, durchsetzbar und real sein", sagte der US-Senator. "Wir müssen uns hier mit den schwierigen Fragen auseinandersetzen." Diese seien in der Anhörung aufgeworfen, aber noch nicht beantwortet worden. Klar sei, dass "die Durchsetzungsfähigkeit neuer Regulierungen wirklich wichtig ist" und eine eventuell neu gegründete Behörde daher entsprechend mit Geld und vor allem fähigen Wissenschaftler:innen ausgestattet werden müsse.

Wer mehr darüber erfahren möchte, warum und wie man Künstliche Intelligenz regulieren sollte, kann sich unseren DEEP MINDS Podcast #12 anhören, in dem wir mit Expertin Charlotte Siegmann über KI-Regulierung und den EU AI Act sprechen.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAIs CEO Sam Altman schlug bei einer Anhörung im US-Senat die Gründung einer neuen US-Behörde zur Regulierung und Lizenzierung von KI vor, insbesondere für Unternehmen, die hochriskante KI-Modelle betreiben.
  • Altmans Vorschlag wurde von mehreren Senatoren und Deep-Learning-Kritiker Gary Marcus unterstützt. Christina Montgomery von IBM betonte dagegen, dass bestehende Behörden die KI-Regulierung übernehmen könnten.
  • Die Anhörung endete mit einem breiten Konsens über die Notwendigkeit einer KI-Regulierung, um unmittelbaren und künftigen potenziellen Gefahren zu begegnen.
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!