Inhalt
summary Zusammenfassung

Eine Gruppe führender KI-Forscher und Experten betont in einem kürzlich veröffentlichten Artikel die Notwendigkeit, sich auf Risikomanagement, Sicherheit und die ethische Nutzung von KI zu konzentrieren.

Anzeige

In ihrem Papier "Managing AI Risks in an Era of Rapid Progress" warnen die Forscher vor gesellschaftlichen Risiken wie sozialer Ungerechtigkeit, Instabilität, globalen Ungleichheiten und großangelegten kriminellen Aktivitäten.

Sie fordern Durchbrüche in der KI-Sicherheits- und Ethikforschung sowie eine effektive staatliche Aufsicht, um diesen Risiken zu begegnen. Sie appellieren außerdem an große Technologieunternehmen und öffentliche Geldgeber, mindestens ein Drittel ihres Forschungs- und Entwicklungsbudgets für KI in die Sicherheit und ethische Nutzung zu investieren.

Warnung vor autonomen KI-Systemen

Das Forscherteam warnt insbesondere vor KI in den Händen "weniger mächtiger Akteure", die globale Ungleichheiten zementieren oder verschärfen oder automatisierte Kriegsführung, maßgeschneiderte Massenmanipulation und allumfassende Überwachung erleichtern könnte.

Anzeige
Anzeige

In diesem Zusammenhang warnen sie speziell vor autonomen KI-Systemen, die bestehende Risiken verschärfen und neue schaffen könnten.

Diese Systeme seien gerade in Entwicklung und würden "beispiellose Herausforderungen für die Kontrolle" mit sich bringen, und die Menschheit könnte nicht mehr in der Lage sein, diese Systeme in Schach zu halten, wenn sie unerwünschte Ziele verfolgten. Es sei nicht klar, wie das Verhalten von KI mit menschlichen Werten in Einklang gebracht werden könne.

"Selbst wohlmeinende Entwickler könnten versehentlich KI-Systeme entwickeln, die unbeabsichtigte Ziele verfolgen - vor allem, wenn sie in ihrem Eifer, das Rennen der KI zu gewinnen, kostspielige Sicherheitstests und menschliche Aufsicht vernachlässigen", heißt es in dem Papier.

Zu den kritischen technischen Herausforderungen, die angegangen werden müssten, gehören Überwachung und Ehrlichkeit, Robustheit, Interpretierbarkeit, Risikobewertung und der Umgang mit neuen Herausforderungen. Die Autoren argumentieren, dass die Lösung dieser Probleme zu einem zentralen Schwerpunkt der KI werden muss.

Neben technischen Entwicklungen seien dringend Governance-Maßnahmen erforderlich, um Leichtfertigkeit und Missbrauch von KI-Technologien zu verhindern. Die Autoren fordern nationale Institutionen und internationale Governance-Strukturen, die Standards durchsetzen und eine verantwortungsvolle Entwicklung und Implementierung von KI-Systemen sicherstellen.

Empfehlung

Regierungen sollten vorab prüfen dürfen

Für eine wirksame Regulierung sollten Regierungen die Registrierung von Modellen, den Schutz von Whistleblowern, die Meldung von Vorfällen und die Überwachung der Entwicklung von Modellen und der Nutzung von Supercomputern vorschreiben.

Regulierungsbehörden müssen auch Zugang zu fortgeschrittenen KI-Systemen haben, bevor diese eingesetzt werden, um sie auf gefährliche Fähigkeiten zu überprüfen.

In China wird dies bereits so gehandhabt, wenngleich dort vor allem eine politische Überprüfung stattfindet, und auch die US-Regierung hat angekündigt, KI-Modelle, die für die nationale Sicherheit relevant sein könnten, vorab zu überprüfen.

Sicherheitsregeln für rote Linien bei KI-Systemen

Für KI-Systeme mit gefährlichen Fähigkeiten müssen verschiedene Governance-Mechanismen eingeführt werden. Dazu gehören die Schaffung nationaler und internationaler Sicherheitsstandards, die rechtliche Haftung von KI-Entwicklern und -Eigentümern sowie mögliche Lizenz- und Zugangskontrollen für besonders leistungsfähige KI-Systeme.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Die Autoren betonen die Notwendigkeit, dass große KI-Unternehmen unverzüglich Wenn-Dann-Verpflichtungen formulieren, die spezifische Sicherheitsmaßnahmen für den Fall festlegen, dass bestimmte rote Linien in ihren KI-Systemen überschritten werden. Diese Selbstverpflichtungen sollten einer detaillierten und unabhängigen Überprüfung unterzogen werden.

Abschließend betonen die Autoren, dass die Fortschritte in den Bereichen Sicherheit und Governance hinter der rasanten Entwicklung der KI-Fähigkeiten zurückbleiben. Damit KI zu positiven Ergebnissen und nicht zu Katastrophen führt, müssten die Anstrengungen und Investitionen auf die Bewältigung der gesellschaftlichen Risiken und auf die sichere und ethische Nutzung dieser Technologien ausgerichtet werden.

"Es gibt einen verantwortungsvollen Weg, wenn wir die Weisheit haben, ihn zu gehen", schreiben die Autoren, darunter die Turing-Preisträger Yoshua Bengio und Geoffrey Hinton sowie der renommierte KI-Forscher Stuart Russel von der UC Berkeley.

Kritik an zu viel Angst vor KI

Genau diesen drei Forschern und anderen, die ähnlich argumentieren, warf Metas KI-Chefforscher Yann LeCun kürzlich vor, großen KI-Unternehmen wie OpenAI Munition zu liefern, um strengere regulatorische Maßnahmen durchzusetzen, die die Entwicklung von Open-Source-KI-Systemen bremsen würden.

Dies sei eine "regulatorische Vereinnahmung" und eine gefährliche Entwicklung. Denn das größte Risiko für die Gesellschaft bestehe darin, dass einige wenige Unternehmen die Kontrolle über diese mächtige Technologie erlangen.

LeCun hält die derzeitigen Systeme zwar für nützlich, aber ihre Möglichkeiten und damit ihr Risikopotenzial für überschätzt. Er arbeitet an einer neuen KI-Architektur, die es KI-Systemen ermöglichen soll, ähnlich wie Menschen zu lernen, und damit heutige KI-Systeme in Effektivität und Effizienz weit zu übertreffen.

Anzeige
Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • KI-Forscher und Experten betonen in einem Artikel die Notwendigkeit, sich auf Risikomanagement, Sicherheit und ethische Nutzung von KI zu konzentrieren, und warnen vor gesellschaftlichen Risiken wie sozialer Ungerechtigkeit und kriminellen Aktivitäten.
  • Die Autoren fordern Durchbrüche in der KI-Sicherheits- und Ethikforschung, eine effektive staatliche Aufsicht und appellieren an Technologieunternehmen, mindestens ein Drittel ihres KI-Forschungsbudgets für Sicherheit und ethische Nutzung aufzuwenden.
  • Sie empfehlen auch Governance-Maßnahmen wie nationale Institutionen und internationale Standards, die Registrierung von Modellen, den Schutz von Whistleblowern, die Meldung von Vorfällen und die Überwachung der Entwicklung von Modellen und der Nutzung von Supercomputern.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!