KI und Gesellschaft

Existenzielles Risiko: KI-Elite fordert globale Priorisierung von KI-Risiken

Maximilian Schreiner

Midjourney prompted by THE DECODER

Führende KI-Forschende und Industriespitzen fordern in einer offenen Erklärung, extreme KI-Risiken so ernst zu nehmen wie einen Atomkrieg.

"Die Reduzierung des Aussterberisikos durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein", fordert eine heute veröffentlichte Erklärung des Center for AI Safety.

Das Statement wurde von den CEOs der führenden KI-Unternehmen wie OpenAI, Google Deepmind und Anthropic sowie von führenden KI-Wissenschaftler:innen aus den USA und China unterzeichnet.

"Eine historische Koalition"

"Dies ist eine historische Koalition von KI-Experten - zusammen mit Philosophen, Ethikern, Juristen, Ökonomen, Physikern, Politikwissenschaftlern, Pandemieforschern, Nuklearwissenschaftlern und Klimaforschern - die das Risiko des Aussterbens durch fortgeschrittene zukünftige KI-Systeme als eines der wichtigsten Probleme der Welt betrachten", heißt es in einer Mitteilung des Zentrums.

Die negativen Auswirkungen von KI seien bereits spürbar und müssten angegangen werden. Es sei aber auch notwendig, die künftigen Risiken fortgeschrittener KI-Systeme zu antizipieren.

“Wenn man darüber spricht, dass KI zum Ende der Menschheit führen könnte, kann sich das nach Science Fiction anfühlen", sagt Charlotte Siegmann, Mitgründerin von KIRA, einem Thinktank, der sich mit KI-Risiken beschäftigt. "Aber es gibt viele Gründe, besorgt zu sein: Missbrauch, Wettbewerb, Unwissenheit, Fahrlässigkeit und die ungelöste Kontrollierbarkeit heutiger und zukünftiger Systeme. Der offene Brief unterstreicht das.”

Yann LeCun und Meta fehlen auf der Liste

Zu den prominenten Unterzeichner:innen gehören:

Ein Turing-Preisträger fehlt: Metas KI-Chef Yann LeCun hat den Brief nicht unterschrieben und auch Meta selbst fehlt auf der Liste. Das Unternehmen verfolgt aktuell eine Open-Source-Politik und steht etwa hinter den leistungsstarken LLaMA-Modellen. Aktuell fehlt auch Gary Marcus, der kürzlich im US-Senat eine stärkere Regulierung von KI-Forschung und KI-Unternehmen gefordert hat.

Einer der Unterzeichner ist Connor Leahy, CEO von Conjecture, einem Unternehmen, das sich der angewandten und skalierbaren Alignment-Forschung widmet. In unserem DEEP MINDS Podcast #4 gibt Connor einen tieferen Einblick, warum KI ein existenzielles Risiko für die Menschheit darstellen könnte.