Inhalt
summary Zusammenfassung

Führende KI-Forschende und Industriespitzen fordern in einer offenen Erklärung, extreme KI-Risiken so ernst zu nehmen wie einen Atomkrieg.

"Die Reduzierung des Aussterberisikos durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein", fordert eine heute veröffentlichte Erklärung des Center for AI Safety.

Das Statement wurde von den CEOs der führenden KI-Unternehmen wie OpenAI, Google Deepmind und Anthropic sowie von führenden KI-Wissenschaftler:innen aus den USA und China unterzeichnet.

"Eine historische Koalition"

"Dies ist eine historische Koalition von KI-Experten - zusammen mit Philosophen, Ethikern, Juristen, Ökonomen, Physikern, Politikwissenschaftlern, Pandemieforschern, Nuklearwissenschaftlern und Klimaforschern - die das Risiko des Aussterbens durch fortgeschrittene zukünftige KI-Systeme als eines der wichtigsten Probleme der Welt betrachten", heißt es in einer Mitteilung des Zentrums.

Anzeige
Anzeige

Die negativen Auswirkungen von KI seien bereits spürbar und müssten angegangen werden. Es sei aber auch notwendig, die künftigen Risiken fortgeschrittener KI-Systeme zu antizipieren.

“Wenn man darüber spricht, dass KI zum Ende der Menschheit führen könnte, kann sich das nach Science Fiction anfühlen", sagt Charlotte Siegmann, Mitgründerin von KIRA, einem Thinktank, der sich mit KI-Risiken beschäftigt. "Aber es gibt viele Gründe, besorgt zu sein: Missbrauch, Wettbewerb, Unwissenheit, Fahrlässigkeit und die ungelöste Kontrollierbarkeit heutiger und zukünftiger Systeme. Der offene Brief unterstreicht das.”

Yann LeCun und Meta fehlen auf der Liste

Zu den prominenten Unterzeichner:innen gehören:

  • Die CEOs der führenden KI-Labore: Sam Altman, Demis Hassabis und Dario Amodei
  • Die Autoren des Standardlehrbuchs über Künstliche Intelligenz (Stuart Russell und Peter Norvig)
  • Zwei Autoren des Standardlehrbuchs Deep Learning (Ian Goodfellow und Yoshua Bengio)
  • Ein Autor des Standard-Lehrbuchs über Reinforcement Learning (Andrew Barto)
  • Drei Turing-Preisträger (Geoffrey Hinton, Yoshua Bengio und Martin Hellman)
  • Führungskräfte von Microsoft, OpenAI, Google, Google DeepMind und Anthropic
  • Die Wissenschaftler hinter berühmten KI-Systemen wie AlphaGo und jeder Version von GPT (David Silver, Ilya Sutskever)
  • Die beiden meistzitierten Informatiker (Hinton und Bengio) und die meistzitierte Wissenschaftlerin im Bereich Computersicherheit und Datenschutz (Dawn Song)
  • KI-Professoren an chinesischen Universitäten
  • Professoren, die sich mit Pandemien, Klimawandel und Nukleartechnologie beschäftigen
  • Weitere Unterzeichner sind Marian Rogers Croak (Erfinder von VoIP - Voice over Internet Protocol), Kersti Kaljulaid (ehemaliger Präsident der Republik Estland) und andere.

Ein Turing-Preisträger fehlt: Metas KI-Chef Yann LeCun hat den Brief nicht unterschrieben und auch Meta selbst fehlt auf der Liste. Das Unternehmen verfolgt aktuell eine Open-Source-Politik und steht etwa hinter den leistungsstarken LLaMA-Modellen. Aktuell fehlt auch Gary Marcus, der kürzlich im US-Senat eine stärkere Regulierung von KI-Forschung und KI-Unternehmen gefordert hat.

Einer der Unterzeichner ist Connor Leahy, CEO von Conjecture, einem Unternehmen, das sich der angewandten und skalierbaren Alignment-Forschung widmet. In unserem DEEP MINDS Podcast #4 gibt Connor einen tieferen Einblick, warum KI ein existenzielles Risiko für die Menschheit darstellen könnte.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Führende KI-Unternehmen und Forschende fordern in einer offenen Erklärung, dass die Minderung von KI-Risiken eine globale Priorität sein muss, vergleichbar mit anderen globalen Risiken wie Pandemien und Atomkrieg.
  • Unter den Unterzeichner:innen befinden sich die CEOs von OpenAI, Google DeepMind und Anthropic sowie prominente KI-Wissenschaftler:innen aus den USA und China.
  • Meta und Metas KI-Chef Yann LeCun haben die Stellungnahme nicht unterzeichnet.
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!