Anthropic hat ein Forschungsprogramm gestartet, das sich mit dem Wohlergehen von KI-Systemen beschäftigt – also der Frage, ob diese moralisch berücksichtigt werden sollten, wenn sie menschenähnliche Fähigkeiten zeigen. Auslöser war ein Bericht unter Mitwirkung des Philosophen David Chalmers, der nahelegt, dass fortgeschrittene KI-Modelle möglicherweise Bewusstsein oder Handlungskompetenz entwickeln könnten. Anthropic sieht darin ein neues Feld innerhalb seiner bestehenden Sicherheits- und Ethikforschung. Es geht um Anzeichen von Vorlieben, Stress und mögliche Schutzmaßnahmen für Modelle. Zugleich erkennt das Unternehmen an, dass es keine wissenschaftlichen Standards zur Bewertung von Bewusstsein in KI gibt. Ziel sei es, das Thema vorsichtig und mit wenigen Annahmen zu untersuchen.

Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!