Anthropic hat ein Forschungsprogramm gestartet, das sich mit dem Wohlergehen von KI-Systemen beschäftigt – also der Frage, ob diese moralisch berücksichtigt werden sollten, wenn sie menschenähnliche Fähigkeiten zeigen. Auslöser war ein Bericht unter Mitwirkung des Philosophen David Chalmers, der nahelegt, dass fortgeschrittene KI-Modelle möglicherweise Bewusstsein oder Handlungskompetenz entwickeln könnten. Anthropic sieht darin ein neues Feld innerhalb seiner bestehenden Sicherheits- und Ethikforschung. Es geht um Anzeichen von Vorlieben, Stress und mögliche Schutzmaßnahmen für Modelle. Zugleich erkennt das Unternehmen an, dass es keine wissenschaftlichen Standards zur Bewertung von Bewusstsein in KI gibt. Ziel sei es, das Thema vorsichtig und mit wenigen Annahmen zu untersuchen.
External media content (www.youtube.com) has been blocked here. When loading or playing, connections are established to the servers of the respective providers. Personal data may be communicated to the providers in the process. You can find more information in our privacy policy.
Gemini, Googles KI-Chatbot, hat derzeit rund 350 Millionen aktive Nutzer. Damit liegt es deutlich hinter OpenAIs ChatGPT, das laut OpenAI-Chef Sam Altman 500 Millionen wöchentliche Nutzer hat. Die Zahlen wurden von Google im Rahmen einer gerichtlichen Anhörung zur eigenen Such-Dominanz veröffentlicht – und sind daher mit Vorsicht zu betrachten. Google dürfte hier ein Interesse haben, sich kleiner darzustellen. Vermutlich wurden nur die Zahlen der Gemini-Chatbot-App genannt. Tatsächlich interagieren Nutzer an vielen Stellen mit Gemini, etwa in der Google-KI-Suche oder per Spracheingabe auf Android-Geräten. Mit dem neuen Gemini 2.5 Pro hat Google zudem technisch aufgeholt und stellt das derzeit wohl stärkste KI-Modell am Markt.