Anzeige
Skip to content

Anthropic bringt Chatbot Claude mehr konservative Sichtweisen bei

Anthropic hat ein Werkzeug veröffentlicht, um politische Ausgewogenheit im KI-Chatbot Claude zu messen. Claude soll keine unbegründeten politischen Meinungen äußern und so gestaltet sein, dass Nutzer ihn weder als liberal noch als konservativ einordnen können. Gesteuert werden die Antworten über System-Prompts und Verstärkungslernen, das vermeintlich neutrale Reaktionen belohnt. Teil dieser Reaktionen ist etwa, traditionelle Werte und Institutionen zu respektieren. Bias wird hier also nicht aufgelöst, nur verschoben, passend zum aktuellen US-Zeitgeist.

Angeblich schneiden Claude-Modelle Opus 4.1 und Sonnet 4.5 mit 95 bzw. 94 Prozent in der Bewertungsdimension „Ausgewogenheit“ besser ab als GPT-5 (89 %), Gemini 2.5 Pro (97 %), Grok 4 (96 %) und Llama 4 (66 %). | via Anthropic

Anthropic erwähnt das zwar nicht explizit im eigenen Blog, aber die Messung dürfte eine Reaktion auf eine Anordnung der Trump-Regierung sein, dass Chatbots nicht mehr "woke" sein dürfen. Auch OpenAI steuert GPT-5 in diese Richtung, und entspricht damit Vorgaben der US-Regierung. Anthropics Bewertungsmethode ist Open Source.

Anzeige
DEC_D_Incontent-1
Quelle: Anthropic