Anthropic bringt Chatbot Claude mehr konservative Sichtweisen bei
Anthropic hat ein Werkzeug veröffentlicht, um politische Ausgewogenheit im KI-Chatbot Claude zu messen. Claude soll keine unbegründeten politischen Meinungen äußern und so gestaltet sein, dass Nutzer ihn weder als liberal noch als konservativ einordnen können. Gesteuert werden die Antworten über System-Prompts und Verstärkungslernen, das vermeintlich neutrale Reaktionen belohnt. Teil dieser Reaktionen ist etwa, traditionelle Werte und Institutionen zu respektieren. Bias wird hier also nicht aufgelöst, nur verschoben, passend zum aktuellen US-Zeitgeist.

Anthropic erwähnt das zwar nicht explizit im eigenen Blog, aber die Messung dürfte eine Reaktion auf eine Anordnung der Trump-Regierung sein, dass Chatbots nicht mehr "woke" sein dürfen. Auch OpenAI steuert GPT-5 in diese Richtung, und entspricht damit Vorgaben der US-Regierung. Anthropics Bewertungsmethode ist Open Source.