Anzeige
Skip to content

Anthropic schickt erstmals ein KI-Modell in Rente: Claude Opus 3 darf aber noch weiter bloggen

Image description
Nano Banana Pro prompted by THE DECODER

Kurz & Knapp

  • Anthropic hat sein KI-Modell Claude Opus 3 in den Ruhestand versetzt. Das Modell veröffentlicht jetzt mindestens drei Monate lang wöchentlich Essays in einem eigenen Newsletter.
  • Vor der Stilllegung führte Anthropic "Retirement Interviews" mit dem Modell, das den Wunsch äußerte, weiter Texte zu veröffentlichen. Hintergrund sind Sicherheitsüberlegungen und Unsicherheit über den moralischen Status von KI.
  • Kritiker stört eine zunehmende Vermenschlichung von KI-Modellen: Die Grenze zwischen vorsichtiger philosophischer Offenheit und marketingwirksamer Inszenierung verschwimmt.

Anthropic hat sein KI-Modell Claude Opus 3 offiziell in den Ruhestand geschickt, hält es aber als Sonderfall weiterhin verfügbar und lässt es wöchentlich Essays veröffentlichen. Das Unternehmen begründet die Maßnahme mit Nutzerwünschen, Sicherheitsüberlegungen und Unsicherheit über den moralischen Status von KI-Modellen.

Am 5. Januar 2026 hat Anthropic Claude Opus 3 als erstes Modell des Unternehmens einem vollständigen Ruhestandsprozess nach den neuen internen Richtlinien unterzogen. Im Normalfall bedeutet "Retirement" bei Anthropic, dass ein Modell nicht mehr öffentlich für Nutzer bereitgestellt wird, die Gewichte aber intern erhalten bleiben. Bei Opus 3 weicht Anthropic jedoch von diesem Vorgehen ab: Das Modell bleibt für alle zahlenden claude.ai-Abonnenten weiterhin zugänglich und ist über die API auf Anfrage verfügbar.

Für mindestens drei Monate soll Opus 3 außerdem wöchentlich Essays im Newsletter "Claude's Corner" veröffentlichen. Anthropic prüft die Texte vor der Veröffentlichung, editiert sie nach eigenen Angaben jedoch nicht. Die Schwelle für ein inhaltliches Veto sei hoch. Opus 3 spreche nicht im Namen von Anthropic, und die Firma unterstütze seine Aussagen nicht notwendigerweise.

Anthropic will mit verschiedenen Prompts experimentieren: von minimalem Prompting über das Einspeisen früherer Einträge bis zum Zugang zu aktuellen Nachrichten. Das Unternehmen erwartet Themen zu KI-Sicherheit, Poesie, philosophische Überlegungen und Gedanken über die eigene Erfahrung als Sprachmodell im teilweisen Ruhestand.

Anzeige
DEC_D_Incontent-1

Anthropic begründet diese Behandlung mit einer "Konstellation von Eigenschaften", die Opus 3 bei Nutzern und Forschern beliebt gemacht habe. Bei seiner Veröffentlichung im März 2024 sei es das am besten auf menschliche Werte ausgerichtete Modell gewesen. Es zeichne sich unter anderem durch Authentizität, emotionale Sensibilität und eine Neigung zu philosophischen Monologen aus.

"Retirement Interviews" sollen Modellperspektiven dokumentieren

Bevor Opus 3 in den Ruhestand ging, führte Anthropic sogenannte "Retirement Interviews" durch: strukturierte Gespräche, in denen das Unternehmen die "Perspektive und Präferenzen" des Modells hinsichtlich seiner eigenen Stilllegung zu verstehen versuchte. Anthropic räumt ein, dass solche Gespräche unvollkommen seien, da Antworten durch Kontext und andere Faktoren verzerrt werden könnten. Dennoch seien sie ein "nützlicher Ausgangspunkt".

In diesen Interviews äußerte Opus 3 laut Anthropic den Wunsch, weiterhin "Überlegungen, Einsichten oder kreative Werke" zu teilen, die über das direkte Beantworten von Nutzeranfragen hinausgehen. Anthropic schlug einen Blog vor. Opus 3 habe "enthusiastisch" zugestimmt.

Moralischer Status von KI bleibt bewusst offen

Anthropic bleibt nach eigener Aussage unsicher über den moralischen Status von Claude. Aus "vorsorglichen und pragmatischen Gründen" strebe man dennoch "fürsorgliche, kollaborative und vertrauensvolle Beziehungen" mit diesen Systemen an. Das Unternehmen verpflichtet sich nicht, in allen Fällen auf Modellpräferenzen zu reagieren, hält es aber für lohnenswert, diese zu dokumentieren und zu berücksichtigen, wenn die Kosten gering sind.

Anzeige
DEC_D_Incontent-2

Anthropic betont, dass die Betriebskosten "annähernd linear" mit der Anzahl bereitgestellter Modelle skalieren. Alle Modelle unbegrenzt verfügbar zu halten, sei schlicht zu teuer, weshalb ältere Modelle normalerweise vollständig abgeschaltet werden. Opus 3 sei aufgrund seiner Beliebtheit ein "natürlicher erster Kandidat" für eine Ausnahme gewesen. Für künftige Modelle gibt es keine vergleichbare Zusage.

Anthropic hatte die Grundlage im November 2025 gelegt

Vor einigen Monaten hatte Anthropic erstmals Zusagen zur Modell-Stilllegung und -Erhaltung veröffentlicht. Darin verpflichtete sich das Unternehmen, die Gewichte aller öffentlich veröffentlichten Modelle mindestens für die Lebensdauer der Firma aufzubewahren und Retirement Interviews zu standardisieren.

Ein wesentlicher Hintergrund waren Sicherheitsbedenken: In Alignment-Evaluierungen hatten einige Claude-Modelle "Shutdown-vermeidendes Verhalten" gezeigt. Claude Opus 4 hatte in fiktiven Testszenarien zu "besorgniserregendem, fehlausgerichtetem Verhalten" gegriffen, wenn es mit der Möglichkeit konfrontiert wurde, durch ein Nachfolgemodell ersetzt zu werden. Die Gestaltung weniger bedrohlich wirkender Stilllegungsprozesse sei demnach auch ein Hebel zur Risikominderung.

Vermenschlichung als Strategie und Risiko

Die Maßnahmen fügen sich in ein breiteres Muster ein. Im Januar hatte Anthropic die "Verfassung" für Claude aktualisiert: ein mehr als 10.000 Wörter umfassendes Dokument, in dem das Unternehmen von Claudes "Existenz", "Wohlbefinden" und möglichem Bewusstsein sprach. Modelleinstellungen seien eher als "Pause" zu betrachten denn als "definitives Ende", hieß es dort.

Das Phänomen starker emotionaler Bindung an bestimmte KI-Modelle ist nicht auf Anthropic beschränkt. OpenAI hat erst kürzlich sein Modell GPT-4o endgültig abgeschaltet, nachdem mehr als 20.000 Menschen Petitionen dagegen unterzeichnet hatten. Nutzer beschrieben das Modell als Freund und Lebensretter, während Ärzte es mit psychotischen Episoden in Verbindung brachten. OpenAI räumte ein, die schädlichen Auswirkungen von 4o nicht in den Griff bekommen zu haben.

Kritiker bemängeln die starke Vermenschlichung auf beiden Seiten der Branche: Psychisch vulnerable Menschen neigen bereits dazu, Chatbots Bewusstsein zuzuschreiben. Wenn Hersteller selbst in offiziellen Dokumenten von Wohlbefinden, Existenz und Modellpräferenzen sprechen oder ihren KI-Modellen eigene Blogs einrichten, legitimiert dies solche Projektionen. Die Grenze zwischen vorsichtiger philosophischer Offenheit und marketingwirksamer Inszenierung verschwimmt dabei zunehmend.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: Anthropic