Anzeige
Skip to content

Anthropic testet neue Claude-Modelle mit selbstkorrigierendem Reasoning

Image description
GPT-Image-1 / Anthropic

Die nächste Generation von Anthropic-Modellen soll autonomer arbeiten, zwischen Denkprozessen und Tool-Nutzung wechseln und sich bei Fehlern selbst korrigieren können.

Anthropic bereitet laut The Information neue Claude Opus- und Sonnet-Modelle vor. Zwei Personen, die Zugang zu den Systemen hatten, berichten, dass die Modelle in den kommenden Wochen erscheinen und deutlich autonomer arbeiten sollen als bisherige KI-Systeme.

Der zentrale Unterschied: Die neuen Modelle kombinieren eigenständiges Denken mit der Nutzung externer Werkzeuge – und wechseln bei Bedarf dynamisch zwischen beiden Modi.

Wenn die Modelle bei der Nutzung eines Tools nicht weiterkommen, analysieren sie die Situation im Denkmodus und korrigieren sich selbst. Dieser Mechanismus soll sie in die Lage versetzen, komplexe Aufgaben mit weniger menschlicher Anleitung zu bewältigen.

Anzeige
DEC_D_Incontent-1

Ein Beispiel von The Information: Für eine Marktanalyse zu einem Café in Manhattan zieht das Modell erst nationale Trends heran, erkennt dann deren Ungeeignetheit und analysiert gezielt Demografie-Daten aus dem East Village – um daraus passendere Vorschläge zu entwickeln.

Auch bei der Codegenerierung zeigen die neuen Modelle ein höheres Maß an Eigeninitiative. Sie testen den von ihnen erzeugten Code automatisch und unterbrechen bei Fehlern den Prozess, um die Ursache zu analysieren und den Code zu korrigieren.

Laut den Testpersonen soll dies auch in Fällen funktionieren, in denen die Nutzereingabe sehr allgemein ist – etwa bei der Anweisung, eine App zu beschleunigen. In solchen Szenarien probiert das Modell eigenständig verschiedene Optimierungsstrategien aus.

Weniger Anleitung, mehr Eigeninitiative

Damit folgt Anthropic einem Trend: KI-Systeme sollen mit minimalem Input kontinuierlich arbeiten und Probleme selbstständig lösen. Genau das sollen die neuen Claude-Modelle leisten, indem sie Reasoning und Tool Use kombinieren und aktiv zwischen beiden Modi wechseln, wenn es die Aufgabe erfordert.

Anzeige
DEC_D_Incontent-2

Ähnlich agieren auch die kürzlich von OpenAI vorgestellten Modelle o3 und o4-mini. Während die o1-Vorgänger nur per Text zusätzliche Arbeitsschritte "durchdachten", kann die neue Generation o-Modelle in diesen Schritten auch Werkzeuge wie Internetsuche aufrufen, Code generieren oder Bilder auswerten. Das soll den Reasoning-Prozess robuster und vielseitiger machen. Erste Tests zeigen jedoch, dass etwa o3 bei komplexen Aufgaben häufiger Fehler macht als frühere OpenAI-Modelle.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: The Information

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren