Inhalt
summary Zusammenfassung

Die nächste Generation von Anthropic-Modellen soll autonomer arbeiten, zwischen Denkprozessen und Tool-Nutzung wechseln und sich bei Fehlern selbst korrigieren können.

Anzeige

Anthropic bereitet laut The Information neue Claude Opus- und Sonnet-Modelle vor. Zwei Personen, die Zugang zu den Systemen hatten, berichten, dass die Modelle in den kommenden Wochen erscheinen und deutlich autonomer arbeiten sollen als bisherige KI-Systeme.

Der zentrale Unterschied: Die neuen Modelle kombinieren eigenständiges Denken mit der Nutzung externer Werkzeuge – und wechseln bei Bedarf dynamisch zwischen beiden Modi.

Wenn die Modelle bei der Nutzung eines Tools nicht weiterkommen, analysieren sie die Situation im Denkmodus und korrigieren sich selbst. Dieser Mechanismus soll sie in die Lage versetzen, komplexe Aufgaben mit weniger menschlicher Anleitung zu bewältigen.

Anzeige
Anzeige

Ein Beispiel von The Information: Für eine Marktanalyse zu einem Café in Manhattan zieht das Modell erst nationale Trends heran, erkennt dann deren Ungeeignetheit und analysiert gezielt Demografie-Daten aus dem East Village – um daraus passendere Vorschläge zu entwickeln.

Auch bei der Codegenerierung zeigen die neuen Modelle ein höheres Maß an Eigeninitiative. Sie testen den von ihnen erzeugten Code automatisch und unterbrechen bei Fehlern den Prozess, um die Ursache zu analysieren und den Code zu korrigieren.

Laut den Testpersonen soll dies auch in Fällen funktionieren, in denen die Nutzereingabe sehr allgemein ist – etwa bei der Anweisung, eine App zu beschleunigen. In solchen Szenarien probiert das Modell eigenständig verschiedene Optimierungsstrategien aus.

Weniger Anleitung, mehr Eigeninitiative

Damit folgt Anthropic einem Trend: KI-Systeme sollen mit minimalem Input kontinuierlich arbeiten und Probleme selbstständig lösen. Genau das sollen die neuen Claude-Modelle leisten, indem sie Reasoning und Tool Use kombinieren und aktiv zwischen beiden Modi wechseln, wenn es die Aufgabe erfordert.

Ähnlich agieren auch die kürzlich von OpenAI vorgestellten Modelle o3 und o4-mini. Während die o1-Vorgänger nur per Text zusätzliche Arbeitsschritte "durchdachten", kann die neue Generation o-Modelle in diesen Schritten auch Werkzeuge wie Internetsuche aufrufen, Code generieren oder Bilder auswerten. Das soll den Reasoning-Prozess robuster und vielseitiger machen. Erste Tests zeigen jedoch, dass etwa o3 bei komplexen Aufgaben häufiger Fehler macht als frühere OpenAI-Modelle.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Anthropic will laut The Information in den kommenden Wochen neue Claude Opus- und Sonnet-Modelle vorstellen, die eigenständiger arbeiten und flexibel zwischen Denkprozessen und der Nutzung externer Tools wechseln können.
  • Die Modelle sollen Fehler erkennen und selbstständig korrigieren, etwa indem sie beim Programmieren automatisch Tests durchführen, Fehler analysieren und den Code anpassen – auch bei vagen Nutzeranweisungen wie "App beschleunigen".
  • Damit verfolgt Anthropic den Trend zu KI-Systemen, die mit minimaler Anleitung komplexe Aufgaben eigeninitiativ lösen; ähnliche Ansätze verfolgen auch OpenAI mit den neuen o-Modellen, wobei erste Tests jedoch bei komplexen Aufgaben noch Schwächen zeigen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!