Skip to content

Anthropic verschiebt Update des KI-Spitzenmodells Opus auf unbestimmte Zeit

Image description
Midjourney prompted by THE DECODER

Kurz & Knapp

  • Anthropic CEO Dario Amodei bestätigt, dass das Unternehmen an einer neuen Version seines KI-Sprachmodells Claude Opus arbeitet, nennt aber keinen konkreten Zeitplan für die Veröffentlichung. Das ursprünglich für dieses Jahr angekündigte Opus 3.5-Update wird nur vage für "irgendwann" in Aussicht gestellt.
  • Die Verzögerung bei Anthropic spiegelt einen branchenweiten Trend wider: Die Entwicklung großer Sprachmodelle mit fortgeschrittenen Fähigkeiten stagniert. Zuletzt ging es vor allem um Effizienzsteigerungen.
  • Auch führende Unternehmen wie OpenAI und Google sollen mit Verzögerungen und enttäuschenden Ergebnissen ihrer neuesten Modelle zu kämpfen haben. Ein neuer Skalierungshorizont wird gesucht.

Anthropic-CEO Dario Amodei bestätigt die Entwicklung von Claude Opus 3.5, nennt aber keinen konkreten Zeitplan. Die Verzögerung spiegelt einen branchenweiten Trend wider.

In einem Gespräch mit Podcaster Lex Fridman hat Anthropic-CEO Dario Amodei die Entwicklung einer neuen Version des KI-Sprachmodells Claude Opus bestätigt - allerdings ohne einen konkreten Zeitplan für die Veröffentlichung zu nennen.

Das Opus-Update 3.5 war ursprünglich für dieses Jahr angekündigt. Jetzt spricht Amodei nur noch vage davon, dass es "irgendwann" kommen wird.

Laut Amodei erreicht das kürzlich aktualisierte, veröffentlichte Haiku 3.5 bereits die Leistung des ursprünglichen Opus 3, sei dabei aber schneller und kostengünstiger. Das nächste Ziel sei es, die Leistungskurve weiter zu verschieben.

Amodeis vage Formulierung passt in das aktuelle Bild der KI-Branche: Die Entwicklung großer Sprachmodelle mit fortgeschrittenen Fähigkeiten stagniert, zuletzt gab es primär Effizienzsteigerungen.

Führende Unternehmen wie OpenAI und Google kämpfen mit Verzögerungen und enttäuschenden Ergebnissen ihrer neuesten Modelle. Sie suchen nach neuen Wegen, um leistungsfähigere KI-Systeme zu entwickeln.

Modelltraining: Monatelange Entwicklungszyklen mit vielen Unwägbarkeiten

Der CEO von Anthropic gibt im Podcast-Gespräch einen Einblick in die Komplexität der Modellentwicklung. Allein das Pre-Training könne Monate dauern und erfordere Zehntausende von GPUs, TPUs oder anderen Beschleunigungschips, erklärt Amodei.

Nach dem Training folgt eine aufwendige Post-Trainingsphase mit verschiedenen Verfahren wie "Reinforcement Learning from Human Feedback", bei dem menschliche Expertinnen und Experten den Output des KI-Modells nach verschiedenen Kriterien bewerten und verbessern müssen.

Anschließend wird das Modell intern und extern auf Sicherheitsrisiken getestet, unter anderem in Zusammenarbeit mit den AI Safety Institutes der USA und Großbritanniens.

Fortschritte mögen nach außen hin wie wissenschaftliche Durchbrüche aussehen, aber oft handele es sich um technische, langweilige Details. Die größte Herausforderung liege oft in der Softwareentwicklung und der Leistungsoptimierung. Mit jeder neuen Modellgeneration änderten sich auch Intelligenz und "Persönlichkeit". Dies zu beherrschen, sei mehr Kunst als Wissenschaft.

OpenAI hat sich bereits in der Vergangenheit ähnlich geäußert. Die Entwicklung von KI-Modellen sei kein "sauberer industrieller Prozess", sondern eher eine "handwerkliche Teamarbeit".

 

Source: YouTube

Verpassen Sie keine
aktuellen KI‑Einblicke.

  • Unabhängiger Journalismus, der Sie auf dem Laufenden hält.
  • Zugang zum Magazinarchiv und zu den Community‑Kommentaren.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren