Anzeige
Skip to content

Alibabas offene Qwen-3.5-Modellreihe liefert mehr Leistung bei weniger Rechenaufwand

Alibaba hat die neue Qwen-3.5-Modellreihe erweitert. Sie umfasst jetzt vier Modelle: Qwen3.5-Flash, Qwen3.5-35B-A3B, Qwen3.5-122B-A10B und Qwen3.5-27B. Laut Alibaba liefern die Modelle mehr Leistung bei weniger Rechenaufwand. Sie verarbeiten Text, Bilder und Video als Eingabe und geben Text aus. Zuerst wurde Mitte Februar Qwen3.5-397B-A17B vorgestellt.

Das kleinere Modell Qwen3.5-35B-A3B übertrifft demnach das deutlich größere Vorgängermodell Qwen3-235B-A22B – ein Hinweis darauf, dass bessere Architektur, Datenqualität und Reinforcement Learning wichtiger sind als reine Modellgröße. Die größeren Varianten 122B und 27B sollen den Abstand zu Spitzenmodellen weiter verringern, besonders bei komplexen Agentenszenarien.

Die Benchmarks zeigen, dass Alibabas Qwen-3.5-Modelle können in Benchmarks mit westlichen Spitzenmodellen wie OpenAIs GPT-5 mini, gpt-oss-120b und Anthropics Claude Sonnet 4.5 mithalten oder diese teils übertreffen. Das größte Modell Qwen3.5-122B-A10B führt in mehreren Tests: Bei agentenbasierter Werkzeugnutzung (BFCL V4, 72,2) und agentenbasierter Websuche (BrowseComp, 63,8) liegt es vor allen Konkurrenten. Im Mathe-Benchmark HMMT erreicht es 91,4 – knapp hinter GPT-5 mini (92,0). Bei visuellem Schlussfolgern (MMMU-Pro, 76,9) und Dokumentenerkennung (OmniDocBench, 89,8) setzt es sich ebenfalls an die Spitze. Claude Sonnet 4.5 punktet dagegen beim agentenbasierten Terminal-Coding (49,4) und beim Embodied Reasoning (64,7) klar vor allen Qwen-Modellen. GPT-5 mini liegt beim multilingualen Wissen (MMMLU, 90,0) und bei der Mathematik vorn. Auffällig: Das kleine Qwen3.5-35B-A3B mit nur 3 Milliarden aktiven Parametern hält in vielen Tests mit den wesentlich größeren Modellen mit.
Alibabas Qwen-3.5-Modelle können in Benchmarks mit westlichen Spitzenmodellen wie OpenAIs GPT-5 mini, gpt-oss-120b und Anthropics Claude Sonnet 4.5 mithalten oder diese teils übertreffen. | Bild: Alibaba

Alle Modelle sind auf Hugging Face, ModelScope und über Qwen Chat verfügbar. Sie stehen unter der Apache License 2.0, einer freizügigen Open-Source-Lizenz, die kommerzielle Nutzung, Veränderung und Weiterverbreitung erlaubt. Qwen3.5-Flash ist die gehostete Produktionsversion mit einer Kontextlänge von einer Million Token und eingebauten Tools. Der API-Preis liegt bei 0,10 Dollar pro Million Input-Token und 0,40 Dollar pro Million Output-Token.

Anzeige
DEC_D_Incontent-1

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: via X