Inhalt
summary Zusammenfassung

Alibaba stellt mit Qwen3 eine neue offene Sprachmodellfamilie vor, die in Benchmarks mit marktführenden Systemen konkurriert.

Anzeige

Alibaba hat die Qwen3-Modellreihe veröffentlicht, die in zahlreichen Benchmarks Ergebnisse auf Augenhöhe mit aktuellen Spitzenmodellen wie DeepSeek-R1, o1, o3-mini, Grok-3 und Gemini-2.5-Pro erzielt.

Die beiden größten Modelle, Qwen3-235B-A22B und Qwen3-30B-A3B (Mixture-of-Experts-Architektur), erreichen in den gängigen Tests für Coding, Mathematik und allgemeine Fähigkeiten Werte, die mit den besten Systemen am Markt vergleichbar sind - und das bei oft geringerer Größe. Die hohen Benchmark-Ergebnisse wurden im Reasoning-Modus (vermutlich mit dem höchsten Token-Budget) erzielt.

Anzeige
Anzeige

Das Pretraining der Modelle erfolgte mit 36 Billionen Token – mehr als bei Llama 4 Maverick (22T), aber weniger als bei Llama 4 Scout (40T). Die Daten umfassen Webinhalte, Dokumente sowie eigens generierte Mathematik- und Programmierdaten. Die Modelle sind unter der Apache 2.0-Lizenz veröffentlicht und damit frei verfügbar.

Qwen 3 ist ein hybrides Open-Source-Modell

Ein zentrales Merkmal von Qwen3 ist die Umschaltbarkeit zwischen zwei Denkmodi: Im „Thinking Mode“ löst das Modell Aufgaben mit ausführlichen Zwischenschritten, während im „Non-Thinking Mode“ schnelle, unmittelbare Antworten geliefert werden. Das ist von anderen Modellen wie Claude 3.7 oder Grok bekannt. Vor allem komplexe Aufgaben profitieren von der Reasoning-Funktion, während für Routineabfragen der schnelle Modus geeignet ist.

Laut Alibaba unterstützen die Modelle 119 Sprachen und Dialekte. Die Sprachabdeckung reicht von weit verbreiteten Sprachen wie Englisch, Chinesisch und Arabisch bis hin zu vielen Minderheitensprachen und regionalen Dialekten. Wie gut die Modelle tatsächlich sind, muss sich natürlich im jeweiligen Anwendungsfall zeigen.

Die veröffentlichten Benchmarkwerte versprechen jedoch ein sehr leistungsfähiges Modell, das in seiner Größe Konkurrenten wie die Llama-Serie von Meta oder Deepseek vorerst hinter sich lässt. Doch das kann in wenigen Stunden schon wieder anders aussehen: Meta veranstaltet heute seine erste Llamacon und wird wahrscheinlich ein erstes Reasoning-Modell auf Llama-4-Basis vorstellen. Und Deepseek wird wahrscheinlich in wenigen Wochen den Nachfolger von R1 veröffentlichen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Alibaba hat mit Qwen3 eine neue offene Sprachmodellfamilie vorgestellt, deren Modelle in Benchmarks Ergebnisse auf dem Niveau führender Systeme wie DeepSeek-R1 oder Gemini-2.5-Pro erzielen.
  • Die Modelle, insbesondere die größten Varianten Qwen3-235B-A22B und Qwen3-30B-A3B, zeigen in Tests für Programmierung, Mathematik und allgemeine Fähigkeiten vergleichbare Leistungen wie Top-Systeme, sind aber oft kleiner.
  • Qwen3 bietet einen umschaltbaren Modus für ausführliche Problemlösung oder schnelle Antworten, unterstützt 119 Sprachen und ist unter der Apache 2.0-Lizenz frei verfügbar.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!