Inhalt
summary Zusammenfassung

Der chinesische Technologiekonzern Tencent hat sein neues Sprachmodell Hunyuan-A13B als Open Source veröffentlicht. Das Modell soll mit dynamischem Reasoning zwischen schnellem und langsamem Denken wechseln können.

Anzeige

Das zentrale Feature von Hunyuan-A13B ist ein System, das die Denktiefe dynamisch an die Aufgabenkomplexität anpasst. Das Modell bietet zwei Modi: einen schnellen Modus für einfache Anfragen mit kurzer Inferenz und einen tiefergehenden Modus für komplexe Aufgaben, die mehrstufiges Denken erfordern.

Im Standard-Modus führt das Modell ausführliche Denkprozesse durch, bevor es eine Antwort generiert. Der schnelle Modus überspringt diese Schritte. Nutzer:innen können das Verhalten über spezielle Befehle steuern: "/think" aktiviert den Denkmodus, "/no_think" deaktiviert ihn.

Das Modell basiert auf einer Mixture-of-Experts-Architektur (MoE) mit insgesamt 80 Milliarden Parametern, von denen bei Inferenz jedoch nur 13 Milliarden aktiv sind. Das Modell kann Texte mit bis zu 256.000 Tokens verarbeiten.

Anzeige
Anzeige

Training mit wissenschaftlichem Fokus

Laut dem technischen Bericht wurde Hunyuan-A13B zunächst auf 20 Billionen Tokens trainiert, dann speziell auf Reasoning-Aufgaben optimiert und schließlich für allgemeine Anwendungen verfeinert. Tencent sammelte dabei 250 Milliarden Tokens aus STEM-Bereichen, um die Zuverlässigkeit bei wissenschaftlichen Aufgaben zu verbessern.

Video: Tencent

Diese Trainingsdaten stammen aus Lehrbüchern, Tests und Wettbewerben für Mathematik, aus Open-Source-Code-Projekten wie GitHub, aus Puzzle-Sammlungen für Logik und aus wissenschaftlichen Texten von Mittelschul- bis Universitätsniveau.

Besonders gut für Agenten-Aufgaben

In eigenen Benchmarks soll Hunyuan-A13B-Instruct mit führenden Modellen von OpenAI, Deepseek und Alibaba (Qwen) mithalten können. Laut Tencent erreicht das Modell in Aufgaben wie dem amerikanischen Mathematik-Wettbewerb AIME (2024) 87,3 Prozent korrekte Antworten, während OpenAI o1 bei 74,3 Prozent liegt. Wie wenig aussagekräftig solche Angaben jedoch teilweise sind, zeigt schon ein Blick auf die Ergebnisse der 2025er-Ausgabe: Dort liegt o1 nämlich um knapp drei Prozent vorn.

Außerdem scheint Tencent sich die Benchmarks etwas zurechtzubiegen, da man zum Vergleich die veraltete Januar-Version von Deepseek-R1 heranzieht. In AIME 2024 und AIME 2025 erreichte die Version aus dem Mai 91,4 respektive 87,5 Punkte.

Empfehlung
Tabelle mit Benchmark-Ergebnissen von OpenAI-o1-1217, Deepseek-R1-0120, Qwen3-A22B und Hunyuan-A13B über sechs Kategorien.
Benchmarks zeigen, wie gut Hunyuan-A13B mit Deepseek-R1, OpenAI o1 und Qwen3-A22B mithalten kann. Deutlichen Vorsprung hat Tencents Modell bei agentischen Aufgaben. | Bild: Tencent

Besonders stark soll das Modell bei automatisierten Aufgaben und der Nutzung von Tools abschneiden. In Agenten-Benchmarks erreichte A13B beinahe durchgehend Bestwerte. Bei Tests, die das große Kontextfenster schrittweise mehr ausnutzten, blieb die Leistung besser als bei Deepseek-R1 oder Qwen3-A22B, wurde von Gemini 2.5 Pro aber sichtlich übertroffen.

Tabelle mit RULER-Benchmarkwerten für LLMs (Gemini 2.5 Pro, DeepSeek R1, Qwen3-A22B, Hunyuan-A13B) über Kontextlängen 0–128K
Die Leistung bleibt auch bei Kontexten von bis zu 128.000 Tokens recht konstant. | Bild: Tencent

Tencent hat zusätzlich zwei neue Test-Datensätze veröffentlicht: ArtifactsBench für die Bewertung von Code-Generierung und C3-Bench speziell für Agenten-Aufgaben.

Das Modell ist auf Hugging Face und GitHub unter der Apache-2.0-Lizenz verfügbar. Tencent stellt vorgefertigte Docker-Images für verschiedene Deployment-Frameworks bereit. Über Tencent Cloud ist auch ein API-Zugang verfügbar, im Browser kann man es hier testen.

Der hybride Reasoning-Ansatz zeigt, dass Tencent an ähnliche Konzepte wie andere führende KI-Unternehmen glaubt. Dieser dynamische Ansatz erinnert unter anderem an Modelle wie Claude 3.7 Sonnet und Qwen3, die ebenfalls zwischen verschiedenen Reasoning-Modi wechseln können.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Tencent hat sich vor Sprachmodellen vorrangig mit Video-Generatoren beschäftigt und dazu im Dezember 2024 HunyuanVideo vorgestellt. Im März folgte mit Hunyuan-T1 ein reines Reasoning-LLM, das laut Unternehmen bereits mit OpenAI o1 mithalten konnte.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Tencent hat das Sprachmodell Hunyuan-A13B als Open Source veröffentlicht. Es bietet zwei Modi für dynamisches Reasoning: einen schnellen Modus für einfache Aufgaben und einen tiefgehenden Modus für komplexere Anfragen, steuerbar über Befehle wie "/think" und "/no_think".
  • Das Modell basiert auf einer Mixture-of-Experts-Architektur mit 80 Milliarden Parametern, von denen bei der Inferenz 13 Milliarden aktiv sind. Es kann Texte mit bis zu 256.000 Tokens verarbeiten.
  • Das Training erfolgte mit 20 Billionen Tokens, darunter 250 Milliarden aus STEM-Bereichen wie Mathematik, Programmierung und Wissenschaft. Tencent stellt zusätzlich eigene Test-Datensätze bereit und bietet das Modell unter der Apache-2.0-Lizenz auf Hugging Face und GitHub an.te
Quellen
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!