US-Start-up Arcee AI fordert mit offenem 400B-Modell chinesische KI-Labore heraus
Das Start-up Arcee AI hat mit Trinity-Large-Thinking ein offenes Reasoning-Modell veröffentlicht, das bei Agenten-Aufgaben mit Claude Opus konkurrieren soll. Das Unternehmen steckte dafür rund die Hälfte seines gesamten Risikokapitals in das Projekt.
Deepmind-Chef Demis Hassabis vergleicht die Ankunft von AGI mit dem Zehnfachen der industriellen Revolution in einem Zehntel der Zeit. "Ich quantifiziere die Ankunft von AGI manchmal als zehnmal die industrielle Revolution bei zehnfacher Geschwindigkeit. Also entfaltet sich das über ein Jahrzehnt statt über ein Jahrhundert", sagt er im 20VC Podcast. Er sieht eine "sehr gute Chance", dass AGI innerhalb der nächsten fünf Jahre erreicht wird. Diese Einschätzung habe sich seit der Gründung von Deepmind 2010 kaum verändert. Damals sagte Mitgründer Shane Legg in Blogposts voraus, dass es etwa 20 Jahre dauern würde.
Für weitere Durchbrüche brauche es unter anderem kontinuierliches Lernen, langfristiges Planen, bessere Memory-Architekturen und größere Konsistenz in der Intelligenz. Es gehe letztlich um Generalisierbarkeit. Skalierung wirke noch immer, auch wenn die Wirkung nachlasse.
Gleichzeitig warnt Hassabis vor einer gefährlichen Lücke. Kurzfristig sei KI "in gewisser Weise überhypt". Langfristig werde aber "immer noch sehr unterschätzt, wie revolutionär das in einem Zeitraum von etwa zehn Jahren sein wird". Trotz des beispiellosen Hypes nehme die Öffentlichkeit die langfristigen Auswirkungen also noch immer nicht ernst genug.
Alibabas Qwen-Team trainiert KI-Bildverständnis mit automatisch erzeugten Denkaufgaben
Wenn KI-Modelle über Bilder nachdenken, schaukeln sich kleine Wahrnehmungsfehler über mehrere Denkschritte zu falschen Ergebnissen auf. Das Framework HopChain erzeugt mehrstufige Bildfragen, die dieses Problem gezielt adressieren und 20 von 24 Benchmarks verbessern. Dafür zerlegt es komplexe Fragen in verkettete Einzelschritte und zwingt das Modell, jedes Bildobjekt einzeln zu prüfen, bevor es eine Schlussfolgerung zieht.
Die AI-Safety-Research-Firma Lyptus Research hat eine neue Studie zur offensiven Cybersicherheitsfähigkeit von KI-Modellen veröffentlicht. Sie basiert auf der METR-Zeithorizont-Methode und einer Untersuchung mit zehn professionellen Sicherheitsexperten.
Die offensive Cyberfähigkeit von KI verdoppelt sich laut der Studie seit 2019 alle 9,8 Monate, seit 2024 sogar alle 5,7 Monate. Opus 4.6 und GPT-5.3 Codex lösen bei einem Token-Budget von zwei Millionen Aufgaben mit 50 Prozent Erfolg, für die menschliche Experten rund drei Stunden benötigen.
Offensive Cyberfähigkeit von KI-Modellen im Zeitverlauf: Von GPT-2 (2019) bis Opus 4.6 und GPT-5.3 Codex (2026) stieg der Zeithorizont von 30 Sekunden auf rund drei Stunden. Die Verdopplungszeit beschleunigte sich von 9,8 Monaten (ab 2019) auf 5,7 Monate (ab 2024). | Bild: Lyptus Research
Bei höherem Token-Budget steigt die Leistung deutlich: GPT-5.3 Codex springt bei zehn Millionen Token von 3,1 auf 10,5 Stunden Zeithorizont. Die Forscher gehen daher davon aus, dass sie das tatsächliche Angriffsrisiko noch unterschätzen. Open-Source-Modelle liegen etwa 5,7 Monate hinter den geschlossenen Modellen.
Alibabas Qwen-Team bringt KI-Modelle mit neuem Algorithmus zum tieferen Nachdenken
Reinforcement Learning stößt bei Reasoning-Modellen an eine Grenze, weil alle Tokens gleich belohnt werden. Ein neuer Algorithmus von Alibabas Qwen-Team gewichtet stattdessen jeden Schritt danach, wie stark er die nachfolgende Argumentationskette beeinflusst. Er verdoppelt so die Länge der Denkprozesse.