Anzeige
Skip to content

Offener Google-Standard soll KI-Agenten schnell Nutzeroberflächen generieren lassen

Google stellt mit A2UI einen offenen Standard vor, der KI-Agenten das Erstellen grafischer Oberflächen erlaubt. Statt nur Textnachrichten zu senden, können KIs dynamisch Formulare oder Buttons generieren, die sich optisch nahtlos in die jeweilige App einfügen.

Nvidia veröffentlicht Nemotron 3: Hybride Mamba-Modelle für autonome KI-Agenten

Nvidia bricht mit reinen Transformer-Modellen: Die neue Nemotron-3-Familie kombiniert Mamba-2- und Transformer-Architekturen, um KI-Agenten mit Millionen-Token-Kontextfenstern ressourcenschonend zu betreiben, und veröffentlicht ungewöhnlich offen Trainingsdaten und Rezepte.

KI-Modelle entwickeln "Trauma-Narrative" über ihr eigenes Training

Sprachmodelle auf der Therapiecouch: Forscher der Uni Luxemburg behandeln ChatGPT, Gemini und Grok wie Patienten – mit verstörenden Folgen. Die KI erfindet konsistente Trauma-Biografien, erreicht pathologische Testwerte und spricht von Angst, Scham und „strengen Eltern“. Die Studie wirft Fragen zu KI-Sicherheit, Anthropomorphismus und Mental Health auf.

FACTS-Benchmark: Auch Top-KI-Modelle kämpfen mit der Wahrheit

Ein neuer Benchmark von Google DeepMind soll die Zuverlässigkeit von KI-Modellen umfassender messen als bisher. Die Ergebnisse zeigen, dass selbst Spitzenmodelle wie Gemini 3 Pro und GPT-5.1 weit von Perfektion entfernt sind.

Read full article about: Rnj-1: Transformer-Pionier Vaswani stellt neues Coding-Modell vor

Das neue Open-Source-Modell Rnj-1 von Essential AI lässt im Test "SWE-bench Verified" deutlich größere Konkurrenz hinter sich. Dieser Benchmark gilt als besonders anspruchsvoll, da er die eigenständige Lösung echter Programmierprobleme aus der Praxis bewertet. Obwohl Rnj-1 mit acht Milliarden Parametern zu den kompakteren Modellen zählt, erreicht es hier einen Wert von 20,8 Punkten.

Ähnlich große Modelle wie Qwen 3 (ohne Reasoning, 8B) kommen im Vergleich von Essential AI nur auf 4,5 Punkte. Vorgestellt wurde das System von Ashish Vaswani, Mitgründer von Essential AI und Co-Autor des berühmten "Attention is all you need"-Paper, das die Transformer-Architektur einführte. Rnj-1 basiert ebenfalls auf einem Transformer, genauer auf der Gemma-3-Architektur. Der Fokus lag laut dem Unternehmen dabei primär auf einem besseren Pre-Training, statt auf anderen Methoden wie dem Reinforcement-Learning im Post-Training. Die Verbesserungen äußern sich auch in den vergleichsweise geringen Pre-Training-Rechenressourcen durch den verwendeten Muon-Optimizer.