Anzeige
Skip to content
Read full article about: TADA: Hume AI veröffentlicht schnelles Open-Source-Modell für Sprachgenerierung ohne Halluzinationen

Hume AI veröffentlicht TADA als Open Source, ein KI-System zur Sprachgenerierung, das Text und Audio synchron verarbeitet. TADA ordnet jedem Text-Token genau ein Audio-Signal zu, statt wie bisherige Systeme deutlich mehr Audio-Frames pro Text-Token zu erzeugen. Das Ergebnis laut Hume AI: TADA ist über fünfmal schneller als vergleichbare Systeme und produzierte in Tests mit über 1.000 Samples keine Transkriptions-Halluzinationen, also keine erfundenen oder übersprungenen Wörter im Vergleich zum Ausgangstext. Bei menschlichen Bewertungen erreichte das System 3,78 von 5 Punkten für Natürlichkeit.

TADA soll kompakt genug sein für den Einsatz auf Smartphones. Einschränkungen gibt es bei langen Texten, wo die Stimme gelegentlich abdriftet. Verfügbar sind Modelle mit 1B und 3B Parametern auf Llama-Basis, für Englisch und sieben weitere Sprachen (nur 3B). Code und Modelle stehen auf GitHub und Hugging Face unter der MIT-Lizenz bereit, technische Details gibt es im Paper.

Read full article about: KI-Institut Ai2 stellt Robotik-Modelle vor, die ohne echte Trainingsdaten funktionieren

Das KI-Forschungsinstitut Ai2 hat Robotik-Modelle vorgestellt. Sie wurden ausschließlich in Simulationen trainiert und sollen ohne zusätzliche manuell erhobene Daten oder Feinabstimmung direkt auf echten Robotern funktionieren – ein sogenannter Zero-Shot-Sim-to-Real-Transfer. Das soll die Entwicklung effizienter machen: Bei herkömmlichem Training benötigten Forscher monatelang teleoperierte reale Demonstrationen, um simulationstrainierte Roboter zuverlässig zu machen.

Die zwei neuen Open-Source-Systeme heißen MolmoSpaces und MolmoBot. MolmoSpaces umfasst über 230.000 Innenraum-Szenen, mehr als 130.000 kuratierte Objekte und über 42 Millionen physikbasierte robotische Greif-Annotationen. MolmoBot, darauf aufbauend, kann Objekte greifen und ablegen sowie Schubladen und Türen bedienen, ohne je reale Trainingsdaten für diese Aufgaben gesehen zu haben.

Laut Ranjay Krishna, Direktor des PRIOR-Teams bei Ai2, schrumpft die Lücke zwischen Simulation und Realität, wenn man die Vielfalt der simulierten Umgebungen, Objekte und Kamerabedingungen stark erhöht. Alle Modelle und Werkzeuge sind offen verfügbar, technische Details gibt es im Paper.

Read full article about: Hohe Kosten für KI-Infrastruktur: Meta will angeblich 20 Prozent der Belegschaft entlassen

KI führt bei Meta wohl zu Massenentlassungen, aber anders als gedacht: Primär möchte Meta so wohl die hohen Kosten für KI-Infrastruktur absichern. Zudem wolle sich der Konzern auf die erwarteten Effizienzgewinne durch KI-gestützte Arbeit "vorbereiten", so Reuters. Führungskräfte planen demnach, bis zu 20 Prozent der Belegschaft abzubauen – das wären rund 16.000 der knapp 79.000 Beschäftigten. Ein genaues Datum und die endgültige Zahl stehen bisher nicht fest. Meta-Sprecher Andy Stone nannte die Berichte "spekulative Berichterstattung über theoretische Ansätze".

CEO Mark Zuckerberg investiert massiv in generative KI: 600 Milliarden Dollar für KI-Technologie, Infrastruktur und den Ausbau der Belegschaft bis 2028, teure Abwerbungen von KI-Forschern und Zukäufe wie das chinesische Start-up Manus. Zuckerberg sagte im Januar, dass Projekte, die früher große Teams erforderten, nun von Einzelpersonen erledigt werden könnten.

Auch Amazon und Block haben zuletzt ähnliche, angeblich KI-bedingte Kürzungen vorgenommen. Zumindest Amazon tritt beim Thema KI-Code aber wieder auf die Bremse, da sich angeblich zu viele Fehler eingeschlichen haben; und die Massenentlassungen bei Block mögen auch mit KI zusammenhängen, aber sicher nicht nur.

Read full article about: Ex-Anthropic-Forscher gründen neues KI-Startup Mirendil für die Wissenschaft

Ein weiteres Neo-Lab gründet sich, dieses Mal aus dem Anthropic-Team: Mirendil will KI-gestützte Forschung in Bereichen wie Biologie und Materialwissenschaft betreiben. Die Gründer Behnam Neyshabur (CEO) und Harsh Mehta (CTO) verließen Anthropic im Dezember und verhandeln laut The Information über eine Finanzierungsrunde von 175 Millionen Dollar bei einer Bewertung von einer Milliarde Dollar. Andreessen Horowitz und Kleiner Perkins sollen die Runde gemeinsam anführen. Die Konditionen sind noch nicht endgültig.

Neyshabur leitete bei Anthropic ein Team für wissenschaftliches KI-Reasoning und arbeitete zuvor mehr als fünf Jahre bei Google DeepMind. Mehta war Senior Research Scientist bei Anthropic. Zum Gründerteam gehören auch Shayan Salehian (zuvor xAI) und Tara Rezaei (zuvor Praktikantin bei OpenAI).

Mirendil reiht sich in eine wachsende Zahl sogenannter Neo-Labs ein: spezialisierte KI-Startups, die von Forschern und Forscherinnen großer KI-Unternehmen gegründet werden. Sie konzentrieren sich auf spezielle Gebiete wie Büroarbeit oder versuchen, grundlegend neue KI-Entwicklungsparadigmen zu finden, die die Schwächen aktueller Systeme aufheben, etwa durch kontinuierliches Lernen.

Read full article about: Anthropic streicht Aufpreis für riesige Kontextfenster bei Claude

Anthropic macht das extra große Kontextfenster von Claude viel günstiger. Die Modelle Opus 4.6 und Sonnet 4.6 bieten ab sofort ein Kontextfenster von einer Million Token zum Standardpreis. Vor der Preisanpassung nahm Anthropic für Anfragen mit mehr als 200.000 Token einen Aufschlag von bis zu 100 Prozent. Das Kontextfenster bestimmt, wie viel Text ein KI-Modell auf einmal verarbeiten kann.

Opus 4.6 kostet 5/25 Dollar pro Million Token (Eingabe/Ausgabe), Sonnet 4.6 liegt bei 3/15 Dollar. Ob eine Anfrage 9.000 oder 900.000 Token umfasst, spielt jetzt preislich keine Rolle mehr. Zudem steigt das Limit für Medien von 100 auf 600 Bilder oder PDF-Seiten pro Anfrage. Das Angebot gilt auch für Claude Code (Max, Team, und Enterprise) sowie über Amazon Bedrock (bis auf Medienlimit), Google Cloud Vertex AI und Microsoft Foundry.

Der Benchmark misst, wie gut KI-Modelle über große Textmengen logisch schlussfolgern können. Das neue Opus 4.6 hat dabei angeblich fast keinen Leistungsverlust. | Bild: Anthropic

Laut Anthropic erreichen beide Modelle bei Benchmark-Tests die höchste Genauigkeit unter vergleichbaren Modellen bei voller Kontextlänge. Das Problem der sinkenden Präzision bei sehr vollen Kontextfenstern ist aber noch lange nicht gelöst.

Read full article about: Elon Musk baut xAI nach Gründer-Flucht und Programmier-Rückstand komplett um

Elon Musks KI-Firma xAI steckt in einer Krise: Musk gab auf der Plattform X zu, dass das Unternehmen "beim ersten Mal nicht richtig aufgebaut" wurde und nun von Grund auf neu strukturiert werde. Sechs der zwölf Mitgründer haben xAI seit Januar verlassen, darunter zuletzt Guodong Zhang und Zihang Dai. Nur noch Manuel Kroiss und Ross Nordeen sind neben Musk geblieben.

via X

Musk räumte auf einer Konferenz ein, dass Grok beim Coding hinter Konkurrenten wie Google, Anthropic und OpenAI liege, versprach aber, bis Mitte 2026 aufzuholen. Dafür hat xAI zwei Führungskräfte des KI-Coding-Startups Cursor abgeworben: Andrew Milich und Jason Ginsberg berichten direkt an Musk. Zudem hat Musk laut Financial Times "Problemlöser" von SpaceX und Tesla geholt, um xAI umzustrukturieren.

Read full article about: Perplexity baut mit Personal Computer einen Always-on-KI-Agenten

Perplexity AI will mit "Personal Computer" Nutzern einen KI-Assistenten bieten, der rund um die Uhr Aufgaben erledigt – von E-Mails über Präsentationen bis zur App-Steuerung. Der Dienst läuft auf einem dedizierten Mac Mini, der mit den lokalen Apps des Nutzers und Perplexitys Servern verbunden ist, und lässt sich von jedem Gerät aus steuern. CEO Aravind Srinivas schrieb auf X, das System schlafe nie und sei ein "digitaler Stellvertreter". Der Dienst baut auf dem im Februar gestarteten Perplexity Computer auf, das verschiedene KI-Modelle bündelt.

Perplexity betont Sicherheitsfunktionen wie einen Kill Switch und ein Aktivitätsprotokoll. Voraussetzung ist das Max-Abo für 200 US-Dollar im Monat. Derzeit gibt es nur eine Warteliste.

Gleichzeitig baut Perplexity sein Angebot aus: Eine Enterprise-Version verbindet sich mit über 400 Tools wie Salesforce oder Snowflake und erledigte laut Perplexity intern in vier Wochen Arbeit im Wert von 3,25 Jahren. Das Konzept erinnert an das kontroverse OpenClaw, dessen Entwickler mittlerweile für OpenAI arbeitet. Agentische KI-Systeme dominieren derzeit die Szene, sehen sich aber auch scharfer Kritik vor allem hinsichtlich Ressourcenbedarf und Sicherheitslücken ausgesetzt.

Read full article about: Die Ukraine stellt Verbündeten eine Plattform mit Gefechtsdaten für das KI-Training bereit

Die Ukraine öffnet ihre Gefechtsdaten für Verbündete, um KI-Modelle für autonome Drohnen zu trainieren.

"Die Ukraine verfügt heute über ein einzigartiges Spektrum an Gefechtsdaten, das weltweit seinesgleichen sucht", schreibt Verteidigungsminister Mychajlo Fedorow auf Telegram. "Dazu gehören Millionen annotierter Bilder, die bei Zehntausenden von Kampfflügen gesammelt wurden."

Laut Fedorow ist die im Januar angekündigte Plattform online, die Verbündeten und Unternehmen ständig aktualisierte Datensätze sowie große Mengen an Foto- und Videomaterial bereitstellt. Ziel sei es, die Entwicklung von KI-Modellen zu beschleunigen, die Drohnen autonom zu ihren Zielen führen oder große Datenmengen in Echtzeit analysieren können.

Die Ukraine wolle die Rolle autonomer Systeme im Krieg gezielt ausbauen. Oberbefehlshaber Oleksandr Syrskyj erklärte, der Krieg sei "in eine neue Phase eingetreten" – innerhalb der ukrainischen Streitkräfte würden nun Züge von Drohnen-Abfangjägern aufgestellt.

Read full article about: Meta verschiebt neues KI-Modell Avocado nach enttäuschenden internen Testergebnissen

Meta hat angeblich die Veröffentlichung seines neuen KI-Modells mit dem Codenamen "Avocado" verschoben. Ursprünglich für Mitte März 2026 geplant, soll es nun frühestens im Mai erscheinen, berichtet die New York Times unter Berufung auf drei informierte Personen.

In internen Tests schnitt Avocado bei logischem Denken, Programmieren und Schreiben schlechter ab als führende Modelle von Google, OpenAI und Anthropic. Es übertraf zwar Metas Vorgängermodell und Googles Gemini 2.5, erreichte aber nicht das Niveau von Gemini 3.0. Metas Führung diskutierte laut dem Bericht sogar, vorübergehend Gemini zu lizenzieren. Eine Entscheidung sei aber nicht getroffen worden.

Die nächste Generation mit dem Codenamen "Watermelon" sei bereits in Planung. Zudem ist ein Bild- und Videogenerator mit dem Codenamen Mango in Arbeit.

Meta betont, man sei auf einem guten Weg und werde "sehr bald" Updates liefern. Im Laufe des Jahres sollen weitere Modelle erscheinen. Nachdem Meta anfangs mit den offenen Llama-Modellen sehr erfolgreich war, verlor der Konzern mit Llama 4 den Anschluss.

CEO Mark Zuckerberg investierte daraufhin Milliarden in KI, darunter 14,3 Milliarden Dollar in das Startup Scale AI, dessen Chef Alexandr Wang nun Metas KI-Abteilung leitet. Im Raum steht auch eine Abkehr von der bisherigen Open-Source-Strategie.

Read full article about: xAIs Grok 4.20 hängt in Benchmarks zurück und glänzt dennoch mit niedrigster Halluzinationsrate

xAIs aktuelles KI-Modell Grok 4.20 hängt in Benchmarks deutlich hinterher. Das zeigt die Auswertung von Artificial Analysis, einem unabhängigen Bewertungsdienst für KI-Modelle. Grok 4.20 Beta erreicht mit aktiviertem Reasoning-Modus 48 Punkte im Artificial Analysis Intelligence Index – die Spitzenmodelle Gemini 3.1 Pro Preview und GPT-5.4 liegen bei 57 Punkten. Gegenüber dem Vorgänger Grok 4 ist das dennoch ein Plus von 6 Punkten.

Grok hängt den neuesten Modellen der großen KI-Labore hinterher. | Bild: Artificial Analysis
Grok hängt den neuesten Modellen der großen KI-Labore hinterher. | Bild: Artificial Analysis

xAI veröffentlichte drei Varianten in der API: mit Reasoning, ohne Reasoning und einen Multi-Agenten-Modus. Das Modell bietet ein Kontextfenster von 2 Millionen Token und ist mit 2 bzw. 6 Dollar pro Million Token günstiger als Grok 4 und recht günstig für westliche Modelle.

Eine Stärke hat das Modell allerdings: Es erfindet so selten falsche Antworten wie kein anderes getestetes Modell. Im AA-Omniscience-Test erreicht Grok 4.20 eine Nicht-Halluzinationsrate von 78 Prozent, laut Artificial Analysis ein Rekordwert. Der Test prüft, wie oft ein Modell etwas Falsches behauptet, wenn es die Antwort eigentlich nicht kennt. Grok 4.20 gibt in solchen Fällen nur etwa bei jeder fünften Frage trotzdem eine (falsche) Antwort.