Anzeige
Skip to content
Read full article about: Voller Zugriff auf Gemini: Apple destilliert Googles KI für lokale Modelle

Apple hat sich umfassende Zugriffsrechte auf Googles Gemini-Modelle gesichert. Laut Quellen von The Information hat Apple vollständigen Zugang zu Gemini in eigenen Rechenzentren und kann daraus per Destillation kleinere Modelle ableiten: Gemini erzeugt hochwertige Antworten inklusive seiner Denkkette ("Chain of Thought"), die als Trainingsdaten für ein kleineres Modell dienen. Apple bezahlt hier also für das, was angeblich China-Akteure heimlich tun, nämlich einem hochwertigen KI-Modell gute Trainingsdaten für ein kleineres entlocken.

Weil Apple vollen Zugriff hat, kann das kleinere Modell über das bloße Nachahmen von Geminis Antworten hinausgehen und auch dessen internen Rechenweg kopieren. Die so erzeugten Modelle benötigen deutlich weniger Rechenleistung und können direkt auf Apple-Geräten laufen.

Gemini sei jedoch für Chatbots und Unternehmensanwendungen optimiert, was nicht immer zu Apples Siri-Plänen passe. Apple arbeite daher parallel an eigenen Modellen im "Apple Foundation Models"-Team. Neue KI-Funktionen könnten im Juni auf Apples Entwicklerkonferenz angekündigt werden.

Read full article about: Mistral veröffentlicht neues Text-to-Speech-Modell Voxtral als Open-Weights-Version

Das französische KI-Start-up Mistral hat mit Voxtral TTS ein erstes Text-to-Speech-Modell veröffentlicht. Es unterstützt neun Sprachen, darunter Deutsch, Englisch, Französisch und Spanisch, und ist mit vier Milliarden Parametern vergleichsweise kompakt. Laut Mistral erzeugt das Modell realistische, emotional ausdrucksstarke Sprache und lässt sich leicht an neue Stimmen anpassen, schon ab drei Sekunden Referenzaudio. Die Modell-Latenz liegt bei 70 Millisekunden für ein typisches Set-up mit 10 Sekunden Sprachsample und 500 Zeichen.

In menschlichen Vergleichstests schnitt Voxtral TTS bei der Natürlichkeit besser ab als ElevenLabs Flash v2.5 bei ähnlicher Reaktionszeit. ElevenLabs hat mit v3 allerdings ein aktuelleres Modell. Voxtral TTS ist über eine API für 0,016 Dollar pro 1.000 Zeichen verfügbar, im Mistral Studio testbar und als Open-Weights-Version auf Hugging Face erhältlich.

Read full article about: OpenAI und Anthropic vor dem Börsengang: Unterschiedliche Bilanzen erschweren den Vergleich

Anthropic und OpenAI wachsen beim Umsatz rasant, doch ihre Buchhaltung unterscheidet sich erheblich, berichtet The Information. OpenAIs annualisierter Umsatz liegt bei etwa 25 Milliarden Dollar, Anthropics bei 19 Milliarden Dollar. Beide berechnen diese Zahl ähnlich: vier Wochen Umsatz mal 13, Anthropic addiert zusätzlich monatliche Abo-Einnahmen mal 12.

Der große Unterschied liegt bei den Cloud-Partnern: OpenAI gibt 20 Prozent seines Umsatzes an Microsoft ab und verbucht ihn vor diesem Abzug. Bei Cloud-Verkäufen über Azure zählt OpenAI nur seinen 20-Prozent-Anteil als Umsatz. Anthropic hingegen verbucht die gesamten Cloud-Verkäufe über AWS, Microsoft und Google als eigenen Umsatz und weist die Anteile der Cloud-Anbieter als Marketing- und Vertriebskosten aus. Grund: Anthropic sieht sich als Hauptanbieter, OpenAI betrachtet Microsoft als Hauptanbieter für Azure-Dienste.

Obwohl beide den US-Bilanzierungsregeln (GAAP) folgen, sind ihre Umsatzzahlen dadurch schwer vergleichbar. Anthropics Umsatz wirkt auf dem Papier wahrscheinlich höher, als er bei gleicher Methode wäre. Für Investoren ist das relevant, da beide Unternehmen auf einen Börsengang zusteuern.

Read full article about: Gemini 3.1 Flash Live: Google zeigt neues KI-Modell für natürlichere Sprachdialoge

Google hat Gemini 3.1 Flash Live vorgestellt, sein bisher bestes Sprach- und Audio-KI-Modell. Es bietet laut Google schnellere Antworten, natürlichere Gespräche und konfigurierbare Denkstufen für Entwickler. Es soll zudem Tonlagen und Emotionen besser erkennen und in lauten Umgebungen zuverlässiger arbeiten. Das Modell ist auch das neue Dialogmodell für den Live-Modus in der Gemini-App.

Laut Artificial Analysis erreicht das Modell auf der Denkstufe "High" 95,9 Prozent im Big Bench Audio Benchmark, Platz zwei hinter Step-Audio R1.1 Realtime (97,0 Prozent). Die Antwortzeit liegt bei 2,98 Sekunden. Auf der Stufe "Minimal" sinkt die Qualität auf 70,5 Prozent, die Antwortzeit verbessert sich aber auf 0,96 Sekunden.

Gemini 3.1 Flash Live erreicht mit hoher Denkstufe 95,9 Prozent im Big Bench Audio Benchmark und liegt damit auf Platz zwei hinter Step-Audio R1.1 Realtime. | Bild: Artificial Analysis

Gemini 3.1 Flash Live ist über die Gemini-Live-APIGoogle AI Studio, Gemini Live und Search Live in mehr als 200 Ländern verfügbar. Die Preise bleiben bei 0,35 Dollar pro Stunde Audio-Eingabe und 1,40 Dollar pro Stunde Audio-Ausgabe auf dem Niveau des Gemini-2.5-Vorgängermodells. Damit gehört es zu den günstigsten Audio-KI-Modellen am Markt, das etwas besser bewertete Step-Audio-Modell ist aber insgesamt noch etwas günstiger.

Read full article about: Google macht KI-Funktion Search Live weltweit für alle Nutzer verfügbar

Google macht seine Funktion "Search Live" weltweit verfügbar. Nutzer in mehr als 200 Ländern können nun interaktive Gespräche mit der Google-Suche führen – per Sprache und Kamera.

Die Funktion ist Teil des AI-Mode in der Google-App für Android und iOS. Nutzer können Fragen laut stellen und erhalten gesprochene Antworten mit weiterführenden Weblinks. Wer die Kamera aktiviert, kann auch Fragen zu Objekten in der Umgebung stellen; Google nennt hier die Montage eines Regals als Beispiel.

Angetrieben wird Search Live vom neuen Audio- und Sprachmodell Gemini 3.1 Flash Live, das mehrsprachig ist und laut Google natürlichere Gespräche ermöglicht. Der Zugang ist auch über Google Lens möglich. Damit baut Google seine KI-gestützte Suche deutlich aus und positioniert sie als sprachbasierten Echtzeit-Assistenten.

Read full article about: GitHub Copilot nutzt ab April Nutzerdaten für KI-Training

GitHub ändert ab dem 24. April 2026 seine Datenrichtlinie für Copilot. Interaktionsdaten von Nutzern der Tarife Free, Pro und Pro+ werden künftig zum Training von KI-Modellen verwendet, sofern diese nicht aktiv widersprechen. Dazu gehören Eingaben, Ausgaben, Code-Schnipsel, Dateinamen, Repository-Strukturen und Feedback.

Wer bereits früher widersprochen hat, dessen Einstellung bleibt bestehen. Nutzer von Copilot Business und Enterprise sind nicht betroffen. GitHub-Produktchef Mario Rodriguez begründet den Schritt damit, dass reale Nutzungsdaten die Modelle verbessern. Tests mit Daten von Microsoft-Mitarbeitern hätten bereits zu höheren Akzeptanzraten geführt.

Die Daten können mit Microsoft geteilt werden, nicht aber mit Drittanbietern von KI-Modellen. Wer widersprechen will, kann dies in den Copilot-Einstellungen unter "Privacy" tun. Weitere Informationen gibt es im GitHub-Blog.

Read full article about: Meta testet neue Arbeitsweise: "KI-native Pods" sollen Produktivität steigern

Meta organisiert Teile seiner Reality-Labs-Sparte in einem Pilotprogramm in sogenannte "KI-native Pods" um, wie Business Insider aus einem internen Memo berichtet. Rund 1000 Angestellte der Abteilung für Entwickler-Tools erhalten neue Titel: "AI Builder", "AI Pod Lead" oder "AI Org Lead".

Die Pods sind kleine, fachübergreifende Teams, die auf bestimmte Ergebnisse hinarbeiten. Ingenieure könnten dabei etwa Designaufgaben übernehmen. Ziel sei ein großer Sprung bei der Produktivität und Produktqualität, heißt es im Memo. Meta verwies in einer Stellungnahme auf Aussagen von CEO Mark Zuckerberg, wonach KI 2026 die Arbeitsweise grundlegend verändern werde und Projekte, die bisher große Teams erforderten, künftig von einzelnen Personen umgesetzt werden könnten.

Meta betonte, dass die gleichzeitig stattfindenden Entlassungen bei Reality Labs nicht mit der Reorganisation zusammenhängen. Die Teamgröße soll trotz der Umstrukturierung gleichbleiben. Am Mittwoch wurden angeblich einige Hundert Stellen gestrichen; das könnte nur der Anfang einer größeren Entlassungswelle sein, bei der bis zu 20 Prozent der Stellen wegfallen könnten, angeblich wegen hoher Infrastrukturkosten für den KI-Ausbau.

Read full article about: Neues KI-Modell von Google: Lyria 3 Pro generiert bis zu drei Minuten lange Songs

Google bringt mit Lyria 3 Pro sein fortschrittlichstes KI-Modell zur Musikerzeugung heraus. Es kann Tracks von bis zu drei Minuten Länge erstellen und versteht laut Google musikalische Strukturen wie Intros, Strophen, Refrains und Bridges besser als Lyria 3, das Google im Februar vorgestellt hat.

Lyria 3 Pro ist ab sofort in mehreren Google-Produkten verfügbar: in der Gemini-App für zahlende Abonnenten, in Google Vids für Workspace-Kunden, auf Vertex AI für Unternehmen sowie in Google AI Studio für Entwickler. Auch das kollaborative Musik-Generierungs-Tool ProducerAI nutzt das Modell, um beim Erstellen ganzer Songs zu helfen.

Laut Google imitiert Lyria 3 Pro keine Künstler durch Eingabe des Namens in den Prompt, nimmt diesen aber als Inspiration. Alle erzeugten Inhalte werden mit dem unsichtbaren SynthID-Wasserzeichen markiert. Google sagt, Lyria 3 sei mit Materialien trainiert worden, auf die YouTube und Google laut Nutzungsbedingungen, Partnervereinbarungen und geltendem Recht ein Nutzungsrecht haben – konkretere Angaben zu den Trainingsdaten macht das Unternehmen nicht.

Derzeit ist als hochwertiger Musikgenerator ansonsten nur Suno verfügbar, das sich in Rechtsstreits mit Plattenfirmen befindet wegen möglicher Copyright-Verstöße.

Read full article about: Arm stellt erstmals eigenen Chip her und entwickelt mit Meta eine CPU für KI-Rechenzentren

Arm hat erstmals in seiner 35-jährigen Geschichte einen eigenen Chip hergestellt und damit sein bisheriges Geschäftsmodell erweitert, bei dem das Unternehmen nur Chip-Designs an Firmen wie Apple oder Nvidia lizenzierte. Die neue CPU namens "Arm AGI" wurde gemeinsam mit Meta entwickelt und soll KI-Arbeitslasten in Rechenzentren unterstützen.

Der Chip verfügt über bis zu 136 Kerne, läuft mit bis zu 3,7 GHz und wird in TSMCs 3-nm-Verfahren gefertigt. Laut Arm-CEO Rene Haas soll der Chip leistungsstarkes, energieeffizientes Rechnen für KI-Infrastruktur ermöglichen. Meta will die CPU zusammen mit seinem eigenen MTIA-Beschleuniger einsetzen, wie Metas Infrastruktur-Chef Santosh Janardhan erklärte.

Weitere Partner sind unter anderem OpenAI, Cerebras, Cloudflare und Lenovo. Erste Systeme sind bereits verfügbar, breitere Verfügbarkeit wird für die zweite Jahreshälfte 2026 erwartet.

Read full article about: OpenAI-CEO Altman kündigt intern "sehr starkes" KI-Modell an, das die "Wirtschaft wirklich beschleunigen" kann

OpenAI hat das Pretraining seines neuen KI-Modells mit dem Codenamen "Spud" abgeschlossen, wie CEO Sam Altman laut The Information in einem internen Memo mitteilte. Altman sagte den Mitarbeitern, dass das Unternehmen in "wenigen Wochen" ein "sehr starkes Modell" erwarte, das "die Wirtschaft wirklich beschleunigen" könne.

Altman schrieb: "Die Dinge bewegen sich schneller, als viele von uns erwartet haben." Passend dazu wird die Produktorganisation von Fidji Simo in "AGI Deployment" umbenannt. Unter anderem um Rechenkapazität für Spud freizumachen, wird OpenAI seine Video-App Sora einstellen.

Spud könnte auch die Grundlage für OpenAIs geplante Desktop-"Superapp" bilden, die ChatGPT, den Coding-Agenten Codex und den Browser Atlas vereint. OpenAI muss aufholen auf Anthropic, das insbesondere mit Claude Code erfolgreich agentische KI-Systeme für Geschäftskunden anbietet und derzeit stark punktet. OpenAIs Codex und Frontier haben hier noch das Nachsehen.