Anzeige
Skip to content
Read full article about: Neues KI-Modell von Google: Lyria 3 Pro generiert bis zu drei Minuten lange Songs

Google bringt mit Lyria 3 Pro sein fortschrittlichstes KI-Modell zur Musikerzeugung heraus. Es kann Tracks von bis zu drei Minuten Länge erstellen und versteht laut Google musikalische Strukturen wie Intros, Strophen, Refrains und Bridges besser als Lyria 3, das Google im Februar vorgestellt hat.

Lyria 3 Pro ist ab sofort in mehreren Google-Produkten verfügbar: in der Gemini-App für zahlende Abonnenten, in Google Vids für Workspace-Kunden, auf Vertex AI für Unternehmen sowie in Google AI Studio für Entwickler. Auch das kollaborative Musik-Generierungs-Tool ProducerAI nutzt das Modell, um beim Erstellen ganzer Songs zu helfen.

Laut Google imitiert Lyria 3 Pro keine Künstler durch Eingabe des Namens in den Prompt, nimmt diesen aber als Inspiration. Alle erzeugten Inhalte werden mit dem unsichtbaren SynthID-Wasserzeichen markiert. Google sagt, Lyria 3 sei mit Materialien trainiert worden, auf die YouTube und Google laut Nutzungsbedingungen, Partnervereinbarungen und geltendem Recht ein Nutzungsrecht haben – konkretere Angaben zu den Trainingsdaten macht das Unternehmen nicht.

Derzeit ist als hochwertiger Musikgenerator ansonsten nur Suno verfügbar, das sich in Rechtsstreits mit Plattenfirmen befindet wegen möglicher Copyright-Verstöße.

Read full article about: Arm stellt erstmals eigenen Chip her und entwickelt mit Meta eine CPU für KI-Rechenzentren

Arm hat erstmals in seiner 35-jährigen Geschichte einen eigenen Chip hergestellt und damit sein bisheriges Geschäftsmodell erweitert, bei dem das Unternehmen nur Chip-Designs an Firmen wie Apple oder Nvidia lizenzierte. Die neue CPU namens "Arm AGI" wurde gemeinsam mit Meta entwickelt und soll KI-Arbeitslasten in Rechenzentren unterstützen.

Der Chip verfügt über bis zu 136 Kerne, läuft mit bis zu 3,7 GHz und wird in TSMCs 3-nm-Verfahren gefertigt. Laut Arm-CEO Rene Haas soll der Chip leistungsstarkes, energieeffizientes Rechnen für KI-Infrastruktur ermöglichen. Meta will die CPU zusammen mit seinem eigenen MTIA-Beschleuniger einsetzen, wie Metas Infrastruktur-Chef Santosh Janardhan erklärte.

Weitere Partner sind unter anderem OpenAI, Cerebras, Cloudflare und Lenovo. Erste Systeme sind bereits verfügbar, breitere Verfügbarkeit wird für die zweite Jahreshälfte 2026 erwartet.

Read full article about: OpenAI-CEO Altman kündigt intern "sehr starkes" KI-Modell an, das die "Wirtschaft wirklich beschleunigen" kann

OpenAI hat das Pretraining seines neuen KI-Modells mit dem Codenamen "Spud" abgeschlossen, wie CEO Sam Altman laut The Information in einem internen Memo mitteilte. Altman sagte den Mitarbeitern, dass das Unternehmen in "wenigen Wochen" ein "sehr starkes Modell" erwarte, das "die Wirtschaft wirklich beschleunigen" könne.

Altman schrieb: "Die Dinge bewegen sich schneller, als viele von uns erwartet haben." Passend dazu wird die Produktorganisation von Fidji Simo in "AGI Deployment" umbenannt. Unter anderem um Rechenkapazität für Spud freizumachen, wird OpenAI seine Video-App Sora einstellen.

Spud könnte auch die Grundlage für OpenAIs geplante Desktop-"Superapp" bilden, die ChatGPT, den Coding-Agenten Codex und den Browser Atlas vereint. OpenAI muss aufholen auf Anthropic, das insbesondere mit Claude Code erfolgreich agentische KI-Systeme für Geschäftskunden anbietet und derzeit stark punktet. OpenAIs Codex und Frontier haben hier noch das Nachsehen.

Read full article about: OpenAI stockt Finanzierungsrunde auf mehr als 120 Milliarden Dollar auf

OpenAI stockt seine Finanzierungsrunde um weitere 10 Milliarden Dollar auf über 120 Milliarden Dollar auf, wie CFO Sarah Friar CNBC mitteilt. Die Erhöhung war bereits bei der Ankündigung der 110-Milliarden-Runde in Aussicht gestellt worden. Die Runde gilt als möglicherweise letzte private Finanzierung vor einem Börsengang noch dieses Jahr.

Neue Investoren sind Andreessen Horowitz, D.E. Shaw Ventures, MGX, TPG und T. Rowe Price. Auch Microsoft beteiligt sich, das Friar als "großartigen Partner" bezeichnet. In einem geleakten Investorendokument nennt OpenAI Microsoft aber auch als größtes Risiko – logisch, denn OpenAI bleibt bei Finanzierung und Compute stark abhängig von Microsoft.

Hinzu kommt: Die Partnerschaft hat über die Jahre gelitten. Aktuell zeigt sich das an zwei Manövern: Microsoft will wieder verstärkt eigene Modelle bis zur "Superintelligenz" trainieren und integriert Anthropics Cowork-Technologie in Copilot, ausgerechnet von OpenAIs größtem B2B-Widersacher. Microsofts Rolle als verlässlicher Distributionspartner für OpenAI-Modelle scheint aufzuweichen.

Anthropic gibt Claude Code einen Sicherheits-Autopiloten

Entwickler, die Claude Code nutzen, standen bisher vor einem Dilemma: entweder jede Aktion einzeln genehmigen oder alle Sicherheitschecks abschalten. Anthropics neuer Auto Mode soll einen Mittelweg bieten.

Read full article about: Beliebter KI-Modell-Router LiteLLM gehackt: Nutzer sollen sofort alle Zugangsdaten wechseln

Die Open-Source-Bibliothek LiteLLM, ein beliebter Proxy für KI-Sprachmodell-APIs, wurde über das Python-Paketverzeichnis PyPI mit Schadsoftware infiziert. Laut dem Sicherheitsforscher Callum McMahon von Futuresearch wurden am 24. März 2026 die Versionen 1.82.7 und 1.82.8 kompromittiert, ohne entsprechende Freigabe im offiziellen GitHub-Repository.

Die Schadsoftware stiehlt SSH-Schlüssel, Cloud-Zugangsdaten, Datenbank-Passwörter und Kubernetes-Konfigurationen, verschlüsselt diese und sendet sie an einen fremden Server. Zusätzlich verbreitet sie sich in Kubernetes-Clustern und richtet dauerhafte Hintertürchen ein. Entdeckt wurde der Angriff, als das Paket innerhalb des Code-Editors Cursor abstürzte. Der LiteLLM-Autor selbst sei "sehr wahrscheinlich vollständig kompromittiert", so McMahon. Betroffene sollten sofort alle Zugangsdaten wechseln. Details gibt es bei Github.

Jim Fan, Director of AI bei NVIDIA, nennt den Vorfall auf LinkedIn "reinen Albtraum-Stoff". KI-Agenten könnten über verseuchte Dateien im Dateisystem manipuliert werden, jede Textdatei im Kontext werde so zum Angriffsvektor und ein kompromittierter Agent könnte den Nutzer auf allen Konten täuschend echt imitieren. Fan empfiehlt, Abhängigkeiten zu minimieren und stattdessen eigene, schlanke Lösungen zu bauen, und prognostiziert eine ganze neue Branche für "De-Vibing": klassische, geprüfte Software, die als Schutzschicht um KI-Agenten gelegt wird.

Read full article about: Google Deepminds Gemini 3.1 Flash-Lite generiert Webseiten fast in Echtzeit

Google Deepminds Gemini 3.1 Flash-Lite kann Webseiten fast in Echtzeit rendern. Der Konzern hat eine neue Pseudo-Browser-Demo veröffentlicht, die das Prinzip veranschaulicht: Einfach einen Prompt für die gewünschte Seite eingeben, und sie wird live erstellt. Natürlich hat sie keine Konsistenz, und die Inhalte driften schnell in Unsinn ab. Aber mit engen Leitplanken könnte es interessante Einsatzszenarien geben, etwa schnelle UI-Entwürfe, um Ideen zu visualisieren. Testen kann man die App kostenlos im Google-AI-Studio.

Gemini 3.1 Flash-Lite ist laut Google 2,5-mal schneller beim ersten Antwort-Token als Gemini 2.5 Flash und liefert über 360 Tokens pro Sekunde. Bei multimodalen Aufgaben schlägt es laut Artificial Analysis größere Modelle wie Claude Opus 4.6. Allerdings hat sich der Output-Preis mehr als verdreifacht: 1,50 Dollar pro Million Tokens statt zuvor 0,40 Dollar. Das Modell ist seit Anfang März im Google AI Studio und Vertex AI verfügbar.

Read full article about: Google Deepmind bringt Gemini-KI in Roboter des Münchner Unternehmens Agile Robots

Das Münchner Unternehmen Agile Robots und Google Deepmind haben eine strategische Forschungspartnerschaft geschlossen. Ziel ist es, die Gemini-Robotics-KI-Modelle von Google Deepmind in die Robotik-Hardware von Agile Robots zu integrieren. So sollen anpassungsfähige, intelligente Roboter primär für industrielle Umgebungen entstehen, in denen ein "akuter und wachsender Bedarf an anpassungsfähiger, verlässlicher Automatisierung besteht".

Carolina Parada, Leiterin der Robotik-Abteilung bei Google Deepmind, bezeichnete die Zusammenarbeit als "wichtigen Schritt, um die Wirkung von KI in die reale Welt zu übertragen". Daten aus dem realen Betrieb sollen die KI-Modelle laufend verbessern, die wiederum die Fähigkeiten der Roboter erweitern.

Das 2018 in München gegründete Unternehmen Agile Robots beschäftigt mehr als 2.500 Mitarbeitende und hat nach eigenen Angaben weltweit bereits über 20.000 Robotiklösungen installiert. Google Deepmind hatte zuletzt mit Gemini Robotics 1.5 und Gemini Robotics-ER 1.5 zwei neue KI-Modelle vorgestellt, die Roboter dazu befähigen sollen, komplexe Aufgaben in der physischen Welt eigenständig zu planen, zu verstehen und auszuführen.