Anzeige
Skip to content
Read full article about: OpenAI behauptet, Sora-App für Android in nur 28 Tagen mit KI-Hilfe entwickelt zu haben

OpenAI behauptet, dass die Sora Android-App dank der Code-KI Codex in nur 28 Tagen entwickelt wurde. Laut einem Bericht der OpenAI-Mitarbeiter Patrick Hum und RJ Marsan nutzte ein kleines Team von vier Ingenieuren eine frühe Version des Modells GPT-5.1-Codex, um die Anwendung zu erstellen. Dabei wurden rund fünf Milliarden Token verbraucht.

Die KI übernahm laut den Autoren den Großteil der Schreibarbeit, indem sie beispielsweise bestehenden iOS-Code in Android-Code übersetzte. Die menschlichen Entwickler konzentrierten sich hingegen auf die Architektur, Planung und Überprüfung der Ergebnisse. Codex habe dabei wie ein neuer, erfahrener Kollege agiert, der jedoch klare Anweisungen benötigte. Trotz der kurzen Entwicklungszeit läuft die App laut OpenAI zu 99,9 % stabil. Eine detaillierte Beschreibung des Vorgehens gibt es im Blog von OpenAI.

Read full article about: Columbia-Universität startet Tracker für KI-Deals und Klagen von Medienunternehmen

KI verändert die Medienwelt; manche Medienunternehmen machen mit, andere wehren sich gegen mutmaßliche Copyright-Verletzungen, einige machen beides. Das Tow Center der Columbia University dokumentiert diese Dynamik nun in einem speziellen "AI Deals and Disputes Tracker". Das Werkzeug, Teil des Projekts "Platforms and Publishers", überwacht systematisch Entwicklungen zwischen Nachrichtenverlagen und KI-Unternehmen. Erfasst werden dabei Klagen, geschäftliche Deals sowie finanzielle Zuschüsse, die auf öffentlich zugänglichen Informationen basieren.

via Tow

Die Übersicht wird laut Tow Center jeweils am Monatsanfang aktualisiert; der letzte dokumentierte Stand datiert vom 12. Dezember 2025. Ziel ist es, einen Überblick über die rechtlichen und wirtschaftlichen Verschiebungen im Markt zu geben. Für die Zusammenstellung ist Klaudia Jaźwińska verantwortlich, die auch Hinweise zu fehlenden Entwicklungen entgegennimmt.

Read full article about: Google verbessert "Search Live" mit neuer KI-Stimme

Google stellt seine neue Such-Stimme für "Search Live" vor. Dank eines neuen Gemini-Modells für Audio klingen die Antworten nun natürlicher und flüssiger, teilt Google in seinem Blog mit. Search Live ermöglicht Gespräche in Echtzeit und zeigt dabei passende Webseiten an. Die Funktion ist Teil des sogenannten "AI Mode" der Google-Suche.

Die Aktualisierung wird in der kommenden Woche für alle Search-Live-Nutzer in den USA verfügbar sein. Nutzer können die Google-App auf Android oder iOS öffnen, auf das Live-Symbol tippen und ihre Frage laut stellen.

Das langfristige Ziel ist für Google, wie auch für OpenAI, einen nützlichen Alltagsassistenten zu entwickeln, der dem Nutzer möglichst viele Aufgaben einfach per Sprachbefehl abnehmen kann.

Read full article about: Runway stellt erstes "General World Model" vor und erweitert Gen-4.5 um neue Funktionen

Runway verbessert Gen-4.5 und hat GWM-1 vorgestellt, das erste sogenannte "General World Model" des Unternehmens. Gen-4.5 unterstützt nun native Audioerzeugung und Audiobearbeitung sowie Multi-Shot-Editing, bei dem Änderungen in einer Szene auf das gesamte Video übertragen werden können.

Das neue GWM-1 baut eine interne Darstellung einer Umgebung auf und nutzt diese, um künftige Ereignisse in Echtzeit zu simulieren. Es basiert auf Gen-4.5 und erzeugt Videos Bild für Bild, die sich interaktiv steuern lassen – etwa durch Kamerabewegungen, Roboterbefehle oder Audio.

Das Weltmodell gibt es in drei Varianten: GWM Worlds für erkundbare Umgebungen, GWM Avatars für sprechende Charaktere mit realistischer Mimik und Lippensynchronisation, sowie GWM Robotics zur Erzeugung synthetischer Trainingsdaten für Roboter. Zukünftig sollen die Bereiche in einem Modell vereint werdne.

Auch andere Labore wie Google Deepmind oder das neue Start-up des KI-Forschers Yann LeCun möchten solche Weltmodelle als Weiterentwicklung und Erweiterung herkömmlicher Sprachmodelle ohne Weltverständnis entwickeln.

Read full article about: Anthropic hat Google-Chips für 21 Milliarden Dollar bei Broadcom bestellt

Das KI-Labor Anthropic hat bei Broadcom Bestellungen im Gesamtwert von 21 Milliarden US-Dollar für Googles KI-Chips aufgegeben. Broadcom-CEO Hock Tan erklärte, dass das Start-up sogenannte "Ironwood Racks" kauft, die mit Googles Tensor Processing Units (TPUs) bestückt sind.

Ende Oktober hatten Anthropic und Google eine umfassende Cloud-Partnerschaft im Wert von mehreren zehn Milliarden Dollar angekündigt. Die Vereinbarung gibt Anthropic zusätzlich Zugang zu bis zu einer Million Google TPUs und soll 2026 über ein Gigawatt an neuer KI-Rechenkapazität bereitstellen.  Anthropic verfolgt eine Multi-Cloud-Strategie und verteilt seine Arbeitslasten auf Googles TPUs, Amazons Trainium-Chips und Nvidias GPUs.

Read full article about: Trump droht Bundesstaaten: Stoppt eure KI-Gesetze oder verliert Milliarden

US-Präsident Donald Trump unterzeichnete am Donnerstag einen Erlass (Executive Order), der Bundesstaaten mit dem Entzug von Fördermitteln droht, sollten ihre KI-Vorschriften die amerikanische Innovation behindern. Trump argumentierte vor Reportern, dass unterschiedliche staatliche Regelwerke die Industrie bremsen. Der Handelsminister ist nun angewiesen, Gesetze zu prüfen und bei Konflikten Gelder aus dem 42 Milliarden Dollar schweren Breitband-Fonds zu blockieren. Frühere Initiativen, das Verbot durchzusetzen, waren gescheitert.

Der Erlass richtet sich auch gegen Anti-Diskriminierungs-Regeln in Staaten wie Colorado, die laut der Administration zu "ideologischer Voreingenommenheit" führen. Während Firmen wie Google und OpenAI nationale Standards begrüßen, warnte der Abgeordnete Don Beyer, der Erlass schaffe einen "gesetzlosen Wilden Westen" und verletze möglicherweise die Verfassung, da er Sicherheitsreformen der Staaten untergrabe.

Read full article about: Google öffnet seine Infrastruktur via MCP für KI-Modelle

Google integriert das von Anthropic entwickelte Model Context Protocol (MCP) direkt in seine Cloud-Infrastruktur. MCP dient als universeller Standard, um KI-Modelle mit externen Daten und Werkzeugen zu verbinden, ohne für jede Anwendung neue Schnittstellen programmieren zu müssen.

Google bietet ab sofort verwaltete Server an, die KI-Agenten den direkten Zugriff auf Dienste wie Google Maps, BigQuery sowie die Compute und Kubernetes Engine ermöglichen. Damit sollen KIs beispielsweise eigenständig Infrastruktur verwalten oder Reiserouten planen können. Über die Plattform Apigee lassen sich zudem unternehmenseigene APIs als KI-Werkzeuge bereitstellen. Google kündigte an, die Unterstützung zeitnah auf weitere Dienste wie Cloud Storage und Datenbanken auszuweiten.

Read full article about: Google stellt neue KI-Suche-Funktionen für mehr Sichtbarkeit für Webseiten vor

Google stellt neue Funktionen vor, um Webseiten in der KI-Suche mehr Sichtbarkeit zu geben. Oder wie mein Kollege Max es sagt: "Toll, das Internet ist gerettet." Im "AI Mode" zeigt Google künftig mehr Links und ergänzt kurze Hinweise, warum sie nützlich sein könnten. Auch Inline‑Links sollen stärker eingebunden werden. Bisherige Studien zeigen, dass KI-Antworten die Klickzahlen auf Webseiten massiv reduzieren.

Google

Links von abonnierten und beliebten Medien werden außerdem in einem eigenen Karussell angezeigt, zuerst in der Gemini‑App. Das passiert auf Basis von Abos und der bevorzugten Nachrichtenquellen von Nutzern.

Zudem testet Google mit Verlagen wie „Der Spiegel“ und „The Guardian“ KI‑basierte Artikelüberblicke und Audio‑Briefings in Google News. Für Echtzeitdaten in der Gemini‑App arbeitet Google unter anderem mit der Associated Press zusammen. Solche exklusiven Kooperationen sind Kalkül: Google schafft so ein Gefangenendilemma für andere Webseiten‑Betreiber.

Die Ankündigungen kommen kurz nachdem die EU mitgeteilt hat, ein Kartellverfahren wegen möglichem Marktmissbrauch bei der KI-Datennutzung gegen Google zu eröffnen.

Read full article about: Meta plant geschlossenes KI-Modell "Avocado" und bricht mit seiner Open-Source-Linie

Meta richtet seine Arbeit auf ein neues KI-Modell mit dem Namen Avocado aus, das laut mit der Planung vertrauten Personen im kommenden Frühjahr erscheinen könnte. Es soll als geschlossenes Modell starten, damit Meta Zugang verkaufen kann. Das wäre ein klarer Wechsel von der bisher offenen Linie. Die Führung setzt dafür stark auf Alexandr Wang, der nach dem Deal mit Scale AI ins Unternehmen kam. Intern verlor die offene Strategie angeblich an Gewicht, nachdem Llama 4 enttäuscht hatte.

Laut Quellen von Bloomberg nutzt das Team für das Training von Avocado mehrere externe Modelle, darunter Gemma von Google, gpt-oss von OpenAI und Qwen von Alibaba. Die Verwendung chinesischer Technik steht im Widerspruch zu früheren Warnungen von CEO Mark Zuckerberg vor Zensur durch China.

Read full article about: Devstral 2: Mistral AI veröffentlicht neue offene KI-Modelle für Programmierung

Mit Devstral 2 und Devstral Small 2 veröffentlicht Mistral AI eine neue Familie von Open-Source-Modellen für die Programmierung. Devstral 2 mit 123 Milliarden Parametern erreicht im SWE-Bench Verified Benchmark 72,2 Prozent und übertrifft damit viele andere offene Modelle. Laut Mistral AI ist es bis zu siebenmal kosteneffizienter als Claude Sonnet. Es benötigt vier H100-Class-GPUs. Das kleinere Modell Devstral Small 2 (24 Milliarden Parameter) lässt sich dagegen auf handelsüblicher Hardware lokal betreiben.

Während Devstral Small 2 unter der freien Apache-2.0-Lizenz steht, erscheint das große Devstral 2 unter einer "Modified MIT License" mit Umsatzgrenze: Unternehmen mit mehr als 20 Millionen US-Dollar Monatsumsatz müssen eine kommerzielle Lizenz beantragen oder das Modell via API nutzen. Diese Einschränkung gilt auch für alle Ableitungen oder Modifikationen (Fine-Tunes) des Modells.

Ergänzend führt das Unternehmen Mistral Vibe ein, ein Open-Source-Tool für die Befehlszeile. Vibe ermöglicht es Entwicklern, Code-Änderungen über mehrere Dateien hinweg mittels natürlicher Sprache zu automatisieren und Fehler zu beheben. Devstral 2 ist zunächst kostenlos über die API verfügbar, später kostet es 0,40 US-Dollar pro Million Input-Token.