Anzeige
Skip to content
Read full article about: OpenAI behauptet, Sora-App für Android in nur 28 Tagen mit KI-Hilfe entwickelt zu haben

OpenAI behauptet, dass die Sora Android-App dank der Code-KI Codex in nur 28 Tagen entwickelt wurde. Laut einem Bericht der OpenAI-Mitarbeiter Patrick Hum und RJ Marsan nutzte ein kleines Team von vier Ingenieuren eine frühe Version des Modells GPT-5.1-Codex, um die Anwendung zu erstellen. Dabei wurden rund fünf Milliarden Token verbraucht.

Die KI übernahm laut den Autoren den Großteil der Schreibarbeit, indem sie beispielsweise bestehenden iOS-Code in Android-Code übersetzte. Die menschlichen Entwickler konzentrierten sich hingegen auf die Architektur, Planung und Überprüfung der Ergebnisse. Codex habe dabei wie ein neuer, erfahrener Kollege agiert, der jedoch klare Anweisungen benötigte. Trotz der kurzen Entwicklungszeit läuft die App laut OpenAI zu 99,9 % stabil. Eine detaillierte Beschreibung des Vorgehens gibt es im Blog von OpenAI.

Read full article about: Google verbessert "Search Live" mit neuer KI-Stimme

Google stellt seine neue Such-Stimme für "Search Live" vor. Dank eines neuen Gemini-Modells für Audio klingen die Antworten nun natürlicher und flüssiger, teilt Google in seinem Blog mit. Search Live ermöglicht Gespräche in Echtzeit und zeigt dabei passende Webseiten an. Die Funktion ist Teil des sogenannten "AI Mode" der Google-Suche.

Die Aktualisierung wird in der kommenden Woche für alle Search-Live-Nutzer in den USA verfügbar sein. Nutzer können die Google-App auf Android oder iOS öffnen, auf das Live-Symbol tippen und ihre Frage laut stellen.

Das langfristige Ziel ist für Google, wie auch für OpenAI, einen nützlichen Alltagsassistenten zu entwickeln, der dem Nutzer möglichst viele Aufgaben einfach per Sprachbefehl abnehmen kann.

Read full article about: Runway stellt erstes "General World Model" vor und erweitert Gen-4.5 um neue Funktionen

Runway verbessert Gen-4.5 und hat GWM-1 vorgestellt, das erste sogenannte "General World Model" des Unternehmens. Gen-4.5 unterstützt nun native Audioerzeugung und Audiobearbeitung sowie Multi-Shot-Editing, bei dem Änderungen in einer Szene auf das gesamte Video übertragen werden können.

Das neue GWM-1 baut eine interne Darstellung einer Umgebung auf und nutzt diese, um künftige Ereignisse in Echtzeit zu simulieren. Es basiert auf Gen-4.5 und erzeugt Videos Bild für Bild, die sich interaktiv steuern lassen – etwa durch Kamerabewegungen, Roboterbefehle oder Audio.

Das Weltmodell gibt es in drei Varianten: GWM Worlds für erkundbare Umgebungen, GWM Avatars für sprechende Charaktere mit realistischer Mimik und Lippensynchronisation, sowie GWM Robotics zur Erzeugung synthetischer Trainingsdaten für Roboter. Zukünftig sollen die Bereiche in einem Modell vereint werdne.

Auch andere Labore wie Google Deepmind oder das neue Start-up des KI-Forschers Yann LeCun möchten solche Weltmodelle als Weiterentwicklung und Erweiterung herkömmlicher Sprachmodelle ohne Weltverständnis entwickeln.

Read full article about: Anthropic hat Google-Chips für 21 Milliarden Dollar bei Broadcom bestellt

Das KI-Labor Anthropic hat bei Broadcom Bestellungen im Gesamtwert von 21 Milliarden US-Dollar für Googles KI-Chips aufgegeben. Broadcom-CEO Hock Tan erklärte, dass das Start-up sogenannte "Ironwood Racks" kauft, die mit Googles Tensor Processing Units (TPUs) bestückt sind.

Ende Oktober hatten Anthropic und Google eine umfassende Cloud-Partnerschaft im Wert von mehreren zehn Milliarden Dollar angekündigt. Die Vereinbarung gibt Anthropic zusätzlich Zugang zu bis zu einer Million Google TPUs und soll 2026 über ein Gigawatt an neuer KI-Rechenkapazität bereitstellen.  Anthropic verfolgt eine Multi-Cloud-Strategie und verteilt seine Arbeitslasten auf Googles TPUs, Amazons Trainium-Chips und Nvidias GPUs.

Disney mahnt Google ab und schließt Partnerschaft mit OpenAI

Der Medienkonzern wird der erste große Content-Partner für OpenAIs Videoplattform Sora. CEO Bob Iger verteidigt den Deal gegen Kritik aus der Kreativbranche und zieht Parallelen zur Einführung von iTunes.

Google stellt neuen Deep-Research-Agenten und neue KI-API vor

Google aktualisiert sein Deep-Research-System mit einer neuen Version basierend auf Gemini 3 Pro. Entwickler „freuen“ sich über einen neuen API-Standard, der agentische Fähigkeiten besser unterstützen soll.

Read full article about: Google öffnet seine Infrastruktur via MCP für KI-Modelle

Google integriert das von Anthropic entwickelte Model Context Protocol (MCP) direkt in seine Cloud-Infrastruktur. MCP dient als universeller Standard, um KI-Modelle mit externen Daten und Werkzeugen zu verbinden, ohne für jede Anwendung neue Schnittstellen programmieren zu müssen.

Google bietet ab sofort verwaltete Server an, die KI-Agenten den direkten Zugriff auf Dienste wie Google Maps, BigQuery sowie die Compute und Kubernetes Engine ermöglichen. Damit sollen KIs beispielsweise eigenständig Infrastruktur verwalten oder Reiserouten planen können. Über die Plattform Apigee lassen sich zudem unternehmenseigene APIs als KI-Werkzeuge bereitstellen. Google kündigte an, die Unterstützung zeitnah auf weitere Dienste wie Cloud Storage und Datenbanken auszuweiten.