Anzeige
Skip to content
Read full article about: Google Translate startet Live-Übersetzung per Kopfhörer als Android-Beta – Gemini erhält Tonfall und Rhythmus

Google integriert Gemini in Google Translate für bessere Textübersetzungen und startet eine Beta für Echtzeit-Sprachübersetzung über Kopfhörer. Gemini versteht nun Redewendungen, lokale Ausdrücke und Slang besser und überträgt sie natürlicher, statt sie wörtlich zu übersetzen. Die verbesserte Textübersetzung startet in den USA und Indien für Englisch und fast 20 Sprachen, darunter Spanisch, Hindi, Chinesisch, Japanisch und Deutsch. Die App ist für Android und iOS sowie im Web verfügbar.

Die Live-Übersetzung nutzt Geminis Sprache-zu-Sprache-Fähigkeiten und behält Tonfall, Betonung und Rhythmus des Sprechers bei. Die Beta ist zunächst auf Android in den USA, Mexiko und Indien verfügbar und unterstützt über 70 Sprachen. iOS und weitere Länder folgen 2026.

Zusätzlich erweitert Google die Sprachlern-Tools um fast 20 neue Länder, darunter Deutschland, Indien, Schweden und Taiwan.

Read full article about: Skills-System bei OpenAI entdeckt: ChatGPT soll Aufgaben mit Modulen effizienter lösen

OpenAI hat offenbar das von Anthropic im Oktober eingeführte Skills-System adaptiert. Darauf deutet ein Fund des Nutzers Elias Judin hin, der entsprechende Hinweise veröffentlichte.

Er stieß auf Verzeichnisse wie „pdfs" und „spreadsheets", die jeweils Dateien mit dem Namen „skill.md" enthielten. Diese Dateien enthalten Anweisungen für den Umgang mit Dokumenten und Tabellen. Ein Skill besteht im Kern aus einem Ordner mit einer Markdown-Datei und optionalen Ressourcen wie Skripten. Jedes KI-Werkzeug mit Dateisystemzugriff kann diese nutzen. Bei OpenAI tauchte die Unterstützung für Skills im Codex-CLI-Tool und in ChatGPT selbst auf.

Screenshot Github

Die Struktur legt nahe, dass OpenAI die Werkzeuge der KI nun ähnlich wie Apps oder Module organisiert, um spezifische Aufgaben zu lösen. Judin dokumentierte seine Entdeckung, die er nach eigenen Angaben mit einem „5.2 pro"-Modell machte, bei Github.

Das modulare Skill-System wurde erstmals von Anthropic im Oktober vorgestellt, damit der KI-Assistent Claude spezialisierte Aufgaben durch automatisch geladene Skripte und Ressourcen effizienter erledigen kann.

Read full article about: OpenAI behauptet, Sora-App für Android in nur 28 Tagen mit KI-Hilfe entwickelt zu haben

OpenAI behauptet, dass die Sora Android-App dank der Code-KI Codex in nur 28 Tagen entwickelt wurde. Laut einem Bericht der OpenAI-Mitarbeiter Patrick Hum und RJ Marsan nutzte ein kleines Team von vier Ingenieuren eine frühe Version des Modells GPT-5.1-Codex, um die Anwendung zu erstellen. Dabei wurden rund fünf Milliarden Token verbraucht.

Die KI übernahm laut den Autoren den Großteil der Schreibarbeit, indem sie beispielsweise bestehenden iOS-Code in Android-Code übersetzte. Die menschlichen Entwickler konzentrierten sich hingegen auf die Architektur, Planung und Überprüfung der Ergebnisse. Codex habe dabei wie ein neuer, erfahrener Kollege agiert, der jedoch klare Anweisungen benötigte. Trotz der kurzen Entwicklungszeit läuft die App laut OpenAI zu 99,9 % stabil. Eine detaillierte Beschreibung des Vorgehens gibt es im Blog von OpenAI.

Read full article about: Columbia-Universität startet Tracker für KI-Deals und Klagen von Medienunternehmen

KI verändert die Medienwelt; manche Medienunternehmen machen mit, andere wehren sich gegen mutmaßliche Copyright-Verletzungen, einige machen beides. Das Tow Center der Columbia University dokumentiert diese Dynamik nun in einem speziellen "AI Deals and Disputes Tracker". Das Werkzeug, Teil des Projekts "Platforms and Publishers", überwacht systematisch Entwicklungen zwischen Nachrichtenverlagen und KI-Unternehmen. Erfasst werden dabei Klagen, geschäftliche Deals sowie finanzielle Zuschüsse, die auf öffentlich zugänglichen Informationen basieren.

via Tow

Die Übersicht wird laut Tow Center jeweils am Monatsanfang aktualisiert; der letzte dokumentierte Stand datiert vom 12. Dezember 2025. Ziel ist es, einen Überblick über die rechtlichen und wirtschaftlichen Verschiebungen im Markt zu geben. Für die Zusammenstellung ist Klaudia Jaźwińska verantwortlich, die auch Hinweise zu fehlenden Entwicklungen entgegennimmt.

Read full article about: Google verbessert "Search Live" mit neuer KI-Stimme

Google stellt seine neue Such-Stimme für "Search Live" vor. Dank eines neuen Gemini-Modells für Audio klingen die Antworten nun natürlicher und flüssiger, teilt Google in seinem Blog mit. Search Live ermöglicht Gespräche in Echtzeit und zeigt dabei passende Webseiten an. Die Funktion ist Teil des sogenannten "AI Mode" der Google-Suche.

Die Aktualisierung wird in der kommenden Woche für alle Search-Live-Nutzer in den USA verfügbar sein. Nutzer können die Google-App auf Android oder iOS öffnen, auf das Live-Symbol tippen und ihre Frage laut stellen.

Das langfristige Ziel ist für Google, wie auch für OpenAI, einen nützlichen Alltagsassistenten zu entwickeln, der dem Nutzer möglichst viele Aufgaben einfach per Sprachbefehl abnehmen kann.

Read full article about: Runway stellt erstes "General World Model" vor und erweitert Gen-4.5 um neue Funktionen

Runway verbessert Gen-4.5 und hat GWM-1 vorgestellt, das erste sogenannte "General World Model" des Unternehmens. Gen-4.5 unterstützt nun native Audioerzeugung und Audiobearbeitung sowie Multi-Shot-Editing, bei dem Änderungen in einer Szene auf das gesamte Video übertragen werden können.

Das neue GWM-1 baut eine interne Darstellung einer Umgebung auf und nutzt diese, um künftige Ereignisse in Echtzeit zu simulieren. Es basiert auf Gen-4.5 und erzeugt Videos Bild für Bild, die sich interaktiv steuern lassen – etwa durch Kamerabewegungen, Roboterbefehle oder Audio.

Das Weltmodell gibt es in drei Varianten: GWM Worlds für erkundbare Umgebungen, GWM Avatars für sprechende Charaktere mit realistischer Mimik und Lippensynchronisation, sowie GWM Robotics zur Erzeugung synthetischer Trainingsdaten für Roboter. Zukünftig sollen die Bereiche in einem Modell vereint werdne.

Auch andere Labore wie Google Deepmind oder das neue Start-up des KI-Forschers Yann LeCun möchten solche Weltmodelle als Weiterentwicklung und Erweiterung herkömmlicher Sprachmodelle ohne Weltverständnis entwickeln.