Anzeige
Skip to content
Read full article about: OpenAI startet Character Cameos für Sora 2

OpenAI hat neue Funktionen für seinen KI-Videogenerator Sora veröffentlicht. Nutzer können nun eigene Charaktere, etwa Haustiere, Zeichnungen oder Fantasiefiguren, als sogenannte Cameos in Videos einfügen und diese mit einem Namen versehen. Die Figuren lassen sich speichern, erneut verwenden und optional mit anderen teilen.

Zum Start gibt es ein Halloween-Paket mit fünf Charakteren: Dracula, Frankenstein, Geist, Hexe und Kürbiskopf. Neu ist auch das sogenannte "Stitching", mit dem mehrere Videoclips zu einer längeren Erzählung verbunden werden können. Zudem zeigt eine neue Bestenliste im Suchbereich die am häufigsten verwendeten oder bearbeiteten Cameos an.

Universal Music Group setzt auf Lizenzen statt Klagen bei KI-Musik

Der weltgrößte Musikkonzern Universal Music Group ändert seine Strategie gegenüber KI-Unternehmen. Nach einer Klage gibt es eine Einigung mit Udio und eine neue Partnerschaft mit Stability AI. Das Ziel: KI-Musik kontrollieren und monetarisieren.

Google Gemini 3 kommt noch in diesem Jahr, aber CEO Pichai managt die Erwartungen

Google bereitet die Veröffentlichung des nächsten großen KI-Modells Gemini 3 vor. CEO Sundar Pichai bestätigte im aktuellen Earnings Call, dass das neue Flaggschiff-Modell noch 2025 erscheinen soll.

Neues OpenAI-Abkommen: Microsoft darf nun AGI bauen, Gremium entscheidet über Durchbruch

Microsoft und OpenAI haben die Bedingungen ihrer Partnerschaft in einem neuen Abkommen neu festgelegt. Die Vereinbarung gewährt beiden Unternehmen mehr Unabhängigkeit und definiert Microsofts Beteiligung nach der Umstrukturierung von OpenAI.

Adobe integriert KI-Assistenten und Dutzende externe KI-Modelle in Creative Cloud

Auf der Adobe MAX 2025 stellt Adobe dialogorientierte KI-Assistenten für Photoshop, Express und Firefly vor. Zudem können Nutzer zwischen Dutzenden KI-Modellen von Partnern wie Google, OpenAI und Runway wählen.

Read full article about: Qualcomm stellt erste KI-Chips für Rechenzentren vor

Qualcomm bringt zwei neue KI-Beschleunigerchips auf den Markt, den AI200 (ab 2026) und den AI250 (ab 2027), und steigt damit in den Markt für Rechenzentrums-Hardware ein. Die Chips sollen in flüssigkeitsgekühlten Server-Racks betrieben werden und richten sich an die KI-Inferenz, also das Ausführen von Modellen – nicht deren Training. Bisher war Qualcomm vor allem für Mobilfunkchips bekannt.

Mit dem Einstieg in den Datenzentrumsmarkt konkurriert das Unternehmen direkt mit Nvidia und AMD. Laut Qualcomm bieten die Chips Vorteile bei Stromverbrauch, Kosten und Speicher – mit bis zu 768 GB pro Karte. Erste Großkunden sind bereits bekannt, darunter ein saudischer Betreiber mit einem Bedarf von bis zu 200 Megawatt. Der Aktienkurs von Qualcomm stieg nach der Ankündigung um 15 Prozent.

Read full article about: Deepseek dominiert bei chinesischen Militär-Ausschreibungen

Chinas Militär nutzt die KI-Modelle heimischer Unternehmen wie Deepseek oder Alibaba für autonome Kampfsysteme, zeigt eine Analyse von Reuters.

Hunderte Forschungsarbeiten, Patente und Ausschreibungen der Volksbefreiungsarmee belegen demnach den systematischen Einsatz von KI für militärische Zwecke. Dazu gehören Roboterhunde, Drohnenschwärme mit autonomer Zielerkennung und Echtzeit-Schlachtfeldanalyse. Chinesische Militäreinrichtungen nutzen zudem laut Reuters weiterhin Nvidia-Chips, darunter auch unter US-Exportkontrollen stehende A100-Modelle, wie 35 Patentanträge zeigen.

Ein Dutzend Ausschreibungen der Armee verweisen dabei laut Reuters auf Deepseek, nur eine auf Alibabas Qwen. Forscher der Xi'an Technological University gaben etwa an, ihr Deepseek-System analysiere 10.000 Kampfszenarien in 48 Sekunden - herkömmliche Planungsteams bräuchten dafür 48 Stunden. Das US-Außenministerium warnte kürzlich, Deepseek unterstütze Chinas Militär- und Geheimdienstoperationen.

Drei Faktoren machen KI-Agenten deutlich intelligenter

Forschende identifizieren Datenqualität, Algorithmus-Design und Reasoning-Modi als Schlüssel für erfolgreiches KI-Training. Ein daraus entwickeltes 4-Milliarden-Parameter-Modell schlägt 32-Milliarden-Parameter-Konkurrenten.