Anzeige
Skip to content
Read full article about: OpenAI-Forscher stellt klar: Keine Beteiligung an individuellen Nutzer-Entdeckungen geplant

OpenAI-Forscher Kevin Weil widerspricht Berichten, wonach das Unternehmen an den Entdeckungen einzelner Nutzer, Unternehmer oder Wissenschaftler beteiligt sein wolle. Zuvor hatte OpenAIs Finanzchefin Sarah Friar in einem Blog-Post geschrieben, dass OpenAI Lizenzvereinbarungen auf Basis von geistigem Eigentum sowie ergebnisbasierte Preismodelle plane, die an der geschaffenen Wertschöpfung beteiligt seien.

Weil stellt auf X klar: Friar habe damit nicht gemeint, dass OpenAI Anteile an individuellen Entdeckungen beanspruchen wolle. Stattdessen sei es Friar um das Interesse großer Organisationen an Lizenz- oder IP-basierten Partnerschaften gegangen. OpenAI sei offen für kreative Kooperationen mit Unternehmen. Solche Vereinbarungen würden aber individuell ausgehandelt und beträfen keine einzelnen Nutzer.

Zum Thema Prism, OpenAIs neuer Umgebung für wissenschaftliches Schreiben, erklärt Weil: Nutzer können in den ChatGPT-Einstellungen selbst festlegen, ob ihre anonymisierten Daten zur Modellverbesserung verwendet werden. Diese Einstellung gelte auch für Prism.

45 Prozent von Microsofts Cloud-Auftragsbestand stammen von OpenAI

Microsoft übertrifft die Erwartungen mit Rekord-Cloud-Umsätzen, doch die Aktie stürzt ab. Investoren zweifeln, ob sich die Milliarden-Investitionen in KI-Infrastruktur auszahlen. Verbrennt Microsoft mit seiner KI-Offensive mehr Geld, als es verdient?

Read full article about: Nvidia, Amazon und Microsoft könnten bis zu 60 Milliarden Dollar in OpenAI pumpen

OpenAI bekommt offenbar die 100 Milliarden voll. Laut The Information verhandelt das KI-Unternehmen mit Nvidia, Microsoft und Amazon über Investitionen von bis zu 60 Milliarden Dollar. Nvidia könnte bis zu 30 Milliarden Dollar investieren, Amazon mehr als 10, möglicherweise sogar mehr als 20 Milliarden Dollar, und Microsoft weniger als 10 Milliarden Dollar. Dazu kommt der bestehende Investor SoftBank mit bis zu 30 Milliarden Dollar. Die Finanzierungsrunde könnte also in den zuvor gerüchteten rund 100 Milliarden US-Dollar bei einer Bewertung von rund 730 Milliarden Dollar enden.

Kritiker dürften hier auf die Zirkularität dieser Deals hinweisen: Einige der potenziellen Investoren wie Microsoft und Amazon sind gleichzeitig Geschäftspartner, die Server und Cloud-Dienste an OpenAI verkaufen. Das investierte Geld fließt also teilweise wieder an die Investoren zurück. Die Deals halten den KI-Hype am Laufen, ohne dass der tatsächliche finanzielle Nutzen von generativer KI beim Endnutzer eingepreist wird.

Read full article about: Cursor erfasst neue Codebasen in 21 Sekunden statt vier Stunden

Der KI-Coding-Assistent Cursor soll die Indexierungszeit großer Codebasen von über vier Stunden auf 21 Sekunden verkürzen. Statt bei jedem neuen Nutzer einen Index von Grund auf neu zu erstellen, nutzt Cursor bestehende Indizes von Teammitgliedern wieder. Das funktioniere, weil Kopien derselben Codebasis innerhalb eines Teams im Durchschnitt zu 92 Prozent identisch seien, schreibt das Unternehmen in einem Blogbeitrag.

Diagramm: Merkle-Bäume vergleichen Dateihashes von Client und Server, synchronisieren nur unterschiedliche Einträge und löschen fehlende Dateien.
Merkle-Bäume vergleichen Dateihashes zwischen Client und Repository, synchronisieren nur abweichende Dateien und löschen fehlende Einträge.

Die semantische Suche, die durch diese Indizes ermöglicht wird, verbessere laut einer Cursor-Studie die Genauigkeit von KI-Antworten um 12,5 Prozent. Die Technik basiert auf Merkle-Bäumen, einer Datenstruktur mit kryptografischen Hashes. Diese stellt sicher, dass Nutzer nur Code sehen, auf den sie tatsächlich Zugriff haben. Bei durchschnittlichen Projekten sinke die Wartezeit bis zur ersten Suchanfrage von knapp 8 Sekunden auf 525 Millisekunden. Das Start-up hinter Cursor hatte im Oktober 2025 Version 2.0 mit einem eigenen Coding-Modell veröffentlicht und erzielt mittlerweile einen Jahresumsatz von rund 500 Millionen Dollar.

Read full article about: Google bereitet wohl native Audio-Fähigkeiten für Gemini 3 Flash mit Stimmenklonen vor

Google arbeitet an einer Funktion, mit der Nutzer ihre eigene Stimme in AI Studio klonen können. Eine versteckte Option namens "Create Your Voice" erscheint laut TestingCatalog bei der Auswahl des "Flash Native Audio Preview"-Modells, das derzeit mit Gemini 2.5 Flash verbunden ist. Bei Auswahl öffnet sich ein Fenster zum Aufnehmen und Hochladen von Audio, die Funktion ist aber noch nicht aktiv. Die Entdeckung deutet darauf hin, dass Google native Audio-Fähigkeiten für Gemini 3 Flash vorbereitet. Damit könnten Entwickler künstliche Stimmen erzeugen, die auf aufgenommenen Sprachproben basieren. Google hatte erst im Dezember 2025 ein Update für Gemini 2.5 Flash Native Audio veröffentlicht, das die Sprachqualität verbesserte und Anweisungen präziser umsetzt.

Screenshot von Google AI Studio im Playground-Modus. Rechts in der Seitenleiste ist unter der Stimmauswahl "Zephyr" ein Button mit der Aufschrift "Create your voice" zu sehen, auf den ein roter Pfeil zeigt. Oben rechts steht die Modellbezeichnung Gemini 2.5 Flash Native Audio Preview.
Die versteckte Option "Create your voice" in Google AI Studio deutet auf kommende Funktionen zum Klonen von Stimmen hin.

Zusätzlich wurde eine neue Option gefunden, mit der sich ganze Code-Sammlungen über GitHub-Repositories importieren lassen. Auch die Startseite wird allem Anschein nach überarbeitet und zeigt künftig Aktivitäten und Nutzungsstatistiken getrennt an.

Read full article about: Decart stellt Lucy 2.0 vor: KI-Modell transformiert Videos in Echtzeit via Prompt

Das KI-Startup Decart hat Lucy 2.0 vorgestellt, ein Echtzeit-Modell zur Videotransformation. Das System kann Live-Videos mit 30 Bildern pro Sekunde in 1080p-Auflösung bei nahezu null Latenz verändern. Möglich sind Charakterwechsel, Produktplatzierungen, Kleidungsänderungen und komplette Umgebungstransformationen – alles gesteuert durch Textbefehle und Referenzbilder während das Video noch läuft.

Lucy 2.0 nutzt laut Decart keine Tiefenkarten oder 3D-Modelle. Das physikalische Verhalten entstehe allein durch gelerntes Wissen aus Videodaten. Eine neue Methode namens "Smart History Augmentation" soll verhindern, dass die Bildqualität über Zeit abnimmt. Laut dem Startup kann das Modell so stundenlang stabil laufen.

Die Technik läuft auf AWS Trainium3-Chips. Eine Demo ist unter lucy.decart.ai verfügbar.