Der KI-Coding-Assistent Cursor soll die Indexierungszeit großer Codebasen von über vier Stunden auf 21 Sekunden verkürzen. Statt bei jedem neuen Nutzer einen Index von Grund auf neu zu erstellen, nutzt Cursor bestehende Indizes von Teammitgliedern wieder. Das funktioniere, weil Kopien derselben Codebasis innerhalb eines Teams im Durchschnitt zu 92 Prozent identisch seien, schreibt das Unternehmen in einem Blogbeitrag.
Merkle-Bäume vergleichen Dateihashes zwischen Client und Repository, synchronisieren nur abweichende Dateien und löschen fehlende Einträge.
Die semantische Suche, die durch diese Indizes ermöglicht wird, verbessere laut einer Cursor-Studie die Genauigkeit von KI-Antworten um 12,5 Prozent. Die Technik basiert auf Merkle-Bäumen, einer Datenstruktur mit kryptografischen Hashes. Diese stellt sicher, dass Nutzer nur Code sehen, auf den sie tatsächlich Zugriff haben. Bei durchschnittlichen Projekten sinke die Wartezeit bis zur ersten Suchanfrage von knapp 8 Sekunden auf 525 Millisekunden. Das Start-up hinter Cursor hatte im Oktober 2025 Version 2.0 mit einem eigenen Coding-Modell veröffentlicht und erzielt mittlerweile einen Jahresumsatz von rund 500 Millionen Dollar.
Google arbeitet an einer Funktion, mit der Nutzer ihre eigene Stimme in AI Studio klonen können. Eine versteckte Option namens "Create Your Voice" erscheint laut TestingCatalog bei der Auswahl des "Flash Native Audio Preview"-Modells, das derzeit mit Gemini 2.5 Flash verbunden ist. Bei Auswahl öffnet sich ein Fenster zum Aufnehmen und Hochladen von Audio, die Funktion ist aber noch nicht aktiv. Die Entdeckung deutet darauf hin, dass Google native Audio-Fähigkeiten für Gemini 3 Flash vorbereitet. Damit könnten Entwickler künstliche Stimmen erzeugen, die auf aufgenommenen Sprachproben basieren. Google hatte erst im Dezember 2025 ein Update für Gemini 2.5 Flash Native Audio veröffentlicht, das die Sprachqualität verbesserte und Anweisungen präziser umsetzt.
Die versteckte Option "Create your voice" in Google AI Studio deutet auf kommende Funktionen zum Klonen von Stimmen hin.
Zusätzlich wurde eine neue Option gefunden, mit der sich ganze Code-Sammlungen über GitHub-Repositories importieren lassen. Auch die Startseite wird allem Anschein nach überarbeitet und zeigt künftig Aktivitäten und Nutzungsstatistiken getrennt an.
China hat ByteDance, Alibaba und Tencent die Genehmigung erteilt, Nvidias H200-KI-Chips zu kaufen, berichtet Reuters unter Berufung auf vier Insider. Die drei Tech-Riesen dürfen insgesamt mehr als 400.000 H200-Chips importieren. Weitere Unternehmen stehen auf einer Warteliste für spätere Genehmigungen.
Die Freigabe erfolgte während des China-Besuchs von Nvidia-Chef Jensen Huang, der am vergangenen Freitag in Shanghai eintraf und seitdem nach Peking und andere Städte gereist ist. Die chinesische Regierung knüpft die Genehmigungen an Bedingungen, die noch festgelegt werden. Ein fünfter Insider sagte Reuters, die Lizenzen seien zu restriktiv und Kunden würden die Genehmigungen noch nicht in Bestellungen umwandeln. Peking hat in der Vergangenheit diskutiert, Unternehmen zum Kauf einer bestimmten Quote heimischer Chips zu verpflichten, wenn sie ausländische Halbleiter importieren wollen.
Der H200 ist Nvidias zweitstärkster KI-Chip und liefert etwa sechsmal mehr Leistung als der H20. Chinesische Firmen haben laut Reuters mehr als zwei Millionen H200-Chips bestellt – weit mehr als Nvidia liefern kann. Peking hatte bisher gezögert, Importe zu erlauben, um die heimische Chipindustrie zu fördern. Die USA hatten den Export Anfang Januar genehmigt.
Das KI-Startup Decart hat Lucy 2.0 vorgestellt, ein Echtzeit-Modell zur Videotransformation. Das System kann Live-Videos mit 30 Bildern pro Sekunde in 1080p-Auflösung bei nahezu null Latenz verändern. Möglich sind Charakterwechsel, Produktplatzierungen, Kleidungsänderungen und komplette Umgebungstransformationen – alles gesteuert durch Textbefehle und Referenzbilder während das Video noch läuft.
Lucy 2.0 nutzt laut Decart keine Tiefenkarten oder 3D-Modelle. Das physikalische Verhalten entstehe allein durch gelerntes Wissen aus Videodaten. Eine neue Methode namens "Smart History Augmentation" soll verhindern, dass die Bildqualität über Zeit abnimmt. Laut dem Startup kann das Modell so stundenlang stabil laufen.
Die Technik läuft auf AWS Trainium3-Chips. Eine Demo ist unter lucy.decart.ai verfügbar.
OpenAI hat Prism vorgestellt, einen kostenlosen KI-Workspace für wissenschaftliches Schreiben. Das Tool nutzt GPT-5.2 und kombiniert LaTeX-Editor, Literaturverwaltung und KI-Assistent in einer cloudbasierten Umgebung. Forschende können unbegrenzt viele Projekte anlegen und Mitwirkende einladen.
Die KI hat Zugriff auf das gesamte Dokument und kann beim Schreiben, Überarbeiten und Strukturieren helfen. Nutzer können Fachliteratur aus Quellen wie arXiv suchen und einarbeiten. Whiteboard-Skizzen oder handgeschriebene Gleichungen lassen sich via Bild-Upload direkt in LaTeX umwandeln. Auch Echtzeit-Zusammenarbeit mit Co-Autoren ist möglich.
Prism basiert auf Crixet, einer LaTeX-Plattform, die OpenAI übernommen hat. Das Tool soll das Wechseln zwischen verschiedenen Programmen wie Editoren, PDFs und Literaturverwaltung überflüssig machen. Prism ist ab sofort für alle mit einem ChatGPT-Konto unter prism.openai.com verfügbar. Für Unternehmen mit Business- und Enterprise-Plänen folgt die Verfügbarkeit später.
Chinesisches KI-Unternehmen Moonshot AI will mit Agenten-Schwärmen die Konkurrenz überholen
Moonshot AI hat Kimi K2.5 veröffentlicht, das laut eigenen Angaben leistungsstärkste Open-Weight-Modell. Das Modell kann eigenständig bis zu 100 KI-Agenten koordinieren, die parallel an komplexen Aufgaben arbeiten.