Anzeige
Skip to content
Read full article about: Cursor erfasst neue Codebasen in 21 Sekunden statt vier Stunden

Der KI-Coding-Assistent Cursor soll die Indexierungszeit großer Codebasen von über vier Stunden auf 21 Sekunden verkürzen. Statt bei jedem neuen Nutzer einen Index von Grund auf neu zu erstellen, nutzt Cursor bestehende Indizes von Teammitgliedern wieder. Das funktioniere, weil Kopien derselben Codebasis innerhalb eines Teams im Durchschnitt zu 92 Prozent identisch seien, schreibt das Unternehmen in einem Blogbeitrag.

Diagramm: Merkle-Bäume vergleichen Dateihashes von Client und Server, synchronisieren nur unterschiedliche Einträge und löschen fehlende Dateien.
Merkle-Bäume vergleichen Dateihashes zwischen Client und Repository, synchronisieren nur abweichende Dateien und löschen fehlende Einträge.

Die semantische Suche, die durch diese Indizes ermöglicht wird, verbessere laut einer Cursor-Studie die Genauigkeit von KI-Antworten um 12,5 Prozent. Die Technik basiert auf Merkle-Bäumen, einer Datenstruktur mit kryptografischen Hashes. Diese stellt sicher, dass Nutzer nur Code sehen, auf den sie tatsächlich Zugriff haben. Bei durchschnittlichen Projekten sinke die Wartezeit bis zur ersten Suchanfrage von knapp 8 Sekunden auf 525 Millisekunden. Das Start-up hinter Cursor hatte im Oktober 2025 Version 2.0 mit einem eigenen Coding-Modell veröffentlicht und erzielt mittlerweile einen Jahresumsatz von rund 500 Millionen Dollar.

Read full article about: Google bereitet wohl native Audio-Fähigkeiten für Gemini 3 Flash mit Stimmenklonen vor

Google arbeitet an einer Funktion, mit der Nutzer ihre eigene Stimme in AI Studio klonen können. Eine versteckte Option namens "Create Your Voice" erscheint laut TestingCatalog bei der Auswahl des "Flash Native Audio Preview"-Modells, das derzeit mit Gemini 2.5 Flash verbunden ist. Bei Auswahl öffnet sich ein Fenster zum Aufnehmen und Hochladen von Audio, die Funktion ist aber noch nicht aktiv. Die Entdeckung deutet darauf hin, dass Google native Audio-Fähigkeiten für Gemini 3 Flash vorbereitet. Damit könnten Entwickler künstliche Stimmen erzeugen, die auf aufgenommenen Sprachproben basieren. Google hatte erst im Dezember 2025 ein Update für Gemini 2.5 Flash Native Audio veröffentlicht, das die Sprachqualität verbesserte und Anweisungen präziser umsetzt.

Screenshot von Google AI Studio im Playground-Modus. Rechts in der Seitenleiste ist unter der Stimmauswahl "Zephyr" ein Button mit der Aufschrift "Create your voice" zu sehen, auf den ein roter Pfeil zeigt. Oben rechts steht die Modellbezeichnung Gemini 2.5 Flash Native Audio Preview.
Die versteckte Option "Create your voice" in Google AI Studio deutet auf kommende Funktionen zum Klonen von Stimmen hin.

Zusätzlich wurde eine neue Option gefunden, mit der sich ganze Code-Sammlungen über GitHub-Repositories importieren lassen. Auch die Startseite wird allem Anschein nach überarbeitet und zeigt künftig Aktivitäten und Nutzungsstatistiken getrennt an.

Read full article about: Decart stellt Lucy 2.0 vor: KI-Modell transformiert Videos in Echtzeit via Prompt

Das KI-Startup Decart hat Lucy 2.0 vorgestellt, ein Echtzeit-Modell zur Videotransformation. Das System kann Live-Videos mit 30 Bildern pro Sekunde in 1080p-Auflösung bei nahezu null Latenz verändern. Möglich sind Charakterwechsel, Produktplatzierungen, Kleidungsänderungen und komplette Umgebungstransformationen – alles gesteuert durch Textbefehle und Referenzbilder während das Video noch läuft.

Lucy 2.0 nutzt laut Decart keine Tiefenkarten oder 3D-Modelle. Das physikalische Verhalten entstehe allein durch gelerntes Wissen aus Videodaten. Eine neue Methode namens "Smart History Augmentation" soll verhindern, dass die Bildqualität über Zeit abnimmt. Laut dem Startup kann das Modell so stundenlang stabil laufen.

Die Technik läuft auf AWS Trainium3-Chips. Eine Demo ist unter lucy.decart.ai verfügbar.

Read full article about: Prism: OpenAI kombiniert LaTeX-Editor mit GPT-5.2

OpenAI hat Prism vorgestellt, einen kostenlosen KI-Workspace für wissenschaftliches Schreiben. Das Tool nutzt GPT-5.2 und kombiniert LaTeX-Editor, Literaturverwaltung und KI-Assistent in einer cloudbasierten Umgebung. Forschende können unbegrenzt viele Projekte anlegen und Mitwirkende einladen.

Die KI hat Zugriff auf das gesamte Dokument und kann beim Schreiben, Überarbeiten und Strukturieren helfen. Nutzer können Fachliteratur aus Quellen wie arXiv suchen und einarbeiten. Whiteboard-Skizzen oder handgeschriebene Gleichungen lassen sich via Bild-Upload direkt in LaTeX umwandeln. Auch Echtzeit-Zusammenarbeit mit Co-Autoren ist möglich.

Prism basiert auf Crixet, einer LaTeX-Plattform, die OpenAI übernommen hat. Das Tool soll das Wechseln zwischen verschiedenen Programmen wie Editoren, PDFs und Literaturverwaltung überflüssig machen. Prism ist ab sofort für alle mit einem ChatGPT-Konto unter prism.openai.com verfügbar. Für Unternehmen mit Business- und Enterprise-Plänen folgt die Verfügbarkeit später.

Read full article about: Offene Coding-Agenten von Allen AI lassen sich günstig auf eigene Codebasen trainieren

Das KI-Forschungsinstitut Allen AI hat SERA veröffentlicht, eine Familie von Open-Source-Coding-Agenten, die sich günstig an private Codebasen anpassen lassen sollen. Das beste Modell, SERA-32B, löst bis zu 54,2 Prozent der Probleme im Coding-Benchmark "SWE-Bench-Test Verified" (64K context) und übertrifft damit vergleichbare Open-Source-Modelle.

Allen AI
32K context, Allen AI

SERA nutzt ein vereinfachtes Trainingsverfahren namens "Soft-verified Generation", das keine vollständig korrekten Code-Beispiele benötigt. Das Training benötigt laut Ai2 nur 40 GPU-Tage und kostet zwischen 400 Dollar, um frühere Open-Source-Ergebnisse zu erreichen, und 12.000 Dollar für Leistung auf dem Niveau führender Industriemodelle. Damit sei ein Training auf eigenen Code-Daten auch für kleine Teams möglich. Technische Details stehen im Blog.

Die Modelle sind mit Claude Code kompatibel und können laut Allen AI mit zwei Zeilen Code gestartet werden. Alle Modelle, Code und Anleitungen sind auf Hugging Face unter der Apache 2.0-Lizenz verfügbar.

Read full article about: UK-Regierung will mit Anthropic-KI Bürgern bei der Jobsuche helfen

Die britische Regierung hat Anthropic ausgewählt, einen KI-Assistenten für die Website GOV.UK zu entwickeln. Das Ministerium für Wissenschaft, Innovation und Technologie (DSIT) will damit Bürgern helfen, staatliche Dienste zu nutzen und individuelle Beratung zu erhalten. Zunächst sollen Arbeitssuchende bei ihrer Karriere beraten werden, leichteren Zugang zu Weiterbildungen erhalten und Angebote erklärt bekommen.

Die Partnerschaft baut auf einer Absichtserklärung vom Februar 2025 auf. Anthropic-Ingenieure arbeiten mit britischen Beamten zusammen, damit die Regierung das System künftig eigenständig betreiben kann. Nutzer sollen die volle Kontrolle über ihre Daten behalten und sich jederzeit abmelden können.

Regionschefin Pip White von Anthropic betonte, die Zusammenarbeit zeige, wie KI sicher für das Gemeinwohl eingesetzt werden könne. Neben Anthropic sind auch andere US-Konzerne stark in Großbritannien verwurzelt: Microsoft, OpenAI und Nvidia haben letztes Jahr Investitionen von über 31 Milliarden Pfund für britische KI-Infrastruktur zugesagt. Im Gegensatz zu OpenAI, das einen 200-Millionen-Dollar-Vertrag mit dem US-Verteidigungsministerium abgeschlossen hat, untersagt Anthropic US-Strafverfolgungsbehörden die Nutzung seiner Modelle für Inlandsüberwachung.

Read full article about: Werbung in ChatGPT startet angeblich mit extrem hohen Preisen für Werbetreibende

OpenAI verlangt für erste ChatGPT-Werbeanzeigen etwa 60 Dollar pro 1.000 Einblendungen. Das liegt weit über den üblichen Online-Werbepreisen im niedrigen einstelligen Bereich und eher auf dem Niveau von Premium-TV-Preisen wie bei NFL-Spielen, berichtet The Information. Die Anzeigen erscheinen unterhalb der ChatGPT-Antworten in der kostenlosen und günstigen Version "Go".

OpenAI plant zudem angeblich, pro Einblendung abzurechnen statt pro Klick. Für Werbetreibende ist Klick-Abrechnung meist attraktiver, da sie die Wirkung besser messen können. Die Entscheidung für Impressionen könnte daran liegen, dass KI-Chatbot-Nutzer viel seltener auf externe Links klicken als klassische Suchmaschinennutzer. Auch Perplexity rechnet pro 1.000 Impressionen ab.

Dass OpenAI auf Werbung setzt – zu Premium-Preisen und in einem für Werber unattraktiven Format – könnte darauf hindeuten, dass die Firma ihren Umsatz aggressiv steigern muss, um bei ihrer hohen Bewertung für Investoren attraktiv zu bleiben. Sam Altman bezeichnete ChatGPT-Werbung früher als letzten Ausweg und potenzielle Dystopie.

Read full article about: Microsofts neuer KI-Beschleuniger Maia 200 soll Amazon- und Google-Chips übertreffen

Microsoft stellt seinen neuen KI-Inferenz-Chip Maia 200 vor. Der Chip ist speziell für die Inferenz entwickelt worden und soll 30 Prozent bessere Leistung pro Dollar bieten als die aktuelle Chip-Generation in Microsofts Rechenzentren. Er basiert auf TSMCs 3-Nanometer-Verfahren mit über 140 Milliarden Transistoren und verfügt über 216 GB Hochgeschwindigkeitsspeicher.

Laut Microsoft ist Maia 200 der leistungsstärkste hauseigene Chip aller großen Cloud-Anbieter. Er biete dreimal so viel FP4-Leistung wie Amazons Trainium 3 und übertreffe Googles TPU v7 bei FP8-Berechnungen. Eine unabhängige Bewertung steht noch aus.

Microsoft
Microsoft

Microsoft setzt den Chip laut eigenen Angaben für OpenAIs GPT-5.2-Modelle sowie für Microsoft 365 Copilot ein. Entwickler können sich für eine Vorschau des Maia SDK anmelden. Maia 200 ist zunächst im Rechenzentrum in Iowa verfügbar, Arizona folgt als Nächstes. Technische Details zum Chip stehen hier.

Read full article about: App-Boom durch "Vibe Coding": KI-Tools dürften für 60 Prozent mehr iOS-Apps sorgen

Vibe Coding sorgt angeblich für App-Spam im iOS-Store. Nach Daten von Sensor Tower und Wells Fargo Securities (via a16z) stieg die Zahl neuer iOS-Apps im Dezember 2025 um 60 Prozent im Vergleich zum Vorjahr. Auf Basis der letzten zwölf Monate betrug das Wachstum 24 Prozent. In den drei Jahren zuvor war die Zahl neuer Apps nahezu stabil geblieben.

via a16z

Der Anstieg begann laut der Analyse mit der Einführung von sogenanntem "Agentic Coding", also KI-gestützten Programmierwerkzeugen. Die Risikokapitalfirma a16z vergleicht die aktuelle Entwicklung mit 2008, als Apple erstmals das iPhone SDK veröffentlichte. Damals startete der App Store mit etwa 500 Apps, erreichte aber innerhalb eines Wochenendes eine Million Downloads. Ob es sich hier tatsächlich um eine Kausalität zwischen Vibe Coding und App-Publishing handelt, geht aus der Analyse nicht hervor.