Cursor-Experiment verschiebt die Grenzen autonomer KI-Entwicklung
Einen Webbrowser von Grund auf neu zu entwickeln, gilt als eines der komplexesten Softwareprojekte überhaupt. Cursor hat hunderte autonom arbeitende KI-Agenten auf genau diese Aufgabe angesetzt und nach knapp einer Woche einen lauffähigen Browser mit eigener Rendering-Engine vorgelegt.
Ehemaliger OpenAI-Policy-Chef gründet Institut für unabhängige KI-Sicherheitsprüfungen
Miles Brundage, der sieben Jahre bei OpenAI die Policy-Forschung leitete, fordert mit seinem neuen Institut AVERI externe Audits für führende KI-Modelle. Die Branche soll ihre eigenen Hausaufgaben nicht mehr selbst benoten dürfen.
Snaps SnapGen++ generiert hochauflösende KI-Bilder in unter zwei Sekunden direkt auf dem iPhone
Diffusion Transformer galten als zu groß fürs Handy. Snap widerlegt das: SnapGen++ generiert 1024-Pixel-Bilder in 1,8 Sekunden auf dem iPhone und schlägt dabei angeblich deutlich größere Servermodelle.
GPT-5.2 Pro hat dabei geholfen, ein weiteres Erdős-Problem zu lösen. Neel Somani berichtet, dass er mit dem KI-Modell das Erdős-Problem #281 aus der Zahlentheorie gelöst hat. Der Mathematiker Terence Tao bezeichnet dies als "vielleicht das eindeutigste Beispiel" für eine KI, die ein offenes mathematisches Problem löst. Allerdings existierten wohl bereits frühere Beweise, die womöglich die Antwort des Modells beeinflussten. Tao bestätigt jedoch, dass der Beweis von GPT-5.2 Pro "ziemlich anders" als die früheren Beweise sei.
Mathematiker Terence Tao sieht KI-Meilenstein, warnt aber vor voreiligen Schlüssen
OpenAIs GPT-5.2 Pro hat laut Mathematiker Terence Tao erstmals weitgehend autonom ein offenes Erdős-Problem gelöst. Tao sieht darin einen echten Meilenstein, warnt aber vor übertriebenen Schlussfolgerungen. Für den Mathematiker etwas anderes die eigentlich spannende Entwicklung.
Andrea Vallone, eine führende Sicherheitsforscherin bei OpenAI, ist zu Anthropic gewechselt. Sie wird dort im Alignment-Team arbeiten, das sich mit den Risiken von KI-Modellen beschäftigt. Vallone war drei Jahre bei OpenAI und gründete dort das "Model Policy"-Forschungsteam. Sie arbeitete an wichtigen Projekten wie GPT-4, GPT-5 und den Reasoning-Modellen.
Im vergangenen Jahr leitete Vallone bei OpenAI dann die Forschung zu einer akut gewordenen Frage: Wie sollten KI-Modelle reagieren, wenn Nutzer Anzeichen von emotionaler Abhängigkeit oder psychischen Problemen zeigen? Einige Nutzer, darunter Jugendliche, haben sich nach Gesprächen mit Chatbots das Leben genommen. Mehrere Familien haben Klagen eingereicht, und der US-Senat hat eine Anhörung zu dem Thema abgehalten.