Anzeige
Skip to content

Snaps SnapGen++ generiert hochauflösende KI-Bilder in unter zwei Sekunden direkt auf dem iPhone

Diffusion Transformer galten als zu groß fürs Handy. Snap widerlegt das: SnapGen++ generiert 1024-Pixel-Bilder in 1,8 Sekunden auf dem iPhone und schlägt dabei angeblich deutlich größere Servermodelle.

Read full article about: KI-Modell GPT-5.2 Pro liefert neuen Beweis für offenes mathematisches Problem

GPT-5.2 Pro hat dabei geholfen, ein weiteres Erdős-Problem zu lösen. Neel Somani berichtet, dass er mit dem KI-Modell das Erdős-Problem #281 aus der Zahlentheorie gelöst hat. Der Mathematiker Terence Tao bezeichnet dies als "vielleicht das eindeutigste Beispiel" für eine KI, die ein offenes mathematisches Problem löst. Allerdings existierten wohl bereits frühere Beweise, die womöglich die Antwort des Modells beeinflussten. Tao bestätigt jedoch, dass der Beweis von GPT-5.2 Pro "ziemlich anders" als die früheren Beweise sei.

via Neel Somani

Gleichzeitig warnt Tao vor einer verzerrten Wahrnehmung der KI-Fähigkeiten: Negative Ergebnisse würden selten veröffentlicht, positive Resultate gingen dagegen viral. Eine neue Datenbank von Paata Ivanisvili und Mehmet Mars Seven dokumentiert systematisch KI-Versuche an Erdős-Problemen. Die tatsächliche Erfolgsquote liege nur bei ein bis zwei Prozent, konzentriert auf leichtere Probleme. Dennoch sei KI hier eine Unterstützung, wenn auch das durchschnittlich schwere Erdős-Problem wohl bisher nicht lösbar sei. Die erste von Tao bestätigte autonome Lösung eines Erdős-Problems stammt vom 4. Januar 2026.

Mathematiker Terence Tao sieht KI-Meilenstein, warnt aber vor voreiligen Schlüssen

OpenAIs GPT-5.2 Pro hat laut Mathematiker Terence Tao erstmals weitgehend autonom ein offenes Erdős-Problem gelöst. Tao sieht darin einen echten Meilenstein, warnt aber vor übertriebenen Schlussfolgerungen. Für den Mathematiker etwas anderes die eigentlich spannende Entwicklung.

Read full article about: OpenAI verliert führende Sicherheitsforscherin an Anthropic

Andrea Vallone, eine führende Sicherheitsforscherin bei OpenAI, ist zu Anthropic gewechselt. Sie wird dort im Alignment-Team arbeiten, das sich mit den Risiken von KI-Modellen beschäftigt. Vallone war drei Jahre bei OpenAI und gründete dort das "Model Policy"-Forschungsteam. Sie arbeitete an wichtigen Projekten wie GPT-4, GPT-5 und den Reasoning-Modellen.

Im vergangenen Jahr leitete Vallone bei OpenAI dann die Forschung zu einer akut gewordenen Frage: Wie sollten KI-Modelle reagieren, wenn Nutzer Anzeichen von emotionaler Abhängigkeit oder psychischen Problemen zeigen? Einige Nutzer, darunter Jugendliche, haben sich nach Gesprächen mit Chatbots das Leben genommen. Mehrere Familien haben Klagen eingereicht, und der US-Senat hat eine Anhörung zu dem Thema abgehalten.

Bei Anthropic arbeitet Vallone nun unter Jan Leike. Leike war selbst Sicherheitsforschungsleiter bei OpenAI und verließ das Unternehmen im Mai 2024. Leike hatte damals kritisiert, dass Sicherheit bei OpenAI hinter neuen Produkten zurückstehe.

Read full article about: Anthropic erweitert Labs-Team für experimentelle KI-Produkte

Anthropic baut sein Labs-Team aus, das sich auf experimentelle Produkte rund um Claude-KI-Modelle fokussiert. Mike Krieger, Mitgründer von Instagram und bisheriger Chief Product Officer bei Anthropic, wechselt zu Labs und arbeitet dort mit Ben Mann zusammen. Ami Vora, die Ende 2025 zu Anthropic kam, übernimmt die Leitung der Produktorganisation und arbeitet mit CTO Rahul Patil zusammen, um Claude-Produkte weiterzuentwickeln.

Labs gebe Raum, um neue Wege zu gehen und zu experimentieren, so Anthropic-Präsidentin Daniela Amodei. Das Team hat bereits mehrere erfolgreiche Produkte hervorgebracht: Claude Code wuchs innerhalb von sechs Monaten zu einem Produkt mit einer Milliarde Dollar Umsatz. Das Model Context Protocol (MCP) erreicht 100 Millionen monatliche Downloads und gilt als Branchenstandard für die Verbindung von KI mit Werkzeugen und Daten. Auch das kürzlich vorgestellte "Cowork", Claude Code für die Büroarbeit, wurde in den Labs entwickelt. Ebenso stammen Skills und Claude in Chrome aus dem Labor.

Googles Open-Source-Modell MedGemma 1.5 versteht dreidimensionale CT- und MRT-Aufnahmen

Google veröffentlicht MedGemma 1.5, ein Open-Source-Modell, das erstmals dreidimensionale CT- und MRT-Aufnahmen interpretieren kann. Dazu kommt ein neues Spracherkennungsmodell für medizinische Diktate.

Read full article about: Wer von Sprachmodellen Widerspruchsfreiheit erwartet, stellt laut einem Anthropic-Forscher die falsche Frage

Wer von Sprachmodellen innere Kohärenz erwartet, stellt laut einem Anthropic-Forscher die falsche Frage.

"Warum sagt Seite fünf eines Buches, das beste Essen sei Pizza, und Seite 17, das beste Essen sei Pasta? Was denkt das Buch wirklich? Und du sagst: 'Es ist ein Buch!'", erklärt Josh Batson, Research Scientist bei Anthropic, in einem lesenswerten Artikel über Methoden zur Interpretierbarkeit von LLMs im MIT Technology Review.

Die Analogie stammt aus Experimenten zur internen Verarbeitung von Fakten. Anthropic fand heraus, dass Claude unterschiedliche Mechanismen nutzt, um zu wissen, dass Bananen gelb sind, und um zu bestätigen, dass der Satz "Bananen sind gelb" wahr ist. Diese Mechanismen sind nicht miteinander verbunden. Wenn ein Modell widersprüchliche Antworten gibt, greift es auf verschiedene Teile seiner selbst zurück – ohne zentrale Instanz. "Es könnte sein, dass du mit Claude redest und es dann abdriftet", sagt Batson. "Und jetzt redest du nicht mehr mit Claude, sondern mit etwas anderem." Die Implikation: Die Annahme, Sprachmodelle besäßen mentale Kohärenz wie Menschen, könnte ein Kategorienfehler sein.