Anzeige
Skip to content

Mathematiker Terence Tao sieht KI-Meilenstein, warnt aber vor voreiligen Schlüssen

OpenAIs GPT-5.2 Pro hat laut Mathematiker Terence Tao erstmals weitgehend autonom ein offenes Erdős-Problem gelöst. Tao sieht darin einen echten Meilenstein, warnt aber vor übertriebenen Schlussfolgerungen. Für den Mathematiker etwas anderes die eigentlich spannende Entwicklung.

Read full article about: OpenAI verliert führende Sicherheitsforscherin an Anthropic

Andrea Vallone, eine führende Sicherheitsforscherin bei OpenAI, ist zu Anthropic gewechselt. Sie wird dort im Alignment-Team arbeiten, das sich mit den Risiken von KI-Modellen beschäftigt. Vallone war drei Jahre bei OpenAI und gründete dort das "Model Policy"-Forschungsteam. Sie arbeitete an wichtigen Projekten wie GPT-4, GPT-5 und den Reasoning-Modellen.

Im vergangenen Jahr leitete Vallone bei OpenAI dann die Forschung zu einer akut gewordenen Frage: Wie sollten KI-Modelle reagieren, wenn Nutzer Anzeichen von emotionaler Abhängigkeit oder psychischen Problemen zeigen? Einige Nutzer, darunter Jugendliche, haben sich nach Gesprächen mit Chatbots das Leben genommen. Mehrere Familien haben Klagen eingereicht, und der US-Senat hat eine Anhörung zu dem Thema abgehalten.

Bei Anthropic arbeitet Vallone nun unter Jan Leike. Leike war selbst Sicherheitsforschungsleiter bei OpenAI und verließ das Unternehmen im Mai 2024. Leike hatte damals kritisiert, dass Sicherheit bei OpenAI hinter neuen Produkten zurückstehe.

Read full article about: Anthropic erweitert Labs-Team für experimentelle KI-Produkte

Anthropic baut sein Labs-Team aus, das sich auf experimentelle Produkte rund um Claude-KI-Modelle fokussiert. Mike Krieger, Mitgründer von Instagram und bisheriger Chief Product Officer bei Anthropic, wechselt zu Labs und arbeitet dort mit Ben Mann zusammen. Ami Vora, die Ende 2025 zu Anthropic kam, übernimmt die Leitung der Produktorganisation und arbeitet mit CTO Rahul Patil zusammen, um Claude-Produkte weiterzuentwickeln.

Labs gebe Raum, um neue Wege zu gehen und zu experimentieren, so Anthropic-Präsidentin Daniela Amodei. Das Team hat bereits mehrere erfolgreiche Produkte hervorgebracht: Claude Code wuchs innerhalb von sechs Monaten zu einem Produkt mit einer Milliarde Dollar Umsatz. Das Model Context Protocol (MCP) erreicht 100 Millionen monatliche Downloads und gilt als Branchenstandard für die Verbindung von KI mit Werkzeugen und Daten. Auch das kürzlich vorgestellte "Cowork", Claude Code für die Büroarbeit, wurde in den Labs entwickelt. Ebenso stammen Skills und Claude in Chrome aus dem Labor.

Googles Open-Source-Modell MedGemma 1.5 versteht dreidimensionale CT- und MRT-Aufnahmen

Google veröffentlicht MedGemma 1.5, ein Open-Source-Modell, das erstmals dreidimensionale CT- und MRT-Aufnahmen interpretieren kann. Dazu kommt ein neues Spracherkennungsmodell für medizinische Diktate.

Read full article about: Wer von Sprachmodellen Widerspruchsfreiheit erwartet, stellt laut einem Anthropic-Forscher die falsche Frage

Wer von Sprachmodellen innere Kohärenz erwartet, stellt laut einem Anthropic-Forscher die falsche Frage.

"Warum sagt Seite fünf eines Buches, das beste Essen sei Pizza, und Seite 17, das beste Essen sei Pasta? Was denkt das Buch wirklich? Und du sagst: 'Es ist ein Buch!'", erklärt Josh Batson, Research Scientist bei Anthropic, in einem lesenswerten Artikel über Methoden zur Interpretierbarkeit von LLMs im MIT Technology Review.

Die Analogie stammt aus Experimenten zur internen Verarbeitung von Fakten. Anthropic fand heraus, dass Claude unterschiedliche Mechanismen nutzt, um zu wissen, dass Bananen gelb sind, und um zu bestätigen, dass der Satz "Bananen sind gelb" wahr ist. Diese Mechanismen sind nicht miteinander verbunden. Wenn ein Modell widersprüchliche Antworten gibt, greift es auf verschiedene Teile seiner selbst zurück – ohne zentrale Instanz. "Es könnte sein, dass du mit Claude redest und es dann abdriftet", sagt Batson. "Und jetzt redest du nicht mehr mit Claude, sondern mit etwas anderem." Die Implikation: Die Annahme, Sprachmodelle besäßen mentale Kohärenz wie Menschen, könnte ein Kategorienfehler sein.

Basecamp Research kartiert eine Million Spezies für KI-gestützte Medikamente

Das britische Unternehmen Basecamp Research hat gemeinsam mit Forschern von Nvidia und Microsoft KI-Modelle entwickelt, die aus einer Datenbank von über einer Million Spezies potenzielle neue Therapien gegen Krebs und multiresistente Bakterien generieren sollen. Die Forscher selbst mahnen jedoch zur Vorsicht.