OpenAI-Chefs feiern KI-Impfstoff gegen Hunde-Krebs, Forscher kritisiert Story als unbewiesene PR
In sozialen Medien geht die Geschichte eines australischen KI-Beraters viral, der mit ChatGPT, AlphaFold und Grok einen möglichen Behandlungsansatz für den unheilbaren Krebs seiner Hündin Rosie identifiziert hat. Hochrangige Akteure der KI-Branche teilen die Geschichte als Beweis für die Zukunft von KI in der Medizin, dabei gibt es keine Beweise für die Wirkung des entwickelten Wirkstoffes.
Eli Lilly hat einen Deal im Wert von 2,75 Milliarden Dollar mit dem in Hongkong börsennotierten KI-Pharmaunternehmen Insilico Medicine geschlossen. Ziel ist es, mithilfe von KI entwickelte Medikamente auf den Weltmarkt zu bringen. Insilico erhält vorab 115 Millionen Dollar, der Rest ist an regulatorische und kommerzielle Meilensteine sowie Lizenzgebühren gekoppelt, wie beide Unternehmen mitteilten.
Insilico hat laut Gründer und CEO Alex Zhavoronkov mindestens 28 Medikamente mit generativer KI entwickelt, fast die Hälfte davon befindet sich bereits in klinischen Studien. Die Zusammenarbeit besteht seit 2023.
Zhavoronkov sagt gegenüber CNBC, Lilly sei in einigen KI-Bereichen sogar besser als Insilico. Andrew Adams von Lilly bezeichnete Insilicos KI-Forschung als "starke Ergänzung" der eigenen klinischen Entwicklung. Insilico entwickelt seine KI in Kanada und im Nahen Osten, frühe Medikamentenentwicklung findet in China statt. Eli Lilly kooperiert bei KI-Medizin auch mit einer Deempind-Tochter.
Google hat einen sogenannten "Agent Skill" für die Gemini-API entwickelt, der die Wissenslücke von Sprachmodellen bei schnelllebigen SDK-Änderungen schließen soll. Das Problem: KI-Modelle kennen nach dem Training weder ihre eigenen Updates noch aktuelle beste Lösungen. Der neue Skill liefert Coding-Agenten Informationen zu aktuellen Modellen, SDKs und Beispielcode. In Tests mit 117 Aufgaben stieg die Erfolgsrate des besten Modells (Gemini 3.1 Pro Preview) von 28,2 auf 96,6 Prozent.
Erfolgsrate von Gemini-Modellen mit und ohne Agent-Skill bei 117 Coding-Aufgaben: Neuere Modelle der 3er-Reihe profitieren dank stärkerem Reasoning mehr vom Skill als ältere Modelle mit schwächerem Reasoning. | Bild: Google
OpenAI schaltet Sora im April und September ab. Das KI-Videotool wird in zwei Stufen eingestellt: Die Web- und App-Version endet am 26. April 2026, die Sora-API am 24. September 2026. OpenAI empfiehlt Nutzern, ihre Inhalte vor der Abschaltung herunterzuladen. Videos und Bilder lassen sich direkt aus der Sora-Bibliothek exportieren.
Ob es danach noch ein letztes Zeitfenster für den Datenexport geben wird, ist laut OpenAI noch nicht entschieden. Falls ja, werden Nutzer per E-Mail informiert. Nach Ablauf aller Fristen werden sämtliche Nutzerdaten dauerhaft gelöscht. Die Einstellung betrifft auch die Plattform sora.chatgpt.com, die zur Bild- und Videogenerierung genutzt werden konnte. Details finden sich auf der OpenAI-Hilfeseite unter "What to know about the Sora discontinuation".
Google kopiert Anthropics Memory-Import-Funktion, um Erinnerungen aus ChatGPT in Gemini zu holen. Gemini-Nutzer können ab sofort ihre gespeicherten Erinnerungen, Vorlieben und den kompletten Chatverlauf aus anderen KI-Apps wie ChatGPT und Claude importieren.
Dazu kopiert man einen vorgeschlagenen Prompt in die bisherige KI-App, lässt dort eine Zusammenfassung erstellen und fügt diese in Gemini ein. Gemini speichert die Informationen dann im eigenen Kontext. Zusätzlich lassen sich Chatverläufe als ZIP-Datei (bis zu 5 GB) hochladen und frühere Gespräche in Gemini fortsetzen. Google benennt zudem die bisherige Funktion "Past Chats" in "Memory" um. Die Funktion wird schrittweise ausgerollt.
Googles neue Memory-Import-Funktion in Gemini: Nutzer kopieren einen Prompt in ihre bisherige KI-App und fügen die generierte Zusammenfassung in Gemini ein. | Bild: Google
Anthropic hatte die Funktion zuerst vorgestellt, nachdem OpenAI wegen eines Militär-Deals in die Kritik geraten war, den Anthropic aus ethischen Gründen abgelehnt hatte. Die daraufhin gestiegene Zahl an Wechslern wollte Anthropic mit einem zusätzlichen Anreiz bedienen. Interessant ist, dass die Datenextraktion sowohl bei Google als auch bei Anthropic rein auf einem Prompt basiert, der die bisherige KI-App dazu bringt, alle gespeicherten Informationen über den Nutzer auszugeben.
Das kanadische KI-Unternehmen Cohere hat mit "Transcribe" ein neues Open-Source-Modell zur automatischen Spracherkennung veröffentlicht. Das Modell belegt laut Cohere Platz 1 auf dem HuggingFace Open ASR Leaderboard mit einer durchschnittlichen Wortfehlerrate von nur 5,42 Prozent. Damit übertrifft es Konkurrenten wie OpenAIs Whisper Large v3, ElevenLabs Scribe v2 und Qwen3-ASR-1.7B. Neben hoher Genauigkeit bietet Transcribe laut Cohere auch den besten Durchsatz unter vergleichbar großen Modellen.
Cohere Transcribe im Vergleich mit sieben anderen Spracherkennungsmodellen: Je weiter oben links ein Modell liegt, desto besser ist es: also schneller (hoher Durchsatz) und genauer (niedrige Wortfehlerrate). | Bild: Cohere
Das 2-Milliarden-Parameter-Modell unterstützt 14 Sprachen, darunter Englisch, Deutsch, Französisch und Japanisch. Es steht unter der Apache-2.0-Lizenz auf Hugging Face zum Download bereit und ist auch über Coheres API sowie die Plattform Model Vault nutzbar. Cohere plant, Transcribe künftig in seine KI-Agenten-Plattform North zu integrieren.
OpenAI führt Plugins für seinen KI-Programmierassistenten Codex ein, um mit gängigen Arbeitstools wie Slack, Figma, Notion, Gmail und Google Drive zusammenzuarbeiten. Laut OpenAI helfen die Plugins nicht nur beim Programmieren, sondern auch bei Planung, Recherche und Koordination. Technisch bündeln Plugins sogenannte Skills (vordefinierte Prompt-Arbeitsabläufe), App-Integrationen und MCP-Server-Konfigurationen in einem installierbaren Paket, ähnlich zur Integration in ChatGPT. Sie lassen sich in der Codex-App, der Codex-Kommandozeile und in IDE-Erweiterungen nutzen. Entwickler können eigene Plugins erstellen und über lokale oder teamweite "Marketplaces" verteilen. Ein offizielles Plugin-Verzeichnis mit kuratierten Plugins von OpenAI ist bereits verfügbar, eine Selbstveröffentlichung soll bald folgen. Weitere Plugins und Anwendungsfälle sollen laut OpenAI schrittweise hinzukommen.
"Claude Mythos": Datenleck bei Anthropic enthüllt neues und bisher leistungsfähigstes KI-Modell
Update: Inzwischen sind die geleakten Blogartikel-Entwürfe im Netz aufgetaucht. Sie geben Einblick in Anthropics Pläne für eine neue, leistungsfähigere Modellklasse oberhalb der bisherigen Opus-Reihe, zeigen zwei mögliche Namenskandidaten und verraten Details zur geplanten Release-Strategie sowie zum Fokus auf Cybersicherheit.
Apple hat sich umfassende Zugriffsrechte auf Googles Gemini-Modelle gesichert. Laut Quellen von The Information hat Apple vollständigen Zugang zu Gemini in eigenen Rechenzentren und kann daraus per Destillation kleinere Modelle ableiten: Gemini erzeugt hochwertige Antworten inklusive seiner Denkkette ("Chain of Thought"), die als Trainingsdaten für ein kleineres Modell dienen. Apple bezahlt hier also für das, was angeblich China-Akteure heimlich tun, nämlich einem hochwertigen KI-Modell gute Trainingsdaten für ein kleineres entlocken.
Weil Apple vollen Zugriff hat, kann das kleinere Modell über das bloße Nachahmen von Geminis Antworten hinausgehen und auch dessen internen Rechenweg kopieren. Die so erzeugten Modelle benötigen deutlich weniger Rechenleistung und können direkt auf Apple-Geräten laufen.
Gemini sei jedoch für Chatbots und Unternehmensanwendungen optimiert, was nicht immer zu Apples Siri-Plänen passe. Apple arbeite daher parallel an eigenen Modellen im "Apple Foundation Models"-Team. Neue KI-Funktionen könnten im Juni auf Apples Entwicklerkonferenz angekündigt werden.