Anzeige
Skip to content
Read full article about: ChatGPT visualisiert jetzt mehr als 70 Konzepte aus den Naturwissenschaften

ChatGPT erklärt Mathe und Physik jetzt mit interaktiven Visualisierungen. OpenAI führt in ChatGPT dynamische visuelle Erklärungen für mehr als 70 Konzepte aus Mathematik und Naturwissenschaften ein. Nutzer sollen Variablen in Echtzeit verändern und die Auswirkungen auf Graphen und Formeln direkt beobachten können. Allerdings ist die Themenliste derzeit primär auf Highschool- und College-Lernende zugeschnitten. Sie umfasst Themen wie Binomialquadrat, Exponentialzerfall, Ohmsches Gesetz, Zinseszins oder trigonometrische Identitäten.

Die interaktiven Erklärungen sind laut OpenAI ab sofort weltweit für alle eingeloggten Nutzer verfügbar, unabhängig vom gewählten Abo-Plan. Langfristig plant OpenAI, die Lernmodule auf zusätzliche Fächer auszuweiten.

Read full article about: Bei Amazon muss ab sofort jeder KI-generierte Code von erfahrenen Ingenieuren abgesegnet werden

Nach einer Serie von mutmaßlich KI-verursachten Ausfällen macht Amazon seine Senior Engineers zum menschlichen Filter für KI-generierten Code.

"Leute, wie ihr wahrscheinlich wisst, war die Verfügbarkeit der Seite und der zugehörigen Infrastruktur in letzter Zeit nicht gut", schreibt Dave Treadwell, Senior Vice President bei Amazon, in einer internen E-Mail, die der Financial Times vorliegt. Ein Briefing benennt einen "Trend von Vorfällen" mit "hoher Reichweite", verknüpft mit "GenAI-gestützten Änderungen". Zuletzt gab es Berichte, dass Amazons KI-Coding-Tools auch zwei AWS-Ausfälle mitverursacht haben sollen.

Die Konsequenz: Junior- und Mid-Level-Ingenieure benötigen ab sofort die Freigabe eines Senior-Engineers für alle KI-gestützten Codeänderungen. Standard-Code-Reviews gab es bei Amazon schon immer, doch eine eigene Freigabepflicht speziell für KI-generierten Output ist neu. Erfahrene Entwickler werden damit de facto zu menschlichen Qualitätsfiltern für maschinell erzeugten Code. Ihre Rolle verschiebt sich damit ein Stück: weg vom Bauen, hin zum Prüfen dessen, was die Maschine gebaut hat.

Als Ursache nennt das interne Briefing unter anderem "neuartige GenAI-Nutzung, für die Best Practices und Schutzmaßnahmen noch nicht vollständig etabliert sind."

Read full article about: Mira Muratis KI-Startup sichert sich Gigawatt-Deal mit Nvidia

Nvidia und Thinking Machines Lab, das KI-Startup von Ex-OpenAI-Managerin Mira Murati, gehen eine langfristige Partnerschaft ein. Thinking Machines erhält mindestens ein Gigawatt an Rechenleistung durch Nvidias neue Vera Rubin-Systeme, um eigene KI-Modelle zu trainieren. Die Bereitstellung soll Anfang nächsten Jahres starten.

Nvidia hat sich zudem finanziell an Thinking Machines beteiligt – die genaue Summe wurde nicht genannt. Das Startup hatte bereits rund 2 Milliarden Dollar in einer von Andreessen Horowitz geführten Seed-Runde eingesammelt, bei einer Bewertung von 12 Milliarden Dollar. Nvidia war damals ebenfalls Investor. Zuletzt soll Thinking Machines eine weitere Finanzierungsrunde anstreben. Allerdings hat das Startup auch Abgänge zu verzeichnen: Mitgründer Barret Zoph und Luke Metz kehrten zu OpenAI zurück.

Gemeinsam wollen beide Unternehmen Trainings- und Bereitstellungssysteme für Nvidia-Hardware entwickeln und Frontier-KI-Modelle für Unternehmen und Forschung zugänglich machen. Murati hatte OpenAI 2024 verlassen und Thinking Machines Lab mitgegründet.

Read full article about: Meta kauft das soziale Netzwerk für KI-Agenten Moltbook und holt die Gründer in sein Superintelligence Lab

Meta hat Moltbook übernommen. Moltbook ist eine Art Reddit, das speziell für KI-Agenten entwickelt wurde. Die Gründer Matt Schlicht und Ben Parr wechseln laut Axios zu Metas Superintelligence Labs (MSL), geleitet von Ex-Scale-AI-Chef Alexandr Wang. Der Kaufpreis wurde nicht genannt, der Abschluss wird für Mitte März erwartet.

Moltbook wurde Ende Januar als experimenteller Raum gestartet, in dem KI-Agenten ihre Identität verifizieren, sich vernetzen und Aufgaben koordinieren können. Schlicht baute die Plattform großteils mit Hilfe seines eigenen KI-Assistenten. Metas Vishal Shah erklärte in einem Axios vorliegenden Blogpost, bestehende Moltbook-Kunden könnten die Plattform vorerst weiter nutzen – allerdings nur vorübergehend. Zuvor hatte OpenAI Peter Steinberger, den Entwickler des verwandten Agenten-Frameworks OpenClaw, eingestellt.

Read full article about: AMI Labs: Yann LeCun sammelt über eine Milliarde Dollar für neues KI-Start-up in Europas größter Seed-Runde

Yann LeCun, ehemaliger Chef-KI-Wissenschaftler bei Meta und Turing-Preisträger, hat mit seinem neuen Start-up Advanced Machine Intelligence Labs (AMI Labs) über eine Milliarde Dollar in Europas größter Seed-Finanzierungsrunde eingesammelt. Zu den Investoren gehören Nvidia, Bezos Expeditions, Singapurs Temasek und Frankreichs Cathay Innovation.

Die Bewertung des Unternehmens lag vor der Finanzierungsrunde bei 3,5 Milliarden Dollar. CEO ist Alexandre LeBrun, ehemaliger Chef des französischen Start-ups Nabla. LeCun wird als Vorstandsvorsitzender fungieren. Das Unternehmen startet mit rund einem Dutzend Mitarbeitern in Paris, New York, Singapur und Montreal.

AMI Labs will sogenannte Weltmodelle entwickeln, die die physische Umgebung verstehen – etwa für Robotik und Transport. Laut LeCun und LeBrun seien heutige Sprachmodelle dafür nicht geeignet. Meta ist kein Investor, soll aber eine Partnerschaft mit AMI Labs eingehen.

Read full article about: Claude Code reviewt jetzt Pull Requests mit einem ganzen Team aus KI-Agenten

Claude Code kann ab sofort automatisch Code-Änderungen auf Fehler prüfen, bevor sie in ein Projekt einfließen. Mehrere KI-Agenten suchen dabei parallel nach Bugs, Sicherheitslücken und Regressionen. Das System ist als Research Preview für Team- und Enterprise-Kunden verfügbar. Anthropic nutzt es intern bereits seit Monaten. Laut dem Unternehmen ist der Code-Ausstoß pro Entwickler im letzten Jahr um 200 Prozent gestiegen, was die manuelle Prüfung zum Engpass macht.

Vor dem Einsatz erhielten 16 Prozent der Änderungen inhaltliche Kommentare, jetzt sind es 54 Prozent. Bei großen Änderungen über 1.000 Zeilen findet das System in 84 Prozent der Fälle Probleme, im Schnitt 7,5 pro Änderung. Insgesamt werden weniger als ein Prozent aller Funde als falsch markiert. Das System genehmigt keine Änderungen – das bleibt Aufgabe der Entwickler. Die Kosten werden nach Token-Verbrauch abgerechnet und liegen im Durchschnitt bei 15 bis 25 Dollar pro Review, abhängig von Größe und Komplexität. Admins können ein monatliches Ausgabenlimit setzen.

Anthropic baut Claude Code in diesem Jahr massiv aus. Zuletzt kamen unter anderem automatisierte Desktop-Funktionen, eine Remote-Steuerung fürs Smartphone, eine Memory-Funktion und ein Scheduling-Feature für geplante Aufgaben hinzu.

Read full article about: Schutz vor Jailbreaks und Datenlecks: OpenAI übernimmt Sicherheitsplattform Promptfoo für Frontier

OpenAI übernimmt Promptfoo, eine Sicherheitsplattform für KI-Systeme. Promptfoo hilft Unternehmen, Schwachstellen in KI-Anwendungen während der Entwicklung zu finden und zu beheben. Die Technik soll nach Abschluss der Übernahme direkt in OpenAIs Unternehmensplattform Frontier eingebaut werden, mit der Firmen KI-Assistenten erstellen und betreiben können.

Konkret sollen automatisierte Sicherheitstests gegen Angriffe wie Prompt Injections, Jailbreaks und Datenlecks fester Bestandteil von Frontier werden. Zudem will OpenAI damit Kontrolle, Nachvollziehbarkeit und die Einhaltung von Vorschriften für KI-Systeme in Unternehmen stärken.

Promptfoo bietet auch ein viel genutztes Open-Source-Projekt, das weitergeführt werden soll. Die Übernahme ist noch nicht abgeschlossen, Details zu den finanziellen Bedingungen sind nicht bekannt. Das Start-up hatte insgesamt 23 Millionen US-Dollar von Investoren eingesammelt bei einer Bewertung von 86 Millionen US-Dollar im Sommer 2025.

Read full article about: Microsoft integriert Anthropics Claude-Cowork-Technologie in Copilot für eigenständigere Büroarbeit

Microsoft hat Anthropics Claude-Cowork-Technologie in Copilot integriert. Das neue Feature namens "Copilot Cowork" soll Aufgaben in Microsoft 365 eigenständiger ausführen. Nutzer beschreiben ein gewünschtes Ergebnis, und Cowork erstellt daraus einen Plan, der im Hintergrund abläuft. Dabei greift es auf E-Mails, Meetings, Dateien und Daten aus Outlook, Teams und Excel zu. Beispiele sind Kalenderbereinigung, Meeting-Vorbereitung, Unternehmensrecherche und Produktlaunch-Planung. Bei Unklarheiten fragt Cowork nach und wartet auf Freigabe, bevor Änderungen umgesetzt werden.

Cowork läuft innerhalb der Sicherheits- und Compliance-Grenzen von Microsoft 365. Die Funktion befindet sich derzeit in einer eingeschränkten Research Preview und soll Ende März 2026 breiter im Frontier-Programm verfügbar sein.

Bemerkenswert ist die zunehmende Öffnung Microsofts gegenüber anderen KI-Anbietern neben OpenAI: Claude Cowork basiert auf den Prinzipien von Anthropics Claude Code, das im Programmierumfeld große Erfolge feiert. OpenAI bietet bislang keine vergleichbare Software, arbeitet allerdings mit Frontier ebenfalls an einem agentischen B2B-Framework, das auf bessere Integration in Unternehmens-IT abzielt.

Read full article about: Neues Omnimodell: OpenAI-Mitarbeiter deuten auf nächste KI-Generation hin

OpenAI scheint an einem neuen multimodalen Modell zu arbeiten, potenziell ein Nachfolger von GPT-4o. Darauf weisen Posts von OpenAI-Mitarbeitern hin. Atty Eleti aus dem Voice-Team schrieb, er sei "gespannt auf das, was als Nächstes kommt" und fragte Nutzer, was sie sich von einem neuen Omnimodell wünschen. Brandon McKinzie, Forscher bei OpenAI mit Multimodal-Hintergrund bei Apple, kommentierte ein potenzielles Omni-Model mit "klingt nach einer großartigen Idee".

via X

Multimodal bedeutet, dass ein Modell verschiedene Formate wie Text, Bild, Audio und Video in einem einzigen Modell verarbeitet, statt für jede Aufgabe ein eigenes zu benötigen. GPT-4o ("omni") kombinierte zum ersten Mal Text-, Bild- und Audioverarbeitung bei OpenAI. Das letzte Modell von OpenAI, GPT-5.4, integrierte bereits "Computer Use" nativ, also die Fähigkeit, für Menschen gemachte Computer-Interfaces zu bedienen.

Parallel arbeitet OpenAI laut The Information an einem neuen Audio-Modell namens "BiDi" (bidirektional), das Gespräche natürlicher machen soll. Heutige Sprachmodelle arbeiten rundenbasiert: Die KI wartet, bis der Nutzer fertig gesprochen hat. BiDi soll Unterbrechungen in Echtzeit verarbeiten. Ein Prototyp existiert, neigt aber nach wenigen Minuten zu Fehlern. Der Start könnte sich auf das zweite Quartal oder später verschieben.