Anzeige
Skip to content
Read full article about: AMI Labs: Yann LeCun sammelt über eine Milliarde Dollar für neues KI-Start-up in Europas größter Seed-Runde

Yann LeCun, ehemaliger Chef-KI-Wissenschaftler bei Meta und Turing-Preisträger, hat mit seinem neuen Start-up Advanced Machine Intelligence Labs (AMI Labs) über eine Milliarde Dollar in Europas größter Seed-Finanzierungsrunde eingesammelt. Zu den Investoren gehören Nvidia, Bezos Expeditions, Singapurs Temasek und Frankreichs Cathay Innovation.

Die Bewertung des Unternehmens lag vor der Finanzierungsrunde bei 3,5 Milliarden Dollar. CEO ist Alexandre LeBrun, ehemaliger Chef des französischen Start-ups Nabla. LeCun wird als Vorstandsvorsitzender fungieren. Das Unternehmen startet mit rund einem Dutzend Mitarbeitern in Paris, New York, Singapur und Montreal.

AMI Labs will sogenannte Weltmodelle entwickeln, die die physische Umgebung verstehen – etwa für Robotik und Transport. Laut LeCun und LeBrun seien heutige Sprachmodelle dafür nicht geeignet. Meta ist kein Investor, soll aber eine Partnerschaft mit AMI Labs eingehen.

Read full article about: Claude Code reviewt jetzt Pull Requests mit einem ganzen Team aus KI-Agenten

Claude Code kann ab sofort automatisch Code-Änderungen auf Fehler prüfen, bevor sie in ein Projekt einfließen. Mehrere KI-Agenten suchen dabei parallel nach Bugs, Sicherheitslücken und Regressionen. Das System ist als Research Preview für Team- und Enterprise-Kunden verfügbar. Anthropic nutzt es intern bereits seit Monaten. Laut dem Unternehmen ist der Code-Ausstoß pro Entwickler im letzten Jahr um 200 Prozent gestiegen, was die manuelle Prüfung zum Engpass macht.

Vor dem Einsatz erhielten 16 Prozent der Änderungen inhaltliche Kommentare, jetzt sind es 54 Prozent. Bei großen Änderungen über 1.000 Zeilen findet das System in 84 Prozent der Fälle Probleme, im Schnitt 7,5 pro Änderung. Insgesamt werden weniger als ein Prozent aller Funde als falsch markiert. Das System genehmigt keine Änderungen – das bleibt Aufgabe der Entwickler. Die Kosten werden nach Token-Verbrauch abgerechnet und liegen im Durchschnitt bei 15 bis 25 Dollar pro Review, abhängig von Größe und Komplexität. Admins können ein monatliches Ausgabenlimit setzen.

Anthropic baut Claude Code in diesem Jahr massiv aus. Zuletzt kamen unter anderem automatisierte Desktop-Funktionen, eine Remote-Steuerung fürs Smartphone, eine Memory-Funktion und ein Scheduling-Feature für geplante Aufgaben hinzu.

Read full article about: Schutz vor Jailbreaks und Datenlecks: OpenAI übernimmt Sicherheitsplattform Promptfoo für Frontier

OpenAI übernimmt Promptfoo, eine Sicherheitsplattform für KI-Systeme. Promptfoo hilft Unternehmen, Schwachstellen in KI-Anwendungen während der Entwicklung zu finden und zu beheben. Die Technik soll nach Abschluss der Übernahme direkt in OpenAIs Unternehmensplattform Frontier eingebaut werden, mit der Firmen KI-Assistenten erstellen und betreiben können.

Konkret sollen automatisierte Sicherheitstests gegen Angriffe wie Prompt Injections, Jailbreaks und Datenlecks fester Bestandteil von Frontier werden. Zudem will OpenAI damit Kontrolle, Nachvollziehbarkeit und die Einhaltung von Vorschriften für KI-Systeme in Unternehmen stärken.

Promptfoo bietet auch ein viel genutztes Open-Source-Projekt, das weitergeführt werden soll. Die Übernahme ist noch nicht abgeschlossen, Details zu den finanziellen Bedingungen sind nicht bekannt. Das Start-up hatte insgesamt 23 Millionen US-Dollar von Investoren eingesammelt bei einer Bewertung von 86 Millionen US-Dollar im Sommer 2025.

Read full article about: Microsoft integriert Anthropics Claude-Cowork-Technologie in Copilot für eigenständigere Büroarbeit

Microsoft hat Anthropics Claude-Cowork-Technologie in Copilot integriert. Das neue Feature namens "Copilot Cowork" soll Aufgaben in Microsoft 365 eigenständiger ausführen. Nutzer beschreiben ein gewünschtes Ergebnis, und Cowork erstellt daraus einen Plan, der im Hintergrund abläuft. Dabei greift es auf E-Mails, Meetings, Dateien und Daten aus Outlook, Teams und Excel zu. Beispiele sind Kalenderbereinigung, Meeting-Vorbereitung, Unternehmensrecherche und Produktlaunch-Planung. Bei Unklarheiten fragt Cowork nach und wartet auf Freigabe, bevor Änderungen umgesetzt werden.

Cowork läuft innerhalb der Sicherheits- und Compliance-Grenzen von Microsoft 365. Die Funktion befindet sich derzeit in einer eingeschränkten Research Preview und soll Ende März 2026 breiter im Frontier-Programm verfügbar sein.

Bemerkenswert ist die zunehmende Öffnung Microsofts gegenüber anderen KI-Anbietern neben OpenAI: Claude Cowork basiert auf den Prinzipien von Anthropics Claude Code, das im Programmierumfeld große Erfolge feiert. OpenAI bietet bislang keine vergleichbare Software, arbeitet allerdings mit Frontier ebenfalls an einem agentischen B2B-Framework, das auf bessere Integration in Unternehmens-IT abzielt.

Read full article about: Neues Omnimodell: OpenAI-Mitarbeiter deuten auf nächste KI-Generation hin

OpenAI scheint an einem neuen multimodalen Modell zu arbeiten, potenziell ein Nachfolger von GPT-4o. Darauf weisen Posts von OpenAI-Mitarbeitern hin. Atty Eleti aus dem Voice-Team schrieb, er sei "gespannt auf das, was als Nächstes kommt" und fragte Nutzer, was sie sich von einem neuen Omnimodell wünschen. Brandon McKinzie, Forscher bei OpenAI mit Multimodal-Hintergrund bei Apple, kommentierte ein potenzielles Omni-Model mit "klingt nach einer großartigen Idee".

via X

Multimodal bedeutet, dass ein Modell verschiedene Formate wie Text, Bild, Audio und Video in einem einzigen Modell verarbeitet, statt für jede Aufgabe ein eigenes zu benötigen. GPT-4o ("omni") kombinierte zum ersten Mal Text-, Bild- und Audioverarbeitung bei OpenAI. Das letzte Modell von OpenAI, GPT-5.4, integrierte bereits "Computer Use" nativ, also die Fähigkeit, für Menschen gemachte Computer-Interfaces zu bedienen.

Parallel arbeitet OpenAI laut The Information an einem neuen Audio-Modell namens "BiDi" (bidirektional), das Gespräche natürlicher machen soll. Heutige Sprachmodelle arbeiten rundenbasiert: Die KI wartet, bis der Nutzer fertig gesprochen hat. BiDi soll Unterbrechungen in Echtzeit verarbeiten. Ein Prototyp existiert, neigt aber nach wenigen Minuten zu Fehlern. Der Start könnte sich auf das zweite Quartal oder später verschieben.

WSJ-Bericht liefert neue Details zum KI-Einsatz im Krieg gegen den Iran

Das Wall Street Journal bestätigt und erweitert bisherige Berichte über den massiven Einsatz generativer KI im US-Militäreinsatz gegen den Iran. Neue Details zeigen, wie tief KI bereits in Aufklärung, Zielauswahl und Logistik verankert ist.

Read full article about: Nach Anthropic-Eklat: US-Regierung plant strenge neue Richtlinien für staatliche KI-Verträge

Die US-Regierung unter Präsident Trump hat strenge neue Richtlinien für KI-Verträge mit zivilen Behörden entworfen. Laut einem Entwurf, den die Financial Times einsehen konnte, müssen KI-Unternehmen der Regierung eine unwiderrufliche Lizenz zur Nutzung ihrer Systeme für alle legalen Zwecke ("all lawful use") einräumen – genau die Formulierung, gegen die sich Anthropic gesträubt und die OpenAI akzeptiert hat.

Die Richtlinien der US-General Services Administration (GSA), die schon seit einigen Monaten in Arbeit sein sollen, verbieten zudem, dass KI-Modelle ideologische oder parteipolitische Urteile in ihre Ergebnisse einbauen, etwa zugunsten von Diversitätsprogrammen – was selbst eine ideologische Vorgabe ist und an Chinas Praxis erinnert, KI-Herstellern politische Rahmenbedingungen zu setzen. Eine weitere Klausel verlangt von KI-Unternehmen, offenzulegen, ob ihre Modelle angepasst wurden, um nicht-amerikanische Vorschriften wie den EU Digital Services Act zu erfüllen.

Hintergrund der Maßnahme ist natürlich auch der Konflikt mit Anthropic: Das Pentagon kündigte einen 200-Millionen-Dollar-Vertrag, weil das Unternehmen Einschränkungen gegen Massenüberwachung von US-Bürgern und aus Verlässlichkeitsgründen autonome Waffen forderte. Kriegsminister Pete Hegseth warf Anthropic vor, ein Vetorecht über die operativen Entscheidungen des US-Militärs erlangen zu wollen. Das Weiße Haus stufte Anthropic daraufhin als Lieferkettenrisiko ein.