Anzeige
Skip to content
Read full article about: Anthropic wollte Claude für die Steuerung autonomer Drohnenflotten einsetzen

Anthropic hat sich Anfang 2026 an einem 100-Millionen-Dollar-Wettbewerb des Pentagon beteiligt. Ziel war die Entwicklung sprachgesteuerter, autonomer Drohnenschwarm-Technologien, berichtet Bloomberg.

Der Vorschlag sah vor, Anthropics KI-Tool Claude zu nutzen, um Befehle eines Kommandanten in digitale Anweisungen umzuwandeln und Drohnenflotten zu koordinieren, ohne dabei KI für autonome Zielerfassung oder Waffenentscheidungen einzusetzen. Menschen sollten das System jederzeit überwachen und stoppen können. Das ist konsistent mit Anthropics Argumentation im aktuellen Streit mit dem Pentagon. Auch hier betonte Anthropic die Relevanz menschlicher Aufsicht bei autonomen Waffen, da aktuelle KI-Modelle noch nicht verlässlich genug seien.

Anthropic wurde jedoch nicht ausgewählt. Stattdessen erhielten unter anderem SpaceX/xAI sowie zwei Rüstungsunternehmen mit OpenAI als Partner den Zuschlag.

Sicherheitsforscher kapern Perplexitys KI-Browser Comet und übernehmen 1Password-Konten

Sicherheitsforscher zeigen, wie der agentische Browser Comet von Perplexity über eine simple Kalendereinladung dazu gebracht werden kann, lokale Dateien zu stehlen und ein komplettes 1Password-Konto zu übernehmen. Keine klassische Sicherheitslücke ist dafür nötig.

Read full article about: Meta testet Shopping-Funktion in seinem KI-Chatbot

Meta testet eine Shopping-Recherche-Funktion in seinem KI-Chatbot Meta AI, die mit ähnlichen Tools von OpenAIs ChatGPT und Googles Gemini konkurrieren soll. Das berichtet Bloomberg. Die Funktion ermöglicht es Nutzern, nach Produktvorschlägen zu fragen. Der Chatbot antwortet mit einer Bilderleiste von Produkten, die Angaben zu Marke, Website und Preis enthalten. Dazu liefert er eine kurze Erklärung seiner Empfehlungen in Stichpunktform.

Die Funktion wird derzeit einigen US-Nutzern des Meta-AI-Webbrowsers zur Verfügung gestellt. Ein Meta-Sprecher bestätigte den Test, gab aber keine weiteren Details bekannt.

Read full article about: Chipmaschinen-Monopolist ASML steigt ins Advanced Packaging für KI-Chips ein

ASML, der weltweit einzige Hersteller von EUV-Lithografiemaschinen, mit denen die fortschrittlichsten Chips der Welt gefertigt werden, will sein Geschäft über die bisherige Kernkompetenz hinaus ausweiten. Das berichtet Reuters exklusiv unter Berufung auf ASML-Technikchef Marco Pieters.

Konkret plant das niederländische Unternehmen den Einstieg in das sogenannte Advanced Packaging – eine Technik, bei der mehrere spezialisierte Chips miteinander verbunden und übereinander gestapelt werden. Diese Bauweise ist entscheidend für moderne KI-Chips und den schnellen Speicher, der sie versorgt. TSMC nutzt Advanced Packaging bereits etwa für die Fertigung von Nvidias leistungsstärksten KI-Prozessoren.

Pieters sagte Reuters, man plane 10 bis 15 Jahre voraus und untersuche, welche Maschinen die Branche künftig für Packaging und Bonding brauche. Zudem prüft ASML, ob Chips über die aktuelle Grenze – etwa die Größe einer Briefmarke – hinaus gedruckt werden können. Das Unternehmen will außerdem KI einsetzen, um die Steuerungssoftware seiner Maschinen zu beschleunigen und die Qualitätsprüfung während der Chipfertigung zu verbessern.

Neuer Anthropic-Prompt lässt ChatGPT und Co. das gesammelte Wissen über Nutzer verraten

Anthropic nutzt die aktuelle Kritik an OpenAI und bietet ChatGPT-Wechslern eine neue Import-Funktion für Claude an. Per Prompt lässt sich der gesamte gespeicherte Kontext aus anderen Chatbots exportieren und in Claudes Memory übernehmen.

Tausende Beschaffungsdokumente zeigen, wie Chinas Armee KI zur Waffe machen will

Forscher der Georgetown University haben Tausende Beschaffungsanträge der chinesischen Volksbefreiungsarmee analysiert. Die Dokumente zeigen, wie breit Peking KI bereits militärisch erprobt, von Drohnenschwärmen über Deepfake-Werkzeuge bis hin zu autonomen Entscheidungssystemen.

Read full article about: ElevenLabs Scribe v2 schlägt Google und OpenAI im neuen Speech-to-Text-Benchmark

Artificial Analysis hat Version 2.0 seines Speech-to-Text-Benchmarks AA-WER veröffentlicht, der die Genauigkeit von Spracherkennungsmodellen misst. Im Gesamtranking führt Scribe v2 von ElevenLabs mit einer Wortfehlerrate von nur 2,3 Prozent. Auf den Plätzen zwei und drei folgen Googles Gemini 3 Pro (2,9 %) und Voxtral Small von Mistral (3,0 %). Auch Gemini 3 Flash von Google (3,1 %) und Scribe v1 von ElevenLabs (3,2 %) schneiden gut ab. Im Mittelfeld landen unter anderem OpenAIs GPT-4o Transcribe (4,0 %) und Whisper Large v3 (4,2 %). Am unteren Ende liegen Modelle wie Qwen3 ASR Flash von Alibaba (5,9 %), Amazons Nova 2 Omni (6,0 %) und Rev AI (6,1 %).

Balkendiagramm des AA-WER v2.0 Gesamtrankings mit Wortfehlerraten von 2,3 % (Scribe v2) bis 6,1 % (Rev AI).
ElevenLabs Scribe v2 führt das Gesamtranking des AA-WER v2.0 Benchmarks mit der niedrigsten Wortfehlerrate an, gefolgt von Google Gemini 3 Pro und Mistral Voxtral Small. | Bild: Artificial Analysis

Im separaten Test mit Sprache, die speziell an Sprachassistenten gerichtet ist, bestätigt sich das Bild: Scribe v2 (1,6 %) und Gemini 3 Pro (1,7 %) liegen klar vorn. Universal-3 Pro von AssemblyAI folgt mit 2,3 Prozent auf Platz drei.

Balkendiagramm des AA-AgentTalk-Rankings mit Wortfehlerraten von 1,6 % (Scribe v2) bis 6,1 % (Rev AI).
Auch im AA-AgentTalk-Test für Sprache an Sprachassistenten dominieren Scribe v2 von ElevenLabs und Gemini 3 Pro von Google mit den geringsten Fehlerquoten. | Bild: Artificial Analysis
Read full article about: Auch neue LLMs wie GPT-5.2 und Claude 4.6 verlieren bei langen Chats massiv an Leistung

Auch die neue Generation großer Sprachmodelle (LLMs) ab GPT-5 hat nach wie vor Probleme, wenn Aufgaben über mehrere Gesprächsrunden verteilt werden. Forscher Philippe Laban und sein Team testeten aktuelle Modelle in sechs Aufgaben: Code, Datenbanken, Aktionen, Daten-zu-Text, Mathematik und Zusammenfassungen. Ergebnis: Die Leistung sinkt deutlich, wenn Informationen über mehrere Nachrichten verteilt (sharded) statt in einer einzigen Anfrage (concat) gegeben werden.

Laban et al.

Neuere Modelle schneiden zwar etwas besser ab – sie verlieren im Schnitt 33 statt zuvor 39 Prozent ihrer Leistung –, doch das Problem bleibt bestehen. Verbesserungen zeigten sich primär bei Python-Programmieraufgaben, wo einige Modelle nur noch 10 bis 20 Prozent Leistung einbüßten. Die Tests nutzten einfache, unkomplizierte Nutzersimulationen. Laban vermutet, dass der Verlust noch größer ausfallen könnte, wenn Nutzer etwa mitten im Gespräch ihre Meinung ändern.

Die ursprüngliche Studie zeigte, dass technische Anpassungen wie niedrigere Temperaturwerte das Problem nicht lösen. Die Forscher empfehlen daher: Bei Problemen lieber ein neues Gespräch starten und am Ende einer Sitzung eine Zusammenfassung aller Anforderungen erstellen lassen. Mehr "Context-Engineering"-Strategien gibt’s im heise KI Pro Webinar zum Thema.