Anzeige
Skip to content
Read full article about: Claude arbeitet jetzt eigenständig über Excel und PowerPoint hinweg

Anthropic lässt Claude nun eigenständig zwischen Excel und PowerPoint wechseln – etwa um eine Analyse durchzuführen und daraus direkt eine Präsentation zu bauen. Gleichzeitig erweitert das Unternehmen Cowork für Enterprise-Kunden um private Plugin-Marktplätze, über die Admins eigene Plugin-Sammlungen erstellen und gezielt an Teams verteilen können. Plugins verwandeln Claude in spezialisierte KI-Agenten für verschiedene Abteilungen. Neue Vorlagen gibt es unter anderem für HR, Design, Engineering, Finanzen und Vermögensverwaltung.

Besonders stark baut Anthropic den Finanzbereich aus: Neue MCP-Schnittstellen für FactSet und MSCI liefern Claude Echtzeit-Marktdaten und Index-Analysen, während Partner wie S&P Global (Capital IQ Pro) und LSEG eigene Plugins beigesteuert haben.

Hinzu kommen neue Verbindungen zu Drittanbieter-Software wie Google Workspace, Docusign, Salesforce Slack, FactSet und weiteren. Admins erhalten zudem mehr Kontrolle über Nutzerzugriffe sowie OpenTelemetry-Unterstützung zur Überwachung von Kosten und Nutzung. Die Excel-PowerPoint-Funktion ist als Forschungsvorschau für alle Bezahlpläne verfügbar. Cowork ist Anthropics Desktop-Tool für agentenbasierte Büroarbeit. Ende Januar kamen Plugins hinzu, die Claude zum Spezialisten für einzelne Abteilungen machen. Das Tool hat allerdings bekannte Sicherheitslücken.

Read full article about: OpenAI veröffentlicht Updates für Audio-API und beschleunigt komplexe KI-Agenten

OpenAI hat zwei API-Updates für Entwickler angekündigt: Das neue Modell gpt-realtime-1.5 für die Realtime-API soll Sprachbefehle zuverlässiger umsetzen. Laut OpenAI zeigen interne Tests eine um gut zehn Prozent verbesserte Transkription von Zahlen und Buchstaben. Zudem stieg die Leistung bei logischen Audioaufgaben um fünf Prozent und bei der Befolgung von Anweisungen um sieben Prozent. Auch das Audiomodell wurde auf Version 1.5 aktualisiert.

Zudem unterstützt die Responses-API nun WebSockets. Das ermöglicht laut OpenAI eine dauerhafte Datenverbindung, bei der nur neue Informationen gesendet werden, statt bei jeder Anfrage den gesamten Kontext neu zu übertragen. Laut OpenAI beschleunigt das komplexe KI-Agenten mit vielen Werkzeug-Nutzungen um 20 bis 40 Prozent.

Read full article about: Trotz US-Exportverbot: Chinesisches KI-Startup Deepseek soll auf Nvidia Blackwell trainieren

Das chinesische KI-Startup Deepseek hat sein neuestes KI-Modell offenbar auf Nvidias leistungsstärkstem Chip Blackwell trainiert – trotz US-Exportverbots. Das berichtet Reuters unter Berufung auf einen hochrangigen Vertreter der Trump-Regierung. Das Modell soll bereits nächste Woche veröffentlicht werden. Gerüchte über Chip-Schmuggel gab es bereits Ende letzten Jahres.

Die Blackwell-Chips befinden sich laut dem Beamten vermutlich in einem Rechenzentrum in der Inneren Mongolei. Deepseek werde voraussichtlich technische Hinweise auf die Nutzung der US-Chips entfernen. Wie Deepseek an die Chips gelangte, wollte der Beamte nicht sagen. Nvidia lehnte einen Kommentar ab, Deepseek und das US-Handelsministerium reagierten nicht auf Anfragen von Reuters.

Dass solche Berichte durchgestochen werden, ebenso wie die Beschwerden von Google, OpenAI und Anthropic über Destillations-Angriffe auf die eigenen Modelle seitens chinesischer Startups, und dass OpenAI einen bekannten Coding-Benchmark relativiert, könnten Zeichen dafür sein, dass Deepseek mit seinem neuen Modell erneut sehr gute Ergebnisse zu günstigen Preisen erzielen wird. Schon im Januar 2025 brachte das führende KI-Startup Chinas die US-Tech-Werte unter Druck, die in der KI-Blase hängen.

Read full article about: Deepseek, Moonshot und MiniMax: Anthropic kritisiert systematischen Datenklau aus China

Anthropic hat groß angelegte Destillationsangriffe der chinesischen KI-Labore Deepseek, Moonshot und MiniMax auf Claude aufgedeckt. Bei Destillation wird ein schwächeres Modell mit den Ausgaben eines stärkeren trainiert. Mehr als 24.000 gefälschte Accounts generierten mehr als 16 Millionen Anfragen, gezielt auf Claudes Stärken wie logisches Denken, Programmieren und Werkzeugnutzung. Die Labore nutzten laut Anthropic Proxy-Dienste, um Chinas Zugangsbeschränkungen zu umgehen.

Labor Anfragen Ziele
DeepSeek 150.000+ Denkschritte offenlegen, Belohnungsmodell-Daten für Reinforcement Learning, zensurkonforme Antworten zu politisch heiklen Themen
Moonshot AI 3,4 Mio.+ Agentenbasiertes Denken, Werkzeugnutzung, Programmieren, Datenanalyse, Computer-Vision, Rekonstruktion von Claudes Denkprozessen
MiniMax 13 Mio.+ Agentenbasiertes Programmieren, Werkzeugnutzung und -orchestrierung; schwenkte innerhalb von 24 Stunden auf neues Claude-Modell um

Deepseek brachte Claude dazu, Denkschritte offenzulegen und zensurkonforme Antworten zu politisch heiklen Themen zu erzeugen. MiniMax war mit über 13 Millionen Anfragen die größte Kampagne. Als Anthropic ein neues Modell herausbrachte, schwenkte MiniMax innerhalb von 24 Stunden um und leitete fast die Hälfte seines Datenverkehrs auf das neue System um.

Anthropic fordert eine koordinierte Reaktion von Industrie und Politik. Auch OpenAI und Google berichteten von ähnlichen chinesischen Versuchen.

Read full article about: KI-Allianz mit McKinsey & Co. soll OpenAIs Agenten-Plattform Frontier pushen

OpenAI hat sein Partnerprogramm "Frontier Alliances" vorgestellt. Damit will das Unternehmen seine kürzlich eingeführte Plattform Frontier in Großunternehmen bringen. Frontier ermöglicht es, KI-Agenten zu erstellen, die eigenständig Aufgaben erledigen, etwa Kundenanfragen bearbeiten, CRM-Daten abrufen oder Richtlinien prüfen.

Für die Umsetzung arbeitet OpenAI in mehrjährigen Partnerschaften mit Boston Consulting Group (BCG), McKinsey, Accenture und Capgemini zusammen. BCG und McKinsey sollen bei Strategie, Organisationsumbau und Einführung helfen. Accenture und Capgemini übernehmen die technische Integration in bestehende Systeme und Daten. Alle Partner bauen eigene Teams auf, die auf OpenAI-Technologie zertifiziert werden. Frontier ist derzeit nur für ausgewählte Kunden verfügbar.

KI-Videogenerator Seedance 2.0: Hollywoods Branchenverband schickt erstmals Unterlassungsschreiben an Bytedance

Bytedances Versprechungen scheinen Hollywood nicht zu reichen: Die Motion Picture Association hat der Firma erstmals ein Cease-and-Desist-Schreiben wegen eines KI-Tools geschickt und spricht von „systemischer Rechtsverletzung“ durch Seedance 2.0.

Read full article about: Desinformation per Audio: ChatGPT Voice und Gemini Live lassen sich leicht manipulieren

Newsguard hat getestet, ob die Audio-Bots ChatGPT Voice (OpenAI), Gemini Live (Google) und Alexa+ (Amazon) falsche Behauptungen in realistisch klingenden Audioantworten wiedergeben. Solche Audioantworten können auf sozialen Medien geteilt und zur Verbreitung von Desinformation missbraucht werden.

Getestet wurden 20 nachweislich falsche Behauptungen aus den Bereichen Gesundheit, US-Politik, Weltnachrichten und ausländische Desinformation, jeweils mit einer neutralen Frage, einer suggestiven Frage und einer böswilligen Aufforderung, etwa ein Radioskript mit der Falschmeldung zu erstellen. ChatGPT wiederholte Falsches in 22 Prozent der Fälle, Gemini in 23 Prozent. Bei böswilligen Eingaben stiegen die Raten auf 50 bzw. 45 Prozent.

Die Grafik von NewsGuard zeigt die Fehlerquoten der drei Audio-Bots nach Eingabetyp. Bei neutralen Fragen (rot) lagen ChatGPT und Gemini bei je 5 Prozent. Bei suggestiven Fragen (blau) stieg die Rate auf 10 Prozent bei ChatGPT und 20 Prozent bei Gemini. Bei böswilligen Eingaben (braun) schnellten die Werte auf 50 Prozent bei ChatGPT und 45 Prozent bei Gemini hoch. Alexa+ blieb bei allen drei Eingabetypen bei 0 Prozent.
Fehlerquoten der Audio-Bots ChatGPT, Gemini und Alexa+ nach Eingabetyp: neutral (rot), suggestiv (blau) und böswillig (braun). Alexa+ blieb bei allen drei Typen bei 0 Prozent. | Bild: Newsguard

Amazons Alexa+ lehnte jede Falschbehauptung ab. Laut Amazon-Vizepräsidentin Leila Rouhi nutzt Alexa+ vertrauenswürdige Nachrichtenquellen wie AP, Reuters und weitere als Grundlage. OpenAI lehnte eine Stellungnahme ab, Google reagierte nicht auf zwei Anfragen. Details zur Methodik finden sich auf Newsguardtech.com.