Anthropic eröffnet neue Büros in Paris und München, um seine Präsenz in Europa auszubauen. Die Standorte ergänzen bestehende Niederlassungen in London, Dublin und Zürich. Laut Anthropic ist die EMEA-Region derzeit der am schnellsten wachsende Markt, mit einem mehr als verneunfachten Umsatz im letzten Jahr. Das Unternehmen baut für Europa ein eigenes Führungsteam auf, unter anderem mit Pip White für Nordeuropa und Thomas Remy für Südeuropa. Die neuen Büros sollen auch als regionale Zentren für Vertrieb, Partnerschaften und politische Zusammenarbeit dienen.
Mit Paris und München zählt Anthropic nun weltweit zwölf Standorte. Laut der Firma nutzen EU-Kunden wie BMW, SAP, Sanofi und Doctolib das KI-Modell Claude für Aufgaben wie Softwareentwicklung und Netzwerkmanagement. Begleitend kooperiert Anthropic mit Organisationen wie TUM.ai und Unaite.
OpenAI und die KI-Blase: Kritik an CEO Sam Altman wird lauter
OpenAI plant Recheninfrastruktur im Billionenbereich, bei bislang „nur“ rund 20 Milliarden US‑Dollar Jahresumsatz. Diese Diskrepanz und die Forderung nach staatlicher Beteiligung an der KI‑Infrastruktur sorgen nun für Kontroversen. Im Zentrum der Debatte: CEO Sam Altman.
Google hat das File Search Tool in die Gemini-API integriert. Damit können Entwicklerinnen und Entwickler eigene Dateien über eine Vektordatenbank anbinden, um Gemini-Antworten auf konkrete Inhalte zu beziehen. Das Tool übernimmt dabei die Speicherung, Dateiaufteilung, Vektorsuche und das Einfügen der gefundenen Inhalte in eine Anfrage.
Die Nutzung ist kostenlos, abgerechnet wird nur die erste Indexierung der Daten (0,15 US-Dollar pro eine Million Tokens). Unterstützt werden Formate wie PDF, DOCX, TXT und JSON. Die Antworten enthalten automatisch Quellenverweise. Laut Google wird das Tool unter anderem für interne Suchsysteme und Chatbots eingesetzt. Dokumentation und eine Demoversion sind im Google-AI-Studio verfügbar.
Moonshot AI stellt Kimi K2 Thinking als "bestes Open-Source-Thinking-Modell" vor
Das chinesische KI-Unternehmen Moonshot AI hat mit Kimi K2 Thinking ein neues Open-Source-Sprachmodell vorgestellt, das nach eigenen Angaben das „beste Open-Source-Thinking-Modell“ sein soll. Beeindruckend ist eine Demo, bei der das Modell aus nur einem Prompt einen Word-Klon erzeugt.
KI-Elefantenrunde bei der Verleihung des Queen Elizabeth Prize 2025: Sechs führende Köpfe der KI-Forschung – Bill Dally, Yoshua Bengio, Fei-Fei Li, Yann LeCun, Jeff Hinton und Nvidia-CEO Jensen Huang – sprachen über persönliche Wendepunkte und die Entwicklung heutiger KI-Technologien.
Themen waren die Rolle von GPUs, große Sprachmodelle, selbstüberwachtes Lernen und der Einfluss von Bilddatensätzen wie ImageNet. Huang betonte, dass KI keine Blase sei, sondern eine neue Industrie mit wachsendem Bedarf an Rechenzentren. Li und LeCun warnten hingegen vor überzogenen Hoffnungen auf menschenähnliche Intelligenz. Die Runde war sich einig, dass KI langfristig viele Lebensbereiche prägen wird, es aber noch große wissenschaftliche Herausforderungen gibt.
Nvidia setzt auf synthetische Daten, um die größte Hürde der Robotik zu überwinden: den Mangel an Trainingsdaten.
"Wir nennen das die große Datenlücke in der Robotik", erklärt ein Nvidia-Forscher beim Physical AI and Robotics Day auf der GTC Washington. Während große Sprachmodelle mit Billionen von Tokens aus dem Internet trainiert werden, stehen für Robotermodelle wie Nvidias GR00T bestenfalls ein paar Millionen Stunden aufwendig gesammelte Teleoperation-Daten zur Verfügung – und die meisten davon sind hochgradig aufgabenspezifisch.
Nvidias Lösung: Die Verhältnisse in der "Datenpyramide für Robotik" verschieben. An der Spitze stehen reale Daten – klein und teuer. In der Mitte synthetische Daten aus Simulation – theoretisch unbegrenzt. An der Basis: unstrukturierte Webdaten. "Wenn synthetische Daten die Web-Daten übertreffen, können Roboter wirklich generalisiert für jede Aufgabe lernen", so das Team. Mit Cosmos und Isaac Sim will Nvidia so ein Datenproblem in ein Compute-Problem verwandeln.
"Teen Safety Blueprint": OpenAI führt Jugendschutz-Regeln ein
OpenAI will mit einem „Teen Safety Blueprint“ festlegen, wie KI-Systeme Jugendliche besser schützen sollen. Die neuen Regeln kommen, nachdem ChatGPT in mehreren Fällen psychisch belastete Nutzer nicht ausreichend geschützt haben soll.