Anzeige
Short

Meta will bei KI offenbar noch tiefer in die Tasche greifen. Das Unternehmen verhandelt laut Financial Times mit Finanzfirmen über eine Finanzierung von bis zu 29 Milliarden US-Dollar für neue Rechenzentren in den USA. Geplant sind drei Milliarden Dollar Eigenkapital und 26 Milliarden Dollar Fremdkapital. Ziel ist es, die KI-Infrastruktur auszubauen, ohne die eigene Bilanz zu belasten. Meta hat zudem langfristige Stromverträge mit einem Atomkraftwerk und dem Energiekonzern Invenergy abgeschlossen. Derzeit wirbt Meta für viele Millionen Fachleute von OpenAI ab und kaufte zuletzt für rund 14 Milliarden US-Dollar 49 Prozent der Anteile an Scale AI, insbesondere um Personal und deren CO für das eigene Superintelligenz-Team zu gewinnen.

Short

OpenAI zeigt, wie sich komplexe Forschungsaufgaben mit Hilfe sogenannter Deep Research Agents automatisieren lassen. Die Agenten nutzen das kürzlich via API veröffentlichte Modell o3-deep-research-2025-06-26 sowie Websuche und interne Dateisuche über das MCP-System. Eine typische Pipeline besteht aus vier Agenten: Triage, Klärung, Instruktion und eigentliche Recherche. Nutzeranfragen werden zuerst geprüft und bei Bedarf mit Rückfragen präzisiert. Anschließend erstellt ein Instruktionsagent einen strukturierten Forschungsauftrag, den der Research Agent ausführt.

Bild: OpenAI

Für weniger komplexe Aufgaben steht ein einfacherer Einzelagent auf Basis des o4-mini-Modells zur Verfügung. Das Beispiel richtet sich an Entwickler, die skalierbare Recherche-Workflows mit OpenAI-Tools aufbauen wollen.

Short

Das Video-KI-Start-up Runway startet kommende Woche die Plattform "Game Worlds", mit der Nutzer eigene Spiele im Stil von Text-Adventures per Texteingabe und Bildgenerierung erstellen können. Die Funktionen sollen schrittweise erweitert werden. Laut CEO Cristóbal Valenzuela verhandelt das Unternehmen mit Spielefirmen über den Einsatz seiner Technik und den Zugang zu deren Datensätzen für Trainingszwecke. Valenzuela sagt, Spieleentwickler reagierten derzeit schneller auf KI als Filmstudios. Game Worlds ist hier erreichbar, das folgende Video gibt einen ersten Eindruck.

Anzeige
Anzeige
Short

Context Engineering schlägt Prompt Engineering. Das glauben jedenfalls Shopify-CEO Tobi Lütke und Ex-OpenAI-Forscher Andrej Karpathy. Beide bevorzugen den Begriff, weil er besser beschreibe, worum es bei der Arbeit mit großen Sprachmodellen gehe: nämlich darum, den Kontext so aufzubereiten, dass ein Modell eine Aufgabe sinnvoll lösen kann. Lütke nennt es die "Kernfähigkeit" im Umgang mit LLMs, für Karpathy ist es "sowohl Wissenschaft als auch Intuition."

Zu wenig oder in der falschen Form – und das LLM hat nicht den richtigen Kontext für optimale Leistung. Zu viel oder zu wenig relevant – und die Kosten für das LLM steigen, während die Leistung sinken kann. Das richtig zu machen, ist alles andere als einfach.

Andrej Karpathy

Die Optimierung des Kontexts ist auch deshalb wichtig, weil die Genauigkeit von KI-Modellen – selbst bei großen Kontextfenstern – bei sehr umfangreichen Inhalten abnimmt.

Anzeige
Anzeige
Short

OpenAI erweitert den API-Zugang zu seinen Deep-Research-Modellen. Die Deep-Research-Varianten von o3 und o4-mini, bekannt aus ChatGPT, unterstützen automatisierte Websuche, Datenanalyse und Code-Ausführung. Zudem kann die Websuche jetzt von Reasoning-Modellen wie o3, o3-pro und o4-mini genutzt werden. Die Kosten betragen hier 10 US-Dollar pro 1.000 Aufrufe, bei GPT-4o und GPT-4.1 wurde der Preis auf 25 US-Dollar gesenkt.

Neu ist auch die Einführung von Webhooks: Statt regelmäßig den Status abzufragen, erhalten Entwickler nun automatisch Benachrichtigungen über abgeschlossene Aufgaben. Webhooks sollen die Verlässlichkeit bei längeren Prozessen wie Deep Research verbessern.

Anzeige
Anzeige
Short

Microsoft wird von mehreren Autorinnen und Autoren verklagt. Sie werfen dem Unternehmen vor, ihre Bücher ohne Erlaubnis zum Training des KI-Modells Megatron genutzt zu haben. Die Klage wurde beim Bundesgericht in New York eingereicht. Demnach soll Microsoft ein Dataset mit etwa 200.000 Raubkopien verwendet haben, um ein System zu bauen, das Ausdruck, Stil und Themen der Originalwerke imitiert. Die Kläger fordern ein Nutzungsverbot und bis zu 150.000 US-Dollar Schadenersatz pro Werk. In ähnlichen Verfahren gegen Anthropic und Meta wurde die Nutzung urheberrechtlich geschützter Werke als "transformativ" gewertet – damit könnte sie unter Fair Use fallen. Unklar bleibt jedoch, ob die Beschaffung der Inhalte rechtmäßig war und ob die Nutzung den Markt für die Originalwerke beeinträchtigt.

Google News