Anzeige
Short

Context Engineering schlägt Prompt Engineering. Das glauben jedenfalls Shopify-CEO Tobi Lütke und Ex-OpenAI-Forscher Andrej Karpathy. Beide bevorzugen den Begriff, weil er besser beschreibe, worum es bei der Arbeit mit großen Sprachmodellen gehe: nämlich darum, den Kontext so aufzubereiten, dass ein Modell eine Aufgabe sinnvoll lösen kann. Lütke nennt es die "Kernfähigkeit" im Umgang mit LLMs, für Karpathy ist es "sowohl Wissenschaft als auch Intuition."

Zu wenig oder in der falschen Form – und das LLM hat nicht den richtigen Kontext für optimale Leistung. Zu viel oder zu wenig relevant – und die Kosten für das LLM steigen, während die Leistung sinken kann. Das richtig zu machen, ist alles andere als einfach.

Andrej Karpathy

Die Optimierung des Kontexts ist auch deshalb wichtig, weil die Genauigkeit von KI-Modellen – selbst bei großen Kontextfenstern – bei sehr umfangreichen Inhalten abnimmt.

Anzeige
Anzeige
Short

OpenAI erweitert den API-Zugang zu seinen Deep-Research-Modellen. Die Deep-Research-Varianten von o3 und o4-mini, bekannt aus ChatGPT, unterstützen automatisierte Websuche, Datenanalyse und Code-Ausführung. Zudem kann die Websuche jetzt von Reasoning-Modellen wie o3, o3-pro und o4-mini genutzt werden. Die Kosten betragen hier 10 US-Dollar pro 1.000 Aufrufe, bei GPT-4o und GPT-4.1 wurde der Preis auf 25 US-Dollar gesenkt.

Neu ist auch die Einführung von Webhooks: Statt regelmäßig den Status abzufragen, erhalten Entwickler nun automatisch Benachrichtigungen über abgeschlossene Aufgaben. Webhooks sollen die Verlässlichkeit bei längeren Prozessen wie Deep Research verbessern.

Anzeige
Anzeige
Short

Microsoft wird von mehreren Autorinnen und Autoren verklagt. Sie werfen dem Unternehmen vor, ihre Bücher ohne Erlaubnis zum Training des KI-Modells Megatron genutzt zu haben. Die Klage wurde beim Bundesgericht in New York eingereicht. Demnach soll Microsoft ein Dataset mit etwa 200.000 Raubkopien verwendet haben, um ein System zu bauen, das Ausdruck, Stil und Themen der Originalwerke imitiert. Die Kläger fordern ein Nutzungsverbot und bis zu 150.000 US-Dollar Schadenersatz pro Werk. In ähnlichen Verfahren gegen Anthropic und Meta wurde die Nutzung urheberrechtlich geschützter Werke als "transformativ" gewertet – damit könnte sie unter Fair Use fallen. Unklar bleibt jedoch, ob die Beschaffung der Inhalte rechtmäßig war und ob die Nutzung den Markt für die Originalwerke beeinträchtigt.

Short

Der Start von Deepseeks neuem KI-Modell R2 verzögert sich. Laut The Information fehlt es in China an Nvidia-Chips, primär dem inzwischen verbotenen H20-Chip, was auf verschärfte US-Exportregeln zurückgeht. CEO Liang Wenfeng ist laut Insidern mit R2s Leistung unzufrieden, ein Veröffentlichungstermin steht noch aus. Die Modelle sind stark auf Nvidia-Hardware optimiert, chinesische Alternativen gelten laut Cloudanbietern als weniger leistungsfähig. Trotzdem bleibt DeepSeek im Rennen: Ein Update für R1 Ende Mai brachte das Modell wieder auf das Niveau von OpenAIs und Googles Top-Modellen.

Anzeige
Anzeige
Google News