Inhalt
summary Zusammenfassung

Anthropic löst Prompt-Engineering durch ein neues Konzept ab: Context-Engineering. Die Methode soll KI-Agenten helfen, ihre begrenzte Aufmerksamkeit effizienter zu nutzen und bei langfristigen Aufgaben kohärent zu bleiben.

Anzeige

Context-Engineering umfasst laut Anthropic alle Strategien zur Kuratierung und Verwaltung des optimalen Token-Sets während der LLM-Inferenz. Im Gegensatz zum Prompt-Engineering, das sich hauptsächlich auf das Schreiben effektiver Prompts konzentriert, betrachtet Context-Engineering den gesamten Kontext-Zustand, inklusive Systemanweisungen, Tools, externer Daten und Nachrichtenverlauf.

Vergleichsdiagramm mit zwei Spalten: Links zeigt Prompt Engineering mit einfachem Kontextfenster aus System Prompt und User Message. Rechts zeigt Context Engineering mit komplexerem Setup inklusive Dokumenten, Tools, Memory Files und Message History, wobei eine Kuratierungsphase die relevanten Elemente für das finale Kontextfenster auswählt.
Vergleich zwischen traditionellem Prompt-Engineering für einzelne Anfragen und Context-Engineering für Agenten mit kontinuierlicher Kontextkuratierung. | Bild: Anthropic

Der Begriff ist nicht neu: Prompt-Engineer Riley Goodside verwendete ihn bereits Anfang 2023. Shopify-CEO Tobi Lütke und Ex-OpenAI-Forscher Andrej Karpathy griffen ihn im Sommer 2025 erneut auf. Sie betrachten das sogenannte Context Engineering als den präziseren Begriff dafür, wie sich generative KI oder KI-Agenten effektiv steuern lassen, im Gegensatz zum gängigeren Prompt Engineering.

Strategien für effektiven Kontext

Für System-Prompts empfiehlt Anthropic das richtige "Höhenniveau" zu finden: spezifisch genug für Verhaltenssteuerung, aber flexibel genug für starke Heuristiken. Bei Tools stehe Token-Effizienz im Vordergrund mit minimalen Überschneidungen in der Funktionalität.

Anzeige
Anzeige

Das Unternehmen beobachtet einen Wandel hin zu "Just in Time"-Strategien. Anstatt alle Daten vorab zu verarbeiten, würden Agenten leichte Identifikatoren beibehalten und Daten zur Laufzeit dynamisch laden. Claude Code nutze diesen Ansatz für komplexe Datenanalysen, ohne vollständige Datenobjekte in den Kontext zu laden.

Diagramm mit Farbskala von rot über grün zu rot, das drei Beispiele für System Prompts zeigt: links ein zu spezifischer Prompt mit detaillierten Schritt-für-Schritt-Anweisungen, mittig ein ausgewogener Prompt mit klaren aber flexiblen Richtlinien, rechts ein zu vager Prompt mit allgemeinen Aussagen.
Anthropics Leitfaden für die Kalibrierung von System-Prompts zeigt drei Abstufungen: zu spezifisch mit starren If-Else-Regeln, optimal ausbalanciert und zu vage ohne konkrete Anweisungen. | Bild: Anthropic

Für mehrstündige Aufgaben hat Anthropic drei Haupttechniken entwickelt:

  • Kompaktierung fassen Unterhaltungen nahe der Kontextgrenze zusammen und starte mit komprimiertem Kontext neu.
  • Strukturierte Notizen ermöglichten persistente Speicherung außerhalb des Kontextfensters.
  • Sub-Agent-Architekturen verwendeten spezialisierte Agenten für fokussierte Aufgaben, während der Hauptagent koordiniere und nur kondensierte Zusammenfassungen erhalte.

Aufmerksamkeit als knappe Ressource

Die Notwendigkeit ergibt sich aus den architektonischen Beschränkungen von LLMs. Studien haben das Phänomen der Context Rot untermauert: Mit steigender Token-Anzahl sinke die Fähigkeit des Modells, Informationen korrekt abzurufen.

Die Ursache liege in der Transformer-Architektur: Jeder Token könne zu jedem anderen Token eine Beziehung aufbauen, was bei n Tokens zu n² paarweisen Beziehungen führe. LLMs verfügten über ein begrenztes "Aufmerksamkeitsbudget", das bei der Verarbeitung großer Kontextmengen erschöpft werde.

Weniger Token-Verbrauch durch Memory Tool

Im Rahmen der Vorstellung von Claude 4.5 Sonnet hat Anthropic ein Memory-Tool in der Public Beta veröffentlicht. Dieses ermögliche es Agenten, Wissensdatenbanken über Zeit aufzubauen. Das neue Memory-Tool arbeitet clientseitig über Tool-Aufrufe und lässt Entwickler:innen selbst entscheiden, wo und wie Daten gespeichert werden. Claude kann damit Dateien in einem Memory-Verzeichnis erstellen, lesen und bearbeiten, das über Unterhaltungen hinweg bestehen bleibt.

Empfehlung

Anthropic berichtet von deutlichen Verbesserungen in eigenen Tests: Die Kombination aus Memory Tool und Context Editing soll die Leistung bei agentischer Suche um 39 Prozent gesteigert haben. Context Editing allein habe 29 Prozent Verbesserung gebracht. Bei einer 100-Runden-Web-Suche sei der Token-Verbrauch um 84 Prozent gesunken.

Die Features sind seit Kurzem in der Public Beta auf der Claude Developer Platform verfügbar, auch über Amazon Bedrock und Google Cloud Vertex AI. Anthropic stellt Dokumentationen und ein Cookbook bereit.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Anthropic beschreibt "Context Engineering" als Weiterentwicklung des Prompt Engineering, um KI-Agenten dabei zu unterstützen, ihre begrenzte Aufmerksamkeit effizienter zu nutzen und bei langfristigen Aufgaben konsistent zu bleiben.
  • Die neue Methode umfasst Strategien wie kompakte Zusammenfassungen, strukturierte Notizen außerhalb des Kontextfensters und Sub-Agent-Architekturen, um die Verarbeitung großer Datenmengen zu ermöglichen und die Kontextgrenzen von LLMs zu umgehen.
  • Mit dem neuen Memory-Tool, das in der Public Beta verfügbar ist, können Agenten Wissen persistent speichern; laut Anthropic führte die Kombination aus Memory-Tool und Context Editing zu einer Leistungssteigerung von 39 Prozent und einer Reduktion des Token-Verbrauchs um 84 Prozent bei umfangreichen Aufgaben.
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!