Anthropics Prompt Caching kann die Kosten für lange Prompts um bis zu 90 Prozent und die Latenz um bis zu 85 Prozent senken. Die Funktion ermöglicht es Entwicklern, häufig verwendete Kontexte zwischen API-Aufrufen zwischenzuspeichern und Claude so mit mehr Hintergrundwissen und Beispielen zu versorgen. Prompt Caching ist ab sofort als öffentliche Beta für die Modelle Claude 3.5 Sonnet und Claude 3 Haiku verfügbar, Unterstützung für Claude 3 Opus folgt in Kürze. Prompt-Caching eignet sich für Chat-Agenten, Codierungsassistenten, die Verarbeitung langer Dokumente, detaillierte Anweisungssätze, agentenbasierte Suche und Toolnutzung sowie für Fragen zu Büchern, Papieren, Dokumentationen und Podcast-Transkripten. Auch Google bietet Prompt Caching an.

Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!