Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Anthropics Prompt Caching kann die Kosten für lange Prompts um bis zu 90 Prozent und die Latenz um bis zu 85 Prozent senken. Die Funktion ermöglicht es Entwicklern, häufig verwendete Kontexte zwischen API-Aufrufen zwischenzuspeichern und Claude so mit mehr Hintergrundwissen und Beispielen zu versorgen. Prompt Caching ist ab sofort als öffentliche Beta für die Modelle Claude 3.5 Sonnet und Claude 3 Haiku verfügbar, Unterstützung für Claude 3 Opus folgt in Kürze. Prompt-Caching eignet sich für Chat-Agenten, Codierungsassistenten, die Verarbeitung langer Dokumente, detaillierte Anweisungssätze, agentenbasierte Suche und Toolnutzung sowie für Fragen zu Büchern, Papieren, Dokumentationen und Podcast-Transkripten. Auch Google bietet Prompt Caching an.
Anthropic kündigt eine Erweiterung seines Bug-Bounty-Programms an für die "nächste Generation seiner KI-Sicherheitssysteme" an. Das neue Programm konzentriert sich auf die Identifizierung und Abwehr sogenannter "universeller Jailbreak-Angriffe". Anthropic konzentriert sich dabei auf einige der wichtigsten Schwachstellen in kritischen Hochrisikobereichen wie CBRN (chemisch, biologisch, radiologisch und nuklear) und Cybersicherheit. Die Teilnehmer erhalten frühzeitig Zugang zu den neuesten Sicherheitssystemen von Anthropic, bevor diese öffentlich eingesetzt werden, und sollen Schwachstellen oder Wege zur Umgehung von Sicherheitsmaßnahmen finden. Anthropic bietet Belohnungen von bis zu 15.000 US-Dollar für neue universelle Jailbreak-Angriffe.