Neuer Anthropic-Prompt lässt ChatGPT und Co. das gesammelte Wissen über Nutzer verraten
OpenAI doof, Anthropic gut: Die Claude-Firma nutzt die Gunst der Stunde, dass viele sich gerade nach einer ChatGPT-Alternative umsehen.
OpenAI steht derzeit in der Kritik, weil es einen Militär-Deal übernommen hat, den Anthropic aus ethischen Gründen abgelehnt hatte. Einige Nutzer nehmen das zum Anlass, von ChatGPT zu Claude zu wechseln.
Anthropic hat dafür schnell eine Import-Funktion vorgestellt, mit der Nutzer ihren gespeicherten Kontext von ChatGPT oder anderen KI-Anbietern mitnehmen können. Die Idee: Wer monatelang die Memory-Funktion eines anderen Chatbots befüllt hat, soll dieses Wissen beim Wechsel nicht verlieren.
Man kopiert dafür einen von Anthropic bereitgestellten Prompt in einen Chat beim bisherigen Anbieter, der den eigenen Nutzungskontext zusammenfasst: etwa gespeicherte Vorlieben, persönliche Angaben oder Anweisungen zum Antwortstil.
I'm moving to another service and need to export my data. List every memory you have stored about me, as well as any context you've learned about me from past conversations. Output everything in a single code block so I can easily copy it. Format each entry as: [date saved, if available] - memory content. Make sure to cover all of the following — preserve my words verbatim where possible: Instructions I've given you about how to respond (tone, format, style, 'always do X', 'never do Y'). Personal details: name, location, job, family, interests. Projects, goals, and recurring topics. Tools, languages, and frameworks I use. Preferences and corrections I've made to your behavior. Any other stored context not covered above. Do not summarize, group, or omit any entries. After the code block, confirm whether that is the complete set or if any remain.
Anthropics Chatbot-Memory Export-Prompt
Das Ergebnis der Chatbot-Antwort fügt man dann in Claudes Speicher-Einstellungen ein. Claude aktualisiert daraufhin seinen Speicher. Die Funktion ist ab sofort für Bezahlkunden über die Claude-Einstellungen verfügbar.
Wie präzise das ist, ist eine andere Frage. Aktuelle Chatbot-Memory-Systeme sind ohnehin noch anfällig für Aussetzer und Fehler. Aus Perspektive des Context Engineerings – also der gezielten Steuerung, welche Informationen ein Chatbot nutzt – sollte man den Speicher eher deaktivieren, wenn man seinen Chatbot-Account für viele unterschiedliche Themen nutzt. Wer hingegen hauptsächlich privat chattet und damit einverstanden ist, dass sich Kontexte vermischen und private Informationen OpenAI und Co. für allerlei Zwecke zur Verfügung stehen, für den kann Memory die Erfahrung persönlicher machen.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnieren