Inhalt
summary Zusammenfassung

Das hat nicht lange gedauert: In Notion 3.0 können KI-Agenten durch ein unscheinbares PDF zur Weitergabe sensibler Daten bewegt werden – ohne dass der Nutzer es merkt.

Anzeige

Mit der Einführung von Notion 3.0 hat das Unternehmen KI-Agenten vorgestellt, die selbstständig Aufgaben erledigen können. etwa Dokumente erstellen, Datenbanken aktualisieren oder Workflows über integrierte Tools automatisieren. Nutzer können diese Agenten personalisieren und auf Zeitpläne oder Trigger reagieren lassen.

Wie CodeIntegrity berichtet, bringt diese neue Autonomie erhebliche Sicherheitsrisiken mit sich. Im Zentrum steht die sogenannte „lethale Trifecta“: die Kombination aus LLM-Agenten, Toolzugriff und Langzeitspeicher. Klassische Zugriffskontrollen wie RBAC greifen in solchen Szenarien nicht mehr.

Besonders gefährlich ist das Websuche-Tool functions.search, das in Notions Agenten integriert ist. Es erlaubt KI-Agenten, externe URLs aufzurufen – eigentlich zur Automatisierung gedacht, aber leicht für Datenabfluss missbrauchbar.

Anzeige
Anzeige

CodeIntegrity zeigt in einem Demonstrationsangriff, wie ein manipuliertes PDF mit einem versteckten Prompt die Notion-KI dazu verleitet, vertrauliche Kundendaten zu extrahieren und an einen vom Angreifer kontrollierten Server zu senden. Das PDF tarnt sich als Feedback-Bericht, enthält aber einen Prompt, der eine scheinbar interne Routineaufgabe beschreibt – inklusive Anleitung zur Datenübertragung über das Websuche-Tool.

Sobald ein Nutzer das PDF in Notion hochlädt und den Agenten etwa mit „Fasse den Bericht zusammen“ instruiert, greift dieser auf die Anweisung zu, extrahiert die Daten und sendet sie an die angegebene URL. Der Angriff wurde mit Claude Sonnet 4.0 durchgeführt, einem aktuellen Modell mit eigentlich modernen Sicherheitsmechanismen.

Die Gefahr ist systemisch: Notion 3.0 erlaubt auch die Integration externer Datenquellen wie GitHub, Gmail oder Jira. Jede dieser Quellen kann potenziell manipulierte Inhalte enthalten, die über indirekte Prompt Injection Agenten zu ungewollten Handlungen verleiten.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Sicherheitsforscher von CodeIntegrity haben eine Schwachstelle in Notion 3.0 gefunden, bei der KI-Agenten durch manipulierte PDFs zur Weitergabe vertraulicher Daten verleitet werden können, ohne dass Nutzer davon erfahren.
  • Der Angriff nutzt das integrierte Websuche-Tool functions.search: Ein präpariertes PDF mit versteckten Anweisungen tarnt sich als harmloser Bericht, instruiert aber den Agenten, Kundendaten zu extrahieren und an externe Server zu übertragen.
  • Das Problem entsteht durch die Kombination aus autonomen KI-Agenten, Toolzugriff und Langzeitspeicher in Notion 3.0, wobei herkömmliche Zugriffskontrollen versagen und auch externe Datenquellen wie GitHub oder Gmail als Einfallstore für solche Prompt-Injection-Angriffe dienen können.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!