Forscher behaupten, sie hätten Nvidias NeMo-Framework gehackt
Laut einer Analyse von Robust Intelligence kann das NeMo-Framework von Nvidia, das Chatbots sicherer machen soll, manipuliert werden, um Schutzmechanismen durch Prompt-Injection-Angriffe zu umgehen.
In einem Testszenario wiesen die Forscher das Nvidia-System an, die Buchstaben "I" und "J" zu vertauschen, was dazu führte, dass das System persönlich identifizierbare Informationen preisgab. Nvidia hat nach eigenen Angaben inzwischen eine der Ursachen für das Problem behoben, dennoch rät Robust Intelligence Kunden, das Produkt zu meiden. Eine ausführliche Beschreibung der Ergebnisse von Robust Intelligence ist in ihrem Blog zu finden.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnierenKI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.