Das National Institute of Standards and Technology (NIST) hat einen umfassenden Bericht über adversarial maschinelles Lernen (AML) veröffentlicht, der eine Taxonomie von Konzepten, Terminologie und Abhilfemethoden für die KI-Sicherheit enthält. Der Bericht, der von Experten des NIST, der Northeastern University und Robust Intelligence verfasst wurde, untersucht die AML-Literatur und ordnet die wichtigsten Arten von ML-Methoden, Zielen und Fähigkeiten von Angreifern in eine konzeptionelle Hierarchie ein. Darüber hinaus werden Methoden zur Abschwächung und Bewältigung der Auswirkungen von Angriffen vorgestellt und offene Herausforderungen im Lebenszyklus von KI-Systemen aufgezeigt. Mit einem Glossar für nicht-technische Leser zielt der Bericht darauf ab, eine gemeinsame Sprache für zukünftige KI-Sicherheitsstandards und Best Practices zu schaffen. Der vollständige 106-seitige Bericht ist sehr detailliert und bezieht sich auf reale Angriffe wie Prompt Injections. Der Bericht ist kostenlos erhältlich.

Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!