Inhalt
summary Zusammenfassung

KI-Bilder werden immer realistischer und bisher gibt es keine zuverlässige Methode, sie zurückzuverfolgen. Forschende des MIT wollen zumindest Originalbilder besser vor KI-Manipulationen schützen.

Anzeige

Statt Manipulationen aufzuspüren, wollen die Forschenden die Originalbilder robuster machen, sodass Manipulationen gar nicht oder nur mit deutlich höherem Aufwand möglich sind.

"PhotoGuard" heißt das System, das minimale Pixelstörungen in ein Originalbild einbringt, die für Menschen unsichtbar sind, aber von KI-Systemen wahrgenommen werden. Diese Störungen sollen Bildmanipulationen erheblich erschweren. Entwickelt wurde das System vom Computer Science and Artificial Intelligence Laboratory (CSAIL) des Massachusetts Institute of Technology (MIT).

Bild: Hadi Salman et al. (Screenshot)

PhotoGuard verwendet zwei Methoden, um ein Bild gegen Manipulationen durch KI zu "immunisieren". Die erste Methode, der sogenannte "Encoder"-Angriff, zielt auf die im KI-Modell vorhandene Abstraktion des Bildes im latenten Raum und manipuliert dort die Daten so, dass das Modell das Bild nicht mehr eindeutig als solches erkennt und Fehler einbaut. Die Veränderung ist vergleichbar mit einem grammatikalisch falschen Satz, dessen Sinn für uns Menschen noch klar ist, der aber ein Sprachmodell irritieren kann.

Anzeige
Anzeige

Die zweite Methode, der Diffusionsangriff, ist etwas raffinierter: Für ein Originalbild wird ein bestimmtes Zielbild definiert, das durch minimale Pixelveränderungen am Originalbild während der Inferenz bestimmt wird. Wenn das KI-Modell dann versucht, das Originalbild zu verändern, wird es automatisch auf das von den Forschenden definierte Zielbild gelenkt, und das Ergebnis ergibt keinen Sinn mehr. Das folgende Video zeigt das System in Aktion.

Manipulationsschutz direkt in die Modelle integrieren

Die Forschenden schlagen vor, dass ihre oder vergleichbare Schutzmaßnahmen direkt von den Modellentwicklern angeboten werden. Sie könnten zum Beispiel über eine Programmierschnittstelle einen Dienst anbieten, der es ermöglicht, Bilder gegen die Manipulationsmöglichkeiten ihres jeweiligen Modells zu immunisieren. Diese Immunisierung müsste auch mit zukünftigen Modellen kompatibel sein und könnte als Hintertür beim Modelltraining eingebaut werden.

Ein weitreichender Schutz vor KI-Manipulation erfordert einen kollaborativen Ansatz zwischen Entwicklern, Social-Media-Plattformen und der Politik, die beispielsweise vorschreiben könnte, dass auch Modellentwickler Schutzmechanismen anbieten müssen, so die Forschenden.

Sie weisen zudem darauf hin, dass PhotoGuard keinen vollständigen Schutz bietet. Angreifer könnten versuchen, das geschützte Bild zu manipulieren, etwa durch einen neuen Ausschnitt, zusätzliches Rauschen oder eine Drehung. Generell sehen die Forschenden aber Potenzial, robuste Modifikationen zu entwickeln, die solchen Manipulationen standhalten.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • MIT-Forscher entwickeln PhotoGuard, ein System zur Vorbeugung von KI-Bildmanipulationen, indem es minimale, für Menschen unsichtbare Pixelstörungen hinzufügt, die KI-Systeme erkennen.
  • PhotoGuard verwendet zwei Methoden, den "Encoder"-Angriff und den Diffusionsangriff, um Bilder gegen KI-Manipulationen zu "immunisieren" und den Aufwand für Bildmanipulationen zu erhöhen.
  • Die Forscher schlagen vor, dass Modellentwickler solche Schutzmaßnahmen direkt anbieten und einen kollaborativen Ansatz zwischen Entwicklern, Social-Media-Plattformen und der Politik verfolgen, um umfassenden Manipulationsschutz zu gewährleisten.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!