Wissenschaftler zeigen, wie sie einen Bilderkennungsalgorithmus von Google austricksen. Das Verfahren funktioniert laut den Entwicklern verlässlich für verschiedene Objekte und 2D-Bilder sowie 3D-Modelle.
KI-Forscher am MIT haben eine Methode entwickelt, mit der sie ein künstliches neuronales Netz von Google, das auf die Objekterkennung in Bildern trainiert wurde, austricksen können. Sie veranschaulichen das an einem 3D-Modell einer Schildkröte, das vom Google-Algorithmus unabhängig vom Blickwinkel als Gewehr erkannt wird. Die Wissenschaftler nennen als weiteres Beispiel einen Baseballschläger, der als Espressotasse durchgeht.
Für dieses Täuschungsmanöver entwickelten die Wissenschaftler einen gegnerischen Algorithmus. Dieser manipuliert gezielt einzelne Parameter am Objekt wie Unschärfe, Rotation, Zoom oder Farbgebung. Diese Veränderungen können so geringfügig sein, dass sie dem menschlichen Auge kaum auffallen. Das Verfahren funktioniert sowohl für 2D-Bilder als auch 3D-Modelle.
Googles Algorithmus wird selbst dann nicht stutzig, wenn das Objekt nicht mehr in den Kontext der Umgebung passt, also ein Baseballspieler plötzlich mit einer Espressotasse in der Hand auf dem Spielfeld steht oder ein Gewehr unter Wasser taucht.
Potenzielle Sicherheitslücke
Besonders problematisch würde dieser Hack, wenn sich Menschen in sicherheitsrelevanten Fragen rein auf visuelle algorithmische Erkennungsverfahren stützen. Ein gutes Beispiel ist die Sicherheitskontrolle am Flughafen, an der man mit der beschriebenen Methode Waffen und gefährliche Gegenstände vorbeischmuggeln könnte.
Ähnlich gravierend wären manipulierte Straßenschilder, die selbstfahrende Autos in die Irre führen. Vergleichbare Risiken lassen sich für alle Szenarien entwickeln, in denen ein Computer visuelle Kontrolle im Alleingang ausübt.
Google und Co. kennen diese Schwachstellen in ihren Systemen und arbeiten daran, sie auszumerzen. Entsprechend geht der Wettlauf zwischen Cyber-Sicherheit und Hackern im Zeitalter der Künstlichen Intelligenz weiter.
Die Frage ist, wie sehr sich die Tragweite möglicher Hacks ausweitet und wie einfach zugänglich diese werden. Die MIT-Forscher sprechen beispielsweise von T-Shirts mit speziellen Motiven, die solche visuellen Widersprüche verursachen und KI-Kontrollen mit minimalem Aufwand täuschen könnten.
Details zum Projekt stehen hier, das Paper gibt es hier.