Eine neue Webseite warnt vor mächtigen KI-Fakes, indem sie diese erstellt.
Philip Wang, ein Software-Entwickler beim Privat-Taxidienst Uber, will die Welt aufmerksam machen auf das Fake-Potenzial Künstlicher Intelligenz: "Die meisten Leute verstehen nicht, wie gut KI Bilder fälschen kann", sagt Wang der Webseite Motherboard.
Auf der Webseite thispersondoesnotexist.com demonstriert er Fake-KI anhand gefälschter Porträt-Aufnahmen. Der Name der Webseite ist Programm: Nach jedem Ladevorgang erscheint eine neue Person. Keine von ihnen existiert in Wirklichkeit.
Generiert werden die Fake-Fotos von einer Künstlichen Intelligenz, die zuvor an unzähligen realen Aufnahmen die typischen Bildmerkmale eines Porträts studierte. Die Generierung neuer Porträts erfolgt auf dieser Grundlage: Für die KI sind die Fake-Bilder letztlich nur statistische Pixel-Puzzle.
Erstellt werden die Aufnahmen durch ein sogenanntes GAN-Netzwerk, bei dem zwei KI-Agenten zusammenarbeiten: Der erste Agent erzeugt ein Bild, der zweite prüft es auf Glaubhaftigkeit. Fällt er nicht auf die Aufnahme herein, meldet er das dem ersten KI-Agenten zurück. Der verändert anschließend die Parameter, bis das Täuschungsmanöver perfekt ist.
Diese dynamische Verbesserungsmethode ist so effizient, dass ihr Erfinder, der Google-KI-Entwickler Ian Goodfellow, einst warnte, dass man Fotos und Videos im Internet bald nicht mehr trauen könne. Fake-Media - im wahrsten Sinne des Wortes. Zuletzt demonstrierten Nvidia und Deepmind, dass solche Bild-KIs ebenso gut glaubhafte Aufnahmen von Objekten, Nahrung oder Tieren erstellen können.
Perfekt sind die gefälschten Porträts auf Wangs Webseite nicht: Wer genau hinschaut, erkennt häufig im Hintergrund, an den Augen, den Zähnen oder den Haaren Bildfehler. Doch wer schaut im Internet schon genau hin?