KI-Forscher von Nvidia zeigen, wie eine Künstliche Intelligenz aus hell dunkel oder aus trocken nass macht.
Forscher des Chip-Produzenten Nvidia beschreiben in einer Publikation ein maschinelles Lernverfahren, das eigenständig visuelle Strukturen in Videos erkennen und verändern kann.
Das KI-System besteht aus zwei künstlichen neuronalen Netzen: Eines generiert die Fake-Daten, das andere bewertet deren Authentizität. Anhand der Bewertung optimiert das erste Netz den Fake-Prozess. Ende Oktober zeigten ebenfalls Nvidia-Forscher, wie mit dem gleichen Verfahren täuschend echte Portraitaufnahmen von Fake-Promis - Menschen, die gar nicht existieren - generiert werden können.
Das Besondere ist, dass die KI zuvor nicht mit umfangreichen, gekennzeichneten Datensätzen trainiert werden muss. Dieses sogenannte unüberwachte Lernverfahren ist dadurch schneller und potenziell zugänglicher. Der Nachteil ist, dass die Fälschungen im Vergleich zu überwachten Lernverfahren mit gekennzeichneten Daten anfälliger sind für Fehler. Allerdings ist die Qualität der von Nvidia produzierten Fake-Videos hoch: Die Forscher selbst bezeichnen sie als realistisch.
Gegenüber der Webseite The Verge sagt Nvidia-Forscher Ming-Yu Liu, dass die Fake-Aufnahmen beispielsweise dafür genutzt werden könnten, um selbstfahrende Autos auf verschiedene Wettersituationen vorzubereiten: "In Kalifornien regnet es nicht oft, aber wir möchten, dass unsere selbstfahrenden Autos bei Regen korrekt funktionieren. Mit der Methode könnten wir eine sonnige Fahrsequenz in eine regnerische verwandeln und das selbstfahrende Auto damit trainieren."
Laut dem Forscher gibt es noch keine konkreten Anwendungsszenarien, das Verfahren könne auch für die Bildbearbeitung genutzt werden.
Kritiker befürchten Schwemme an Multimedia-Fake-News
Die Berichterstattung über die Fake-Videos setzte der Wired-Journalist Oliver Franklin-Wallis bei Twitter in Gang. Er verlinkte das Ergebnis der Nvidia-Forscher mit einem Bild der Fake-Videos und merkte an, dass das größte Opfer Künstlicher Intelligenz nicht der Arbeitsmarkt sei, sondern "die komplette Vernichtung des Vertrauens in alles, das man sieht oder hört."
The biggest casualty to AI won't be jobs, but the final and complete eradication of trust in anything you see or hear. https://t.co/sg9o4v2Q3f pic.twitter.com/nkj007LtEF
— Oli Franklin-Wallis (@olifranklin) 4. Dezember 2017
Seine Äußerung dürfte insbesondere darauf abzielen, dass durch vergleichsweise schnelle und einfache KI-Manipulation in Zukunft deutlich mehr Multimedia-Fakes entstehen könnten. Bisher ist Bild- und Videomanipulation in dieser Qualität nur ausgebildeten Fachkräften möglich, benötigt spezielles Werkzeug und ist entsprechend teuer.
Laut Googles KI-Forscher Ian Goodfellow ist es ein "historischer Glücksfall", dass sich die Menschheit in den letzten Jahrzehnten für authentische Berichterstattung auf Bilder und Videos verlassen konnte. Mit Bezug auf Nvidias Forschung sagt Goodfellow, dass Nutzer im Netz zukünftig noch misstrauischer sein müssten und Bildern und Videos nicht mehr trauen sollten. Fälschungen seien zwar schon immer möglich gewesen, aber KI-Systeme beschleunigten vorhandene Prozesse.
Über KI-Fake-News diskutieren wir im aktuellen VRODO-Podcast ab Minute 26:50.