Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
Bewusstsein, Kognition und Künstliche Intelligenz | DEEP MINDS #10

DALL-E 2 und ähnliche KI-Systeme generieren authentische Bilder. Könnt ihr Kunst vom Menschen und aus der Maschine auseinanderhalten?

KI-Forschung und -Industrie haben im Laufe des letzten Jahres große Fortschritte bei der Entwicklung multimodaler KI-Modelle erzielt. OpenAIs DALL-E 1 zeigte Anfang 2021, wo der Weg hingehen wird: Die KI generiert faszinierende, surreale, fotorealistische und alle anderen gewünschte Motive auf Texteingabe.

Rund ein Jahr später ermöglichten diese Fortschritte in multimodalen Modellen OpenAIs DALL-E 2. Die Künstliche Intelligenz hängt das Vorgängermodell mühelos ab und erzeugt kontinuierlich eindrucksvolle Bilder in vielen Stile und für viele Motive. Google zeigte Ende Mai Imagen, eine generative Bild-KI, die DALL-E 2 in einigen Bereichen sogar überholt. In beiden Fällen reicht eine knappe Texteingabe – und zwei Minuten später ist das Bild da.

KI-Kunst: Können Menschen den Unterschied noch erkennen?

Um auf diese Fortschritte aufmerksam zu machen, hat Sahar Mor, Produktmanager bei Stripe und KI-Enthusiast, die Webseite thisimagedoesnotexist.com gestartet. Besucher:innen können dort testen, ob sie menschen- und maschinengemachte Bilder noch auseinanderhalten können.

Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung

Für die Webseite, die von dem Klassiker der KI-Fake-Webseiten thispersondoesnotexist.com inspiriert ist, hat er mehrere hundert von DALL-E 2 generierte sowie von Menschen erstellte Bilder gesammelt und einen einfachen Abstimmungsprozess erstellt: Kommt das Bild aus DALL-E 2 oder entspringt es einem menschlichen Gehirn?

Ein Roboter mit Mütze. Könnte von DALL-E 2 sein. Oder?
Fried Chicken aus der Maschine? Wer weiß das schon.

Sahar beschreibt seine Webseite als visuellen Turing-Test: Sie zeigt nacheinander 30 Bilder, die entweder KI-generiert oder menschengemacht sind. Bei jedem Bild stimmen Besucher:innen für eine der beiden Optionen und sehen anschließend, ob sie richtig liegen. Bei KI-generierten Bildern zeigt die Webseite noch die für die Generierung genutzte Texteingabe.

DALL-E 2: Es sieht (nicht) gut aus

In der ersten Woche nach dem Launch der Webseite haben mehr als 40.000 Besucher:innen aus mehr als 100 Ländern mehr als 400.000-mal abgestimmt. Die durchschnittliche Punktzahl liegt bei 18 von 30. Im Schnitt konnten die Besucher:innen also nur in etwas mehr als der Hälfte der Fälle die Bilder richtig zuordnen. Das ist kaum besser als Zufall.

Für OpenAI ist das eine gute Nachricht. Für manche Menschen, die mit Grafiken, Illustrationen und Fotos ihr verdienen, vermutlich nicht.

Besonders häufig lagen die Besucher:innen bei den beiden oben gezeigten Bildern falsch: 74 Prozent hielten den Roboter mit Mütze (Bildquelle: Flat Wave) für KI-generiert, 82 Prozent die Portion Fried Chicken für ein echtes Foto. Es ist umgekehrt. Das Foto generierte DALL-E 2 anhand der Eingabe „KFC Original Recipe Chicken, fresh, hot and juicy, 8K high resolution, studio lighting“.

Empfehlung

Hier könnt ihr euer eigenes KI-Bild-Detektionstalent testen.

Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!