KI in der Praxis

OpenAI implementiert C2PA-Standard in DALL-E 3 zur Überprüfung von KI-generierten Bildern

Matthias Bastian
OpenAI implementiert C2PA-Standard in DALL-E 3 zur Überprüfung von KI-generierten Bildern

THE DECODER (Screenshot)

OpenAI hat den C2PA-Standard (Coalition for Content Provenance and Authenticity) in sein DALL-E 3-Modell implementiert, das Metadaten in generierte Bilder einbettet, um deren Herkunft und damit verbundene Informationen zu verifizieren.

Bilder, die mit ChatGPT im Web und der API für das DALL-E 3-Modell erzeugt wurden, enthalten nun C2PA-Metadaten, die auf Websites wie Content Credentials Verify überprüft werden können.

API-Bilder enthalten eine Signatur, die anzeigt, dass sie mit dem DALL-E 3-Modell erzeugt wurden. Bilder, die mit ChatGPT erzeugt wurden, enthalten einen zusätzlichen Hinweis auf die ChatGPT-Herkunft. So kann zwischen Chat und API unterschieden werden.

Laut OpenAI hat die Implementierung von C2PA-Metadaten im DALL-E 3-Modell Auswirkungen auf die Dateigröße. Beispielsweise kann ein PNG-Bild über die API um drei Prozent, ein WebP-Bild über die API um fünf Prozent und ein WebP-Bild über ChatGPT um 32 Prozent größer werden.

Die Auswirkungen auf die Latenz sollen vernachlässigbar sein und die Qualität der Bilderzeugung soll nicht beeinträchtigt werden.

C2PA ist keine Lösung für KI-Fake-Bilder

Eine Lösung des KI-Bildproblems ist C2PA nicht, denn Metadaten lassen sich mit etwas Anstrengung leicht umgehen. Aber es dürfte zumindest die Bilderflut etwas eindämmen oder transparenter machen.

Auch OpenAI weist darauf hin, dass Metadaten entfernt werden können und die meisten Social-Media-Plattformen heutzutage Metadaten von hochgeladenen Bildern automatisch löschen.

Zumindest Meta hat jedoch angekündigt, C2PA in Zukunft auf den eigenen Social-Plattformen zu verifizieren. Auch Adobe, Microsoft, Intel und andere Plattform- und Grafikanbieter wollen C2PA unterstützen. Weitere Plattformen dürften folgen.

Die Coalition for Content Provenance and Authenticity (C2PA) ist eine Organisation, die in Zusammenarbeit mit Adobe ein "Transparenzsymbol" entwickelt hat.

Dieses Symbol kann den Metadaten von Inhalten hinzugefügt werden, um deren Herkunft und die Verwendung von KI-Werkzeugen anzuzeigen.

Adobe und die Coalition for Content Provenance and Authenticity (C2PA) haben ein "Transparenzsymbol" entwickelt, das zu den Metadaten von Inhalten hinzugefügt werden kann, um deren Herkunft und die Verwendung von KI-Werkzeugen anzuzeigen. | Bild: Adobe

Der C2PA-Standard wird auch von Kameraherstellern und Nachrichtenorganisationen übernommen, um die Quelle und die Historie von Medieninhalten zu zertifizieren.

Quellen: