Inhalt
summary Zusammenfassung

Die neue KI von OpenAI kann in Sekundenschnelle täuschend echte Fotos von Dokumenten erstellen. Dies könnte bestehende Sicherheitssysteme überfordern, da plötzlich jeder Zugang zu professionellen Fälschungswerkzeugen hat.

Anzeige

Mit OpenAIs neuem Bildmodell GPT-4o lassen sich täuschend echte Fotos von Dokumenten in Sekundenschnelle erstellen. Der X-Nutzer "God of Prompt" zeigt etwa gefälschte Flugstornierungen, Banküberweisungen, Universitätsabschlüsse oder ärztliche Rezepte, die als Foto problemlos gefälscht werden können.

Screenshot einer gefälschten Flugabsage.
Beispiel für gefälschte Flugabsage. | Bild: via God of Prompt

Während die Fälschung solcher Dokumente mit Bildbearbeitungsprogrammen schon immer möglich war, verändert die KI-gestützte Automatisierung die Situation grundlegend: Statt weniger Experten, die Stunden für eine Fälschung benötigen, kann nun praktisch jeder in Sekunden überzeugende Fake-Dokumente erstellen.

Bild: GPT-4o prompted by THE DECODER

Menge an Fälschungen könnte neue Kontrollmechanismen erfordern

Die schiere Menge möglicher Fälschungen könnte etablierte Sicherheitssysteme an ihre Grenzen bringen, wenn etwa bei geringen Entschädigungsansprüchen auf eine gründliche Überprüfung von Screenshot-Nachweisen verzichtet wird, Vermieter Zahlungshistorien nur oberflächlich prüfen, oder Arbeitgeber in frühen Bewerbungsrunden Zeugnisse nicht auf Fälschung prüfen.

Anzeige
Anzeige
In der The-Decoder-Bar hat es gestern gut gemundet. Kann ich das Geld zurückhaben? | Bild: GPT-4p prompted by THE DECODER

Wenn plötzlich Tausende gefälschte Nachweise im Umlauf sind, könnten die bestehenden Kontrollmechanismen in Unternehmen und Behörden versagen. Je mehr Fälschungen eingereicht werden, desto wahrscheinlicher ist es, dass einige durch die Prüfung rutschen - selbst bei gleichbleibender Erkennungsrate.

OpenAI versucht, dem Missbrauch mit verschiedenen Sicherheitsmaßnahmen zu begegnen. Alle von GPT-4o generierten Bilder werden mit C2PA-Metadaten versehen, die sie als KI-generiert kennzeichnen. Diese Metadaten erfordern aber, dass der Screenshot-Prüfer auch ein Tool nutzt, das deren Vorhandensein prüft. Außerdem könnten gewiefte Nutzer die Metadaten entfernen. OpenAI hat zusätzlich ein internes Suchwerkzeug entwickelt, um die Herkunft von Bildern zu verifizieren.

Die C2PA-Metadaten können mit speziellen Tools ausgelesen werden. So lässt sich die Herkunft eines Bildes überprüfen. | Bild: Screenshot von THE DECODER

OpenAI betont in seinem GPT-4o-Paper, dass man kreative Freiheit für wertvolle Anwendungen wie Spieleentwicklung, historische Forschung und Bildung maximieren wolle - bei gleichzeitiger Aufrechterhaltung strenger Sicherheitsstandards. Das Unternehmen räumt ein, dass Sicherheit ein fortlaufender Prozess sei und die Richtlinien basierend auf der realen Nutzung angepasst würden.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAIs neues Bildmodell in GPT-4o erstellt innerhalb von Sekunden realistisch wirkende, gefälschte Dokumentenfotos, beispielsweise von Banküberweisungen, Arztbriefen oder Zeugnissen.
  • Da jetzt nahezu jeder schnell überzeugende Dokumentenfälschungen herstellen kann, könnten Sicherheitsprüfungen in Unternehmen und Behörden durch eine größere Menge an Fälschungen überlastet werden.
  • OpenAI versieht alle GPT-4o-generierten Bilder mit speziellen Metadaten, um sie als KI-generiert kenntlich zu machen. Diese Schutzmaßnahme greift jedoch nur, wenn sie überprüft wird, und sie kann von versierten Nutzern umgangen werden.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!