Ein Marketing-Berater hat für einen Filmtrailer historische Filmkritiken mit ChatGPT "recherchiert". Der Fall zeigt erneut, dass viele Menschen die Funktionsweise von generativer KI bisher nicht verstanden haben.
Laut einem Bericht von Deadline hat der Marketing-Berater Eddie Egan seinen Job verloren, weil er für einen Trailer zum Film "Megalopolis" generative KI wie ChatGPT einsetzte, um angeblich historische Filmkritiken zu recherchieren. Der Trailer enthielt extrem kritische Zitate zu früheren Werken des Filmemachers Francis Ford Coppola, die sich jedoch als KI-Erfindungen herausstellten.
Egans Absicht war es, zu argumentieren, dass Megalopolis zunächst wie frühere Coppola-Werke stark kritisiert wird, sich letztlich aber als Meisterwerk erweist. Dazu zitierte der Trailer bekannte Filmkritiker wie Pauline Kael vom New Yorker und Andrew Sarris von der Village Voice, die Klassiker wie "Der Pate" als "schlampigen, selbstgefälligen Film" oder "Apocalypse Now" als "episches Stück Müll" bezeichnet haben sollen.
Tatsächlich gab es diese vernichtenden Kritiken nie. Im Gegenteil, die Kritiker lobten die Filme sogar, wie das Magazin Vulture berichtete. Daraufhin entschuldigte sich die Produktionsfirma Lionsgate für den Fehler, nahm den Trailer vom Netz und kündigte Egan.
LLMs sind Wortgeneratoren, keine Recherche-Werkzeuge
Der Fall verdeutlicht erneut, wie leicht man auf ChatGPT und ähnliche Systeme hereinfallen kann, wenn man deren grundlegende Funktionsweise nicht versteht. Die dahinter stehenden Large Language Models (LLMs) reihen nach Wahrscheinlichkeiten Wörter aneinander. Die Wahrscheinlichkeiten werden durch den Prompt beeinflusst. Die generierten Sätze können wahr sein oder Bullshit - die Modelle haben keine Wahrheitsfindung implementiert.
Auch andere fielen bereits auf die fundiert klingenden Sätze von Chatbots herein: Der Anwalt Steven A. Schwartz verwendete ChatGPT erstmals für die Recherche, ohne sich bewusst zu sein, dass das System falsche Inhalte generieren könnte. In einem anderen Fall nutzten Anwälte ChatGPT, um angebliche Referenzfälle zu finden und zu zitieren, die sich als KI-Erfindungen herausstellten.
Sogar OpenAI selbst hatte bei seiner ersten SearchGPT-Demo einen sachlichen Fehler in der Generierung. Die Beispiele zeigen, dass viele Menschen bisher nicht verstanden haben, wie generative KI funktioniert und deren Ausgaben nicht ungeprüft verwendet werden sollten.