Inhalt
summary Zusammenfassung

Ein Marketing-Berater hat für einen Filmtrailer historische Filmkritiken mit ChatGPT "recherchiert". Der Fall zeigt erneut, dass viele Menschen die Funktionsweise von generativer KI bisher nicht verstanden haben.

Anzeige

Laut einem Bericht von Deadline hat der Marketing-Berater Eddie Egan seinen Job verloren, weil er für einen Trailer zum Film "Megalopolis" generative KI wie ChatGPT einsetzte, um angeblich historische Filmkritiken zu recherchieren. Der Trailer enthielt extrem kritische Zitate zu früheren Werken des Filmemachers Francis Ford Coppola, die sich jedoch als KI-Erfindungen herausstellten.

Egans Absicht war es, zu argumentieren, dass Megalopolis zunächst wie frühere Coppola-Werke stark kritisiert wird, sich letztlich aber als Meisterwerk erweist. Dazu zitierte der Trailer bekannte Filmkritiker wie Pauline Kael vom New Yorker und Andrew Sarris von der Village Voice, die Klassiker wie "Der Pate" als "schlampigen, selbstgefälligen Film" oder "Apocalypse Now" als "episches Stück Müll" bezeichnet haben sollen.

Tatsächlich gab es diese vernichtenden Kritiken nie. Im Gegenteil, die Kritiker lobten die Filme sogar, wie das Magazin Vulture berichtete. Daraufhin entschuldigte sich die Produktionsfirma Lionsgate für den Fehler, nahm den Trailer vom Netz und kündigte Egan.

Anzeige
Anzeige

LLMs sind Wortgeneratoren, keine Recherche-Werkzeuge

Der Fall verdeutlicht erneut, wie leicht man auf ChatGPT und ähnliche Systeme hereinfallen kann, wenn man deren grundlegende Funktionsweise nicht versteht. Die dahinter stehenden Large Language Models (LLMs) reihen nach Wahrscheinlichkeiten Wörter aneinander. Die Wahrscheinlichkeiten werden durch den Prompt beeinflusst. Die generierten Sätze können wahr sein oder Bullshit - die Modelle haben keine Wahrheitsfindung implementiert.

Auch andere fielen bereits auf die fundiert klingenden Sätze von Chatbots herein: Der Anwalt Steven A. Schwartz verwendete ChatGPT erstmals für die Recherche, ohne sich bewusst zu sein, dass das System falsche Inhalte generieren könnte. In einem anderen Fall nutzten Anwälte ChatGPT, um angebliche Referenzfälle zu finden und zu zitieren, die sich als KI-Erfindungen herausstellten.

Sogar OpenAI selbst hatte bei seiner ersten SearchGPT-Demo einen sachlichen Fehler in der Generierung. Die Beispiele zeigen, dass viele Menschen bisher nicht verstanden haben, wie generative KI funktioniert und deren Ausgaben nicht ungeprüft verwendet werden sollten.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Ein Marketing-Berater hat seinen Job verloren, weil er ein Tool wie ChatGPT nutzte, um für einen Trailer zum Film "Megalopolis" angeblich historische Filmkritiken zu recherchieren, die sich als KI-generierte Fälschungen herausstellten.
  • Der Trailer enthielt extrem negative Zitate bekannter Kritiker zu früheren Werken des Regisseurs Francis Ford Coppola, die jedoch nie so geäußert wurden. Stattdessen lobten die Kritiker die Filme sogar, wie sich herausstellte.
  • Der Fall zeigt, dass viele Menschen bisher nicht verstanden haben, wie Large Language Models funktionieren: Sie reihen Wörter nach Wahrscheinlichkeiten aneinander, haben aber keine Wahrheitsfindung implementiert. Ihre Ausgaben sollten daher nicht ungeprüft verwendet werden.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!