Inhalt
summary Zusammenfassung

Immer mehr KI-Texte tauchen im Web, in sozialen Medien und in E-Mails auf, meist ohne Kennzeichnung. Auf Reddit verraten Nutzer, an welchen Signalwörtern und Phrasen sie ChatGPT-Texte erkennen.

Auf Reddit diskutieren zahlreiche Nutzer darüber, an welchen Wörtern und Phrasen sich ChatGPT-generierte Texte zuverlässig erkennen lassen. Die diesbezügliche Frage des Nutzers PowerfulDev hat bereits mehr als 300 Kommentare.

Die häufigsten Nennungen beziehen sich auf eine Reihe von Wörtern, die ChatGPT überproportional häufig verwendet. Dazu gehören nach Meinung der Reddit-Nutzer:

  • Delve ("erforschen, ergründen")
  • Tapestry ("Geflecht", "reiches Gesamtbild")
  • Kaleidoscope ("Kaleidoskop")
  • Foster ("fördern")
  • Nuanced ("nuanciert")
  • Crucial ("entscheidend")
  • Essential ("wesentlich")
  • Moreover ("zudem", "ferner")
  • Furthermore ("Weiterhin / Des Weiteren")

Viele Benutzer sind sich einig, dass ChatGPT dazu neigt, zu oft Schlussfolgerungen zu ziehen, auch wenn diese unnötig sind. "Zusammenfassend denke ich, dass es eine sehr nützliche Methode ist, ChatGPT-Inhalte zu identifizieren", so der Benutzer MrSnowden.

Anzeige
Anzeige

Auch eine etwas gestelztere Sprache und Formulierungen wie "in dieser digitalen Welt" oder "lasst uns tiefer eintauchen" gelten als Indizien für ChatGPT-Texte.

Reddit-Nutzer beobachten außerdem, dass ChatGPT bei bestimmten Themen übertrieben intellektuelle Passagen mit Wörtern wie "verschlungen", "nuanciert", "komplex" oder "facettenreich" produziert.

Besonders auffällig seien auch die vielen Bindestriche bei zusammengesetzten Adjektiven, auch wenn sie grammatikalisch nicht notwendig sind. Satzzeichen wie Bindestriche lassen sich nicht so einfach über die Tastatur eingeben wie Wörter. ChatGPT setzt sie sorgfältiger als Menschen.

Charakteristisch für ChatGPT seien auch Sätze und Absätze von gleicher Länge und eine insgesamt formelle Ausdrucksweise. Bei E-Mails gelten Floskeln wie "Ich hoffe, diese E-Mail erreicht Sie gut" oder die übermäßige Verwendung von "zudem" oder "ferner" als Warnsignale.

Ein leichtes Spiel haben die KI-Detektive mit Texten, in denen der ChatGPT-Bot schreibt: "Als KI-Sprachmodell …". Manche übersehen diesen Hinweis und stellen die Texte trotzdem ins Netz.

Empfehlung

Einige Reddit-Nutzer warnen jedoch davor, einzelne Wörter als eindeutigen Beweis für ChatGPT zu sehen. Schließlich könnten auch Menschen diese Wörter verwenden - sonst wären sie nicht in den Trainingsdaten. Erst in Kombination und Häufung seien sie ein starkes Indiz für KI-generierten Text.

Anekdotische Analysen und das Uncanny Valley der Kommunikation

Eine Analyse des Reddit-Nutzers peyotebonsai im Rahmen eines Studienprojekts zeigt, dass von KI erstellte LinkedIn-Beiträge bei Stimmungsanalysen mit Tools wie TextBlob und Vader im Durchschnitt etwas besser abschneiden als Beiträge von menschlichen Autoren.

TextBlob und Vader sind Programme, die die Stimmung und Emotionalität von Texten bewerten können. Die Ergebnisse deuten darauf hin, dass KI-generierte Texte aufgrund ihrer Wortwahl tendenziell positiver klingen als von Menschen verfasste Texte.

Interessanterweise zeigte sich jedoch beim Vergleich anderer Indikatoren wie Reposts, Kommentare und Likes, dass KI-generierte Inhalte bei den Nutzern auf deutlich weniger Resonanz stoßen als von Menschen verfasste Beiträge.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Das deutet darauf hin, dass LinkedIn-Nutzer die feinen, aber wahrnehmbaren Unterschiede zwischen menschlichem und maschinellem Ausdruck sehr wohl wahrnehmen.

Die Analyse ist natürlich mit Vorsicht zu genießen, da peyotebonsai anonym postet und die Ergebnisse nicht im Detail veröffentlicht. Aber sie deckt sich mit meinen anekdotischen Erfahrungen.

Oder wie es User opi098514 ausdrückt: "Für mich ist es nicht ein bestimmtes Wort. Es ist eher wie das Uncanny Valley … aber in der Kommunikation."

Das "Uncanny Valley" beschreibt ursprünglich das Phänomen, dass Roboter oder menschenähnliche Figuren oft als unheimlich empfunden werden, weil sie zwar menschenähnlich, aber nicht menschenähnlich genug sind. Dadurch entsteht ein Gefühl der Fremdheit.

Übertragen auf die Kommunikation zeigt der Vergleich, dass die subtilen, aber wahrnehmbaren Unterschiede in der Ausdrucksweise von KI und Mensch beim Leser ein unterschwelliges Unbehagen auslösen können, auch wenn KI-Texte oberflächlich betrachtet kohärenter und positiver erscheinen mögen.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Reddit-Nutzer diskutieren über Wörter und Phrasen, die typisch für ChatGPT-generierte Texte sind, darunter "delve", "tapestry", "kaleidoscope", "foster", "nuanced", "crucial", "essential", "moreover" und "furthermore".
  • Weitere Indizien sind eine gestelzt wirkende Sprache, übertrieben intellektuelle Passagen, viele Bindestriche bei zusammengesetzten Adjektiven, ähnlich lange Sätze und Absätze sowie eine sehr formelle Ausdrucksweise.
  • Ein Nutzer beschreibt eher das Gefühl, das er hat, wenn er KI-Texte liest: Sie seien wie das Uncanny Valley der Kommunikation. Irgendwie real, aber dann doch nicht.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!