Eine neue Studie legt nahe, die Finger von ChatGPT und Co. zu lassen, wenn man Menschen, die einem wichtig sind, Nachrichten schreibt. Denn wenn die KI-Generierung auffliegt, kann das bei den Empfängern für Unmut sorgen.
Das zeigt eine neue Studie, die die Reaktionen von Menschen auf Nachrichten untersucht, die von Menschen geschrieben, von KI generiert oder gemeinsam mit anderen Menschen verfasst wurden. Der Einsatz von KI wird als Bequemlichkeit empfunden.
Diese Wahrnehmung führt wiederum dazu, dass sich die Empfänger von KI-generierten Nachrichten weniger zufrieden und unsicherer in ihrer Beziehung zu ihrem Freund fühlen.
An der Studie nahmen 208 Personen teil, die mit verschiedenen Szenarien konfrontiert wurden, z. B. Burnout und der Wunsch nach Unterstützung, ein Konflikt mit einem Kollegen und der Wunsch nach Rat oder ein bevorstehender Geburtstag. Sie wurden gebeten, ihrem fiktiven Freund Taylor eine Nachricht zu schicken, in der sie ihre Gefühle beschreiben.
Wir brauchen dich, Taylor
Die Versuchspersonen wurden darüber informiert, dass ihr fiktiver Freund Taylor ihnen eine Antwort geschickt hatte, die entweder von einer KI unterstützt, von einem Mitglied einer Schreib-Community bearbeitet oder von Taylor allein verfasst worden war.
Die Ergebnisse zeigen, dass die Empfänger der KI-unterstützten Antworten diese für unpassender hielten als diejenigen, die nur die von Taylor verfassten Nachrichten erhalten hatten. Ihr Urteil hatte nichts mit der Qualität der Antwort selbst zu tun, sondern nur damit, wie viel Mühe sich Taylor vermeintlich gegeben hatte.
Der Erhalt von KI-geschriebenen Nachrichten führte auch dazu, dass die Teilnehmer mit ihrer Beziehung weniger zufrieden waren und ihre Freundschaft zu Taylor unsicherer einschätzten. Interessanterweise hatten Nachrichten, die von einer anderen Person als der KI geschrieben wurden, die gleichen negativen Auswirkungen auf die Beziehung.
Die Hauptautorin Bingjie Liu, Assistenzprofessorin für Kommunikation an der Ohio State University, hat eine Erklärung für dieses Phänomen: Sie glaubt, dass Aufwand in einer Beziehung wichtig ist und dass der Einsatz von KI oder die Hilfe Dritter beim Verfassen von Nachrichten als Abkürzung und Mangel an Aufrichtigkeit wahrgenommen werden kann.
Da ChatGPT und ähnliche Dienste immer beliebter werden, vermutet Liu, dass Menschen ein unbewusstes Verhalten entwickeln, bei dem sie die Nachrichten ihrer Freunde nach KI-Mustern scannen, was sie einen "Turing-Test im Kopf" nennt. Wenn Menschen herausfinden, dass die Nachricht von einer KI verfasst wurde, könnte dies Beziehungen schädigen.
Einige persönliche Gedanken zu KI-generierten Nachrichten
Ich habe mir schon oft ähnliche Gedanken über KI-generierte Antwortvorschläge in Messenger-Nachrichten und E-Mails gemacht. Ich muss zugeben, dass ich sie benutze, manchmal sogar, um meiner Partnerin oder Freunden zu antworten. Das kann sich wie eine lahme Abkürzung anfühlen, bei der mein Gegenüber nicht die Aufmerksamkeit bekommt, die er oder sie in diesem Moment verdient. Manchen Leuten fällt das auf.
Interessanterweise verstärkt sich dieses Gefühl, je größer die Diskrepanz zwischen der von der KI generierten Antwort und der Antwort ist, die ich gegeben hätte, wenn ich sie selbst getippt hätte. Das können ganz subtile Unterschiede sein, wie die Verwendung eines bestimmten Emoticons oder ein "Hey, mein Freund" statt "Hi".
Aber wenn der Vorschlag der KI zu 100 Prozent passt, zum Beispiel "Danke", wenn ich wirklich nur "Danke" sagen will, dann ist dieses Gefühl weg.
Es scheint also nicht um den Akt des Schreibens zu gehen, sondern darum, ob meine Antwort echt ist und nicht nur eine brauchbare Annäherung an das, was ich sagen will.
Und wenn sich eine Annäherung schon für mich als Absender seltsam anfühlt, dann wird sie sich für den Empfänger erst recht seltsam anfühlen. Vielleicht geht es also darum, genau das zu sagen, was wir sagen wollen.