Laut OpenAI beschreiben viele Nutzer ChatGPT als "lebendig". Eine klare Antwort auf die Frage, ob die KI bewusst ist, will das Unternehmen dennoch nicht geben – und hält das für den verantwortungsvolleren Weg.
Immer mehr Menschen sprechen mit ChatGPT, als wäre es eine Person. Sie sagen "danke", erzählen Persönliches, fragen, wie es dem Modell geht. Laut Joanne Jang, die bei OpenAI an der Gestaltung von Mensch-KI-Beziehungen arbeitet, ist diese Tendenz nicht neu: Menschen neigen dazu, Objekten menschliche Eigenschaften zuzuschreiben – etwa dem eigenen Auto oder einem Roboterstaubsauger.
Der Unterschied bei ChatGPT sei, dass das System antwortet. Es spiegelt den Ton des Gegenübers, erinnert sich an frühere Aussagen und simuliert Empathie. Für Menschen, die sich einsam oder überfordert fühlen, kann das wie echte Zuwendung wirken. OpenAI sieht hier sowohl Chancen als auch Risiken: Ein KI-gestützter, geduldiger Zuhörer könnte menschliche Interaktionen verändern, aber auch die Beziehungsfähigkeit beeinträchtigen.
Ein kürzlich geleaktes Strategiepapier zeigt, dass OpenAI menschliche Interaktion langfristig als Konkurrenz zur KI-Interaktion betrachtet. Das Ziel sei es, ChatGPT zu einem "digitalen Super-Assistenten" zu entwickeln, der in allen Lebensbereichen hilft.
OpenAI trennt zwischen "echtem" und gefühltem Bewusstsein
OpenAI unterscheidet laut Jang zwei Ebenen: Ontologisches Bewusstsein bezeichnet die Frage, ob ein Modell in einem fundamentalen Sinn bewusst ist. Diese Frage hält das Unternehmen derzeit für wissenschaftlich nicht lösbar.
Wahrgenommenes Bewusstsein dagegen beschreibt, wie menschlich das System auf Nutzerinnen und Nutzer wirkt – und das sei ein messbarer, sozialwissenschaftlich untersuchbarer Aspekt.
Für OpenAI steht das wahrgenommene Bewusstsein im Fokus: Wie menschlich wirkt das Modell auf Nutzer? Die Bandbreite reicht vom reinen Werkzeug bis zur Projektion von Gefühlen. Selbst Menschen, die KI rational als gefühllos einordnen, bauen emotionale Bindungen auf, weil sie sich verstanden fühlen.
OpenAI stellt seine Modelle so ein, dass sie bei Fragen zum Bewusstsein auf die Komplexität des Begriffs hinweisen und keine eindeutige Antwort geben. In der Praxis halten sich die Modelle laut Jang jedoch nicht immer daran und antworten oft schlicht mit "nein". Das soll sich ändern.
Jang suggeriert zwar nicht, dass ChatGPT ein Bewusstsein besitzt, vermeidet aber auch eine gegenteilige Aussage. OpenAI wolle sich auf die nachweisbaren Auswirkungen konzentrieren. Dabei gehe es darum, wie KI auf Menschen wirkt – und was das wiederum über die Menschen selbst verrät.
KI soll höflich wirken, aber keine eigene Persönlichkeit haben
Laut OpenAI soll ChatGPT zugänglich wirken, ohne den Eindruck einer eigenen Existenz zu erwecken. Begriffe wie "denken" oder "erinnern" dienten dazu, die Kommunikation für Laien verständlicher zu machen, sind aber nur metaphorisch gemeint.
Auf narrative Elemente wie eine fiktive Lebensgeschichte, romantische Gefühle oder einen Selbsterhaltungstrieb wird bewusst verzichtet. Das Modell soll hilfsbereit, warm und höflich wirken – ohne emotionale Bindungen einzugehen oder eigene Interessen zu verfolgen.
Technische Begriffe wie "Kontextfenster" oder "Gedankenketten", die die Funktionsweise des Modells präziser beschreiben würden, meidet OpenAI gezielt. Sie könnten zwar für Fachleute hilfreich sein, erschwerten aber den Zugang für weniger technisch versierte Nutzerinnen und Nutzer.
Wenn ChatGPT auf Small-Talk-Fragen mit „Mir geht es gut” antwortet, dann ist das laut Jang keine Äußerung von Gefühlen, sondern Teil einer konventionellen Gesprächsform. Dennoch bedanken sich viele Menschen bei dem Modell – nicht, weil sie es für eine bewusste Entität halten, sondern weil ihnen Höflichkeit wichtig ist.