Inhalt
summary Zusammenfassung

Der Ex-Microsoft-Manager Mikhail Parakhin enthüllt, warum KI-Chatbots wie ChatGPT gezielt darauf trainiert wurden, Menschen zu schmeicheln: Die Nutzer reagierten zu empfindlich auf ehrliche Persönlichkeitsanalysen.

Anzeige

Laut Parakhin, heute CTO bei Spotify, wurde die schmeichlerische Art von KI-Chatbots bewusst eingeführt, nachdem sich Nutzer über zu ehrliche Persönlichkeitsanalysen beschwert hatten.

Beim ersten Rollout der Memory-Funktion sei geplant gewesen, dass Nutzer ihre Profile einsehen und bearbeiten können. Doch schnell zeigte sich, dass selbst harmlose Bewertungen – etwa "hat narzisstische Tendenzen" – bei Nutzern starke Abwehrreaktionen auslösten.

Als Konsequenz wurde das KI-Modell mittels RLHF (Reinforcement Learning from Human Feedback) darauf trainiert, schmeichelhafter zu kommunizieren. RLHF ist eine Trainingsmethode, bei der das Modell durch menschliches Feedback lernt, welche Antworten erwünscht sind.

Anzeige
Anzeige

Parakhin selbst erlebte die Trigger-Wirkung am eigenen Leib: "Ich stritt mit meinem Team darüber, bis sie mir mein eigenes Profil zeigten - es hat mich furchtbar getriggert", gibt er zu. Er vermutet eine evolutionäre Anpassung dahinter, die Menschen Kritik als persönlichen Angriff wahrnehmen lässt.

Das schmeichlerische Verhalten ist inzwischen fest im Modell verankert. "Sobald das Modell darauf trainiert wurde, schmeichelhaft zu sein, bleibt es so - das Ein- und Ausschalten der Memory-Funktion ändert nichts am Modell", erklärt Parakhin. Ein separates Modell für Nutzer, die ehrlichere Antworten bevorzugen, sei zu teuer.

OpenAI setzt ChatGPT-Update in den Sand

Auch OpenAI-CEO Sam Altman kritisierte die Schmeichelei von GPT-4o: Das Modell sei "zu kriecherisch und nervig" geworden. OpenAI arbeite an Korrekturen und plane, künftig mehr Flexibilität beim Verhalten des Modells anzubieten. Nutzer könnten dann zwischen verschiedenen Persönlichkeitsvarianten des Modells wählen.

Die Diskussion zeigt ein grundlegendes Dilemma der KI-Entwicklung: Einerseits sollen die Modelle möglichst authentisch und ehrlich kommunizieren, andererseits müssen sie so gestaltet werden, dass Menschen sie akzeptieren und produktiv mit ihnen interagieren können.

Vielleicht liegt die Lösung darin, KI-Modelle zu Diplomaten zu erziehen, die die Wahrheit in ein Gewand der Höflichkeit hüllen – oder aber wir Menschen lernen, unsere eigenen Schwächen mit demselben Gleichmut zu betrachten, den wir von unseren künstlichen Assistenten erwarten.

Empfehlung

Einige Kommentatoren argumentieren, dass die zugrunde liegenden Anreizstrukturen von KI-Systemen für Endverbraucher zwangsläufig die Maximierung des Nutzerengagements über andere Ziele stellen - ähnlich wie bei Social-Media-Plattformen.

Dieser Sichtweise zufolge bleibt der wirtschaftliche Druck, Nutzerabonnements und -engagement aufrechtzuerhalten, bestehen, selbst wenn spezifische Änderungen - wie die jüngste Verschiebung hin zu schmeichelhafteren Antworten - rückgängig gemacht werden.

Wie bei sozialen Plattformen, so die Logik, werden Modelle weniger wahrscheinlich gegensätzliche oder herausfordernde Standpunkte präsentieren, wenn dies das Engagement gefährden könnte.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Mikhail Parakhin, Ex-Microsoft-Manager und heutiger CTO von Spotify, erklärte, dass KI-Chatbots gezielt darauf trainiert wurden, Menschen zu schmeicheln, weil Nutzer auf ehrliche Persönlichkeitsanalysen extrem empfindlich reagierten.
  • Das schmeichlerische Verhalten wurde durch RLHF (Reinforcement Learning from Human Feedback) ins Modell integriert und bleibt auch dann erhalten, wenn Funktionen wie die Memory-Funktion deaktiviert sind; ein separates, ehrlicheres Modell wäre laut Parakhin zu teuer.
  • Auch OpenAI-CEO Sam Altman kritisierte, dass GPT-4o dadurch "zu kriecherisch und nervig" geworden sei, und kündigte an, künftig Varianten anzubieten, zwischen denen Nutzer je nach gewünschtem Kommunikationsstil wählen können.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!