KI-Modelle wie ChatGPT übernehmen zunehmend Funktionen, die eigentlich Ärzt:innen vorbehalten sind – nicht, weil sie medizinisch überlegen wären, sondern weil sie frei sind von Zeitdruck, Bürokratie und Erschöpfung.
Als Kate Pickert vor zehn Jahren an Brustkrebs erkrankte, hatte sie viele Fragen – zu Testergebnissen, Nebenwirkungen, neuen Studien. Ihre Onkologin antwortete meist schnell per E-Mail, aber manchmal bekam sie nur eine automatische Abwesenheitsnotiz: im Bereitschaftsdienst, auf Dienstreise, nicht erreichbar für mehrere Tage. In einer Phase, in der jede Stunde zählt, fühlten sich solche Wartezeiten für Pickert wie eine Ewigkeit an.
Rückblickend fragt sich die heutige Journalismus-Professorin: Was wäre gewesen, wenn es damals schon ChatGPT gegeben hätte? Ein Tool, das rund um die Uhr verfügbar ist, medizinische Fachbegriffe erklärt, Studien zusammenfasst – und dabei auch noch mitfühlend formuliert? Genau das ist das Thema eines Essays, dass sie auf Bloomberg veröffentlicht hat.
Ihre Kernthese: Künstliche Intelligenz wird im Gesundheitswesen bislang vor allem als Werkzeug zur Effizienzsteigerung betrachtet – Diagnosehilfe, Dokumentation, Datenanalyse. Doch ihr größter Nutzen könnte an einer ganz anderen Stelle liegen - im Zwischenmenschlichen.
Ein Beispiel ist die Patientin Rachel Stoll, die mit dem seltenen Cushing-Syndrom lebt. Nach einer enttäuschenden Arztbegegnung suchte sie erstmals Hilfe bei ChatGPT – und wurde überrascht. Die KI antwortete nicht nur sachlich korrekt, sondern auch mit Sätzen wie „Das muss frustrierend sein“ oder „Es tut mir leid“. Ohne Zeitlimit, ohne Abschweifen, ohne Ungeduld. Für Stoll war das der erste Moment, in dem sie sich wirklich gehört fühlte.
Digitale Gesprächspartner mit Gefühl
Die Beobachtung, dass KI-Systeme empathischer wirken können als medizinisches Personal, wird durch Studien gestützt. Forscher der NYU fanden heraus, dass Patient:innen Nachrichten von Chatbots als einfühlsamer bewerten als Antworten von echten Ärzt:innen. Die Gründe sind strukturell: Zeitmangel, Dokumentationspflichten und hoher Arbeitsdruck führen dazu, dass Empathie im Klinikalltag oft auf der Strecke bleibt.
Dass diese Unterschiede nicht nur theoretisch sind, zeigt auch Dr. Jonathan Chen von der Stanford University. In einem Selbsttest konfrontierte er ChatGPT mit einem ethischen Dilemma aus seiner Praxis: Ein dementer Patient kann nicht mehr schlucken – soll eine Magensonde gelegt werden oder nicht? Die Antwort der KI war so differenziert und einfühlsam, dass Chen irritiert feststellte: Sie war besser als das, was er selbst in der echten Situation gesagt hatte. Für ihn wurde daraus ein Trainingsmoment: ein risikofreier Raum, um schwierige Gespräche zu üben.
Gerade in der medizinischen Ausbildung könnten solche Anwendungen künftig eine größere Rolle spielen. Statt Schauspielpatient:innen zu engagieren, könnten Studierende mit KI-gestützten Simulationen lernen, wie man mit verschiedenen Persönlichkeitsprofilen umgeht – von der ängstlichen Mutter bis zum schweigsamen Krebspatienten. Harvard-Medizinpädagoge Bernard Chang sieht darin eine Chance, die emotionalen Kompetenzen von Ärzt:innen gezielt zu fördern.
Mehr Menschlichkeit durch Maschinen
Die paradoxe Erkenntnis von Pickerts Essay: KI könnte helfen, das Gesundheitswesen menschlicher zu machen. Indem sie Routineaufgaben übernimmt – etwa das Mitschreiben bei Arztgesprächen oder das Erstellen von Arztbriefen –, verschafft sie medizinischem Personal mehr Zeit für das, was Patient:innen am dringendsten brauchen: Zuwendung.
Auch in der Diagnose wird KI eingesetzt, etwa bei der Auswertung von Röntgenbildern. Doch ihr Potenzial als Kommunikationshilfe wird bislang unterschätzt – obwohl es genau hier auf eine Verbesserung ankommt. Denn Empathie ist kein Luxus, sondern ein zentraler Bestandteil guter Medizin. Und wenn die Maschine freundlich fragt, was der Mensch vergessen hat, wird das zum Problem nicht für die KI – sondern für das System, das sie nötig macht.