Inhalt
summary Zusammenfassung

KI-Modelle wie ChatGPT übernehmen zunehmend Funktionen, die eigentlich Ärzt:innen vorbehalten sind – nicht, weil sie medizinisch überlegen wären, sondern weil sie frei sind von Zeitdruck, Bürokratie und Erschöpfung. 

Anzeige

Als Kate Pickert vor zehn Jahren an Brustkrebs erkrankte, hatte sie viele Fragen – zu Testergebnissen, Nebenwirkungen, neuen Studien. Ihre Onkologin antwortete meist schnell per E-Mail, aber manchmal bekam sie nur eine automatische Abwesenheitsnotiz: im Bereitschaftsdienst, auf Dienstreise, nicht erreichbar für mehrere Tage. In einer Phase, in der jede Stunde zählt, fühlten sich solche Wartezeiten für Pickert wie eine Ewigkeit an.

Rückblickend fragt sich die heutige Journalismus-Professorin: Was wäre gewesen, wenn es damals schon ChatGPT gegeben hätte? Ein Tool, das rund um die Uhr verfügbar ist, medizinische Fachbegriffe erklärt, Studien zusammenfasst – und dabei auch noch mitfühlend formuliert? Genau das ist das Thema eines Essays, dass sie auf Bloomberg veröffentlicht hat.

Ihre Kernthese: Künstliche Intelligenz wird im Gesundheitswesen bislang vor allem als Werkzeug zur Effizienzsteigerung betrachtet – Diagnosehilfe, Dokumentation, Datenanalyse. Doch ihr größter Nutzen könnte an einer ganz anderen Stelle liegen - im Zwischenmenschlichen.

Anzeige
Anzeige

Ein Beispiel ist die Patientin Rachel Stoll, die mit dem seltenen Cushing-Syndrom lebt. Nach einer enttäuschenden Arztbegegnung suchte sie erstmals Hilfe bei ChatGPT – und wurde überrascht. Die KI antwortete nicht nur sachlich korrekt, sondern auch mit Sätzen wie „Das muss frustrierend sein“ oder „Es tut mir leid“. Ohne Zeitlimit, ohne Abschweifen, ohne Ungeduld. Für Stoll war das der erste Moment, in dem sie sich wirklich gehört fühlte.

Digitale Gesprächspartner mit Gefühl

Die Beobachtung, dass KI-Systeme empathischer wirken können als medizinisches Personal, wird durch Studien gestützt. Forscher der NYU fanden heraus, dass Patient:innen Nachrichten von Chatbots als einfühlsamer bewerten als Antworten von echten Ärzt:innen. Die Gründe sind strukturell: Zeitmangel, Dokumentationspflichten und hoher Arbeitsdruck führen dazu, dass Empathie im Klinikalltag oft auf der Strecke bleibt.

Dass diese Unterschiede nicht nur theoretisch sind, zeigt auch Dr. Jonathan Chen von der Stanford University. In einem Selbsttest konfrontierte er ChatGPT mit einem ethischen Dilemma aus seiner Praxis: Ein dementer Patient kann nicht mehr schlucken – soll eine Magensonde gelegt werden oder nicht? Die Antwort der KI war so differenziert und einfühlsam, dass Chen irritiert feststellte: Sie war besser als das, was er selbst in der echten Situation gesagt hatte. Für ihn wurde daraus ein Trainingsmoment: ein risikofreier Raum, um schwierige Gespräche zu üben.

Gerade in der medizinischen Ausbildung könnten solche Anwendungen künftig eine größere Rolle spielen. Statt Schauspielpatient:innen zu engagieren, könnten Studierende mit KI-gestützten Simulationen lernen, wie man mit verschiedenen Persönlichkeitsprofilen umgeht – von der ängstlichen Mutter bis zum schweigsamen Krebspatienten. Harvard-Medizinpädagoge Bernard Chang sieht darin eine Chance, die emotionalen Kompetenzen von Ärzt:innen gezielt zu fördern.

Mehr Menschlichkeit durch Maschinen

Die paradoxe Erkenntnis von Pickerts Essay: KI könnte helfen, das Gesundheitswesen menschlicher zu machen. Indem sie Routineaufgaben übernimmt – etwa das Mitschreiben bei Arztgesprächen oder das Erstellen von Arztbriefen –, verschafft sie medizinischem Personal mehr Zeit für das, was Patient:innen am dringendsten brauchen: Zuwendung.

Empfehlung

Auch in der Diagnose wird KI eingesetzt, etwa bei der Auswertung von Röntgenbildern. Doch ihr Potenzial als Kommunikationshilfe wird bislang unterschätzt – obwohl es genau hier auf eine Verbesserung ankommt. Denn Empathie ist kein Luxus, sondern ein zentraler Bestandteil guter Medizin. Und wenn die Maschine freundlich fragt, was der Mensch vergessen hat, wird das zum Problem nicht für die KI – sondern für das System, das sie nötig macht.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • KI-Systeme wie ChatGPT werden zunehmend als empathische Ansprechpartner im Gesundheitswesen genutzt, da sie im Gegensatz zu Ärzten unbegrenzt Zeit haben, nicht unter Stress stehen und rund um die Uhr verfügbar sind.
  • Studien der NYU zeigen, dass Patienten Nachrichten von Chatbots oft als einfühlsamer bewerten als die von echten Ärzten - nicht weil KI medizinisch überlegen ist, sondern weil strukturelle Probleme wie Zeitmangel und Dokumentationspflichten die menschliche Empathie im Klinikalltag einschränken.
  • Experten sehen Potenzial für KI sowohl in der medizinischen Ausbildung als Trainingspartner für schwierige Gespräche als auch als Entlastung für medizinisches Personal, das dadurch mehr Zeit für zwischenmenschliche Zuwendung gewinnen könnte.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!