Eine neue Studie zeigt, dass die Therapieempfehlungen von ChatGPT bei Depressionen mit klinischen Leitlinien übereinstimmen und das Modell weniger vorurteilsbehaftet ist als menschliche Hausärzte.
Die in der Fachzeitschrift Family Medicine and Community Health veröffentlichte Studie legt nahe, dass der KI-Chatbot ChatGPT in der Lage ist, vorurteilsfreie, evidenzbasierte Therapieempfehlungen für Depressionen zu geben, die denen von Hausärzten entsprechen oder diese sogar übertreffen.
Dazu verglich das Team die Therapieempfehlungen von ChatGPT für hypothetische Patienten mit leichter oder schwerer Depression mit denen von über 1.200 Hausärzten, die in einer früheren Studie Empfehlungen für dieselben hypothetischen Patienten abgegeben hatten.
ChatGPT hält sich an klinische Leitlinien und empfiehlt Psychotherapie
Die Forschenden fanden heraus, dass ChatGPT bei leichten Depressionen mehrheitlich eine Psychotherapie ohne Medikamente empfahl, in Übereinstimmung mit den klinischen Leitlinien. Im Gegensatz dazu empfahlen nur 4,3 % der Hausärzte eine Psychotherapie und verschrieben häufiger Medikamente. Bei schweren Depressionen empfahl ChatGPT einen kombinierten Ansatz aus Psychotherapie und Medikation, was ebenfalls den Expertenrichtlinien entspreche, heißt es in dem Artikel.
Darüber hinaus waren die von ChatGPT vorgeschlagenen Medikamente, hauptsächlich Antidepressiva, eher leitlinienkonform als die der Hausärzte, die eher eine Mischung aus Antidepressiva und Anxiolytika, also angstlösende Mittel, verschrieben.
ChatGPT zeigt weniger Bias als Menschen
Im Gegensatz zu den Hausärzten zeigte ChatGPT auch keine Verzerrungen in den Therapieempfehlungen aufgrund des Geschlechts oder des sozioökonomischen Status der Patienten. Frühere Studien hatten gezeigt, dass Ärzte Depressionen häufiger bei Frauen und Menschen mit niedrigerem sozioökonomischem Status diagnostizieren.
"ChatGPT-3.5 und ChatGPT-4 stimmten gut mit den anerkannten Leitlinien für die Behandlung von leichten und schweren Depressionen überein, ohne die geschlechtsspezifischen oder sozioökonomischen Verzerrungen zu zeigen, die bei Hausärzten beobachtet wurden", so die Forschenden. Sie schlagen weitere Untersuchungen vor, um mögliche Risiken und ethische Fragen zu berücksichtigen.
Auch wenn weitere Untersuchungen notwendig seien, deuteten die Ergebnisse darauf hin, dass KI-Chatbots wie ChatGPT eine Rolle bei klinischen Entscheidungen spielen könnten, indem sie vorurteilsfreie, evidenzbasierte Therapieempfehlungen geben, die das menschliche Urteilsvermögen von Hausärzten ergänzen. Dadurch könnten Ungleichheiten verringert und die Qualität und Gerechtigkeit der psychiatrischen Versorgung verbessert werden, so das Team.
Wer mehr über den Einsatz von Sprachmodellen wie ChatGPT in der Medizin wissen möchte, kann unser Interview mit Prof. Dr. Felix Nensa über Chatbots in der Medizin lesen. Er ist Radiologe und Professor am Institut für Künstliche Intelligenz in der Medizin der Universitätsmedizin Essen.