Inhalt
summary Zusammenfassung

Eine neue Studie zeigt, dass die Therapieempfehlungen von ChatGPT bei Depressionen mit klinischen Leitlinien übereinstimmen und das Modell weniger vorurteilsbehaftet ist als menschliche Hausärzte.

Anzeige

Die in der Fachzeitschrift Family Medicine and Community Health veröffentlichte Studie legt nahe, dass der KI-Chatbot ChatGPT in der Lage ist, vorurteilsfreie, evidenzbasierte Therapieempfehlungen für Depressionen zu geben, die denen von Hausärzten entsprechen oder diese sogar übertreffen.

Dazu verglich das Team die Therapieempfehlungen von ChatGPT für hypothetische Patienten mit leichter oder schwerer Depression mit denen von über 1.200 Hausärzten, die in einer früheren Studie Empfehlungen für dieselben hypothetischen Patienten abgegeben hatten.

ChatGPT hält sich an klinische Leitlinien und empfiehlt Psychotherapie

Die Forschenden fanden heraus, dass ChatGPT bei leichten Depressionen mehrheitlich eine Psychotherapie ohne Medikamente empfahl, in Übereinstimmung mit den klinischen Leitlinien. Im Gegensatz dazu empfahlen nur 4,3 % der Hausärzte eine Psychotherapie und verschrieben häufiger Medikamente. Bei schweren Depressionen empfahl ChatGPT einen kombinierten Ansatz aus Psychotherapie und Medikation, was ebenfalls den Expertenrichtlinien entspreche, heißt es in dem Artikel.

Anzeige
Anzeige

Darüber hinaus waren die von ChatGPT vorgeschlagenen Medikamente, hauptsächlich Antidepressiva, eher leitlinienkonform als die der Hausärzte, die eher eine Mischung aus Antidepressiva und Anxiolytika, also angstlösende Mittel, verschrieben.

ChatGPT zeigt weniger Bias als Menschen

Im Gegensatz zu den Hausärzten zeigte ChatGPT auch keine Verzerrungen in den Therapieempfehlungen aufgrund des Geschlechts oder des sozioökonomischen Status der Patienten. Frühere Studien hatten gezeigt, dass Ärzte Depressionen häufiger bei Frauen und Menschen mit niedrigerem sozioökonomischem Status diagnostizieren.

"ChatGPT-3.5 und ChatGPT-4 stimmten gut mit den anerkannten Leitlinien für die Behandlung von leichten und schweren Depressionen überein, ohne die geschlechtsspezifischen oder sozioökonomischen Verzerrungen zu zeigen, die bei Hausärzten beobachtet wurden", so die Forschenden. Sie schlagen weitere Untersuchungen vor, um mögliche Risiken und ethische Fragen zu berücksichtigen.

Auch wenn weitere Untersuchungen notwendig seien, deuteten die Ergebnisse darauf hin, dass KI-Chatbots wie ChatGPT eine Rolle bei klinischen Entscheidungen spielen könnten, indem sie vorurteilsfreie, evidenzbasierte Therapieempfehlungen geben, die das menschliche Urteilsvermögen von Hausärzten ergänzen. Dadurch könnten Ungleichheiten verringert und die Qualität und Gerechtigkeit der psychiatrischen Versorgung verbessert werden, so das Team.

Wer mehr über den Einsatz von Sprachmodellen wie ChatGPT in der Medizin wissen möchte, kann unser Interview mit Prof. Dr. Felix Nensa über Chatbots in der Medizin lesen. Er ist Radiologe und Professor am Institut für Künstliche Intelligenz in der Medizin der Universitätsmedizin Essen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Eine Studie zeigt, dass der KI-Chatbot ChatGPT bei Depressionen vorurteilsfreie, evidenzbasierte Therapieempfehlungen gibt, die mit klinischen Leitlinien übereinstimmen und besser bewertet werden als von menschlichen Hausärzten.
  • Bei leichten Depressionen empfahl ChatGPT mehrheitlich eine Psychotherapie ohne Medikamente, während dies nur 4,3% der Hausärzte taten. Bei schweren Depressionen empfahl ChatGPT eine Kombination aus Psychotherapie und Medikation, wie in den Leitlinien empfohlen.
  • Im Vergleich zu den Hausärzten zeigte ChatGPT keine Verzerrungen in den Empfehlungen aufgrund des Geschlechts oder des sozioökonomischen Status der Patienten.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!