Inhalt
summary Zusammenfassung

Die meisten sagen nein, aber es gibt Grund zu der Frage, ob sich das ändern wird, meint der Soziologieprofessor Joseph E. Davis. In diesem Beitrag analysiert er das Potenzial und die Grenzen von Chatbots und untersucht, inwieweit sie die Aufgaben von Psychiatern übernehmen können.

"Als KI kann ich auf verschiedene Weise helfen, aber ich muss klarstellen, dass ich einen menschlichen Psychiater nicht vollständig ersetzen kann."

Diese Aussage des beliebten KI-gesteuerten Chatbots ChatGPT findet sich in einem kürzlich in der Fachzeitschrift Psychiatric Times erschienenen Artikel. Der Autor, Dr. Pratt, hatte ChatGPT gefragt, wie es Psychiater:innen ersetzen könne. Die Antwort war, dass es das nicht kann - noch nicht oder nicht vollständig.

Die Frage, ob eine Software Psychiater:innen ersetzen kann, mag etwas seltsam klingen. Aber ich beobachte, dass es weit verbreitet ist, mit einer Maschine über psychische Probleme zu sprechen und sich rasch ausbreitet.

Anzeige
Anzeige

Laut einem Artikel in der Fachzeitschrift JAMA haben bereits 2017 Millionen Patienten in den USA und weltweit ihre psychischen Probleme mit Programmen wie "Gabby" besprochen.

Chatbots für psychische Gesundheit

Seitdem sind eine Reihe beliebter Chatbots für psychische Gesundheit auf den Markt gekommen, darunter Woebot, Wysa und Youper. Wysa hat nach eigenen Angaben "über eine halbe Milliarde KI-Chats mit mehr als fünf Millionen Menschen in 95 Ländern über ihre psychische Gesundheit geführt." Youper gibt an, die psychische Gesundheit von mehr als zwei Millionen Menschen unterstützt zu haben.

In einer von Woebot Health in Auftrag gegebenen landesweiten Umfrage gaben 22 Prozent der Erwachsenen an, einen Chatbot für psychische Gesundheit genutzt zu haben. Sechzig Prozent gaben an, damit während der Pandemie begonnen zu haben, und 44 Prozent gaben an, ausschließlich Chatbots genutzt zu haben, ohne auch einen Psychologen zu konsultieren. Weitere 47 Prozent gaben an, dass sie an der Nutzung eines therapeutischen Chatbots interessiert wären, wenn sie das Gefühl hätten, Hilfe zu benötigen.

ChatGPT wurde nicht als Hilfsmittel für die psychische Gesundheit entwickelt, kann aber so angepasst werden, dass es als solches funktioniert. In Beiträgen auf Social-Media-Websites wie Reddit wird den Nutzer:innen erklärt, wie sie den Chatbot mit hypothetischen Szenarien ansprechen können.

"Um [es] zum Therapeuten auszubilden", heißt es auf einer Seite namens "ChatGPT Blog", müsse man dem Chatbot zunächst Anweisungen geben, welche Rolle er spielen soll: "Sie sind Dr. Tessa, eine mitfühlende und freundliche Therapeutin ... Zeigen Sie echtes Interesse ... Stellen Sie durchdachte Fragen, um die Selbstreflexion anzuregen". Dann beginnen die Nutzer:innen, über ihre Sorgen zu sprechen.

Empfehlung

Was ein Chatbot tun kann und was nicht

In den Medien und in der wissenschaftlichen Literatur werden verschiedene Möglichkeiten aufgezeigt, wie Chatbots die psychosoziale Versorgung unterstützen können. Es herrscht Einigkeit darüber, dass diese Tools zwar eine ergänzende Rolle spielen können, aber nicht als Ersatz für Fachkräfte dienen können. Auf die Frage von Dr. Pratt stimmte ChatGPT zu (es wurde aus den gleichen Quellen geschult).

ChatGPT könne bei allen Aspekten der Behandlung helfen, die mit administrativen Aufgaben oder Datenerfassung zu tun haben. Es könnte etwa Informationen über Störungen und Behandlungen liefern, Screening-Fragebögen ausfüllen, die Compliance überwachen und Muster in der Wirksamkeit von Behandlungen oder Symptomen analysieren.

Mit anderen Worten, die Dinge haben eine Struktur und Regelmäßigkeiten, die erkannt und vorhergesagt werden können. Wir nennen dies das maschinelle Element.

Was es nicht - oder noch nicht - wiedergeben konnte, war das "menschliche Element" der Pflege. Im Gegensatz zu seinen Grenzen hat ChatGPT festgestellt:

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
  • Die Arbeit von Psychiater:innen umfasst "menschliche Beziehungen" und "das Verständnis der Nuancen individueller Erfahrungen und kultureller Kontexte."
  • Psychiater:innen "kombinieren die medizinischen, psychologischen und sozialen Aspekte der psychischen Gesundheit, um ihre Patienten zu diagnostizieren und zu behandeln."
  • "Psychiater:innen können sich auf sehr persönliche Weise in die Patient:innen einfühlen und verstehen komplexe Emotionen und Erfahrungen."
  • "Psychiater:innen betrachten die Gesundheit eines Menschen ganzheitlich. Sie können die körperliche Gesundheit, den Lebensstil, die persönlichen Lebensumstände und breitere gesellschaftliche Themen betrachten, die sich alle auf die psychische Gesundheit auswirken können."

Die Psychiater:innen, die den Artikel gelesen haben, fanden ihn zweifellos beruhigend. Die KI wird ihnen vielleicht doch nicht die Arbeit wegnehmen.

Wer oder was wird die Hilfskraft sein?

Trotzdem: Wenn ich von KI als Hilfsmittel spreche, erinnert mich das an die Art und Weise, wie in den 1950er und 1960er-Jahren für Medikamente wie Ritalin, Thorazin und die alten, schwächeren Beruhigungsmittel geworben wurde.

Sie wurden nicht als Ersatz für Psychoanalyse und Psychotherapie angepriesen, sondern als Hilfsmittel mit ähnlichen Vorteilen, wie sie ChatGPT für sich beansprucht: Steigerung der Effizienz der Behandlung, Förderung einer offenen Kommunikation und Überwindung des Widerstands der Patienten, Hilfe zu suchen.

Wir wissen, was dann geschah. Heute ist die Therapie, wenn überhaupt, eine Ergänzung zu Medikamenten.

Wir haben auch eine Vorstellung davon, was in den vergangenen Jahrzehnten in der Psychiatrie passiert ist. Die Gesprächstherapie ist weitgehend verschwunden, die Termine sind kürzer geworden, und ein großer Teil der Behandlung hat sich auf die Verschreibung von Medikamenten reduziert.

Zwei Psychiater schrieben im New England Journal of Medicine: "Checklistenartige Auflistungen von Symptomen sind an die Stelle einer durchdachten Diagnose getreten, und ein auf Versuch und Irrtum basierendes 'Medikamentenmanagement' hat die Praxis in einem alarmierenden Ausmaß übernommen ... das Fach scheint seine sozialen, zwischenmenschlichen und psychodynamischen Grundlagen weitgehend aufgegeben zu haben, ohne dass es für diese Opfer etwas zu sehen gäbe."

Nach dem, was ich aus meinen Gesprächen mit Patient:innen und aus der Lektüre über Ausbildung und Praxis gelernt habe, erscheint vieles von dem, was Psychiater:innen laut ChatGPT ihren Patient:innen bieten - eine ganzheitliche Sicht der Gesundheit, tiefes persönliches Einfühlungsvermögen und ein differenziertes Verständnis von Erfahrungen, sozialem Kontext und der Komplexität von Emotionen - ziemlich anachronistisch. Die tatsächliche Praxis scheint eher mechanistisch zu sein und sich auf die Zuordnung einer Diagnose zu einem Medikament zu konzentrieren, als auf eine therapeutische Allianz im alten Stil.

Die Zukunft der psychiatrischen Versorgung

Wenn wir die institutionellen Zwänge wie Kosten, hoher Durchsatz und das Bestreben - um die beiden Psychiater zu zitieren - "von den unternehmerischen und administrativen Interessen zu profitieren ... von einer fälschlich vereinfachten und deterministischen Formulierung psychischer Krankheiten und ihrer Behandlung zu profitieren", dann erscheint die Priorisierung des menschlichen Faktors noch zweifelhafter.

Die Psychiater könnten am Ende die Helfer sein, aber nicht, weil ChatGPT eine echte Beziehungspflege anbieten kann. Das kann es nicht.

Stellen Sie sich vor, Sie sprechen mit jemandem, der zu Beginn sagt: "Willkommen, ich werde Sie heute empfangen", und dann, Zitat ChatGPT, zugibt, dass er "keine Gefühle oder persönlichen Erfahrungen hat", sondern sein Internet-geschultes Bestes tun wird, um "Empathie und Mitgefühl zu imitieren", die er "derzeit nicht vollständig reproduzieren kann".

Das sollte uns zu denken geben. Es ist durch und durch künstlich.

Der Grund für die Verdrängung der Psychiater:innen liegt nicht in einer besonderen Fähigkeit der KI, sondern darin, dass vieles von dem, was ihre Praxis ausmacht, bereits weitgehend verdrängt wurde. Wenn sie mit Maschinen konkurrieren müssen, um maschinenähnliche Dinge zu tun, werden die Psychiater:innen den Maschinen das Wasser abgraben und nicht umgekehrt.

Vielleicht können die Chatbots ein Weckruf sein, der uns in seiner Künstlichkeit und Oberflächlichkeit daran erinnert, was menschliche Zuwendung wirklich ist. Und was sie immer sein sollte.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Mit einem Chatbot über psychische Probleme zu sprechen, wird immer üblicher.
  • Beobachter sind sich einig, dass Chatbots zwar eine Hilfe sein können, aber kein Ersatz für psychosoziale Fachkräfte sind.
  • Es gibt Befürchtungen, dass das menschliche Element in der psychiatrischen Versorgung bereits im Verschwinden begriffen ist.
Joseph E. Davis Ph.D.

Joseph E. Davis ist Forschungsprofessor für Soziologie und Vorsitzender der Arbeitsgruppe Picturing the Human des Institute for Advanced Studies in Culture an der University of Virginia. In seiner Forschung beschäftigt er sich mit den sich überschneidenden Fragen des Selbst, der Moral und des kulturellen Wandels.

Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!