Eine Mutter kämpfte drei Jahre lang um eine Diagnose für die chronischen Schmerzen ihres Sohnes. ChatGPT soll dann die richtige Diagnose geliefert haben.
Nach eigenen Angaben suchte die Mutter in den drei Jahren 17 Ärzte verschiedener Fachrichtungen auf, die alle in ihrem Spezialgebiet nach einer möglichen Ursache für die Beschwerden des Jungen suchten. Doch keine Arzt und keine Ärztin konnte die chronischen Schmerzen ihres Sohnes lindern, erzählt die Mutter Today.com.
Daraufhin gab sie alle Symptome und MRT-Daten ihres Sohnes in ChatGPT ein. Das KI-System von OpenAI spuckte eine Diagnose aus, die das Fachpersonal bis dahin nicht gestellt hatte: das sogenannte Tethered Cord Syndrom.
Dabei handelt es sich um eine Kinderkrankheit, bei der das Rückenmark mit seinen Hüllen oder dem umliegenden Gewebe verwachsen ist. Der dadurch entstehende Zug auf die Nervenfasern kann etwa Kopfschmerzen verursachen. Ein Neurochirurg bestätigte die Diagnose und operierte den Jungen, der sich noch von den Folgen des Eingriffs erholt.
Eine ähnliche Geschichte gab es schon einmal: Bei einem Hund diagnostizierte GPT-4 anhand der Ergebnisse eines Bluttests eine seltene Krankheit. Eine Tierklinik konnte zuvor keine Diagnose stellen, eine zweite Diagnose bestätigte die Diagnose von GPT-4.
KI-Chatbots helfen bei der Diagnose
Solche anekdotischen Berichte zeigen das Potenzial großer Sprachmodelle, medizinische Fragen auf Expertenniveau zu beantworten, das bereits in Studien nachgewiesen wurde. GPT-4 ist auf diesem Gebiet führend. Google will das Feld der spezialisierten Sprachmodelle für die Medizin mit Med-PaLM kommerziell erschließen.
Im Vergleich zur herkömmlichen Internetrecherche verfügen LLMs potenziell über ein breiteres Fachwissen, das sie konzentrierter abrufen können. Die Recherche ist schneller. Allerdings besteht die Gefahr von Halluzinationen, also falschen Antworten, die im Gesundheitskontext besonders schwerwiegende Folgen haben können.
Wie die beiden obigen Beispiele zeigen, machen jedoch auch Menschen Fehler. Die Diskussion um den Einsatz medizinischer Chatbots könnte daher ähnlich verlaufen wie die um selbstfahrende Autos: Reicht es aus, wenn die Systeme zuverlässig auf oder sogar über menschlichem Niveau agieren, oder müssen sie fehlerfrei sein? Wer übernimmt die Verantwortung bei Fehlern?