Inhalt
summary Zusammenfassung

Eine Mutter kämpfte drei Jahre lang um eine Diagnose für die chronischen Schmerzen ihres Sohnes. ChatGPT soll dann die richtige Diagnose geliefert haben.

Nach eigenen Angaben suchte die Mutter in den drei Jahren 17 Ärzte verschiedener Fachrichtungen auf, die alle in ihrem Spezialgebiet nach einer möglichen Ursache für die Beschwerden des Jungen suchten. Doch keine Arzt und keine Ärztin konnte die chronischen Schmerzen ihres Sohnes lindern, erzählt die Mutter Today.com.

Daraufhin gab sie alle Symptome und MRT-Daten ihres Sohnes in ChatGPT ein. Das KI-System von OpenAI spuckte eine Diagnose aus, die das Fachpersonal bis dahin nicht gestellt hatte: das sogenannte Tethered Cord Syndrom.

Dabei handelt es sich um eine Kinderkrankheit, bei der das Rückenmark mit seinen Hüllen oder dem umliegenden Gewebe verwachsen ist. Der dadurch entstehende Zug auf die Nervenfasern kann etwa Kopfschmerzen verursachen. Ein Neurochirurg bestätigte die Diagnose und operierte den Jungen, der sich noch von den Folgen des Eingriffs erholt.

Anzeige
Anzeige

Eine ähnliche Geschichte gab es schon einmal: Bei einem Hund diagnostizierte GPT-4 anhand der Ergebnisse eines Bluttests eine seltene Krankheit. Eine Tierklinik konnte zuvor keine Diagnose stellen, eine zweite Diagnose bestätigte die Diagnose von GPT-4.

KI-Chatbots helfen bei der Diagnose

Solche anekdotischen Berichte zeigen das Potenzial großer Sprachmodelle, medizinische Fragen auf Expertenniveau zu beantworten, das bereits in Studien nachgewiesen wurde. GPT-4 ist auf diesem Gebiet führend. Google will das Feld der spezialisierten Sprachmodelle für die Medizin mit Med-PaLM kommerziell erschließen.

Im Vergleich zur herkömmlichen Internetrecherche verfügen LLMs potenziell über ein breiteres Fachwissen, das sie konzentrierter abrufen können. Die Recherche ist schneller. Allerdings besteht die Gefahr von Halluzinationen, also falschen Antworten, die im Gesundheitskontext besonders schwerwiegende Folgen haben können.

Wie die beiden obigen Beispiele zeigen, machen jedoch auch Menschen Fehler. Die Diskussion um den Einsatz medizinischer Chatbots könnte daher ähnlich verlaufen wie die um selbstfahrende Autos: Reicht es aus, wenn die Systeme zuverlässig auf oder sogar über menschlichem Niveau agieren, oder müssen sie fehlerfrei sein? Wer übernimmt die Verantwortung bei Fehlern?

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Eine Mutter fand die Diagnose für die chronischen Schmerzen ihres Sohnes nach drei Jahren und 17 Ärzten mit Hilfe von OpenAIs ChatGPT. Die Diagnose wurde von einem Neurochirurgen bestätigt.
  • Große Sprachmodelle wie GPT-4 zeigen das Potenzial, medizinische Fragen auf Expertenniveau schneller und mit mehr Fachwissen zu beantworten als herkömmliche Internetrecherchen. Solche anekdotischen Geschichten bestätigen die wissenschaftliche Forschung zu diesem Thema.
  • Allerdings birgt der Einsatz von KI-Chatbots in der Medizin das Risiko von "Halluzinationen" oder falschen Antworten mit möglicherweise fatalen Folgen. Die Frage bleibt, ob KI-Antworten fehlerfrei sein müssen, um akzeptabel zu sein, oder ob eine menschenähnliche Zuverlässigkeit ausreicht. Eine weitere Frage ist, wer die Verantwortung für Fehldiagnosen übernimmt.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!