Menschen berichten, dass ChatGPT medizinische Rätsel lösen konnte, an denen selbst spezialisierte Ärzteteams gescheitert sind. Die KI analysiert Symptome, Laborwerte sowie Bilddaten und liefert Hypothesen für medizinisches Fachpersonal.
In einem viel beachteten Reddit-Beitrag beschreibt ein Nutzer, wie ChatGPT eine Diagnose lieferte, die über zehn Jahre lang von zahlreichen Ärztinnen und Ärzten übersehen worden war.
Trotz MRTs, CT-Scans, Blutuntersuchungen und neurologischer Abklärung blieb die Ursache seiner Symptome unklar, bis die KI auf eine genetische MTHFR-Mutation hinwies. Diese betrifft laut Angaben des Nutzers sieben bis zwölf Prozent der Bevölkerung. Der behandelnde Arzt zeigte sich überrascht, bestätigte jedoch die Plausibilität der Diagnose.
Der Nutzer hatte ChatGPT mit Laborwerten, Symptombeschreibungen und seiner medizinischen Vorgeschichte gefüttert. Die KI erkannte, dass trotz normaler B12-Werte bei dieser Mutation eine mangelhafte Verwertung vorliegen könne – ein Zusammenhang, der mit gezielter Supplementierung behandelt werden kann. Nach wenigen Monaten waren die Symptome weitgehend verschwunden.
KI entdeckt seltene Krankheiten
Der Beitrag löste eine Welle ähnlicher Erfahrungsberichte aus. Ein anderer Nutzer beschreibt, wie ChatGPT nach 15 Jahren unerklärlicher Übelkeit eine Untersuchung beim HNO-Arzt nahelegte. Ein Hirnscan bestätigte schließlich eine labyrinthitisbedingte Gleichgewichtsstörung durch einen eingeklemmten Nerv – eine behandelbare Ursache.
Auch seltene Diagnosen wie eosinophile Fasziitis, hereditäres Angioödem oder die MTHFR-Mutation tauchen in den Kommentaren mehrfach auf. Einige berichten, dass sie über Jahre hinweg nicht ernst genommen oder fälschlich mit psychosomatischen Störungen diagnostiziert worden seien. In mehreren Fällen stimmten Ärzte den von ChatGPT vorgeschlagenen Diagnosen nachträglich zu.
Mehrere Nutzer verweisen auf strukturelle Ursachen. Zeitmangel, Spezialisierung und überlastete Praxen führten dazu, dass Symptome oft isoliert betrachtet würden. "Jeder Arztbesuch ist wie eine Insel", schreibt ein Nutzer. ChatGPT könne hingegen Informationen aus zahlreichen Quellen zusammenführen und ohne kognitive Voreingenommenheit analysieren.
ChatGPT als medizinisches Werkzeug – mit Einschränkungen
Ein Medizinstudent bestätigt: In der Ausbildung werde gelehrt, bei Diagnosen auf die wahrscheinlichste Erklärung zu setzen – "schaue nach Pferden, nicht nach Zebras". Seltene Erkrankungen würden deshalb oft übersehen. Gleichzeitig sei es für Ärztinnen und Ärzte kaum möglich, den Überblick über die ständig wachsende Fachliteratur zu behalten, was wiederum eine Stärke von KI-Modellen sein kann.
Trotz der Erfolge warnen viele Nutzer vor blindem Vertrauen. Die KI könne auch falsche Schlussfolgerungen ziehen oder Halluzinationen produzieren. Fast alle, deren Beiträge viral gingen, betonen, dass sie die Hinweise von ChatGPT mit medizinischem Fachpersonal abgeglichen hätten.
Die KI sei kein Ersatz für ärztliche Betreuung, sondern ein Werkzeug zur besseren Selbstvertretung. Sie kann helfen, Hypothesen zu generieren, die im ärztlichen Kontext weiterverfolgt werden.
Ein Nutzer fasst zusammen: ChatGPT ersetzt keine Ärzte, gibt Patientinnen und Patienten aber eine Stimme – und kann helfen, übersehene Zusammenhänge aufzudecken.
Hinweis: Beim Hochladen medizinischer Unterlagen in ChatGPT ist Aufmerksamkeit geboten. Persönlich identifizierbare Gesundheitsdaten sollten nicht ohne Weiteres in KI-Systeme eingegeben werden, da sie außerhalb gängiger Datenschutzregelungen wie HIPAA oder DSGVO verarbeitet werden könnten. Wer sensible Daten nutzt, sollte diese vorab anonymisieren.
Microsofts KI-System zeigt, wie leistungsfähig medizinische KI-Diagnosen sein können
Wie groß das Potenzial medizinischer KI ist, zeigt ein aktuelles Beispiel aus der Forschung: Microsoft hat mit dem "MAI Diagnostic Orchestrator" (MAI-DxO) ein KI-System vorgestellt, das bei komplexen Fällen eine viermal höhere diagnostische Genauigkeit als erfahrene Allgemeinmediziner erreicht haben soll – bei gleichzeitig deutlich geringeren Kosten. Grundlage war ein neu entwickelter Benchmark, der den schrittweisen Diagnoseprozess realistisch abbildet.
MAI-DxO kombiniert ein Sprachmodell in fünf Rollen – von der Hypothesenbildung bis zur Kostenkontrolle – und erzielte laut Microsoft eine Genauigkeit von 79,9 Prozent bei durchschnittlich 2.397 US-Dollar pro Fall. Die beteiligten Ärzte kamen im Vergleich auf nur 19,9 Prozent Genauigkeit bei höheren Kosten. Diese Ergebnisse unterstützen die anekdotischen Praxisberichte.
Studien der NYU zeigen zudem, dass Patientinnen und Patienten Chatbot-Antworten häufig als einfühlsamer wahrnehmen als Mitteilungen von Ärztinnen und Ärzten, die unter Zeitdruck stehen. Systeme wie ChatGPT hingegen sind rund um die Uhr verfügbar und beantworten Fragen verständlich und empathisch.
OpenAI berichtete im Mai, dass sein neues Modell "o3" im HealthBench-Test doppelt so hoch bewertet wird wie der Vorgänger GPT-4o und auf mehreren Bewertungsachsen mit menschlichen Antworten gleichzieht oder diese übertrifft. Das Unternehmen weist darauf hin, dass solche Resultate nur eine sehr spezifische Aufgabe abbilden und nicht die Gesamtqualität medizinischer Versorgung bewerten.
Bislang ergänzt KI das medizinische Personal eher, als es zu ersetzen. So stieg die Zahl der Radiologinnen und Radiologen an der Mayo Clinic seit 2016 trotz wachsender Automatisierung von 260 auf über 400 – ein Plus von 55 Prozent.
Die Weltgesundheitsorganisation fordert klare Leitlinien zur Transparenz, Sicherheit und Rechenschaftspflicht, wenn KI fester Bestandteil medizinischer Abläufe wird. Einige Forschende mahnen zudem, die Kontrolle nicht allein großen Technologiekonzernen zu überlassen, sondern einen patientenorientierten, regulierten Einsatz sicherzustellen.