Eine Studie aus Stanford zeigt, dass ChatGPT Medizinstudierende bei der Beantwortung komplexer fallbasierter Fragen übertrifft, was zu einem Umdenken in der medizinischen Ausbildung führen könnte.
Forscher aus Stanford haben herausgefunden, dass ChatGPT Medizinstudierende im ersten und zweiten Studienjahr bei der Beantwortung komplexer Fragen zur klinischen Versorgung übertreffen kann.
Die in der Fachzeitschrift JAMA Internal Medicine veröffentlichte Studie unterstreicht den wachsenden Einfluss der KI auf die medizinische Ausbildung und Praxis und legt nahe, dass die Lehrmethoden für angehende Ärzte möglicherweise angepasst werden müssen.
"Wir wollen keine Ärzte, die sich in der Schule so sehr auf KI verlassen haben, dass sie nicht gelernt haben, selbstständig über Fälle nachzudenken", sagt Mitautorin Alicia DiGiammarino, Ausbildungsleiterin an der School of Medicine. "Aber ich habe mehr Angst vor einer Welt, in der Ärzte nicht darin geschult werden, KI effektiv zu nutzen, und in der KI in der modernen Praxis weit verbreitet ist."
KI übertrifft Medizinstudierende
Kürzlich durchgeführte Studien haben gezeigt, dass ChatGPT in der Lage ist, die Multiple-Choice-Fragen der US Medical License Examination (USMLE) zu beantworten. Die Stanford-Autoren wollten jedoch die Fähigkeit des KI-Systems untersuchen, mit schwierigeren offenen Fragen umzugehen, die zur Bewertung des klinischen Denkvermögens verwendet werden.
Die Studie ergab, dass das KI-Modell im Durchschnitt mehr als vier Punkte besser abschnitt als die Medizinstudierenden im Fallberichtsteil der Prüfung. Dieses Ergebnis deutet darauf hin, dass KI-Tools wie ChatGPT das Potenzial haben, die traditionelle Lehre und Prüfung des medizinischen Denkens anhand schriftlicher Texte zu verändern. Die Forscher stellten auch eine signifikante Verbesserung bei GPT-3.5 fest, das die Fragen nur knapp bestanden hatte.
ChatGPT und andere Programme wie dieses verändern die Art und Weise, wie wir Medizin lehren und letztlich praktizieren.
Alicia DiGiammarino
Trotz der beeindruckenden Leistung ist ChatGPT nicht frei von Schwächen. Die größte Gefahr sind erfundene Fakten oder sogenannte Halluzinationen oder Konfabulationen. Dieses Risiko wurde im neuesten Modell von OpenAI, GPT-4, das für zahlende Kunden und über die API verfügbar ist, deutlich reduziert, ist aber immer noch präsent.
Man kann sich vorstellen, dass bei medizinischen Fragen selbst sporadische Fehler dramatische Folgen haben können. In einem umfassenden Curriculum mit mehreren Informationsquellen dürfte das Problem jedoch geringer sein.
Stanford School of Medicine sperrt Studierenden Zugang zu ChatGPT während Prüfungen
An der Stanford School of Medicine hat ChatGPT Bedenken hinsichtlich der Integrität von Prüfungen und des Einflusses von ChatGPT auf den Lehrplan aufgeworfen.
Um sicherzustellen, dass die Studierenden klinische Argumentationsfähigkeiten entwickeln, ohne sich auf KI zu verlassen, sind die Verantwortlichen von Prüfungen mit offenem Buch, also mit Zugang zum Internet und zu ChatGPT, zu Prüfungen mit geschlossenem Buch ohne Zugang zu ChatGPT übergegangen.
Parallel dazu hat die Stanford Medical School eine KI-Arbeitsgruppe eingerichtet, um die Integration von KI-Tools in die medizinische Ausbildung zu untersuchen.
Neben der medizinischen Ausbildung gibt es weitere Bereiche, in denen KI das Gesundheitswesen maßgeblich beeinflussen kann. So hat das medizinische KI-Start-up Insilico Medicine kürzlich in einer klinischen Phase-II-Studie die erste Dosis eines KI-generierten Medikaments an Patienten verabreicht.
Google testet derzeit Med-PaLM 2, eine Version seines großen Sprachmodells PaLM 2, die auf die Beantwortung medizinischer Fragen zugeschnitten ist. Eine andere Studie deutet darauf hin, dass GPT-4 Ärzten helfen kann, die Fragen von Patienten ausführlicher und einfühlsamer zu beantworten. Ja, Sie haben richtig gelesen: einfühlsamer.