Inhalt
summary Zusammenfassung

Prof. Dr. Felix Nensa ist Radiologe und Professor am Institut für Künstliche Intelligenz in der Medizin der Universitätsmedizin Essen. Er befasst sich intensiv mit dem Potenzial von KI in der Medizin.

Große Sprachmodelle (LLMs) könnten dabei helfen, medizinische Informationen zu verarbeiten, indem sie Arztbriefe in verständliche Alltagssprache übersetzen oder strukturierte und maschinenlesbare Daten aus aufgezeichneten Arzt-Patient-Gesprächen generieren. Bei einer Einführung in Deutschland stoßen solche Modelle jedoch auf regulatorische Hürden im Datenschutz.

Trotz Bedenken hinsichtlich des Datenschutzes haben LLMs das Potenzial, den Personalmangel im Gesundheitswesen zu lindern und die medizinische Versorgung stärker am Menschen auszurichten, indem sie medizinisches Personal von administrativen Aufgaben entlasten, sagt Prof. Dr. Felix Nensa.

Prof. Dr. Felix Nensa, Radiologe und Professor am Institut für Künstliche Intelligenz in der Medizin der Universitätsmedizin Essen | Bild: UK Essen

Welche Anwendungsgebiete sehen Sie für ChatGPT-ähnliche Systeme? Für Fachpersonal, für Patient:innen, für beide?

Aktuell wird diskutiert, ChatGPT zur Erstellung von Arztbriefen einzusetzen. Ich denke, dass das nicht sinnvoll ist. Denn wir brauchen nicht noch mehr vergleichsweise unstrukturierte Textinformationen, sondern es geht vielmehr darum, medizinische Informationen so aufzubereiten, dass sie für den jeweiligen Adressaten verständlich und schnellstmöglich nutzbar sind. Hier können Large Language Models (LLMs) sehr hilfreich sein. Die Technologie ist sehr gut darin, gesprochene Medizin und zwischenmenschliche Interaktion in strukturierte Daten zu übersetzen.

Das heißt, ich sehe eine sinnvolle Anwendung darin, Arztbriefe in eine laienverständliche Sprache zu übersetzen und umgekehrt aus Sprachinformationen, also beispielsweise aufgezeichneten Arzt-Patienten-Gesprächen, strukturierte und maschinenlesbare Daten zu generieren oder zu extrahieren, wie sie wiederum Mediziner und Fachpersonal benötigen und wünschen. Wichtig ist hierbei, dass insbesondere die „Übersetzungen“ für Patient:innen noch einmal medizinisch verifiziert werden müssen.

Natürlich spricht nichts dagegen, solche strukturierten Informationen auch einmal mit einem LLM wieder in einen klassischen Arztbrief zu übersetzen, falls der Empfänger der Informationen dieses wünscht, aber das sollte nicht im Vordergrund stehen. Im klinischen Alltag wird man vermutlich ohnehin eine komprimierte tabellarische Darstellung bevorzugen, die ja dann ebenfalls automatisch erzeugt werden könnte.

Was fehlt ChatGPT, damit es in diesen Anwendungen zum Einsatz kommen könnte?

Noch befinden wir uns für viele Anwendungen in der Entwicklungs- und Testphase. Es fehlt also noch an Training und Erfahrung, aber auch an Transparenz und Erklärbarkeit der Modelle. Wir lassen bereits Arztbriefe wie beschrieben umformulieren und arbeiten daran, dass Ärzte und Pflegepersonal mithilfe von LLMs in Sekundenschnelle in unserer elektronischen Patientenakte nach Allergien und Krankheiten suchen können.

Aber hier geht es um die Nutzung unserer eigenen Daten. Die nötige hochsichere IT-Infrastruktur dafür ist bei uns vorhanden. Wir können in Essen auf mittlerweile mehr als 1,5 Milliarden Datenpakte zugreifen. Aber je mehr Daten zum Training der KI genutzt werden können, umso besser. Hier fehlt es aktuell noch an einheitlichen Standards beziehungsweise der Interoperabilität der Daten.

Welche Hürden sehen Sie gerade in Deutschland für den Einsatz solcher Technologien noch?

Der Einsatz stößt aktuell wie so oft, wenn es um die Nutzung von Daten zu medizinischen Zwecken geht, auf regulatorische Probleme. Sprich: Der Datenschutz erweist sich als Hemmnis. Man kann sensible Patienten-Daten nicht einfach an große Cloud-Server wie die des ChatGPT-Entwicklers OpenAI senden.

Verstehen Sie mich nicht falsch, Datenschutz ist enorm wichtig und die Nutzung von ChatGPT halte ich in diesem Kontext für nicht vertretbar. Aber der Datenschutz darf medizinischen Fortschritt und erst recht nicht eine erfolgversprechende Therapie verhindern.

Es ist hier wie bei Paracelsus: „Die Dosis macht das Gift.“

Ich habe den Eindruck, es fehlt in Deutschland und auf europäischer Ebene an Mut, auch mal Zugeständnisse beim Datenschutz zu machen. Dabei ist es vielen Patient:innen in dem Moment, in dem sie sich Hilfe davon versprechen, völlig egal und sie geben ihre Daten gerne für Entwicklungen her, wenn die ethische Nutzung der Daten gewährleistet ist und am Ende ein Fortschritt für uns alle dabei herauskommen kann.

Internationale Tech-Konzerne setzen aktuell doch die technologischen Maßstäbe. Künftig werden die deutschen Unternehmen auf sie zurückgreifen müssen, wenn es keine europäischen Alternativen gibt.

Das ist jedoch bedenklich, weil wir in Deutschland und in der EU eben auf andere Werte setzen und andere Maßstäbe beim Datenschutz haben. Also gerade, um unsere europäischen Werte bei Ethik und auch beim Datenschutz zukunftsfest zu machen, müssen wir beim Datenschutz flexibler und pragmatischer agieren.

Wie können wir sicherstellen, dass solche Technologien tatsächlich den Patient:innen zugutekommen und nicht von privat geführten Kliniken genutzt werden, um Personalmangel auszugleichen oder sogar zu verschärfen, um Gewinne zu steigern? 

Es kommt natürlich auf den richtigen Rahmen an. Universitätskliniken sind beispielsweise in der Lage, Trustcenter-Funktionen zu übernehmen. Richtig ist auch, dass man niemals verhindern kann, dass Technologien auch für kriminelle Zwecke eingesetzt werden.

Aber in der Abwägung zwischen potenziellen Risiken der KI und dem zu erwartenden Nutzen, sehe ich das Pendel sehr stark in Richtung Technologie schwingen. Denn der Nutzen der KI ist vielfältig und reicht sogar bis hin zur Linderung des aktuellen Personalnotstands in der Medizin. Diesen werden wir allein aufgrund des demografischen Wandels gar nicht mehr auflösen können.

Wir können ihn aber mithilfe moderner Technologien wie ChatGPT abmildern. Wenn also eine Klinik, ob privat geführt oder nicht, den allgegenwärtigen Personalmangel mit KI abmildern kann, dann ist das zunächst einmal gut und kommt insbesondere auch den Patient:innen zugute. Wenn sie dann zum Beispiel auf eine MRT-Untersuchung nur noch eine Woche und nicht mehr fünf Wochen warten müssen, dann finden sie das als Patient:in doch gut.

Entgegen der weitläufigen Meinung, dass KI-Lösungen zur Entmenschlichung der Medizin beitragen, sind sie aus meiner Sicht eher eine Chance, dass die Medizin von morgen wieder menschlicher wird.

Denn Ärzte und Ärztinnen sowie Pflegepersonal können durch ihre Unterstützung von administrativen Aufgaben entlastet werden und haben so wieder mehr Zeit für den zwischenmenschlichen Kontakt.

Hier müssen wir als Gesellschaft aber dann tatsächlich aufpassen, dass die Zeitgewinne beim Personal auch in Zeit mit den Patient:innen investiert wird und nicht nur in die Gewinnmaximierung.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Große Sprachmodelle (LLMs) könnten dabei helfen, medizinische Informationen zu verarbeiten, indem sie Arztbriefe in verständliche Alltagssprache übersetzen oder strukturierte und maschinenlesbare Daten aus aufgezeichneten Arzt-Patient-Gesprächen generieren.
  • Laut Prof. Dr. Felix Nensa, Radiologe und Professor am Institut für Künstliche Intelligenz in der Medizin der Universitätsmedizin Essen, könnten LLMs den Personalmangel im Gesundheitswesen lindern und die medizinische Versorgung stärker am Menschen ausrichten, indem sie medizinisches Personal von administrativen Aufgaben entlasten.
  • In Deutschland stoßen solche Modelle jedoch auf regulatorische Hürden im Datenschutz, weshalb ein verantwortungsvoller Umgang mit Patientendaten und die ethische Nutzung von KI-Technologien entscheidend sind.
THE DECODER
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!