Die Weltgesundheitsorganisation (WHO) hat neue Leitlinien zu Ethik und Governance großer multimodaler Modelle (LMM) veröffentlicht.
Die Leitlinien enthalten mehr als 40 Empfehlungen für Regierungen, Technologieunternehmen und Gesundheitsdienstleister, um den angemessenen Einsatz großer multimodaler KI-Modelle (LMMs) zur Förderung und zum Schutz der öffentlichen Gesundheit sicherzustellen, so die WHO.
LMMs können unterschiedliche Datentypen wie Text, Bilder und Videos verarbeiten und ebenso vielfältige Outputs erzeugen.
Dr. Jeremy Farrar, leitender Wissenschaftler der WHO, betont die Notwendigkeit transparenter Informationen und Leitlinien für die Gestaltung, Entwicklung und Nutzung von LMM, um bessere Gesundheitsergebnisse zu erzielen und bestehende gesundheitliche Ungleichheiten zu überwinden.
WHO skizziert Vorteile und Risiken von LMMs in der Medizin
Die neue WHO-Leitlinie skizziert fünf breite Anwendungen von LMMs für die Gesundheit:
- Diagnose und klinische Versorgung, wie z. B. die Beantwortung von schriftlichen Anfragen von Patienten;
- Patientengeführte Nutzung, wie z. B. zur Untersuchung von Symptomen und Behandlungen;
- Verwaltungs- und Büroaufgaben, wie z. B. das Dokumentieren und Zusammenfassen von Patientenbesuchen in elektronischen Patientenakten;
- Medizinische und pflegerische Ausbildung, einschließlich der Bereitstellung von simulierten Patientenbegegnungen für Auszubildende, und;
- Wissenschaftliche Forschung und Arzneimittelentwicklung, einschließlich der Identifizierung neuer Verbindungen.
Es gibt jedoch auch dokumentierte Risiken, dass LMMs falsche, ungenaue, voreingenommene oder unvollständige Aussagen produzieren, die den Menschen, die diese Informationen für gesundheitsbezogene Entscheidungen nutzen, schaden könnten.
LMMs könnten beispielsweise auf schlechten oder verzerrten Daten trainiert werden. Die Leitlinie beschreibt auch weitergehende Risiken für Gesundheitssysteme, wie die Zugänglichkeit und Erschwinglichkeit der leistungsfähigsten LMMs, Verzerrungen durch Automatisierung und Cybersicherheitsrisiken.
Bei der „Automatisierungsverzerrung“ könnten Gesundheitsfachleuten Fehler übersehen, die sonst erkannt worden wären, oder schwierige Entscheidungen unsachgemäß an ein LMM delegieren.
Um sichere und effektive LMM zu schaffen, müssen laut WHO verschiedene Interessengruppen, darunter Regierungen, Technologieunternehmen, Gesundheitsdienstleister, Patienten und die Zivilgesellschaft, in alle Phasen der Entwicklung und Implementierung der Modelle einbezogen werden.
Regierungen sollten in gemeinnützige Strukturen investieren
Die neuen WHO-Leitlinien enthalten Empfehlungen für Regierungen, Entwickler von LMM und andere Interessengruppen.
Regierungen sollten unter anderem in gemeinnützige oder öffentliche Infrastrukturen investieren, Gesetze und Vorschriften nutzen, um ethische Verpflichtungen und Menschenrechtsstandards einzuhalten, Regulierungsbehörden einsetzen und obligatorische Prüfungen nach der Veröffentlichung sowie Folgenabschätzungen einführen.
Entwickler von LMM sollten sicherstellen, dass LMM nicht nur von Wissenschaftlern und Ingenieuren entwickelt werden, sondern auch potenzielle Nutzer und alle direkten und indirekten Interessengruppen einbeziehen. Darüber hinaus sollten LMMs so entwickelt werden, dass sie genau definierte Aufgaben mit der erforderlichen Genauigkeit und Zuverlässigkeit erfüllen.
Die neuen Leitlinien basieren auf den im Juni 2021 von der WHO veröffentlichten Leitlinien zu Ethik und Governance von KI für die Gesundheit. Die LMM-Leitlinien sind hier verfügbar.
KI wird in der Medizin bereits in verschiedenen Bereichen eingesetzt, beispielsweise in der Diagnostik in verschiedenen Disziplinen, in der Psychotherapie und in der Medikamentenentwicklung, und zeigt erste Erfolge.