Forscher argumentieren, dass Big Tech die generative KI im Gesundheitswesen nicht kontrollieren sollte.
In einem in Nature veröffentlichten Artikel äußern Forscher die Befürchtung, dass große Technologieunternehmen die Entwicklung und den Einsatz von generativer KI im Gesundheitswesen dominieren könnten.
Sie argumentieren, dass medizinische Fachkräfte die Entwicklung und den Einsatz vorantreiben sollten, um die Privatsphäre und Sicherheit der Menschen zu schützen - und nicht kommerzielle Interessen.
Der Einstieg von Big Tech in die KI im Gesundheitswesen
Technologiegiganten wie Google und Microsoft machen große Fortschritte auf dem Gebiet der KI für das Gesundheitswesen.
Google hat kürzlich MedLM vorgestellt, eine Reihe spezialisierter generativer KI-Modelle für das Gesundheitswesen, die Kunden in den USA über die KI-Plattform Vertex zur Verfügung stehen. Die Modelle basieren auf Med-PaLM 2, der zweiten Iteration von Googles großen, spezialisierten medizinischen Sprachmodellen, die in der Lage sind, auf dem Niveau eines Spezialisten zu antworten.
Microsoft stellte kürzlich Medprompt vor, eine neue Prompting-Strategie, die es GPT-4 ermöglicht, Spitzenwerte in Benchmarks für medizinische Fragen zu erreichen und damit spezialisierte Modelle wie MedPaLM-2 zu übertreffen. Schon im Frühjahr betonte Microsoft das Potenzial von GPT-4 für medizinische Aufgabe.
Big Tech könnte die Medizin dominieren
Trotz dieser Fortschritte argumentieren die Forscher, dass der überstürzte Einsatz von proprietären großen Sprachmodellen (LLMs) - wie sie von ChatGPT verwendet werden - das Risiko birgt, die Kontrolle über die Medizin an undurchsichtige kommerzielle Interessen abzugeben. Sie weisen auf mehrere mögliche Fallstricke hin.
Die Gesundheitsfürsorge könne schnell von LLMs abhängig werden, die schwer zu evaluieren seien und ohne Vorankündigung geändert oder sogar eingestellt werden könnten, wenn der Dienst als nicht mehr rentabel angesehen werde. Dies könnte die Versorgung, die Privatsphäre und die Sicherheit der Patienten untergraben, schreiben die Forscher.
Darüber hinaus generierten LLMs häufig Halluzinationen und überzeugend falsche Ergebnisse. Wenn sich die Umstände ändern, beispielsweise durch das Auftreten eines neuen Virus, sei unklar, wie die Wissensbasis eines Modells ohne kostspieliges Nachtrainieren aktualisiert werden könne.
Ferner würde die Verwendung von Krankenakten für das Training des Modells Risiken für die Privatsphäre bergen. Das Modell könnte sensible Informationen rekonstruieren und weitergeben, wenn es dazu aufgefordert wird. Dies sei insbesondere bei Daten von Personen mit seltenen Krankheiten oder Merkmalen ein Risiko.
Schließlich könnten LLMs, die auf großen Datenmengen aus dem Internet basieren, Vorurteile in Bezug auf Geschlecht, Rasse, Behinderung und sozioökonomischen Status verstärken. Selbst wenn Außenstehende Zugang zu den Basismodellen hätten, sei nicht klar, wie die Sicherheit und Genauigkeit von LLMs am besten bewertet werden könnten, schreiben die Forscher.
Open-Source-LLMs als Hoffnungsträger
Die Forscher schlagen einen transparenteren und umfassenderen Ansatz vor. Sie empfehlen, dass Gesundheitseinrichtungen, akademische Forscher, Ärzte, Patienten und sogar Technologieunternehmen weltweit zusammenarbeiten, um Open-Source-LLMs für das Gesundheitswesen zu entwickeln.
Dieses Konsortium könnte ein Open-Source-Basismodell entwickeln, das auf öffentlich zugänglichen Daten basiert. Die Mitglieder des Konsortiums könnten dann Wissen und bewährte Verfahren austauschen, um das Modell anhand von Daten auf Patientenebene zu verfeinern, die möglicherweise in einer bestimmten privaten Einrichtung vorhanden sind.
Ein solcher offener, konsortiumsgeführter Ansatz hätte gegenüber der Entwicklung proprietärer LLMs für die Medizin mehrere Vorteile. Er würde dazu beitragen, ihre Zuverlässigkeit und Robustheit zu gewährleisten, eine gemeinsame und transparente Bewertung der Modelle zu ermöglichen und die Einhaltung von Datenschutz- und anderen Anforderungen zu erleichtern.