Inhalt
summary Zusammenfassung

Forscher argumentieren, dass Big Tech die generative KI im Gesundheitswesen nicht kontrollieren sollte.

Anzeige

In einem in Nature veröffentlichten Artikel äußern Forscher die Befürchtung, dass große Technologieunternehmen die Entwicklung und den Einsatz von generativer KI im Gesundheitswesen dominieren könnten.

Sie argumentieren, dass medizinische Fachkräfte die Entwicklung und den Einsatz vorantreiben sollten, um die Privatsphäre und Sicherheit der Menschen zu schützen - und nicht kommerzielle Interessen.

Der Einstieg von Big Tech in die KI im Gesundheitswesen

Technologiegiganten wie Google und Microsoft machen große Fortschritte auf dem Gebiet der KI für das Gesundheitswesen.

Anzeige
Anzeige

Google hat kürzlich MedLM vorgestellt, eine Reihe spezialisierter generativer KI-Modelle für das Gesundheitswesen, die Kunden in den USA über die KI-Plattform Vertex zur Verfügung stehen. Die Modelle basieren auf Med-PaLM 2, der zweiten Iteration von Googles großen, spezialisierten medizinischen Sprachmodellen, die in der Lage sind, auf dem Niveau eines Spezialisten zu antworten.

Microsoft stellte kürzlich Medprompt vor, eine neue Prompting-Strategie, die es GPT-4 ermöglicht, Spitzenwerte in Benchmarks für medizinische Fragen zu erreichen und damit spezialisierte Modelle wie MedPaLM-2 zu übertreffen. Schon im Frühjahr betonte Microsoft das Potenzial von GPT-4 für medizinische Aufgabe.

Big Tech könnte die Medizin dominieren

Trotz dieser Fortschritte argumentieren die Forscher, dass der überstürzte Einsatz von proprietären großen Sprachmodellen (LLMs) - wie sie von ChatGPT verwendet werden - das Risiko birgt, die Kontrolle über die Medizin an undurchsichtige kommerzielle Interessen abzugeben. Sie weisen auf mehrere mögliche Fallstricke hin.

Die Gesundheitsfürsorge könne schnell von LLMs abhängig werden, die schwer zu evaluieren seien und ohne Vorankündigung geändert oder sogar eingestellt werden könnten, wenn der Dienst als nicht mehr rentabel angesehen werde. Dies könnte die Versorgung, die Privatsphäre und die Sicherheit der Patienten untergraben, schreiben die Forscher.

Darüber hinaus generierten LLMs häufig Halluzinationen und überzeugend falsche Ergebnisse. Wenn sich die Umstände ändern, beispielsweise durch das Auftreten eines neuen Virus, sei unklar, wie die Wissensbasis eines Modells ohne kostspieliges Nachtrainieren aktualisiert werden könne.

Empfehlung

Ferner würde die Verwendung von Krankenakten für das Training des Modells Risiken für die Privatsphäre bergen. Das Modell könnte sensible Informationen rekonstruieren und weitergeben, wenn es dazu aufgefordert wird. Dies sei insbesondere bei Daten von Personen mit seltenen Krankheiten oder Merkmalen ein Risiko.

Schließlich könnten LLMs, die auf großen Datenmengen aus dem Internet basieren, Vorurteile in Bezug auf Geschlecht, Rasse, Behinderung und sozioökonomischen Status verstärken. Selbst wenn Außenstehende Zugang zu den Basismodellen hätten, sei nicht klar, wie die Sicherheit und Genauigkeit von LLMs am besten bewertet werden könnten, schreiben die Forscher.

Open-Source-LLMs als Hoffnungsträger

Die Forscher schlagen einen transparenteren und umfassenderen Ansatz vor. Sie empfehlen, dass Gesundheitseinrichtungen, akademische Forscher, Ärzte, Patienten und sogar Technologieunternehmen weltweit zusammenarbeiten, um Open-Source-LLMs für das Gesundheitswesen zu entwickeln.

Dieses Konsortium könnte ein Open-Source-Basismodell entwickeln, das auf öffentlich zugänglichen Daten basiert. Die Mitglieder des Konsortiums könnten dann Wissen und bewährte Verfahren austauschen, um das Modell anhand von Daten auf Patientenebene zu verfeinern, die möglicherweise in einer bestimmten privaten Einrichtung vorhanden sind.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Ein solcher offener, konsortiumsgeführter Ansatz hätte gegenüber der Entwicklung proprietärer LLMs für die Medizin mehrere Vorteile. Er würde dazu beitragen, ihre Zuverlässigkeit und Robustheit zu gewährleisten, eine gemeinsame und transparente Bewertung der Modelle zu ermöglichen und die Einhaltung von Datenschutz- und anderen Anforderungen zu erleichtern.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Forscher warnen davor, dass die Dominanz von Big-Tech-Unternehmen wie Google und Microsoft bei der Entwicklung und Anwendung von generativer KI im Gesundheitswesen die Privatsphäre und Sicherheit von Patienten gefährden könnte.
  • Sie argumentieren, dass medizinische Fachkräfte und ein von Konsortien geführter Ansatz mit Open-Source-LLMs (große Sprachmodelle) die Entwicklung vorantreiben sollten, um Transparenz und Datenschutz zu gewährleisten.
  • Ein solcher Ansatz würde die Zusammenarbeit zwischen Gesundheitseinrichtungen, akademischen Forschern, Ärzten, Patienten und Technologieunternehmen weltweit fördern und eine gemeinsame Bewertung der Modelle ermöglichen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!