Die US-Behörde FDA, die über Medikamentenzulassungen entscheidet, setzt auf das generative KI-System Elsa – obwohl das laut Insidern regelmäßig Studien halluziniert.

Anzeige

„Alles, wofür man keine Zeit hat, es zu überprüfen, ist unzuverlässig. Es halluziniert voller Überzeugung“, sagt ein aktueller FDA-Mitarbeiter über das KI-System „Elsa“ (Efficient Language System for Analysis), das eigentlich die Zulassung neuer Medikamente beschleunigen soll. Mehrere Beschäftigte berichten gegenüber CNN, dass Elsa regelmäßig nicht existierende Studien erfindet oder Forschungsdaten falsch darstellt – ein bekanntes Problem großer Sprachmodelle. Der FDA-Chef für KI, Jeremy Walsh, räumt ein: „Elsa unterscheidet sich nicht von vielen anderen großen Sprachmodellen und generativer KI. Sie kann möglicherweise halluzinieren.“

Trotz dieser bekannten Schwächen wird Elsa bereits zur Bewertung klinischer Protokolle und zur Risikoeinschätzung bei Inspektionen eingesetzt – und das in einem regulatorischen Vakuum, da es in den USA derzeit keine verbindlichen Regeln für den Einsatz von KI im Gesundheitswesen gibt.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!