Künstliche Intelligenz

Künstliche Intelligenz soll ungefähren Todeszeitpunkt von Patienten vorhersagen

Matthias Bastian
Ein KI-System soll den Todeszeitpunkt eines Patienten anhand seiner elektronischen Krankenakte auf drei bis zwölf Monate genau einschätzen können.

Ein KI-System soll den Todeszeitpunkt eines Patienten anhand dessen Krankenakte auf drei bis zwölf Monate genau einschätzen können und so dabei helfen, ihn zum richtigen Zeitpunkt der Palliativpflege zu übergeben.

Forscher der Stanford Universität arbeiten an einer Künstlichen Intelligenz, die bei kritisch erkrankten Patienten den ungefähren Todeszeitpunkt prognostizieren können soll. Das Ziel ist es, die Palliativversorgung zu verbessern und mehr Patienten zugänglich zu machen. Diese startet für gewöhnlich, wenn der Patient noch zwischen drei und zwölf Monaten zu leben hat.

Ein aus mehreren Schichten bestehendes maschinelles Lernverfahren wurde mit Daten aus 160.000 speziell ausgewählten elektronischen Krankenakten von Erwachsenen und Kindern gefüttert. Ausgewertet wurden Faktoren wie die Diagnose, die verwendeten Medikamente, die Anzahl vorhandener Scans oder die Dauer des Aufenthalts in Krankenhäusern.

Anhand der Eintragungen in einer Akte lernte die KI, die Sterbewahrscheinlichkeit eines Patienten innerhalb der nächsten drei bis zwölf Monate vorherzusagen. Patienten mit einer geringeren Lebenserwartung wurden bei der Analyse ausgespart, da sie nicht mehr in die Palliativpflege kommen.

Richtige Prognose in neun von zehn Fällen

Im Anschluss an den Lernprozess untersuchte der Algorithmus 40.000 weitere Patientenakten und konnte in neun von zehn Fällen den Todeszeitpunkt innerhalb der vorgegebenen Zeitspanne von drei bis zwölf Monaten korrekt vorhersagen. 95 Prozent der Patienten mit geringer Sterbewahrscheinlichkeit innerhalb dieser Zeitspanne lebten über die zwölf Monate hinaus. Die Pilotstudie war so erfolgreich, dass die Forscher das System in die medizinische Praxis bringen wollen.

Wie bei vielen KI-Systemen greift auch bei diesem Verfahren das Black-Box-Phänomen: Die Künstliche Intelligenz mag zwar die richtige Vorhersage treffen, kann dem Arzt aber nicht erklären, wie sie zu dieser Schlussfolgerung kam.

Das setzt laut den Wissenschaftlern ein Grundvertrauen in die Kompetenz des Algorithmus voraus, die zuerst aufgebaut werden muss. Ein Arzt müsse sich wohl dabei fühlen, Entscheidungen anhand der maschinellen Empfehlung zu treffen und eigenständig soziale, klinische und persönliche Aspekte ergänzen.