Künstliche Intelligenz soll aus der Sprache gefährdeter Jugendlicher herauslesen können, ob eine Psychose vorliegt oder sich entwickelt.
Wenn heute die Rede von Künstlicher Intelligenz ist, dann sind meist hochsensible Statistiksysteme gemeint: Diese können Daten so detailliert analysieren und korrelieren, wie es Menschen im Alleingang nicht möglich wäre.
Dafür muss die Software den tieferen Sinn des zu analysierenden Inhalts nicht verstehen: Es reicht, wenn sie Muster identifizieren und vergleichen kann. Maschinelle Lernverfahren helfen ihr dabei, Erkennung und Auswertung eigenständig zu optimieren. Mit zunehmendem Training liefert die KI so immer präzisere Ergebnisse.
Sind Maschinen die besseren Spurensucher?
Forscher der Mount Sinai School of Medicine setzten ein KI-gestütztes Analyseverfahren jetzt auf die Mitschriften von Interviews Psychose-gefährdeter Jugendlicher an. Untersucht wurden zwei Gruppen mit 34 respektive 59 Probanden an zwei verschiedenen Standorten.
Die Künstliche Intelligenz untersuchte die Texte auf typische Auffälligkeiten einer sich anbahnenden Psychose, zum Beispiel Aussetzer im Sprachfluss oder die Unfähigkeit, einen Sachverhalt auf den Punkt zu bringen.
Laut der Untersuchung, die im Fachjournal World Psychiatry veröffentlicht wurde, konnte die automatische Sprachanalyse mit einer Genauigkeit von bis zu 83 Prozent vorhersagen, welche der untersuchten Jugendlichen in den zwei Jahren nach den Interviews eine Psychose entwickeln würde. Mit einer Wahrscheinlichkeit von 72 Prozent konnte das KI-System anhand von Sprachmustern gesunde Menschen von jenen mit einer Psychose unterscheiden.
Die Sprachanalyse ist kein neues Diagnoseverfahren, Interviews und Verhaltensbeobachtung sind ein fester Bestandteil der psychologischen Diagnostik. Neu ist laut den Forschern, dass ein KI-gestütztes Diagnosesystem Psychosen früher und verlässlicher erkennen könnte als Ärzte.
Die maschinelle Analyse soll subtile Änderungen in der Sprache herausfiltern, die einem Psychologen womöglich verborgen blieben, und so zur Entwicklung neuer Heilverfahren beitragen.
Facebook möchte mit einem vergleichbaren Verfahren selbstmordgefährdete Nutzer, die ihre Tat per Videostream live übertragen könnten, frühzeitig aus dem Nachrichtenstrom fischen.