Facebook implementiert ein algorithmisches Frühwarnsystem, das den Nachrichtenstrom auf potenzielle Selbstmörder untersucht. Das Verfahren erkennt Signalwörter, markiert den entsprechenden Textabschnitt und informiert Helfer.
Die Künstliche Intelligenz soll potenzielle Selbstmörder anhand von Signalwörtern in Live-Videos, Beiträgen oder in den Kommentaren auf Beiträge ("Geht es Dir gut?" oder "Kann ich Dir helfen?") erkennen. Das KI-System wurde mit Sätzen aus Beiträgen trainiert, die zuvor im Kontext eines möglichen Selbstmordrisikos von Nutzern gemeldet wurden.
Als Risikofälle markierte Beiträge werden an speziell ausgebildete Moderatoren gemeldet, die Freunde, Verwandte oder Ersthelfer alarmieren können.
Facebook testet mit "Wellness Checks"
Bisher verließ sich das soziale Netzwerk bei der Suizidprävention ausschließlich auf Warnungen von Nutzern. Ziel des neuen Algorithmus' ist es, gefährdete Personen früh zu entdecken und ihnen schneller Hilfe zu senden.
Das KI-System soll auch die Dringlichkeit von Warnungen anderer Nutzer einschätzen können. Diese werden dann mit Empfehlungen für mögliche Unterstützung wie Kontaktdaten von lokalen Hilfsorganisationen priorisiert an Moderatoren weitergereicht, damit sie schneller reagieren können.
"Wir wollen bei jedem Schritt im Prozess einige Minuten einsparen, speziell bei Facebook Live", sagt Facebooks Produktmanager Guy Rosen.
Im vergangenen Monat initiierte Facebook 100 sogenannter "Wellness Checks", bei denen Ersthelfer von der KI gemeldete mögliche Selbstmörder aufsuchten. In einigen Fällen hätten diese noch bei Facebook Live übertragen, als der Ersthelfer eintraf.
KI soll inszenierte Selbstmorde bei Facebook Live verhindern
Die Bemühungen des sozialen Netzwerks zur Suizidprävention kommen nicht von ungefähr: Wiederholt kündigten Nutzer ihren Selbstmord bei Facebook an und vollzogen diesen zum Teil sogar in Live-Videos.
Facebook-Chef Marc Zuckerberg kündigte die KI-gestützte Suizidprävention schon im vergangenen Februar an: "Es gab tragische Ereignisse wie Selbstmorde, einige davon als Livestream, die hätten verhindert werden können, wenn sie jemand schneller bemerkt und gemeldet hätte." Künstliche Intelligenz könne dabei helfen.
Facebook kooperiert beim Thema Selbstmord mit Partnern wie Save.org, National Suicide Prevention Lifeline oder Forefront. Der Algorithmus wird zuerst außerhalb der USA getestet und dann weltweit ausgerollt. Er wird aufgrund von Datenschutzbestimmungen nicht in Europa eingesetzt.