Inhalt
newsletter Newsletter

Facebook implementiert ein algorithmisches Frühwarnsystem, das den Nachrichtenstrom auf potenzielle Selbstmörder untersucht. Das Verfahren erkennt Signalwörter, markiert den entsprechenden Textabschnitt und informiert Helfer.

Anzeige

Die Künstliche Intelligenz soll potenzielle Selbstmörder anhand von Signalwörtern in Live-Videos, Beiträgen oder in den Kommentaren auf Beiträge ("Geht es Dir gut?" oder "Kann ich Dir helfen?") erkennen. Das KI-System wurde mit Sätzen aus Beiträgen trainiert, die zuvor im Kontext eines möglichen Selbstmordrisikos von Nutzern gemeldet wurden.

Als Risikofälle markierte Beiträge werden an speziell ausgebildete Moderatoren gemeldet, die Freunde, Verwandte oder Ersthelfer alarmieren können.

Facebook testet mit "Wellness Checks"

Bisher verließ sich das soziale Netzwerk bei der Suizidprävention ausschließlich auf Warnungen von Nutzern. Ziel des neuen Algorithmus' ist es, gefährdete Personen früh zu entdecken und ihnen schneller Hilfe zu senden.

Anzeige
Anzeige

Das KI-System soll auch die Dringlichkeit von Warnungen anderer Nutzer einschätzen können. Diese werden dann mit Empfehlungen für mögliche Unterstützung wie Kontaktdaten von lokalen Hilfsorganisationen priorisiert an Moderatoren weitergereicht, damit sie schneller reagieren können.

"Wir wollen bei jedem Schritt im Prozess einige Minuten einsparen, speziell bei Facebook Live", sagt Facebooks Produktmanager Guy Rosen.

Im vergangenen Monat initiierte Facebook 100 sogenannter "Wellness Checks", bei denen Ersthelfer von der KI gemeldete mögliche Selbstmörder aufsuchten. In einigen Fällen hätten diese noch bei Facebook Live übertragen, als der Ersthelfer eintraf.

KI soll inszenierte Selbstmorde bei Facebook Live verhindern

Die Bemühungen des sozialen Netzwerks zur Suizidprävention kommen nicht von ungefähr: Wiederholt kündigten Nutzer ihren Selbstmord bei Facebook an und vollzogen diesen zum Teil sogar in Live-Videos.

Facebook-Chef Marc Zuckerberg kündigte die KI-gestützte Suizidprävention schon im vergangenen Februar an: "Es gab tragische Ereignisse wie Selbstmorde, einige davon als Livestream, die hätten verhindert werden können, wenn sie jemand schneller bemerkt und gemeldet hätte." Künstliche Intelligenz könne dabei helfen.

Empfehlung

Facebook kooperiert beim Thema Selbstmord mit Partnern wie Save.org, National Suicide Prevention Lifeline oder Forefront. Der Algorithmus wird zuerst außerhalb der USA getestet und dann weltweit ausgerollt. Er wird aufgrund von Datenschutzbestimmungen nicht in Europa eingesetzt.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
| Featured Image & Quelle: Facebook
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!