Künstliche Intelligenz soll Facebooks Nachrichtenstrom von Rachepornos säubern.
Facebook kündigt einen neuen Algorithmus an, der ohne Erlaubnis veröffentlichte intime Fotos und Videos bei Facbeook und Instagram automatisch erkennen und melden soll.
Das neue Verfahren soll entsprechende Inhalte laut Facebook dank "maschinellem Lernen und Künstlicher Intelligenz" schnell und ohne Hilfe des Opfers entdecken.
Bislang mussten entsprechende Fotos und Videos von Betroffenen und Angehörigen manuell gemeldet werden. Das sei ein Problem, schreibt Facebook, da Betroffene sich vor weiteren Bedrohungen fürchteten und daher womöglich vor einer Beschwerde zurückschreckten.
Wie genau der Algorithmus trainiert wurde und auswählt, verrät Facebook nicht. Er könne aber mehr als nur nackte Haut auf Fotos und Videos erkennen.
Facebook-Angestellte müssen hinschauen
Vom Algorithmus identifizierte Inhalte werden wie bisher im letzten Schritt von Facebook-Angestellten kontrolliert und mit einem digitalen Fingerabdruck versehen. Der soll dafür sorgen, dass die Bilder und Videos nicht erneut hochgeladen oder geteilt werden können.
Ergänzend bietet Facebook an, intimes Bildmaterial der Plattform vorab mitzuteilen und durch einen eben solchen Fingerabdruck vor einem Upload durch andere Personen schützen zu lassen.
Das kostet allerdings Überwindung, denn das eingesendete Bildmaterial wird vertraulich von Facebook-Angestellten geprüft.
Titelbild: Facebook