Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

Facebook will sicherer werden und untersucht dafür in einer Schattenkopie des eigenen Netzwerks das Verhalten fieser Bots, die von Menschen lernen.

Ein komplexes Netzwerk wie Facebook hat viele Herausforderungen. Die größte Herausforderung sind die Nutzerinnen und Nutzer.

Jedes Update der Bedienoberfläche, der Empfehlungsalgorithmen oder neue Funktionen können unvorhergesehene Folgen haben, wenn sie auf Milliarden Menschen treffen. Es gibt außerdem zahlreiche Fälle von Belästigung, Hass und Betrug bei Facebook.

Um schädlichem Verhalten, das vorhandene Sicherheitsmechanismen aushebelt oder gegen Community-Richtlinien verstößt, zukünftig besser begegnen zu können, entwickelt Facebook jetzt die Schattenkopie "WW" des eigenen Netzwerks, in der Bots menschliches Verhalten imitieren. Der Name WW steht für eine "kleine Variante des World Wide Web", erklärt Facebook.

Anzeige
Anzeige

Menschen-Kopien in einer Facebook-Kopie

Durch maschinelles Lernen sollen die Bots bestimmte Verhaltensweisen menschlicher Facebook-Nutzer imitieren. Innerhalb des WW-Netzwerks können dann Millionen von Interaktionen simuliert werden. Die Testumgebung läuft mit dem echten Produkt-Code und tatsächlichen Facebook-Inhalten, ist aber getrennt vom echten Netzwerk.

Die Bots können in der Simulation alle üblichen Facebook-Aktionen ausführen, etwa Seiten besuchen, Nachrichten senden oder Suchen durchführen. Bestimmte Bots versuchen, Waffen oder Drogen zu verkaufen, andere verbreiten Spam und wieder andere wollen betrügen.

Facebook will mit der Bot-Simulation Sicherheitslücken und Datenschutzprobleme aufdecken. Konkrete Inhalte werden dabei nicht simuliert - schließlich ist niemand da, um sie zu lesen. Stattdessen simuliert Facebook das Verhalten.

Der verantwortliche Facebook-Ingenieur Mark Harman nennt als Beispiel einen Betrüger-Bot, der systematisch Kontakt zu den Freunden eines fiktiven Opfers aufnimmt.

Als mögliche Maßnahme gegen betrügende Roboter testet Facebook verschiedene Einschränkungen wie die Begrenzung der Anzahl privater Nachrichten und Beiträge, die pro Minute versendet werden können.

Empfehlung

Die Bot-Simulation könnte Ende des Jahres erstmals Auswirkungen auf das echte Facebook haben

Noch hat die Arbeit der Forscher zu keinen Änderungen im echten Netzwerk geführt. Man wolle erst sichergehen, dass die Bot-Interaktionen die Vielfalt echter menschlicher Interaktion glaubhaft simulieren, sagt Harman. Er rechnet damit, dass es bis Ende des Jahres erste Änderungen am Facebook-Code geben könnte, die durch die Arbeit der Bot-Forscher motiviert ist.

Bis dahin liegt der Fokus auf möglichst realistischem Bot-Verhalten. In der Zukunft sei es möglich, die Bots auf unbekanntes Verhalten zu trainieren, das nicht von Menschen vorgelebt wurde.

„Das ist tatsächlich etwas, das wir uns wünschen, denn wir wollen letztlich negativem Verhalten vorgreifen, als ihm immer hinterherzulaufen“, so Harman.

Quelle: Facebook; Via: The Verge; Titelbild: Facebook

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Weiterlesen über Künstliche Intelligenz:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!