Shlomi Avigdor, VP of Product bei Dataloop, erklärt die Rolle von Daten-Engines bei der Skalierung von KI zur Lösung von Inhaltsmoderation in sozialen Online-Erfahrungen.
Diskussionen in Online-Communities zu moderieren, ist eine Herausforderung. Das ist noch milde ausgedrückt, wenn es sich um traditionelle textbasierte soziale Medien handelt. Wenn es sich um Plattformen handelt, die Live-Sprache verwenden, wie z. B. Online-Spiele, kann die Aufgabe fast unmöglich werden. Zumindest für Menschen. Dataloop bietet eine Lösung an, die Unternehmen dabei helfen könnte, ihre Online-Umgebungen mithilfe von KI zu überwachen und zu verwalten.
Daten-Engines und KI-Modelle
Dataloop ist kein eigenständiges KI-Produkt. Vielmehr beschreibt das Unternehmen sein Produkt als " Daten-Engine für KI". Es bietet Unternehmen Werkzeuge für das Training von KI-Modellen, einschließlich Speicher- und Annotationsressourcen sowie Automatisierungspipelines, die die Integration von KI in bestehende Prozesse erleichtern.
"Unternehmen sammeln Daten für ihre Branchen und haben Schwierigkeiten, diese zu speichern und gleichzeitig ihren Kontext zu überwachen", erklärt Shlomi Avigdor, VP of Product bei Dataloop, gegenüber THE DECODER. "Dataloop hilft ihnen dabei, ihre Daten zu ordnen und mit Hilfe von KI zu durchsuchen."
Laut Avigdor kann KI allein das Problem der Moderation nicht lösen, da die meisten Wörter oder Ausdrücke an sich nicht problematisch sind. Problematisch sind sie im Kontext. Die Tools von Dataloop können mit einer KI zusammenarbeiten, die lernt, problematische Wörter oder Phrasen zu erkennen, um einem menschlichen Moderator einen kommentierten Auszug zu liefern, der dann die endgültige Entscheidung treffen kann.
"Der Inhalt, den man wirklich braucht, ist ein Problem für sich", sagt Avigdor. "Wenn man 50.000 Audiodateien in einer Minute hat, kann man die wirklich alle durchgehen? ... Dataloop hat das in seiner Plattform."
Wo der Mensch ins Spiel kommt
Moderation mit KI allein ist vielleicht möglich, aber sie ist noch nicht die beste Lösung. Das haben wir bereits von Social-Media-Unternehmen gelernt, die zunächst KI-Strategien zur Moderation von Inhalten einsetzen, dann aber einen menschlichen Berufungsprozess anbieten. Viele Inhalte, die markiert werden sollten, werden nicht markiert, und viele Inhalte, die nicht markiert werden sollten, werden markiert.
Die Verwendung einer Datenmaschine, die von der KI gespeist wird und in diese einfließt, aber den menschlichen Vermittler beibehält, vermeidet diese Probleme und trägt auch zur Verbesserung der KI bei. Die Betreiber können dem KI-Modell mitteilen, wann seine Beiträge nützlich waren und wann nicht.
"In einigen Fällen ist das öffentliche Modell am Anfang nicht so gut, aber es wird mit der Zeit immer besser und man kann sehr schnell eine Genauigkeit von 90 Prozent erreichen", sagt Avigdor. "Die Verfeinerung auf 99 Prozent ist der schwierige Teil. Hier kommt der Mensch ins Spiel."
Der Aufbau eines KI-Moderationstools von Grund auf oder auf der Grundlage eines öffentlichen Modells kann einem Unternehmen auch dabei helfen, nützlichere Modelle für seinen spezifischen Anwendungsfall und geografischen Markt zu entwickeln. Je lokaler die Quelle der Trainingsdaten ist, desto besser wird die KI in der Lage sein, regionale Bezüge zu erkennen, was für die Moderation von Audioinhalten besonders wichtig ist.
"Man kann ein großartiges Modell für die Moderation von Inhalten in den USA entwickeln, aber wenn man es in Japan anwendet, ist es nutzlos", sagt Avigdor. "Was wir entwickelt haben, ist eine Lösung, die diesen Prozess wirklich beschleunigt."
Ersetzt oder unterstützt KI?
Viele Diskussionen im Bereich der KI drehen sich um die Frage, inwieweit KI den Menschen ersetzen wird. Zumindest bei den meisten Aufgaben sollte es eigentlich darum gehen, wie KI den Menschen helfen kann, die anstehenden Aufgaben besser zu erledigen. Die Schritte von Dataloop in Richtung KI-gestützter Community-Moderation sind ein gutes Beispiel dafür.
Mehr Informationen über Dataloop gibt es auf Dataloop.ai.