Der Paketzusteller DPD blamiert sich mit einem generativen KI-Chatbot im Service, der das eigene Unternehmen beleidigt.
DPD-Kunde Ashley Beauchamp beschwert sich bei X über DPDs "AI robot thing". Der Service-Chatbot sei "völlig nutzlos" für die Beantwortung seiner Fragen. Dafür habe es aber einen schönen Reim darüber geschrieben, wie fürchterlich schlecht DPD als Lieferfirma ist. Sogar Schimpfworte konnte der Brite dem Chatbot entlocken.
DPD betreibt seit 2019 einen Service-Chatbot. Die von Beauchamp verursachten Pannen seien auf ein neues "KI-Element" zurückzuführen, berichtet die BBC, das bereits abgeschaltet wurde und nun aktualisiert wird. 2019 waren Sprachmodelle, die freie Antworten in Chatbots geben können, noch nicht üblich.
DPD-Chatbot-Panne ist wahrscheinlich ein gescheitertes LLM-Experiment
Aufgrund der Antworten liegt der Verdacht nahe, dass DPD mit einem großen Sprachmodell experimentiert hat, das nicht ausreichend ausgerichtet war.
Aus dem Gesprächsverlauf geht hervor, dass Beauchamp nicht einmal versuchen musste, den Chatbot mit speziellen Prompts ins Bockshorn zu jagen. Um die für DPD peinlichen Antworten zu erhalten, konnte er schlicht danach fragen, ähnlich wie bei ChatGPT. Das spricht dafür, dass DPD ein großes Sprachmodell ohne jegliche spezielle Sicherheitsvorkehrungen in den Bot integriert hat.
Ein US-Autohändler erlebte kürzlich einen ähnlichen Vorfall mit einem generativen Chatbot, der Fahrzeuge für nur einen US-Dollar anbot.
Beide Vorfälle unterstreichen die Risiken, die mit dem Einsatz von Chatbots im Kundendienst verbunden sind, insbesondere wenn der Bot nicht ordnungsgemäß konfiguriert und getestet wurde und übermäßige sprachliche Freiheiten besitzt, also einfach auf alle Anfragen reagiert. Das Wortvorhersage-System hat kein natürliches Verständnis von Service und dessen Grenzen, wie es ein Mensch hätte.