KI in der Praxis

Air Canada haftet für Chatbot-Lügen und muss zahlen

Matthias Bastian
A chatbot character, depicted with a distinctly digital appearance, riding on the wing of a plane mid-flight. The scene is rendered in a vibrant glitch style, emphasizing a dynamic and abstract interpretation of digital distortion. The plane, sleek and modern in design, cuts through a sky filled with digital artifacts, error patterns, and a spectrum of glitch effects in vivid colors like electric blues, neon greens, and splashes of purple and pink. This digital chaos symbolizes the intersection of technology and adventure, set against a backdrop that blends the real with the surreal. The image is created in a 16:9 aspect ratio, providing a wide cinematic view of the chatbot's exhilarating journey through a cybernetically enhanced sky.

DALL-E 3 prompted by THE DECODER

Air Canada muss einen Fluggast aus British Columbia entschädigen, nachdem ihm der Chatbot des Unternehmens falsche Informationen über Flugpreise gegeben hatte.

Der Mann hatte sich bei der Buchung eines Fluges zur Beerdigung seiner Großmutter auf die Informationen des Chatbots über Flugpreise verlassen, berichtet CTV News.

Konkret wollte er sich über spezielle Trauerpreise für Flüge aufgrund eines Todesfalls in der Familie informieren. Der Chatbot teilte dem Mann mit, dass er innerhalb von 90 Tagen nach dem Flug Anspruch auf einen Preisnachlass habe.

Diese Information war falsch, und die Fluggesellschaft weigerte sich, den Trauerrabatt nachträglich zu gewähren.

Air Canada argumentierte, dass sie nicht für die Informationen des Chatbots verantwortlich gemacht werden könne. Der Chatbot sei eine eigenständige juristische Person und für seine eigenen Handlungen verantwortlich.

Das kanadische Zivilgericht entschied jedoch zugunsten des Mannes und sprach ihm wegen fahrlässiger Falschinformation 650,88 Dollar Schadenersatz zu. Die Summe entspricht der Preisdifferenz zwischen dem von ihm bezahlten Flug und einem ermäßigten Trauerpreis, zuzüglich Zinsen und Gebühren.

 

Wegweisendes Urteil zu Chatbots im Kundenservice?

Das Gericht kam zu dem Schluss, dass Air Canada es versäumt hatte, die Genauigkeit seines Chatbots sicherzustellen. Der Chatbot sei Teil der Website und müsse ebenso wie die Website korrekte Informationen wiedergeben.

Air Canada sei für alle Informationen auf seiner Website verantwortlich, unabhängig davon, ob sie von einer statischen Seite oder einem Chatbot stammen.

Das Gericht wies auch das Argument zurück, dass der Mann die korrekten Informationen auf einer anderen Seite der Website hätte finden können, und stellte fest, dass es für Kunden keinen Grund geben sollte, die Informationen des Chatbots mit Informationen an anderer Stelle zu vergleichen.

Der Vorfall ereignete sich im November 2022. Zu diesem Zeitpunkt verwendete Air Canada wahrscheinlich noch einen programmierten Chatbot und keinen Sprachmodellbot, der eventuell noch unzuverlässiger ist.

Ein LLM-Chatbot eines Autohändlers in den USA ließ sich beispielsweise auf einen Preis von einem US-Dollar für ein neues Auto herunterhandeln. Auch hier könnte ein Gericht zu dem Schluss kommen, dass der Bot Teil der Website ist und der ausgehandelte Preis, so absurd er auch sein mag, zählt.

Beim Lieferdienst DPD wurde lediglich das eigene Image beschädigt: Hier machte sich der LLM-Chatbot über das eigene Unternehmen lustig und bezeichnete es als die weltweit schlechteste Lieferfirma.

 

Quellen: