Inhalt
summary Zusammenfassung

Air Canada muss einen Fluggast aus British Columbia entschädigen, nachdem ihm der Chatbot des Unternehmens falsche Informationen über Flugpreise gegeben hatte.

Anzeige

Der Mann hatte sich bei der Buchung eines Fluges zur Beerdigung seiner Großmutter auf die Informationen des Chatbots über Flugpreise verlassen, berichtet CTV News.

Konkret wollte er sich über spezielle Trauerpreise für Flüge aufgrund eines Todesfalls in der Familie informieren. Der Chatbot teilte dem Mann mit, dass er innerhalb von 90 Tagen nach dem Flug Anspruch auf einen Preisnachlass habe.

Diese Information war falsch, und die Fluggesellschaft weigerte sich, den Trauerrabatt nachträglich zu gewähren.

Anzeige
Anzeige

Air Canada argumentierte, dass sie nicht für die Informationen des Chatbots verantwortlich gemacht werden könne. Der Chatbot sei eine eigenständige juristische Person und für seine eigenen Handlungen verantwortlich.

Das kanadische Zivilgericht entschied jedoch zugunsten des Mannes und sprach ihm wegen fahrlässiger Falschinformation 650,88 Dollar Schadenersatz zu. Die Summe entspricht der Preisdifferenz zwischen dem von ihm bezahlten Flug und einem ermäßigten Trauerpreis, zuzüglich Zinsen und Gebühren.

 

Wegweisendes Urteil zu Chatbots im Kundenservice?

Das Gericht kam zu dem Schluss, dass Air Canada es versäumt hatte, die Genauigkeit seines Chatbots sicherzustellen. Der Chatbot sei Teil der Website und müsse ebenso wie die Website korrekte Informationen wiedergeben.

Air Canada sei für alle Informationen auf seiner Website verantwortlich, unabhängig davon, ob sie von einer statischen Seite oder einem Chatbot stammen.

Empfehlung

Das Gericht wies auch das Argument zurück, dass der Mann die korrekten Informationen auf einer anderen Seite der Website hätte finden können, und stellte fest, dass es für Kunden keinen Grund geben sollte, die Informationen des Chatbots mit Informationen an anderer Stelle zu vergleichen.

Der Vorfall ereignete sich im November 2022. Zu diesem Zeitpunkt verwendete Air Canada wahrscheinlich noch einen programmierten Chatbot und keinen Sprachmodellbot, der eventuell noch unzuverlässiger ist.

Ein LLM-Chatbot eines Autohändlers in den USA ließ sich beispielsweise auf einen Preis von einem US-Dollar für ein neues Auto herunterhandeln. Auch hier könnte ein Gericht zu dem Schluss kommen, dass der Bot Teil der Website ist und der ausgehandelte Preis, so absurd er auch sein mag, zählt.

Beim Lieferdienst DPD wurde lediglich das eigene Image beschädigt: Hier machte sich der LLM-Chatbot über das eigene Unternehmen lustig und bezeichnete es als die weltweit schlechteste Lieferfirma.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

 

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Air Canada wurde dazu verurteilt, einem Kunden 650,88 USD zu erstatten. Der Chatbot der Fluggesellschaft verbreitete ungenaue Informationen über Trauerpreise, was laut Gericht einen Fall von fahrlässiger Täuschung darstellte.
  • Der Kunde verließ sich auf die Informationen des Chatbots, dass Trauerpreise rückwirkend geltend gemacht werden könnten. Die Fluggesellschaft verweigerte jedoch die Kostenerstattung, woraufhin der Kunde Klage einreichte.
  • Das Gericht entschied, dass Air Canada für die Informationen auf ihrer Website, einschließlich der Informationen des Chatbots, verantwortlich ist, und wies das Argument der Fluggesellschaft zurück, dass der Kunde andere Bereiche der Website hätte überprüfen müssen, um sicherzustellen, dass die Informationen korrekt waren.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!