Air Canada muss wegen Chatbot-Fehlberatung zahlen

Air Canada
Bildquelle: Vytautas / Kielaitis.com

Air Canada musste einem Kunden eine Rückerstattung gewähren, nachdem ein Chatbot falsche Informationen geliefert hatte.

Ein ungewöhnlicher Rechtsstreit

Bei einem Verfahren vor dem Zivilentscheidungstribunal (Civil Resolution Tribunal, CRT) in British Columbia versuchte Air Canada, sich von den Fehlinformationen seines eigenen Chatbots zu distanzieren. Das Unternehmen behauptete, das Online-Tool sei “eine separate rechtliche Einheit, die für ihre eigenen Handlungen verantwortlich ist”. Diese Argumentation überraschte das Tribunal.

Anzeige

Christopher Rivers, Mitglied des CRT, stellte klar, dass ein Chatbot, obwohl er eine interaktive Komponente besitzt, immer noch ein Teil der Webseite von Air Canada ist. Er betonte, dass es offensichtlich sein sollte, dass Air Canada für alle Informationen auf seiner Webseite verantwortlich ist, unabhängig davon, ob diese von einer statischen Seite oder einem Chatbot stammen.

Die Folgen einer Fehlberatung

Im konkreten Fall wurde Air Canada angewiesen, Jake Moffatt 812 Dollar zu zahlen, um die Differenz zwischen den Tarifen für Trauerfälle und den 1.630,36 Dollar, die Moffatt für vollpreisige Flugtickets nach dem Tod seiner Großmutter bezahlt hatte, zu decken. Moffatt hatte die Tickets am Tag des Todes seiner Großmutter über die Webseite von Air Canada gekauft und war auf die Beratung des Chatbots gestoßen.

Als Moffatt versuchte, sein Geld zurückzubekommen, nachdem er bereits gereist war, wurde ihm mitgeteilt, dass die Tarife für Trauerfälle nicht für bereits abgeschlossene Reisen gelten – eine Information, die an anderer Stelle auf der Webseite zu finden war. Die künstliche Intelligenz hat ihm aber Gegenteiliges gesagt. Trotz der Vorlage eines Screenshots, der die irreführenden Ratschläge des Chatbots zeigte, bot die Reaktion von Air Canada wenig Trost.

Anzeige
Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Die Entscheidung des Tribunals

Das CRT urteilte, dass Air Canada nicht die erforderliche Sorgfalt walten ließ, um die Genauigkeit seines Chatbots zu gewährleisten. Es wurde hervorgehoben, dass es keinen Grund gibt, warum der Kunde wissen sollte, dass ein Abschnitt der Webseite von Air Canada korrekt ist und ein anderer nicht.

Dieser Fall markiere eine Seltenheit in der kanadischen Rechtsprechung, da kaum Fälle dokumentiert sind, in denen schlechte Ratschläge durch Chatbots thematisiert werden. Moffatts Fall scheint der erste seiner Art zu sein. Damit werden die Diskussionen um die Verantwortung von Unternehmen für die durch ihre digitalen Assistenten bereitgestellten Informationen neu entfacht. Erst vor wenigen Wochen hatte DPD mit seinem eigenen Chatbot zu kämpfen, der seine eigene Firma als schlechtesten Lieferdienst der Welt bezeichnete.

Lars

Becker

Redakteur

IT Verlag GmbH

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.