Après des mois de résistance, Air Canada a été contrainte de rembourser partiellement un passager en deuil qui avait été induit en erreur par un chatbot de la compagnie aérienne expliquant de manière inexacte la politique de la compagnie aérienne en matière de voyages en cas de deuil.
Le jour du décès de la grand-mère de Jake Moffatt, Moffat a immédiatement visité le site Web d’Air Canada pour réserver un vol de Vancouver à Toronto. Incertain du fonctionnement des tarifs de deuil d’Air Canada, Moffatt a demandé au chatbot d’Air Canada de s’expliquer.
Le chatbot a fourni des informations inexactes, encourageant Moffatt à réserver un vol immédiatement, puis à demander un remboursement dans les 90 jours. En réalité, la politique d’Air Canada stipule explicitement que la compagnie aérienne ne remboursera pas les voyages en cas de deuil une fois le vol réservé. Moffatt a consciencieusement tenté de suivre les conseils du chatbot et de demander un remboursement, mais a été choqué que la demande ait été rejetée.
Moffatt a tenté pendant des mois de convaincre Air Canada qu’un remboursement était dû, partageant une capture d’écran du chatbot qui affirmait clairement :
Si vous devez voyager immédiatement ou avez déjà voyagé et souhaitez soumettre votre billet à un tarif réduit en cas de deuil, veuillez le faire dans les 90 jours suivant la date d’émission de votre billet en remplissant notre formulaire de demande de remboursement de billet.
Air Canada a fait valoir que, comme la réponse du chatbot était liée à une page contenant la politique réelle en matière de voyages en cas de deuil, Moffatt aurait dû savoir que les tarifs pour les personnes en deuil ne pouvaient pas être demandés rétroactivement. Au lieu d’un remboursement, la meilleure chose qu’Air Canada ferait était de promettre de mettre à jour le chatbot et d’offrir à Moffatt un coupon de 200 $ à utiliser sur un prochain vol.
Mécontent de cette résolution, Moffatt a refusé le coupon et a déposé une plainte aux petites créances auprès du Tribunal de résolution civile du Canada.
Selon Air Canada, Moffatt n’aurait jamais dû faire confiance au chatbot et la compagnie aérienne ne devrait pas être tenue responsable des informations trompeuses du chatbot, car Air Canada a essentiellement soutenu que « le chatbot est une entité juridique distincte qui est responsable de ses propres actions », une ordonnance du tribunal. dit.
Des experts ont déclaré au Vancouver Sun que le cas de Moffatt semblait être la première fois qu’une entreprise canadienne tentait de faire valoir qu’elle n’était pas responsable des informations fournies par son chatbot.
Christopher Rivers, membre du Tribunal, qui a tranché en faveur de Moffatt, a qualifié la défense d’Air Canada de « remarquable ».
« Air Canada affirme qu’elle ne peut être tenue responsable des informations fournies par l’un de ses agents, préposés ou représentants, y compris un chatbot », a écrit Rivers. « Il n’explique pas pourquoi il pense que c’est le cas » ou « pourquoi la page Web intitulée ‘Voyage de deuil’ était intrinsèquement plus digne de confiance que son chatbot. »
De plus, Rivers a conclu que Moffatt n’avait « aucune raison » de croire qu’une partie du site Web d’Air Canada serait exacte et qu’une autre ne le serait pas.
Air Canada « n’explique pas pourquoi les clients devraient vérifier les informations trouvées dans une partie de son site Web dans une autre partie de son site Web », a écrit Rivers.
En fin de compte, Rivers a statué que Moffatt avait droit à un remboursement partiel de 650,88 $ en dollars canadiens (CAD) sur le tarif initial (environ 482 $ US), qui était de 1 640,36 $ CAD (environ 1 216 $ US), ainsi qu’à des dommages-intérêts supplémentaires pour couvrir les intérêts. sur le billet d’avion et les frais du tribunal de Moffatt.
Air Canada a déclaré à Ars qu’elle se conformerait à la décision et considérait l’affaire close.
Le chatbot d’Air Canada semble désactivé
Lorsqu’Ars a visité le site Web d’Air Canada vendredi, il ne semblait y avoir aucun support de chatbot disponible, ce qui suggère qu’Air Canada a désactivé le chatbot.
Air Canada n’a pas répondu à la demande d’Ars de confirmer si le chatbot fait toujours partie des offres d’assistance en ligne de la compagnie aérienne.
En mars dernier, Mel Crocker, directeur de l’information d’Air Canada, a déclaré au Globe and Mail que la compagnie aérienne avait lancé le chatbot en tant qu’« expérience » d’IA.
Initialement, le chatbot était utilisé pour alléger la charge du centre d’appels d’Air Canada lorsque les vols connaissaient des retards ou des annulations inattendus.
« Donc, dans le cas d’une tempête de neige, si vous n’avez pas encore reçu votre nouvelle carte d’embarquement et que vous souhaitez simplement confirmer si vous avez un siège disponible sur un autre vol, c’est le genre de chose que nous pouvons facilement gérer avec l’IA », Crocker a déclaré au Globe and Mail.
Au fil du temps, a déclaré Crocker, Air Canada espérait que le chatbot « gagnerait en capacité de résoudre des problèmes de service client encore plus complexes », l’objectif ultime de la compagnie aérienne étant d’automatiser chaque service ne nécessitant pas de « contact humain ».
Si Air Canada peut utiliser « la technologie pour résoudre quelque chose qui peut être automatisé, nous le ferons », a déclaré Crocker.
Air Canada était apparemment tellement investie dans l’expérimentation de l’IA que Crocker a déclaré au Globe and Mail que « l’investissement initial d’Air Canada dans la technologie d’IA du service client était bien plus élevé que le coût de continuer à payer les travailleurs pour traiter des requêtes simples ». Cela en valait la peine, a déclaré Crocker, car « la compagnie aérienne pense qu’investir dans l’automatisation et la technologie d’apprentissage automatique réduira ses dépenses » et créera « fondamentalement » « une meilleure expérience client ».
Il est désormais clair que pour au moins une personne, le chatbot a créé une expérience client plus frustrante.
Des experts ont déclaré au Vancouver Sun qu’Air Canada aurait peut-être réussi à éviter toute responsabilité dans le cas de Moffatt si son chatbot avait averti les clients que les informations fournies pourraient ne pas être exactes.
Parce qu’Air Canada n’a apparemment pas pris cette mesure, Rivers a statué qu’« Air Canada n’a pas pris de précautions raisonnables pour garantir l’exactitude de son chatbot ».
« Il devrait être évident pour Air Canada qu’elle est responsable de toutes les informations figurant sur son site Web », a écrit Rivers. « Peu importe que les informations proviennent d’une page statique ou d’un chatbot. »