« Erreur du chatbot Air Canada souligne le danger de responsabilité de l’IA en entreprise »

Un tribunal civil au Canada a ordonné à Air Canada de payer pour une erreur commise par un chatbot de service client, mettant en évidence le besoin pour les entreprises de mieux former et surveiller leurs outils d’intelligence artificielle (IA).
Le résident de la Colombie-Britannique, Jake Moffatt, a visité le site web d’Air Canada en novembre 2022 pour réserver un vol pour les funérailles de sa grand-mère en Ontario. Le chatbot du site lui a dit qu’il pouvait obtenir un remboursement d’une partie du billet du lendemain et du billet retour s’il demandait la réduction dans les 90 jours.
Cette information était incorrecte; la politique d’Air Canada, disponible sur son site web, est de fournir des remises en cas de décès si le client fait la demande à l’avance. Après qu’Air Canada a refusé d’accorder la remise, un tribunal canadien a ordonné à la compagnie aérienne de verser environ 600 $ en remboursements pour décès et frais de tribunal – environ la moitié de ce que Moffatt avait payé pour les billets.
Les entreprises utilisant des chatbots et autres outils d’intelligence artificielle générative (genAI) doivent investir dans les efforts de surveillance « afin d’économiser de l’argent sur les gains de productivité des chatbots », a déclaré Avivah Litan, une analyste vice-présidente distinguée spécialisée dans l’IA chez Gartner. « Sinon, elles finiront par dépenser plus en frais juridiques et amendes qu’elles ne gagneront des gains de productivité. »
Dans le cas d’Air Canada, Christopher Rivers, membre du Tribunal de résolution des litiges civils de la Colombie-Britannique, a pris parti pour Moffatt et a rejeté l’affirmation de la compagnie aérienne selon laquelle le chatbot est « une entité légale distincte responsable de ses propres actions ».

Share the Post: