Seu chatbot está bem treinado? O da Air Canada deu uma baita dor de cabeça para a empresa…

Seu chatbot está bem treinado? O da Air Canada deu uma baita dor de cabeça para a empresa…

O chatbot da Air Canada deu informações erradas a um homem da Colúmbia Britânica. Agora, a companhia aérea terá que pagar pelo erro.

A decisão do Tribunal de Resolução Civil sobre a disputa foi postada online na quarta-feira (14), favorável a um homem que confiou nas informações fornecidas pelo bot sobre tarifas ao reservar um voo para comparecer ao funeral de sua avó.

“Concluo que a Air Canada não tomou o cuidado necessário para garantir que seu chatbot fosse preciso”, escreveu o membro do tribunal Christopher C. Rivers, concedendo $650,88 em danos por representação negligente.

“A representação negligente pode surgir quando um vendedor não exerce cuidado razoável para garantir que suas representações sejam precisas e não enganosas”, explica a decisão.

Jake Moffatt estava reservando um voo para Toronto e perguntou ao bot sobre as tarifas de luto da companhia aérea – tarifas reduzidas fornecidas no caso de alguém precisar viajar devido à morte de um membro imediato da família.

Moffatt disse que foi informado de que essas tarifas poderiam ser reclamadas retroativamente, completando um pedido de reembolso dentro de 90 dias da data em que o bilhete foi emitido, e enviou uma captura de tela de sua conversa com o bot como evidência para apoiar essa alegação.

Ele enviou seu pedido, acompanhado da certidão de óbito de sua avó, em novembro de 2022 – menos de uma semana depois de comprar seu bilhete. Mas seu pedido foi negado e a decisão do tribunal disse que e-mails apresentados como prova mostraram que as tentativas de Moffatt de receber um reembolso parcial continuaram por mais dois meses e meio.

A companhia aérea recusou o reembolso porque disse que sua política era de que a tarifa de luto não poderia, de fato, ser reclamada retroativamente.

A Air Canada, por sua vez, argumentou que não poderia ser responsabilizada pelas informações fornecidas pelo bot.

“Na verdade, a Air Canada sugere que o chatbot é uma entidade legal separada responsável por suas próprias ações. Esta é uma submissão notável. Embora um chatbot tenha um componente interativo, ainda é apenas uma parte do site da Air Canada”, escreveu Rivers.

“Deveria ser óbvio para a Air Canada que é responsável por todas as informações em seu site. Não faz diferença se a informação vem de uma página estática ou de um chatbot.”

A companhia aérea também argumentou que a resposta do chatbot à consulta de Moffatt incluía um link para uma seção de seu site que descrevia a política da empresa e dizia que pedidos por uma tarifa com desconto não são permitidos após alguém ter viajado.

Rivers também rejeitou este argumento.

“Enquanto a Air Canada argumenta que o Sr. Moffatt poderia encontrar as informações corretas em outra parte de seu site, não explica por que a página intitulada ‘Viagem de luto’ era mais confiável do que seu chatbot.”, escreveu ele.

“O Sr. Moffatt diz, e eu aceito, que eles confiaram no chatbot para fornecer informações precisas. Acho que foi razoável nas circunstâncias. Não há motivo para o Sr. Moffatt saber que uma seção da página da Air Canada é precisa, e outra não é.”

A compensação concedida pelo tribunal foi equivalente à diferença entre o que Moffatt pagou pelo seu voo e uma tarifa de luto com desconto.

Além disso, a companhia aérea foi ordenada a pagar $36,14 em juros pré-julgamento e $125 em taxas.

Compartilhe sua opinião sobre este caso nos comentários e junte-se à conversa sobre responsabilidade das empresas em fornecer informações precisas e confiáveis aos clientes.

Com informações da CTV News.

Compartilhe:

Não perca nenhum conteúdo!

Inscreva-se na newsletter do Innovation Hub Show

Não perca nenhum conteúdo!

Inscreva-se na newsletter do Innovation Hub Show

Faça parte da maior comunidade de tecnologia e inovação do país!

Siga o Innovation Hub Show nas redes sociais e onde você escuta seus podcasts.