Um chatbot da DPD escreveu um poema dizendo que era inútil. Depois xingou um cliente. Depois chamou a DPD de “the worst delivery firm in the world.” A empresa tirou do ar em poucas horas.
Enquanto isso, a Erica do Bank of America já lidou com 3 bilhões de interações com clientes desde 2018. Segundo avaliações da J.D. Power, os clientes dão ao app uma nota mais alta do que a de qualquer outro banco nacional. A Erica resolve 98% das solicitações sem ajuda humana.
Mesma categoria de tecnologia. Um vira um vexame viral. O outro vira uma vantagem competitiva que vale bilhões. A distância entre esses resultados não é sorte. Não é orçamento. É como as empresas pensam sobre o que a IA deveria, de fato, fazer.
Os números contam duas histórias
A Qualtrics entrevistou mais de 20.000 consumidores em 14 países no fim de 2025. A conclusão me deu um choque: quase um em cada cinco consumidores que usou IA no atendimento ao cliente não viu nenhum benefício na experiência. Essa taxa de falha é quase quatro vezes maior do que a da IA em geral.
Isabelle Zdatny, que lidera a pesquisa no Qualtrics XM Institute, foi direta: “Too many companies are deploying AI to cut costs, not solve problems, and customers can tell the difference.”
Mas é aqui que complica. A matemática financeira ainda fecha para as empresas que fazem isso direito. Interações com chatbots de IA custam cerca de $0,50, contra $6,00 quando o suporte é atendido por humanos. É uma diferença de 12x. Organizações usando IA generativa em seus contact centers viram um aumento de 14% na resolução de problemas por hora, segundo a McKinsey. E a Gartner prevê que, até 2029, a IA agentiva vai resolver de forma autônoma 80% dos problemas comuns de atendimento ao cliente.
Então por que os dados de experiência do cliente parecem tão ruins enquanto os dados de eficiência parecem tão promissores?
Quando a IA virou uma arma
A resposta honesta é desconfortável. Muitas empresas não estão colocando IA para ajudar clientes. Estão colocando para fazer o cliente ir embora.
Um comentário no Hacker News descreveu o estado atual do atendimento com chatbot como “anti-customer service.” Outro chamou de “a cruel joke on customers.” E um terceiro observou que “the cognitive load these days is pushed onto helpless consumers to the point where it is not only unethical but evil.”
Palavras fortes. Mas os dados sustentam isso. Uma pesquisa de 2026 da Glance descobriu que 75% dos consumidores já tiveram uma resposta rápida, movida por IA, que mesmo assim os deixou frustrados. Velocidade sem resolução não vale nada. E 34% dos entrevistados disseram que o suporte com IA, ativamente, “made things harder.”
A mesma pesquisa revelou o que as pessoas realmente querem: 68% disseram que o mais importante em interações de suporte é chegar a uma resolução completa. Não velocidade. Não conveniência. Resolução.
Tom Martin, CEO da Glance, resumiu o descompasso: “The industry spent much of 2025 chasing speed and automation. But our customers felt increasingly disappointed by digital systems that were supposed to help them.”
O alerta da Air Canada
A avó de Jake Moffatt morreu no Remembrance Day de 2022. Ele entrou no site da Air Canada no mesmo dia para reservar um voo de volta para casa, e o chatbot da companhia informou com confiança que ele poderia comprar pelo preço cheio e pedir o desconto de luto retroativamente dentro de 90 dias.
Essa política não existia.
Quando Moffatt enviou o pedido de reembolso parcial, a Air Canada se recusou. O chatbot tinha inventado. A defesa da Air Canada no caso que foi parar em um tribunal foi notável: eles argumentaram que o chatbot era, essencialmente, uma entidade legal separada, responsável por seus próprios atos.
O tribunal não engoliu. Christopher Rivers, o membro do tribunal, chamou isso de “a remarkable submission” e decidiu que a Air Canada continuava responsável por todas as informações em seu site, “whether it came from a static page or a chatbot.” Rivers concluiu que Air Canada “did not take reasonable care to ensure its chatbot was accurate” e ordenou que a companhia pagasse a diferença entre as tarifas de luto e as passagens pelo preço cheio.
A decisão estabeleceu algo importante: empresas não podem criar a impressão de um assistente prestativo e, depois, se eximir de responsabilidade quando ele fornece informação errada. Se seu chatbot dá um conselho que custa dinheiro ao cliente, esse conselho é seu.
O que as empresas bem-sucedidas fizeram de diferente
O Bank of America não só lançou um chatbot. Eles construíram a Erica ao longo de sete anos. Os 98% de resolução vieram de refinamento contínuo, não de um lançamento chamativo.
Aqui está o que torna a Erica diferente da maioria dos chatbots. Ela não tenta cobrir tudo. Segundo a análise da CX Dive, em vez de agir como um gargalo (como tantos chatbots fazem), o cliente pode concluir a tarefa dentro da Erica ou ela o coloca no melhor caminho para chegar ao objetivo — inclusive passando a bola para representantes humanos.
Essa última parte importa demais. A Erica não prende as pessoas. Ela encaminha.
Cerca de 50% a 60% das interações com a Erica são, na verdade, proativas. O chatbot identifica possíveis problemas e sugere ajuda antes mesmo de o cliente pedir. É o oposto de uma IA defensiva, que existe para desviar solicitações.
Vale notar: a Erica não usa IA generativa nem modelos de linguagem grandes. As respostas dela não se baseiam em vastos conjuntos de dados com informação externa. Isso significa que ela não consegue alucinar políticas que não existem. Ela só consegue referenciar o que o Bank of America programou explicitamente para ela saber. Parece menos impressionante do que IA generativa. É muito mais confiável para realmente ajudar clientes.
O problema dos 83%
A OPPO, empresa de eletrônicos de consumo, alcançou uma taxa de resolução de 83% com chatbot. Parece ótimo. Mas pense no que isso significa: 17% dos clientes ainda precisaram de humanos.
Se você lida com milhões de contatos, 17% é muita gente. Construir para os 83% e ignorar os 17% cria desastre.
O padrão em implementações que falham é consistente: empresas otimizam métricas de desvio (quantas pessoas impedimos de chegar a um humano?) em vez de métricas de resolução (quantas pessoas realmente tiveram o problema resolvido?).
Pesquisas sobre implementações em contact centers enfatizam que automação precisa ser complementada por supervisão humana. O modelo híbrido não é um plano B. É o único plano que funciona.
Por que a IA generativa piorou as coisas antes de melhorar
O incidente do chatbot da DPD aconteceu em janeiro de 2024. Ashley Beauchamp, um pianista de Londres, pediu ao bot ajuda com um pacote perdido. Frustrado, pediu que ele escrevesse um poema criticando a empresa. Ele obedeceu. Pediu que ele xingasse. Ele obedeceu de novo, respondendo: “F*ck yeah! I’ll do my best to be as helpful as possible, even if it means swearing.”
A DPD culpou um “erro” após uma atualização e tirou o bot do ar.
O erro não foi um bug. Foi uma consequência previsível de colocar IA generativa sem proteções. Modelos de IA generativa são treinados para ser prestativos e envolventes. Esses objetivos de treinamento podem ser explorados. Sem limites adequados, eles vão escrever poemas criticando sua empresa, inventar políticas que não existem, ou explicar com confiança procedimentos de reembolso que você não oferece.
Greg, do Hacker News, testou o bot de IA da Klarna — muito divulgado — e disse que estava “not impressed.” Ele observou que parecia “the L1 support flow that every other company already has in-place.” Outro comentarista notou que, quando chatbots são colocados, “they don’t understand the problem, and when I point that out by explaining my issue another way they just answer ‘Have I solved your issue?’”
A frustração é real. E não é sobre a tecnologia ser incapaz. É sobre decisões de implementação que priorizam redução de custo em vez de resultado para o cliente.
O custo real de errar
Reclamações de consumidores relacionadas a atendimento ao cliente com IA aumentaram 56,3% ano a ano no setor de e-commerce da China durante 2024. Clientes relataram que chatbots frequentemente davam respostas irrelevantes e que era difícil chegar a agentes humanos.
Essa dificuldade muitas vezes é intencional. Muitas implementações escondem a opção de “falar com um atendente”, prendem o usuário em loops intermináveis de perguntas irrelevantes, ou simplesmente não oferecem escalonamento para humanos.
O impacto na lealdade é pesado. A pesquisa da Glance descobriu que quase 90% dos consumidores relatam menor lealdade quando o suporte humano é removido por completo.
Empresas que apostam em automação agressiva às vezes citam estatísticas sobre a preferência do cliente por autoatendimento. E é verdade: 44% dos consumidores sempre tentam autoatendimento primeiro. Mas existe uma diferença entre escolher autoatendimento e ser empurrado para ele. O primeiro constrói lealdade. O segundo destrói.
O que realmente funciona
As implementações bem-sucedidas compartilham padrões comuns. São entediantes perto do ciclo de hype da IA, mas funcionam.
Escopo estreito, bem executado. A Erica do Bank of America lida com tarefas bancárias específicas em que a IA é confiável. Ela consulta saldos, envia pagamentos, encontra transações passadas e traz percepções sobre gastos. Ela não tenta lidar com reclamações, contestações, ou qualquer coisa que exija julgamento.
Escalonamento claro. A taxa de resolução de 83% da OPPO importa porque os outros 17% são transferidos de forma fluida para humanos. Sem becos sem saída. Sem loops.
Anos de refinamento. A Erica foi lançada em 2018. O desempenho atual veio de sete anos aprendendo o que funciona e o que não funciona. Empresas esperando resultados excelentes de chatbots colocados no último trimestre estão se enganando.
Supervisão humana. A Qualtrics recomenda que “AI should be used to build connections and enhance the human experience, with capable AI agents managing simple, transactional requests.” Não para substituir humanos. Para ampliá-los.
As perguntas que importam
A tecnologia claramente consegue ajudar clientes. Ela também consegue frustrá-los, mentir para eles e afastá-los. A diferença se resume a escolhas de implementação.
Antes de implantar IA no atendimento ao cliente, empresas deveriam responder honestamente a estas perguntas:
Estamos tentando ajudar clientes ou reduzir volume de contato? Soa parecido, mas leva a implementações radicalmente diferentes.
O que acontece quando a IA falha? Se a resposta for “o cliente desiste”, essa implementação vai prejudicar sua marca.
Estamos medindo resolução ou desvio? Muitas empresas medem quantos clientes o chatbot atendeu sem intervenção humana e tratam isso como sucesso. Mas se esses clientes não tiveram seus problemas resolvidos, isso é fracasso vestido de eficiência.
Como vamos saber se isso está funcionando? Satisfação do cliente, taxa de contato repetido e métricas de lealdade importam mais do que custo por contato.
As projeções de mercado dizem que o atendimento ao cliente com IA vai crescer de $12 bilhões em 2024 para quase $48 bilhões em 2030. Esse crescimento vai acontecer. A pergunta é se as implementações vão justificar o investimento — ou se vamos ver mais poemas da DPD e mais processos como o da Air Canada pelo caminho.
A tecnologia funciona. A pergunta é se as pessoas que a implementam entendem o que “funciona” realmente significa.