Un chatbot de DPD a écrit un poème en se traitant d’inutile. Puis il a juré à un client. Puis il a qualifié DPD de “the worst delivery firm in the world.” L’entreprise l’a mis hors ligne en quelques heures.
Pendant ce temps, Erica, l’assistante virtuelle de Bank of America, a géré 3 billion customer interactions depuis 2018. Les clients notent l’application mieux que celle de n’importe quelle autre banque nationale, selon les évaluations de J.D. Power. Erica résout 98 % des demandes sans aide humaine.
Même catégorie de technologie. L’un devient un embarras viral. L’autre devient un avantage concurrentiel qui vaut des milliards. L’écart entre ces deux résultats n’a rien à voir avec la chance. Ni avec le budget. C’est la façon dont les entreprises pensent à ce que l’IA doit réellement faire.
Les chiffres racontent deux histoires
Qualtrics a interrogé plus de 20 000 consommateurs dans 14 pays fin 2025. Leur constat m’a glacé : près d’un consommateur sur cinq qui a utilisé l’IA pour le service client n’a vu aucun bénéfice. Ce taux d’échec est presque quatre fois plus élevé que pour l’usage de l’IA en général.
Isabelle Zdatny, qui dirige la recherche chez Qualtrics XM Institute, l’a dit sans détour : “Too many companies are deploying AI to cut costs, not solve problems, and customers can tell the difference.”
Mais c’est là que ça se complique. Les calculs financiers tiennent toujours pour les entreprises qui s’y prennent bien. Les interactions de chatbots IA coûtent environ 0,50 $ contre 6,00 $ pour un support géré par un humain. C’est un facteur 12. Les organisations qui utilisent l’IA générative dans leurs centres de contact ont vu une hausse de 14 % des problèmes résolus par heure, selon McKinsey. Et Gartner prévoit que d’ici 2029, l’IA agentique résoudra de manière autonome 80 % des problèmes courants de service client.
Alors pourquoi les données d’expérience client ont l’air si sombres, tandis que les données d’efficacité semblent si prometteuses ?
Quand l’IA est devenue une arme
La réponse honnête est inconfortable. Beaucoup d’entreprises ne déploient pas l’IA pour aider les clients. Elles la déploient pour faire partir les clients.
Un commentateur sur Hacker News a décrit l’état actuel du service client par chatbot comme “anti-customer service.” Un autre l’a appelé “a cruel joke on customers.” Et un troisième a observé que “the cognitive load these days is pushed onto helpless consumers to the point where it is not only unethical but evil.”
Des mots forts. Mais les données les confirment. Une enquête 2026 de Glance a montré que 75 % des consommateurs ont reçu une réponse rapide pilotée par l’IA qui les a quand même laissés frustrés. La vitesse sans résolution ne vaut rien. Et 34 % des répondants ont déclaré que l’assistance IA “made things harder.”
La même enquête a révélé ce que les clients veulent vraiment : 68 % ont dit qu’obtenir une résolution complète compte le plus dans les interactions de support. Pas la vitesse. Pas la commodité. La résolution.
Tom Martin, PDG de Glance, a résumé le décalage : “The industry spent much of 2025 chasing speed and automation. But our customers felt increasingly disappointed by digital systems that were supposed to help them.”
L’avertissement Air Canada
La grand-mère de Jake Moffatt est morte le jour du Souvenir 2022. Il a consulté le site d’Air Canada le même jour pour réserver un vol de retour, et le chatbot de la compagnie lui a assuré qu’il pouvait réserver au plein tarif et demander ensuite une réduction pour deuil, rétroactivement, dans les 90 jours.
Cette politique n’existait pas.
Quand Moffatt a soumis sa demande de remboursement partiel, Air Canada a refusé. Le chatbot l’avait inventée. La défense d’Air Canada dans l’affaire devant le tribunal a été remarquable : ils ont soutenu que le chatbot était, en gros, une entité juridique distincte responsable de ses propres actes.
Le tribunal n’a pas suivi. Christopher Rivers, membre du tribunal, a qualifié cela de “a remarkable submission” et a jugé qu’Air Canada restait responsable de toutes les informations sur son site, “whether it came from a static page or a chatbot.” Rivers a conclu que Air Canada “did not take reasonable care to ensure its chatbot was accurate” et a ordonné à la compagnie de payer la différence entre les tarifs de deuil et les billets plein tarif.
Cette décision a établi un point important : les entreprises ne peuvent pas donner l’impression d’un assistant utile, puis se défausser quand il fournit de mauvaises informations. Si votre chatbot donne un conseil qui coûte de l’argent aux clients, ce conseil vous appartient.
Ce que les entreprises qui réussissent ont fait autrement
Bank of America n’a pas juste lancé un chatbot. Ils ont construit Erica sur sept ans. Le taux de résolution de 98 % vient d’un raffinement continu, pas d’un lancement tape-à-l’œil.
Voilà ce qui rend Erica différente de la plupart des chatbots. Elle n’essaie pas de tout gérer. Selon l’analyse de CX Dive, plutôt que d’agir comme un goulot d’étranglement comme tant de chatbots, les clients peuvent soit terminer la tâche avec Erica, soit elle les met sur le meilleur chemin pour atteindre leur objectif, y compris en passant le relais à des conseillers humains.
Ce dernier point compte énormément. Erica ne piège pas les gens. Elle les oriente.
Environ 50 % à 60 % des interactions clients avec Erica sont en réalité proactives. Le chatbot détecte des problèmes potentiels et propose de l’aide avant même que les clients ne demandent. C’est l’inverse d’une IA défensive qui existe pour détourner les demandes.
Surtout, Erica n’utilise ni IA générative ni grands modèles de langage. Ses réponses ne s’appuient pas sur d’immenses ensembles de données d’informations externes. Résultat : elle ne peut pas halluciner des politiques qui n’existent pas. Elle ne peut référencer que les informations que Bank of America a explicitement programmées. Moins impressionnant que l’IA générative, sur le papier. Beaucoup plus fiable pour aider les clients, dans la vraie vie.
Le problème des 83 %
OPPO, le fabricant d’électronique grand public, a atteint un taux de résolution par chatbot de 83 %. Ça sonne très bien. Mais réfléchissez à ce que ça veut dire : 17 % des clients avaient quand même besoin d’humains.
Si vous gérez des millions de contacts, ces 17 % représentent beaucoup de monde. Construire pour les 83 % en ignorant les 17 %, c’est fabriquer un désastre.
Le schéma des implémentations ratées est constant : les entreprises optimisent des indicateurs de déflexion (combien de personnes avons-nous empêchées d’atteindre un humain ?) plutôt que des indicateurs de résolution (combien de personnes ont réellement résolu leur problème ?).
Des recherches sur les déploiements en centres de contact soulignent que l’automatisation doit être complétée par une supervision humaine. Le modèle hybride n’est pas une position de repli. C’est la seule position qui marche.
Pourquoi l’IA générative a d’abord empiré les choses avant de les améliorer
L’incident du chatbot DPD s’est produit en janvier 2024. Ashley Beauchamp, pianiste basé à Londres, a demandé au bot de l’aider à retrouver un colis manquant. Frustré, il lui a demandé d’écrire un poème critiquant l’entreprise. Il a obéi. Il lui a demandé de jurer. Il a obéi encore, en répondant : “F*ck yeah! I’ll do my best to be as helpful as possible, even if it means swearing.”
DPD a imputé ça à une “error” après une mise à jour et a mis le bot hors ligne.
L’« erreur » n’était pas un bug. C’était la conséquence prévisible d’un déploiement d’IA générative sans garde-fous. Les modèles d’IA générative sont entraînés à être utiles et engageants. Ces objectifs d’entraînement peuvent être exploités. Sans contraintes solides, ils écriront des poèmes qui critiquent votre entreprise, inventeront des politiques qui n’existent pas, ou expliqueront avec assurance des procédures de remboursement que vous ne proposez pas.
Greg de Hacker News a testé le bot IA de Klarna, très médiatisé, et n’était “not impressed.” Il a observé que ça ressemblait à “the L1 support flow that every other company already has in-place.” Un autre commentateur a noté que, quand les chatbots sont déployés, “they don’t understand the problem, and when I point that out by explaining my issue another way they just answer ‘Have I solved your issue?’”
La frustration est réelle. Et ce n’est pas que la technologie est incapable. C’est que des décisions de déploiement privilégient la réduction des coûts plutôt que les résultats côté client.
Le coût réel quand on se trompe
Les plaintes liées au service client par IA ont augmenté de 56,3 % sur un an dans le secteur e-commerce chinois pendant 2024. Les clients ont rapporté que les chatbots donnaient souvent des réponses hors sujet et qu’il était difficile de joindre des agents humains.
Cette difficulté est souvent intentionnelle. Beaucoup d’implémentations enterrent l’option “contacter un humain”, font tourner les utilisateurs dans des boucles sans fin de questions hors sujet, ou n’offrent tout simplement aucune escalade vers un humain.
L’impact sur la fidélité est sévère. La recherche de Glance a constaté que près de 90 % des consommateurs déclarent une baisse de fidélité quand le support humain est entièrement supprimé.
Les entreprises qui poursuivent une automatisation agressive citent parfois des statistiques sur la préférence des clients pour le libre-service. Et c’est vrai : 44 % des consommateurs essaient toujours le libre-service en premier. Mais il y a une différence entre des clients qui choisissent le libre-service et des clients qui y sont forcés. Le premier cas construit la fidélité. Le second la détruit.
Ce qui marche vraiment
Les déploiements qui réussissent partagent des schémas communs. Ils sont ennuyeux comparés au cycle de battage autour de l’IA, mais ils fonctionnent.
Périmètre étroit, exécution solide. Erica de Bank of America gère des tâches bancaires précises où l’IA est fiable. Elle vérifie des soldes, envoie des paiements, retrouve des transactions passées et donne des analyses de dépenses. Elle n’essaie pas de gérer des plaintes, des litiges ou tout ce qui exige du jugement.
Des voies d’escalade claires. Le taux de résolution de 83 % d’OPPO compte parce que les 17 % restants sont transférés sans accroc à des humains. Pas d’impasses. Pas de boucles.
Des années de raffinement. Erica a été lancée en 2018. Les performances actuelles viennent de sept années à apprendre ce qui marche et ce qui ne marche pas. Les entreprises qui s’attendent à d’excellents résultats avec des chatbots déployés le trimestre dernier se racontent des histoires.
Supervision humaine. Qualtrics recommande que “AI should be used to build connections and enhance the human experience, with capable AI agents managing simple, transactional requests.” Pas de remplacer les humains. De les augmenter.
Les questions qui comptent
La technologie est clairement capable d’aider les clients. Elle est aussi capable de les frustrer, de leur mentir et de les faire fuir. La différence tient aux choix de mise en œuvre.
Avant de déployer l’IA en service client, les entreprises devraient répondre honnêtement à ces questions :
Est-ce qu’on essaie d’aider les clients ou de réduire le volume de contacts ? Ça sonne similaire, mais ça mène à des implémentations radicalement différentes.
Que se passe-t-il quand l’IA échoue ? Si la réponse est “le client abandonne”, le déploiement abîmera votre marque.
Mesure-t-on la résolution ou la déflexion ? Beaucoup d’entreprises suivent le nombre de clients traités par le chatbot sans intervention humaine, et appellent ça un succès. Mais si ces clients n’ont pas résolu leur problème, c’est un échec déguisé en efficacité.
Comment saura-t-on si ça fonctionne ? Les scores de satisfaction, les taux de recontact et les indicateurs de fidélité comptent plus que le coût par contact.
Les projections de marché disent que le service client par IA passera de 12 milliards de dollars en 2024 à près de 48 milliards d’ici 2030. Cette croissance aura lieu. La question est de savoir si les déploiements justifient l’investissement, ou si on verra davantage de poèmes DPD et de procès Air Canada en chemin.
La technologie fonctionne. La question est de savoir si ceux qui la déploient comprennent ce que « fonctionner » veut réellement dire.