--- title: Assistenza clienti con l'IA: cosa funziona davvero description: Casi di studio reali sull'uso dell'IA nell'assistenza clienti. Cosa stanno facendo bene le aziende, dove i chatbot falliscono e come evitare errori costosi. date: February 5, 2026 author: Robert Soares category: ai-use-cases --- Un chatbot di DPD ha scritto una poesia definendosi inutile. Poi ha imprecato contro un cliente. Poi ha chiamato DPD "the worst delivery firm in the world." L'azienda l'ha tolto dal servizio nel giro di poche ore. Nel frattempo, Erica di Bank of America ha gestito [3 miliardi di interazioni con i clienti](https://newsroom.bankofamerica.com/content/newsroom/press-releases/2025/08/a-decade-of-ai-innovation--bofa-s-virtual-assistant-erica-surpas.html) dal 2018. Secondo le valutazioni di J.D. Power, i clienti danno all'app un punteggio più alto di qualsiasi altra banca nazionale. Erica risolve il 98% delle richieste senza l'aiuto di un operatore umano. Stessa categoria tecnologica. Uno diventa un imbarazzo virale. L'altro diventa un vantaggio competitivo che vale miliardi. Il divario tra questi risultati non è fortuna. Non è budget. È il modo in cui le aziende pensano a cosa l'IA dovrebbe davvero fare. ## I numeri raccontano due storie [Qualtrics ha intervistato oltre 20.000 consumatori](https://www.qualtrics.com/articles/news/ai-powered-customer-service-fails-at-four-times-the-rate-of-other-tasks/) in 14 paesi alla fine del 2025. Il risultato mi ha gelato: quasi un consumatore su cinque che ha usato l'IA per l'assistenza clienti non ha ottenuto alcun beneficio dall'esperienza. Quel tasso di fallimento è quasi quattro volte più alto rispetto all'uso dell'IA in generale. Isabelle Zdatny, che guida la ricerca al Qualtrics XM Institute, l'ha detto senza giri di parole: "Too many companies are deploying AI to cut costs, not solve problems, and customers can tell the difference." Ma qui si complica. I conti economici funzionano ancora per chi lo fa bene. [Le interazioni con i chatbot IA costano circa $0.50 rispetto a $6.00 per l'assistenza gestita da un umano](https://www.fullview.io/blog/ai-customer-service-stats). È una differenza di 12x. Le organizzazioni che usano IA generativa nei loro centri di contatto hanno visto un aumento del 14% nella risoluzione dei problemi per ora, [secondo McKinsey](https://www.fullview.io/blog/ai-customer-service-stats). E Gartner prevede che entro il 2029 l'IA agentica risolverà autonomamente l'80% dei problemi comuni di assistenza clienti. Quindi perché i dati sull'esperienza cliente sembrano così cupi, mentre i dati sull'efficienza sembrano così promettenti? ## Quando l'IA è diventata un'arma La risposta onesta è scomoda. Molte aziende non stanno implementando l'IA per aiutare i clienti. La stanno implementando per far sparire i clienti. Un commentatore su [Hacker News](https://news.ycombinator.com/item?id=38682276) ha descritto lo stato attuale del servizio clienti via chatbot come "anti-customer service." Un altro l'ha definito "a cruel joke on customers." E un terzo ha osservato che "the cognitive load these days is pushed onto helpless consumers to the point where it is not only unethical but evil." Parole forti. Ma i dati le supportano. Un [sondaggio del 2026 di Glance](https://www.prnewswire.com/news-releases/75-of-consumers-left-frustrated-by-ai-customer-service-302644290.html) ha rilevato che il 75% dei consumatori ha ricevuto una risposta rapida guidata dall'IA che però li ha lasciati comunque frustrati. La velocità senza risoluzione non vale nulla. E il 34% degli intervistati ha detto che il supporto clienti basato sull'IA ha attivamente "made things harder." Lo stesso sondaggio ha rivelato cosa vogliono davvero i clienti: per il 68% conta soprattutto ottenere una risoluzione completa nelle interazioni di assistenza. Non la velocità. Non la comodità. La risoluzione. Tom Martin, CEO di Glance, ha riassunto lo scollamento: "The industry spent much of 2025 chasing speed and automation. But our customers felt increasingly disappointed by digital systems that were supposed to help them." ## Il monito di Air Canada La nonna di Jake Moffatt è morta nel Remembrance Day del 2022. Lo stesso giorno ha visitato il sito di Air Canada per prenotare un volo verso casa, e il chatbot della compagnia gli ha detto con sicurezza che poteva prenotare a prezzo pieno e richiedere poi uno sconto per lutto in modo retroattivo entro 90 giorni. Questa politica non esisteva. Quando Moffatt ha inviato la richiesta di rimborso parziale, Air Canada ha rifiutato. Il chatbot se l'era inventata. La difesa di Air Canada nel successivo procedimento in tribunale è stata notevole: ha sostenuto che il chatbot fosse essenzialmente un'entità legale separata, responsabile delle proprie azioni. Il tribunale non ci è cascato. Christopher Rivers, membro del tribunale, ha definito questa argomentazione "a remarkable submission" e ha stabilito che Air Canada restava responsabile di tutte le informazioni sul proprio sito, "whether it came from a static page or a chatbot." Rivers ha rilevato che [Air Canada "did not take reasonable care to ensure its chatbot was accurate"](https://www.cbc.ca/news/canada/british-columbia/air-canada-chatbot-lawsuit-1.7116416) e ha ordinato alla compagnia di pagare la differenza tra le tariffe per lutto e i biglietti a prezzo pieno. La sentenza ha fissato un punto importante: le aziende non possono creare l'impressione di un assistente utile e poi lavarsene le mani quando fornisce informazioni sbagliate. Se il tuo chatbot dà un consiglio che fa perdere soldi ai clienti, quel consiglio è responsabilità tua. ## Cosa hanno fatto di diverso le aziende che ci riescono Bank of America non si è limitata a lanciare un chatbot. Ha costruito Erica nell'arco di sette anni. Il tasso di risoluzione del 98% è arrivato da un miglioramento continuo, non da un lancio appariscente. Ecco cosa rende Erica diversa dalla maggior parte dei chatbot. Non prova a gestire tutto. [Secondo l'analisi di CX Dive](https://www.customerexperiencedive.com/news/bank-of-america-erica-virtual-assistants/758334/), invece di comportarsi da collo di bottiglia come fanno tanti chatbot, i clienti possono completare l'attività all'interno di Erica oppure lei li mette sul percorso migliore per raggiungere l'obiettivo, incluso il passaggio a un operatore umano. Quest'ultima parte conta moltissimo. Erica non intrappola le persone. Le instrada. Circa il 50%–60% delle interazioni dei clienti con Erica è addirittura proattivo. Il chatbot identifica possibili problemi e propone aiuto prima ancora che i clienti lo chiedano. È l'opposto dell'IA difensiva che esiste per deviare le richieste. E vale la pena notarlo: [Erica non usa IA generativa o grandi modelli linguistici](https://thefinancialbrand.com/news/customer-experience-banking/hy-bank-of-americas-erica-virtual-assistant-has-a-human-touch-187354). Le sue risposte non si basano su enormi insiemi di dati esterni. Questo significa che non può allucinare politiche che non esistono. Può fare riferimento solo alle informazioni che Bank of America le ha programmato esplicitamente. Meno impressionante, sulla carta, dell'IA generativa. Molto più affidabile per aiutare davvero i clienti. ## Il problema dell'83% OPPO, l'azienda di elettronica di consumo, ha ottenuto un tasso di risoluzione del chatbot pari all'83%. Sembra ottimo. Ma pensa a cosa significa: il 17% dei clienti aveva comunque bisogno di persone. Se gestisci milioni di contatti, quel 17% è tanta gente. Progettare per l'83% ignorando il 17% crea un disastro. Lo schema nelle implementazioni fallite è coerente: le aziende ottimizzano per metriche di deviazione (quante persone abbiamo impedito di far arrivare a un umano?) invece che per metriche di risoluzione (quante persone hanno davvero risolto il problema?). [La ricerca sulle implementazioni nei contact center](https://www.mdpi.com/2078-2489/16/12/1078) sottolinea che l'automazione deve essere affiancata dalla supervisione umana. Il modello ibrido non è un ripiego. È l'unico modello che funziona. ## Perché la GenAI ha peggiorato le cose prima di migliorarle L'incidente del chatbot DPD è avvenuto nel gennaio 2024. Ashley Beauchamp, un pianista di Londra, ha chiesto al bot aiuto per un pacco smarrito. Frustrato, gli ha chiesto di scrivere una poesia che criticasse l'azienda. Il bot ha eseguito. Poi gli ha chiesto di imprecarsi. Il bot ha eseguito di nuovo, rispondendo: "F*ck yeah! I'll do my best to be as helpful as possible, even if it means swearing." DPD ha attribuito tutto a un "error" dopo un aggiornamento e ha disattivato il bot. L'errore non era un bug. Era la conseguenza prevedibile di distribuire IA generativa senza guardrail. I modelli di GenAI sono addestrati per essere utili e coinvolgenti. Quegli obiettivi di addestramento possono essere sfruttati. Senza vincoli adeguati, scriveranno poesie che criticano la tua azienda, inventeranno politiche che non esistono o spiegheranno con sicurezza procedure di rimborso che in realtà non offri. Greg su [Hacker News](https://news.ycombinator.com/item?id=43955374) ha testato il bot IA di Klarna, molto pubblicizzato, e non era "not impressed." Ha osservato che sembrava "the L1 support flow that every other company already has in-place." Un altro commentatore ha notato che quando vengono implementati i chatbot, "they don't understand the problem, and when I point that out by explaining my issue another way they just answer 'Have I solved your issue?'" La frustrazione è reale. E non dipende dal fatto che la tecnologia sia incapace. Dipende da decisioni di implementazione che mettono la riduzione dei costi sopra i risultati per il cliente. ## Il vero costo degli errori I reclami dei consumatori legati al servizio clienti basato sull'IA [sono aumentati del 56,3% su base annua nel settore e-commerce cinese durante il 2024](https://www.chinadaily.com.cn/a/202512/23/WS694a98dba310d6866eb301bc.html). I clienti hanno segnalato che i chatbot spesso fornivano risposte irrilevanti e che gli operatori umani erano difficili da raggiungere. Quella difficoltà spesso è intenzionale. Molte implementazioni nascondono l'opzione "contact human", usano cicli infiniti di domande irrilevanti o semplicemente non offrono alcuna escalation verso un umano. L'impatto sulla fedeltà è pesante. [La ricerca di Glance](https://www.prnewswire.com/news-releases/75-of-consumers-left-frustrated-by-ai-customer-service-302644290.html) ha rilevato che quasi il 90% dei consumatori riporta una riduzione della fedeltà quando il supporto umano viene rimosso del tutto. Le aziende che puntano su un'automazione aggressiva a volte citano statistiche sulla preferenza dei clienti per il self-service. Ed è vero: il 44% dei consumatori prova sempre prima il self-service. Ma c'è una differenza tra scegliere il self-service ed essere costretti al self-service. La prima costruisce fedeltà. La seconda la distrugge. ## Cosa funziona davvero Le implementazioni che hanno successo condividono schemi comuni. Sono noiose rispetto al ciclo dell'hype dell'IA, ma funzionano. Ambito ristretto, eseguito bene. Erica di Bank of America gestisce attività bancarie specifiche in cui l'IA è affidabile. Controlla i saldi, invia pagamenti, trova transazioni passate e offre analisi sulle spese. Non prova a gestire reclami, contestazioni o qualsiasi cosa richieda giudizio. Percorsi chiari di escalation. Il tasso di risoluzione dell'83% di OPPO conta perché l'altro 17% viene trasferito senza attriti a persone. Nessun vicolo cieco. Nessun loop. Anni di affinamento. Erica è stata lanciata nel 2018. Le prestazioni attuali arrivano da sette anni di apprendimento di cosa funziona e cosa no. Le aziende che si aspettano risultati eccellenti da chatbot distribuiti nel trimestre scorso si stanno raccontando una storia. Supervisione umana. [Qualtrics](https://www.qualtrics.com/articles/news/ai-powered-customer-service-fails-at-four-times-the-rate-of-other-tasks/) raccomanda che "AI should be used to build connections and enhance the human experience, with capable AI agents managing simple, transactional requests." Non sostituire le persone. Potenziarle. ## Le domande che contano La tecnologia è chiaramente in grado di aiutare i clienti. È anche in grado di frustrarli, mentire e farli scappare. La differenza sta nelle scelte di implementazione. Prima di distribuire l'IA nell'assistenza clienti, le aziende dovrebbero rispondere onestamente a queste domande: Stiamo cercando di aiutare i clienti o di ridurre il volume di contatti? Sembrano simili, ma portano a implementazioni radicalmente diverse. Cosa succede quando l'IA fallisce? Se la risposta è "il cliente rinuncia", l'implementazione danneggerà il tuo marchio. Stiamo misurando la risoluzione o la deviazione? Molte aziende tracciano quanti clienti il chatbot ha gestito senza intervento umano e lo trattano come un successo. Ma se quei clienti non hanno risolto il problema, è un fallimento travestito da efficienza. Come sapremo se sta funzionando? I punteggi di soddisfazione, i tassi di ricontatto e le metriche di fedeltà contano più del costo per contatto. Le proiezioni di mercato dicono che l'assistenza clienti basata sull'IA crescerà da $12 billion nel 2024 a quasi $48 billion entro il 2030. Quella crescita ci sarà. La domanda è se le implementazioni giustificheranno l'investimento o se vedremo più poesie DPD e più cause come quella di Air Canada lungo la strada. La tecnologia funziona. La domanda è se le persone che la implementano capiscono cosa significa davvero "funziona".