ai-use-cases
10 min read
View as Markdown

Atención al cliente con IA: lo que de verdad funciona

Casos reales de IA en atención al cliente. Lo que las empresas están haciendo bien, dónde fallan los chatbots y cómo evitar errores caros.

Robert Soares

Un chatbot de DPD escribió un poema llamándose a sí mismo inútil. Luego le soltó una palabrota a un cliente. Luego llamó a DPD “the worst delivery firm in the world.” La empresa lo desconectó en cuestión de horas.

Mientras tanto, Erica de Bank of America ha gestionado 3.000 millones de interacciones con clientes desde 2018. Según las evaluaciones de J.D. Power, los clientes puntúan la app por encima de la de cualquier otro banco nacional. Erica resuelve el 98% de las consultas sin ayuda humana.

Misma categoría tecnológica. Uno se convierte en una vergüenza viral. El otro se convierte en una ventaja competitiva que vale miles de millones. La distancia entre esos resultados no es suerte. No es presupuesto. Es cómo piensan las empresas sobre lo que la IA debería hacer de verdad.

Los números cuentan dos historias

Qualtrics encuestó a más de 20.000 consumidores en 14 países a finales de 2025. Su hallazgo me dejó helado: casi uno de cada cinco consumidores que usó IA para atención al cliente no vio ningún beneficio en la experiencia. Esa tasa de fracaso es casi cuatro veces más alta que la del uso de IA en general.

Isabelle Zdatny, que dirige la investigación en Qualtrics XM Institute, lo dijo sin rodeos: “Too many companies are deploying AI to cut costs, not solve problems, and customers can tell the difference.”

Pero aquí es donde se complica. Las cuentas siguen saliendo para las empresas que lo hacen bien. Las interacciones con chatbots de IA cuestan alrededor de $0.50 frente a $6.00 con soporte atendido por humanos. Es una diferencia de 12 veces. Las organizaciones que usan IA generativa en sus centros de contacto vieron un aumento del 14% en la resolución de incidencias por hora, según McKinsey. Y Gartner predice que para 2029, la IA agéntica resolverá de forma autónoma el 80% de los problemas comunes de atención al cliente.

Entonces, ¿por qué los datos de experiencia del cliente se ven tan sombríos mientras los de eficiencia suenan tan prometedores?

Cuando la IA se convirtió en un arma

La respuesta honesta es incómoda. Muchas empresas no están desplegando IA para ayudar a los clientes. La están desplegando para que los clientes se vayan.

Un comentarista en Hacker News describió el estado actual del servicio al cliente con chatbots como “anti-customer service.” Otro lo llamó “a cruel joke on customers.” Y un tercero observó que “the cognitive load these days is pushed onto helpless consumers to the point where it is not only unethical but evil.”

Palabras duras. Pero los datos las respaldan. Una encuesta de 2026 de Glance encontró que el 75% de los consumidores ha recibido una respuesta rápida impulsada por IA que aun así los dejó frustrados. Velocidad sin resolución no vale nada. Y el 34% de los encuestados dijo que el soporte con IA “made things harder.”

La misma encuesta reveló lo que los clientes realmente quieren: el 68% dijo que lo más importante en una interacción de soporte es obtener una resolución completa. No la velocidad. No la comodidad. La resolución.

Tom Martin, CEO de Glance, resumió la desconexión: “The industry spent much of 2025 chasing speed and automation. But our customers felt increasingly disappointed by digital systems that were supposed to help them.”

La advertencia de Air Canada

La abuela de Jake Moffatt murió el Día del Recuerdo de 2022. Ese mismo día visitó la web de Air Canada para reservar un vuelo de vuelta a casa, y el chatbot de la aerolínea le aseguró con confianza que podía comprar al precio completo y solicitar un descuento por duelo de forma retroactiva dentro de 90 días.

Esa política no existía.

Cuando Moffatt envió su solicitud de reembolso parcial, Air Canada se negó. El chatbot se lo había inventado. La defensa de Air Canada en el posterior caso ante el tribunal fue sorprendente: argumentaron que el chatbot era, en esencia, una entidad legal separada responsable de sus propios actos.

El tribunal no se lo tragó. Christopher Rivers, el miembro del tribunal, calificó esto como “a remarkable submission” y dictaminó que Air Canada seguía siendo responsable de toda la información de su web, “whether it came from a static page or a chatbot.” Rivers concluyó que Air Canada “did not take reasonable care to ensure its chatbot was accurate” y ordenó a la aerolínea pagar la diferencia entre las tarifas de duelo y los billetes a precio completo.

La resolución dejó algo claro: las empresas no pueden dar la impresión de tener un asistente útil y luego desentenderse cuando ofrece información incorrecta. Si tu chatbot da un consejo que le cuesta dinero a un cliente, ese consejo es tuyo.

Qué hicieron distinto las empresas que sí tuvieron éxito

Bank of America no se limitó a lanzar un chatbot. Construyó Erica durante siete años. El 98% de resolución salió de un refinamiento continuo, no de un lanzamiento llamativo.

Esto es lo que hace a Erica distinta de la mayoría de los chatbots. No intenta abarcarlo todo. Según el análisis de CX Dive, en lugar de actuar como un cuello de botella como hacen tantos chatbots, los clientes pueden completar la tarea dentro de Erica o ella los pondrá en el mejor camino para lograr su objetivo, incluido pasarles el relevo a representantes humanos.

Esa última parte importa muchísimo. Erica no atrapa a la gente. Los redirige.

Alrededor del 50% al 60% de las interacciones de clientes con Erica son, de hecho, proactivas. El chatbot detecta posibles problemas y sugiere ayuda antes incluso de que los clientes la pidan. Esto es lo opuesto a la IA defensiva que existe para desviar consultas.

Y un detalle clave: Erica no usa IA generativa ni modelos de lenguaje de gran tamaño. Sus respuestas no se basan en enormes conjuntos de datos de información externa. Esto significa que no puede alucinar políticas que no existen. Solo puede referirse a información que Bank of America le haya programado explícitamente. Suena menos impresionante que la IA generativa. Es mucho más fiable para ayudar de verdad a los clientes.

El problema del 83%

OPPO, la empresa de electrónica de consumo, logró una tasa de resolución del 83% con su chatbot. Suena excelente. Pero piensa en lo que significa: el 17% de los clientes siguió necesitando humanos.

Si gestionas millones de contactos, ese 17% son muchas personas. Diseñar para el 83% e ignorar el 17% es fabricar un desastre.

El patrón en las implementaciones fallidas es consistente: las empresas optimizan para métricas de desvío (¿a cuánta gente evitamos que llegue a un humano?) en lugar de métricas de resolución (¿a cuánta gente le solucionamos el problema de verdad?).

La investigación sobre implementaciones en centros de contacto subraya que la automatización debe complementarse con supervisión humana. El modelo híbrido no es un plan B. Es el único plan que funciona.

Por qué la IA generativa lo empeoró antes de mejorarlo

El incidente del chatbot de DPD ocurrió en enero de 2024. Ashley Beauchamp, un pianista afincado en Londres, le pidió ayuda al bot por un paquete perdido. Al frustrarse, le pidió que escribiera un poema criticando a la empresa. El bot lo hizo. Luego le pidió que dijera palabrotas. Y volvió a hacerlo, respondiendo: “F*ck yeah! I’ll do my best to be as helpful as possible, even if it means swearing.”

DPD culpó a un “error” tras una actualización y desconectó el bot.

El “error” no era un fallo puntual. Era una consecuencia predecible de desplegar IA generativa sin salvaguardas. Los modelos de GenAI se entrenan para ser útiles y atractivos. Esos objetivos de entrenamiento se pueden explotar. Sin límites claros, escribirán poemas criticando a tu empresa, se inventarán políticas que no existen o explicarán con seguridad procedimientos de reembolso que tú no ofreces.

Greg de Hacker News probó el bot de IA de Klarna, tan publicitado, y estaba “not impressed.” Observó que se sentía como “the L1 support flow that every other company already has in-place.” Otro comentarista señaló que cuando se despliegan chatbots, “they don’t understand the problem, and when I point that out by explaining my issue another way they just answer ‘Have I solved your issue?’”

La frustración es real. Y no se debe a que la tecnología sea incapaz. Se debe a decisiones de despliegue que priorizan la reducción de costes por encima de los resultados para el cliente.

El coste real de hacerlo mal

Las quejas de consumidores relacionadas con la atención al cliente con IA aumentaron un 56,3% interanual en el sector del comercio electrónico en China durante 2024. Los clientes informaron de que los chatbots a menudo daban respuestas irrelevantes y que era difícil llegar a agentes humanos.

Esa dificultad suele ser intencional. Muchas implementaciones esconden la opción de “contactar con una persona”, usan bucles interminables de preguntas irrelevantes o, directamente, no ofrecen ninguna escalada a un humano.

El impacto en la lealtad es grave. La investigación de Glance encontró que casi el 90% de los consumidores reporta una menor lealtad cuando se elimina por completo el soporte humano.

Las empresas que persiguen una automatización agresiva a veces citan estadísticas sobre la preferencia de los clientes por el autoservicio. Y es cierto: el 44% de los consumidores siempre intenta el autoservicio primero. Pero hay una diferencia entre que el cliente elija el autoservicio y que lo empujen a la fuerza hacia él. Lo primero construye lealtad. Lo segundo la destruye.

Lo que de verdad funciona

Las implementaciones exitosas comparten patrones comunes. Son aburridas comparadas con el ciclo de hype de la IA, pero funcionan.

Alcance estrecho, bien ejecutado. Erica de Bank of America se encarga de tareas bancarias específicas donde la IA es fiable. Consulta saldos, envía pagos, encuentra transacciones pasadas y da información sobre gastos. No intenta gestionar quejas, disputas ni nada que requiera criterio.

Vías claras de escalado. La tasa de resolución del 83% de OPPO importa porque el otro 17% se transfiere sin fricción a humanos. Sin callejones sin salida. Sin bucles.

Años de refinamiento. Erica se lanzó en 2018. El rendimiento actual salió de siete años aprendiendo qué funciona y qué no. Las empresas que esperan resultados excelentes de chatbots desplegados el trimestre pasado se están engañando.

Supervisión humana. Qualtrics recomienda que “AI should be used to build connections and enhance the human experience, with capable AI agents managing simple, transactional requests.” No reemplazar humanos. Potenciarlos.

Las preguntas que importan

Está claro que la tecnología puede ayudar a los clientes. También puede frustrarlos, mentirles y alejarlos. La diferencia se reduce a decisiones de implementación.

Antes de desplegar IA en atención al cliente, las empresas deberían responder con honestidad a estas preguntas:

¿Estamos intentando ayudar a los clientes o reducir el volumen de contactos? Suenan parecido, pero llevan a implementaciones radicalmente distintas.

¿Qué pasa cuando la IA falla? Si la respuesta es “el cliente se rinde”, la implementación dañará tu marca.

¿Estamos midiendo resolución o desvío? Muchas empresas miden cuántos clientes atendió el chatbot sin intervención humana y lo tratan como éxito. Pero si esos clientes no resolvieron su problema, eso es un fracaso disfrazado de eficiencia.

¿Cómo sabremos si esto funciona? Las puntuaciones de satisfacción, las tasas de contacto repetido y las métricas de lealtad importan más que el coste por contacto.

Las proyecciones de mercado dicen que la atención al cliente con IA crecerá de $12 mil millones en 2024 a casi $48 mil millones para 2030. Ese crecimiento ocurrirá. La pregunta es si las implementaciones justificarán la inversión o si veremos más poemas de DPD y más demandas como la de Air Canada por el camino.

La tecnología funciona. La pregunta es si quienes la despliegan entienden qué significa de verdad que “funciona”.

Ready For DatBot?

Use Gemini 2.5 Pro, Llama 4, DeepSeek R1, Claude 4, O3 and more in one place, and save time with dynamic prompts and automated workflows.

Top Articles

Come on in, the water's warm

See how much time DatBot.AI can save you