ai-strategy
12 min read
View as Markdown

El lado humano de la adopción de la IA: por qué tu problema con las personas no es lo que crees

Las iniciativas de IA fracasan por las personas, no por la tecnología. Pero la resistencia no va de miedo a los robots. Es algo más profundo.

Robert Soares

A finales de 2024 pasó algo raro cuando las empresas empezaron a imponer el uso de herramientas de IA en toda la plantilla. Los empleados no se rebelaron. No hicieron piquetes. No le escribieron memorandos furiosos a RR. HH.

Fingieron.

Según una investigación citada por BetaNews, uno de cada seis trabajadores ahora finge usar IA en el trabajo aunque en realidad no la usa, montando una especie de teatro corporativo para satisfacer a ejecutivos que revisan paneles de uso mientras no logran nada con la tecnología en sí. Este engaño silencioso revela algo importante sobre la adopción de IA en el trabajo que la mayoría de los manuales de gestión del cambio pasan por alto por completo.

El problema no es el miedo. Ni siquiera es la resistencia. Es la desconexión.

El mito del empleado asustado

Abre cualquier artículo sobre la adopción de la IA en el trabajo y encontrarás el mismo relato gastado: los empleados temen perder el empleo, así que se resisten a la IA, así que hay que tranquilizarlos. Esta historia es cómoda porque presenta a los empleados como irracionales y a la dirección como iluminada. Y también es, en gran medida, falsa.

Sí, algunos empleados se preocupan por ser reemplazados. Esa preocupación es legítima y no es irracional, viendo los titulares frenéticos sobre la automatización viniendo a por cada empleo. Pero el miedo a perder el trabajo no explica al ingeniero que ve la IA como técnicamente útil y aun así se niega a incorporarla a su manera de trabajar; ni al diseñador que probó herramientas de IA a fondo y las encontró peor que inútiles; ni al directivo que impone IA a su equipo mientras, discretamente, la evita él mismo.

Cuando Section encuestó a 5.000 trabajadores de oficina, descubrieron que el 40% de los empleados no directivos dijo que la IA les ahorra cero tiempo en toda una semana. No “algo de tiempo” o “un poco de tiempo”. Cero. Mientras tanto, sus jefes seguían convencidos de que la IA estaba transformando la productividad. Esta brecha de percepción no va de miedo. Va de realidad.

Steve McGarvey, un diseñador UX citado en el reportaje de Futurism, describió su experiencia: “I can’t count the number of times that I’ve sought a solution for a problem, asked an LLM, and it gave me a solution to an accessibility problem that was completely wrong.”

Eso no es el miedo hablando. Es la experiencia hablando.

Por qué la gente se resiste de verdad

Las razones reales de la resistencia a la IA le hacen menos favor a la tecnología, y son más interesantes que el simple miedo.

La herramienta no les sirve. Distintos trabajos se relacionan de forma distinta con lo que la IA puede hacer. A un agente de atención al cliente la IA puede ayudarle de verdad a redactar respuestas. A un arquitecto de software puede resultarle activamente perjudicial a la hora de tomar decisiones de diseño de sistemas. El coordinador de marketing que escribe tres entradas de blog al mes puede ahorrarse horas. El novelista que está con su tercer libro puede escribir peor prosa con ayuda de la IA que sin ella.

Cuando las organizaciones imponen el uso de la IA de manera uniforme, ignoran por completo esta variación, y tratan la tecnología como si fuera el correo electrónico o las hojas de cálculo, en lugar de lo que realmente es: un colaborador potente pero inconsistente que ayuda muchísimo en algunas tareas y no ayuda en absoluto en otras.

El listón de calidad importa. Los resultados de la IA a menudo requieren la misma pericia para arreglarlos que para crearlos desde cero, lo que significa que, para profesionales con experiencia, la ayuda de la IA puede en realidad ralentizar el trabajo mientras degrada la calidad de formas que hace falta oficio para notar. El empleado con menos experiencia ve un borrador que parece bueno. El veterano ve diecisiete errores sutiles que tardará más en corregir que si empezara de cero.

La identidad y el oficio son reales. Escritores que pasaron décadas desarrollando una voz propia. Diseñadores que entrenaron su criterio estético a través de miles de iteraciones. Ingenieros que valoran soluciones elegantes por encima de las meramente funcionales. Estos profesionales no solo hacen su trabajo. Son su trabajo, y la insinuación de que un autocompletador estadístico puede replicar sus habilidades ganadas a pulso se siente no solo equivocada, sino insultante.

Esto no es ludismo. Es orgullo por el oficio. Y descartarlo como resistencia al cambio es perderse el punto por completo.

El componente de vigilancia inquieta a la gente. Muchas implementaciones de IA vienen acompañadas de monitorización: seguimiento de uso, análisis de resultados, paneles de productividad. Los empleados no son paranoicos cuando notan que la herramienta diseñada para “ayudarles” también genera datos sobre cada pulsación. La ayuda viene con un vigilante pegado, y es razonable que la gente desconfíe de esa combinación.

Lo que realmente genera compromiso

Olvídate de los marcos de gestión del cambio con sus fases y matrices de partes interesadas. Esto es lo que funciona de verdad.

Empieza por los escépticos, no por los entusiastas. La mayoría de las organizaciones hace lo contrario. Encuentran a los primeros adoptantes entusiastas, los llenan de atención y esperan que el entusiasmo se contagie. No ocurre. Los escépticos ven a los entusiastas triunfar y piensan: “esa persona ya era una máquina de productividad; claro que la IA le ayuda”.

En su lugar, busca a la gente más escéptica y trabaja con ella directamente. Si consigues responder a sus objeciones, habrás respondido a las objeciones de cualquiera que sea menos escéptico. Y si no puedes responder a sus objeciones, quizá sean objeciones válidas y debas ajustar tu enfoque.

Un usuario de Hacker News llamado sevenzero describió su situación en una discusión sobre usuarios de IA: “I started to outsource thinking at my job as my company made it very clear that they do not want/cant afford thinking engineers.” Esto no es alguien que le tuviera miedo a la IA. Es alguien que la adoptó como mecanismo de supervivencia en un entorno que devaluaba su pensamiento. Ese contexto importa más que cualquier programa de formación.

Que sea realmente opcional, al menos al principio. Las imposiciones generan resentimiento. Cuando la adopción de la IA es obligatoria, la gente hace lo mínimo imprescindible para cumplir con el requisito mientras desconecta mentalmente. Cuando es opcional, quienes sí le sacan provecho se convierten en defensores de verdad, y su entusiasmo auténtico convence a otros mucho más eficazmente que cualquier memo de dirección.

Las organizaciones que imponen IA desde el día uno señalan desconfianza. Las que la ofrecen como opción y dejan que la adopción se extienda de forma orgánica señalan confianza tanto en la tecnología como en su gente.

Reconoce cuando la IA es la herramienta equivocada. Nada construye credibilidad más rápido que una evaluación honesta de sus limitaciones. Cuando la dirección dice “probamos la IA para este caso y no funciona bien, así que no vamos a seguir con ello”, los empleados aprenden que la organización evalúa la IA con honestidad en lugar de empujarla por el simple hecho de empujarla.

Las investigaciones sobre adopción de IA en empresas a partir de discusiones en Hacker News muestran de forma consistente que una evaluación sensata gana al bombo. Como resumió un usuario el consenso: “There’s definite potential, it’s very useful in some specific tasks, but it’s not an all-intelligent panacea.”

Forma sobre el trabajo real, no sobre la herramienta. La mayoría de la formación en IA enseña a usar la herramienta. Poca enseña a integrarla en procesos ya existentes para tareas ya existentes. La diferencia importa. Una hora aprendiendo funciones de ChatGPT no produce nada. Una hora viendo cómo usar la IA para resolver una tarea recurrente y concreta que el empleado ya hace produce valor inmediato.

El apoyo que de verdad importa

Los programas de formación suelen centrarse en capacidades. Lo que la IA puede hacer. Cómo escribir prompts. Qué modelos son mejores para qué tareas. Todo información útil que se pierde el punto real de fricción.

La fricción no es saber qué puede hacer. Es saber cómo integrarlo. ¿Cómo encajo esto en el trabajo que ya hago? ¿Qué cambia y qué se queda igual? ¿Cómo decido cuándo un resultado de la IA es suficientemente bueno frente a cuándo necesita una revisión extensa?

Estas preguntas dependen del rol y de la tarea, y no se pueden responder con formación genérica. Un responsable de contenidos necesita un apoyo de integración distinto al de un analista financiero. Un agente de atención al cliente necesita ajustes distintos en su forma de trabajar que un responsable de producto.

La estructura de apoyo más eficaz ni siquiera es un programa de formación. Es acceso continuo a alguien que entienda tanto las herramientas de IA como el trabajo específico que se está haciendo. Llámales mentores, consultores o simplemente compañeros útiles. Lo que importa es que estén disponibles cuando surjan preguntas en medio del trabajo, no en un aula separada del contexto.

Este tipo de apoyo es caro y no escala con facilidad, por eso la mayoría de las organizaciones opta por la alternativa más barata de vídeos de formación grabados que nadie vuelve a ver dos veces. Pero el enfoque barato produce los resultados baratos que vemos por todas partes en las estadísticas de adopción.

Cómo se ve una adopción exitosa

No se parece al entusiasmo universal.

Una adopción exitosa de la IA se parece a patrones de uso pragmáticos: algunas personas usan la IA a fondo para tareas donde ayuda; otras la usan de vez en cuando para propósitos específicos y estrechos; y algunas casi no la usan porque su trabajo, de verdad, no se beneficia de ella.

Esta distribución frustra a los ejecutivos que quieren gráficas de uso en forma de palo de hockey y curvas de adopción uniformes. Pero es a lo que se parece una adopción sana de verdad. No todo el mundo necesita usar IA. No todas las tareas se benefician de la IA. No toda forma de trabajar mejora metiendo IA de por medio.

Las organizaciones que entienden esto distribuyen herramientas de IA ampliamente, apoyan la experimentación con generosidad, miden resultados en lugar de uso, y aceptan que la adopción orgánica produce patrones desiguales que reflejan utilidad real y no teatro del cumplimiento.

Según la investigación de BCG de 2025, las organizaciones con estrategias formales de gestión del cambio tienen tres veces más probabilidades de tener éxito que las que no. Pero “gestión del cambio formal” no significa imposiciones y paneles. Significa prestar atención, con intención, a las dinámicas humanas de la adopción de tecnología.

Las peores implementaciones de IA tratan a la gente como obstáculos que hay que superar. Las mejores los tratan como colaboradores para averiguar dónde ayuda realmente la IA.

La verdad incómoda

Esto es lo que nadie que esté liderando una transformación con IA quiere oír: quizá tu problema de resistencia sea en realidad un problema de valor.

No valores en el sentido ético, aunque eso forma parte. Valor en el sentido de utilidad. Quizá quienes se resisten a la IA son quienes la han evaluado con más rigor. Quizá su resistencia refleje una evaluación real y no miedo. Quizá la herramienta de verdad no les ayuda, y su escepticismo sea un dato que deberías estar recopilando, no una resistencia que deberías estar venciendo.

Un responsable de equipo en una agencia, citado en la investigación de Piccalilli sobre el uso forzado de la IA, describió así su lugar de trabajo: “They want to be the ‘first AI agency’ and are basically telling us to get on board or you’re not a fit.” Esa presión produce cumplimiento sin implicación. También produce lo de fingir del que hablamos al principio: una adopción teatral que satisface métricas mientras no cambia nada del trabajo real.

Cuando los empleados fingen usar IA, están mandando un mensaje. El mensaje no es “tenemos miedo al cambio”. El mensaje es “la herramienta no nos ayuda y no nos vas a escuchar”.

Una adopción exitosa de la IA requiere escuchar de verdad.

Algo para tener en cuenta

Las organizaciones gastan una energía enorme gestionando la resistencia a la IA. Construyen programas de formación. Desarrollan estrategias de comunicación. Identifican embajadores y abordan a los escépticos. Todo este esfuerzo asume que la resistencia es un problema que hay que resolver.

Pero la resistencia también es información. Te dice dónde está la brecha entre lo que la dirección cree y lo que los empleados viven. Revela qué usos funcionan de verdad y cuáles solo se ven bien en las demos. Saca a la luz las preocupaciones que las presentaciones pulidas de los proveedores nunca mencionan.

Las organizaciones que triunfan con la IA no son las que superan la resistencia con más eficacia. Son las que distinguen entre la resistencia que merece la pena superar y la resistencia de la que merece la pena aprender.

Tu gente no es un obstáculo para tu transformación con IA. Es la transformación en sí. La pregunta no es cómo conseguir que adopten. La pregunta es si lo que les estás pidiendo que adopten merece la pena adoptarlo.

Esa pregunta incomoda a los ejecutivos. Y debería.

Ready For DatBot?

Use Gemini 2.5 Pro, Llama 4, DeepSeek R1, Claude 4, O3 and more in one place, and save time with dynamic prompts and automated workflows.

Top Articles

Come on in, the water's warm

See how much time DatBot.AI can save you