ai-strategy
11 min read
View as Markdown

O lado humano da adoção de IA: por que seu problema com pessoas não é o que você imagina

Iniciativas de IA fracassam por causa das pessoas, não da tecnologia. Mas a resistência não é medo de robôs. É algo mais profundo.

Robert Soares

Algo estranho aconteceu no fim de 2024, quando empresas começaram a obrigar o uso de ferramentas de IA em toda a força de trabalho. Os funcionários não se revoltaram. Não fizeram piquetes. Não mandaram memorandos furiosos para o RH.

Fingiram.

Segundo uma pesquisa citada pela BetaNews, um em cada seis trabalhadores agora finge usar IA no trabalho mesmo quando, na prática, não usa, encenando uma espécie de teatro corporativo para satisfazer executivos que checam painéis de uso enquanto não realizam nada com a tecnologia em si. Esse engano silencioso revela algo importante sobre a adoção de IA no trabalho que a maioria dos manuais de gestão de mudanças ignora completamente.

O problema não é medo. Nem sequer é resistência. É desconexão.

O mito do trabalhador assustado

Abra qualquer artigo sobre adoção de IA no trabalho e você vai encontrar a mesma narrativa cansada: funcionários têm medo de perder o emprego, então resistem à IA, então você precisa tranquilizá-los. Essa história é conveniente porque coloca os funcionários como irracionais e a gestão como esclarecida. E também é, em grande parte, falsa.

Sim, alguns funcionários se preocupam em serem substituídos. Essa preocupação é legítima e nada irracional, dadas as manchetes ofegantes sobre a automação chegando para todo emprego. Mas o medo de perder o trabalho não explica o engenheiro que vê a IA como tecnicamente útil e, ainda assim, se recusa a colocá-la no seu fluxo de trabalho; nem o designer que testou ferramentas de IA a fundo e as achou pior do que inúteis; nem o gestor que impõe IA à equipe enquanto, discretamente, evita usá-la.

Quando a Section entrevistou 5.000 profissionais de escritório, descobriu que 40% dos funcionários que não são da gerência disseram que a IA economiza zero tempo em uma semana inteira. Não “um pouco de tempo” ou “só um pouquinho”. Zero. Enquanto isso, seus chefes continuavam convencidos de que a IA estava transformando a produtividade. Esse abismo de percepção não tem a ver com medo. Tem a ver com realidade.

Steve McGarvey, um designer de UX citado na reportagem da Futurism, descreveu sua experiência: “I can’t count the number of times that I’ve sought a solution for a problem, asked an LLM, and it gave me a solution to an accessibility problem that was completely wrong.”

Isso não é medo falando. Isso é experiência falando.

Por que as pessoas realmente resistem

Os motivos reais para resistir à IA são menos lisonjeiros para a tecnologia — e mais interessantes — do que um simples medo.

A ferramenta não funciona para elas. Funções diferentes têm relações diferentes com a capacidade da IA. Representantes de atendimento ao cliente podem achar a IA realmente útil para redigir respostas. Arquitetos de software podem achar que ela atrapalha ativamente decisões de arquitetura de sistemas. O coordenador de marketing que escreve três posts por mês pode economizar horas. O romancista no terceiro livro pode produzir uma prosa pior com ajuda da IA do que sem.

Quando organizações impõem o uso de IA de forma uniforme, ignoram completamente essa variação, tratando a tecnologia como e-mail ou planilhas, em vez do que ela realmente é: uma colaboradora poderosa, mas inconsistente, que ajuda algumas tarefas enormemente e outras em nada.

O padrão de qualidade importa. O que a IA gera costuma exigir a mesma habilidade para consertar que exigiria para criar do zero, o que significa que, para profissionais experientes, a assistência da IA pode, na prática, deixar tudo mais lento — e ainda degradar a qualidade de um jeito que só a experiência percebe. O funcionário júnior vê um rascunho que parece bom. O sênior vê dezessete erros sutis que vão levar mais tempo para corrigir do que começar do zero.

Identidade e ofício são reais. Escritores que passaram décadas desenvolvendo voz. Designers que treinaram o senso estético ao longo de milhares de iterações. Engenheiros que valorizam soluções elegantes, não apenas funcionais. Esses profissionais não apenas fazem seus trabalhos. Eles são seus trabalhos, e a sugestão de que um “casador” estatístico de padrões pode replicar habilidades conquistadas a duras penas parece não só errada, mas insultuosa.

Isso não é ludismo. É orgulho do ofício. E descartar isso como resistência à mudança perde completamente o ponto.

O lado da vigilância dá arrepios. Muitas implementações de IA vêm “no pacote” com monitoramento: rastreamento de uso, análise do que é gerado, painéis de produtividade. Funcionários não são paranoicos quando percebem que a ferramenta projetada para “ajudá-los” também produz dados sobre cada tecla que eles apertam. A ajuda vem com um vigia acoplado — e é razoável desconfiar dessa combinação.

O que realmente gera adesão

Esqueça as estruturas de gestão de mudanças com suas fases e matrizes de partes interessadas. Aqui vai o que funciona de verdade.

Comece pelos céticos, não pelos campeões. A maioria das organizações faz o contrário. Encontra os pioneiros entusiasmados, enche-os de atenção e espera que o entusiasmo se espalhe. Não se espalha. Os céticos veem os campeões dando certo e pensam: “aquela pessoa já era uma máquina de produtividade; claro que a IA ajuda”.

Em vez disso, encontre as pessoas mais céticas e trabalhe com elas diretamente. Se você consegue resolver as preocupações delas, resolveu as preocupações de todo mundo que é menos cético. E se você não consegue resolver, talvez elas tenham razão — e você deva ajustar sua abordagem.

Um usuário do Hacker News chamado sevenzero descreveu sua situação em uma discussão sobre usuários de IA: “I started to outsource thinking at my job as my company made it very clear that they do not want/cant afford thinking engineers.” Isso não é alguém com medo de IA. É alguém que a adotou como mecanismo de sobrevivência em um ambiente que desvalorizava o próprio pensar. Esse contexto importa mais do que qualquer programa de treinamento.

Torne realmente opcional, pelo menos no começo. Obrigatoriedade cria ressentimento. Quando a adoção de IA é obrigatória, as pessoas adotam o mínimo para cumprir tabela e se desligam por dentro. Quando é opcional, quem acha útil vira defensor de verdade, e esse entusiasmo autêntico convence os outros muito melhor do que qualquer memorando executivo.

As organizações que impõem IA desde o primeiro dia sinalizam desconfiança. As que oferecem como opção e deixam a adoção se espalhar organicamente sinalizam confiança tanto na tecnologia quanto nas pessoas.

Admita quando a IA é a ferramenta errada. Nada constrói credibilidade mais rápido do que uma avaliação honesta das limitações. Quando a liderança diz “testamos IA para este caso e não funciona bem, então não vamos seguir com isso”, os funcionários entendem que a organização avalia IA com honestidade, em vez de empurrá-la só por empurrar.

Pesquisas sobre adoção de IA em empresas a partir de discussões no Hacker News mostram de forma consistente que uma avaliação pé no chão vence o hype. Como um usuário resumiu o consenso: “There’s definite potential, it’s very useful in some specific tasks, but it’s not an all-intelligent panacea.”

Treine no trabalho real, não nas ferramentas. A maior parte do treinamento em IA ensina a usar a ferramenta. Poucos ensinam como integrar a ferramenta aos fluxos de trabalho existentes, para tarefas reais do dia a dia. A diferença importa. Uma hora aprendendo recursos do ChatGPT não gera nada. Uma hora trabalhando como usar IA para concluir uma tarefa recorrente que a pessoa já faz gera valor imediato.

O apoio que realmente importa

Programas de treinamento normalmente focam em capacidades. O que a IA pode fazer. Como escrever instruções. Quais modelos são melhores para quais tarefas. Tudo isso é útil — e ainda assim passa batido pelo ponto de atrito real.

O atrito não é falta de conhecimento sobre capacidade. É falta de conhecimento sobre integração. Como eu encaixo isso no trabalho que já faço? O que muda e o que continua igual? Como eu julgo quando o que a IA gerou é bom o suficiente, versus quando precisa de uma revisão pesada?

Essas perguntas são específicas de função e específicas de tarefa e não podem ser respondidas com treinamento genérico. Um profissional de marketing de conteúdo precisa de um tipo de apoio de integração diferente do de um analista financeiro. Um atendente de suporte precisa de ajustes no fluxo de trabalho diferentes dos de um gerente de produto.

A estrutura de apoio mais eficaz não é um programa de treinamento. É acesso contínuo a alguém que entende tanto as ferramentas de IA quanto o trabalho específico que está sendo feito. Chame de mentores, consultores, ou apenas colegas prestativos. O que importa é a disponibilidade quando as dúvidas surgem no momento do trabalho — não em uma sala de aula longe do contexto.

Esse tipo de apoio é caro e não escala com facilidade, por isso a maioria das organizações escolhe a alternativa mais barata: vídeos gravados de treinamento que ninguém assiste duas vezes. Mas a abordagem barata produz os resultados baratos que vemos nas estatísticas de adoção em todo lugar.

Como é, de fato, uma adoção bem-sucedida

Não parece entusiasmo universal.

Uma adoção bem-sucedida de IA parece padrões de uso pragmáticos: algumas pessoas usam IA intensamente para tarefas em que ela ajuda, outras usam de vez em quando para objetivos específicos e estreitos, e algumas quase não usam porque seu trabalho realmente não se beneficia.

Essa distribuição frustra executivos que querem gráficos de uso em forma de taco de hóquei e curvas de adoção uniformes. Mas é assim que uma adoção saudável realmente se parece. Nem todo mundo precisa usar IA. Nem toda tarefa se beneficia de IA. Nem todo fluxo de trabalho melhora quando você enfia IA no meio.

As organizações que entendem isso distribuem ferramentas de IA amplamente, apoiam a experimentação com generosidade, medem resultados em vez de uso e aceitam que uma adoção orgânica produz padrões irregulares que refletem utilidade real — e não teatro de conformidade.

Segundo a pesquisa da BCG de 2025, organizações com estratégias formais de gestão de mudanças têm três vezes mais sucesso do que aquelas sem. Mas “gestão formal de mudanças” não significa obrigatoriedade e painéis. Significa atenção cuidadosa à dinâmica humana da adoção de tecnologia.

As piores implementações de IA tratam pessoas como obstáculos a serem vencidos. As melhores as tratam como colaboradoras para descobrir onde a IA realmente ajuda.

A verdade desconfortável

Aqui vai o que ninguém tocando uma transformação de IA quer ouvir: talvez o seu problema de resistência seja, na verdade, um problema de valor.

Não valores no sentido de ética, embora isso faça parte. Valores no sentido de utilidade. Talvez as pessoas que resistem à IA sejam as que realmente a avaliaram com mais profundidade. Talvez a resistência delas reflita avaliação honesta, não medo. Talvez a ferramenta realmente não ajude — e o ceticismo delas seja dado que você deveria coletar, não resistência que você deveria “superar”.

Um líder de equipe de uma agência, citado na investigação do Piccalilli sobre uso forçado de IA, descreveu seu local de trabalho: “They want to be the ‘first AI agency’ and are basically telling us to get on board or you’re not a fit.” Essa pressão produz conformidade sem adesão. E também produz a encenação que discutimos no início: uma adoção teatral que satisfaz métricas enquanto não muda nada no trabalho real.

Quando funcionários fingem usar IA, eles estão mandando uma mensagem. A mensagem não é “temos medo de mudança”. A mensagem é “a ferramenta não nos ajuda e vocês não vão ouvir”.

Uma adoção bem-sucedida de IA exige ouvir de verdade.

Algo para considerar

Organizações gastam uma energia enorme gerenciando a resistência à IA. Criam programas de treinamento. Desenvolvem estratégias de comunicação. Identificam campeões e tentam convencer céticos. Todo esse esforço parte do pressuposto de que resistência é um problema a ser resolvido.

Mas resistência também é informação. Ela diz onde existe o vão entre o que a liderança acredita e o que os funcionários vivenciam. Ela revela quais casos de uso realmente funcionam e quais só parecem bons em demonstrações. Ela traz à tona preocupações que apresentações polidas de fornecedores nunca mencionam.

As organizações que dão certo com IA não são as que superam resistência com mais eficiência. São as que distinguem entre a resistência que vale a pena superar e a resistência que vale a pena aprender.

As pessoas não são obstáculos para a sua transformação de IA. Elas são a própria transformação. A pergunta não é como fazê-las adotar. A pergunta é se o que você está pedindo para elas adotarem vale a pena ser adotado.

Essa pergunta deixa executivos desconfortáveis. E deveria.

Ready For DatBot?

Use Gemini 2.5 Pro, Llama 4, DeepSeek R1, Claude 4, O3 and more in one place, and save time with dynamic prompts and automated workflows.

Top Articles

Come on in, the water's warm

See how much time DatBot.AI can save you