Oliver Schilke conduziu 13 experimentos. Mais de 5.000 participantes. Os resultados foram consistentes, todas as vezes.
“In each experiment, we found that, when someone disclosed using AI, trust declined significantly,” disse Schilke, professor do Eller College of Management da University of Arizona. Sua equipe mediu quedas de confiança de 16% entre estudantes avaliando professores, 18% entre investidores vendo anúncios e 20% entre clientes avaliando designers gráficos.
As implicações são desconfortáveis. Ser honesto custa caro.
Os números contam uma história que ninguém queria ouvir
Eis o que a pesquisa realmente encontrou. Estudantes que sabiam que o professor usava IA para ajudar na correção confiaram 16% menos do que estudantes que não sabiam. As notas eram idênticas. A qualidade do feedback era a mesma. A única diferença era a divulgação.
Investidores se comportaram de forma parecida. Quando souberam que um anúncio envolveu IA na criação, a confiança no anunciante caiu 18%. De novo: o anúncio em si não mudou. Só o rótulo mudou.
Clientes de design gráfico mostraram a queda mais acentuada. Quando designers admitiram ajuda de IA, a confiança do cliente caiu 20%. Vinte por cento. Pelo mesmo trabalho.
Martin Reimann, outro pesquisador da equipe do Arizona, encontrou algo ainda mais marcante: “Even with people who were very familiar with AI and used it frequently, the erosion of trust was there.” Públicos acostumados com tecnologia não estavam imunes. Ainda assim, puniram a divulgação.
Os pesquisadores chamam isso de “o dilema da transparência”. Você quer ser honesto. A honestidade faz as pessoas confiarem menos em você.
Mas ser pego é pior
A equipe de Schilke também testou o que acontece quando o uso de IA é revelado por outra pessoa. Um terceiro usa um detector. Um colega comenta. O cliente descobre por algum outro canal.
“Trust drops even further if somebody else exposes you after using an AI detector or finding out about it some other way,” explicou Schilke.
Então, esconder também tem seu risco. O pior desfecho não é a divulgação voluntária. O pior desfecho é ser pego.
Isso cria uma posição impossível. Contar logo de cara e perder um pouco de confiança. Esconder e correr o risco de perder muito mais se for exposto. Não existe caminho que preserve credibilidade total.
O caminho honesto custa menos. Mas ainda custa.
Enquanto isso, governos estão decidindo por você
O EU AI Act entra em vigor por etapas até 2027. As obrigações de transparência do Artigo 50 exigem que empresas informem usuários quando eles interagem com sistemas de IA. Deepfakes precisam ser rotulados como gerados artificialmente. Sistemas de reconhecimento de emoções exigem divulgação. Texto gerado por IA para fins de informação pública precisa ser marcado.
A AI Transparency Act da Califórnia entrou em vigor em janeiro de 2026. O Colorado vem logo atrás com seus próprios requisitos. Illinois exige divulgação quando a IA é usada em decisões de contratação. Nova York exige que anunciantes rotulem artistas sintéticos em comerciais.
A FTC deixou claro que práticas enganosas envolvendo IA violam a lei existente de proteção ao consumidor. Eles lançaram a Operation AI Comply para reforçar essa posição. As violações podem chegar a $51.744 por incidente.
Então, enquanto divulgar derruba a confiança, não divulgar pode em breve ser ilegal — dependendo da sua jurisdição, do seu setor e de como você está usando IA. A pesquisa psicológica diz uma coisa. O ambiente regulatório diz outra.
O problema da reputação profissional
Uma linha separada de pesquisa da Duke University adiciona outra camada. Jessica Reif, Richard Larrick e Jack Soll entrevistaram 4.400 participantes em quatro experimentos. Eles queriam saber como colegas percebem pessoas que usam IA no trabalho.
O resultado: pessoas que usam IA são vistas como “less competent at their jobs, lazy, less independent, less self-assured and less diligent.”
Essa percepção persistiu independentemente de idade, gênero ou ocupação. Ela se manteve mesmo quando os participantes eram informados de que a IA melhorava a qualidade do trabalho. Gestores tinham menos probabilidade de contratar candidatos que admitiam usar IA.
Uma exceção apareceu. Gestores que usavam IA eles mesmos avaliavam candidatos que usam IA de forma mais favorável. A experiência pessoal mudou a conta.
Mas aqui está a implicação prática: profissionais acreditam que divulgar o uso de IA vai prejudicar sua reputação. E eles não estão errados. A pesquisa de Duke confirma que colegas, sim, julgam usuários de IA negativamente. Isso cria pressão organizacional contra transparência.
Como o momento da divulgação muda tudo
Nem toda divulgação é igual. Quando você divulga importa quase tanto quanto se você divulga.
Uma pesquisa sobre o momento de divulgação de IA em atendimento ao cliente descobriu que sair de um anúncio imediato, logo de início, para a divulgação depois de construir um vínculo inicial dobrou o número de ligações que viraram conversas significativas. O conteúdo da divulgação era o mesmo. Só o momento mudou.
Isso faz sentido psicologicamente. A divulgação logo de cara dispara um processamento defensivo. O cliente imediatamente categoriza a interação como “falando com um bot” em vez de “resolver meu problema”. As expectativas mudam. A paciência encurta. A disposição de engajar cai.
Divulgar depois de estabelecer um vínculo é diferente. A conversa já começou. Algum valor já foi trocado. A divulgação vira uma explicação, não um aviso.
Isso levanta questões éticas. Adiar a divulgação é manipulativo? Ou é simplesmente boa comunicação? A resposta provavelmente depende de quanto tempo é o atraso e do que acontece durante ele.
A realidade legal é um alvo móvel
As regulações estaduais sobre IA nos Estados Unidos seguem inconsistentes. A Califórnia exige divulgação quando consumidores interagem com sistemas de IA generativa. O Colorado exige divulgação quando a IA toma decisões que afetam consumidores. Utah exige divulgação apenas mediante solicitação. Alguns estados exigem divulgação logo de início “unless obvious to a reasonable person.”
O que conta como óbvio? As regulações não definem. Um chatbot com um avatar de robô talvez conte. Um chatbot chamado “Alex” provavelmente não.
A FCC propôs regras em 2024 sugerindo que ligações de saída feitas por IA deveriam exigir divulgação “at the outset.” Mas a linguagem exata ainda não está definida. O que conta como “the outset”? O primeiro segundo? A primeira frase? Depois do cumprimento?
Empresas que operam em várias jurisdições encaram quebra-cabeças de conformidade. O que é exigido na Califórnia pode não ser exigido no Texas. O que é exigido na UE pode ser mais rígido do que em qualquer lugar nos EUA. E tudo isso está sujeito a mudança à medida que reguladores continuam desenvolvendo seus marcos.
O que de fato ajuda
A pesquisa do Arizona identificou um fator que reduziu a penalidade de confiança. Quando a utilidade da IA foi explicitamente reconhecida, percepções negativas diminuíram. Enquadramento importa.
Compare estas duas divulgações:
“Este conteúdo foi gerado por IA.”
“Nossa IA analisou 200 pontos de dados para identificar os padrões mais relevantes para a sua situação. Um membro da equipe revisou o resultado final.”
A primeira soa como um aviso. A segunda soa como uma declaração de capacidade. A mesma verdade por trás. Impacto psicológico diferente.
Christopher Penn, escrevendo sobre divulgação de IA para proteção de direitos autorais, aponta um motivo diferente para divulgar: estratégia legal. Tribunais dos EUA decidiram que conteúdo gerado por IA não pode receber proteção por direitos autorais. Trabalho criado por humanos pode. Ao rotular claramente quais elementos são feitos por IA versus feitos por humanos, criadores fortalecem suas reivindicações de direitos autorais sobre as partes humanas.
“You shouldn’t claim work you didn’t actually do,” argumenta Penn. Mas, além da ética, há um benefício prático: a divulgação deixa claro o que é seu.
A exceção do atendimento ao cliente
Em alguns contextos, a penalidade de transparência se inverte completamente.
Grant, um coordenador de comércio eletrônico na Arcade Belts, compartilhou a experiência da equipe com atendimento ao cliente alimentado por IA: “A lot of times, I’ll receive the response, ‘Wow, I didn’t know that was AI.’”
Os clientes dele não ficaram irritados. Ficaram impressionados. A IA era rápida, precisa e estava disponível. A divulgação não prejudicou. Se algo, demonstrou capacidade.
Isso faz sentido no contexto. Atendimento ao cliente é sobre resolver problema. Velocidade importa. Disponibilidade 24 horas importa. Se a IA entrega esses benefícios, a divulgação vira um diferencial, não um defeito.
A pesquisa sobre penalidade de confiança focou em contextos em que a IA pode ser vista como “cortar caminho”. Criação de conteúdo. Correção. Design. Áreas em que o esforço humano faz parte do valor percebido.
Suporte ao cliente é diferente. Ninguém valoriza respostas lentas ou disponibilidade limitada. A IA resolve dores reais. A divulgação destaca isso.
O posicionamento de marca muda a conta
Uma empresa de tecnologia ao divulgar uso de IA reforça sua identidade. Uma cervejaria artesanal ao divulgar uso de IA contradiz sua identidade. Contexto molda tudo.
Empresas que se posicionam como inovadoras e na vanguarda enfrentam penalidades menores de confiança ao divulgar IA. Seus clientes esperam sofisticação tecnológica. IA encaixa na promessa da marca.
Empresas que se posicionam em torno de autenticidade, artesanato ou conexão humana enfrentam penalidades maiores. IA não encaixa na história que elas contaram.
Isso sugere que a estratégia de divulgação deve se alinhar à estratégia de marca. Para alguns negócios, transparência total faz sentido. Para outros, faz mais sentido a divulgação mínima exigida por lei. Nenhuma abordagem é inerentemente mais ética. São encaixes diferentes para situações diferentes.
O meio-termo desconfortável
A maioria das empresas existe nesse meio-termo. Não são empresas de tecnologia em que IA é esperada. Não são produtores artesanais em que IA soa estranha. São empresas comuns tentando atender clientes com eficiência.
Para elas, a pesquisa sugere alguns princípios:
Comece pelo valor. Divulgue o uso de IA no contexto do que isso faz pelo cliente, e não como um fato isolado.
Seja direto e objetivo. Não peça desculpas. Não superexplique. Diga o que aconteceu e siga em frente.
Destaque a participação humana. “com ajuda de IA, revisado por humanos” funciona melhor do que “gerado por IA”. Se há humanos envolvidos, diga.
Ajuste a ênfase ao risco. Decisões de alto impacto pedem divulgação clara e destacada. Interações de baixo impacto podem ter um tratamento mais leve.
Não adie mais do que o necessário. Divulgar cedo permite que clientes calibrem expectativas. Divulgar tarde soa como uma revelação.
Como o futuro provavelmente vai ser
A trajetória regulatória é clara. Mais exigências de divulgação, não menos. Mais jurisdições implementando regras. Mais especificidade sobre o que deve ser dito e quando.
A pesquisa psicológica também é clara. Divulgar tem custo. Esse custo pode diminuir com o tempo, à medida que a IA se normaliza. Ainda não diminuiu.
Na prática, isso significa: empresas vão precisar divulgar mais do que divulgam hoje, e vão precisar ficar boas em divulgar de um jeito que minimize danos. As empresas que descobrirem isso primeiro ganham vantagem. As que não descobrirem vão enfrentar tanto penalidades regulatórias quanto erosão contínua de confiança.
A armadilha da transparência não vai se resolver sozinha. Clientes vão continuar confiando menos em quem divulga, enquanto exigem mais divulgação. Regulamentações vão continuar apertando, enquanto pesquisas psicológicas continuam confirmando a penalidade. A lacuna vai persistir.
Aprender a operar dentro dessa lacuna é a habilidade de verdade.
Leitura relacionada: Conformidade de privacidade de dados com IA cobre requisitos de GDPR e CCPA. Questões de propriedade de direitos autorais em IA explora as implicações de propriedade intelectual de conteúdo gerado por IA.