ai-strategy
11 min read
View as Markdown

Le piège de la transparence : ce qui se passe quand vous parlez de votre IA à vos clients

De nouvelles recherches montrent que la divulgation se retourne contre vous. Les réglementations l’exigent quand même. Voici comment les entreprises naviguent l’écart grandissant entre la psychologie des clients et la réalité juridique.

Robert Soares

Oliver Schilke a mené 13 expériences. Plus de 5 000 participants. Les résultats ont été cohérents, à chaque fois.

“In each experiment, we found that, when someone disclosed using AI, trust declined significantly,” a déclaré Schilke, professeur à l’Eller College of Management de l’Université de l’Arizona. Son équipe de recherche a mesuré des baisses de confiance de 16 % chez des étudiants évaluant des professeurs, de 18 % chez des investisseurs regardant des publicités, et de 20 % chez des clients évaluant des graphistes.

Les implications sont inconfortables. L’honnêteté vous coûte.

Les chiffres racontent une histoire que personne ne voulait entendre

Voilà ce que la recherche a réellement trouvé. Les étudiants qui savaient que leur professeur utilisait l’IA pour aider à la notation faisaient 16 % moins confiance à ce professeur que ceux qui ne le savaient pas. Les notes étaient identiques. La qualité des retours était la même. La seule différence, c’était la divulgation.

Les investisseurs se sont comportés de la même façon. Lorsqu’on leur disait qu’une publicité avait impliqué de l’IA dans sa création, leur confiance dans l’annonceur chutait de 18 %. Là encore, la publicité elle-même était inchangée. Seule l’étiquette changeait.

Les clients en graphisme ont affiché la baisse la plus marquée. Quand les designers admettaient une aide de l’IA, la confiance des clients tombait de 20 %. Vingt pour cent. Pour le même travail.

Martin Reimann, un autre chercheur de l’équipe de l’Arizona, a trouvé quelque chose d’encore plus frappant : “Even with people who were very familiar with AI and used it frequently, the erosion of trust was there.” Les publics technophiles n’étaient pas immunisés. Eux aussi sanctionnaient la divulgation.

Les chercheurs appellent ça « le dilemme de la transparence ». Vous voulez être honnête. L’honnêteté fait baisser la confiance.

Se faire prendre, c’est pire

L’équipe de Schilke a aussi testé ce qui se passe quand l’usage de l’IA est révélé par quelqu’un d’autre. Un tiers utilise un détecteur. Un collègue le mentionne. Le client l’apprend par un autre canal.

“Trust drops even further if somebody else exposes you after using an AI detector or finding out about it some other way,” a expliqué Schilke.

Donc la dissimulation a son propre risque. Le pire scénario, ce n’est pas la divulgation volontaire. Le pire scénario, c’est de se faire prendre.

Ça crée une position impossible. Le dire d’emblée, c’est perdre un peu de confiance. Le cacher, c’est risquer d’en perdre beaucoup plus si ça sort. Il n’existe aucun chemin qui préserve une crédibilité totale.

La voie honnête coûte moins cher. Mais elle coûte quand même.

Pendant ce temps, les gouvernements prennent la décision à votre place

L’AI Act de l’UE entre en vigueur par étapes jusqu’en 2027. Les obligations de transparence au titre de l’article 50 exigent que les entreprises informent les utilisateurs quand ils interagissent avec des systèmes d’IA. Les deepfakes doivent être étiquetés comme artificiellement générés. Les systèmes de reconnaissance des émotions exigent une divulgation. Le texte généré par l’IA à des fins d’information publique doit être signalé.

La loi californienne AI Transparency Act est entrée en application en janvier 2026. Le Colorado suit avec ses propres exigences. L’Illinois impose la divulgation lorsque l’IA est utilisée dans des décisions d’embauche. New York exige que les annonceurs étiquettent les interprètes synthétiques dans les publicités.

La FTC a été claire : les pratiques trompeuses impliquant l’IA violent le droit existant de protection des consommateurs. Elle a lancé Operation AI Comply pour faire appliquer cette position. Les sanctions peuvent atteindre 51 744 $ par infraction.

Donc même si la divulgation fait baisser la confiance, ne pas divulguer pourrait bientôt être illégal selon votre juridiction, votre secteur, et la manière dont vous utilisez l’IA. La recherche en psychologie dit une chose. L’environnement réglementaire en dit une autre.

Le problème de réputation professionnelle

Une autre ligne de recherche de l’université Duke ajoute une couche. Jessica Reif, Richard Larrick, et Jack Soll ont interrogé 4 400 participants sur quatre expériences. Ils voulaient savoir comment les collègues perçoivent les personnes qui utilisent l’IA au travail.

Résultat : les personnes qui utilisent l’IA sont perçues comme « moins compétentes dans leur travail, paresseuses, moins indépendantes, moins sûres d’elles et moins consciencieuses ».

Cette perception persistait quel que soit l’âge, le genre ou la profession. Elle tenait même lorsque les participants étaient informés que l’IA améliorait la qualité du travail. Les managers étaient moins susceptibles d’embaucher des candidats qui admettaient utiliser l’IA.

Une exception est apparue. Les managers qui utilisaient eux-mêmes l’IA jugeaient plus favorablement les candidats utilisateurs d’IA. L’expérience personnelle changeait le calcul.

Mais voici l’implication pratique : les professionnels pensent que divulguer l’usage de l’IA nuira à leur réputation. Et ils n’ont pas tort. La recherche de Duke confirme que les collègues jugent négativement les utilisateurs d’IA. Ça crée une pression organisationnelle contre la transparence.

Le timing de la divulgation change tout

Toutes les divulgations ne se valent pas. Le moment où vous divulguez compte presque autant que le fait de divulguer.

Une recherche sur le timing de la divulgation de l’IA dans le service client a montré que passer d’une annonce immédiate, d’emblée, à une divulgation après une première phase de création de lien doublait le nombre d’appels qui devenaient des conversations utiles. Le contenu de la divulgation était le même. Seul le moment changeait.

Psychologiquement, c’est logique. La divulgation d’emblée déclenche un réflexe défensif. Le client classe immédiatement l’échange comme « parler à un bot » plutôt que « résoudre mon problème ». Ses attentes changent. Sa patience diminue. Sa volonté de s’engager s’effondre.

Une divulgation après avoir établi un minimum de lien n’a pas le même goût. La conversation a déjà commencé. Une partie de la valeur a déjà été échangée. La divulgation devient une explication plutôt qu’un avertissement.

Ça soulève des questions éthiques. Est-ce qu’une divulgation retardée est manipulatrice ? Ou est-ce simplement de la bonne communication ? La réponse dépend probablement de la durée du retard, et de ce qui se passe pendant ce temps.

La réalité juridique est une cible mouvante

Aux États-Unis, les réglementations sur l’IA au niveau des États restent incohérentes. La Californie exige une divulgation quand les consommateurs interagissent avec des systèmes d’IA générative. Le Colorado impose une divulgation quand l’IA prend des décisions qui affectent les consommateurs. L’Utah n’exige une divulgation que sur demande. Certains États exigent une divulgation d’emblée “unless obvious to a reasonable person.”

Qu’est-ce qui compte comme « évident » ? Les réglementations ne le définissent pas. Un chatbot avec un avatar de robot pourrait passer. Un chatbot appelé « Alex », probablement pas.

La FCC a proposé des règles en 2024 suggérant que les appels sortants pilotés par l’IA devraient exiger une divulgation “at the outset.” Mais la formulation exacte reste indéfinie. Qu’est-ce que “the outset” ? La première seconde ? La première phrase ? Après la salutation ?

Les entreprises qui opèrent dans plusieurs juridictions font face à des casse-têtes de conformité. Ce qui est requis en Californie peut ne pas l’être au Texas. Ce qui est requis dans l’UE peut être plus strict que partout ailleurs aux États-Unis. Et tout cela est susceptible d’évoluer à mesure que les régulateurs continuent de construire leurs cadres.

Ce qui aide vraiment

La recherche de l’Arizona a identifié un facteur qui réduisait la pénalité de confiance. Quand l’utilité de l’IA était explicitement reconnue, les perceptions négatives diminuaient. La manière de présenter compte.

Comparez ces deux divulgations :

“Ce contenu a été généré par une IA.”

“Notre IA a analysé 200 points de données pour identifier les schémas les plus pertinents pour votre situation. Un membre de l’équipe a relu le résultat final.”

La première ressemble à une étiquette d’avertissement. La seconde ressemble à une déclaration de capacité. Même vérité de fond. Impact psychologique différent.

Christopher Penn, qui écrit sur la divulgation de l’IA pour la protection du droit d’auteur, note une autre raison de divulguer : la stratégie juridique. Les tribunaux américains ont jugé que les contenus générés par l’IA ne peuvent pas bénéficier de la protection du droit d’auteur. Le travail créé par des humains, si. En indiquant clairement quels éléments sont créés par l’IA versus créés par des humains, les créateurs renforcent leurs revendications de droits sur les parties humaines.

“You shouldn’t claim work you didn’t actually do,” affirme Penn. Mais au-delà de l’éthique, il y a un bénéfice pratique : la divulgation clarifie ce que vous possédez.

L’exception du service client

Dans certains contextes, la pénalité de transparence s’inverse complètement.

Grant, coordinateur e-commerce chez Arcade Belts, a partagé l’expérience de son équipe avec un service client propulsé par l’IA : “A lot of times, I’ll receive the response, ‘Wow, I didn’t know that was AI.’”

Ses clients n’étaient pas contrariés. Ils étaient impressionnés. L’IA était rapide, précise, disponible. La divulgation n’a pas fait de mal. Au contraire, elle démontrait une capacité.

Dans ce contexte, ça se comprend. Le service client, c’est résoudre un problème. La vitesse compte. La disponibilité 24 h/24 compte. Si l’IA fournit ces bénéfices, la divulgation devient un atout plutôt qu’un défaut.

La recherche sur la pénalité de confiance s’est concentrée sur des contextes où l’IA peut être perçue comme une manière de bâcler. La création de contenu. La notation. Le design. Des domaines où l’effort humain fait partie de la valeur perçue.

Le support client est différent. Personne ne valorise des réponses lentes ou une disponibilité limitée. L’IA répond à de vrais points de douleur. La divulgation le met en évidence.

Le positionnement de marque change le calcul

Une entreprise technologique qui divulgue son usage de l’IA renforce son identité. Une brasserie artisanale qui divulgue son usage de l’IA contredit son identité. Le contexte façonne tout.

Les entreprises qui se positionnent comme innovantes et à la pointe subissent des pénalités de confiance plus faibles quand elles divulguent l’IA. Leurs clients s’attendent à une sophistication technologique. L’IA tient la promesse de marque.

Les entreprises qui se positionnent autour de l’authenticité, de l’artisanat, ou du lien humain subissent des pénalités plus fortes. L’IA ne colle pas à l’histoire qu’elles ont racontée.

Ça suggère que la stratégie de divulgation doit s’aligner sur la stratégie de marque. Pour certaines entreprises, une transparence totale a du sens. Pour d’autres, la divulgation minimale exigée par la loi en a davantage. Aucune approche n’est intrinsèquement plus éthique. Ce sont des choix différents, pour des situations différentes.

Le milieu inconfortable

La plupart des entreprises existent dans un juste milieu. Ce ne sont pas des entreprises technologiques, ou l’IA est attendue. Ce ne sont pas des producteurs artisanaux, ou l’IA choque. Ce sont des entreprises « normales » qui essaient de servir leurs clients efficacement.

Pour elles, la recherche suggère quelques principes :

Commencez par la valeur. Divulguez l’usage de l’IA dans le contexte de ce que ça apporte au client, pas comme un fait isolé.

Restez factuel. Ne vous excusez pas. N’en faites pas trop. Dites ce qui s’est passé et passez à la suite.

Mettez en avant l’intervention humaine. « Assisté par l’IA, relu par un humain » fonctionne mieux que « généré par l’IA ». Si des humains interviennent, dites-le.

Adaptez l’intensité aux enjeux. Les décisions à forts enjeux méritent une divulgation claire, visible. Les interactions à faibles enjeux peuvent être traitées plus légèrement.

Ne retardez pas plus que nécessaire. Une divulgation tôt permet aux clients d’ajuster leurs attentes. Une divulgation tardive ressemble à une révélation.

À quoi ressemble probablement le futur

La trajectoire réglementaire est claire. Plus d’exigences de divulgation, pas moins. Plus de juridictions qui mettent en place des règles. Plus de précision sur ce qui doit être dit et quand.

La recherche en psychologie est tout aussi claire. La divulgation a un coût. Ce coût pourrait diminuer avec le temps, à mesure que l’IA se normalise. Ce n’est pas encore le cas.

Concrètement, ça veut dire : les entreprises devront divulguer davantage qu’aujourd’hui, et elles devront apprendre à divulguer d’une manière qui minimise les dégâts. Celles qui comprennent ça en premier gagnent un avantage. Celles qui ne le font pas subiront à la fois des sanctions réglementaires et une érosion continue de la confiance.

Le piège de la transparence ne se résoudra pas tout seul. Les clients continueront à faire moins confiance à ceux qui divulguent, tout en exigeant plus de divulgation. Les réglementations continueront à se durcir, pendant que la recherche en psychologie continuera de confirmer la pénalité. L’écart persistera.

Apprendre à opérer dans cet écart, c’est la vraie compétence.


Related reading: AI Data Privacy Compliance covers GDPR and CCPA requirements. AI Copyright Ownership Issues explores the intellectual property implications of AI-generated content.

Ready For DatBot?

Use Gemini 2.5 Pro, Llama 4, DeepSeek R1, Claude 4, O3 and more in one place, and save time with dynamic prompts and automated workflows.

Top Articles

Come on in, the water's warm

See how much time DatBot.AI can save you