Oliver Schilke ha condotto 13 esperimenti. Oltre 5.000 partecipanti. I risultati sono stati coerenti ogni singola volta.
“In each experiment, we found that, when someone disclosed using AI, trust declined significantly,” ha detto Schilke, professore all’Eller College of Management dell’Università dell’Arizona. Il suo team di ricerca ha misurato cali di fiducia del 16% tra gli studenti che valutavano i professori, del 18% tra gli investitori che guardavano pubblicità e del 20% tra i clienti che valutavano grafici.
Le implicazioni sono scomode. L’onestà ti costa.
I numeri raccontano una storia che nessuno voleva sentire
Ecco cosa ha trovato davvero la ricerca. Gli studenti che sapevano che il loro professore usava l’IA per aiutarsi con la correzione si fidavano di quel professore il 16% in meno rispetto a chi non lo sapeva. I voti erano identici. La qualità dei commenti era la stessa. L’unica differenza era averlo detto.
Gli investitori si sono comportati allo stesso modo. Quando veniva detto loro che una pubblicità aveva coinvolto l’IA nella sua realizzazione, la fiducia nell’inserzionista scendeva del 18%. Anche qui, l’annuncio in sé non cambiava. Cambiava solo l’etichetta.
I clienti di grafica hanno mostrato il calo più marcato. Quando i designer ammettevano l’aiuto dell’IA, la fiducia del cliente calava del 20%. Venti per cento. Per lo stesso lavoro.
Martin Reimann, un altro ricercatore del team dell’Arizona, ha trovato qualcosa di ancora più netto: “Even with people who were very familiar with AI and used it frequently, the erosion of trust was there.” Il pubblico più esperto di tecnologia non era immune. Puniva comunque il fatto di dichiararlo.
I ricercatori lo chiamano “il dilemma della trasparenza”. Vuoi essere onesto. L’onestà fa sì che le persone si fidino meno di te.
Ma farsi scoprire è peggio
Il team di Schilke ha anche testato cosa succede quando l’uso dell’IA viene rivelato da qualcun altro. Un terzo usa un rilevatore. Un collega lo menziona. Il cliente lo scopre tramite un altro canale.
“Trust drops even further if somebody else exposes you after using an AI detector or finding out about it some other way,” ha spiegato Schilke.
Quindi nasconderlo porta con sé un rischio tutto suo. L’esito peggiore non è la dichiarazione volontaria. L’esito peggiore è farsi scoprire.
Questo crea una posizione impossibile. Lo dici subito ai clienti e perdi un po’ di fiducia. Lo nascondi e rischi di perderne molta di più se viene fuori. Non c’è una strada che preservi tutta la credibilità.
La strada onesta costa meno. Ma costa lo stesso.
Intanto i governi stanno decidendo per te
L’AI Act dell’UE entra in vigore a fasi fino al 2027. Gli obblighi di trasparenza dell’Articolo 50 impongono alle aziende di informare gli utenti quando interagiscono con sistemi di IA. I deepfake devono essere etichettati come generati artificialmente. I sistemi di riconoscimento delle emozioni richiedono dichiarazione. Il testo generato dall’IA per scopi di informazione pubblica deve essere segnalato.
La AI Transparency Act della California è diventata effettiva a gennaio 2026. Il Colorado segue con requisiti propri. L’Illinois impone la dichiarazione quando l’IA viene usata nelle decisioni di assunzione. New York richiede agli inserzionisti di etichettare gli interpreti sintetici negli spot.
La FTC è stata chiara: le pratiche ingannevoli che coinvolgono l’IA violano l’attuale normativa di tutela dei consumatori. Hanno lanciato Operation AI Comply per far rispettare questa posizione. Le violazioni possono arrivare a $51.744 per episodio.
Quindi, mentre dichiararlo riduce la fiducia, non dichiararlo potrebbe presto essere illegale a seconda della tua giurisdizione, del tuo settore e di come usi l’IA. La ricerca psicologica dice una cosa. Il contesto normativo ne dice un’altra.
Il problema della reputazione professionale
Un’altra linea di ricerca della Duke University aggiunge un ulteriore livello. Jessica Reif, Richard Larrick e Jack Soll hanno intervistato 4.400 partecipanti in quattro esperimenti. Volevano capire come i colleghi percepiscono le persone che usano l’IA al lavoro.
I risultati: chi usa l’IA viene visto come “less competent at their jobs, lazy, less independent, less self-assured and less diligent.”
Questa percezione restava stabile indipendentemente da età, genere o professione. Reggeva anche quando ai partecipanti veniva detto che l’IA migliorava la qualità del lavoro. I manager erano meno propensi ad assumere candidati che ammettevano di usare l’IA.
È emersa un’eccezione. I manager che usavano l’IA a loro volta valutavano più favorevolmente i candidati che la usavano. L’esperienza personale cambiava il conto.
Ma ecco l’implicazione pratica: i professionisti credono che dichiarare l’uso dell’IA danneggerà la loro reputazione. E non hanno torto. La ricerca di Duke conferma che i colleghi giudicano negativamente chi usa l’IA. Questo crea pressione organizzativa contro la trasparenza.
Come il momento della dichiarazione cambia tutto
Non tutte le dichiarazioni sono uguali. Quando lo dici conta quasi quanto se lo dici.
Una ricerca sul momento della dichiarazione dell’IA nel servizio clienti ha rilevato che passare dall’annuncio immediato fin dall’inizio alla dichiarazione dopo una prima fase di costruzione del rapporto ha raddoppiato il numero di chiamate che diventavano conversazioni davvero significative. Il contenuto della dichiarazione era lo stesso. Cambiava solo il momento.
Ha senso dal punto di vista psicologico. La dichiarazione immediata attiva un’elaborazione difensiva. Il cliente classifica subito l’interazione come “parlare con un bot” invece che “risolvere il mio problema”. Le aspettative cambiano. La pazienza si accorcia. La voglia di partecipare cala.
La dichiarazione dopo aver stabilito un minimo di rapporto si percepisce diversamente. La conversazione è già iniziata. Un po’ di valore è già passato. La dichiarazione diventa una spiegazione invece che un avvertimento.
Questo solleva domande etiche. Ritardare la dichiarazione è manipolatorio? O è semplicemente buona comunicazione? La risposta probabilmente dipende da quanto dura il ritardo e da cosa succede durante.
La realtà giuridica è un bersaglio mobile
Le normative statali sull’IA negli Stati Uniti restano incoerenti. La California richiede la dichiarazione quando i consumatori interagiscono con sistemi di IA generativa. Il Colorado impone la dichiarazione quando l’IA prende decisioni che incidono sui consumatori. Lo Utah richiede la dichiarazione solo su richiesta. Alcuni stati richiedono una dichiarazione fin dall’inizio “unless obvious to a reasonable person.”
Cosa conta come ovvio? Le norme non lo definiscono. Un chatbot con un avatar robotico potrebbe rientrarci. Un chatbot chiamato “Alex” probabilmente no.
La FCC ha proposto regole nel 2024 suggerendo che le chiamate in uscita fatte con IA dovrebbero richiedere dichiarazione “at the outset.” Ma il linguaggio esatto resta indefinito. Cosa significa “the outset”? Il primo secondo? La prima frase? Dopo il saluto?
Le aziende che operano in più giurisdizioni si trovano davanti rompicapi di adeguamento. Quello che è richiesto in California potrebbe non esserlo in Texas. Quello che è richiesto nell’UE potrebbe essere più severo che ovunque negli USA. E tutto può cambiare, mentre i regolatori continuano a sviluppare i loro quadri.
Cosa aiuta davvero
La ricerca dell’Arizona ha identificato un fattore che riduceva la penalità di fiducia. Quando l’utilità dell’IA veniva riconosciuta esplicitamente, le percezioni negative diminuivano. Conta come la incornici.
Confronta queste due dichiarazioni:
“Questo contenuto è stato generato dall’IA.”
“La nostra IA ha analizzato 200 punti dati per identificare gli schemi più rilevanti per la tua situazione. Un membro del team ha revisionato il risultato finale.”
La prima suona come un’etichetta di avvertimento. La seconda suona come una dichiarazione di capacità. Stessa verità di fondo. Impatto psicologico diverso.
Christopher Penn, scrivendo della dichiarazione dell’IA per la tutela del copyright, segnala un motivo diverso per dichiarare: la strategia legale. I tribunali statunitensi hanno stabilito che i contenuti generati dall’IA non possono ricevere protezione del copyright. Il lavoro creato dall’uomo può. Etichettando chiaramente quali elementi sono fatti dall’IA rispetto a quelli umani, gli autori rafforzano le loro rivendicazioni sul copyright per le parti umane.
“You shouldn’t claim work you didn’t actually do,” sostiene Penn. Ma oltre all’etica, c’è un vantaggio pratico: dichiararlo chiarisce cosa possiedi.
L’eccezione dell’assistenza clienti
In alcuni contesti, la penalità per trasparenza si ribalta completamente.
Grant, coordinatore e-commerce in Arcade Belts, ha condiviso l’esperienza del suo team con l’assistenza clienti alimentata dall’IA: “A lot of times, I’ll receive the response, ‘Wow, I didn’t know that was AI.’”
I suoi clienti non erano arrabbiati. Erano impressionati. L’IA era veloce, accurata e disponibile. La dichiarazione non ha danneggiato. Se mai, ha dimostrato capacità.
Ha senso, in quel contesto. L’assistenza clienti riguarda la risoluzione dei problemi. La velocità conta. La disponibilità 24 ore su 24 conta. Se l’IA porta quei benefici, la dichiarazione diventa una caratteristica invece che un difetto.
La ricerca sulla penalità di fiducia si è concentrata su contesti in cui l’IA può sembrare un modo per tagliare gli angoli. Creazione di contenuti. Valutazione. Lavoro di design. Aree in cui l’impegno umano è parte del valore percepito.
L’assistenza è diversa. Nessuno valorizza risposte lente o disponibilità limitata. L’IA risolve problemi reali. La dichiarazione lo mette in evidenza.
Il posizionamento del marchio cambia i conti
Un’azienda tecnologica che dichiara l’uso dell’IA rafforza la propria identità. Un birrificio artigianale che dichiara l’uso dell’IA la contraddice. Il contesto decide tutto.
Le aziende che si posizionano come innovative e all’avanguardia subiscono penalità di fiducia più basse quando dichiarano l’uso dell’IA. I loro clienti si aspettano sofisticazione tecnologica. L’IA è coerente con la promessa del marchio.
Le aziende che si posizionano intorno ad autenticità, artigianalità o connessione umana subiscono penalità più alte. L’IA non entra nella storia che hanno raccontato.
Questo suggerisce che la strategia di dichiarazione dovrebbe allinearsi alla strategia di marchio. Per alcune aziende, la piena trasparenza ha senso. Per altre, ha più senso la dichiarazione minima richiesta dalla legge. Nessun approccio è intrinsecamente più etico. Sono incastri diversi per situazioni diverse.
Lo scomodo terreno di mezzo
La maggior parte delle aziende sta nel mezzo. Non sono aziende tecnologiche in cui l’IA è attesa. Non sono produttori artigiani in cui l’IA stona. Sono aziende normali che cercano di servire i clienti in modo efficiente.
Per loro, la ricerca suggerisce alcuni principi:
Parti dal valore. Dichiarare l’uso dell’IA nel contesto di ciò che fa per il cliente, non come fatto isolato.
Sii asciutto. Non scusarti. Non spiegare troppo. Di’ cosa è successo e vai avanti.
Metti in evidenza l’intervento umano. “Assistito dall’IA, revisionato da una persona” funziona meglio di “Generato dall’IA”. Se ci sono umani coinvolti, dillo.
Adegua l’intensità alla posta in gioco. Le decisioni ad alta posta richiedono una dichiarazione chiara e ben visibile. Le interazioni a bassa posta possono avere un trattamento più leggero.
Non rimandare più del necessario. Una dichiarazione presto permette ai clienti di calibrare le aspettative. Una dichiarazione tardi sembra una rivelazione.
Come probabilmente sarà il futuro
La traiettoria normativa è chiara. Più requisiti di dichiarazione, non meno. Più giurisdizioni che implementano regole. Più specificità su cosa va detto e quando.
Anche la ricerca psicologica è chiara. Dichiararlo ha un costo. Quel costo potrebbe diminuire col tempo, man mano che l’IA diventa normale. Non è ancora successo.
In pratica significa questo: le aziende dovranno dichiarare più di quanto facciano oggi, e dovranno diventare brave a dichiararlo in modi che minimizzino i danni. Le aziende che lo capiscono per prime ottengono un vantaggio. Quelle che non lo fanno si troveranno davanti sia sanzioni normative sia un’erosione continua della fiducia.
La trappola della trasparenza non si risolverà da sola. I clienti continueranno a fidarsi meno di chi dichiara, mentre chiederanno più dichiarazioni. Le norme continueranno a irrigidirsi, mentre la ricerca psicologica continuerà a confermare la penalità. Il divario resterà.
Imparare a operare dentro quel divario è la vera abilità.
Letture correlate: Conformità alla privacy dei dati dell’IA copre i requisiti GDPR e CCPA. Problemi di proprietà del copyright con l’IA esplora le implicazioni di proprietà intellettuale dei contenuti generati dall’IA.