ai-strategy
11 min read
View as Markdown

Il lato umano dell’adozione dell’IA: perché il tuo problema di persone non è quello che pensi

Le iniziative sull’IA falliscono per colpa delle persone, non della tecnologia. Ma la resistenza non nasce dalla paura dei robot. C’è qualcosa di più profondo.

Robert Soares

È successa una cosa strana alla fine del 2024, quando le aziende hanno iniziato a imporre l’uso di strumenti di IA a tutta la forza lavoro. I dipendenti non si sono ribellati. Non hanno fatto picchetti. Non hanno scritto memo furiosi alle Risorse Umane.

Hanno fatto finta.

Secondo una ricerca citata da BetaNews, uno su sei oggi finge di usare l’IA al lavoro anche quando in realtà non la usa, mettendo in scena una sorta di teatro aziendale per soddisfare dirigenti che controllano i cruscotti di utilizzo mentre la tecnologia, di fatto, non produce nulla. Questa discreta finzione rivela qualcosa di importante sull’adozione dell’IA sul lavoro che la maggior parte dei manuali di gestione del cambiamento si perde del tutto.

Il problema non è la paura. Non è nemmeno la resistenza. È lo scollamento.

Il mito del lavoratore spaventato

Apri qualunque articolo sull’adozione dell’IA sul lavoro e troverai sempre la stessa storiella stanca: i dipendenti temono di perdere il posto, quindi resistono all’IA, quindi bisogna rassicurarli. È una narrazione comoda perché dipinge i lavoratori come irrazionali e la dirigenza come illuminata. Ed è anche, per lo più, sbagliata.

Sì, alcuni temono di essere sostituiti. È una preoccupazione legittima e tutt’altro che irrazionale, viste le notizie urlate sull’automazione pronta a portarsi via ogni lavoro. Ma la paura di perdere il posto non spiega l’ingegnere che trova l’IA tecnicamente utile ma si rifiuta di integrarla nel proprio modo di lavorare, o la designer che ha provato gli strumenti di IA a lungo e li ha trovati peggio che inutili, o il manager che la impone al team mentre in privato la evita.

Quando Section ha intervistato 5.000 colletti bianchi, ha scoperto che il 40% dei dipendenti non dirigenziali dice che l’IA non fa risparmiare loro nemmeno un minuto in un’intera settimana. Non “un po’ di tempo” o “solo qualche minuto”. Zero. Nel frattempo, i loro capi restavano convinti che l’IA stesse trasformando la produttività. Questo divario di percezione non riguarda la paura. Riguarda la realtà.

Steve McGarvey, un UX designer citato nell’articolo di Futurism, descrive così la sua esperienza: “I can’t count the number of times that I’ve sought a solution for a problem, asked an LLM, and it gave me a solution to an accessibility problem that was completely wrong.”

Non è la paura che parla. È l’esperienza.

Perché le persone resistono davvero

Le vere ragioni della resistenza all’IA sono meno lusinghiere per la tecnologia e molto più interessanti della semplice paura.

Lo strumento non funziona per loro. L’IA non ha lo stesso rapporto con tutti i lavori. Gli addetti all’assistenza clienti possono trovarla davvero utile per buttare giù risposte. Gli architetti software possono trovarla attivamente dannosa quando si tratta di decisioni di progettazione. Chi in marketing scrive tre articoli al mese può risparmiare ore. Un romanziere al terzo libro può scrivere peggio con l’aiuto dell’IA che senza.

Quando un’organizzazione impone l’uso dell’IA in modo uniforme, ignora completamente questa variabilità, trattando la tecnologia come l’email o i fogli di calcolo invece che per quello che è: un collaboratore potente ma incostante, che aiuta enormemente alcune attività e altre per nulla.

La soglia di qualità conta. Spesso gli output dell’IA richiedono la stessa competenza per essere aggiustati che servirebbe per crearli da zero; questo significa che, per i professionisti esperti, l’aiuto dell’IA può persino rallentare il lavoro mentre degrada la qualità in modi che solo l’esperienza sa riconoscere. Il junior vede una bozza che sembra buona. Il senior vede diciassette errori sottili che richiederanno più tempo da correggere che ripartire da zero.

Identità e mestiere sono reali. Scrittori che hanno passato decenni a costruirsi una voce. Designer che hanno allenato il proprio senso estetico attraverso migliaia di iterazioni. Ingegneri che preferiscono soluzioni eleganti a quelle semplicemente funzionanti. Questi professionisti non “fanno” soltanto il loro lavoro. Sono il loro lavoro, e l’idea che un riconoscitore statistico di schemi possa replicare abilità conquistate a fatica sembra non solo sbagliata, ma anche offensiva.

Non è luddismo. È orgoglio per il mestiere. E liquidarlo come resistenza al cambiamento significa non capire il punto.

L’aspetto di sorveglianza mette a disagio. Molte implementazioni di IA arrivano insieme al monitoraggio: tracciamento dell’utilizzo, analisi degli output, cruscotti di produttività. I lavoratori non sono paranoici quando notano che lo strumento pensato per “aiutarli” genera anche dati su ogni tasto premuto. L’aiuto ha un controllore attaccato, e diffidare di quella combinazione è ragionevole.

Cosa crea davvero adesione

Dimentica i modelli di gestione del cambiamento con le loro fasi e le matrici dei portatori d’interesse. Ecco cosa funziona davvero.

Parti dagli scettici, non dai paladini. La maggior parte delle organizzazioni fa l’opposto. Cerca gli entusiasti, li riempie di attenzioni e spera che l’entusiasmo si diffonda. Non succede. Gli scettici guardano i “campioni” avere successo e pensano: “quella persona era già una macchina di produttività, ovvio che l’IA la aiuta”.

Invece, trova le persone più scettiche e lavora con loro direttamente. Se riesci ad affrontare le loro obiezioni, hai affrontato le obiezioni di chiunque sia meno scettico. E se non riesci, forse quelle obiezioni sono valide e dovresti aggiustare rotta.

Un utente di Hacker News di nome sevenzero ha descritto la sua situazione in una discussione sugli utenti dell’IA: “I started to outsource thinking at my job as my company made it very clear that they do not want/cant afford thinking engineers.” Non è qualcuno che temeva l’IA. È qualcuno che l’ha adottata come meccanismo di sopravvivenza in un ambiente che svalutava il suo pensiero. Quel contesto conta più di qualunque programma di formazione.

Rendilo davvero facoltativo, almeno all’inizio. Gli obblighi generano risentimento. Quando l’adozione dell’IA è obbligatoria, le persone adottano il minimo indispensabile per rispettare la regola, mentre mentalmente staccano la spina. Quando è facoltativa, chi la trova utile diventa un sostenitore autentico, e il suo entusiasmo reale convince gli altri molto più di qualunque memo del management.

Le organizzazioni che impongono l’IA dal giorno uno comunicano sfiducia. Quelle che la offrono come opzione e lasciano che l’adozione si diffonda in modo organico comunicano fiducia sia nella tecnologia sia nelle persone.

Riconosci quando l’IA è lo strumento sbagliato. Niente costruisce credibilità più in fretta di una valutazione onesta dei limiti. Quando la leadership dice “abbiamo provato l’IA per questo caso d’uso e non funziona bene, quindi non la porteremo avanti”, i dipendenti capiscono che l’organizzazione valuta l’IA con onestà invece di spingerla per il gusto di spingerla.

Una ricerca sull’adozione dell’IA nelle aziende dalle discussioni su Hacker News mostra con costanza che una valutazione lucida batte l’hype. Come ha riassunto un utente, sintetizzando il consenso: “There’s definite potential, it’s very useful in some specific tasks, but it’s not an all-intelligent panacea.”

Fai formazione sul lavoro reale, non sugli strumenti. La maggior parte della formazione sull’IA insegna come usare lo strumento. Pochi insegnano come integrarlo nei flussi di lavoro esistenti per attività esistenti. La differenza conta. Un’ora passata a imparare le funzioni di ChatGPT non produce nulla. Un’ora passata a capire come usare l’IA per portare a termine un’attività ricorrente che il dipendente già svolge produce valore immediato.

Il supporto che conta davvero

I programmi di formazione di solito si concentrano sulle capacità. Cosa può fare l’IA. Come scrivere prompt. Quali modelli sono migliori per quali attività. Tutte informazioni utili che però mancano il vero intoppo.

L’intoppo non è sapere cosa può fare. È sapere come integrarla. Come la infilo nel lavoro che già faccio? Cosa cambia e cosa resta uguale? Come valuto quando un output dell’IA è abbastanza buono e quando invece serve una revisione pesante?

Queste domande dipendono dal ruolo e dall’attività e non possono essere risolte con una formazione generica. Chi si occupa di contenuti ha bisogno di un supporto d’integrazione diverso da un analista finanziario. Un addetto al supporto clienti ha bisogno di adattamenti diversi nel flusso di lavoro rispetto a un product manager.

La struttura di supporto più efficace non è affatto un programma di formazione. È l’accesso continuativo a qualcuno che capisca sia gli strumenti di IA sia il lavoro specifico che si sta svolgendo. Chiamateli tutor, consulenti o semplicemente colleghi disponibili. Ciò che conta è che ci siano quando le domande emergono nel momento del lavoro, non in un’aula separata dal contesto.

Questo tipo di supporto è costoso e non scala facilmente, ed è per questo che la maggior parte delle organizzazioni opta per l’alternativa più economica: video registrati di formazione che nessuno guarda due volte. Ma l’approccio economico produce i risultati economici che vediamo ovunque nelle statistiche di adozione.

Che aspetto ha davvero un’adozione riuscita

Non assomiglia all’entusiasmo universale.

Un’adozione riuscita dell’IA assomiglia a schemi d’uso pragmatici: alcune persone usano l’IA moltissimo per le attività in cui aiuta, altre la usano ogni tanto per scopi specifici e ristretti, e altre quasi per niente perché il loro lavoro non ne trae davvero beneficio.

Questa distribuzione frustra i dirigenti che vogliono grafici a mazza da hockey e curve di adozione uniformi. Ma è così che si presenta un’adozione sana. Non tutti devono usare l’IA. Non ogni attività beneficia dell’IA. Non ogni flusso di lavoro migliora perché ci infili l’IA dentro.

Le organizzazioni che lo capiscono distribuiscono gli strumenti di IA in modo ampio, sostengono la sperimentazione con generosità, misurano i risultati invece dell’utilizzo e accettano che un’adozione organica produca schemi irregolari che riflettono utilità reale, non teatro della conformità.

Secondo la ricerca di BCG del 2025, le organizzazioni con strategie formali di gestione del cambiamento hanno successo tre volte più spesso di quelle senza. Ma “gestione del cambiamento formale” non significa obblighi e cruscotti. Significa attenzione ragionata alle dinamiche umane dell’adozione tecnologica.

Le peggiori implementazioni di IA trattano le persone come ostacoli da superare. Le migliori le trattano come collaboratori per capire dove l’IA aiuta davvero.

La verità scomoda

Ecco cosa nessuno che stia guidando una trasformazione con l’IA vuole sentirsi dire: forse il tuo problema di resistenza è in realtà un problema di valore.

Non “valori” nel senso di etica, anche se quello fa parte del discorso. Valore nel senso di utilità. Forse le persone che resistono all’IA sono proprio quelle che l’hanno valutata più a fondo. Forse la loro resistenza riflette una valutazione reale, non la paura. Forse lo strumento non le aiuta davvero, e il loro scetticismo è un dato che dovresti raccogliere invece di una resistenza da “superare”.

Un team lead di un’agenzia, citato nell’indagine di Piccalilli sull’uso forzato dell’IA, descrive così il proprio ambiente di lavoro: “They want to be the ‘first AI agency’ and are basically telling us to get on board or you’re not a fit.” Quella pressione produce conformità senza convinzione. E produce anche la finzione di cui parlavamo all’inizio: un’adozione teatrale che soddisfa le metriche senza cambiare nulla nel lavoro reale.

Quando i dipendenti fanno finta di usare l’IA, stanno mandando un messaggio. Il messaggio non è “abbiamo paura del cambiamento”. Il messaggio è “lo strumento non ci aiuta e tu non ascolti”.

Per adottare l’IA con successo bisogna davvero ascoltare.

Qualcosa su cui riflettere

Le organizzazioni spendono un’enorme quantità di energia per “gestire” la resistenza all’IA. Costruiscono programmi di formazione. Sviluppano strategie di comunicazione. Identificano i campioni e affrontano gli scettici. Tutto questo sforzo parte dall’assunto che la resistenza sia un problema da risolvere.

Ma la resistenza è anche informazione. Ti dice dove esiste il divario tra ciò che la leadership crede e ciò che i dipendenti vivono. Rivela quali casi d’uso funzionano davvero e quali sembrano funzionare solo nelle demo. Porta a galla le preoccupazioni che le presentazioni patinate dei fornitori non menzionano mai.

Le organizzazioni che hanno successo con l’IA non sono quelle che “superano” la resistenza in modo più efficace. Sono quelle che distinguono tra la resistenza che vale la pena superare e la resistenza da cui vale la pena imparare.

Le persone non sono ostacoli alla tua trasformazione con l’IA. Sono la trasformazione. La domanda non è come farle adottare. La domanda è se ciò che stai chiedendo loro di adottare valga davvero la pena di essere adottato.

Quella domanda mette a disagio i dirigenti. È giusto così.

Ready For DatBot?

Use Gemini 2.5 Pro, Llama 4, DeepSeek R1, Claude 4, O3 and more in one place, and save time with dynamic prompts and automated workflows.

Top Articles

Come on in, the water's warm

See how much time DatBot.AI can save you