--- title: IA vs apprendimento automatico vs deep learning: che cosa cambia davvero? description: Spiegazione chiara di IA, apprendimento automatico e deep learning per professionisti del business. Cosa significa ciascun termine, come si collegano e perché conta per il tuo lavoro. date: February 5, 2026 author: Robert Soares category: ai-fundamentals --- Qualcuno probabilmente ti ha detto che il deep learning è solo una versione più sofisticata dell’apprendimento automatico, che a sua volta è un sottoinsieme dell’IA. Questa spiegazione è tecnicamente corretta e completamente inutile, perché non ti dice nulla su quando la distinzione conta, perché i termini vengono frullati insieme nel testo pubblicitario, o che cosa significhi tutto questo per gli strumenti aperti nelle schede del tuo browser, proprio adesso. Proviamo in un altro modo. ## Partiamo da ciò che non sono L’IA non è una tecnologia specifica. Non lo è mai stata. Il termine "artificial intelligence" risale al 1956, quando un gruppo di ricercatori a Dartmouth voleva un nome accattivante per il loro seminario estivo su come far “pensare” le macchine. Prima ancora che quel seminario finisse, il settore aveva già il suo marchio. Tutto ciò che venne dopo e che faceva sembrare i computer intelligenti finì sotto la stessa etichetta, indipendentemente da come funzionasse. Per questo un programma di scacchi del 1997, un filtro antispam del 2005 e ChatGPT nel 2026 contano tutti come "IA". Tecnicamente non condividono quasi nulla. L’ombrello è così ampio. L’apprendimento automatico è più ristretto. Molto più ristretto. Descrive sistemi che migliorano esponendosi ai dati, invece che tramite programmazione esplicita. Un essere umano scrive l’algoritmo di apprendimento generale. Sono i dati a fare da insegnante. Questa distinzione sembra accademica finché non capisci che determina se uno strumento può adattarsi alla tua situazione specifica oppure se resta bloccato nelle regole che qualcuno ha codificato a mano anni fa. Il deep learning è ancora più ristretto. Reti neurali. Più strati. Schemi che emergono da schemi che emergono da schemi. Il "deep" si riferisce alla profondità della rete, non a una profondità filosofica. ## La confusione ha una causa Chi fa marketing ha scoperto che "IA" suona più impressionante di "algoritmo". È successo gradualmente. Un motore di raccomandazione è diventato un "sistema di personalizzazione alimentato dall’IA". Un chatbot basato su regole è diventato un "assistente IA". Un pacchetto di statistica è diventato "analisi predittiva con IA". Il significato tecnico si è svuotato, mentre il valore di marketing si gonfiava. Come l’ha messa un commentatore su Hacker News discutendo la terminologia del machine learning: "machine learning is a particular model set atop the edifice of statistics mixed with coding." La realtà pratica è meno glamour di quanto suggerisca l’etichetta. Non è per forza disonesto. Le definizioni, ai bordi, sono davvero sfumate. Ma crea problemi quando stai cercando di valutare strumenti o capire capacità. Qualcosa etichettato "IA" può essere qualunque cosa, da una tabella di consultazione a GPT-4. ## Come impara davvero l’apprendimento automatico Metti che tu abbia diecimila email, ciascuna etichettata come spam o legittima. Un algoritmo di apprendimento automatico analizza questi esempi e trova schemi che separano le due categorie. Magari le email di spam tendono ad avere certe combinazioni di parole, domini del mittente insoliti o particolari stranezze di formattazione. È l’algoritmo a identificare questi schemi. Un essere umano fornisce i dati etichettati e sceglie il metodo di apprendimento, ma non specifica che "SOLDI GRATIS" nelle righe dell’oggetto correla con lo spam. L’algoritmo lo nota dagli esempi. Una volta addestrato, il modello può esaminare nuove email che non ha mai visto e fare previsioni. Non perché qualcuno abbia programmato una regola su "SOLDI GRATIS", ma perché il modello ha imparato quello schema dai dati. Questo è apprendimento supervisionato. Fornisci esempi etichettati. L’algoritmo impara a prevedere etichette per nuovi casi. L’apprendimento non supervisionato salta le etichette. Dai all’algoritmo i dati e lo lasci trovare da solo una struttura. Segmenti di clienti che non sapevi esistessero. Anomalie che non corrispondono a nessuno schema normale. Raggruppamenti che rivelano somiglianze nascoste. L’apprendimento per rinforzo aggiunge tentativi ed errori. Il sistema compie azioni, riceve un riscontro sul fatto che quelle azioni siano state buone o cattive e, gradualmente, capisce quali strategie funzionano. Questo alimenta IA che giocano e alcune applicazioni di robotica. L’intuizione centrale, in tutti e tre i casi: il sistema migliora grazie all’esperienza, non grazie a nuova programmazione. ## Dove il deep learning prende un’altra strada L’apprendimento automatico tradizionale richiede che un essere umano identifichi le caratteristiche rilevanti. Vuoi classificare immagini di gatti e cani? Qualcuno deve decidere che forma delle orecchie, texture del pelo e proporzioni del corpo contano. Questo lavoro di progettazione delle caratteristiche richiede competenze, tempo e conoscenza del dominio. Il deep learning elimina quel passaggio. Una rete neurale con abbastanza strati può capire da sola quali caratteristiche contano. Mostrale milioni di immagini di gatti e cani con etichette. La rete impara che certi schemi a basso livello, come bordi e texture, si combinano in schemi di livello intermedio, come occhi e orecchie, che a loro volta si combinano in schemi ad alto livello come "golden retriever" o "gatto soriano". Nessuno specifica che i bordi contano. La rete lo scopre. Per questo il deep learning domina tutto ciò che coinvolge dati non strutturati. Immagini. Audio. Video. Linguaggio naturale. Le caratteristiche che distinguono un sentimento positivo da uno negativo in un testo, o una voce da un’altra in un audio, sono sottili e difficili da definire esplicitamente. Il deep learning le trova comunque. Il costo sono i dati. Il deep learning ha bisogno di molti più esempi per addestrarsi in modo efficace. Dove l’ML tradizionale può funzionare con centinaia o migliaia di campioni, il deep learning spesso richiede milioni. E i requisiti di calcolo sono, di conseguenza, enormi. ## La parte che tutti dimenticano In un thread su Hacker News sui limiti del deep learning, il ricercatore ed ex direttore IA di Tesla Andrej Karpathy (via l’utente daddyo) ha fatto un’osservazione che taglia via la retorica: "I haven't found a way to properly articulate this yet but somehow everything we do in deep learning is memorization (interpolation, pattern recognition, etc) instead of thinking." Questo conta più di quanto la maggior parte delle discussioni ammetta. Il deep learning trova schemi. Associa input e risultati in base ai dati di addestramento. Non ragiona sul mondo. Non capisce la causalità. Non sa perché qualcosa sia vero. Un altro commentatore nello stesso thread, dredmorbius, l’ha detto senza mezzi termini: "Deep Learning is finding associated effects. It does not find the underlying causes. It is a mode of technical rather than scientific advance." Capire questo cambia il modo in cui valuti le affermazioni sull’IA. Un sistema addestrato su dati storici riprodurrà schemi di quella storia, inclusi pregiudizi, errori e correlazioni che non reggono più. Non si chiederà se quegli schemi abbiano senso. Non può. ## Quando ha senso ogni approccio I sistemi basati su regole funzionano meglio quando il problema ha una logica chiara che gli esseri umani possono specificare completamente. Calcoli fiscali. Decisioni di instradamento basate su criteri espliciti. Situazioni in cui devi spiegare esattamente perché si è verificato un determinato esito. L’apprendimento automatico tradizionale brilla con dati strutturati e insiemi di dati di dimensioni moderate. Prevedere l’abbandono dei clienti a partire da metriche comportamentali. Assegnare un punteggio ai potenziali clienti in base agli attributi dell’azienda. Casi in cui le caratteristiche rilevanti sono identificabili e l’interpretabilità conta. Il deep learning diventa necessario per dati non strutturati su larga scala. Riconoscimento di immagini. Trascrizione vocale. Comprensione del linguaggio naturale. Problemi in cui definire esplicitamente le caratteristiche sarebbe impossibile o impraticabile. Gli strumenti con cui interagisci ogni giorno stanno in punti diversi di questo spettro. Un filtro antispam potrebbe usare ML tradizionale. Un motore di raccomandazione potrebbe mescolare più approcci. ChatGPT e Claude usano deep learning, nello specifico reti neurali basate su transformer con miliardi di parametri. Sapere quale categoria si applica ti aiuta a fare domande migliori. Questo sistema può adattarsi ai miei dati specifici? Spiegherà le sue decisioni? Ha bisogno di dati di addestramento enormi, oppure può funzionare con ciò che ho? ## Il transformer ha cambiato tutto L’architettura specifica di deep learning dietro gli attuali assistenti IA si chiama transformer. Prima del 2017, i modelli linguistici elaboravano le parole in sequenza, una alla volta. Questo li rendeva lenti da addestrare e incapaci di collegare bene idee separate da molte parole. I transformer hanno introdotto l’auto-attenzione: la capacità di confrontare ogni parola con tutte le altre simultaneamente. Questo calcolo in parallelo ha reso l’addestramento più veloce e ha catturato relazioni a lungo raggio che gli approcci precedenti non vedevano. GPT, Claude, Gemini, Llama. Tutti costruiti su transformer. Lo stesso vale per generatori di immagini come DALL-E e generatori di video come Sora. Un’unica innovazione architetturale, pubblicata in un articolo intitolato "Attention is All You Need", ha sbloccato quasi tutto ciò che oggi la gente chiama "IA" in una conversazione informale. Non devi capire la matematica. Conta riconoscere che questi sistemi condividono una base comune, che spiega sia le loro capacità sia i loro limiti. Eccellono nel riconoscimento di schemi perché i transformer eccellono nel trovare schemi lungo sequenze lunghe. Faticano nel ragionamento affidabile perché il riconoscimento di schemi non è ragionamento. ## Il problema della scatola nera Con un albero decisionale o una regressione lineare, puoi tracciare esattamente perché una previsione è uscita in un certo modo. Il rapporto debito/reddito ha superato la soglia. Il cliente non ha effettuato l’accesso da 90 giorni. Chiaro, verificabile, difendibile. I modelli di deep learning resistono a questo tipo di spiegazione. Milioni di parametri interagiscono in modi che resistono all’interpretazione umana. Vedi input e risultati. Il mezzo è opaco. Questo crea problemi reali nei settori regolamentati. Sanità, finanza, credito. I regolatori vogliono sapere perché è stata presa una decisione. "La rete neurale ha prodotto un punteggio alto" non è una risposta accettabile. La ricerca sull’IA spiegabile continua, ma il compromesso resta. I modelli più capaci tendono a essere i meno interpretabili. ## Cosa significa per gli strumenti che usi Quando scrivi in ChatGPT o Claude, stai usando deep learning. Nello specifico, stai usando un grande modello linguistico costruito su architettura transformer, addestrato su centinaia di miliardi di esempi di testo. Questo spiega comportamenti che altrimenti potrebbero sembrare casuali o difettosi. I modelli sono eccellenti nel riconoscimento di schemi. Hanno visto enormi quantità di testo e hanno imparato quali schemi seguono quali altri schemi. Per questo possono scrivere in stili diversi, tradurre lingue e generare codice che, davvero, funziona. Non verificano la verità. Come spiegato nell’articolo su [perché l’IA si inventa le cose](/posts/Why-AI-Makes-Things-Up-Hallucinations), gli LLM prevedono quale testo dovrebbe venire dopo in base a schemi. Che quel testo sia fattualmente accurato è una domanda separata a cui non possono rispondere dall’interno. I limiti di contesto sono reali. [Token e finestre di contesto](/posts/Tokens-Context-Windows-Why-AI-Forgets) vincolano quante informazioni il modello può elaborare simultaneamente. È un vincolo architetturale, non un bug temporaneo in attesa di una correzione. I prompt influenzano i risultati perché il modello sta abbinando schemi al tuo input. Input diversi attivano schemi diversi. Per questo conta come scrivi i prompt e per questo piccoli cambiamenti di formulazione possono produrre risultati drasticamente diversi. ## Il mercato ha già deciso L’apprendimento automatico non è tecnologia sperimentale. Il 72% delle aziende statunitensi riporta che l’ML è operatività IT standard, non solo R&S. Il mercato è arrivato da qualche parte tra $72 e $97 miliardi nel 2024 a seconda di come lo misuri, con proiezioni di crescita che mostrano aumenti annui del 30-35% fino ai primi anni 2030. Il mercato del lavoro lo riflette. Le posizioni di ingegnere di apprendimento automatico pagano una retribuzione totale mediana intorno a $158.000 negli Stati Uniti. Il World Economic Forum prevede che i lavori per specialisti di IA e ML cresceranno di oltre l’80% tra il 2025 e il 2030. Questi numeri contano perché indicano dove fluiscono gli investimenti. Gli strumenti disponibili oggi miglioreranno. I costi scenderanno. Le domande si spostano dal "se adottare" al "come adottare bene". ## Cosa resta vero IA, apprendimento automatico e deep learning descrivono categorie annidate. L’IA è la più ampia, e copre qualunque cosa imiti un comportamento intelligente. L’apprendimento automatico restringe ai sistemi che imparano dai dati. Il deep learning restringe ulteriormente alle reti neurali che imparano le proprie caratteristiche. Ma la terminologia conta meno che capire le capacità. Che cosa può fare davvero questo strumento specifico? Impara da nuovi dati o segue regole fisse? Può spiegare le sue decisioni? Ha bisogno di enormi quantità di dati o funziona con ciò che hai? Il fornitore probabilmente chiama tutto "IA". Quell’etichetta non ti dice quasi nulla. La tecnologia sottostante ti dice quasi tutto. Il momento attuale nell’IA sembra significativo perché il deep learning, nello specifico i modelli linguistici basati su transformer, ha risolto problemi che gli approcci precedenti non potevano nemmeno sfiorare. Comprensione del linguaggio naturale. Generazione di immagini. Sintesi di codice. Questi avanzamenti sono reali. Ciò che non sono è pensiero. Il riconoscimento di schemi su larga scala sembra intelligente. A volte è utile. Ogni tanto è trasformativo. Ma opera su principi fondamentalmente diversi dalla cognizione umana, e capire quella differenza è tutto il gioco.