--- title: Cronologia dell'IA: dal 1950 a oggi description: La vera storia dell'intelligenza artificiale, da Turing a ChatGPT. Due inverni, tre boom e la tecnologia che finalmente ha funzionato. date: February 5, 2026 author: Robert Soares category: ai-fundamentals --- La storia dell'intelligenza artificiale non è una linea retta: dagli inizi primitivi a un presente brillante. È una storia di fallimenti spettacolari. Due volte, i ricercatori hanno dichiarato vittoria. Due volte, si sbagliavano. Il campo è quasi morto entrambe le volte. Che cosa ha funzionato davvero, alla fine? Questa domanda conta più di qualsiasi cronologia. ## La promessa che nessuno poteva mantenere Prima di tuffarti nella cronologia, capisci cosa rende la storia dell'IA diversa dalle altre storie tecnologiche. I primi ricercatori non stavano migliorando a piccoli passi uno strumento esistente come il telefono o l'automobile. Stavano sostenendo che il pensiero, la cosa che rende umani gli esseri umani, potesse essere fabbricato. E che sarebbe successo presto. Nel 1970, la rivista Life pubblicò un articolo che citava Marvin Minsky: "In from three to eight years we will have a machine with the general intelligence of an average human being." Minsky in seguito contestò di averlo mai detto. Ma la citazione circolò. Ha fissato le aspettative. E quando passarono otto anni senza nulla che assomigliasse anche solo lontanamente a un'intelligenza a livello umano, la gente se ne accorse. Questo schema si è ripetuto per decenni. Affermazioni audaci. Finanziamenti. Delusione. Reazione contraria. E poi di nuovo. Perché conta adesso? Perché oggi stai sentendo affermazioni simili. Capire cosa è andato storto prima ti aiuta a valutare cosa potrebbe andare storto di nuovo. ## 1950: una domanda cambia tutto Alan Turing pubblicò un articolo nel 1950 che inquadrò l'intero campo prima ancora che il campo esistesse. L'articolo si chiamava "Computing Machinery and Intelligence." La [prima frase](https://en.wikipedia.org/wiki/Computing_Machinery_and_Intelligence) era semplice: "I propose to consider the question, 'Can machines think?'" Turing sapeva che le definizioni sarebbero state un problema. Che cosa significa davvero "pensare"? Quindi propose una scorciatoia. Dimentica di provare a definire il pensiero. Invece, gioca a un gioco. Un giudice umano ha conversazioni testuali con due partecipanti nascosti. Uno è umano. Uno è una macchina. Se il giudice non riesce a distinguere in modo affidabile quale sia quale, importa davvero se la macchina "pensa" davvero? Questo divenne il test di Turing. Spostò il dibattito dalla filosofia all'ingegneria. Possiamo costruire qualcosa che lo superi? A quella domanda si poteva rispondere davvero: con esperimenti, costruendo e testando e iterando. Turing morì nel 1954. Non vide mai la ricerca sull'IA diventare un campo. Ma la sua cornice influenza ancora oggi il modo in cui valutiamo i sistemi di IA. ## 1956: un campo estivo per il futuro Sei anni dopo l'articolo di Turing, un gruppo di ricercatori si riunì al Dartmouth College nel New Hampshire per un workshop estivo. Lo organizzò John McCarthy. C'era Marvin Minsky. C'era anche Claude Shannon, che aveva inventato la teoria dell'informazione. La [proposta che scrissero](https://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html) contiene la frase che definì tutto ciò che venne dopo: "The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it." Rileggila. Ogni aspetto dell'apprendimento. Ogni caratteristica dell'intelligenza. Può essere descritta con precisione. Può essere simulata da una macchina. Non era una pretesa modesta. Era una scommessa: che l'intelligenza umana, qualunque cosa sia, potesse essere ridotta a regole e calcoli. Che non ci fosse nulla nel pensiero che fosse, in modo fondamentale, oltre la portata delle macchine. Il termine "artificial intelligence" fu coniato in quel workshop. I ricercatori che vi parteciparono divennero i leader del campo per i quarant'anni successivi. Erano brillanti. Ed erano anche spudoratamente ottimisti sulle tempistiche. ## Gli anni '60: l'ottimismo fuori controllo Il decennio dopo Dartmouth fu produttivo ed entusiasmante e, alla fine, preparò il terreno per il primo schianto. I ricercatori costruirono programmi in grado di dimostrare teoremi matematici, giocare a dama, risolvere problemi di parole e sostenere semplici conversazioni. ELIZA comparve nel 1966. Joseph Weizenbaum al MIT creò un chatbot che fingeva di essere uno psicoterapeuta. Funzionava per riconoscimento di schemi. L'utente dice: "Sono triste." ELIZA risponde: "Perché dici di essere triste?" Nessuna comprensione. Solo manipolazione del testo. Successe qualcosa di inaspettato. Gli utenti formarono legami emotivi con ELIZA. Si confidavano con lei. Alcuni credevano di parlare con qualcosa che si prendesse cura di loro. Weizenbaum ne rimase turbato. Passò il resto della sua carriera ad avvertire dei pericoli di attribuire qualità umane alle macchine. Alla fine degli anni '60, i ricercatori facevano previsioni che oggi sembrano assurde. Herbert Simon disse che le macchine avrebbero fatto qualsiasi lavoro che un umano potesse fare entro vent'anni. Minsky sostenne che il problema dell'intelligenza artificiale sarebbe stato "substantially solved" entro una generazione. I finanziamenti continuarono ad arrivare. La DARPA riversò denaro nei laboratori di IA. Il futuro sembrava garantito. ## 1973-1980: arriva l'era glaciale Poi la realtà colpì. Nel 1973, il governo del Regno Unito incaricò il matematico James Lighthill di valutare la ricerca sull'IA. Il suo [rapporto](https://en.wikipedia.org/wiki/Lighthill_report) fu devastante. La conclusione chiave: "In no part of the field have the discoveries made so far produced the major impact that was then promised." Lighthill sostenne che la ricerca sull'IA avesse sbattuto contro barriere fondamentali. Il problema dell'"esplosione combinatoria" significava che i compiti del mondo reale avevano troppe possibilità da esplorare. I trucchi ingegnosi che funzionavano su problemi giocattolo fallivano su qualunque cosa assomigliasse a un'applicazione vera. La Gran Bretagna tagliò i finanziamenti all'IA. I laboratori di ricerca che prosperavano videro i bilanci sparire quasi da un giorno all'altro. La DARPA, osservando dall'altra parte dell'Atlantico, si innervosì. Iniziò a pretendere applicazioni militari pratiche invece di ricerca pura. Anche in America i soldi si prosciugarono. Questo fu il primo inverno dell'IA. Non un rallentamento. Un collasso. Perché accadde? Le promesse erano troppo grandi. I problemi troppo difficili. I computer troppo lenti. I ricercatori avevano scambiato i primi successi su problemi vincolati per la prova che l'intelligenza generale fosse vicina. L'inverno durò circa sette anni. L'IA divenne un rischio di carriera. Usare il termine nelle richieste di finanziamento poteva affondare la proposta. I ricercatori che rimasero nel campo lo fecero in silenzio, lavorando su problemi più stretti con nomi meno glamour. ## 1980-1987: falsa primavera L'IA tornò. Il motore furono i "sistemi esperti". Erano programmi che codificavano la conoscenza umana sotto forma di regole. Se il paziente ha febbre e tosse ed è stato esposto a qualcuno con l'influenza, allora probabilmente ha l'influenza. Se l'attrezzatura fa un rumore di sfregamento e il livello dell'olio è basso, allora probabilmente il cuscinetto sta cedendo. Alle aziende questa cosa piaceva. Le imprese potevano catturare ciò che sapevano i migliori dipendenti e scalarlo in tutta l'organizzazione. Furono costruiti computer specializzati solo per far girare sistemi esperti. Un'azienda chiamata Symbolics vendeva hardware per l'IA a centinaia di migliaia di dollari per macchina. Gli investimenti tornarono a fiume. I laboratori di IA aziendali aprirono. Il termine "intelligenza artificiale" era di nuovo rispettabile. A metà degli anni '80, l'industria dell'IA valeva miliardi di dollari. Ma i sistemi esperti avevano un problema fondamentale. Non potevano imparare. Ogni pezzo di conoscenza doveva essere programmato a mano. Mantenerli era un incubo. Man mano che le regole si accumulavano, diventavano fragili e imprevedibili. E quando computer generalisti più economici di Sun e Apple raggiunsero prestazioni simili, il mercato dell'hardware specializzato crollò. ## 1987-1993: il secondo inverno Lo schianto fu peggiore la seconda volta. I laboratori di IA aziendali chiusero. Symbolics fallì. I ricercatori rimasti rinominarono ciò che facevano come "machine learning" o "reti neurali" o qualunque cosa evitasse le parole tossiche "artificial intelligence." Se lavoravi sull'IA nel 1990, probabilmente non lo avresti ammesso a una festa. Eppure, sotto la superficie stava succedendo qualcosa di importante. Una piccola comunità di ricercatori continuò a lavorare sulle reti neurali, una tecnologia liquidata negli anni '60. Migliorarono gli algoritmi. Aspettarono che i computer recuperassero. E, cosa più importante, internet stava iniziando a generare enormi quantità di testo e immagini digitali. Gli ingredienti per la prossima svolta si stavano assemblando da soli. ## Perché gli inverni finirono Ecco la parte che la maggior parte delle storie sull'IA salta: perché gli inverni finirono? Che cosa cambiò? Tre cose cambiarono. Primo, la potenza di calcolo continuò a raddoppiare. La legge di Moore significava che un computer nel 2010 era milioni di volte più potente di uno nel 1970. Problemi computazionalmente impossibili divennero affrontabili. Secondo, i dati divennero abbondanti. Internet cambiò tutto. All'improvviso, i ricercatori avevano accesso a miliardi di documenti, milioni di immagini, registrazioni di migliaia di ore di parlato. Le reti neurali hanno bisogno di dati come le piante hanno bisogno di luce solare. Internet fornì abbastanza luce per far crescere qualcosa di grande. Terzo, gli algoritmi migliorarono. La retropropagazione rese pratico addestrare reti neurali profonde. Il dropout evitò l'overfitting. Architetture migliori come le reti neurali convoluzionali funzionavano bene con le immagini. Il progresso incrementale si accumulò fino a diventare un cambiamento qualitativo. Nessuno di questi fattori, da solo, era sufficiente. Insieme, crearono le condizioni per una svolta che avrebbe superato qualsiasi cosa precedente. ## 2012: l'anno in cui tutto cambiò Nell'ottobre 2012, un team dell'Università di Toronto partecipò all'ImageNet Large Scale Visual Recognition Challenge. La gara richiedeva di identificare oggetti nelle fotografie. Un milione di immagini. Mille categorie. Il team usò una rete neurale profonda chiamata AlexNet. Geoffrey Hinton supervisionò. Alex Krizhevsky curò l'implementazione. Ilya Sutskever contribuì con idee chiave. Vinsero. Era previsto. Ma il margine di vittoria scioccò tutti. AlexNet ottenne un tasso di errore top-5 del 15,3%. Il secondo miglior risultato ebbe 26,2%. Non è un piccolo miglioramento. È un'altra categoria di prestazioni. È la differenza tra una tecnologia che più o meno funziona e una che funziona davvero. Hinton in seguito scherzò sulla collaborazione: ["Ilya thought we should do it, Alex made it work, and I got the Nobel Prize."](https://en.wikipedia.org/wiki/AlexNet) Il Nobel arrivò nel 2024, ma il risultato di AlexNet fu ciò che rese possibile tutto il resto. Nel giro di pochi mesi, ogni grande azienda tecnologica stava assumendo ricercatori di reti neurali. Google acquisì una startup fondata da Hinton. Facebook aprì un laboratorio di IA. Microsoft espanse la sua divisione di ricerca. I soldi che avevano abbandonato l'IA negli anni '80 tornarono a fiume. Non era una falsa primavera. La tecnologia funzionava davvero. Funzionava su problemi reali, su scala reale, con valore economico reale. ## 2017: otto ricercatori cambiano il mondo Il punto di svolta successivo arrivò da un articolo con un titolo strano. Otto ricercatori di Google pubblicarono ["Attention Is All You Need"](https://arxiv.org/abs/1706.03762) nel giugno 2017. Il titolo citava una canzone dei Beatles. Il contenuto rivoluzionò l'elaborazione del linguaggio naturale. L'articolo introdusse l'architettura transformer. I modelli linguistici precedenti elaboravano il testo in modo sequenziale, una parola alla volta. I transformer elaborano tutto in parallelo, permettendo a ogni parola di "prestare attenzione" a ogni altra indipendentemente dalla distanza. Questo rese l'addestramento molto più rapido e catturò molto meglio le dipendenze a lungo raggio nel testo. Oggi ogni grande modello linguistico usa i transformer. GPT. Claude. Gemini. Llama. Tutti discendono da quell'articolo del 2017. Probabilmente è la ricerca sull'IA più influente dell'ultimo decennio. Gli autori non sapevano cosa avessero creato. L'articolo parlava di traduzione automatica. Ci vollero anni perché le implicazioni diventassero chiare. ## 2020: l'ipotesi della scalabilità si dimostra vera OpenAI rilasciò GPT-3 nel giugno 2020. Aveva 175 miliardi di parametri. Poteva scrivere saggi. Poteva fare debug del codice. Poteva rispondere a domande su quasi tutto. A volte si inventava cose. Ma quando funzionava, funzionava in modo quasi magico. La reazione di sviluppatori e ricercatori fu intensa. Un tweet virale catturò il momento: "Playing with GPT-3 feels like seeing the future." Il CEO di OpenAI, Sam Altman, cercò di smorzare le aspettative. "The GPT-3 hype is way too much," [scrisse](https://syncedreview.com/2020/08/04/as-its-gpt-3-model-wows-the-world-openai-ceo-suggests-the-hype-is-way-too-much/). Ma il genio era già uscito dalla lampada. GPT-3 dimostrò qualcosa di importante. L'ipotesi della scalabilità suggeriva che, se rendevi le reti neurali più grandi e le addestravi su più dati, sarebbero diventate sempre più intelligenti. Molti ricercatori erano scettici. GPT-3 mostrò che gli scettici si sbagliavano. ## 30 novembre 2022: il pubblico scopre l'IA ChatGPT venne lanciato di mercoledì. Cinque giorni dopo, il CEO di OpenAI Sam Altman [tweetò](https://x.com/sama/status/1599668808285028353): "ChatGPT launched on wednesday. today it crossed 1 million users!" Due mesi dopo, aveva 100 milioni di utenti. Nessuna applicazione consumer era mai cresciuta così in fretta. Non Facebook. Non TikTok. Non Instagram. Nulla. Cosa rendeva ChatGPT diverso da GPT-3? Era gratuito. Era conversazionale. Era ottimizzato per essere utile e non dannoso. Chiunque poteva provarlo senza una chiave API o una carta di credito. Questo fu il momento in cui l'IA smise di essere una storia di tecnologia. I tuoi colleghi la usavano. I tuoi genitori ne chiedevano. I tuoi figli facevano i compiti con lei. Il campo che era quasi morto due volte era ora la tecnologia di cui si parlava di più al mondo. ## Dove siamo adesso? All'inizio del 2026, ChatGPT ha 800 milioni di utenti attivi settimanali. È circa il 10% della popolazione adulta mondiale che usa un singolo strumento di IA. GPT-5 esiste. Claude esiste. Gemini esiste. I modelli open-source di Meta e Mistral hanno reso l'IA potente accessibile a chiunque abbia hardware decente. Il denaro che affluisce nell'IA fa impallidire qualunque cosa dei boom precedenti. Centinaia di miliardi di dollari. Nuovi data center costruiti su più continenti, specificamente per addestrare modelli di IA. È un'altra bolla? Ci sarà un terzo inverno? La risposta onesta: nessuno lo sa. Ma alcune cose, stavolta, sono diverse. La tecnologia crea valore reale. ChatGPT non è ELIZA. Può davvero aiutare con lavoro vero. Le aziende stanno usando l'IA per scrivere codice, analizzare dati, riassumere documenti e dozzine di altri compiti che fanno risparmiare tempo e denaro veri. Le capacità sono dimostrabili. I boom dell'IA del passato vivevano di promesse. Questo vive di prodotti che le persone possono usare oggi. I rischi sono reali. Questi modelli a volte allucinano. Possono essere manipolati. Sollevano domande su lavoro, disinformazione e concentrazione di potere che i sistemi di IA precedenti non avevano mai posto. ## Lo schema da ricordare Settantacinque anni di storia dell'IA insegnano una lezione coerente. Una svolta porta all'hype. L'hype porta a promettere troppo. Promettere troppo porta alla delusione. La delusione porta all'inverno. Le svolte dal 2012 sono reali. I transformer hanno cambiato ciò che è possibile. ChatGPT ha cambiato chi li usa. Ma la storia suggerisce umiltà nelle previsioni. I ricercatori che nel 1965 dicevano che un'IA a livello umano fosse a vent'anni di distanza si sbagliavano. I ricercatori che oggi dicono cose simili potrebbero sbagliarsi anche loro. Oppure potrebbero avere ragione. La risposta onesta è che nessuno lo sa. Quello che sappiamo: gli strumenti di IA sono utili adesso per compiti specifici. Capire da dove vengono aiuta a separare la realtà dall'hype. Quella separazione ha valore. Il campo che è morto due volte ora vale migliaia di miliardi. Che rimanga così dipende dal fatto che la tecnologia continui a dare risultati. Finora lo ha fatto. Ma ci siamo già passati.