ai-fundamentals
10 min read
View as Markdown

Cosa ci aspetta per l'IA: uno sguardo onesto al 2025-2030

Oltre il clamore e il catastrofismo: cosa prevedono davvero gli esperti per l'IA nei prossimi cinque anni, cosa resta davvero incerto e come leggere previsioni che continuano a cambiare.

Robert Soares

Chiedi a sei ricercatori di IA quando raggiungeremo un’intelligenza artificiale al livello umano e otterrai sei risposte diverse. È esattamente quello che è successo in una tavola rotonda del novembre 2025 per il Queen Elizabeth Prize for Engineering, dove Jensen Huang, Yoshua Bengio, Geoffrey Hinton, Fei-Fei Li, Yann LeCun e Bill Dally hanno dato tempistiche completamente diverse alla stessa domanda.

Questo disaccordo non è un bug. È una caratteristica. Ci dice qualcosa di importante sul momento attuale: siamo in una fase in cui le persone che sanno di più sull’IA non sanno davvero cosa succederà dopo.

La tendenza affidabile: le cose continuano a migliorare

Ecco ciò su cui quasi tutti concordano. I modelli continueranno a migliorare. La stessa traiettoria che ci ha portati da GPT-3 a GPT-4, da Claude 2 a Claude 3.5, continuerà ad allungarsi in avanti perché i motori fondamentali del progresso restano intatti.

Dario Amodei, CEO di Anthropic, ha descritto questa progressione in termini concreti nel podcast di Lex Fridman: “We’re starting to get to PhD level, and last year we were at undergraduate level, and the year before we were at the level of a high school student.”

Che questa progressione continui allo stesso ritmo è incerto, ma la direzione sembra abbastanza chiara da rendere poco saggio scommetterci contro nel breve periodo.

Che cosa significa, in pratica? Assistenti alla programmazione più capaci. Strumenti di scrittura migliori. Aiuti alla ricerca più intelligenti. Le cose che l’IA già fa discretamente bene miglioreranno in modo evidente nei prossimi anni, probabilmente abbastanza da far sembrare primitivi gli strumenti di inizio 2025 entro il 2027.

Simon Willison, sviluppatore software che ha documentato ampiamente la sua esperienza nel costruire con gli LLM, ha scritto di come sia cambiato il suo modo di lavorare nel 2025: “Coding agents changed everything for me.” Ha descritto la creazione di decine di strumenti tramite prompt agli LLM, il lavoro asincrono con agenti IA e perfino lo sviluppo di codice dal telefono con abbastanza fiducia da rilasciare modifiche in progetti in produzione.

Non è fantascienza. È uno sviluppatore che lavora sul serio e descrive la sua pratica attuale. Moltiplica questa cosa per milioni di lavoratori della conoscenza e hai il senso del cambiamento già in corso.

L’orizzonte multimodale

Testo, immagini, audio, video. I muri tra queste modalità si stanno sgretolando più in fretta di quanto molti si aspettassero.

L’analisi di Epoch AI su come potrebbe apparire l’IA nel 2030 prevede progressi significativi: implementare software scientifici complessi da descrizioni in linguaggio naturale, assistere i matematici nella formalizzazione delle dimostrazioni, rispondere a domande aperte sui protocolli di laboratorio. Non sono speculazioni campate in aria. Sono estrapolazioni dai progressi attuali nei benchmark.

Ma estrapolare è complicato. Ogni grafico delle capacità prima o poi incontra vincoli. I dati di addestramento si esauriscono. I costi di calcolo crescono in modo esponenziale. Entrano in gioco rendimenti decrescenti. La domanda non è se queste barriere esistano, ma quando inizieranno a pesare davvero.

Agenti: la prossima frontiera (probabilmente)

La grande scommessa, in questo momento, sono gli agenti IA. Non solo IA che risponde alle domande, ma IA che compie azioni, usa strumenti, lavora tra sistemi diversi e completa attività in più passaggi con supervisione umana minima.

Qui il clamore si fa fitto. La realtà: gli agenti restano fragili. Falliscono in modi sorprendenti. Richiedono un coordinamento accurato per restare utili. Una discussione su Hacker News del 2024 ha colto bene lo scetticismo, con l’utente talldayo che prevedeva: “In 10 years, AI and LLMs will be a joke on The Simpsons in the same way they made fun of the Palm Pilot.”

Probabilmente è troppo pessimista. Ma è un correttivo utile rispetto agli annunci senza fiato sugli agenti da parte di ogni grande laboratorio. Il divario tra demo e adozione resta ampio. Gli agenti che funzionano senza sbavature in condizioni controllate spesso arrancano nel disordine dei processi reali.

Eppure, anche miglioramenti incrementali nell’affidabilità degli agenti sbloccano valore significativo. Se gli agenti riescono a gestire in modo affidabile il 70% delle attività di routine invece del 30%, per molti processi è una trasformazione. La soglia non è la perfezione. È l’utilità.

La questione AGI: dove gli esperti divergono davvero

Quando l’IA diventa generalmente intelligente? Capace di svolgere qualunque compito intellettuale che può svolgere un umano? È qui che il disaccordo tra esperti diventa più netto.

A un estremo: Dario Amodei suggerisce che stiamo finendo i “truly convincing blockers, truly compelling reasons why this will not happen in the next few years.” La sua estrapolazione indica il 2026 o il 2027 come anni plausibili per sistemi IA capaci di eguagliare il livello umano in molti ambiti.

All’altro estremo: Yann LeCun, Chief AI Scientist di Meta, definisce le attuali previsioni sull’AGI “complete delusion.” Sostiene che servano macchine “as smart as a cat” prima di preoccuparsi della superintelligenza, e che siamo lontanissimi. Vede gli attuali modelli linguistici come la dimostrazione che “you can manipulate language and not be smart.”

Sono entrambi vincitori del Turing Award. Entrambi lavorano ogni giorno con sistemi IA di frontiera. Entrambi hanno accesso alla stessa ricerca. La interpretano semplicemente in modo completamente diverso.

Un commentatore su Hacker News, rwaksmunski, ha fatto l’osservazione sardonica che “AGI is still a decade away, and always will be.” Il thread successivo contestava proprio questa cornice, notando che i ricercatori stanno solo ora aggiustando le aspettative verso orizzonti più vicini, sulla base dei progressi osservati. La battuta del “sempre a dieci anni di distanza” potrebbe stare invecchiando proprio perché le tempistiche si stanno comprimendo.

Lavoro: la risposta onesta è che non lo sappiamo

L’IA prenderà il tuo lavoro? Le previsioni vanno dal catastrofico al rassicurante, spesso in base a chi le formula.

Goldman Sachs: “We remain skeptical that AI will lead to large employment reductions over the next decade.”

Dario Amodei: l’IA potrebbe “wipe out half of all entry-level white-collar jobs” e spingere la disoccupazione al 10-20% nei prossimi uno-cinque anni.

Il World Economic Forum: 92 milioni di posti di lavoro sostituiti, 170 milioni di nuovi posti creati, per un saldo positivo di 78 milioni di posizioni entro il 2030.

L’economista del MIT Daron Acemoglu: l’IA sarà pronta a sostituire o supportare in modo pesante “around 5% of jobs over the next decade.”

Non sono previsioni da fare in media aritmetica. Rappresentano modelli radicalmente diversi di come la tecnologia incide sull’occupazione. O la sostituzione avviene gradualmente, con tempo di adattamento, oppure avviene all’improvviso, con una discontinuità enorme. Non sappiamo quale modello si applichi all’IA.

Il presidente della Federal Reserve Jerome Powell, quando gli è stato chiesto di IA e lavoro, ha detto una cosa insolitamente franca: “This may be different.” È il capo della Federal Reserve che riconosce che siamo davvero in territorio inesplorato.

La risposta onesta è che non lo sappiamo, e chiunque rivendichi certezze sugli impatti occupazionali è troppo sicuro di sé. Quello che sappiamo: prepararsi batte prevedere. Organizzazioni e persone che capiscono le capacità dell’IA hanno più opzioni, a prescindere dallo scenario che si realizzerà.

Regolamentazione: la variabile imprevedibile

L’AI Act dell’UE è ora in vigore. La Cina ha implementato regolamentazioni sull’IA. Gli Stati Uniti restano relativamente poco interventisti. Questo mosaico influenzerà lo sviluppo dell’IA in modi che non possiamo prevedere fino in fondo.

La regolamentazione potrebbe rallentare le capacità più pericolose. Potrebbe anche concentrare lo sviluppo dell’IA nelle giurisdizioni con regole più leggere. Potrebbe proteggere i lavoratori. Potrebbe rafforzare gli incumbent. Gli effetti saranno di secondo e terzo ordine in modi che oggi nessuno può mappare con fiducia.

Quello che sembra chiaro: l’ambiente normativo del 2030 non assomiglierà per niente a quello di oggi. La domanda è se renderà possibile uno sviluppo benefico dell’IA limitando i danni, oppure se non riuscirà efficacemente in nessuna delle due cose.

Come ragionare sulle previsioni sull’IA

Un quadro utile: separare il breve periodo dal lungo periodo.

Breve termine (2025-2027): i sistemi attuali miglioreranno. Assistenti alla programmazione, strumenti di scrittura, aiuti alla ricerca, generatori di immagini. Questi miglioramenti sono in gran parte prevedibili a partire dalle traiettorie attuali. Pianifica di conseguenza.

Medio termine (2027-2030): gli agenti potrebbero diventare abbastanza affidabili da svolgere una quota significativa di lavoro autonomo. L’IA multimodale probabilmente gestirà molti colli di bottiglia attuali. Gli impatti economici inizieranno a emergere nei dati occupazionali. Qui la certezza è molto minore.

Lungo termine (2030+): possibilità AGI, scenari di superintelligenza, ristrutturazione economica trasformativa. Incertezza reale. Chiunque dica di sapere cosa succederà qui sta tirando a indovinare.

Un commentatore di Hacker News, massung, ha offerto una previsione che mi è rimasta impressa: “My personal prediction is that the next massive leap in AI is going to be a paradigm shift away from how we train and simulate networks.”

È il tipo di variabile imprevedibile che è difficile incorporare nei calcoli. I progressi attuali derivano dalla scalabilità di approcci già noti. Il prossimo salto potrebbe arrivare da qualcosa di completamente diverso. Oppure potrebbe non arrivare mai. Non lo sappiamo.

Per cosa vale davvero la pena prepararsi

Con tutta questa incertezza, per cosa vale la pena agire adesso?

Impara gli strumenti. Qualunque cosa accada con le tempistiche AGI, le capacità attuali dell’IA sono già utili. Capire come usarle bene produce benefici immediati e ti posiziona meglio per qualunque cosa venga dopo.

Costruisci adattabilità. Le previsioni specifiche saranno sbagliate. La direzione generale di capacità crescenti sembra affidabile. Organizzazioni e persone capaci di adattarsi a capacità che cambiano navigheranno l’incertezza meglio di chi scommette su esiti specifici.

Resta calibrato. Il ciclo del clamore è estenuante. Il ciclo del disfattismo è paralizzante. Nessuno dei due ti aiuta. Guarda a ciò che l’IA fa davvero nella pratica, non a ciò che promettono le demo o temono i critici.

Osserva chi costruisce davvero. Il segnale più affidabile arriva da chi realizza cose reali con l’IA. Quando gli sviluppatori dicono che i coding agent “changed everything”, è più informativo di qualsiasi previsione su quando raggiungeremo l’AGI.

Un utente di Hacker News, mrdependable, ha riassunto una frustrazione comune in un thread del 2025: “I always see these reports about how much better AI is than humans now, but I can’t even get it to help me with pretty mundane problem solving.”

Quel divario tra prestazioni da benchmark e utilità pratica è reale e vale la pena ricordarlo. Il progresso c’è. È solo irregolare, disordinato e spesso iper-pubblicizzato.

La previsione che conta di più

Ecco la mia previsione: tra cinque anni guarderemo questo articolo e alcune previsioni saranno state troppo conservative, altre troppo aggressive, e almeno una cosa sarà successa senza che nessuno l’avesse prevista.

Non è una via di fuga. È la cosa più onesta che posso dire su un campo in cui le persone che sanno di più sono anche quelle che più spesso non sono d’accordo.

L’incertezza è scomoda ma anche chiarificatrice. Significa che il futuro non è ancora determinato. Le scelte che facciamo su come sviluppare e distribuire l’IA contano ancora. I dibattiti sulla sicurezza, sul lavoro, sulla regolamentazione, su chi beneficia di questi sistemi… vale la pena farli proprio perché l’esito non è già scritto.

Quello che è certo: l’IA continuerà a cambiare il modo in cui lavoriamo, creiamo e risolviamo problemi. La natura esatta di questo cambiamento resta davvero aperta. È terrificante o entusiasmante, a seconda della tua disposizione.

Per me è entusiasmante. Ma capisco entrambe le reazioni.


Questo articolo riflette capacità e previsioni sull’IA aggiornate a gennaio 2026. Considerata la velocità di cambiamento in questo campo, alcune informazioni potrebbero essere già superate quando lo leggerai. Per strumenti IA aggiornati e applicazioni pratiche, esplora le nostre guide su come usare l’IA in modo efficace nel tuo lavoro.

Ready For DatBot?

Use Gemini 2.5 Pro, Llama 4, DeepSeek R1, Claude 4, O3 and more in one place, and save time with dynamic prompts and automated workflows.

Top Articles

Come on in, the water's warm

See how much time DatBot.AI can save you