Il dibattito più grande sull’IA, in questo momento, non riguarda le capacità. Riguarda l’accesso.
Il codice e i pesi dietro i modelli di IA più potenti dovrebbero essere pubblici? O dovrebbero restare chiusi dietro API, controllati dalle aziende che li hanno costruiti?
Non è una questione filosofica astratta. La risposta decide chi può costruire con l’IA, quanto costa e chi controlla il futuro della tecnologia.
Ecco di cosa parla davvero lo scontro tra aperto e chiuso.
La distinzione fondamentale
I modelli a codice chiuso tengono privati i loro meccanismi interni. Puoi usare il modello tramite un’API (come ChatGPT o Claude), ma non puoi vedere come funziona, non puoi modificarlo e non puoi eseguirlo da solo. L’azienda controlla tutto.
I modelli open source (o, più precisamente, modelli “a pesi aperti”) rilasciano il modello addestrato perché chiunque possa scaricarlo. Puoi ispezionarlo, modificarlo, metterlo a punto per le tue esigenze specifiche ed eseguirlo sul tuo hardware.
Secondo il confronto tecnico di Hakia, i modelli chiusi sono “AI models whose architecture, training data, and model weights are not publicly available and are owned, hosted, and managed by a vendor.”
La parte open source rende pubblici alcuni o tutti questi componenti.
I principali attori
A codice chiuso:
- OpenAI (GPT-4, GPT-5, ChatGPT)
- Anthropic (Claude)
- Google (Gemini)
Open source/a pesi aperti:
- Meta (famiglia Llama)
- Mistral (Mistral, Mixtral)
- Alibaba (Qwen)
- DeepSeek (modelli DeepSeek)
Non è perfettamente binario. OpenAI ha rilasciato di recente GPT-OSS come modello a pesi aperti. Alcuni modelli “aperti” hanno licenze restrittive. Ma la divisione di base regge.
Perché le aziende tengono i modelli chiusi
Il codice chiuso ha motivazioni commerciali ovvie, ma gli argomenti vanno più a fondo.
Barriera competitiva. Se chiunque può scaricare e usare il tuo modello, che ci guadagni? L’accesso via API ti permette di far pagare l’uso e mantenere un vantaggio.
Timori di sicurezza. OpenAI inizialmente ha trattenuto GPT-2 per preoccupazioni legate agli abusi. L’argomento è che limitare l’accesso impedisce ai malintenzionati di usare un’IA potente per spam, disinformazione o peggio.
Controllo e responsabilità. Quando controlli il modello, puoi implementare salvaguardie, monitorare gli abusi e aggiornare per correggere problemi. I modelli aperti escono dal tuo controllo una volta rilasciati.
Modello di ricavi. I modelli chiusi abilitano prezzi basati sull’uso. Questo ha portato a OpenAI, Anthropic e Google AI ricavi sostanziali.
Perché altri spingono per l’apertura
Il movimento open source ha argomenti altrettanto convincenti.
Trasparenza. Con i modelli aperti, i ricercatori possono studiare come funzionano, individuare bias e capirne i limiti. Secondo l’analisi di Klu sugli LLM open source, la trasparenza permette migliori ricerche sulla sicurezza e più responsabilità.
Innovazione. Quando chiunque può costruire sopra un modello, l’innovazione accelera. Migliaia di sviluppatori possono trovare applicazioni che i creatori originali non avrebbero mai immaginato.
Accessibilità. I modelli aperti possono girare su hardware locale. Conta per la privacy, per chi vive in aree con connessioni scarse e per applicazioni che non possono inviare dati a server di terze parti.
Longevità. Secondo l’analisi di n8n, “self-hosted models don’t become obsolete, unlike closed-source providers who may ‘retire’ older models.” Quando un’azienda depreca un’API, gli utenti corrono ai ripari. Un modello aperto che hai scaricato funziona per sempre.
Costi su larga scala. Per applicazioni ad alto volume, eseguire il tuo modello può costare molto meno delle tariffe API.
La grande scommessa di Meta sull’open source
L’approccio di Meta merita un’attenzione speciale. Hanno rilasciato la famiglia di modelli Llama con licenze relativamente permissive, e questo ha cambiato il panorama.
Secondo il report di Red Hat sullo stato dell’IA open source, “before DeepSeek gained popularity at the beginning of 2025, the open model ecosystem was simpler. Meta’s Llama family of models was quite dominant.”
Perché Meta dovrebbe regalare IA di valore? Alcune ipotesi:
-
Non vendono servizi di IA. A differenza di OpenAI o Google, l’attività di Meta è la pubblicità. Un’IA migliore migliora i loro prodotti senza dover far pagare l’IA direttamente.
-
Mettere in difficoltà i concorrenti. Se un’IA potente è gratuita, i ricavi IA di Google e OpenAI sono minacciati.
-
Costruire un ecosistema. Gli sviluppatori che costruiscono su Llama potrebbero costruire cose che Meta finisce per usare o acquisire.
-
Rendere banale il complemento. Quando l’IA è gratis, la risorsa scarsa diventa qualcos’altro (dati, distribuzione, integrazione) che Meta potrebbe controllare.
Qualunque sia la motivazione, Llama ha dimostrato che i modelli aperti possono competere con quelli chiusi.
Mistral: la sfidante europea
Mistral AI, fondata a Parigi da ex ricercatori di Google DeepMind e Meta AI, ha seguito un’altra strada. Secondo l’analisi di n8n, Mistral “changed the open-source landscape when it released Mistral 7B under the Apache 2.0 licence.”
Ciò che ha reso Mistral notevole non è stato solo il fatto che fosse aperta. È stata l’efficienza. Invece di inseguire il puro numero di parametri, Mistral si è concentrata su innovazioni architetturali che fanno rendere modelli più piccoli come modelli più grandi.
Mixtral 8x7B usa un’architettura “mixture of experts”. Secondo Klu, ha “46.7 billion parameters while actively using only 12.9 billion per token.” Ogni richiesta viene instradata verso sotto-reti specializzate, ottenendo i benefici della scala senza il costo pieno.
Mistral ha raccolto oltre 1 miliardo di dollari mantenendo forti impegni open source, dimostrando che esiste un modello economico nell’IA aperta.
Il divario di prestazioni (o la sua assenza)
I primi modelli open source erano chiaramente inferiori. Questo è cambiato.
Secondo Hakia, “Leading open source models like Llama 3.3 70B and DeepSeek R1 now match GPT-4 level performance in many tasks.”
L’analisi di Clarifai nota che “open source models like Gemma 2, Nemotron-4, and Llama 3.1 have surpassed proprietary counterparts such as GPT-3.5 Turbo and Google Gemini in versatility.”
Il divario tra il migliore aperto disponibile e il migliore chiuso disponibile si è ristretto drasticamente. Per molte applicazioni pratiche, le opzioni aperte sono abbastanza buone.
Il vero confronto dei costi
Il costo è complicato. Non è solo una questione di prezzo a listino.
Costi del codice chiuso:
- Paghi per token (a consumo)
- Prevedibile per singola richiesta ma imprevedibile su larga scala
- Nessuna infrastruttura da gestire
- I costi possono essere volatili (i prezzi cambiano, entrano in gioco limiti di frequenza)
Costi dell’open source:
- Investimento hardware (GPU)
- Tempo di ingegneria per distribuire e mantenere
- Elettricità e ospitazione
- Prevedibile una volta impostato
Secondo l’analisi di Hakia, “for low-volume applications (under 1M tokens/month), closed APIs are more cost-effective when factoring in infrastructure and engineering costs. High-volume applications see massive savings with self-hosted open models.”
Il punto di pareggio varia, ma per un uso serio in produzione i modelli aperti spesso vincono sui costi.
Privacy dei dati e controllo
Per molte organizzazioni, l’argomento davvero convincente per l’open source non è il costo. È il controllo.
Con un’API chiusa, i tuoi dati passano attraverso i server di qualcun altro. Le tue richieste, i tuoi documenti, le informazioni dei tuoi clienti: tutto elaborato da una terza parte.
Con un modello aperto che gira sulla tua infrastruttura, i dati non escono mai dal tuo controllo. Questo conta per:
- Organizzazioni sanitarie con dati dei pazienti
- Servizi finanziari con informazioni sui clienti
- Studi legali con materiali riservati
- Qualsiasi azienda con segreti commerciali
- Agenzie governative con informazioni classificate
L’analisi di Instaclustr enfatizza la “data sovereignty” come beneficio chiave dei modelli aperti. Non stai affidando i tuoi dati a una terza parte.
Il vantaggio della messa a punto
I modelli aperti ti permettono di personalizzare in modi che quelli chiusi non consentono.
La messa a punto significa addestrare ulteriormente un modello sui tuoi dati specifici. Uno studio legale potrebbe metterlo a punto su documenti legali. Un’azienda medica su note cliniche. Un rivenditore su trascrizioni dell’assistenza clienti.
Secondo l’analisi di Elephas, i modelli aperti offrono “better fine-tuning accuracy due to flexible customization of local model parameters.”
I modelli chiusi a volte offrono la messa a punto, ma è limitata. Non puoi accedere ai pesi sottostanti. Stai facendo messa a punto tramite l’interfaccia dell’API, non sul modello stesso.
Lo scossone di DeepSeek
All’inizio del 2025, DeepSeek è emersa come una forza importante. L’azienda cinese ha rilasciato modelli che competevano con il meglio di OpenAI e Google.
Secondo la panoramica di Hugging Face, DeepSeek R1 è tra i “10 Best Open-Source LLM Models” insieme a Llama 4 e Qwen 3.
L’emergere di DeepSeek ha complicato la narrativa. Ha mostrato che la leadership nell’IA non era garantita restare nelle mani di aziende statunitensi. Ha anche dimostrato che team di talento con meno risorse possono competere grazie a ingegneria intelligente.
Il report di Red Hat nota che “total model downloads switched from USA-dominant to China-dominant during the summer of 2025.”
I modelli piccoli migliorano
Una delle tendenze più importanti è che i modelli piccoli stanno migliorando rapidamente.
Secondo Red Hat, “perhaps the biggest win for AI in 2025 has been the advancement of small language models (SLMs) that can run on almost any consumer device, including mobile phones.”
Questo è enorme per l’open source. Se ti serve un modello da 70 miliardi di parametri, ti serve hardware serio. Se un modello da 7 miliardi fa il lavoro, puoi farlo girare su un portatile.
L’ultimo modello Llama 3.3 70B offre prestazioni comparabili al modello da 405B parametri a una frazione del costo computazionale. Modelli più piccoli ed efficienti rendono l’ospitazione in proprio più pratica per più persone.
Implicazioni aziendali
Se stai decidendo tra aperto e chiuso per la tua organizzazione, ecco le considerazioni chiave:
Scegli il codice chiuso se:
- Hai volumi bassi o moderati
- Vuoi il minimo di oneri operativi
- Ti servono le capacità davvero all’avanguardia
- Ti va bene che i dati escano dalla tua infrastruttura
- Vuoi che qualcun altro gestisca sicurezza e aggiornamenti
Scegli l’open source se:
- Hai volumi alti e il costo conta
- La privacy o la sovranità dei dati è critica
- Devi personalizzare il modello per il tuo caso d’uso
- Vuoi controllo sulla tua infrastruttura di IA
- Stai costruendo IA dentro prodotti che vendi
Molte organizzazioni finiscono per usare entrambi. API chiuse per prototipare e per uso a basso volume. Modelli aperti per la scala in produzione o per dati sensibili.
Cosa significa per il futuro
Il dibattito tra aperto e chiuso plasmerà il futuro dell’IA.
Se vince il codice chiuso: Poche aziende controllano l’IA più potente. Diventano i guardiani di chi può costruire cosa. Concentrazione di potere nei giganti tecnologici.
Se vince l’aperto: L’IA diventa un’infrastruttura che chiunque può usare. Innovazione più distribuita. Più difficile da controllare o regolamentare. Più potenziale di abuso, ma anche più trasparenza.
La realtà più probabile: Da qualche parte nel mezzo. I modelli chiusi probabilmente resteranno alla frontiera. I modelli aperti saranno abbastanza capaci per la maggior parte degli scopi. Il divario sarà abbastanza stretto che la scelta riguarderà i compromessi, non le capacità.
Per il contesto completo su come l’IA è arrivata fin qui, vedi Cronologia dell’IA: dal 1950 a oggi. Per dove potrebbe andare, vedi Cosa c’è dopo per l’IA: 2025-2030.
La battaglia tra aperto e chiuso non riguarda solo le architetture tecniche. Riguarda chi può costruire il futuro e quanto costa. L’esito riguarda chiunque usi l’IA, il che significa sempre di più: tutti.