Gli ingegneri di Samsung hanno incollato codice sorgente riservato in ChatGPT mentre facevano debug. Avevano bisogno di aiuto. In cambio hanno ottenuto una crisi di conformità. L’azienda in seguito ha vietato lo strumento del tutto dopo aver scoperto la fuga. Non era malizia. Era la comodità che batteva la prudenza, ed è esattamente così che avviene la maggior parte degli incidenti di privacy dei dati legati all’IA.
Quando digiti qualcosa in uno strumento di IA, dove va a finire? La risposta dipende molto da quale strumento stai usando, se sei su un piano per consumatori o aziendale, e se qualcuno nella tua organizzazione ha davvero letto i termini di servizio, cosa che la ricerca suggerisce che quasi nessuno faccia in modo significativo.
Il percorso dei dati che quasi nessuno considera
Ogni prompt che invii a un sistema di IA diventa un dato che viene elaborato da qualche parte. Per strumenti di IA nel cloud come ChatGPT, Claude o Gemini, il tuo input viaggia verso server remoti. Viene archiviato. Può essere revisionato. Potrebbe contribuire all’addestramento di modelli futuri. I dettagli cambiano a seconda del fornitore, ma lo schema generale resta.
Le versioni per consumatori di questi strumenti di solito operano con condizioni che consentono un uso più ampio dei tuoi input. Un commentatore su Hacker News con il nickname l33tman lo ha detto senza giri di parole: “OpenAI explicitly say that your Q/A on the free ChatGPT are stored and sent to human reviewers.” Un altro commentatore, jackson1442, ha aggiunto contesto: “Their contractors can (and do!) see your chat data to tune the model.”
Non sono accuse. Sono descrizioni di come funzionano i prodotti. Il livello gratuito si finanzia attraverso il valore dei dati che fornisci.
Le versioni aziendali funzionano diversamente. Quando OpenAI ha lanciato ChatGPT Enterprise, l’utente di Hacker News ajhai ne ha sottolineato l’importanza: “Explicitly calling out that they are not going to train on enterprise’s data and SOC2 compliance is going to put a lot of the enterprises at ease.” La distinzione conta enormemente per le organizzazioni che gestiscono informazioni sensibili.
Quali tipi di dati creano rischio
Non tutti i dati hanno lo stesso peso in termini di conformità. Le informazioni personali su individui identificabili attivano i requisiti più severi sia nel GDPR sia nel CCPA. Questo include nomi, indirizzi email, numeri di telefono e cronologie di acquisto. Ma include anche categorie meno ovvie come indirizzi IP, identificatori del dispositivo e schemi comportamentali che potrebbero identificare qualcuno se combinati con altri dati.
Il professor Uri Gal dell’Università di Sydney inquadra il problema dei dati di addestramento in modo netto: “ChatGPT was fed some 300 billion words systematically scraped from the internet: books, articles, websites and posts, including personal information obtained without consent.” Aggiunge ciò che rende tutto questo particolarmente preoccupante dal punto di vista dei diritti: “OpenAI offers no procedures for individuals to check whether the company stores their personal information, or to request it be deleted.”
Quando incolli dati dei clienti in uno strumento di IA per consumatori, potresti stare aggiungendo quei dati a set di addestramento senza alcun modo per recuperarli o rimuoverli in seguito. I dati scorrono in una sola direzione. Non esiste un pulsante annulla che arrivi davvero fino ai pesi del modello.
Requisiti del GDPR in parole semplici
Il Regolamento generale sulla protezione dei dati si basa su un principio semplice che crea obblighi complessi. Ti serve una base giuridica prima di trattare dati personali. Il consenso è la base più comune, ma deve essere libero, specifico, informato e inequivocabile. Nascondere una clausola di condivisione dei dati con l’IA nel paragrafo 47 dei termini di servizio non vale.
Per l’IA in particolare, il GDPR crea diversi punti di attrito. L’articolo 22 limita le decisioni completamente automatizzate che incidono in modo significativo sulle persone. Se un sistema di IA decide chi ottiene un prestito, o chi vede annunci di lavoro, o quale prezzo paga qualcuno, potrebbe essere necessaria una revisione umana. La persona può chiedere una spiegazione della logica coinvolta.
Il diritto alla cancellazione presenta sfide tecniche che molti sistemi di IA non sono stati progettati per gestire. Quando qualcuno chiede la cancellazione dei propri dati, quella richiesta dovrebbe estendersi ai set di addestramento, ma rimuovere l’influenza di una persona specifica da un modello addestrato su milioni di esempi non è semplice. Alcuni sostengono che, con la tecnologia attuale, sia di fatto impossibile.
Una discussione su Hacker News del 2018 ha esplorato se il GDPR renderebbe illegale il machine learning. L’utente ThePhysicist ha chiarito il requisito reale: “automated decision making is allowed under the GDPR, it just gives the data subject the right to demand a manual assessment.” La legge non vieta l’IA. Pretende responsabilità. Un altro commentatore, bobcostas55, ha identificato la tensione di fondo: “Our most accurate models are unintelligible, and our most intelligible models are inaccurate. There’s a trade-off.”
L’applicazione ha i denti. Le multe cumulative del GDPR hanno superato i 5,88 miliardi di euro. L’autorità italiana per la protezione dei dati ha multato OpenAI per 15 milioni di euro nel 2025 per le pratiche di raccolta dati di ChatGPT, imponendo una campagna di sensibilizzazione pubblica di sei mesi sulle tutele della privacy.
Il CCPA parte da un approccio diverso
La legge californiana sulla privacy parte da una premessa diversa. Il GDPR richiede un consenso esplicito prima del trattamento. Il CCPA consente il trattamento per impostazione predefinita, ma dà ai consumatori il diritto di opporsi alla vendita o alla condivisione dei dati. L’effetto pratico: le aziende europee hanno bisogno di permesso prima, mentre le aziende californiane hanno bisogno di meccanismi di opposizione che funzionino.
Per gli strumenti di IA, il concetto di “condivisione” crea complicazioni. Se usi un’IA di terze parti per analizzare dati dei clienti, questo potrebbe costituire condivisione ai sensi del CCPA, attivando l’obbligo di offrire l’opposizione. I tuoi clienti potrebbero avere un diritto legale a impedire che le loro informazioni finiscano nei sistemi di IA che usi per scopi aziendali.
A partire da gennaio 2026, le nuove regole californiane sull’Automated Decision-Making Technology aggiungono un ulteriore livello. I consumatori ottengono il diritto di opporsi all’ADMT per decisioni significative che riguardano salute, lavoro, casa, credito, istruzione o assicurazione. Le applicazioni di marketing in gran parte restano fuori da questa categoria, ma il confine non è sempre chiaro.
La California Privacy Protection Agency ha emesso nel 2025 multe record superiori a 1,3 milioni di dollari. L’applicazione delle regole sta accelerando, non si sta stabilizzando.
Strumenti aziendali contro strumenti per consumatori
Il divario tra prodotti di IA aziendali e per consumatori non riguarda solo le funzionalità. Riguarda la gestione dei dati, la responsabilità e cosa succede quando le cose vanno male.
ChatGPT per consumatori, a fine 2024, ha rimosso la possibilità per gli utenti Free e Plus di disattivare la cronologia chat. Tutto ciò che scrivi viene conservato a meno che tu non lo elimini manualmente. Gli abbonati Enterprise e Team possono disattivare, con dati eliminati dopo 30 giorni. Non è una differenza piccola. È un cambio radicale su chi controlla le tue informazioni.
L’utente di Hacker News paxys ha colto la distinzione: “There’s a huge difference between trusting a third party service with strict security agreements in place vs one that can legally do whatever they want.” L’utente _jab ha messo in dubbio persino le tutele enterprise: “‘all conversations are encrypted … at rest’ - why do conversations even need to exist at rest?”
I piani aziendali in genere includono conformità SOC 2, single sign-on SAML, controlli di accesso basati sui ruoli e console di amministrazione per monitorare l’utilizzo. L’utente ttul ha notato il beneficio operativo: “If your organization is SOC2 compliant, using other services that are also compliant is a whole lot easier.”
La differenza di prezzo conta meno della differenza di responsabilità. Quando un dipendente incolla informazioni riservate in ChatGPT per consumatori, la tua organizzazione potrebbe non avere alcun rimedio. Quando fa la stessa cosa in un ambiente aziendale con accordi di trattamento dati adeguati, almeno hai tutele contrattuali e catene di responsabilità più chiare.
Il problema dell’IA ombra
Le policy formali non significano nulla se i dipendenti le aggirano. E lo fanno. Continuamente.
Un report del 2025 ha rilevato che il 77% dei dipendenti aveva condiviso informazioni aziendali con ChatGPT, con dati sensibili che costituivano il 34,8% degli input. Non sono necessariamente violazioni di policy perché molte organizzazioni non hanno ancora definito policy chiare sull’IA. Sono solo persone che cercano di fare il lavoro più in fretta.
Un commentatore su Hacker News, w_for_wumbo, ha articolato la sfida gestionale: “You can’t just tell people not to use it, or to use it responsibly. Because there’s too much incentive for them to use it.” Quando gli strumenti di IA offrono veri guadagni di produttività, il divieto crea pressione di conformità che alla fine si rompe.
L’utente cuuupid, che si identifica come contractor federale, ha descritto un ambiente più rigido: “We block ChatGPT, as do most federal contractors. I think it’s a horrible exploit waiting to happen.” Ma anche bloccare a livello di firewall copre solo un vettore. I dispositivi mobili su reti personali aggirano del tutto i controlli aziendali.
La risposta realistica non è il divieto. È offrire alternative approvate che soddisfino sia i requisiti di usabilità sia quelli di conformità. Se i dipendenti hanno accesso a strumenti di IA aziendali che funzionano bene, la tentazione di usare alternative per consumatori diminuisce, anche se non scompare mai del tutto.
Che aspetto ha davvero la conformità
La conformità non è una lista di spunte. È un processo continuo di mappatura dei flussi di dati, valutazione dei rischi, implementazione dei controlli e risposta ai cambiamenti. Per l’IA in particolare, questo significa diverse attività concrete.
Censisci gli strumenti di IA. Ogni sistema che tratta dati personali deve essere documentato. Questo include strumenti ovvi come ChatGPT e Claude, ma anche funzionalità di IA incorporate in altri software. Il lead scoring predittivo del tuo CRM è un sistema di IA. L’ottimizzazione dell’orario di invio della tua piattaforma email è un sistema di IA. La modellazione dell’attribuzione del tuo strumento di analisi potrebbe essere un sistema di IA.
Mappa i flussi dei dati. Per ogni strumento, traccia quali informazioni entrano, da dove arrivano, dove vengono archiviate e chi può accedervi. Questo esercizio spesso rivela sorprese. I dati personali finiscono in luoghi che nessuno ha autorizzato esplicitamente perché era comodo e nessuno ha fatto domande difficili.
Definisci le basi giuridiche. Nel GDPR, i legittimi interessi possono giustificare parte del trattamento con IA, ma servono valutazioni documentate che dimostrino che i tuoi interessi non prevalgono sui diritti delle persone. Nel CCPA, capisci quando devono attivarsi i meccanismi di opposizione. Documenta il tuo ragionamento, così puoi spiegarlo in seguito se i regolatori te lo chiedono.
Aggiorna le informative sulla privacy. Un linguaggio generico su cookie e analitica non copre il trattamento con IA. La tua informativa dovrebbe spiegare quali sistemi di IA usi, come scorrono i dati personali attraverso di essi e come le persone possono esercitare i propri diritti. L’utente thomassmith65 su Hacker News ha criticato il design dell’interfaccia di ChatGPT: “turning ‘privacy’ on is buried in the UI; turning it off again requires just a single click.” Le tue informative dovrebbero essere più lineari.
Forma il personale. Chiunque potrebbe incollare dati dei clienti in uno strumento di IA deve capire cosa può e cosa non può fare. Questa formazione deve essere pratica, non teorica. Mostra loro quali strumenti sono approvati. Mostra cosa succede quando usano alternative non approvate. Rendi la scelta giusta la scelta facile.
Preparati alle richieste degli interessati. Quando qualcuno esercita il proprio diritto di accesso o cancellazione, la tua risposta deve coprire i sistemi di IA, non solo i database tradizionali. Operativamente è più difficile perché i sistemi di IA spesso non hanno meccanismi puliti per recuperare o rimuovere i dati di individui specifici.
Il problema più profondo che nessuno ha risolto
I quadri di conformità presumono che tu sappia quali dati hai e dove vanno. I sistemi di IA complicano entrambe le ipotesi.
I dati di addestramento creano un registro permanente che non si può modificare facilmente. Se un modello ha appreso schemi da informazioni personali che dovevano essere cancellate, l’influenza resta anche se i dati originali spariscono. Non abbiamo meccanismi tecnici per un disapprendimento mirato che i regolatori accetterebbero come cancellazione reale.
I dati inferenziali creano nuove categorie di informazioni personali a partire da dati esistenti. I sistemi di IA non si limitano a trattare ciò che gli dai. Derivano intuizioni, previsioni e profili che potrebbero costituire essi stessi dati personali soggetti ai diritti di privacy. Lo status legale di queste inferenze generate dall’IA resta contestato.
L’utente ChatGTP su Hacker News ha espresso il rischio sistemico: “We cannot live in a world where basically all commercial information, all secrets are being submitted to one company.” La concentrazione dei dati in pochi fornitori di IA crea dipendenze che vanno oltre le preoccupazioni di privacy individuale e toccano questioni di potere economico e dinamiche competitive.
L’utente strus ha indicato la posta in gioco della conformità: “Proven leak of source code may be a reason to revoke certification. Which can cause serious financial harm to a company.” Le conseguenze non sono ipotetiche. Le organizzazioni hanno perso certificazioni, contratti e accesso al mercato per fallimenti nella gestione dei dati.
Il panorama normativo emergente
Le regole continuano a evolversi più velocemente di quanto la maggior parte dei programmi di conformità riesca ad adattarsi. L’AI Act dell’UE crea nuovi requisiti per i sistemi di IA ad alto rischio a partire da agosto 2026, sovrapponendosi agli obblighi del GDPR senza sostituirli. Altre tre leggi statali statunitensi sulla privacy sono entrate in vigore nel 2026, aggiungendosi alle otto del 2025, ciascuna con requisiti leggermente diversi.
Un Executive Order del dicembre 2025 ha stabilito una politica federale per prevaricare le normative statali sull’IA che ostacolano la competitività nazionale. Non è chiaro come i tribunali interpreteranno questo punto. Per ora, le organizzazioni prudenti assumono di dover rispettare sia i requisiti statali sia quelli federali finché non si materializza una specifica prevaricazione.
L’utente amelius su Hacker News ha evidenziato un ostacolo pratico che molte organizzazioni affrontano: “Except many companies deal with data of other companies, and these companies do not allow the sharing of data.” Gli obblighi verso terze parti spesso superano i minimi normativi. I tuoi contratti potrebbero vietare trattamenti con IA che la legge, tecnicamente, permetterebbe.
Dove ci lascia tutto questo
Gli ingegneri di Samsung che hanno incollato codice sorgente in ChatGPT non erano persone negligenti che agivano in modo sconsiderato. Erano professionisti competenti che usavano uno strumento che sembrava ragionevole per il loro lavoro. Il fallimento di conformità non era davvero il loro. Era organizzativo, un divario tra gli strumenti disponibili e le policy stabilite che li lasciava a fare scelte di giudizio senza guida.
La maggior parte degli incidenti di privacy dei dati con l’IA segue questo schema. Non sono violazioni nel senso tradizionale, non sono hacker che rubano informazioni o insider che vendono segreti. Sono decisioni di comodità prese da persone che non capivano fino in fondo dove andavano i loro dati o cosa sarebbe successo quando ci sarebbero arrivati.
L’utente libraryatnight su Hacker News ha espresso l’ansia di fondo: “We’re just waiting for some company’s data to show up remixed into an answer for someone else.” Che quello scenario specifico si realizzi o meno conta meno dell’incertezza che rappresenta. Quando i dati scorrono nei sistemi di IA con conservazione poco chiara, uso per l’addestramento poco chiaro e capacità di cancellazione poco chiare, le conseguenze di lungo periodo diventano davvero insondabili.
La conformità, in questo ambiente, richiede accettare che un controllo perfetto non è raggiungibile. I dati scorreranno in direzioni inattese. I dipendenti useranno strumenti non autorizzati. Le regole cambieranno più velocemente di quanto le policy possano adattarsi. Le organizzazioni che navigano tutto questo con successo non raggiungono la conformità come una destinazione. La mantengono come una pratica, aggiustandosi continuamente alle nuove informazioni su dove vanno i dati e cosa succede quando ci arrivano.
La domanda non è se l’IA e la privacy possano coesistere. Coesistono già, in modo imperfetto, con attrito e incertezza e una negoziazione continua tra comodità e controllo. La domanda è se la tua organizzazione capisce la propria posizione in quella negoziazione abbastanza bene da fare scelte informate su dove dovrebbero stare i confini.