Quali dati raccoglie ChatGPT?
Quando usi ChatGPT, OpenAI raccoglie molto più del semplice testo che scrivi nella finestra di chat. Secondo la loro informativa sulla privacy, i dati raccolti rientrano in diverse categorie:
- Contenuto delle conversazioni — ogni prompt che invii e ogni risposta che ricevi, compresi eventuali dati personali inclusi nei tuoi messaggi.
- Informazioni sull'account — il tuo nome, indirizzo email, numero di telefono e dati di pagamento se sottoscrivi un piano a pagamento.
- Dati di utilizzo — il tuo indirizzo IP, tipo di browser, informazioni sul dispositivo e pattern di interazione come timestamp, frequenza d'uso e funzionalità utilizzate.
- Cookie e tracciamento — dati standard di web analytics usati per il monitoraggio delle prestazioni e la pubblicità.
La principale preoccupazione per la maggior parte degli utenti riguarda la prima categoria. Qualsiasi informazione personale che incolli nella chat — che appartenga a te, a un collega o a un cliente — diventa parte del dataset di OpenAI, a meno che tu non disattivi esplicitamente la raccolta dei dati di addestramento.
La policy sui dati di OpenAI: cosa dicono le clausole
I termini di servizio e l'informativa sulla privacy di OpenAI si sono evoluti dal lancio di ChatGPT. A inizio 2026, i punti più importanti sono:
- Addestramento attivo per impostazione predefinita. Per gli utenti Free e Plus, le conversazioni possono essere utilizzate per migliorare i modelli di OpenAI, a meno che non si disabiliti l'opzione "Migliora il modello per tutti" nelle impostazioni. Molti utenti non modificano mai questa impostazione predefinita.
- Eccezioni Enterprise. I clienti ChatGPT Enterprise e API ottengono garanzie contrattuali più solide sul fatto che i loro dati non verranno usati per l'addestramento. Ma gli utenti individuali e i piccoli team in genere non beneficiano di queste protezioni.
- Conservazione dei dati. Anche con l'addestramento disabilitato, OpenAI conserva le conversazioni fino a 30 giorni per il monitoraggio della sicurezza e la prevenzione degli abusi prima della cancellazione.
- Revisori umani. Dipendenti e collaboratori di OpenAI possono esaminare le conversazioni per la ricerca sulla sicurezza. Questo significa che una persona reale potrebbe potenzialmente leggere i tuoi messaggi.
Tutto ciò non è necessariamente malevolo — ogni grande azienda IA ha politiche simili. Ma significa che qualsiasi informazione personale identificabile (PII) inserita potrebbe essere archiviata, esaminata e potenzialmente utilizzata in modi non previsti.
I rischi reali di incollare dati personali nei chatbot IA
Fughe di dati attraverso le risposte del modello
I modelli linguistici di grandi dimensioni possono memorizzare e successivamente riprodurre frammenti dei dati di addestramento. I ricercatori hanno dimostrato che, con le giuste tecniche di prompting, è talvolta possibile estrarre dati di addestramento dai modelli. Se le tue informazioni personali sono state incluse nell'addestramento, potrebbero teoricamente emergere nella conversazione di un altro utente.
Esposizione da violazione
A marzo 2023, un bug del client Redis ha esposto i titoli delle conversazioni, le informazioni di pagamento e gli indirizzi email degli utenti di ChatGPT ad altri utenti. Qualsiasi archivio centralizzato di dati è un potenziale bersaglio per le violazioni, e le aziende IA non fanno eccezione. Più dati personali contiene il sistema, più dannosa diventa una violazione.
Rischio normativo e legale
Se lavori nella sanità, nella finanza o nei servizi legali, incollare i dati dei clienti in ChatGPT potrebbe violare normative come il GDPR, l'HIPAA o gli obblighi di riservatezza professionale. L'Italia ha temporaneamente bloccato ChatGPT nel 2023 per preoccupazioni legate al GDPR, e diversi paesi hanno avviato indagini sulle pratiche di trattamento dati dell'IA.
La fuga di Samsung: un caso emblematico
Ad aprile 2023, alcuni dipendenti Samsung hanno involontariamente divulgato codice sorgente riservato e note di riunioni interne incollandoli in ChatGPT. I dati sono entrati nella pipeline di addestramento e Samsung non ha potuto recuperarli o cancellarli.
Questo incidente ha segnato una svolta nelle politiche aziendali sull'IA. Samsung ha successivamente vietato l'uso di strumenti di IA generativa sui dispositivi aziendali, e molte altre organizzazioni hanno seguito l'esempio. La lezione era chiara: una volta che i dati vengono inviati a un servizio IA cloud-based, se ne perde il controllo.
Il caso Samsung riguardava dati aziendali proprietari, ma lo stesso rischio si applica ai dati personali. Se incolli la cartella clinica di un cliente, i dettagli finanziari di un consumatore o l'email personale di un dipendente in un chatbot, quelle informazioni potrebbero restare nei sistemi del provider a tempo indefinito.
Come proteggersi
Non è necessario smettere di usare gli strumenti IA — sono davvero utili. Ma è importante adottare abitudini che minimizzino il rischio:
- Disabilita la condivisione dei dati di addestramento. Nelle impostazioni di ChatGPT, disattiva "Migliora il modello per tutti." Questo non elimina tutta la conservazione dei dati, ma impedisce che le tue conversazioni finiscano nell'addestramento dei modelli futuri.
- Non incollare mai PII in chiaro. Prima di inviare un prompt contenente nomi, email, numeri di telefono, indirizzi o dati finanziari, sostituiscili con segnaposto. Invece di "Scrivi un'email a Mario Rossi a [email protected]," scrivi "Scrivi un'email a [NOME] a [EMAIL]."
- Usa chat temporanee o anonime. La modalità chat temporanea di ChatGPT riduce la conservazione dei dati. Valuta di usarla per qualsiasi conversazione che coinvolga informazioni sensibili.
- Controlla i tuoi prompt. Prima di premere invio, rileggi il messaggio. Saresti a tuo agio se questo testo comparisse in un report di violazione dati? Se no, rimuovi le parti sensibili.
- Automatizza l'anonimizzazione. La redazione manuale è noiosa e soggetta a errori. Gli strumenti che rilevano e mascherano automaticamente i PII prima che raggiungano il provider IA offrono un approccio più affidabile, soprattutto se usi i chatbot frequentemente.
Automatizza la tua privacy con un'estensione del browser
Controllare manualmente ogni prompt alla ricerca di dati personali non è realistico per la maggior parte delle persone, soprattutto per i professionisti che usano l'IA decine di volte al giorno. È il problema che Private Prompt è stato creato per risolvere.
Private Prompt è un'estensione del browser che rileva e anonimizza automaticamente i dati personali — nomi, email, numeri di telefono, indirizzi e dati finanziari — prima che i tuoi prompt lascino il browser. L'anonimizzazione avviene localmente sul tuo dispositivo, quindi i dati sensibili non raggiungono mai OpenAI, Anthropic o qualsiasi altro provider IA. Quando arriva la risposta, l'estensione ripristina i valori originali in modo da mostrarti il contesto completo.
Funziona con ChatGPT, Claude, Gemini e altri chatbot IA popolari senza necessità di configurazione. Se vuoi usare l'IA senza compromettere la tua privacy o quella dei tuoi clienti, vale la pena dargli un'occhiata.
Tieni i tuoi dati personali fuori dai set di addestramento IA
Private Prompt anonimizza i tuoi prompt automaticamente, direttamente nel tuo browser. Nessun dato lascia il tuo dispositivo senza protezione.
Scopri di più su Private Prompt
Private Prompt