ChatGPT e Privacy: i dati sensibili da non condividere mai con l’AI

L’intelligenza artificiale è diventata il braccio destro di milioni di persone per scrivere email, riassumere documenti o programmare codice. Tuttavia, la comodità di ChatGPT nasconde un’insidia spesso sottovalutata: la gestione della privacy e dei dati che immettiamo volontariamente nelle chat.


Come vengono usati i tuoi dati

Quando interagisci con ChatGPT, ogni parola inviata non scompare nel nulla. OpenAI, l’azienda sviluppatrice, utilizza le conversazioni degli utenti per addestrare i propri modelli linguistici e migliorare le risposte future. Questo processo avviene di default per tutti gli account gratuiti e per gli abbonati Plus, a meno che non venga disattivata manualmente la cronologia.

Il rischio principale non è un attacco hacker esterno, ma il fatto che i tuoi dati sensibili possano essere rielaborati dall’AI e, potenzialmente, mostrati sotto forma di risposta a un altro utente. Sebbene OpenAI utilizzi filtri per anonimizzare le informazioni, il sistema non è infallibile.


La lista nera: cosa non scrivere mai

Per proteggere la propria identità e la sicurezza professionale, ci sono alcune categorie di informazioni che dovrebbero restare rigorosamente fuori dal prompt:

  • Dati aziendali e segreti commerciali: Caricare un report finanziario non ancora pubblico o un codice sorgente proprietario per trovare bug può esporre l’azienda a fughe di notizie.
  • Informazioni sanitarie: Descrivere sintomi specifici o caricare referti medici viola la tua privacy più intima.
  • Credenziali e password: Sembra scontato, ma incollare stringhe di codice che contengono chiavi di accesso (API keys) o password è un errore comune tra i programmatori.
  • Dati personali identificativi (PII): Indirizzi di casa, numeri di telefono o dettagli fiscali non sono necessari per il funzionamento dell’AI.

Esempio pratico: Se chiedi a ChatGPT di “scrivere una lettera di licenziamento per il dipendente Mario Rossi dell’azienda X”, quel dato viene registrato. È molto più sicuro chiedere: “Scrivi un modello generico di lettera di licenziamento per motivi disciplinari”.


Come proteggersi subito

Attualmente, le funzioni di protezione della privacy sono disponibili a livello globale, Italia inclusa. Esistono tre modi principali per limitare la condivisione dei dati:

  1. Disattivare la cronologia: Nelle impostazioni di ChatGPT, puoi disattivare “Cronologia e addestramento”. In questo modo, le chat non verranno usate per istruire l’AI, anche se OpenAI le conserverà per 30 giorni per monitorare eventuali abusi prima della cancellazione definitiva.
  2. Modalità Temporanea: Una funzione simile alla “navigazione in incognito”, dove i dati non vengono salvati né usati per l’addestramento.
  3. ChatGPT Enterprise o Team: Queste versioni a pagamento per aziende garantiscono per contratto che i dati inseriti non escano mai dal perimetro aziendale e non vengano usati per l’addestramento globale.

Cosa resta da chiarire

Nonostante i passi avanti, resta un’area grigia: la capacità dell’AI di fare “inferenza”. Anche se non scrivi il tuo nome, l’incrocio di dettagli specifici sulla tua vita o sul tuo lavoro potrebbe permettere a un modello avanzato di risalire alla tua identità. La regola d’oro resta quindi la prudenza: tratta ChatGPT come un collaboratore esterno di cui non conosci la fedeltà assoluta.

By Antonio Capobianco

Antonio Capobianco segue tecnologia consumer, app, intelligenza artificiale, sicurezza online e strumenti digitali. Su ItaliaGlobale cura notizie tech, guide pratiche e approfondimenti su piattaforme, servizi online e vita digitale.

Leggi anche