I chatbot basati sull’intelligenza artificiale stanno diffondendo numeri di cellulare reali degli utenti, spesso associandoli a servizi sbagliati o rendendoli visibili a chiunque. Il fenomeno colpisce i principali strumenti come Gemini e ChatGPT, sollevando nuovi timbri sulla gestione dei nostri dati sensibili.

Il caso: il tuo numero in pasto all’IA
Immaginate di ricevere decine di telefonate da sconosciuti che cercano un fabbro, un avvocato o l’assistenza clienti di un’app di pagamenti, convinti che il vostro numero sia quello ufficiale. Non è un’ipotesi remota, ma ciò che sta accadendo a diversi utenti in tutto il mondo.
Il problema nasce dalla natura stessa dei Large Language Models (LLM). Questi sistemi vengono addestrati setacciando miliardi di dati pubblicati sul web nel corso degli anni. Se il vostro numero di telefono è apparso anche solo una volta in un vecchio forum, in un annuncio di lavoro del 2015 o in un registro professionale, l’intelligenza artificiale potrebbe averlo “memorizzato” e potrebbe riproporlo oggi come risposta a una query di un altro utente.
- YouTube Brandcast 2026: l’AI e i nuovi Creator Show sfidano la TV
- IA e Cyber-sicurezza: Palo Alto scova il 700% di bug in più
- Il prefisso +62 e l’era delle “esche digitali”: come sta cambiando la nostra percezione dei messaggi
Come l’IA espone i tuoi dati
L’aspetto più preoccupante non è solo la capacità dei chatbot di recuperare informazioni reali, ma il modo in cui le combinano in modo errato, fenomeno noto come “allucinazione”. Ecco alcuni esempi concreti registrati negli ultimi mesi:
- Assistenza clienti errata: In Israele, Google Gemini ha fornito il numero WhatsApp privato di uno sviluppatore a un utente che cercava assistenza per l’app PayBox. Lo sviluppatore, del tutto estraneo all’azienda, si è ritrovato inondato di richieste di supporto tecnico.
- Ricerche mirate: Alcuni ricercatori dell’Università di Washington sono riusciti a farsi dare da Gemini il numero di cellulare di una collega semplicemente chiedendo le sue informazioni di contatto.
- Aggiramento dei blocchi: Nonostante OpenAI applichi filtri per proteggere i dati personali (PII), i test dimostrano che ChatGPT può essere indotto a rivelare indirizzi di casa e numeri privati se l’utente fornisce piccoli indizi di partenza, come il quartiere di residenza.
Cosa cambia per gli utenti
Per chi utilizza queste tecnologie o semplicemente naviga sul web, il paradigma della privacy sta cambiando radicalmente. Se prima un’informazione datata finiva sepolta nelle ultime pagine dei motori di ricerca, oggi l’IA è in grado di “riesumarla” e portarla in primo piano in pochi secondi.
Il rischio principale è che il proprio numero privato diventi di dominio pubblico, esponendo le persone a:
- Spam e chiamate moleste: Incremento di telefonate commerciali o da parte di sconosciuti.
- Truffe mirate: Malintenzionati potrebbero spacciarsi per tecnici o conoscenti avendo accesso a dati personali verificati dall’IA.
- Molestie: Una volta che un numero è associato a un nome o a una professione errata, fermare il flusso di contatti diventa estremamente difficile.
Cosa resta da chiarire
Al momento, non esiste un metodo universale e immediato per “cancellarsi” dalla memoria di un modello di intelligenza artificiale una volta che l’addestramento è completato. Le aziende come Google, OpenAI e Anthropic dichiarano di lavorare costantemente per migliorare i filtri di protezione, ma i casi di cronaca dimostrano che le barriere sono ancora fragili.
Resta da capire come le autorità per la protezione dei dati (come il Garante della Privacy in Italia) interverranno per obbligare le Big Tech a implementare sistemi di rimozione dei dati sensibili più efficaci e tempestivi. Nel frattempo, la prudenza resta l’unica difesa: meno tracce lasciamo online, meno l’IA avrà materiale per “parlare” di noi.

