L’uso quotidiano di ChatGPT cresce a livello globale, ma emergono nuove criticità sulla gestione delle informazioni sensibili condivise dagli utenti. Episodi recenti e analisi di sicurezza mostrano come dati personali, finanziari e professionali possano essere esposti. Il tema riguarda direttamente milioni di persone e aziende che utilizzano chatbot basati su intelligenza artificiale.

Contesto della notizia
ChatGPT gestisce ogni giorno miliardi di richieste in tutto il mondo, diventando uno strumento centrale per lavoro, studio e uso personale. A differenza dei motori di ricerca tradizionali, l’interazione avviene in forma conversazionale, aumentando la percezione di affidabilità e confidenzialità.
Questa dinamica ha però portato molti utenti a condividere informazioni che, in altri contesti digitali, verrebbero trattate con maggiore cautela. Esperti di sicurezza informatica segnalano che i chatbot non operano come sistemi chiusi, ma come piattaforme in continua evoluzione, esposte a vulnerabilità tecniche e a usi impropri.
- Il tempo rallenta per ChatGPT mentre cresce l’IA integrata nei dispositivi
- ChatGPT gratuito introduce annunci pubblicitari negli USA
- L’AI che impara senza dimenticare cambierà l’uso quotidiano
Dettagli principali, dati e segnalazioni
Nel gennaio 2025, un bug di Meta AI ha consentito l’accesso a prompt privati di altri utenti, sollevando dubbi sull’efficacia delle misure di protezione. In precedenza, anche versioni meno recenti di ChatGPT avevano mostrato vulnerabilità legate alle tecniche di prompt injection, capaci di intercettare dati sensibili.
Un ulteriore elemento di rischio è emerso quando Google e altri motori di ricerca hanno indicizzato chat di ChatGPT condivise pubblicamente, rendendole accessibili dai risultati di ricerca. In diversi casi, queste conversazioni contenevano informazioni personali non oscurate.
Secondo una ricerca citata da Cyber Security Intelligence e condotta da Safety Detectives, l’analisi di 1.000 chat pubbliche ha rilevato la presenza frequente di nomi completi, indirizzi, numeri di telefono, email, documenti di identità e persino password. Dati che, se esposti, possono essere riutilizzati per frodi, furti di identità o attacchi informatici.
Impatto sugli utenti e sui settori coinvolti
Il rischio non riguarda solo i singoli utenti. Professionisti e aziende utilizzano sempre più spesso ChatGPT per rielaborare testi, documenti e comunicazioni interne. La condivisione di materiale riservato o proprietario può però far uscire queste informazioni dai perimetri di sicurezza previsti da normative e policy aziendali.
Particolare attenzione riguarda anche i dati finanziari e sanitari. Numeri di conto, carte di credito, estratti bancari, diagnosi mediche o risultati di esami non rientrano nei sistemi di protezione specifici previsti per questi ambiti. Una volta inseriti in un chatbot, tali dati risultano difficilmente tracciabili e controllabili.

Un sondaggio recente indica che circa un adulto su sei utilizza chatbot di intelligenza artificiale per informazioni sulla salute almeno una volta al mese, percentuale che sale tra i giovani adulti. Questo aumenta l’esposizione di informazioni mediche sensibili.
Scenario attuale e sviluppi in corso
OpenAI dichiara apertamente che ChatGPT può commettere errori e invita a verificare le informazioni importanti. La piattaforma consente agli utenti di limitare l’uso delle chat per l’addestramento dei modelli, ma questa opzione non elimina i rischi legati alla condivisione impropria dei dati.
Sul piano legale, OpenAI conferma la collaborazione con le autorità in presenza di richieste valide, anche a livello internazionale. Inoltre, sono attive pipeline di sicurezza progettate per individuare utilizzi illegali o pericolosi, inclusa la pianificazione di attività criminali o fraudolente.
Nonostante ciò, diversi casi documentati dimostrano che le misure non sono infallibili. L’automazione di codice dannoso e schemi di ingegneria sociale tramite chatbot resta una criticità monitorata dagli esperti.
Il quadro attuale evidenzia la necessità di applicare ai chatbot le stesse regole di igiene digitale valide per altri strumenti online, con un livello di attenzione ancora più elevato vista la natura conversazionale e la rapida diffusione di queste tecnologie.