Nelle ultime ore una ricerca dell’azienda di sicurezza informatica Irregular ha acceso un campanello d’allarme: usare l’intelligenza artificiale per generare password potrebbe essere una delle scelte peggiori per proteggere i propri account. Una pratica sempre più diffusa, ma molto meno sicura di quanto si pensi.

Cosa ha scoperto lo studio di Irregular
Secondo l’analisi condotta da Irregular, molti utenti stanno chiedendo a chatbot e strumenti basati su AI di creare password “sicure e complesse”. Il problema? Le password generate in questo modo tendono a seguire schemi prevedibili.
L’AI, infatti, produce contenuti sulla base di modelli statistici. Anche quando sembra casuale, non lo è davvero. Nelle simulazioni effettuate dall’azienda, una percentuale significativa di password generate con strumenti di intelligenza artificiale risultava vulnerabile ad attacchi di forza bruta o a tecniche di cracking basate su dizionari evoluti.
- “Non farlo”: l’IA ignora l’ordine e cancella centinaia di email alla responsabile sicurezza di Meta
- Addio ai gestori di password, le nuove tecnologie cambiano l’accesso online
- Microsoft integra l’intelligenza artificiale generativa nella barra delle applicazioni e in Esplora file
In altre parole: ciò che sembra sofisticato potrebbe essere, per un hacker, sorprendentemente prevedibile.
Perché questa notizia è importante proprio adesso
Negli ultimi mesi l’utilizzo di strumenti di AI generativa è esploso. Sempre più persone si affidano a chatbot per scrivere email, curriculum, post sui social e — appunto — password.
È una scorciatoia comoda. Basta digitare: “Crea una password sicura di 12 caratteri” e il gioco sembra fatto.
Ma proprio questa diffusione di massa rende il fenomeno più rischioso. Se milioni di utenti chiedono alla stessa tecnologia di generare password, è probabile che emergano pattern ricorrenti: combinazioni simili, strutture prevedibili, sequenze comuni di simboli e numeri.
E per i criminali informatici, questo significa poter addestrare strumenti di attacco mirati proprio su quel tipo di struttura.
Come funzionano davvero le password generate dall’AI
Il punto centrale è uno: i modelli linguistici non sono progettati come generatori crittografici.
Un password manager professionale utilizza algoritmi di generazione casuale basati su entropia reale. Un chatbot, invece, costruisce risposte coerenti e plausibili in base ai dati su cui è stato addestrato.
Il risultato? Password come:
- Nome + anno
- Parola comune + simbolo + numero
- Strutture tipo “Sole!2024” o “Gatto#89”
All’apparenza complesse. In realtà, statisticamente frequenti.
Secondo gli esperti, questo riduce drasticamente il livello di sicurezza rispetto a una password generata da strumenti dedicati.
Cosa cambia per chi usa l’AI ogni giorno
La notizia non significa che l’intelligenza artificiale sia “pericolosa” in sé. Significa però che non è adatta a tutto.
Molti utenti hanno iniziato a usarla come soluzione universale, anche per ambiti delicati come la sicurezza digitale. Ma in questo caso la comodità può trasformarsi in vulnerabilità.
Chi ha generato password tramite AI — soprattutto per email, home banking o social network — dovrebbe valutare di cambiarle. Non è un’emergenza immediata, ma un aggiornamento prudente sì.
Le raccomandazioni degli esperti restano le stesse:
- Utilizzare password manager certificati
- Attivare l’autenticazione a due fattori
- Evitare schemi ripetitivi
- Non riutilizzare la stessa password su più servizi
Il rischio più grande: l’illusione della sicurezza
L’aspetto forse più critico emerso dallo studio è psicologico. Molti utenti credono che, essendo l’AI “intelligente”, generi automaticamente qualcosa di ultra-sicuro.
In realtà, sicurezza e intelligenza non sono sinonimi.
Una password efficace deve essere imprevedibile in senso matematico, non solo “complicata” alla vista umana. Ed è qui che entra in gioco la differenza tra generazione linguistica e generazione crittografica.
Cosa potrebbe succedere nelle prossime settimane
Con la diffusione della notizia in queste ore, è probabile che il dibattito si allarghi. Le aziende che sviluppano strumenti di AI potrebbero integrare sistemi di generazione realmente casuale o avvisi specifici per scoraggiare questo utilizzo improprio.
Nel frattempo, il consiglio resta semplice: l’AI è uno strumento potente, ma non sostituisce le buone pratiche di sicurezza informatica.
Cambiare una password richiede pochi minuti. Recuperare un account violato può richiedere settimane.
In sintesi
Lo studio di Irregular riporta l’attenzione su un tema cruciale: la sicurezza digitale quotidiana. In un momento in cui l’intelligenza artificiale entra sempre più nelle nostre abitudini, distinguere tra comodità e protezione reale diventa fondamentale.
E nelle prossime settimane potrebbero emergere ulteriori dati sul fenomeno. Per ora, una verifica delle proprie password non è un’esagerazione. È semplice prudenza.