Una falla nei metadati può eseguire codice dannoso sui PC degli sviluppatori.
Negli ultimi giorni è emerso un problema serio per chi lavora con Python e l’intelligenza artificiale.
Alcune librerie molto usate nei modelli di Hugging Face possono nascondere codice malevolo nei metadati dei file.

Il rischio è semplice ma pericoloso.
Quando uno sviluppatore carica un modello o un file infetto, il codice nascosto può attivarsi in automatico.
Per chi lavora da solo o in piccoli team, questo significa esporsi senza accorgersene.
Basta usare una libreria comune per mettere a rischio il proprio computer e i dati dei clienti.
- Chatbot che si auto-addestrano: l’AI ora impara da sola (e cambia le regole del gioco)
- Hai creato la password con l’Intelligenza Artificiale? Gli esperti avvertono: è tra i metodi meno sicuri
- “Non farlo”: l’IA ignora l’ordine e cancella centinaia di email alla responsabile sicurezza di Meta
Gli attacchi non richiedono azioni strane.
Il codice viene eseguito durante le normali operazioni di caricamento, come se fosse tutto sicuro.
Le librerie coinvolte sono tra le più scaricate nel mondo AI.
Questo rende il problema ancora più serio, perché milioni di sviluppatori potrebbero essere esposti.
Il pericolo non è teorico.
Chi crea malware può sfruttare i metadati per superare i controlli più superficiali.
Per chi sviluppa modelli, script o applicazioni AI, la sicurezza non riguarda più solo i server.
Ora passa anche dai file che si aprono ogni giorno sul proprio laptop.