Una falla nei metadati può eseguire codice dannoso sui PC degli sviluppatori.
Negli ultimi giorni è emerso un problema serio per chi lavora con Python e l’intelligenza artificiale.
Alcune librerie molto usate nei modelli di Hugging Face possono nascondere codice malevolo nei metadati dei file.

Il rischio è semplice ma pericoloso.
Quando uno sviluppatore carica un modello o un file infetto, il codice nascosto può attivarsi in automatico.
Per chi lavora da solo o in piccoli team, questo significa esporsi senza accorgersene.
Basta usare una libreria comune per mettere a rischio il proprio computer e i dati dei clienti.
- Il primo dispositivo OpenAI arriva entro fine anno
- ChatGPT gratuito introduce annunci pubblicitari negli USA
- Data center AI e crisi idrica: cosa cambia per le comunità locali
Gli attacchi non richiedono azioni strane.
Il codice viene eseguito durante le normali operazioni di caricamento, come se fosse tutto sicuro.
Le librerie coinvolte sono tra le più scaricate nel mondo AI.
Questo rende il problema ancora più serio, perché milioni di sviluppatori potrebbero essere esposti.
Il pericolo non è teorico.
Chi crea malware può sfruttare i metadati per superare i controlli più superficiali.
Per chi sviluppa modelli, script o applicazioni AI, la sicurezza non riguarda più solo i server.
Ora passa anche dai file che si aprono ogni giorno sul proprio laptop.