Microsoft ha presentato una tecnologia che potrebbe cambiare le regole del gioco nella lotta alla criminalità informatica. Si chiama Project Ire ed è un sistema di intelligenza artificiale progettato per scovare e neutralizzare malware in totale autonomia, segnando un passo da gigante per la sicurezza di tutti noi.

Come funziona l’IA che “smonta” il malware?
Tradizionalmente, l’analisi di un software sospetto è un compito lungo e complesso, affidato a esperti di sicurezza informatica che devono letteralmente “smontare” il codice per capirne le reali intenzioni. Un lavoro manuale che, come sottolinea Microsoft, può portare a “stanchezza e affaticamento”, con il rischio di commettere errori.
Project Ire automatizza questo processo. Sviluppato da un team congiunto di Microsoft Research, Microsoft Defender Research e Microsoft Discovery & Quantum, questo sistema effettua il reverse engineering dei file. In parole semplici, analizza il codice sorgente di un programma, anche senza sapere da dove provenga, per comprenderne il comportamento e decidere se sia una minaccia.
- IA e psicosi: quando il design è un problema
- Samsung TV: arriva Copilot, l’AI di Microsoft
- Intelligenza artificiale nella pubblica amministrazione opportunità e rischi
La vera innovazione sta nella sua capacità di motivare le proprie decisioni. L’IA crea una “catena di prove”, una sorta di traccia documentata che spiega passo dopo passo come è giunta alla conclusione. Questo permette agli analisti umani di verificare il lavoro dell’intelligenza artificiale, garantendo un livello di controllo e affidabilità impensabile fino a oggi.
I risultati dei test: precisione quasi umana
Ma quanto è efficace questo nuovo “detective” digitale? Microsoft ha messo alla prova Project Ire con due valutazioni rigorose, e i risultati sono stati sorprendenti.
In un primo test, analizzando un insieme di driver per Windows (alcuni sicuri, altri dannosi), l’IA ha raggiunto un’incredibile accuratezza del 98%, identificando correttamente il 90% dei malware e classificando erroneamente come pericolosi solo il 2% dei file legittimi.
La sfida più complessa è arrivata con un test “sul campo”, dove Project Ire ha esaminato quasi 4.000 file così complessi da essere destinati all’analisi manuale. Anche in questo scenario, ha mantenuto un’accuratezza dell’89%, con un tasso di “falsi positivi” (file sicuri scambiati per minacce) di appena il 4%.
Il successo è stato tale che Project Ire è diventato il primo sistema di Microsoft, umano o automatico, a produrre un’analisi talmente solida da giustificare il blocco automatico di una minaccia APT (Advanced Persistent Threat), una delle più insidiose. Questo malware è stato prontamente neutralizzato da Microsoft Defender.
Conclusione L’introduzione di sistemi come Project Ire non significa sostituire gli esperti umani, ma fornire loro uno strumento potentissimo per rendere la lotta al malware più rapida, efficiente e meno soggetta a errori. È l’inizio di una nuova era per la cybersicurezza, dove l’intelligenza artificiale diventa la nostra prima linea di difesa.