Malware AI? Google: Sono Facili da Bloccare e non Fanno Paura

malware-ai-google-facile-rilevare-analisi

Il clamore mediatico intorno al malware sviluppato con l’Intelligenza Artificiale Generativa (GenAI) è assordante. Spesso, aziende e analisti dipingono uno scenario apocalittico, con minacce inarrestabili create da codice AI. Tuttavia, la realtà, secondo quanto rivelato da una recente analisi di Google, è molto più rassicurante: i campioni di malware generati dall’AI sono risultati rudimentali e vengono individuati con facilità, anche dai sistemi di sicurezza meno sofisticati. Questo ridimensiona l’idea che l’AI abbia già conferito ai cybercriminali un vantaggio decisivo, suggerendo che la strada verso una minaccia “AI-potenziata” credibile è ancora lunga.

malware-ai-google-facile-rilevare-analisi

I 5 Campioni Analizzati da Google: Tanta Fuffa, Poca Efficacia

Google ha recentemente esaminato cinque varianti di malware generate con l’assistenza di modelli linguistici di grandi dimensioni (LLM), tra cui i noti PromptLock, FruitShell, PromptFlux, PromptSteal e QuietVault. L’obiettivo era valutarne l’efficacia rispetto al software malevolo tradizionale, sviluppato da professionisti. I risultati sono stati deludenti per chi temeva il peggio: tutti i campioni di malware GenAI si sono rivelati inferiori agli standard di sviluppo professionale e sono stati facilmente bloccabili.

Prendiamo l’esempio di PromptLock, spesso citato come il “primo ransomware basato sull’AI” da alcune società di sicurezza come ESET (che pur definendolo tale, ne riconosceva la natura di proof-of-concept). PromptLock era parte di uno studio accademico volto a dimostrare la fattibilità dell’uso di LLM per automatizzare il ciclo di vita di un attacco ransomware. Ebbene, i ricercatori hanno notato che questo malware presentava “evidenti limiti”, mancando di tattiche essenziali come la persistenza sul sistema, il movimento laterale e l’evasione avanzata. In sostanza, funzionava come dimostrazione teorica, ma non come minaccia operativa reale.

Google ha osservato che tutte e cinque le famiglie di malware GenAI utilizzavano metodi e tecniche già noti e ampiamente catalogati, rendendo banale il loro contrasto da parte dei moderni sistemi di sicurezza degli endpoint. Un esperto indipendente di cybersecurity, Kevin Beaumont, ha commentato la lentezza evolutiva di queste minacce, affermando che chi commissionasse un tale codice “chiederebbe un rimborso”, in quanto non rappresentano una minaccia credibile o un passo avanti significativo nel settore.


Tutta Colpa dell’Hype: Perché l’AI non sta (Ancora) Rivoluzionando il Malware

Il divario tra la narrazione sensazionalistica e i fatti concreti è alimentato spesso da un’esagerazione delle capacità attuali dell’AI. Molte aziende attive nello spazio AI e sicurezza, in cerca di finanziamenti di rischio, tendono a dipingere il malware generato dall’AI come una minaccia diffusa e imminente.

Un esempio di questa retorica è la segnalazione di Anthropic, che ha scoperto un threat actor utilizzare il proprio LLM, Claude, per sviluppare varianti di ransomware con “avanzate capacità di evasione”. L’azienda ha suggerito che l’attore non sarebbe stato in grado di implementare o risolvere i problemi dei componenti chiave senza l’assistenza di Claude. Allo stesso modo, ConnectWise ha affermato che la GenAI sta “abbassando la soglia di accesso per gli autori di minacce informatiche”. Anche il rapporto di OpenAI ha identificato decine di attori che usavano ChatGPT per attività come identificazione di vulnerabilità, sviluppo di codice exploit e debugging.

Eppure, gli stessi rapporti, se letti con attenzione, contengono le limitazioni evidenziate da Google. L’analisi di Google sugli strumenti AI per l’offuscamento e la gestione del canale di comando e controllo (C2) non ha trovato “prove di un’automazione efficace o di capacità innovative”. In sostanza, l’Intelligenza Artificiale oggi aiuta a snellire il lavoro dei malware developer già esistenti, ma non sta generando codici d’attacco inarrivabili o totalmente nuovi. Come ha chiosato un ricercatore anonimo di malware, l’AI sta solo aiutando gli autori di malware a svolgere il loro lavoro più velocemente, non sta creando malware più spaventosi del normale.

Malware generato da AI generativa rilevato da Google

L’Accessibilità: Il Vero Fattore Critico

Il vero impatto dell’AI sulla sicurezza informatica, per ora, non risiede nell’innovazione tecnica del codice, ma nella sua capacità di rendere l’hacking più accessibile. Una ricerca di BugCrowd, ad esempio, ha rilevato che il 74% degli hacker intervistati concorda sul fatto che l’AI abbia reso l’hacking più facile per i neofiti. Questo è il punto cruciale: l’AI agisce come un catalizzatore per l’ampliamento della base di potenziali cybercriminali, non come un creatore di super-malware.

C’è poi la questione dell’elusione delle misure di sicurezza degli LLM stessi. Google ha documentato il caso di un autore di minacce che ha bypassato le restrizioni del modello Gemini fingendosi un hacker white-hat (etico) impegnato in una gara “Cattura la Bandiera” (Capture The Flag). Questo dimostra che, sebbene le difese siano integrate (e Google le abbia ulteriormente perfezionate), l’ingegno umano rimane la variabile dominante.


Conclusione: Vigilanza, non Panico

Per quanto il malware assistito dall’AI sia un’area da monitorare costantemente, specialmente per intercettare sviluppi che introducano funzionalità veramente nuove, i dati attuali suggeriscono di mantenere la calma. Le minacce più grandi e pericolose continuano a sfruttare le tattiche antiquate e le vulnerabilità classiche. L’AI non è una pozione magica per i cybercriminali, ma un assistente che rende più rapido e accessibile il lavoro sporco.

È fondamentale continuare ad adottare pratiche di sicurezza informatica consolidate, come patch aggiornate e sistemi di rilevamento basati non solo sulle firme statiche.

Per approfondire l’analisi tecnica sui campioni di malware, si consiglia di consultare i rapporti di ESET e Google Threat Analysis Group.


FAQ sul Malware AI Generato

  • Il malware creato dall’AI è più difficile da rilevare rispetto a quello tradizionale? Non ancora. I campioni analizzati, come PromptLock, sono risultati facili da rilevare perché mancano delle tecniche di evasione sofisticate che gli sviluppatori professionisti includono. I sistemi di sicurezza più datati, basati sulle firme statiche, sono stati in grado di individuarli senza problemi, poiché spesso riutilizzano metodi già noti.
  • L’Intelligenza Artificiale può scrivere un ransomware completamente autonomo e inarrestabile? Al momento, gli LLM possono aiutare a generare le componenti di base di un ransomware o di altri tipi di malware. Tuttavia, il risultato finale è ancora rudimentale e richiede l’intervento umano per colmare le lacune critiche (come la persistenza e il movimento laterale) che lo rendono una minaccia seria.
  • Qual è l’impatto reale dell’AI sulla minaccia cyber? L’impatto maggiore è l’abbassamento della soglia di accesso all’hacking. L’AI rende più facile per persone con scarse competenze tecniche creare codice dannoso, scrivere email di phishing convincenti e trovare vulnerabilità. In sintesi, aumenta il numero potenziale di threat actors, più che la sofisticazione media dei loro attacchi.

By Angela Buonuomo

Angela Buonomo è una content writer appassionata di attualità, innovazione e cultura digitale. Laureata in Comunicazione, unisce precisione giornalistica e curiosità creativa per raccontare le notizie con uno stile chiaro e coinvolgente. Ama scoprire le tendenze del web, esplorare le novità tecnologiche e condividere curiosità che stimolano il pensiero critico e la voglia di approfondire. Sul nostro sito, firma articoli che informano, sorprendono e semplificano anche i temi più complessi.

Leggi anche