Secondo una preoccupante ricerca AI può generare 10.000 varianti di malware

Innumerevoli varianti per i malware, capaci di eludere nell'88% dei casi gli strumenti di protezione: la ricerca svela scenario inquietante.

Che i modelli di linguaggio di grandi dimensioni (LLM) siano potenzialmente pericolosi è un fatto noto agli esperti di sicurezza.

Secondo una recente ricerca di Unit 42 di Palo Alto, la situazione si sta aggravando con l’evolvere dei modelli AI. Stando allo studio gli LLM non sono lo strumento ideale per creare malware da zero ma, una volta impegnati per creare varianti, risultano molto efficaci. L’AI può infatti riscrivere o offuscare agenti malevoli già esistenti, rendendo molto più difficile il rilevamento. I cybercriminali possono dunque affidarsi agli LLM per evolvere le proprie “creature” rendendole ancora più efficaci.

Uno scenario da incubo per gli esperti di sicurezza informatica, tanto più che strumenti come WormGPT (utile per facilitare la creazione di e-mail phishing), sono sempre più diffusi.

In caso di abuso, l’AI può creare un vero e proprio inferno per gli strumenti di rilevamento malware

Unit 42 ha affermato di aver sfruttato la potenza degli LLM per riscrivere iterativamente campioni di malware già esistenti è possibile arrivare a creare 10.000 nuove varianti di codice JavaScript mantenendo gli agenti malevoli funzionanti.

Di fatto, basta un minimo cambiamento nel codice per creare grandi problemi nei sistemi di rilevamento, che vengono colti alla sprovvista dalla variante inedita. Questa diversificazione rende l’individuazione dei malware ancora più difficile, rendendo gli stessi irrilevabili nell’88% dei casi.

D’altro canto questa tendenza non è di certo una novità. Giusto qualche settimana fa, per esempio, OpenAI ha avvertito come gli abusi di ChatGPT nel contesto del cybercrimine siano ormai all’ordine del giorno e, nonostante gli interventi della compagnia, il fenomeno sembra in forte di crescita.

Anche altri modelli AI, come Claude, sembrano essere vulnerabili a potenziali attacchi di tipo prompt injection e simili.

Ti consigliamo anche

Link copiato negli appunti