Quando si pensa all’Intelligenza Artificiale e ai malware, si ha immediatamente l’immagine di chatbot sfruttati per realizzare gli agenti malevoli. In realtà, tali dinamiche sembrano destinate a cambiare radicalmente.
Aziende e startup sono sempre impegnate a costruire ecosistemi IA complessi e personalizzabili. La comodità, in tal senso, viene pagata a un costo molto salato per quanto concerne i potenziali pericoli. Alcuni ricercatori hanno avvertito rispetto al potenziale pericolo costituito da worm legati all’IA generativa.
Questi avrebbero la capacità di diffondersi da un sistema all’altro, rubando dati o distribuendo malware nel sistema colpito. La scoperta è merito di Ben Nassi, ricercatore della Cornell Tech, che ha confermato come si tratti di un tipo di attacco informatico mai visto prima e dal potenziale devastante.
L’agente malevolo è stato battezzato da Nassi e dai suoi colleghi Morris II in una sorta di tributo a Morris, ovvero il primo worm apparso su Internet nell’ormai remoto 1988.
In un documento relativo alla ricerca, condiviso con WIRED, i ricercatori hanno dimostrato come Morris II possa attaccare, per esempio, un assistente IA relativo alla posta elettronica, prendendo pieno possesso della casella e-mail gestita. Il tutto andando ad infrangere, senza conseguenze, alcune protezioni imposte dal sistema IA interessato.
IA generativa a rischio worm: ecco come limitare i potenziali rischi
Va chiarito come i worm legati all’IA generativa non sono ancora stati individuati in natura ma, nonostante ciò, rappresentano un pericolo con cui sarà necessario ben presto fare i conti. La stessa tecnologia dell’IA e dei LLM, infatti, offre un chiaro spiraglio ai cybercriminali.
L’IA generativa funziona ricevendo suggerimenti, nella maggior parte dei casi testuali, per portare a termine un compito specifico. Per tutelare sistemi e utenti, però, gli sviluppatori forniscono delle barriere, teoricamente invalicabili, al fine di evitare abusi. I cybercriminali, dal canto loro, possono studiare sistemi per far sì che l’IA ignori tali limitazioni, con conseguenze nefaste per gli utenti.
Secondo i ricercatori, a rischio sarebbero anche ChatGPT e Gemini, così come qualunque altro assistente IA attualmente in circolazione. Dalle ricerche e dai test portati avanti, a rischio furto potrebbe essere qualunque tipo di dato delle vittime, dalle coordinate bancarie ai numeri delle carte di credito.
In ogni caso, lo stesso Nassi ha voluto rassicurare gli utenti. Anche chi lavora con l’IA, infatti, può proteggersi in modo adeguato da questi pericoli. Per Nassa, infatti, anche l’adozione delle tradizionali pratiche di sicurezza potrebbero aiutare ad evitare incontri indesiderati di questo tipo.
Inoltre, come confermato da un altro ricercatore, ovvero Adam Swanda, è importante che l’essere umano mantenga sempre il controllo sull’IA. A tal proposito, risulta importante limitare l’automatizzazione e avere un approccio basato sull’approvazione delle operazioni svolte dall’IA.