Stando a quanto riportato da CrowdStrike sul suo rapporto annuale rispetto alle minacce informatiche alcuni gruppi legati al cybercrimine starebbero abusando dell’Intelligenza Artificiale generativa per i propri scopi.
Nello specifico, Il modello LLM noto come Llama 2 e proposto da Meta sarebbe uno strumento già utilizzato dai criminali informatici.
Secondo gli esperti di sicurezza informatica, il modello linguistico sarebbe stato sfruttato per generare script per il programma di automatizzazione delle attività PowerShell di Microsoft. Attraverso esso, i cybercriminali avrebbero poi scaricato le credenziali di accesso di un sistema informatico relativo a non meglio precisati servizi finanziari nordamericani.
A rendere ancora più critica la situazione vi è una considerazione da parte di CrowdStrike. Stando alle analisi, infatti, le attuali capacità di individuare attacchi di questo tipo (dunque potenziati dall’IA) è alquanto limitata. I casi documentati sono al momento limitati e fenomeni simili potrebbero ben presto assumere dimensioni e tassi di pericolosità molto elevati.
CrowdStrike è pessimista riguardo il prossimo futuro “Il continuo sviluppo dell’IA aumenterà senza dubbio il suo potenziale uso improprio“.
Il lato oscuro dell’IA: non solo abusi dei cybercriminali ma anche disinformazione tra i rischi
Sebbene gli attacchi informatici siano al momento limitati dai costi di sviluppo di modelli LLM, le più recenti tecnologie rendono il potenziale operato dei cybercriminali più semplice.
Nel corso del 2023, i tentativi di sfruttare l’IA per il crimine informatico sono stati molti ma, a causa di una tecnologia ancora “acerba”, si sono spesso rivelati degli insuccessi. Ciò, però, potrebbe presto cambiare.
Oltre al cybercrimine, vi sono altre concrete minacce legate all’IA. Per gli esperti, anche la disinformazione è in crescita. In tal senso, il 2024 sarà un banco di prova notevole, con il 42% della popolazione mondiale chiamato alle urne.
Come sottolineato da CrowdStrike, non si tratta di fantascienza ma di una realtà già toccata con mano nel contesto delle elezioni presidenziali di Taiwan, con l’utilizzo di contenuti generati dall’IA per influenzare le votazioni da parte della Cina.