Quanto sono potenzialmente pericolosi i large language models (LLM) per quanto concerne la sicurezza informatica? Una recente analisi pone l’accento su questo timore, dimostrando come la diffidenza verso l’IA, in molti casi, sia più che motivata.
Da uno studio dell’University of Illinois Urbana-Champaign (UIUC) è emerso come GPT4 sia potenzialmente lo strumento ideale per sfruttare exploit, anche nel contesto delle vulnerabilità zero-day.
Gli esperti hanno lavorato analizzando un set di 15 exploit, con l’IA che si è dimostrata in grado di trovare il modo per sfruttare le stesse nell’87% dei casi. Rispetto a LLM più datati, come GPT-3.5 o Llama 2, le capacità dell’IA sono risultate molto più elevate.
Nonostante ciò, per i cybercriminali l’uso di ChatGPT non è così semplice come si potrebbe pensare in un primo momento.
GPT-4 uno strumento molto pericoloso nelle mani dei cybercriminali
Per rendere l’IA così efficace quando si tratta di elaborare strategie per sfruttare gli exploit, è necessario descrivere nei dettagli la situazione. In questo senso, per portare avanti lo studio, gli esperti si sono affidati alla descrizione presente nel database CVE.
Sebbene si sia parlato a lungo di come l’IA potesse diventare un’arma nelle mani dei cybercriminali, questo studio fa luce come mai prima sulle potenzialità degli LLM di ultimissima generazione. Fino a pochi mesi fa, infatti, questa tecnologia veniva in prevalenza sfruttata per creare codice dannoso o nel contesto di campagne phishing: un utilizzo basilare se confrontato con il potenziale abuso attuale di GPT-4 e di altri strumenti simili.
Nonostante fosse nota la capacità dell’IA di hackerare in autonomia dei siti Web, la ricerca di UIUC ha fatto emergere di come abusare di questi strumenti sia, dopotutto, neanche troppo difficile. Giusto lo scorso mese di febbraio, proprio il già citato Llama 2 è stato protagonista, suo malgrado, di un tentativo di abuso da parte di cybercriminali.