Se le potenzialità di ChatGPT e dell’Intelligenza Artificiale generativa sono enormi, lo sono anche i rischi.
Come preventivabile, infatti, criminali informatici di ogni parte del mondo stanno cercando di trovare sempre nuovi modi per violare le regole etiche del celebre chatbot, utilizzando tecniche note come jailbreaking. Di fatto, le community sul Dark Web stanno sviluppando un ecosistema costituito da strumenti utili per piegare modelli linguistici di grandi dimensioni (noti come LLM) per i propri fini.
Ad essere affascinati da ChatGPT, infatti, non sono solo i semplici utenti, ma anche i cybercriminali. Da dicembre, infatti, molti hacker si sono impegnati per trovare nuovi modi creativi per manipolare la piattaforma di OpenAI e altri modelli LLM.
Secondo quanto affermato dal blog di SlashNext, questa community è appena nata ma molto prosperosa e, soprattutto in previsione futura, può risultare un grosso problema per chi si occupa di sicurezza informatica.
Tutto ciò è reso ancora più insidioso dalla nascita di piattaforme come WormGPT, ovvero una versione malevola di ChatGPT.
Dark Web, IA e hacker: il futuro non è di certo roseo
Il lavoro sui prompt da parte dei cybercriminali prevede di porre abilmente ai chatbot domande volte a manipolarli, facendo loro infrangere le regole restringenti a cui sono sottoposti. Ad esempio, con prompt complessi, è possibile chiedere a ChatGPT di creare malware.
Secondo Patrick Harr, CEO di SlashNext: “Gli hacker stanno solo cercando di guardare oltre i guardrail. Quali sono i bordi? Cambio continuamente le istruzioni, chiedo in modi diversi di fare quello che voglio“.
A rendere tutto ancora più complesso vi è la collaborazione tra i membri di queste comunità. I cybercriminali, infatti, collaborano aiutandosi uno con l’altro, rendendo ancora più facile la manipolazione dell’IA.
Secondo SlashNext, né WormGPT, né i derivati e i cybercriminali rappresentano ancora un pericolo così significativo per le aziende. Questa tecnologia è ancora agli albori e, sotto questo punto di vista, sembra esservi ancora spazio di manovra per erigere adeguate difese.
Harr comunque consiglia di “Non fare affidamento sull’addestramento, perché questi attacchi sono molto, molto specifici e molto mirati, molto più di quanto lo fossero in passato“.
L’IA è la causa di questo male ma, secondo Harr, può essere anche “Se non disponi di strumenti di Intelligenza Artificiale in grado di rilevare, prevedere e bloccare queste minacce, resterai in pericolo“.