I chatbot sono utili anche per il coding e, come abbiamo potuto già tutti provare, programmare con ChatGPT non è così difficile. Fermo restando che è sempre consigliabile conoscere delle basi di programmazione prima di procedere con qualsiasi richiesta alle IA, basta porre il quesito e fissare il linguaggio necessario per ottenere un output da sfruttare come base per un programma.
Questa particolarità ha fatto sì che ChatGPT possa creare anche malware se utilizzato dalle persone sbagliate. Secondo alcuni ricercatori, questo “lato oscuro” del chatbot ha addirittura portato allo sviluppo di malware polimorfici impossibili da rilevare anche con i metodi di identificazione più avanzati, tra cui l’EDR.
ChatGPT crea malware impossibili da scovare
Come riportato da Tom’s Hardware, il team dell’azienda di cybersecurity HYAS InfoSec ha pubblicato un white paper che illustra BlackMamba, keylogger polimorfico che utilizza API ogni volta che viene eseguito per combinare in maniera insolita una serie di comportamenti tipicamente rilevabili, raggiungendo infine strutture impossibili da scovare anche tramite EDR o Endpoint Detection and Response, metodo che monitora continuamente i dispositivi per identificare in tempo reale minacce informatiche come ransomware e malware.
All’atto pratico, ChatGPT permette al codice del virus di mutare rapidamente eludendo i sistemi di sicurezza più avanzati, sfruttando l’incapacità dei modelli di riconoscerlo come codice dannoso. Fortunatamente, al momento BlackMamba e altri esempi rimangono proof-of-concept che sperano di avvertire gli esperti della pericolosità del chatbot IA sul fronte della sicurezza informatica. L’obiettivo, ovviamente, è quello di prevenire i danni causati da tale tipologia di codice in un contesto reale.