Il noto chatbot ChatGPT è entrato nelle nostre vite solo da pochi mesi, ma ha già rivoluzionato il modo di lavorare di milioni di persone.
Sebbene sotto certi punti di vista questo strumento possa essere pericoloso, il suo focus è chiaro: supportare l’essere umano per rendere le sue mansioni più semplici e veloci. Sfortunatamente, però, questa regola non vale per tutte le Intelligenze Artificiali in circolazione.
I ricercatori di una società chiamata Netenrich, infatti, hanno recentemente scoperto sul Dark Web quello che potremmo definire un “gemello malvagio” di ChatGPT, ovvero FraudGPT.
Questo chatbot, infatti, va a concentrare le proprie abilità in contesti illegali, essendo totalmente privo dei filtri che caratterizzano l’opera di OpenAI.
A dire la verità, FraudGPT non è l’unico sistema di questo tipo ad operare nel contesto del cybercrimine: DarkBART, altro chatbot con finalità simili, è stato scoperto anch’esso di recente.
FraudGPT: dall’integrazione con Telegram alle formule di abbonamento, tutto quello che si conosce sul chatbot
Sotto molti punti di vista questo chatbot si presenta simile al suo più illustre collega. Si parla di prompt, risposte con spiegazioni accurate e un’Intelligenza Artificiale generativa di alto livello.
La possibilità di integrare FraudGPT a Telegram e gli aggiornamenti costanti, a distanza massima di una o due settimane tra un update e l’altro, rappresentano alcune sorprendenti caratteristiche di questa piattaforma.
Netenrich, che ha scoperto il chatbot lo scorso mese di luglio, afferma anche che questo è dotato di alcuni sistemi di sicurezza, che individuano gli input potenzialmente legati ad esperti di sicurezza rifiutandosi di dare risposte. Per la sua semplicità, poi, FraudGPT è alla portata di tutti, anche dei cybercriminali alle prime armi.
L’accesso alla piattaforma avviene attraverso abbonamento. Secondo le indagini, si parla di 200 dollari al mese o di una sottoscrizione annua per 1.700 dollari. Tutto ciò dimostra come, al di là di alcuni allarmismi esagerati, il concetto di Intelligenza Artificiale può davvero essere pericoloso.
FraudGPT, così come altri chatbot simili, rappresentano (e rappresenteranno a lungo) un’ulteriore sfida per gli esperti di cybersecurity, che hanno ora a che fare con un nuovo e temibile strumento nelle mani degli hacker.