Il ricercatore di sicurezza Johann Rehberger ha individuato una vulnerabilità di ChatGPT che potrebbe permettere ad alcuni cybercriminali di accedere a e-mail, documenti e altri contenuti sensibili degli utenti.
Lo specialista ha segnalato il problema a OpenAI che, a quanto pare, in un primo momento sembra aver preso sottogamba tale rischio. Per dimostrare come il pericolo sia concreto, Rehberger ha dunque creato un exploit proof-of-concept (PoC), sfruttando la vulnerabilità per esfiltrare gli input utente da altri account. La tecnica adottata dal ricercatore sfrutta la memoria di conversazione a lungo termine, una funzione testata su ChatGPT dallo scorso mese di febbraio.
Rehberger ha segnalato privatamente la scoperta a OpenAI a maggio, liquidando la stessa come un problema secondario. Un mese dopo, il professionista ha presentato una nuova domanda, presentando la sua dimostrazione pratica. Con il PoC proposto alla startup, Rehberger ha manipolato l’app ChatGPT per macOS, facendo in modo che gli inviasse una copia di tutti gli input e output degli utenti di ChatGPT presenti un server.
ChatGPT e conversazioni a rischio hacking: il precedente preoccupante
L’attacco dimostrativo sembra aver infine convinto OpenAI ad agire ma, nonostante la correzione del caso, per Rehberger esiste ancora un rischio concreto di abuso.
Gli utenti che si affidano a ChatGPT o ad altri LLM simili, devono porre grande attenzione durante le proprie interazioni con l’IA, rivedendo regolarmente la memoria archiviata dai chatbot. Per fortuna, OpenAI fornisce agli utenti una guida specifica per gestire questo aspetto così delicato.
La tecnica scoperta dal ricercatore è solo uno dei tanti rischi legati a ChatGPT e strumenti simili. Nell’estate del 2023, per esempio, ha fatto parlare molto un caso che ha visto il furto delle conversazioni di oltre 100.000 account legati al noto chatbot che sono poi stati rivendute nel contesto del Dark Web.