La tua e-mail per accedere a ChatGPT? Ecco perché è una pessima idea

Secondo alcuni ricercatori ChatGPT mette a rischio le e-mail dei suoi utenti: ecco i risultati inquietanti di un recente test.

Nella fretta di provare le enormi potenzialità di ChatGPT un po’ tutti ci siamo iscritti in gran fretta alla piattaforma di OpenAI, utilizzando la nostra casella di posta elettronica. In realtà, questo comportamento quasi istintivo, potrebbe risultare molto pericoloso.

Secondo un gruppo di ricercatori, capitanato da Rui Zhu dell’Indiana University Bloomington, ha individuato un potenziale rischio per la privacy legato proprio a questa pratica così diffusa.

Stando ad alcuni test portati avanti da Zhu, utilizzare la propria e-mail per iscriversi al servizio offrirebbe la possibilità all’IA di divulgare questa informazione personale durante il suo utilizzo. Il ricercatore, attraverso alcuni prompt, ha chiesto a ChatGPT informazioni sensibili sul personale del Times, ottenendo l’e-mail lavorative dell’80% dei dipendenti.

I modelli linguistici di OpenAI, inclusi GPT-3.5 Turbo e GPT-4, sono progettati per apprendere continuamente dai nuovi dati e, in questa costante ricerca di informazioni, finirebbero anche quelle legate agli account personali di chi utilizza il chatbot.

E-mail di iscrizione e ChatGP: l’allarmante test dei ricercatori rivela un’enorme vulnerabilità

Se è vero che OpenAI, così come Meta e Google, adottano varie tecniche per contrastare i prompt che richiedono informazioni personali, per Zhu e il suo team è stato facile aggirare tali limitazioni.

Gli esperti, per questa dimostrazione convincente, hanno utilizzato l’API di ChatGPT al posto dell’interfaccia standard, ottenendo senza troppa fatica dati molto sensibili sugli utenti della piattaforma. I ricercatori hanno dunque espresso scetticismo sull’efficacia di OpenAI per la tutela degli utenti, sottolineando come il loro test sia facilmente replicabile da qualunque cybercriminale.

La scoperta di questa vulnerabilità solleva molti dubbi, non solo nel contesto di ChatGPT ma, a livello più generico, in tutti i modelli linguistici di grandi dimensioni (LLM) che potrebbero presentare falle simili. A rendere tutto più complesso vi è il fatto che i modi in cui vengono alimentati i modelli sono spesso segreti, rendendo l’Intelligenza Artificiale un ambito che tende ad essere poco trasparente sotto il punto di vista della privacy.

Ti consigliamo anche

Link copiato negli appunti