ChatGPT può crackare password o aggirare la crittografia?

ChatGPT per aggirare la crittografia o trovare password: quanto può essere pericolosa l'Intelligenza Artificiale?
ChatGPT può crackare password o aggirare la crittografia?

ChatGPT, così come i chatbot Google Bard e Microsoft Bing Chat, utilizzano il natural language processing (NLP).

Questo tipo di IA consente di lavorare su qualunque tipo di digitazione su tastiera, inclusi numeri, caratteri speciali e quant’altro. Di fatto, è facile pensare a tutto ciò sotto un punto di vista della privacy:  esiste un modo in cui ChatGPT può decifrare password o aggirare la crittografia? Effettivamente, strumenti di questo tipo, possono in qualche modo aiutare i cybercriminali.

Nel contesto degli attacchi di forza bruta, per esempio, l’IA può essere fondamentale. Per hackerare una password possono essere necessari 2 secondi o milioni di anni (a seconda della complessità della stessa). Con un sistema computerizzato che accelera la ricerca, è possibile ridurre considerevolmente il tempo medio impiegato.

In questo contesto, l’IA nota come PassGAN (con il suffisso che sta per Generative Adversarial Network) risulta un pericolo concreto, molto più di quanto possa essere ChatGPT. La “creatura” di OpenAI, infatti, è dotata di filtri e i controlli applicati dagli sviluppatori.

Nonostante le leggende metropolitane sul Web, di fatto, è improbabile che tale chatbot possa realmente indovinare parole d’accesso. E per quanto riguarda la crittografia? A quanto pare, la situazione in questo caso cambia radicalmente.

ChatGPT, IA, password e crittografia: tra leggende metropolitane e pericoli reali

Vi sono molti esempi di utenti di Internet che hanno messo alla prova ChatGPT in questo contesto con risultati alternanti.

L’utente Reddit SiaNage1 ha dimostrato che ChatGPT non è in grado di effettuare operazioni di decrittazione semplici, mentre il canale YouTube Riddles, Codes, and Cyphers ha mostrato tutta la difficoltà dei chatbot AI alle prese con il Cifrario di Cesare (uno dei più antichi algoritmi crittografici al mondo).

Ancora una volta, la risposta è semplicemente: a volte. Nonostante l’immensa conoscenza e potenza di ChatGPT, è intenzionalmente limitato per impedire la sua utilità in contesti come attacchi phishing, infostealer e altri attacchi informatici. Il mercato del Dark Web, tuttavia, è pieno di IA alternative, utilizzate abitualmente dalla criminalità informatica.

A prescindere dalle capacità di ChatGPT, dunque, adottare password complesse e gestire le stesse al meglio è il modo migliore per evitare spiacevoli sorprese.

Ti consigliamo anche

Link copiato negli appunti