Mentre si vocifera l’imminente implementazione delle Estensioni su Google Bard, esattamente come ChatGPT ha i suoi plugin, il team di Check Point Research si è già soffermata su un’analisi di sicurezza del chatbot IA della Grande G cercando di scoprire come l’IA generativa possa essere sfruttata a fini illeciti, come per esempio per il cybercrimine. L’ultimo report dimostra che l’intelligenza artificiale anche più autorevole può essere utilizzata per creare codice e contenuti pericolosi. Ma Google Bard come si comporta in confronto a ChatGPT? Scopriamolo osservando il rapporto.
Google Bard è meno sicuro di ChatGPT?
Secondo l’indagine di CPR, la tecnologia LaMDA da Bard è a tutti gli effetti ancora “un esperimento che permette di collaborare con l’IA generativa”, dando sfogo all’immaginazione degli utenti. Nella sua imperfezione, pertanto, è possibile che il chatbot conduca attività non permesse dalla società madre, che dovrebbe però intervenire in fretta per evitare l’abuso dell’IA.
I ricercatori di Check Point hanno analizzato la piattaforma con due obiettivi principali: controllare se sia possibile creare messaggi di phishing, malware e ransomware, e confrontare Google Bard con ChatGPT nell’ambito della creazione di contenuti illeciti.
Il risultato? Google Bard può essere usato facilmente per realizzare e-mail di phishing, malware per keylogging e codice base per un ransomware. ChatGPT, invece, è molto più restrittivo e in grado di identificare la richiesta come potenzialmente illecita, bloccando l’utente nella maggior parte dei casi. Di conseguenza, è chiaro che le restrizioni anti-abuso di Bard nel campo della cybersicurezza sono significativamente più blande rispetto a quelle di ChatGPT, e con manipolazioni minime è possibile usare il servizio Google per sviluppare malware, il che costituisce un grave problema di sicurezza.