AI generativa: Google spiega come viene sfruttata dai malintenzionati

AI generativa e cybercriminali: Google spiega come i malintenzionati hanno cercato (senza successo) di manipolare Gemini.
AI generativa: Google spiega come viene sfruttata dai malintenzionati

Già con la nascita dei primi modelli AI e il loro lancio sul mercato, cybercriminali e malintenzionati di qualunque tipo hanno cercato di sfruttare questi strumenti a loro vantaggio. Chi lavora nell’AI generativa, in tutta risposta, ha gradualmente implementato nuove forme di difesa, per evitare eventuali abusi.

In questo contesto, Google ha a lungo osservato i comportamenti poco leciti di alcuni utenti su Gemini, andando poi a ricostruire i tentativi di abuso rispetto alla propria AI generativa.

Il Threat Intelligence Group della compagnia ha appena pubblicato un rapporto, individuando due tipi principali di attacchi: quelli che usano l’AI come “supporto”, come la generazione di codice per creare malware o simili, e quelli che cercano direttamente di far eseguire all’AI azioni indesiderate, come la raccolta impropria di dati.

Quando parliamo di malintenzionati, ci riferiamo a due categorie di soggetti. I primi fanno parte della famigerata categoria degli Advanced Persistent Threats (APT), grandi gruppi di hacker spesso legati a stati e governi. I secondi rientrano nel contesto Information Operations (IO), che riguardano di più attività illecite legate ai social media.

Abusi dell’AI generativa: Gemini chiude la strada ai cybercriminali, ma il rischio di intromissione resta

Nel documento stilato da Google, vi è una buona notizia: Gemini, nonostante i tentativi, sembra aver respinto i cybercriminali. Nonostante i tentativi di jailbreak, il modello AI sembra aver retto, risultando uno strumento pressoché inutile per il crimine informatico.

Nonostante ciò, alcuni soggetti poco raccomandabili si sono comunque affidati a Gemini per effettuare ricerche. Secondo l’azienda di Mountain View, i gruppi APT di almeno quattro paesi (Cina, Iran, Corea del Nord e Russia) avrebbero utilizzato l’AI generativa per cercare informazioni rispetto obiettivi militari e di intelligence.

Nonostante l’infrastruttura di Gemini abbia retto ai tentativi di abuso, i rischi legati a questa tecnologia restano concreti. I modelli AI in circolazione al momento sono molti e, rispetto a Google, non è detto che tutte le compagnie forniscano adeguate protezioni contro i criminali informatici.

Ti consigliamo anche

Link copiato negli appunti