L’abbinamento cybercriminali e Intelligenza Artificiale risulta sempre più pericoloso e, a quanto pare, a farne le spese sono sempre più spesso i dirigenti aziendali.
Questo è quanto sostiene il Financial Times secondo cui, secondo un recente rapporto, le più grandi aziende al mondo (come eBay e Beazley) stanno subendo una quantità enorme di tentativi di attacchi, siano esse campagne phishing o altri tentativi di scam. In questi casi, le figure professionali maggiormente presa di mira sembrano essere proprio dipendenti di alto livello.
Secondo quanto affermato da Kirsty Kelly, Chief Information Security Officer di Beazle, gli attacchi stanno gradualmente aumentando per quantità e raffinatezza, con l’AI gioca un ruolo fondamentale in questa pericolosa escalation.
Dirigenti aziendali nel mirino dei cybercriminali: ecco i numeri preoccupanti
L’AI, per sua natura, è in grado di elaborare enormi quantità di dati, una capacità che permette ai malintenzionati di raccogliere informazioni dettagliate sulle vittime, replicando il tono e lo stile comunicativo di individui o aziende specifiche con cui dirigenti aziendali o personaggi di alto livello hanno familiarità.
Se a tutto ciò aggiungiamo come queste campagne sono cresciute in modo esponenziale, con alcune aziende segnalano fino a 36 email di phishing al giorno, è facile capire come per i dirigenti il pericolo sia ormai concreto.
Tim Callan, Chief Compliance Officer presso Sectigo, ha sottolineato l’importanza per le aziende di adottare un approccio multilivello per prevenire danni derivanti da phishing. Ha raccomandato che i dipendenti siano formati per riconoscere quando potrebbero essere obiettivi di attacchi e che le aziende adottino tecnologie collaudate ed efficaci per la prevenzione da attacchi di questo tipo.
Per capire quali siano le potenzialità devastanti di queste campagne basta dare uno sguardo ai dati proposti da IBM, secondo cui la il costo medio globale di una violazione dei dati è aumentato di quasi il 10% nel 2024, raggiungendo quota 4,9 milioni di dollari.