L’Intelligenza Artificiale sta già influenzando diversi aspetti della nostra vita, alcuni positivi e altri meno. Visto il boom recente, però, rispetto agli abusi vi è ancora un vuoto legislativo che andrebbe colmato il prima possibile.
Questo è quello che pensa Microsoft che, attraverso un post sul blog pubblicato qualche ora fa, in cui chiede apertamente al governo degli Stati Uniti di intervenire in tal senso. Per l’azienda di Redmond, infatti, è indispensabile preparare quanto prima una “Legge completa sulle frodi deepfake“, in quanto questo tipo di contenuti è ormai facile da preparare, dunque accessibile a qualunque malintenzionato.
Per Microsoft, alcune parti della popolazione come anziani e bambini potrebbero essere facili vittime di filmati manipolati. Il tutto in strategie che comprendono truffe complesse, che possono costare molto care alle vittime. Secondo Brad Smith, presidente della compagnia, se il settore privato ha il dovere di innovare e implementare misure di sicurezza, anche i governi devono fare la loro parte con regolamentazioni apposite.
Microsoft contro i deepfake: ecco i grandi rischi
La disponibilità, a titolo gratuito, di strumenti IA proposti dai colossi tech (con OpenAI da apripista per Microsoft, Google e Meta) si sono rivelati un vero e proprio assist per i cybercriminali.
I casi di abusi, in tal senso, sono molteplici. Si spazia dalla generazione di immagini esplicite di Taylor Swift, poi diffuse su X, alle tante truffe effettuate attraverso deepfake realistici o alle potenziali manipolazioni per fini politici. Sebbene questa pratica possa essere utilizzata in modo innocente, appare evidente come nelle mani delle persone sbagliate sia qualcosa dal potenziale devastante.
Se con la grande diffusione di ChatGPT la priorità era creare dei limiti ai chatbot, d’altro canto con i video è difficile porre dei limiti (almeno al momento). Il tutto, come già accennato, è aggravato da leggi che sembrano avere grandi difficoltà a mantenere il ritmo dell’evoluzione tecnologica.