UE approva bozza AI Act: si spinge su controllo intelligenza artificiale

Il Parlamento europeo ha approvato la prima bozza dell'Artificial Intelligence Act. Continua la spinta dell'Unione per nuove norme utili alla regolamentazione dell'IA generativa e dei nuovi algoritmi avanzati.

L’Unione Europea si sta muovendo sempre più rapidamente verso la regolamentazione dell’intelligenza artificiale. Proposto dalla Commissione nell’aprile 2021, l’Artificial Intelligence Act è stato approvato nella sua ultima bozza con ben 84 voti favorevoli, 12 astensioni e 7 contrari. Questo è il primo passo chiave verso la certezza di un futuro nel quale i sistemi IA siano sicuri, trasparenti, tracciabili, non discriminatori e “green”.

Come annunciato dalle commissioni Mercato Interno e Libertà Civili del Parlamento europeo, la proposta della Commissione è passata e ora richiederà l’approvazione da parte dell’intero Parlamento e la negoziazione con il Consiglio: in tale ottica, la sessione plenaria dedicata è prevista per il periodo tra 12 e 15 giugno 2023.

Ma cosa prevede l’Artificial Intelligence Act europeo? Come da documento ufficiale, le norme seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio che l’IA può comportare. Già sono chiari i sistemi che verranno severamente vietati dall’Unione Europea, ovvero quelli che costituiscono un rischio “inaccettabile” per la sicurezza dei cittadini. Si parla, nello specifico, delle seguenti soluzioni:

  • Sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico;
  • Sistemi di identificazione biometrica remota “postale”, con la sola eccezione delle forze dell’ordine per il perseguimento di reati gravi e solo previa autorizzazione giudiziaria;
  • Sistemi di categorizzazione biometrici che utilizzano caratteristiche come genere, razza, etnia, stato di cittadinanza, religione, orientamento politico;
  • Sistemi di polizia predittiva basati su profilazione, posizione o comportamento criminale passato;
  • Sistemi di riconoscimento delle emozioni da parte delle forze dell’ordine, nella gestione delle frontiere, sul posto di lavoro e nelle istituzioni educative;
  • Scraping indiscriminato di dati biometrici da social media o filmati CCTV per creare database di riconoscimento facciale, violando i diritti umani e il diritto alla privacy.

Allo stesso modo, i sistemi IA in grado di influenzare il voto degli elettori e gli algoritmi delle piattaforme di grandi dimensioni (ovvero con oltre 45 milioni di utenti attivi su base mensile) sono considerati “ad alto rischio”.

L’ultima modifica al testo, infine, riguarda le IA generative come ChatGPT: le aziende che gestiscono tali sistemi dovranno rispettare obblighi di trasparenza molto precisi.

Ti consigliamo anche

Link copiato negli appunti