In UK sviluppato sistema per prevedere omicidi come in Minority Report

Regno Unito propone sistema di previsione dei crimini simile a Minority Report, ma non mancano polemiche e timori.
In UK sviluppato sistema per prevedere omicidi come in Minority Report

Il Ministero della Giustizia del Regno Unito è a lavoro su un progetto tanto innovativo quanto controverso. Stiamo parlando di un sistema di previsione degli omicidi basato sull’analisi dei dati, con un contesto che ricorda da vicino quanto proposto nel film di fantascienza Minority Report.

Il progetto, chiamato Sharing Data to Improve Risk Assessment, ha come obiettivo quello di identificare persone che rischiano di commettere omicidi in futuro. Per ottenere questo risultato, gli esperti si affidano ad algoritmi avanzati, Intelligenza Artificiale e informazioni provenienti da diverse fonti, in parte ottenuti attraverso database della polizia britannica. Di fatto, stiamo parlando di sistemi che utilizzano dati molto più scientifici rispetto ai poteri psichici adottati nel contesto della suddetta pellicola.

Il piano, nato sotto l’amministrazione conservatrice e proseguito con il governo laburista, non ha però mancato di sollevare polemiche.

UK propone progetto che si ispira al film Minority Report: ma non mancano i dubbi sulla sua efficacia

Secondo il Ministero della Giustizia britannico l’obiettivo del progetto è puramente di ricerca, senza applicazioni dirette nei tribunali.

A quanto pare, questo sistema potrà essere utile solo per capire se è davvero possibile migliorare le previsioni di crimini, confrontando i dati dalla polizia locale con le informazioni in possesso delle istituzioni. Al di là di queste premesse, le preoccupazioni di esperti e comuni cittadini sono tante.

Secondo Sofia Lyall, ricercatrice di Statewatch, questa iniziativa è definibile come “distopica“. Per l’esperta gli strumenti predittivi rischino di amplificare discriminazioni strutturali già presenti nel sistema giudiziario del paese. Inoltre, studi precedenti hanno dimostrato che questi algoritmi possono essere influenzati da bias etnici. Va inoltre considerato come eventuali errori possano causare situazioni ben poco piacevoli, se non veri e propri casi di malagiustizia.

Il governo ha annunciato che un rapporto valuterà l’efficacia del sistema, attualmente solo in fase sperimentale, nel corso dei prossimi mesi.

Ti consigliamo anche

Link copiato negli appunti