Big Data & Sicurezza: algoritmi e prevenzione del crimine.

Qualcuno doveva aver calunniato Josef K., poiché un mattino, senza che avesse fatto nulla di male, egli fu arrestato:  questo l’incipit del romanzo Il processo di Kakfa, con l’arresto del protagonista per cause che resteranno ignote fino all’ultima riga.
Il tema di una giustizia occhiuta che agisce con modalità misteriose e subdole riecheggia in tanta letteratura, come in uno dei più celebri fra i romanzi distopici, 1984 di George Orwell dove si immagina un futuro in cui il ben noto Grande Fratello aleggia di casa in casa, spia, ascolta, sussurra e soprattutto sa tutto quello che accade ai cittadini.

Si tratta di scenari non lontani dalla realtà. E non solo perché evocano modalità e sistemi di regimi totalitari, rimandando anche a possibili subdole dinamiche coercitive e persuasorie di quelli democratici. Ma perché – fuor di metafora – il tema della prevenzione del crimine per via tecnologica sta in un qualche modo avverandosi. Software e programmi fondati sull’analisi dei Big Data, infatti, sono in grado di studiare i crimini e, in alcuni casi, addirittura di “prevederli”.
In questo ambito passi da gigante sono stati fatti dalla Cina che sta creando un software in grado di “stanare i sovversivi prima che compiano attività di sabotaggio verso il partito cinese. L’enorme e ambizioso progetto – in corso di realizzazione da parte della società di telecomunicazioni China Technology – non a caso nell’articolo citato è paragonato al racconto di Philip K. Dick Minority Report, in cui la polizia è in grado di fermare i criminali prima ancora che commettano il reato cui sono fatalmente destinati, colpendone non solo l’intenzione, ma letteralmente predicendolo. Ecco che l’obiettivo del software è di operare una netta divisione della popolazione tra “sovversivi” e “non sovversivi”. I cittadini vengono etichettati in base ai risultati forniti dall’analisi di alcuni dati come chiamate internazionali, conto corrente, improvviso cambio di tenore di vita, livello dei consumi, orari, luoghi frequentati. In base agli esiti, a ogni individuo verrà dato un punteggio e relativa attribuzione del tasso di probabilità che egli sia un sovversivo. Fino all’ultimo e più inquietante step: i cittadini oltre un certo punteggio fissato saranno oggetto di misure preventive.

Esistono altri esempi di software impiegati dalle autorità inquirenti in diverse parti del mondo. PredPol, creato dalla polizia di Los Angeles in collaborazione con l’Università della California, è usato da oltre 60 città statunitensi e permette di prevedere dove verranno compiuti i delitti. Se da un lato si è registrato un effettivo abbassamento del tasso di criminalità, dall’altro un simile sistema suscita forti dubbi. Infatti il programma elabora le sue “sentenze” analizzando i reati passati e in questo modo finisce per puntare il dito contro i quartieri più disagiati, andando così a incidere sulle discriminazioni sociali.

La prevenzione del crimine per via tecnologica sta in un qualche modo avverandosi… Condividi il Tweet

Anche l’Italia ha il suo “Grande Fratello”: dal 2007 alla questura di Milano viene usato KeyCrime, un software che per ogni reato elabora una serie di dati – come luogo, orario, obiettivo, tipologia e comportamento – per dare luogo a statistiche con cui “studiare l’uomo nell’azione del crimine, con l’ambizione di predirne le evoluzioni comportamentali future, nonostante l’unicità e diversità degli individui, e dimostrando che […] ciò è davvero possibile”.

L’uso dei Big Data può essere dunque un’arma potentissima per analizzare i crimini e mettere in atto misure per prevenirli o scoprirne i colpevoli, con evidenti vantaggi, come l’ottimizzazione delle risorse, l’efficienza, la riduzione dei tempi di indagine. Ma è indubbio che simili modalità di gestione della sicurezza sollevino importanti domande etiche che riguardano la libertà degli individui. Laddove il perseguimento della pubblica sicurezza motivasse un controllo indiscriminato di ogni singolo spostamento, chiamata, movimento bancario, post pubblicato sui social, si attenterebbe immotivatamente alla privacy dei singoli, fino – chissà – a configurare le situazioni paradossali del nostro incipit.

Insomma, auspichiamo che i terribili scenari ipotizzati da Kakfa, Orwell o Dick rimangano lucide metafore e ammonimenti, non prefigurazioni letterarie di un prossimo futuro. E che questi software non abbiano mai “l’ultima parola”, ma siano uno strumento di supporto per le forze di polizia, lasciando al senno umano l’ultimo giudizio. Perché la presunzione di innocenza avvenga fino a prova contraria, non fino alla prossima “predizione” algoritmica.

Iscrizione a MEMEnto6, la newsletter di 6MEMES

Vuoi seguire i nostri MEMES?
Iscriviti a MEMEnto6, la newsletter del blog 6Memes.

VOGLIO ISCRIVERMI