Diritti Digitali Post

Riconoscimento facciale: come funziona e perché i piani del governo per introdurlo sono problematici

16 Maggio 2023 8 min lettura

author:

Riconoscimento facciale: come funziona e perché i piani del governo per introdurlo sono problematici

Iscriviti alla nostra Newsletter

8 min lettura

Ciclicamente ritorna a essere evocata come la tecnologia migliore per garantire la sicurezza nelle città. Ultimo in ordine di tempo, a seguito di alcuni episodi criminosi avvenuti nelle stazioni ferroviarie di Milano e Roma, il ministro dell’Interno Matteo Piantedosi ha ventilato l’ipotesi di equipaggiare le videocamere di sorveglianza con sistemi di riconoscimento facciale. Il piano sulla sicurezza del ministro ha mosso i primi passi a gennaio scorso, quando sono state eseguite operazioni interforze “ad alto impatto” nelle stazioni di Roma, Milano e Napoli ma anche in luoghi delle città interessati dal fenomeno della “malamovida” e dallo spaccio di stupefacenti. 

In seconda battuta, lo scorso marzo Piantedosi ha inviato una circolare ai prefetti delle stesse città metropolitane chiedendo di definire anche altre zone della città da sottoporre a controllo. Il finanziamento per queste attività attinge dal fondo per la sicurezza urbana, istituito nel 2017 con i decreti Sicurezza. Sono previsti 15 milioni di euro, di cui la metà andranno a Roma e il restante a Milano e Napoli. 

Nel 2020 un’inchiesta pubblicata su Wired Italia ha raccontato come l’amministrazione comunale di Como aveva installato un sistema di riconoscimento facciale senza una base legislativa, né opportune cautele in termini di diritti umani. Il caso è arrivato in Parlamento e sulla scrivania del Garante privacy, e da allora in Italia è in vigore una moratoria che non permette l’installazione di sistemi di videosorveglianza con riconoscimento facciale negli spazi pubblici. 

La moratoria scade a dicembre di quest’anno, e il ministro dell’Interno sembra voler cominciare a guardare oltre. A fine aprile Piantedosi ha dichiarato al Quotidiano Nazionale che “la videosorveglianza è uno strumento ormai unanimemente riconosciuto come fondamentale” e che “il riconoscimento facciale dà ulteriori e significative possibilità di prevenzione e indagine” (concetti poi ribaditi ieri in un'intervista al quotidiano Libero). In realtà non ci sono studi scientifici che abbiano mai dimostrato l’efficacia che strumenti di questo tipo possono avere nel contrasto alla criminalità. Inoltre l’emergenzialità con la quale si racconta la situazione delle città di Milano, Roma e Napoli è fuorviante in quanto i crimini, di qualsiasi tipo, sono in costante calo ormai da anni su tutto il territorio nazionale. 

Gli aspetti problematici del riconoscimento facciale

Il riconoscimento facciale è una tecnologia che si porta dietro molti aspetti problematici: uno su tutti è l’enorme invasività che può avere nella vita di ognuno di noi. Con questi sistemi è tecnicamente possibile essere scrutati da chiunque sia dietro alle videocamere da quando si esce di casa la mattina fino a quando si fa ritorno la sera. Spesso su questo punto l’opinione pubblica si divide in due, tra chi “non ha nulla da nascondere” e chi invece reputa il riconoscimento facciale un rischio serio. 

Credere che una parte della propria vita debba rimanere privata non significa necessariamente essere in malafede, bensì esercitare un proprio diritto (alla privacy) e tutelarsi da intromissioni esterne, che potrebbero portare a un danno personale. Se una persona è controllata costantemente, non può contare sulla riservatezza per quei comportamenti che in qualche misura potrebbero essere motivo di imbarazzo, stigma o essere soggetti a giudizio sociale. Si  verrà a sapere, per esempio, chi è andato dallo psicologo, una  scelta spesso demonizzata. Allo stesso modo chi si reca dal chirurgo plastico per interventi essenziali a migliorare le sue condizioni di salute, di certo non vorrà lo sappiano tutti per evitare giudizi. Le donne che decidono di abortire poi, in un clima sociale e politico come quello che l’Italia e non solo vivono in questo momento, meritano di essere appoggiate e tutelate nella loro scelta, non sorvegliate e poi giudicate per questo. La sorveglianza continua comporta anche il cosiddetto chilling effect, che porta le persone a cambiare il proprio comportamento per paura di incorrere in una sanzione. 

Chi invece reputa il riconoscimento facciale invasivo e problematico è sulla stessa linea di pensiero del Garante della privacy, che nell’aprile 2021 ha detto no all’utilizzo del sistema di riconoscimento facciale in tempo reale Sari. Le forze dell’ordine italiane si sono dotate di questo sistema nel 2017, senza che l’opinione pubblica ne fosse a conoscenza. Sari è pensato per supportare operazioni di controllo del territorio in caso di grandi eventi e/o manifestazioni. Il parere negativo del Garante privacy è arrivato dopo quattro anni dalla prima istruttoria aperta a seguito di una segnalazione del Centro Hermes. Il no al sistema Sari in tempo reale, ovvero in grado di inviare un alert alle forze dell’ordine nel momento in cui rileva un volto e lo associa a un’identità, è arrivato perché secondo l’autorità “così come progettato, [porterebbe a] una possibile forma di sorveglianza e identificazione di massa”. 

Associazione, quella di un volto a un nome e cognome, che è molto precisa quando si tratta di persone bianche mentre diventa inaffidabile quando a essere inquadrate sono persone nere. La discriminazione operata dalle macchine non è altro che una reiterazione della visione del mondo che chi progetta la tecnologia ha in sé. Nel provvedimento dell’autorità si legge poi che “l’identificazione di una persona in un luogo pubblico comporta il trattamento biometrico di tutte le persone che circolano nello spazio pubblico monitorato”. 

Questo è il secondo aspetto problematico dei sistemi di riconoscimento facciale: videocamere che a ogni angolo, semaforo o piazza inquadrano i passanti riuscendo a identificarli attraverso algoritmi molto precisi determinano un’evoluzione della sorveglianza, che da mirata su un singolo individuo diventa universale. Se infatti l’ordinamento giuridico italiano definisce un soggetto innocente fino a prova contraria, gli occhi della sorveglianza biometrica controllano tutti coloro che sono nella visuale della videocamera, scannerizzandoli come codici a barre alla ricerca di un sospettato di reato. Così facendo le forze dell’ordine sarebbero potenzialmente a conoscenza degli spostamenti effettuati da chiunque passi nello spazio pubblico inquadrato, senza avere in mano un mandato che definisca obiettivi, limiti e tutele di quella ricerca. Coloro che sono a favore di sistemi di sorveglianza di massa forse ignorano poi che simili strumenti sono in funzione in paesi autoritari (come la Cina), al fine di controllare preventivamente il comportamento della popolazione e mantenere uno status quo.

Il terzo aspetto cruciale del riconoscimento facciale è la mancanza di una base legale che definisca in quali casi possa essere utilizzato o meno, per quali scopi, e in che modo sono popolate le banche dati su cui lavorano gli algoritmi che lo permettono. Per trovare una corrispondenza tra volto inquadrato e identità di una persona l’algoritmo all’interno del sistema realizza una mappatura del volto e la compara con quelli contenuti in un database. 

Il no al sistema di riconoscimento facciale Sari da parte del Garante privacy non è estesa però alla modalità Enterprise del sistema, che molto semplicemente permette a un agente di cercare un volto in un database in modo automatizzato. 

Stiamo parlando del database AFIS: da quanto è stato possibile ricostruire a seguito di numerose richieste FOIA inoltrate da giornalisti, associazioni e avvocati, contiene più di 17 milioni cartellini fotosegnaletici (comprensivi di volto, identità, impronte digitali e altri dati personali e biometrici). Poco più di 2 milioni sono di cittadini italiani, i restanti sembrerebbero appartenere a cittadini stranieri. Date le procedure di identificazione effettuate sulle persone migranti all’arrivo sul territorio italiano, è ragionevole pensare che il database AFIS sia popolato perlopiù da migranti che hanno commesso reato di clandestinità.  

Dal ministero dell’Interno non arriva nessuna informazione circa il modo in cui i dati biometrici e personali siano utilizzati, quanto rimangano all’interno del database AFIS e se sono scambiati con altre autorità anche europee. La ragione della mancanza di trasparenza sul funzionamento del sistema Sari e del suo database è la sempreverde “sicurezza nazionale”, un concetto dai confini labili e vaghi che può essere interpretato in molti modi. La sicurezza urbana è molto simile: non ha una definizione specifica, se non quella introdotta nel 2017 dal decreto Minniti che la identifica come “un bene pubblico relativo alla vivibilità e al decoro delle città”. 

Il concetto di sicurezza urbana nasce a metà degli anni ‘90 con il progetto Città sicure a Modena, e da lì prende piede basandosi quasi totalmente sulla percezione di insicurezza dei cittadini. Quest’ultima non è da ignorare, anche se è importante ricordare che la politica degli ultimi vent’anni ha giocato molto sul concetto di sicurezza legandolo a situazioni definite di “degrado” (opposte al “decoro”, altro termine suscettibile di molte interpretazioni). Esempi di degrado, secondo le molte ordinanze sindacali emesse per contrastare l’insicurezza dei cittadini, sono la cosiddetta movida, la presenza di graffiti sui muri o di capannelli di giovani che si ritrovano in piazza, dagli schiamazzi notturni. Il concetto di degrado si riferisce quasi sempre a un comportamento considerato antisociale, che spesso non è configurabile come un reato.

La legittimazione del tema della sicurezza urbana arriva al culmine nel biennio 2007-2009, quando Roma è palcoscenico di alcuni eventi cruenti simili a quelli avvenuti negli ultimi mesi. L’allora ministro dell’Interno Giuliano Amato firma nella primavera del 2007 il Patto per la sicurezza con l’ANCI, l’associazione nazionale dei comuni italiani, introducendo degli accordi tra prefettura e comuni per contrastare la criminalità urbana. È sulla base dei Patti per la sicurezza che il ministero dell’Interno finanzia la videosorveglianza nei comuni italiani sin dal 2017. Dopo Amato è la volta di Roberto Maroni, che introduce il Pacchetto sicurezza nel 2008. Il decreto Minniti-Orlando chiude il cerchio nel 2017. 

È in questo ultimo decreto che si fa sempre più palese anche un altro collegamento, quello tra sicurezza urbana e immigrazione. Le persone immigrate nel nostro paese sono etichettate sin dal loro arrivo come criminali, come soggetti propensi a reiterare comportamenti illeciti che renderebbero insicure le città. La condizione in cui si lasciano le persone che arrivano nel nostro paese, in mancanza di politiche di accoglienza e integrazione vere e proprie, è certamente rilevante nella propensione a commettere reati ma pensarlo a priori significa criminalizzarli in quanto migranti.

Il contrasto con il Parlamento europeo

A cosa servirebbe davvero un sistema di riconoscimento facciale se non ad estendere il controllo e la sorveglianza dello stato e di aziende private (che forniscono la tecnologia) nei nostri confronti?

Iscriviti alla nostra Newsletter


Come revocare il consenso: Puoi revocare il consenso all’invio della newsletter in ogni momento, utilizzando l’apposito link di cancellazione nella email o scrivendo a info@valigiablu.it. Per maggiori informazioni leggi l’informativa privacy su www.valigiablu.it.

La volontà di introdurre sistemi di sorveglianza biometrica nelle città esplicitata dal ministro Piantedosi è in aperta contraddizione anche con il percorso iniziato quasi tre anni fa in Europa. Il regolamento sull’intelligenza artificiale (AI Act) che intende proprio regolamentare anche l’uso di sorveglianza biometrica, è stato discusso lo scorso 11 maggio da due commissioni del Parlamento europeo che hanno raggiunto un risultato parziale (manca ancora una votazione a giugno) ma storico. Il senatore Pd Filippo Sensi, primo firmatario della moratoria sul divieto al riconoscimento facciale, ha sottolineato su Twitter: “La risposta del Parlamento Europeo al Grande Fratello nella testa del ministro Piantedosi è arrivata forte e chiara. No al riconoscimento facciale nei luoghi pubblici, non ci sono margini per tornare indietro su un dossier sul quale siamo, invece, all'avanguardia nella UE”. Al momento i parlamentari hanno deciso di appoggiare il divieto di identificazione biometrica in tempo reale negli spazi pubblici, la categorizzazione biometrica e il riconoscimento delle emozioni perché troppo rischiosi. D’altronde stiamo parlando di dati biometrici univoci, come il volto, l’iride, l’andatura, il battito cardiaco, con i quali siamo nati e che non possiamo in alcun modo modificare.

A giugno avverrà la votazione definitiva sull’AI Act. Una campagna lanciata nelle ultime settimane da Centro Hermes, info.nodes e The good Lobby, Don’t spy Eu!, cerca di convincere i parlamentari europei a non tornare indietro e anzi, a vietare completamente la sorveglianza biometrica. La modalità è peculiare: prendere i volti degli stessi parlamentari, che hanno il potere di decidere sul nostro futuro, per vedere quanto siano veramente precisi gli algoritmi di identificazione e gettare luce sui pericoli della sorveglianza biometrica. L’auspicio è che si arrivi prima possibile ad un dialogo tra Parlamento europeo e stati membri per definire chiari limiti a tecnologie di sorveglianza che non favoriscono la sicurezza dei cittadini, intesa come benessere, bensì il possibile controllo di ogni loro azione. 

Immagine in anteprima via quotidiano.net

Segnala un errore

Array