Nel 1791 Jeremy Bentham, seguendo la logica cartesiana che considerava gli esseri umani come macchine le cui attività potevano essere misurate e controllate, inscrisse nel carcere ideale del “Panopticon” l’impersonalità, la classificazione astratta e il potere automatico: tutti elementi che riappaiono nella nuova sorveglianza messa in atto dall’Intelligenza Artificiale (IA).

Il volto di ciascun individuo costituisce oggi un contenitore di dati biometrici, sottoposti ad analisi massiva. La tecnologia consente di acquisire, sempre e in tempo reale, dati come la fisionomia del volto, il colore degli occhi, la distanza tra le pupille, la grandezza del naso e della bocca, analizzando perfino l’andatura. Dal 2018 la Polizia di Stato utilizza SARI, il “Sistema Automatico di Riconoscimento Immagini”, per identificare una persona confrontando i suoi dati biometrici con le immagini degli individui già foto-segnalati. Con il riconoscimento facciale, che usiamo anche per bloccare in modo sicuro i nostri smartphone, un software analizza l’immagine della persona sotto forma di pixel, di dati, da cui trae un modello matematico da applicare ad altre immagini per trovare una corrispondenza. Il Garante della privacy ha tuttavia dato parere negativo per la modalità “Real Time” di SARI, perchè installata in assenza di basi giuridiche: questa tecnologia rappresenta una premessa per la sorveglianza di massa. Insomma, saremo (forse) più sicuri, ma di certo meno liberi.

Quel che sembrava tipico di film distopici o fantascientifici è pertanto, ormai da tempo, attualità: nei luoghi strategici per la sicurezza nazionale, nei più grandi aeroporti italiani, a Palazzo Chigi, in Vaticano. A Schengen l’ingresso nei confini europei è deciso dal sistema “iBorderCtrl”, che valuta gli indici di pericolosità sociale con un algoritmo predittivo sottratto al controllo dell’autorità giudiziaria. In nome della “sicurezza percepita”, in diverse città italiane, tra cui Torino, Como e Udine, sono già stati approvati progetti di sorveglianza, senza una piena consapevolezza delle possibili conseguenze sulla vita delle persone, senza una preventiva valutazione d’impatto che giustifichi l’uso dei dati biometrici, in un clima di generale sottovalutazione dei rischi connessi. Occorrerebbe però ricordare che il fine non giustifica i mezzi, soprattutto se in gioco ci sono i diritti fondamentali.

Oltre che per reprimere il dissenso e prevenire il crimine, tali sistemi sono utilizzati dai privati nei luoghi di lavoro, negli esercizi commerciali e nel neuromarketing. L’algoritmo, da chiunque usato, s’impone oggi come “nuovo potere”, in grado di esercitare una forza uguale e contraria, comunque autonoma, rispetto a quella della norma statuale. Si sta pertanto rimettendo in discussione l’assioma secondo cui il potere promana dallo Stato e la norma di legge ne costituisce il principale strumento di espressione. Se il vulnus principale dei sistemi di riconoscimento facciale risiede nell’estrema invasività in termini di privacy e nell’utilizzo dei dati biometrici a fini commerciali da parte delle big dell’hi-tech o di altre aziende, il lato oscuro riguarda inoltre la scarsa regolamentazione, gli obiettivi, la modalità di raccolta e utilizzo dei dati. Se usati per l’identificazione biometrica nei luoghi pubblici, tali dispositivi possono essere un valido strumento di prevenzione dei reati, ma sono anche soggetti a malfunzionamenti, errori, falsi positivi, bias cognitivi e discriminazioni algoritmiche, che li rendono capaci di generare abusi di potere, diventando un’arma per il controllo dei cittadini.

A partire da un database centrale di schedature ideologiche, sulla base della dilatazione dei pori e dell’alterazione della pupilla, di cambiamenti di espressione scambiati come atteggiamento di sospetto, l’IA stabilisce chi sono i soggetti potenzialmente pericolosi. È quanto accade nell’ovest della Cina, nella regione dello Xinjiang, dove l’individuo conta meno della società: come in un laboratorio orwelliano per uno stato di polizia avanzato, i dati biometrici registrati e analizzati dalle telecamere poste in ogni angolo di strada sono utilizzati per il controllo del territorio in tempo reale, per determinare la presenza degli uiguri. La minoranza musulmana turcofona è, infatti, oggetto di un duro programma di repressione che prevede arresti preventivi, a tratti fantascientifici, in assenza di processo o di formale accusa. Sulla base della fisiognomica applicata alla tecnologia, a essere punita è quindi l’eventualità lombrosiana che – forse – un giorno, uno di loro possa – eventualmente – ipotizzare di commettere un reato.

Vietare il riconoscimento facciale sarebbe un obiettivo molto ambizioso, se non utopistico, perché quello dell’IA è un mercato potente e in evoluzione in tutto il mondo. Ancora una volta torna allora utile la semplice regola delle “cinque W”: quando e per chi utilizzare questo tipo di strumenti? A che fine? In che modo? In quali luoghi? Regolamentazione, trasparenza, tracciabilità, rispetto dei diritti fondamentali – così come delineati non solo dalla Costituzione, ma anche dalla Convenzione Europea dei Diritti dell’Uomo – unitamente alla garanzia del controllo umano, sono le coordinate necessarie da seguire per un corretto bilanciamento tra opportunità e rischi.

© Sintesi Dialettica – riproduzione riservata

Send this to a friend