La polizia e le forze di sicurezza di tutto il mondo stanno testando sistemi automatizzati di riconoscimento facciale per usarli come strumento per identificare criminali e terroristi. Ma quanto è precisa questa tecnologia e quanto è facile e l'intelligenza artificiale (AI), sulla base della quale funziona, diventano strumenti di persecuzione e oppressione?
Funzionalità del sistema
Immagina che un sospetto terrorista venga inviato in missione suicida in un centro densamente popolato. Se lancia una bomba, centinaia di persone potrebbero morire o essere gravemente ferite. La procedura per scansionare i volti in mezzo alla folla usando la videosorveglianza ti consente di identificare un aggressore e confronta automaticamente le sue caratteristiche con le fotografie in un database di famosi terroristi o "persone di interesse" con i servizi di sicurezza.
In caso di coincidenza, il sistema genera l'allarme e le forze antiterroristiche di reazione rapida vengono inviate nel luogo in cui "neutralizzano" l'indagato prima che possa attivare gli esplosivi. Centinaia di vite salvate grazie alla tecnologia moderna.
Possibili problemi sul lavoro
E se la tecnologia di riconoscimento facciale (FR) non funzionasse correttamente? E si è rivelato non essere un terrorista, ma una persona normale che è stata solo sfortunata e si è rivelato essere come un aggressore. Una vita innocente sarebbe stata semplicemente distrutta perché anche gli esperti credevano in un sistema errato. E se ti rivelassi una tale persona?
Questo è solo uno dei dilemmi etici che si confronta con il sistema di riconoscimento facciale e l'intelligenza artificiale. È davvero difficile addestrare le macchine a "vedere", riconoscere e distinguere oggetti e volti. Usando la visione artificiale, come talvolta viene chiamato, non molto tempo fa, i ricercatori hanno cercato di determinare la differenza tra panini con uvetta e un chihuahua, che è diventato una specie di cartina di tornasole per determinare l'efficacia di questa tecnologia.
Difficoltà di riconoscimento facciale
I tecnologi informatici, Joy Buolamvini, che rappresentano il laboratorio presso il Massachusetts Institute of Technology (e allo stesso tempo il fondatore della Algorithmic Justice League), e Timnit Gebru, co-direttore tecnico del team di Google su questioni etiche legate all'intelligenza artificiale, hanno dimostrato che il sistema di riconoscimento facciale è difficile distingue tra uomini e donne se la loro pelle è abbastanza scura. Il sistema abbastanza spesso ha scambiato le donne con la pelle scura per gli uomini.
"Circa 130 milioni di americani adulti sono già in database di riconoscimento facciale", ha dichiarato il dott. Gebru a maggio al vertice AI for Good di Ginevra. "Ma i set di dati originali contengono principalmente rappresentanti della razza bianca, tra i quali ci sono molti più uomini". Pertanto, quando si riconoscono le persone con un tipo di pelle più scura, esiste ancora un'enorme percentuale di errori dovuti al tipo di pelle e al sesso.
Uso della tecnologia
La città californiana di San Francisco ha recentemente vietato l'uso del riconoscimento facciale da parte dei trasporti e delle forze dell'ordine in riconoscimento delle sue imperfezioni e minacce alle libertà civili. Ma altre città negli Stati Uniti e in altri paesi del mondo continuano a sperimentare questa tecnologia.
Nel Regno Unito, ad esempio, le forze di polizia nel Galles del Sud, a Londra, a Manchester e a Leicester stanno testando questa tecnologia, che terrorizza le organizzazioni per le libertà civili come Liberty e Big Brother Watch, preoccupate per il numero di falsi incontri che si verificano durante il funzionamento del sistema.
Errori e paure
In pratica, ciò significa che le persone innocenti vengono erroneamente chiamate potenziali criminali. Secondo il dott. Gebru, tali problemi dovrebbero certamente destare preoccupazione per tutti, l'uso di tali misure preventive e predittive comporta tassi elevati.
Dato che gli americani di colore rappresentano il 37,5% di tutti i detenuti negli Stati Uniti (secondo il Federal Bureau of Prisons), nonostante costituiscano solo il 13% della popolazione degli Stati Uniti, gli algoritmi scritti male che utilizzano i set di dati attualmente disponibili possono prevedere che i neri hanno maggiori probabilità di commettere un crimine. Non è necessario essere un genio per capire cosa può significare per la polizia e le politiche sociali.
Più recentemente, gli scienziati dell'Università dell'Essex sono giunti alla conclusione che le coincidenze utilizzate nei processi nella polizia di Londra erano errate all'80%, il che potrebbe potenzialmente portare a gravi violazioni della giustizia e alla violazione del diritto alla privacy dei cittadini.
Un britannico, Ed Bridges, ha avviato una causa legale sull'uso della tecnologia di riconoscimento facciale da parte della polizia del Galles del Sud la sua fotografia è stata scattata mentre faceva shopping e il commissario britannico per le informazioni Elizabeth Denham ha espresso preoccupazione per la mancanza di un quadro giuridico che disciplina l'uso della tecnologia di riconoscimento.
Ma tali timori non hanno impedito al colosso tecnologico Amazon di vendere il suo strumento Rekognition FR alle forze di polizia statunitensi, nonostante l'esitante rivolta degli azionisti che ancora non ha portato a nulla.
prospettive
Amazon afferma di non essere responsabile del modo in cui i clienti utilizzano la sua tecnologia. Ma confronta questa relazione con Salesforce, una tecnologia per la gestione delle relazioni con i clienti, che ha sviluppato il proprio strumento di riconoscimento delle immagini chiamato Einstein Vision.
"La tecnologia di riconoscimento facciale può essere appropriata in una prigione per rintracciare i prigionieri o prevenire la violenza di gruppo", ha dichiarato BBC Salesforce, un esperto di intelligenza artificiale etica alla BBC. Ma quando la polizia ha voluto usarlo insieme alle telecamere per arrestare le persone, la società ha ritenuto questo inappropriato. In questo caso, ci si dovrebbe chiedere se è necessario utilizzare l'IA in generale in determinati scenari, e uno degli esempi è il riconoscimento facciale.
Attualmente, questa tecnologia viene utilizzata anche dai militari, poiché i fornitori di tecnologia sostengono che il loro software non solo può identificare potenziali nemici, ma anche riconoscere comportamenti sospetti.