Riconoscimento facciale, flop da Londra agli Usa. “L’algoritmo sbaglia nell’80% dei casi”


INTELLIGENTI, ma non abbastanza. Le telecamere usate dalla Polizia di Londra per sperimentare il riconoscimento facciale come sistema di prevenzione al crimine hanno dimostrato di avere un margine di errore dell’80%. Ancora troppo se si vuole davvero identificare i volti. A confermarlo una ricerca condotta dall’University of Essex che ha avuto accesso ai risultati del test condotto dalla Metropolitan Police in alcune delle aree di maggiore densità della capitale inglese: Soho, Piccadilly Circus, Leicester Square e il centro commerciale Westfield. Secondo quanto riportato dai ricercatori, in uno specifico rilevamento effettuato presso l’area di Westfield, l’algoritmo ha individuato 42 persone che sarebbero potute rientrare nella watch list, la lista di coloro attualmente sotto controllo dalla Polizia. Ma di fatto solo 8 erano realmente i sospettati, mentre negli altri 36 casi si è trattato di un errore di riconoscimento, tanto che in ben 26 situazioni la polizia non ha ritenuto accettabile fermare le persone in questione perché era evidente l’errore commesso dal sistema.

Un flop annunciato

La capitale inglese non è la prima città al mondo ad aver sperimentato il sistema di riconoscimento facciale ottenendo risultati deludenti. Negli Stati Uniti ben tre città hanno già bandito la tecnologia: San Francisco, Somerville e Oakland. “Una ricerca ha concluso che il software è meno accurato per le donne e le persone con la pelle scura, e particolarmente inaccurato per le donne di colore”, ha detto Libby Schaaf, sindaco della città californiana. Ed è sempre in America che esattamente un anno fa si è registrato un altro flop del genere, quando è stato messo alla prova il sistema ideato da Amazon, Rekognition, al quale è stato chiesto di confrontare le 535 foto dei parlamentari americani con quelle contenute in un database di 25mila foto segnaletiche. Nel 5% dei casi è stata trovata una corrispondenza, risultata poi inesistente, tra i volti del Congresso e quelli dei criminali. I maggiori errori di riconoscimento hanno riguardato esponenti politici di colore.

Il caso finisce a Westminster

Nella City a puntare il dito sul test fallimentare condotto dalla Metropolitan Police è stata l’organizzazione inglese per la tutela dei diritti dei cittadini “Big Brother Watch” che ha dichiarato: “Questa sorveglianza in stile cinese è antidemocratica e non deve trovare spazio in Gran Bretagna”. “Conferma quanto noi stiamo denunciando da tempo: senza una precisa regolamentazione e senza risultati affidabili, questa tecnologia rischia di intaccare il sacrosanto diritto alla tutela della privacy fondamentale in ogni società moderna”, ha aggiunto il direttore Silkie Carlo. La questione è finita anche nella centenaria aula di Westminster portata all’attenzione dei parlamentari dai rappresentanti del comitato scientifico e tecnologico della Camera dei Comuni.

Secondo il rapporto del comitato, sembra che oltre all’inaffidabilità del sistema di riconoscimento ci sia anche il problema riguardante l’attendibilità dell’archivio di foto segnaletiche in possesso della polizia che sembrerebbe non aggiornato. Questo farebbe aumentare notevolmente il rischio di errore del sistema. “Non è chiaro se le forze di polizia non siano a conoscenza dell’obbligo di riesaminare le immagini segnaletiche ogni sei anni, o se stiano semplicemente avendo difficoltà a farlo”, afferma il rapporto della commissione.

L’utilizzo dei dati raccolti

Un altro aspetto che continua a preoccupare non poco le associazioni per la tutela dei diritti dei cittadini riguarda la vendita dei dati raccolti attraverso le telecamere intelligenti capaci di scansionare migliaia di volti, con il risultato di creare un database di dati biometrici. La stessa tipologia di informazioni oggi alla base di molti sistemi di riconoscimento della persona: dall’impronta per accedere al nostro smartphone, al tono di voce per colloquiare con la nostra banca via telefono, o all’iride dell’occhio per aprire porte blindate. Poiché questa tecnologia riconosce i volti in video o foto, confrontandoli in tempo reale con quelli contenuti nelle banche dati, in molte città americane è largamente utilizzata dalla polizia soprattutto negli aeroporti. L’American Civil Liberties Union, insieme a 70 altre organizzazioni, ha chiesto alle aziende produttrici di non vendere più la tecnologia al governo.

I limiti posti dall’Ue

In Europa la legge in merito è molto più restrittiva, soprattutto da quando è entrato in vigore nel maggio dell’anno passato il Gdpr, il regolamento generale sulla protezione dei dati personali. Ad oggi in nessuno dei 28 stati membri dell’Unione Europea è possibile raccogliere dati biometrici senza il consenso del diretto interessato. E, allo stesso tempo, questi non possono essere utilizzati al di fuori di casi specifici come può essere nell’ambito di un procedimento giudiziario, nel settore della sanità pubblica per finalità di sicurezza sanitaria o per motivi di interesse pubblico. Ossia quando è accertato che la persona in questione abbia intenzione di commettere un atto criminale.

L’approfondimento quotidiano lo trovi su Rep: editoriali, analisi, interviste e reportage.
La selezione dei migliori articoli di Repubblica da leggere e ascoltare.

Rep Saperne di più è una tua scelta

Sostieni il giornalismo!
Abbonati a Repubblica