Il riconoscimento facciale non è uguale per tutti, potrebbe escludere alcuni gruppi etnici

Secondo quanto riferito dallo Human Rights Law centre australiano la tecnologia non è in grado di individuare i tratti somatici di alcuni gruppi etnici ed è perciò meno affidabile in tema di sicurezza

Lara Martino 

Giornalista professionista

I pregiudizi dell'intelligenza artificiale sono argomento dibattuto. Si è parlato a lungo della capacità che hanno gli uomini nel loro ruolo di programmatori di influire in maniera negativa sulla tecnologia, con riferimento ad esempio al linguaggio. La novità è che questo genere di associazioni non proprio neutrali possono essere fatte anche dai sistemi di riconoscimento facciale.

A mettere in guardia da questo pericolo riportato dal Guardian è lo Human Rights Law Centre australiano.

facial recognition

Le difficoltà nel riconoscere le minoranze etniche

L'avvertimento è arrivato anche a una commissione parlamentare in Australia. Sono stati registrati degli errori nel funzionamento di questa tecnologia e, nella maggior parte dei casi, i problemi erano legati a un'impossibilità di riconoscere i volti degli appartenenti ad alcune minoranze etniche. Eppure stiamo parlando dei sistemi migliori al mondo, la NEC Neoface Technology, usata da agenzie federali e da molti stati australiani. Il suo valore è stato riconosciuto anche dallo US National Institute of Standards and Technology.

La sicurezza del sistema

Questo problema può influire in maniera negativa sugli scopi per i quali viene in genere utilizzato il sistema: indagini, sorveglianza, sicurezza. La presenza di falsi positivi potrebbe abbassare di molto la fiducia che questa tecnologia si sta faticosamente guadagnando, date anche le riserve sul controllo che questo genere di riconoscimento può esercitare sulle persone, specialmente in occasioni pubbliche. La possibilità di falsi positivi può nei fatti creare delle falle nella sicurezza e acuire i dubbi della popolazione sull'opportunità che lo stato utilizzi questi sistemi.

La ricerca del MIT sui pregiudizi

Anche il MIT nel mese di febbraio aveva potuto verificare dal controllo incrociato dei sistemi Microsoft, IBM e Megvii of China che il riconoscimento era accurato solo in presenza di uomini bianchi. Altri caratteri etnici falsavano il test. I risultati di questa ricerca condotta da Joy Buolamwini erano stati riportati dal New York Times e avevano dimostrato che la percentuale di errore saliva addirittura al 35 per cento per le donne con pelle nera. L'errore si fermava al 12 per cento per gli uomini neri, mentre non superava l'1 per cento per quelli bianchi. Il pregiudizio deriva da una considerazione di tipo statistico: il numero di foto di uomini bianchi inserite nei database è superiore a quelle delle donne e degli uomini neri, il che non aiuta l'intelligenza artificiale a sviluppare la capacità di riconoscimento di quei tratti somatici.

Una tecnologia da migliorare

È quindi evidente che la tecnologia non è in grado di discriminare da sé. Questi dati dimostrano, però, che il suo funzionamento può e deve essere migliorato per evitare che la sua efficacia diminuisca. «Dal momento che la tecnologia è in uso in settori di alto profilo come la sanità e la giustizia, più lavoro deve essere fatto per confrontarsi con gli algoritmi per gruppi demografici e fenotipici diversi», aveva spiegato Buolamwini.

I pregiudizi dell'intelligenza artificiale sono argomento dibattuto. Si è parlato a lungo della capacità che hanno gli uomini nel loro ruolo di programmatori di influire in maniera negativa sulla tecnologia, con riferimento ad esempio al linguaggio. La novità è che questo genere di associazioni non proprio neutrali possono essere fatte anche dai sistemi di riconoscimento facciale.

Vuoi ancora più Ninja Power?

Accedi gratuitamente a Marketing News, Viral Tips & Tricks, Business & Life Hacks ed entra in una community di oltre 50.000 professionisti.

La tua privacy è al sicuro. Non facciamo spam.
Registrandoti confermi di accettare la privacy policy

Ninja Magazine è una testata registrata presso il Tribunale di Salerno n. 14/08 - P.IVA 04330590656.
© 2004 - 2018 Ninja Marketing Srl è un marchio registrato, tutti i diritti sono riservati
Puoi ripubblicare i contenuti citando e linkando la fonte nel rispetto della Licenza Creative Commons
PRIVACY POLICY, CONDIZIONI D’USO E COOKIE POLICY