• About Author

  • Tutta l'Informazione Ninja nella tua mail

  • Il riconoscimento facciale non è uguale per tutti, potrebbe escludere alcuni gruppi etnici

    Secondo quanto riferito dallo Human Rights Law centre australiano la tecnologia non è in grado di individuare i tratti somatici di alcuni gruppi etnici ed è perciò meno affidabile in tema di sicurezza

    30 Maggio 2018

    I pregiudizi dell’intelligenza artificiale sono argomento dibattuto. Si è parlato a lungo della capacità che hanno gli uomini nel loro ruolo di programmatori di influire in maniera negativa sulla tecnologia, con riferimento ad esempio al linguaggio. La novità è che questo genere di associazioni non proprio neutrali possono essere fatte anche dai sistemi di riconoscimento facciale. A mettere in guardia da questo pericolo riportato dal Guardian è lo Human Rights Law Centre australiano. facial recognition

    Le difficoltà nel riconoscere le minoranze etniche

    L’avvertimento è arrivato anche a una commissione parlamentare in Australia. Sono stati registrati degli errori nel funzionamento di questa tecnologia e, nella maggior parte dei casi, i problemi erano legati a un’impossibilità di riconoscere i volti degli appartenenti ad alcune minoranze etniche. Eppure stiamo parlando dei sistemi migliori al mondo, la NEC Neoface Technology, usata da agenzie federali e da molti stati australiani. Il suo valore è stato riconosciuto anche dallo US National Institute of Standards and Technology.

    La sicurezza del sistema

    Questo problema può influire in maniera negativa sugli scopi per i quali viene in genere utilizzato il sistema: indagini, sorveglianza, sicurezza. La presenza di falsi positivi potrebbe abbassare di molto la fiducia che questa tecnologia si sta faticosamente guadagnando, date anche le riserve sul controllo che questo genere di riconoscimento può esercitare sulle persone, specialmente in occasioni pubbliche. La possibilità di falsi positivi può nei fatti creare delle falle nella sicurezza e acuire i dubbi della popolazione sull’opportunità che lo stato utilizzi questi sistemi.

    La ricerca del MIT sui pregiudizi

    Anche il MIT nel mese di febbraio aveva potuto verificare dal controllo incrociato dei sistemi Microsoft, IBM e Megvii of China che il riconoscimento era accurato solo in presenza di uomini bianchi. Altri caratteri etnici falsavano il test. I risultati di questa ricerca condotta da Joy Buolamwini erano stati riportati dal New York Times e avevano dimostrato che la percentuale di errore saliva addirittura al 35 per cento per le donne con pelle nera. L’errore si fermava al 12 per cento per gli uomini neri, mentre non superava l’1 per cento per quelli bianchi. Il pregiudizio deriva da una considerazione di tipo statistico: il numero di foto di uomini bianchi inserite nei database è superiore a quelle delle donne e degli uomini neri, il che non aiuta l’intelligenza artificiale a sviluppare la capacità di riconoscimento di quei tratti somatici.

    Una tecnologia da migliorare

    È quindi evidente che la tecnologia non è in grado di discriminare da sé. Questi dati dimostrano, però, che il suo funzionamento può e deve essere migliorato per evitare che la sua efficacia diminuisca. «Dal momento che la tecnologia è in uso in settori di alto profilo come la sanità e la giustizia, più lavoro deve essere fatto per confrontarsi con gli algoritmi per gruppi demografici e fenotipici diversi», aveva spiegato Buolamwini.

    Fai fiorire le tue
    Digital Skills.

    FINO AL 35% DI SCONTO