Riconoscimento facciale, funziona bene solo con gli uomini bianchi

L’intelligenza artificiale funziona tanto meglio quanto è buono il database che viene utilizzato per istruirla. Il discorso però vale anche al contrario: dati parziali o poco rappresentativi di una popolazione portano l’AI a mostrare dei bias, ossia degli errori di valutazione che tradotto nel linguaggio umano sono paragonabili a pregiudizi. È quello che accade quando si chiede alle tecnologie di riconoscimento facciale di individuare il genere di una persona in una foto: in uno studio realizzato dalla ricercatrice Joy Buolamwini del Mit Media Lab è emerso come il software sbagli solo nell’1% dei casi di uomini bianchi, mentre il tasso di errore sale attorno al 35% quando sono prese in considerazione donne nere. Come scrive il New York Times in un lungo articolo dedicato alla ricerca, il motivo è fondamentalmente uno: i volti di uomini e donne neri sono meno presenti nei database utilizzati per realizzare i software di riconoscimento facciale e per questa ragione sono identificati con maggior difficoltà. Un problema non da poco, tenendo conto che l’intelligenza artificiale sta trovando sempre maggiori applicazioni.

La ricerca del Mit

Joy Buolamwini ha deciso così di testare il corretto funzionamento di tre diversi algoritmi di Microsoft, Ibm e della cinese Megvii, istruiti a distinguere il sesso delle persone mostrate in foto, misurando quanto fossero capaci di identificare il genere degli individui in base a una diversa colorazione della pelle. Il dataset di immagini che i programmi di riconoscimento facciale hanno analizzato contava i volti di oltre 1.250 avvocati di Paesi di tutto il mondo compresi tre nazioni africane e tre nord-europee. Le immagini sono state vagliate anche da dermatologi per valutare il grado di colore della pelle e creare gruppi più precisi.  Nel caso delle donne con pelle più scura l’errore è stato tra il 21% per il software di Microsoft e il 35% totalizzato da quello di Ibm e Megvii. Ma il risultato era invece accurato al 99% per tutte e tre le tecnologie che utilizzavano l’intelligenza artificiale su uomini dalla pelle chiara.

Le reazioni delle aziende

Messe al corrente dei risultati le due aziende americane hanno promesso di indagare sui bias dei loro algoritmi, annunciando una loro modifica in breve tempo per renderli più precisi anche nell’analisi dei volti delle donne nere. L’azienda cinese invece non ha dato alcun riscontro al lavoro della ricercatrice. Ma gli errori degli algoritmi a volte sono ancora più grossolani. Nel 2015 Google si era dovuta scusare perché all’interno del servizio Foto un suo software aveva affibbiato l’etichetta di Gorilla a due afroamericani. E ancora oggi Wired ha notato come nell’applicazione la ricerca di termini come «scimpanzé» o «scimmia» non conduca a risultati, come fossero stati cancellati per timore di altri clamorosi accostamenti: segno che forse i problemi non sono stati ancora risolti. (fonte)

You may also like...