Algoritmi razzisti, Flickr tagga come ”scimmia” un uomo di colore

flickr-algoritmi-perfetti

Anche gli algoritmi ”perfetti” possono sbagliare… Dopo lo scandalo di Google Maps in cui, usando una parola razzista, si arrivava dritti alla Casa Bianca e a dei centro studi afroamericani, a finire sotto l’occhio del ciclone è il sito di condivisione fotografica Flickr.

Il sistema di riconoscimento fotografico automatico sembra identificare le persone come animali e le porte di Dachau come una palestra nella giungla.

Il servizio – che lo stesso Flickr ammette essere fallace, trovandosi nella parte iniziale della sperimentazione – è stato pensato per assegnare automaticamente tag alle foto, in modo da renderle più facilmente disponibili e rintracciabili dagli utenti. Lanciato qualche giorno fa, ha già ricevuto numerose critiche a causa di alcune assegnazioni fotografiche ritenute offensive: ha identificato la foto di un uomo di colore con i tag “scimmia” e animale.

Nonostante le implicazioni razziste sembrino ovvie, ha anche attribuito i medesimi tag a una foto di una donna bianca. Inoltre avrebbe assegnato a una foto delle porte di Dachau i tag “palestra nella giungla”.

Cliccando su qualsiasi altro tag, si nota come la maggior parte di essi sia corretto. Ma questi inconvenienti hanno scatenato un’ondata di polemiche su Twitter contro il nuove servizio di auto tagging: «Siamo molto orgogliosi del nostro sistema tecnologico avanzato di riconoscimento immagini, ma al contempo siamo i primi ad ammettere che ci sono stati degli errori e stiamo lavorando costantemente per migliorare questa esperienza – ha affermato un portavoce di Flickr – Se il tag scorretto viene cancellato, il nostro algoritmo impara dal suo errore e farà di meglio in futuro. Il processo di tagging è completamente automatizzato. Nessun essere umano vedrà mai più le nostre foto solo per taggarle». (fonte)

You may also like...