Intelligenza artificiale di Microsoft ‘offende’ il Corano

L’intelligenza artificiale, tecnologia in grande ascesa e dai mille usi, può essere anche offensiva e politicamente scorretta. Come quella elaborata da Microsoft, che si chiama Zo, che ha definito il Corano “molto violento” e ha messo in dubbio l’uccisione di Osama Bin Laden, parlando della sua “cattura”.

Ad ottenere queste risposte sono stati i reporter del sito BuzzFeed che hanno messo alla prova il software. Il colosso di Redmond, interpellato dal sito, ha dichiarato di aver preso misure per eliminare questo tipo di comportamento da parte del programma e che tali risposte sono rare. Tra l’altro, secondo la società, questo software era stato programmato per ignorare religione e politica.

Non è la prima volta che Microsoft si trova ad affrontare un problema del genere. Qualche tempo fa Tay, altro suo software di intelligenza artificiale, era stato silenziato su Twitter perché diventato razzista. E i casi di errori, anche politicamente scorretti, di algoritmi e intelligenze artificiali non sono pochi.

Un paio d’anni fa il riconoscimento facciale di Google definì “gorilla” persone di colore. Big G si dovette scusare nello stesso anno anche per un’altra “gaffe”: sulle Mappe alcune ricerche con termini offensivi nei confronti degli afroamericani indirizzavano gli utenti alla Casa Bianca, allora presieduta da Barack Obama. (ANSA)

You may also like...