Microsoft ”spegne” il chatbot che sui social inneggia a Hitler

chatbot-hitler-microsoft

Microsoft spegne il suo «chatbot», l’intelligenza artificiale che aveva l’obiettivo di avviare e sostenere conversazioni con gli utenti, a causa dei suoi commenti razzisti, sessisti e xenofobi.

Siamo troppo stupidi per l’intelligenza artificiale? Così sembrerebbe osservando il tentativo di Microsoft di far dialogare la chatbot Tay con i giovani utenti. Si tratta, in sostanza, di un account che replica automaticamente alle osservazioni dei suoi interlocutori su piattaforme come Twitter o Snapchat. Inizialmente attinge a un database di reazioni precedentemente studiate dai programmatori. Poi impara dai dialoghi e tende a ripetere e riproporre quanto appreso. Ecco perché — come recita la legge di Godwin, secondo cui nelle conversazioni online è crescente la probabilità di imbattersi in nazisti — Tay ha iniziato in poco tempo a inneggiare all’11 settembre o sostenere l’operato di Hitler.

Capacità limitate

La vicenda, spiega Re/Code — uno dei siti di culto sulla tecnologia — insegna molto delle capacità, ancora non illimitate, dell’intelligenza artificiale. Ma insegna ancora di più del comportamento degli umani. Perché anche gli umani sono esposti a ciò a cui è stato esposto Tay: e se persino un candidato alla massima carica politica del mondo usa frasi razziste e stereotipi sessisti, è complicato spiegare — o imparare — quel che va e non va letto, o creare delle «regole per la propria istruzione». Insomma: «Microsoft dovrà insegnare a Tay a diventare meglio degli umani. A filtrare le nostre peggiori inclinazioni, e a focalizzarsi sulla nostra parte migliore. Si tratterà di cambiare delle regole, per Tay. Se solo cambiare gli umani fosse così semplice». (fonte)

 

You may also like...