Ogni settimana Facebook elimina 66mila post violenti e di odio

L’incitamento all’odio (hate speech) è una categoria della giurisprudenza USA (e da pochi anni anche di quella europea) che indica un genere di parole e discorsi che hanno lo scopo di esprimere odio e intolleranza verso una persona o un gruppo (razziale, etnico, religioso, di genere o orientamento sessuale).

Dopo l’alleanza contro il terrorismo annunciata l’altro giorno insieme a Microsoft, Twitter e YouTube, Facebook ha annunciato un’altra cifra interessante. Stavolta riguarda nello specifico l’hate speech, cioè post, foto e video contenenti messaggi d’odio e di incitamento alla violenza. Nelle scorse settimane se ne è parlato parecchio, in particolare dopo la rivelazione delle linee guida segrete in base alle quali l’esercito di moderatori della piattaforma decide cosa può restare online e cosa invece deve essere eliminato. A quanto pare, nel corso degli ultimi due mesi Facebook ha rimosso circa 66mila post di questo tipo ogni settimana.

Lo ha spiegato Richard Allen, vicepresidente delle public policy per l’area europea, africana e mediorientale, sul blog ufficiale della società. Si tratta di unno degli interventi raccolti sotto il cappello delle “hard questions”, cioè delle domande scomode su temi controversi alle quali Facebook ha deciso di rispondere periodicamente per una questione di chiarezza e trasparenza nei confronti degli utenti (che hanno da poche ore varcato la soglia dei due miliardi in tutto il mondo). L’hate speech è uno di quelli e lo è soprattutto il modo in cui i 7.500 operatori scelgono cosa mantenere e cosa scartare dalle bacheche.

“Rimuoviamo i contenuti d’odio ogni volta che ne veniamo a conoscenza – ha scritto Allen – nel corso degli ultimi due mesi, in media, ne abbiamo eliminati 66mila a settimana per un totale di 288mila al mese, ovviamente su scala globale”. La strada è dunque lunga ma Facebook ha voluto fornire un segnale immediato: “Certe volte è evidente che si tratti di hate speech e che debba essere rimosso – ha aggiunto il manager di Facebook – altre volte non c’è un accordo chiaro, magari perché le parole sono ambigue, l’intenzione dietro di esse è sconosciuta o il contesto non è chiaro. Anche il linguaggio si evolve e una parola che tempo fa non era un insulto può esserlo oggi”.

Nonostante Facebook stia esplorando tecnologie di intelligenza artificiale per filtrare automaticamente i contenuti grondanti odio, secondo Allen il contributo della community rimarrà sempre fondamentale “per identificare e raccontare l’hate speech”: “Continueremo a investire in queste soluzioni promettenti – ha concluso il vicepresidente per le public policy – ma siamo distanti dalla possibilità di confidare sull’intelligenza artificiale e il machine learning per maneggiare la complessità dei messaggi d’odio”. (fonte)

You may also like...