«Facebook non rimuove i contenuti di matrice terroristica e porno»

«Il social network e l’editore più grande del mondo ha fatto profitti per 10 miliardi di dollari lo scorso anno vendendo pubblicità targhettizzata». È tutto in questa frase l’approccio del Times (e non solo) nei confronti di Facebook (e non solo): alcuni colossi del Web agiscono ormai in tutto e per tutto come media company e come tali vengono invitate ad agire dall’editoria tradizionale. Dopo aver messo sotto scacco Google per i video estremisti e antisemiti cui venivano destinate le sponsorizzazioni di YouTube, il foglio britannico di Rupert Murdoch ha rivolto la sua attenzione alla piattaforma di Mark Zuckerberg, che «si è rifiutata di rimuovere contenuti di matrice terroristica e pedopornografica potenzialmente illegali nel Regno Unito».

La testata è giunta alla conclusione dopo aver creato un profilo ad hoc sul social network. Nei panni di un finto professionista dell’It 30enne, il giornalista che ha condotto l’inchiesta ha chiesto l’amicizia a più di cento sostenitori di Isis ed è entrato in gruppi che condividono scatti e video osceni e violenti. Imbattutosi in numerosi contenuti sgradevoli, ne ha chiesto la rimozione con i sistemi di segnalazione appositi. Facebook ha accolto la richiesta solo in alcuni casi, lasciando online messaggi che elogiavano gli attacchi Isis «da Londra alla Cecenia alla Russia e al Bangladesh in meno di 48 ore» e promettevano di portare la guerra «nel cuore delle vostre case». Solo su successiva richiesta del Times, questa volta nei suoi panni reali, Meno Park è intervenuto ulteriormente. «Ci dispiace molto per l’accaduto, possiamo fare meglio e continueremo a lavorare sodo», ha poi dichiarato il vice presidente delle Operations Justin Osofsky.

La linea è la stessa ribadita nelle ultime ore da Mark Zuckerberg in un’intervista a Fast Company: facciamo e faremo il possibile per risolvere un problema sviluppatosi progressivamente, in sostanza. Problema che, però, è molto più complicato. L’amministratore delegato di Facebook ha fatto un esempio risalente al 2015, quando il blocco dell’accesso al solo Pakistan di un gruppo che invitava gli utenti a rappresentare Maometto, pratica illegale nel Paese, ha suscitato critiche. Da ambo le parti: chi avrebbe voluto una rimozione globale e chi non era d’accordo persino con quella localizzata. La (sua) soluzione è delegare alla comunità la maggior parte delle decisioni su cosa sia lecito o meno rimuovere. In casi eclatanti, come la pedopornografia, afferma tuttavia senza riserve «è illegale, è sbagliato». Secondo Zuck, quindi, è Zuck stesso a sapere quando mettere un limite. Come dimostra il Times, evidentemente, non è sempre in grado di farlo (ammesso che si sia disposti a delegare a lui la decisione). Sul fronte tecnologico, Zuckerberg ha appena introdotto una sistema di foto-matching per impedire alle foto intime pubblicate senza il consenso del o della protagonista di circolare — su Facebook ma anche Messenger e Instagram — dopo la segnalazione. Lo scorso dicembre ha inoltre attivato una collaborazione con YouTube, Twitter e Microsoft per etichettare il materiale connesso al terrorismo e bloccarlo in tutti i contesti.

Tornando all’indagine, la testata britannica ha avvisato la Metropolitan Police e la National Crime Agency per inchiodare il social alle sue responsabilità (anche) legali. Lo stesso aveva fatto la Bbc in marzo, dopo aver condotto un’indagine analoga sui gruppi di pedofili. La Germania, intanto, ha dato un primo sì a una legge che prevede multe fino a 50 milioni di euro proprio per il mancato intervento delle piattaforme su contenuti illegali. La morsa, insomma, si stringe. E gli interrogativi rimangono tali. (fonte)

You may also like...