Perché su Facebook leggiamo solo cose che sappiamo già

Esiste un mare magnum di informazione sui social, davanti al quale le persone si comportano «come tra gli scaffali del supermercato: prendono quello che più li aggrada e lo portano a casa. Non importa cosa dicano i cassieri e gli addetti alla sicurezza. Quello che gli piace online lo scelgono, lo condividono e se qualcuno li contraddice, lo ignorano». Non si tratta di teorie da imminente apocalisse, ma il risultato di un corpus di studi sul tema che vanno avanti da oltre tre anni. Lo spiega Walter Quattrociocchi, a capo del laboratorio di Sociologia Computazionale dell’Imt di Lucca, che con il suo gruppo di studio ha pubblicato numerosi articoli a riguardo. Ricerche che hanno lavorato su numeri corposi, dai 2 (caso italiano) ai 55 milioni di persone. A breve, una nuova ricerca farà il punto su 376 milioni di persone. A una delle analisi più famose del gruppo, pubblicata sul Proceeding of the National Academy of Scienses è seguito un lavoro a sei mani con Cass R. Sunstein, consigliere alla comunicazione costituzionale di Obama, sulle “echo chamber”, cioè le casse di risonanza su Facebook.

OLTRE LA FILTER BUBBLE

«Se un’informazione è coerente con quello che mi piace, mi affeziono alle fonti che lo confermano, ci rimango dentro e mi circondo di persone che la pensano come me», riassume Quattrociocchi. Un gradino in più rispetto all’effetto “filter bubble”, che prevede lo stesso risultato – trovarsi in un ecosistema informativo online creato a propria immagine e somiglianza – che però sembrava sottolineare l’inadeguatezza del mezzo (i social), più che tirare in ballo l’altra componente fondamentale di questo gioco: le persone.

Le casse di risonanza diventano spazi isolati nella rete dove ogni componente fa eco all’altro. Secondo quanto appreso, i temi più comuni sono inquinamento, alimentazione, salute e geopolitica (gli utenti concentrati su quest’ultimo argomento sono più accaniti commentatori rispetto a quelli che parlano di dieta).

La tendenza è quella di aggregarsi intorno a un tema e a restarci attaccati: le comunità tendono alla polarizzazione su specifici argomenti. Le persone che mettono like a post, nel 95% dei casi faranno lo stesso con le pagine sul tema e la stessa cosa vale per i commenti.

IN CERCA DI ATTENZIONE

Tra disinformazione, bufale, contro-bufale, fact-checking, post-verità, tocca anche districarsi tra i termini più adeguati: «La misinformation non è la bufala, è l’uso strumentale dell’informazione, perché supporta una determinata narrativa e visione del mondo. Quando le persone cooperano per conseguire questa narrativa, finiscono per acquisire altre informazioni strumentali. Su questo abbiamo raccolto evidenze sperimentali fortissime. Il risultato è che prendo un’informazione e anche se questa contiene evidenti baggianate, se è coerente con l’idea che mi sono fatto, io la condivido. Quando invece qualcuno mi contraddice, io lo ignoro». Un punto che Quattrociocchi ha sottolineato anche intervenendo al Global Risk Report 2017, del World Ecomic Forum, nella sezione riguardante le sfide sociali e politiche. L’argomento è all’ordine del giorno di ogni discussione sulla democrazia: le elezioni americane che hanno portato alla Casa Bianca Trump sono state la spinta decisiva che ha portato Zuckerberg ad ammettere che Facebook non fosse un semplice binario di transito delle notizie, ma che la sua fosse una media company a tutti gli effetti. E come tale, così come ha fatto Google, doveva adottare i suoi meccanismi contro la disinformazione (di recente, lo ha fatto anche Snapchat).

Secondo il ricercatore si tratta di non soluzioni: «È un’altra meta-misinformation, perché le persone cercano quello che vogliono. C’è un tentativo di riduzione al fine di rendere la complessità comprensibile. E poi, chi controlla? Nessuno può dirsi detentore della verità davanti a temi complessi, prendi la globalizzazione, o i vaccini». Il problema coinvolge più attori contemporaneamente: «Quando il giornalismo dice che risolverà la questione grazie al giornalismo di qualità, dovrebbe pensare a pagare di più chi scrive: è una questione sistemica».

VERO O FALSO

Quindi, che si fa? «Da un lato il giornalista deve poter fornire l’informazione più accurata possibile, consapevole che potrebbero esserci dei bias narrativi (li abbiamo tutti), facendo informazione per servizio, non per ego. Gli utenti invece, devono capire che più il discorso è complicato più è difficile stabilire un “vero” o “falso”. Si tratta di un processo culturale che richiede tempo».

Intanto, al fianco di altri colleghi e del World Economic Forum, Quattrociocchi spera di lanciare a breve un «Misinformation Observatory, un osservatorio permanente per il monitoraggio della polarizzazione e della diffusione delle bufale per fornire strumenti a giornalisti, aziende e informazioni, che investighino il ruolo dell’informazione delle narrative». Il gruppo sta lavorando alla configurazione legale e al board, tenendo lontano le bandiere della politica. Dovrebbe arrivare tra un paio di mesi. (fonte)

You may also like...