Elezioni Usa, 1 su 5 dei post elettorali sui social è prodotto da software

post-elettorali-falsi

Due ricercatori italiani della University of Southern California in uno studio hanno analizzato 20 milioni di messaggi legati alle presidenziali. Quasi un quinto è stato inviato da bot, programmi per generare testi che somigliano sempre più a quelli prodotti dagli umani…

Sono attivissimi, inviano milioni di messaggi sui social media e cambiano il corso delle conversazioni portando acqua al mulino ora di Trump, ora di Hillary, brillando più per la feroce ostinazione e lo stacanovismo che per fini capacità retoriche. Ma non sono attivisti in carne ossa, sono i bot: account programmati per postare in automatico e affrontare in modo tetragono ogni conversazione, impermeabili al dubbio semplicemente perché non dotati di un cervello umano. Però molti cadono nella loro trappola e li scambiano per genuini – anche se un po’ ossessionati dalla politica –  utenti di Twitter.

Uno studio di due ricercatori italiani, Emilio Ferrara e Alessandro Bessi, che fanno parte del dipartimento di informatica della University of Southern California di Viterbi, oggi ci dà un’idea della dimensione di questo fenomeno: analizzando tramite appositi software un campione di 20 milioni di tweet emessi tra il 16 settembre e il 21 ottobre, i due studiosi hanno trovato che la percentuale di messaggi inviati da bot automatici tocca addirittura il 19% (2.800.000 messaggi) del campione. E i “twittatori artificiali”, ossia i bot, sono ben 400.000 su 2,8 milioni di utenti unici del campione osservato, ossia il 15% dei postatori.

“La presenza dei bot può influenzare la discussione politica in tre modi” spiegano gli autori dello studio. “Innanzitutto i bot permettono alla propaganda di diffondersi attraverso account sospetti, che potrebbero essere gestiti con intenti malevoli. Un secondo effetto è la polarizzazione della conversazione politica. E infine con queste tattiche si facilita la diffusione di bugie o comunque informazioni non verificate. Come effetto, l’integrità delle elezioni presidenziali americane potrebbe essere a rischio”. Concordano nell’analisi Douglas Guilbeault e Samuel Woolley, ricercatori dell’Università di Washington, che studiando gli scontri all’ultimo tweet tra attivisti in occasione dei dibattiti televisivi tra Donald Trump e Hillary Clinton hanno trovato che circa un terzo dei messaggi pro-Trump e un quinto dei messaggi pro-Clinton era opera dei bot.

Un’analisi analoga, ma relativa al Brexit, è stata effettuata da due sociologi dell’Università di Oxford, Philip Howard e Bence Kollany: “Noi abbiamo trovato che l’1% dei postatori più attivi nel dibattito generava il 30% dei messaggi. Molti erano bot, altri erano account gestiti con un misto di automatismi (come la risposta automatica a certe keyword o hashtag, o l’invio di post già pronti) e di cura editoriale umana” ci spiega Bence Kollany. “Ma è arduo distinguere, ed è questo il problema principale dei bot su Twitter: la mancanza di trasparenza. Mentre altre piattaforme social richiedono ai bot di usare un nome che possa identificarli facilmente, Twitter non richiede questo tipo di “visibilità” agli account gestiti in modo automatico. Ad esempio nella campagna del Brexit mesi fa abbiamo visto che molti bot erano attivi sotto comuni e verosimili nomi inglesi, con tanto di foto del profilo apparentemente genuina”.

Per gli utenti che non hanno a disposizione grandi insiemi di dati, come Ferrara e Bessi o Kolllany, e possono quindi riconoscere precisi schemi di attività, è molto difficile distinguere tra un bot e un utente vero e proprio: “E questo diventa pericoloso quando si crea una vera e propria rete di bot che agiscono in modo coordinato, ossia che intervengono l’uno nelle discussioni degli altri e si ritwittano a vicenda, suggerendo l’impressione di un reale scambio di vedute» osserva Kollany. “Questi network di bot possono facilmente, e in breve tempo, creare un falso alone di popolarità per una delle parti politiche in lotta”.

Quali indizi possono smascherare un bot?

“I bot di oggi fanno parte di un nuova ondata molto più sofisticata. Una volta si potevano smascherare i bot semplicemente notando l’iperattività di certi account, visto che un bot può inviare tweet 24 ore su 24 senza mai fermarsi, o generare centinaia di nuovi tweet in un minuto, seguendo regole predefinite. Ma poi Twitter ha introdotto algoritmi per combattere i vecchi “spambot”, che sono pressoché spariti. Però, in risposta, sono stati sviluppati nuovi bot più evoluti, che oggi sono difficili da riconoscere non solo per gli utenti comuni ma anche per i programmatori”. Eppure qualche strategia per identificarli esiste. “Oltre a notare quali account non rispondono mai ai tweet avversi, si può analizzare il loro “storico”, ossia la cronologia dei loro tweet. Siccome costruirsi su Twitter una vasta audience – di utenti veri, intendo, non di finti follower – è un compito lungo e faticoso, un elemento che aiuta a riconoscere i bot è il loro riutilizzo per cause diverse a distanza di tempo” spiega Kollany. “Ad esempio nella nostra analisi abbiamo trovato bot che, mentre fino all’anno scorso erano molto attivi sul tema del conflitto israelo-palestinese, in estate sono diventati improvvisamente attivisti pro-Brexit a tempo pieno”. (fonte)

You may also like...