Bot, cyborg o troll: gli eserciti della propaganda politica online
9 min letturaNegli ultimi cinque anni, specialmente in seguito all’elezione di Donald Trump negli Stati Uniti, la parola “bot”, riferita ai profili automatizzati sui social network, ha guadagnato sempre più spazio nella cronaca, soprattutto quella politica. E il suo uso è stato assimilato dall'opinione pubblica, inevitabilmente, con una forte connotazione negativa.
Non sempre, però, questo termine è utilizzato correttamente, spesso alcuni commentatori lo usano a sproposito. First Draft, non-profit che si occupa di informazione e verificazione dei fatti nell’era digitale, fa chiarezza con un report sull’argomento, perché quando si parla di propaganda e disinformazione online è importante partire da definizioni chiare e precise.
Stefano Cresci, ricercatore dell’Istituto di informatica e telematica del CNR di Pisa, spiega che i “bot” sono profili totalmente automatizzati. Se invece parliamo di profili falsi usati da persone che vogliono nascondere la propria identità e le proprie intenzioni è meglio utilizzare il termine “troll”. Ma non tutto è bianco o nero nel mondo della propaganda online: esistono anche account che possiamo considerare ibridi, che presentano cioè un certo livello di automazione ma il cui utilizzo prevede anche l’intervento umano: in questo caso parliamo di “cyborg”.
Non solamente di bot vive la propaganda
I bot sono molto economici da usare, mentre una campagna che coinvolge l’uso di troll e cyborg richiede uno sforzo e un investimento economico decisamente maggiore, perché oltre a programmare le attività da svolgere e i contenuti da diffondere, bisogna pagare le persone che gestiranno gli account.
In genere le operazioni di propaganda più complesse sono orchestrate da entità che godono di un certo potere finanziario o politico (come grandi corporazioni o governi) e non escludono il controllo diretto o indiretto dei media tradizionali.
Le campagne di propaganda che si servono di troll, bot e cyborg sono capaci di simulare un'opinione pubblica inesistente, una tecnica che spesso si accompagna alla manipolazione dei vecchi media mainstream ed è utilizzata in varie parti del mondo per mantenere il controllo sui cittadini e legittimare il potere governativo. I ricercatori di Harvard, per esempio, hanno dimostrato che il governo cinese pubblica ogni anno circa 448 milioni di commenti sui social media: una strategia di distrazione continua volta a creare rumore e a sommergere il dissenso con opinioni positive e favorevoli al governo.
In Vietnam, il Ministero della Pubblica Sicurezza può contare su un vero e proprio battaglione di propaganda online chiamato "Force 47". Questa divisione si dedica ad hackerare siti critici verso il governo, diffondere propaganda e monitorare le attività online dei cittadini. Il loro lavoro si rivela estremamente efficace nella repressione del dissenso anche grazie alla nuova legge sulla cybersecurity approvata dal Governo nel 2018, che è stata un duro colpo alla già maltrattata libertà di parola dello Stato asiatico, dove dal 1975 esiste un solo partito, il Partito Comunista, al quale la Costituzione del 1992 riconosce il ruolo di unica guida all'interno della società vietnamita.
Qualche mese fa l'Arabia Saudita è stata protagonista di una campagna di disinformazione e discredito contro Jeff Bezos, fondatore di Amazon e proprietario del Washington Post, per via della copertura del suo giornale sull'omicidio Khashoggi, le cui prove sembrano coinvolgere il Principe saudita Mohammad bin Salman nel ruolo di mandante. In quelle settimane Twitter ha bannato un network di bot che spesso utilizzavano l'hashtag #We_all_trust_Mohammad_Bin_Salman. Mentre Facebook, grazie a un'investigazione del sito Bellingcat, ha potuto individuare e cancellare una rete di account e pagine riconducibili direttamente al governo saudita.
D'altro canto, però, una delle reti di disinformazione su Twitter più vecchie e prolifiche del Medio Oriente, soprannominata "Diavolo", riconducibile alla tv satellitare conservatrice Saudi 24, è ancora attiva ed è responsabile tutt'oggi della diffusione di oltre 2.500 tweet giornalieri intrisi di odio, antisemitismo, teorie del complotto, disinformazione sull'assassinato di Jamal Khashoggi e propaganda governativa.
La cronaca recente sugli incendi in Australia ci offre un altro esempio sull'utilizzo di questi "eserciti della propaganda online". In un contesto di disinformazione e negazionismo del cambiamento climatico alimentato da testate giornalistiche di tutto il mondo (anche italiane), si è inserita prepotentemente la diffusione virale di contenuti non verificati sui social network. Dietro a questa intensa campagna di disinformazione che esagera il ruolo degli incendi dolosi, si nascondono interessi legati alla negazione del cambiamento climatico.
Secondo una ricerca preliminare a cura del prof. Timothy Graham dell'Università di Tecnologia del Queensland, un ruolo importante nella campagna di disinformazione sugli incendi dolosi in Australia è stato svolto da troll, bot e cyborg. Esaminando, tramite un tool di rilevamento di bot su Twitter, 1.340 tweet (dei quali 1.203 unici, pubblicati da 315 account), Graham ha individuato un gran numero di account sospetti che si comportano in un modo che non rispecchia l'utente medio di Twitter e pubblicano contenuti polarizzanti e molto di parte utilizzando gli hashtag #arsonemergency, #australiafire e #bushfireaustralia.
In Italia, la propaganda salviniana
Esattamente un anno fa, il 24 e 25 gennaio 2019, in seguito alla richiesta di autorizzazione a procedere nei confronti dell'allora Ministro degli Interni Matteo Salvini, è comparso su Twitter l'hashtag #SalviniNonMollare. L'engagement di quella campagna è stato notevole, tanto da imporsi come trend mondiale sul social network, ma come spiega questo articolo di Wired si sarebbe trattato di un risultato dopato dall'uso di bot e di profili semi-automatizzati. Non è certo la prima volta che si parla di uso dei bot nella comunicazione leghista, ma è interessante soffermarsi su questo caso, con l'utilizzo di cyborg (vedi la definizione sopra), ossia profili riconducibili a persone reali che presentano però alcune azioni automatizzate.
Una delle strategie social del team di Salvini consiste infatti nel coinvolgere gli elettori della Lega, reclutandoli affinché prestino i propri account Twitter a un'amplificazione automatizzata dei messaggi del leader, come spiegano Giovanni Diamanti e Lorenzo Pregliasco nel loro saggio del 2019 "Fenomeno Salvini: Chi è, come comunica, perché lo votano":
"Sul sito di Matteo Salvini viene aperta la possibilità, agli utenti interessati, di iscriversi per diventare 'portavoce' dei post di Matteo Salvini, accettando di condividere in modo automatico i suoi contenuti, ampliandone fortemente il pubblico potenziale."
L'obiettivo primario di questo tipo di campagne – che solitamente si caratterizzano per l'appartenenza allo stesso gruppo delle persone coinvolte e che difficilmente possono aspirare a cambiare le intenzioni di voto dell'audience raggiunta su Twitter – non sono gli elettori, ma i media tradizionali.
La propaganda politica cerca costantemente di ingannare i giornalisti e di utilizzarli come amplificatori acritici del messaggio originale. Sorprendentemente con grande successo. Non bisogna mai dimenticare che i media sono una parte importantissima dell'ecosistema informativo e che spesso sono vulnerabili a questo tipo di azioni, essendo in alcuni casi i principali vettori di notizie false e ingannevoli nate online, come spiega Claire Wardle in questo articolo pubblicato da First Draft.
Profili che sembrano bot ma non lo sono
Riconoscere un profilo automatizzato sui social network non sempre è un’impresa facile e non tutti i profili che sembrano bot lo sono in realtà. Samantha Bradshaw, ricercatrice del Oxford University’s Computational Propaganda Project, spiega a First Draft che gli indicatori per distinguere un account automatizzato sono molteplici e ogni ricercatore usa metodi diversi. Oltre all’assenza di un accordo universale sulla metodologia da usare, bisogna anche tenere in considerazione le specificità di ogni social network e le diverse attività che possono essere automatizzate in ogni contesto.
Oggigiorno esiste un mercato in crescita specializzato nella propaganda online ed è possibile acquistare bot in grandi quantità per diffondere messaggi politici o informazioni ingannevoli. Facebook e Twitter annunciano frequentemente di aver individuato e rimosso operazioni di propaganda all’interno delle rispettive piattaforme, ma sebbene l’attenzione da parte dei social network sia aumentata è sempre più difficile identificare con sicurezza un profilo automatizzato.
Uno studio del 2018 su 13.493 account Twitter che avevano pubblicato contenuto sulla Brexit, realizzato da Marco Bastos e Dan Mercea della City University of London, ha identificato diversi account che si comportavano come bot ma che erano in realtà gestiti da persone in carne e ossa. In alcuni casi si trattava di sockpuppet appartenenti a personalità conosciute nella sfera mediatica dell’estrema destra, come l’account @nero gestito dal blogger dell’alt-right Milo Yiannopoulos, o @steveemmensUKIP, creato da un attivista politico pro-Brexit appartenente all’UKIP di Norwich. Entrambi gli account erano al centro di una rete di profili apparentemente automatizzati ma che erano in realtà parte di una campagna coordinata e gestita da persone reali.
Più recentemente, First Draft ha identificato come troll una serie di profili, che a prima vista potevano sembrare dei bot, al centro di una campagna per diffondere l’hashtag #takebackcontrol a sostegno del Premier britannico Boris Johnson. Questi account soddisfacevano diversi criteri utilizzati per riconoscere un bot, come l’alto volume di tweet e retweet o l’uso di un linguaggio strano e grammaticalmente scorretto. Eppure, in seguito a un’analisi più approfondita, è stato possibile stabilire che si trattava di profili gestiti da persone reali, che stavano usando Twitter in maniera propagandistica per diffondere la propria visione politica.
Attività coordinate simili possono essere riscontrate anche su Facebook. Nelle due settimane successive all’annuncio delle elezioni: più del 40% dei post sulla pagina ufficiale di Boris Johnson erano immediatamente commentati da centinaia di profili Facebook che ripetevano gli stessi messaggi di approvazione, come “Support Boris 100%”.
Ad amplificare il sospetto che si trattasse di bot, il fatto che tra i commenti era possibile trovare anche messaggi come “//”brilliant fantastic”&name=”Boris”code:syntax/error/”, che a prima vista possono apparire come linee "rotte" di codice di programmazione, facendo immediatamente pensare al malfunzionamento di un bot.
In realtà la BBC ha scoperto che coloro che esprimevano il proprio sostegno al Premier non erano bot ma "persone reali" che utilizzavano profili falsi, mentre quelli che sembravano codici di programmazione "rotti" non erano altro che una risposta satirica alla valanga di commenti favorevoli lasciati dai troll.
L'evoluzione dei bot
Prima che il termine venisse associato irrimediabilmente ad attività di propaganda e disinformazione, i bot erano semplicemente programmi che svolgevano in maniera automatica determinati servizi di pubblica utilità, come avvisare in caso di terremoto od offrire assistenza ai clienti.
Inizialmente Twitter non ostacolava l’uso di applicazioni esterne per automatizzare certe attività: queste venivano usate soprattutto per operazioni giornalistiche, accademiche, di servizio pubblico o commerciali. E inizialmente si trattava di software molto semplici, che non imitavano il comportamento umano ma che apparivano per quello che erano: attività automatizzate realizzate da un programma. Chiunque poteva riconoscere facilmente un profilo “non-umano”.
Con il tempo, le piattaforme hanno cambiato le proprie policy con l’obiettivo di impedire un uso malizioso dei propri spazi da parte di certi programmi e per privilegiare le interazioni tra persone reali. Come conseguenza delle nuove regole più restrittive, i creatori di bot hanno cambiato strategia e il loro lavoro si è specializzato nell’imitare il comportamento umano. Molti sviluppatori dedicano mesi o addirittura anni a “coltivare” i propri profili falsi prima di venderli al miglior offerente.
È possibile incontrare account che per anni hanno pubblicato messaggi credibili su argomenti differenti, diffuso articoli, video musicali, meme e altri contenuti che appaiono coerenti e realistici, ma che improvvisamente iniziano a diffondere anche messaggi politici e propaganda faziosa. Account di questo tipo, con un passato credibile e una personalità costruita nel tempo, sono i più difficili da identificare.
Questi software sono destinati a diventare sempre più sofisticati. In un recente esperimento il ricercatore di Harvard Max Weiss si è servito di un programma di scrittura automatica per creare 1.000 commenti in risposta a un sito federale che interrogava i cittadini su una nuova riforma sanitaria. Ognuno di quei commenti era unico e sembrava scritto da una persona reale che dava il suo parere, a volte critico, su un tema di grande importanza sociale. Gli amministratori del sito federale Medicaid.gov hanno accettato quei commenti come legittimi. Successivamente Weiss li ha messi al corrente dell'esperimento e ha chiesto loro di rimuovere quei commenti per impedire che le frasi generate da un bot dessero inizio a dei dibattiti reali su una questione così importante.
I bot più avanzati sono programmati per imitare il comportamento umano. Per cui, spiega Stefano Cresci a First Draft, la maniera più efficace per capire se siamo di fronte a un esercito di bot, cyborg o semplici troll è studiare le attività sincronizzate e automatizzate che coinvolgono più account. “Non possiamo più limitarci ad analizzare un singolo account, questo metodo non funziona più. Dobbiamo analizzare gruppi di account e le somiglianze sospette che presentano tra loro”, conclude Cresci.
Come riconoscere i bot
Ogni specialista utilizza una strategia diversa. Ricercatori e accademici lavorano da anni alla creazione di indicatori e metriche che possano aiutare in questo lavoro, ma ogni modello è differente. E questo è un grande vantaggio: se tutti utilizzassero lo stesso metodo, per i creatori di bot sarebbe più facile adeguarsi e raggirare gli indicatori scelti dai ricercatori.
Botometer, un programma sviluppato dalla University of Indiana, si basa su circa 1.200 caratteristiche di un account per determinare se si tratta di un bot oppure no.
Il modello IMPED, sviluppato da una collaborazione tra i ricercatori della City University London e quelli della Arizona State University, si concentra invece sui pattern linguistici dei tweet per valutare la qualità dei contenuti condivisi.
First Draft invece ha pubblicato una breve guida per riconoscere un bot, con un’avvertenza: “Solo perché si comporta come un bot, non vuol dire che sia un bot”. La disinformazione è una bestia dai mille volti.