Fuori da qui Media Literacy Post

Un vaccino per il lavaggio del cervello di Putin

1 Luglio 2022 20 min lettura

author:

Un vaccino per il lavaggio del cervello di Putin

Iscriviti alla nostra Newsletter

20 min lettura

E se la propaganda russa non fosse poi così sofisticata, nuova ed efficace? Se fosse in gran parte già vista, in epoca sovietica e in particolare negli anni della Guerra Fredda: saremmo allora in grado di imparare dal passato, e sconfiggerla meglio? Non solo tecnologicamente, come (pare) stia riuscendo (in parte) all’Ucraina di Volodymyr Zelensky (e, forse soprattutto, Mykhailo Fedorov). 

Leggi anche >> Mykhailo Fedorov, il ministro di Zelensky che ha riscritto le regole della resistenza digitale

No. Sconfiggerla in un modo più fondamentale: con la logica. Imparando a mandarla a memoria prima ancora che i russi la dicano. Smentirla cioè con il debunking, certo, ma anche anticiparla — fare quello che Jon Roozenbeek (British Academy Postdoctoral Fellow al Cambridge Social Decision-Making Lab) chiama “prebunking”. 

Come per il Covid, anche dalla propaganda russa possiamo “vaccinarci”, sostiene Roozenbeek. Lo studioso ha passato gli anni del dottorato a investigare come la propaganda russa stesse operando (male, ha scoperto) nel Donbas, tra il 2014 e il 2017, per poi concentrarsi su modi creativi — basati su “approcci psicologici” — per imparare a sconfiggerla.

Ha creato giochi per imparare a riconoscere disinformazione sulla pandemia (Go Viral) e altre “fake news” diffondendole (Bad News). Ha creato serie di video educativi. Scritto saggi accademici e articoli divulgativi. Affrontato la storia, e dunque i singoli fatti, ma anche e soprattutto la forma attraverso la quale venivano raccontati: le tecniche, le strategie che ricorrevano nell’arsenale dei propagandisti intenti a vendere il mito della Russia “Great Again” — e che ricorrono ancora oggi che il suo dittatore, Vladimir Putin, si crede Pietro il Grande e cerca da oltre cento giorni di annientare l’innocente popolo ucraino.

Insomma, l’ipotesi di fondo è forte: 

  • La propaganda di Putin non è nuova o sofisticata come ci è stato detto
  • La propaganda russa non è (sempre) efficace come ci è stato detto
  • Dalla propaganda russa è possibile provare a “vaccinarsi”, ossia impararne tecniche e distorsioni sistematiche (e dunque prevedebili) così da essere in grado di riconoscerle.

Per provare a capire come, Valigia Blu ha impiegato due lunghe conversazioni Zoom a tempestare di domande Roozenbeek. Quella che segue è una trascrizione (editata in nome della chiarezza espositiva) di quanto ci siamo detti.

VB: Roozenbeek, come si contrastano la propaganda e l’information war di Putin? Nella sua ricerca (per esempio in ‘How Can Psychological Science Help Counter the Spread of Fake News?’) lei fa una distinzione cruciale tra “approcci reattivi”, basati sul debunking e il fact-checking, e “approcci proattivi” basati sulla “teoria dell’inoculazione” e il prebunking — inclusa la “inoculated gamification”, ovvero il ricorso a giochi per “iniettare” modi di difendersi dalla propaganda. In un recente articolo al riguardo su Politico, lei sostiene che “dovremmo anticipare le tattiche ricorrenti della disinformazione del Cremlino, e vaccinarci contro quelle tattiche”. Vale a dire: dovremmo adottare il secondo approccio. Proprio come abbiamo combattuto la pandemia con un vaccino, così possiamo vaccinarci contro la disinformazione russa. “Un vaccino per il lavaggio del cervello”, scrive. Può spiegarci perché dovremmo adottare l’approccio dell’inoculazione nel contesto dell’invasione russa dell’Ucraina, secondo le sue ricerche? E si applica anche ad altri contesti altrettanto bene?

JR: Certo, penso di sì. E credo anche che il debunking, per esempio, sia a sua volte utile. Solo che, proprio come ogni altro approccio, ha anche dei limiti. Debunking, prebunking e altri fanno in ogni caso tutti parte della stessa tipologia di interventi, che chiamiamo “interventi psicologici”. Sono abbastanza libertari quanto alla loro portata, nel senso che fanno completo affidamento su una loro adozione volontaria. Inoltre, non fanno alcuna affermazione in termini di diritti umani, libertà di espressione, o alcunché di simile. Fanno semplicemente affidamento sulla volontà delle persone di condividere qualcosa, e sulla possibilità di ridurre la loro predisposizione a condividere contenuti che non vorremmo condividessero. Naturalmente ciò non significa che queste siano le uniche soluzioni necessarie, perché a volte è vero che gli algoritmi che suggeriscono contenuti agli utenti, fanno suggerimenti semplicemente folli, e dunque potrebbe esserci bisogno di sistemarli — il che potrebbe comportare che Mark Zuckerberg, Google o Twitter potrebbero rimetterci del denaro. Spiace, ma non è esattamente una mia preoccupazione. Detto ciò, l’approccio all’inoculazione che abbiamo adottato si concentra specificamente sui modi in cui le persone vengono comunemente ingannate o manipolate online. Non ci occupiamo perciò necessariamente di determinare se un’affermazione è vera o falsa, perché spesso è difficile dirlo. In aggiunta, affermazioni che siano chiaramente false, e provengano da fonti inaffidabili, non sono poi così comuni. Molto più spesso ciò che vediamo sono contenuti che cercano di manipolare, ingannare, privati del loro contesto originario, per fare leva su paure, emozioni, epidemie e simili — contenuti che si possono a loro volta affrontare tramite interventi psicologici, direi, anche se fino a un certo punto. Insomma, quello che si può fare con un ragionevole grado di oggettività è dire: “Ok, questo contenuto fa ricorso a una fallacia logica, o a una particolare strategia manipolatoria”. E ci si può vaccinare contro quelle precise strategie. È questa l’idea che ha aumentato notevolmente la scalabilità di questo potenziale approccio. È la ragione è semplice: non è possibile fare prebunking (cioè smentire preventivamente, ndr) di ogni singolo esempio di misinformazione, semplicemente perché non si può sempre sapere cosa ne sarà oggetto. Tuttavia, è possibile predire le strategie che verranno usate — specie nel caso del manuale della disinformazione del Cremlino, le cui applicazioni si possono ampiamente prevedere, dato che il manuale è lo stesso da anni, anzi ere, e usano le stesse tipologie di tattiche.

VB: E tuttavia, la narrazione dominante circa la propaganda russa nei media occidentali sembra concentrarsi molto più su quanto sia nuova, sofisticata e zeppa di diavolerie tecnologiche — mentre al contrario la gran parte degli studiosi e degli esperti che ho studiato finora sembra essere d’accordo con lei: tutto questo non è nuovo. Potrebbe quest’ultima, in un certo senso, essere una buona notizia. Se comprendere le tecniche alla base della propaganda russa ci consente in qualche modo di confutarle prima ancora che vengano adoperate, allora significa che la storia può aiutarci a comprendere l’attuale invasione dell’Ucraina, e fare “prebunking” della propaganda che vedremo in atto. Ma se non sono nuove, da dove vengono le tecniche impiegate da Putin? Da dove cominciamo, per analizzarle?

JR: Da dove cominciamo? (ride) Beh, è veramente difficile dirlo. Si potrebbe argomentare che queste tecniche esistessero già e fossero già usate nel corso del XIX secolo, per esempio. Anche se ciò che oggi conosciamo come il manuale della disinformazione del Cremlino è stato principalmente sviluppato durante la Guerra Fredda, dunque negli anni ’50, e poi raffinato nei decenni successivi, con piccoli adattamenti al mutare dei tempi — per esempio, aggiornandosi a nuovi mezzi di comunicazione. Di conseguenza, parte di quel playbook resta rilevante ancora oggi; per esempio, la splendida espressione russa “полезный идиот”, che significa “utile idiota” — e cioè, in sostanza, cercare persone inclini a ripetere qualunque cosa tu voglia dire. E non c’è nemmeno bisogno di pagarle! Basta amplificarne artificialmente, o anche non artificialmente, il reach (cioè il numero di utenti raggiungibili con un post online, ndr) fino a un certo punto, assicurandosi che siano il più popolari possibile. Ora, il punto non è fare di ogni paese preso di mira con la propria disinformazione un alleato del Cremlino e della Russia. Il punto è che maggiore è lo spazio che questi utili idioti riescono a prendersi in una determinata discussione politica, migliore è la situazione per la Russia. E di certo né i siloviki né gli altri apparatchik si illudevano che avrebbero trovato chissà che supporto per l’Unione Sovietica, mentre era ancora in vita, perché l’URSS era molto impopolare. Pensavano tuttavia che anche se non avessero potuto rendere popolare l’Unione Sovietica, avrebbero quantomeno potuto ridurre la popolarità di chiunque fosse al potere — con l’intento di paralizzare, piuttosto che di persuadere. È questa la strategia di fondo che si annida nelle campagne propagandistiche degli ultimi decenni. Ed è anche ciò che stiamo vedendo ora: non appena si smette di considerare la campagna propagandistica russa come una campagna di persuasione, e la si concepisce invece come una campagna di confusione, allora diventa molto più semplice decifrare quello che sta succedendo. Per esempio, nel 2014 c’è stato il disastro — chiamiamolo così — del MH17, e abbiamo visto il Cremlino e i media governativi diffondere una pletora di teorie del complotto sempre più improbabili. E di nuovo, il punto non era cercare di persuadere, dicendo “No, no, è successo questo, non quello che stai dicendo tu!”. Il punto era portare a dire: “Ci sono dieci teorie diverse, quella dell’Occidente è solo una delle teorie possibili”. Una, ma quella giusta! Non un grande sostenitore dell’idea di contestualizzare sempre tutto, al punto di non poter più dire che una cosa è vera. E lo sappiamo: nel caso del MH17 (che vedremo nel dettaglio in seguito, ndr) i separatisti avevano messo le mani su un sistema missilistico, ma non sapevano usarlo particolarmente bene, e così hanno abbattuto un aereo di linea. Eppure, se ci sono dieci teorie differenti sull’accaduto, diverse persone soggette a multiple narrazioni finiranno per alzare una mano e dire: “no”. Ecco, questo è il punto. 

VB: Anche assumendo che queste strategie non siano nuove, si potrebbe argomentare che gli strumenti attraverso cui i propagandisti russi cercano attualmente di influenzare le persone, invece, lo sono. Lo abbiamo letto in svariate analisi: per via del ricorso a hacker, troll, bot, e simili. Eppure la Russia non è l’unico paese a farlo, molti altri paesi ci ricorrono — giusto? Ciò che sto cercando di dire — e chiederle — è: la tecnologia che sta alla base della propaganda russa è particolarmente degna di nota? Ed è giusto concentraci così tanto sugli aspetti correlati alla tecnologia e ai social media, invece di concepire la propaganda come qualcosa di più fondamentalmente collegato al potere e alle sue strategie? 

JR: Ciò che viene chiamato “coordinated inauthentic behavior” (espressione, popolarizzata da Facebook, che sta a indicare gruppi di soggetti o pagine su di un social network al lavoro insieme per ingannare o manipolare utenti, cfr. Coordinated Inauthentic Behavior Explained, ndr) è ormai una componente importante di qualunque strategia di potere, certo. Anzi, più di prima, per la semplice ragione che ora è più facile metterlo in atto. C’è un motivo per cui esiste la “troll factory” di San Pietroburgo (parla dell’esercito di troll pagati per scrivere commenti pro-Cremlino, reclutato nella Internet Research Agency di cui si è più volte letto negli ultimi anni, per es. qui, ndr), no? C’è un motivo per cui ci sono centinaia di persone pagate per diffondere quel tipo di commenti ogni giorno. E il motivo è che i russi sanno che anche i numeri sono una forma di potere. Quindi anche se niente di quanto stai dicendo ha senso, o pare eccessivo, sembra comunque più persuasivo [se sono in tanti a dirlo]. Quanto a sofisticazione psicologica, non è particolarmente difficile creare un bot su Twitter, e inoltre — come dici — lo fanno tutti. Insomma, queste campagne di disinformazione non sono più tecnologicamente avanzate di una campagna pubblicitaria di media entità su una qualunque piattaforma digitale. Il livello è all’incirca lo stesso. Nemmeno le narrazioni utilizzate sono particolarmente sofisticate. Per esempio, se l’intento è condurre una campagna di disinformazione per le elezioni statunitensi, bisogna identificare le faglie di rottura nella società americana e allargarle, di modo che diventino più nocive. E non è esattamente difficile riuscirci, negli USA o in qualunque altra società.

VB: Specialmente in società “aperte”…

JR: Esattamente. Voglio dire, non serve essere un genio per fare cose simili. Operativamente, ciò che va fatto, di fondo, è fornire un insieme di istruzioni molto semplici ai tuoi propagandisti, e dire loro: “Ecco tre narrazioni da usare in tema di aborto, armi e razza. Andate!”. Per cui certo, c’è un qualche livello di sofisticazione. Ma non ci vedo niente di eccezionale. Sempre in tema di sofisticazione, poi, c’è anche questa tendenza, osservabile spesso, riguardante più di preciso la Russia. È una sorta di “Orientalismo”, ma dirottato — nel senso che qui, in Occidente, abbiamo in testa l’idea che la Russia sia una specie di “uomo nero”: super spaventoso, super intelligente, un cattivo da film veramente cattivo. In realtà, i russi se la cavano piuttosto male con un sacco di cose. Per esempio, non credo siano particolarmente abili a disinformare. È piuttosto vero che siamo noi a parlare di loro come se fossero estremamente temibili, capaci di persuadere fette significative della popolazione e indurle a credere che la Russia sia una grande potenza. Beh, calmiamoci un attimo. A me tutto questo non fa necessariamente spavento.

VB: Ma se la propaganda russa non è così sofisticata come si legge, è efficace ugualmente? E lo è allo stesso modo in Occidente e nel resto del mondo? Per esempio, ho letto ripetutamente fin dalle prime settimane del conflitto che la “information war” sarebbe stata già “vinta dall’Ucraina” in Occidente, e al contempo però dalla Russia altrove. Non è un giudizio precoce? E più in generale, ha davvero senso concepire la guerra per l’informazione come una battaglia già vinta, o anche solo che qualcuno può vincere? 

JR: Beh, forse. Credo che la Russia abbia fatto una cosa intelligente, e cioè non limitarsi a concentrare i propri sforzi per disinformare unicamente in Ucraina, Polonia e paesi limitrofi, ma allargarli invece a paesi come l’India. E l’India è un ottimo esempio, perché è sempre stata sul crinale tra un rapporto di amicizia con la Russia e con l’Occidente. E poi, dall’India tutto questo risulta estremamente lontano. Perché dovrebbe interessarsene? Un po’ come a noi non sembra interessare particolarmente dello Yemen: è molto lontano, non conosciamo gli yemeniti, per cui… Spiacenti! Ecco, è molto simile. Producendo disinformazione e conducendo information warfare in India, la Russia cerca di convincere la maggior parte dei suoi abitanti che sia nel giusto. È una strategia intelligente. Non sono però del tutto convinto che la guerra per l’informazione potesse mai essere vinta dalla Russia in Occidente o in Europa. Ma forse, non era nemmeno quello l’intento. Di nuovo, il punto dei russi non è necessariamente vincere questa guerra [per l’informazione, ndr], ma assicurarsi che ci siano due fazioni ben radicate. E anche se una — quella pro-Russia — fosse minuscola, fintanto che è ben inserita [nel paese bersaglio, ndr], ha rappresentanza politica, e via dicendo, siamo costretti a prestarvi attenzione. Ed è già una vittoria. 

VB: Stavo giusto per inserirmi su questo. Nel suo articolo per Politico che abbiamo già menzionato, lei scrive anche che uno dei principali effetti della propaganda è che, “anche se solo per un momento”, essa “ci invita a non credere ai nostri occhi e interrogare l’ovvio”. E “più è audace la menzogna”, aggiunge, “più tempo perdiamo nel cercare di smentirla”. Credo che queso passaggio riassuma perfettamente la copertura mediatica dell’aggressione di Putin all’Ucraina in paesi democratici come l’Italia, in cui propagandisti al soldo del Cremlino vengono invitati come ospiti di trasmissioni tv di prima fascia, ospiti la cui voce va assolutamente ascoltata. Nel mio paese alcuni di loro sono divenuti vere e proprie celebrità. Sembra proprio che, per ribattere alle loro bugie e manipolazioni, si sia tutti costretti a ripetere l’ovvio: cioè, appunto, che sono bugie e manipolazioni, per quanto grossolane od oscene. E più ripetiamo l’ovvio, più diventa controverso. Insomma, questa dinamica non sembra rinforzare affatto la credenza nell’ovvio. Al contrario, sembra unicamente farcelo mettere sempre più in discussione. Un meccanismo congruente con quelli da lei descritti finora.

JR: Sì, sono d’accordo. È una guerra d’attrito, in un certo senso. Ciò su cui fa affidamento la Russia è dire: “Certo, sostanzialmente tutti stanno con l’Ucraina — ma possiamo minare quel supporto”. Per esempio, la propaganda potrebbe raccontare storie di profughi ucraini colti in flagrante a rubare una bottiglia di latte dal supermercato, o a compiere altri reati minori. E la narrazione sarebbe naturalmente che “i profughi nuocciono alla società”, che “dovrebbero essere grati che li lasciamo entrare nel nostro paese, e invece guardate come ci ripagano”, e via dicendo. Ci si concentrerebbe insomma su singoli casi di comportamenti ritenuti scorretti, e si direbbe che sono rappresentativi di tutti i profughi ucraini. Non si può fare molto per prevenire narrazioni di questo tipo, ma quel che si può fare deve essere fatto. È incredibilmente importante. E di nuovo, possiamo predire con ragionevole certezza che si verificheranno.

VB: Significa che possiamo in qualche modo “smentire preventivamente”, cioè fare “prebunking”, di quanto verrà detto nei talk show?

JR: Sarei a favore, sì. Nel senso: ho lavorato a un progetto di “inoculazione” basato su video in cui l’idea principale era usare contenuti video molto corti ma in grado di affrontare ciascuno una particolare tecnica o strategia di manipolazione. Dal punto di vista sperimentale funzionano molto bene, un po’ come i videogiochi. E funzionano molto bene anche in ambienti come YouTube, per esempio. Ciò con cui sarei d’accordo è creare un insieme di video simili sulle tecniche e tattiche più comunemente adottate dal Cremlino. Su quanto dicevo in proposito dei profughi ucraini, per esempio, o sul whataboutism [di cui diremo in seguito, ndr]. Dovremmo creare video al riguardo, testarli, assicurarci che funzionino e poi condividerli sui social media, su YouTube, in televisione, e via dicendo, nel tentativo di anticipare e contrastare quel tipo di strategie propagandistiche.

VB: La propaganda si nutre spesso di teorie del complotto: potrebbe essere utile imparare a contrastare pure quelle. E tuttavia, secondo alcune ricerche il debunking può rivelarsi controproducente una volta applicato ai complottisti, finendo addirittura per rinforzare le loro credenze nelle teorie complottiste che intendeva sventare. Sto ragionando ad alta voce ora, ma è possibile che tutto questo derivi anche dal fatto che non parliamo la stessa lingua? Il debunking parla di norma la lingua della scienza e della razionalità, che è precisamente quanto i complottisti rifiutano.

JR: Hai ragione. Ed è anche uno dei limiti dell’inoculazione: assume, infatti, che chi viene vaccinato non abbia già contratto il virus — che non sia in terapia intensiva, in lotta per la sopravvivenza. Il vaccino serve per chi sta per fare ingresso in un bar senza la mascherina. Ed è un limite. Di nuovo, non parliamo strettamente di uno strumento di persuasione, quanto piuttosto di prevenire che la persuasione possa darsi. 

VB: E almeno in alcuni casi quella persuasione non si è data. Nella sua tesi di dottorato per esempio lei argomenta che la propaganda russa non abbia funzionato durante la guerra del Donbas, almeno negli anni tra il 2014 e il 2017. Perché?

JR: Per la mia tesi di dottorato ho studiato i contenuti mediatici prodotti nelle Repubbliche Popolari di Donetsk e Luhansk in quei quattro anni. Parliamo sia di articoli di giornale che di testate online — secondo l’assunto per cui i giornali mirano esclusivamente a un pubblico locale, mentre i siti di informazione tentano di norma di raggiungere anche un pubblico esterno (in particolar modo se si tratta di un sito in lingua inglese, per esempio, in un’area in cui si parla comunemente russo). Ho così raccolto più dati possibile, e poi adoperato diversi metodi di analisi linguistica computerizzata per individuare le narrazioni dominanti e prevalenti in tutti questi siti e giornali. È stato un approccio, per così dire, agnostico, nel senso che non sono partito da ipotesi forti, prima di cominciare l’analisi. E tuttavia, ciò che ne è uscito è una tendenza molto chiara: contenuti dedicati alla costruzione di un’identità nazionale sono quasi del tutto assenti. In ‘The failure of Russian propaganda’ (‘Il fallimento della propaganda russa’) ho menzionato l’esempio della cosiddetta “Novorossiya”, ma non è certo l’unico. Ci sarebbero stati diversi altri possibili riferimenti storici da sfruttare, se i propagandisti russi lo avessero voluto. Ma non lo hanno fatto.

VB: E continuano a non farlo? 

JR: È una buona domanda. Non lo so. Non credo le cose cambieranno, ma non ho guardato. Tuttavia, il punto fondamentale è che [i propagandisti russi, ndr] non si sono dimostrati particolarmente interessati a costruire abilmente una qualche sorta di giustificazione per le volontà indipendentiste — a parte raccontare la solita storia dell’Ucraina “piena di nazisti”. Il tentativo di persuadere le popolazioni locali, ma anche gli osservatori internazionali, che la causa delle Repubbliche Popolari di Donetsk e Luhansk fosse giusta è stato insomma piuttosto limitato. 

VB: Questo è molto interessante, perché controintuitivo. Confesso, mi sarei aspettato l’opposto: che se c’è bisogno di fare uno sforzo per ingegnerizzare artificialmente una qualche nozione di identità, e così giustificare la propria richiesta di indipendenza, quello sforzo sarà poi fatto — e senza risparmiarsi in alcun modo. Voglio dire, se la Russia investe così tanto sulla propaganda, come ha potuto non considerare un fattore simile?

JR: Direi per due ragioni. La prima è che lo status di queste due repubbliche, da un punto di vista politico, non era chiaro da un pezzo — perfino a Mosca. Per questo è stato loro consentito solo di spingersi fino a un certo punto, specialmente dopo il disastro dell’HM17 (un volo passeggeri della Malaysian Airlines partito il 17 luglio 2014 da Amsterdam in direzione Kuala Lumpur, dove non è però mai arrivato, ndr), a seguito del quale l’intero progetto ‘Novorossiya’ è stato abbandonato. Del resto, erano diventate un bel problema per la Russia, in quel momento. Ed erano profondamente influenzate dalla Russia, anche, dal punto di vista finanziario e da ogni altro punto di vista. 

VB: Bellingcat e la comunità delle analisi a fonti aperte (open source intelligence) hanno giocato un ruolo importante nel distruggere la legittimità della propaganda circa l’abbattimento dell’HM17… 

JR: Sì, e la mole di prove è sterminata… È uno di quei pochi casi in cui è veramente, veramente, veramente chiaro l’accaduto, e nessuna spiegazione “alternativa” ha senso. Ad abbattere quell’aereo sono stati i separatisti. E quel che è successo è che avevano messo le mani su un sistema missilistico terra-aria russo — dalla 53esima Brigata delle Forze armate russe — che tuttavia non erano capaci di usare. Quindi hanno scambiato un volo passeggeri per un cargo ucraino. Gli sparano. Questo va in mille pezzi. Muoiono tutti i passeggeri e l’equipaggio. Puoi chiamarlo “incidente” quanto vuoi, ma il fatto resta: hai sparato un missile su un aereo civile. Sappiamo che è accaduto, e non c’è reale modo di negarlo, o dubitarne ragionevolmente. E sì, certo, hai ragione: in parte grazie all’analisi di fonti aperte. Ma è altrettanto vero che il governo russo non ha necessariamente interesse nel fatto che esistano delle prove, nel senso che non è disposto a farsi smentire da prove. Dopotutto, se sei accusato di omicidio prove chiare e oggettive della tua colpevolezza non basteranno a impedirti di continuare a proclamare la tua innocenza.

VB: Tornando alle ragioni dell’amnesia russa circa l’identità delle repubbliche separatiste: dicevi che ce n’è più di una…

JR: Esatto. Ricapitolando: la prima ragione è che il disastro dell’MH17 e le sue conseguenze hanno fondamentalmente compromesso gli sforzi propagandistici dei russi, perché per lungo tempo, in seguito, la Russia non ha più voluto stare dalla parte delle due repubbliche. Il loro status ufficiale non era più chiaro. Di certo non era loro consentito dire esplicitamente — e questo è documentato — che avrebbero voluto o potuto unirsi alla Russia. Insomma, sono state lasciate in una sorta di limbo. E quando sei nel limbo, non c’è molto di cui parlare. Insomma, ci sono le difficoltà politiche di questi progetti. Ma una seconda ragione è che la popolazione stessa non era davvero interessata. È un mito duro a morire quello che chi parla russo voglia essere russo. In realtà, non è così; almeno non in Ucraina. Per cui non è che le persone ritrovatesi di colpo sotto controllo russo fossero contente della cosa. Certo, alcune vi erano indifferenti. Ma la maggior parte era sicuramente contraria — anche se non avevano chissà che scelta. Il sondaggio più accurato che ho potuto trovare sulle opinioni all’interno delle due repubbliche, quello condotto da Gwendolyn Sasse a Oxford, dice che, almeno fino a poco tempo fa, il supporto alla Federazione Russa era certo più alto all’interno delle due Repubbliche Popolari (dove raggiunge credo il 30-40%) che al di fuori di esse (nella maggior parte del Donbas è pro-Russia solo il 4% degli interpellati). E no, non è poco. Ma nemmeno dopo anni di propaganda, e nemmeno entro i confini delle due Repubbliche, raggiunge la maggioranza. Insomma, almeno fino al 2019 perfino all’interno delle Repubbliche Popolari di Donetsk e Luhansk c’è una forte maggioranza in favore [di restare nell’Ucraina]. E anche questo è un fattore: la palpabile mancanza di entusiasmo per l’idea di entrare a far parte della Federazione Russa nelle persone che fruivano dei contenuti mediatici che ho studiato. 

VB: Ma è davvero possibile misurare l’efficacia di queste forme di propaganda? 

JR: Sì, indirettamente di norma. La propaganda russa per esempio ha molto successo all’interno della Russia — e possiamo dirlo, se consideriamo il fatto che Putin è ancora al potere. O anche, che non si sia trovato a dover affrontare imponenti manifestazioni di protesta, per esempio dalle persone che sicuramente non saranno felici di sapere delle 40,000 vittime russe del conflitto. Inoltre, ulteriori prove derivano dal livello, alto, di supporto nella popolazione per Putin e per la guerra. Questi sono modi indiretti per misurare il successo della propaganda. Ma certo, il suo fallimento è molto più difficile da riconoscere. 

VB: Può descriverci alcune delle tecniche propagandistiche russe contro cui dovremmo essere “vaccinati”?

JR: Il cosiddetto “whataboutism” ne è una componente fondamentale. Che significa? Per esempio, dire: “Certo, la Russia starà pure commettendo crimini di guerra, ma allora che dire (what about, appunto, ndr) dei crimini di guerra degli Stati Uniti?”. Nel senso: sì, d’accordo. Ma allora il punto è non commettere più crimini di guerra. E quindi? Poi c’è una tecnica particolarmente diffusa nei circoli della sinistra, specie anti-imperialista: l’idea che quanto sta facendo la Russia nell’Europa dell’Est non sia imperialismo — mentre lo è quello degli Stati Uniti. Potremmo chiamarla “incoerenza”, credo. E poi c’è la tattica di cui parlavo in precedenza, che vedremo di certo all’opera in futuro — se già non lo è: esempi di profughi ucraini che non si comportano in modo “ideale”. Che ne so, uno perde le staffe, dopo mesi di privazioni in spazi angusti e traumi di guerra, e diventa violento. E allora ecco che arriva la propaganda a ingigantire casi simili, per creare l’impressione siano più comuni di quanto non siano davvero. E non solo più comuni, ma addirittura rappresentativi di tutti i profughi ucraini.

VB: O degli ucraini in genere, viste certe premesse razziste nella propaganda russa…

JR: Certo. Anche se non lo direbbero mai apertamente. E ciononostante, sarebbe proprio quello il fine ultimo: in sostanza, di fare in modo che agli europei piacciano i profughi ucraini, ma meno; che si riduca, di conseguenza, la volontà dell’Europa di stare con l’Ucraina. Ecco, questa può essere chiamata “fallacia dell’argomento fantoccio” (straw man argument). Ossia, prendere un argomento estremo e renderlo rappresentativo del tutto. 

VB: Un’ultima cosa. Ho letto molti esperti e giornalisti sostenere che la propaganda russa stia diventando sempre più brutale, estrema, e sempre più simile per molti versi alla propaganda totalitaria del secolo scorso. Lo storico Timothy Snyder, per esempio, ha definito “manuale per il genocidio” un discusso articolo apparso su Ria Novosti dopo l’aggressione del 24 febbraio, e ha inoltre di recente cominciato a parlare apertamente di fascismo russo (o “ruscism”, in italiano potremmo chiamarlo “rascismo”, ndr). Molti degli argomenti che sento ripetere sempre più di frequente, e con leggerezza, nei talk show della tv russa sembrano testimoniare questo stesso preoccupante scivolamento totalitario. Risulta anche a lei? 

JR: Credo sia importante separare i contenuti prodotti per un consumo domestico da quelli intesi per un pubblico internazionale. L’articolo su Ria Novosti era stato scritto principalmente per un pubblico russo. E all’interno della Russia la propaganda è davvero estrema ormai da circa otto anni. Certo, oggi sta diventando ancora più estrema, anche tramite alcuni soggetti mediatici. Per esempio, Dmitry Kiselyov ha cominciato a parlare in televisione di quanto la Russia sia brava a distruggere con le armi nucleari. “Ecco come funziona un sistema di deterrenza nucleare”, ha detto. “Ecco come, ipoteticamente, gli Stati Uniti sarebbero spacciati”. Cose di questo tipo. Una persona veramente estrema.

Iscriviti alla nostra Newsletter


Come revocare il consenso: Puoi revocare il consenso all’invio della newsletter in ogni momento, utilizzando l’apposito link di cancellazione nella email o scrivendo a info@valigiablu.it. Per maggiori informazioni leggi l’informativa privacy su www.valigiablu.it.

VB: Ho sentito ripetere argomenti simili in diversi segmenti televisivi, tra quelli riportati da giornalisti che tengono sott’occhio la propaganda tv in Russia come Julia Davis del Daily Beast e Francis Scarr della BBC. Passaggi in cui ospiti e conduttore ridono della prospettiva di un attacco nucleare su New York, con milioni di morti…

JR: Sì, a persone di questo tipo viene dato di tanto in tanto spazio in tv; a volte, invece, viene loro chiesto di moderare un po’ i toni. Credo che ora i toni siano certamente più estremi rispetto a prima dell’invasione, anche se non di molto. Ed è di norma difficile capire esattamente quanto estrema stia per diventare la propaganda, perché tende a riflettere la strategia del Cremlino — e al momento la strategia del Cremlino non è del tutto chiara. Nel senso: non sono certo che sappiano cosa sta per accadere. E anche questo è un problema. Prendi per esempio il caso di Finlandia e Svezia che chiedono di entrare nella NATO: non sanno bene che fare, in risposta. E mentre i contenuti diffusi a uso interno diventano sempre più estremi, non sono del tutto sicuro ciò sia altrettanto vero nel caso della propaganda russa che vediamo qui in Gran Bretagna, o in altre parti d’Europa e negli Stati Uniti. Per esempio, qui sono costretti a tenere in considerazione le politiche di moderazione delle piattaforme: e se i tuoi contenuti istigano troppo ovviamente al genocidio, beh, potrebbero essere rimossi dai moderatori. Devono, insomma, seguire un po’ le regole. E questo tende a smorzarne i toni.

Immagine in anteprima via University of Cambridge

Segnala un errore

Array