La psicologia della disinformazione: perché è difficile correggere le false convinzioni
5 min letturaQualche settimana fa abbiamo ripreso un articolo di First Draft, organizzazione senza scopo di lucro che combatte la disinformazione online, che approfondiva alcuni dei concetti cognitivi più importanti per capire come mai siamo così facilmente ingannabili.
Leggi anche >> La psicologia della disinformazione: perché siamo vulnerabili
In questa seconda parte su psicologia della disinformazione, First Draft si sofferma sul perché le correzioni (come fact-check e debunk) si scontrano sempre con grandi resistenze psicologiche. Purtroppo, infatti, una volta esposti alla disinformazione è molto difficile liberarsene. Ogni punto è accompagnato da una lettura accademica consigliata per chi volesse approfondire.
- Lettura accademica consigliata: “Misinformation and its Correction: Cognitive Mechanisms and Recommendations for Mass Communication”, di Briony Swire e Ullrich Ecker, University of Western Australia, 2018.
Effetto dell'influenza continua
L'effetto dell'influenza continua (continued influence effect) si manifesta quando la disinformazione continua a influenzare le persone anche dopo essere stata corretta. È il fallimento del fact-checking.
Questo è il concetto psicologico più importante quando si tratta di correzioni. C'è consenso sul fatto che una volta che sei stato esposto alla disinformazione è molto difficile liberarsene.
Il fact-checking spesso fallisce perché la disinformazione, anche quando spiegata nel contesto di un debunk, può in seguito essere ricordata come un fatto. Se ripensiamo alla teoria del doppio processo, un pensiero più facile da processare è anche più facile da ricordare, nonostante siamo già a conoscenza della sua correzione. Ad esempio, se leggiamo un fact-check su un politico che sembrava ubriaco (ma non era vero) in un video manipolato, potremmo a distanza di tempo ricordare semplicemente l'idea che quel politico fosse ubriaco, dimenticando il fact-checking.
Anche le correzioni efficaci (come quelle che si soffermano sui fatti piuttosto che ripetere la disinformazione) possono svanire dopo solo una settimana. Nelle parole di Ullrich Ecker, uno scienziato cognitivo della University of Western Australia, "l'effetto dell'influenza continua sembra resistere alla maggior parte dei tentativi di eliminarlo". Quando si tratta di disinformazione, è sempre preferibile prevenire piuttosto che curare.
- Lettura accademica consigliata: “Misinformation and Its Correction: Continued Influence and Successful Debiasing”, di Stephan Lewandowsky, Ullrich K.H. Ecker, Colleen M. Seifers, Norbert Schwarz, John Cook, Psychological Science in the Public Interest, 2012.
Modelli mentali
I modelli mentali (mental models) sono strutture che ci aiutano a comprendere gli avvenimenti che ci circondano. Se la nostra casa è in fiamme e vediamo una bottiglia molotov rotta vicino all'incendio, siamo portati ragionevolmente a costruire un modello mentale secondo il quale il fuoco è stato causato da un attacco. Se un pompiere ci corregge, dicendo che l'incendio non è stato causato dalla molotov che abbiamo appena visto, rimane un vuoto nel nostro modello mentale che non ci permette di capire la causa dell'incendio.
Sapere che il nostro modello mentale è sbagliato non è però sufficiente, perché fino a che non saremo in grado di sostituirlo con un nuovo modello mentale in grado di spiegare coerentemente l'accaduto, è possibile che resteremo intimamente convinti del fatto che la molotov sia la causa dell'incendio.
Ciò significa che le correzioni devono anche colmare il vuoto che creano, offrendo una spiegazione causale alternativa, per esempio. Questo è molto difficile, purtroppo, soprattutto quando parliamo di giornalismo: sostituire un modello mentale non sempre è possibile con le informazioni disponibili.
- Lettura accademica consigliata: “Misinformation and its Correction: Cognitive Mechanisms and Recommendations for Mass Communication”, di Briony Swire e Ullrich K.H. Ecker, Misinformation and Mass Audiences, 2018.
Effetto della verità implicita
L'effetto della verità implicita (implied truth effect) è quando qualcosa ci sembra vero per il semplice fatto che non è stato (ancora) corretto da nessuno. Questo è un problema molto attuale per i fact-checker e per i social media che hanno deciso di lottare contro la disinformazione.
Quando le correzioni vengono applicate solo ad alcuni post o tweet, mediante un'etichetta o un articolo di fact-checking correlato, i post che non sono stati corretti possono essere percepiti come più credibili. Quindi l'assenza di un fact-checking su un sito specializzato può essere utilizzato come argomento per rafforzare una notizia falsa.
- Lettura accademica consigliata: "The Implied Truth Effect: Attaching Warnings to a Subset of Fake News Headlines Increases Perceived Accuracy of Headlines Without Warning", di Gordon Pennycook, Adam Bear, Evan T. Collins, David G. Rand, Management Science, 2020.
Effetto della verità contaminata
Se i fact-checking che vediamo continuamente online ci inducono a dubitare in maniera sistematica di qualsiasi informazione (anche se vera), stiamo parlando di effetto della verità contaminata (tainted truth effect).
Le correzioni sono entrate a far parte della nostra dieta informativa, soprattutto da quando i social network hanno deciso di contrastare la disinformazione, ricorrendo a etichette o linkando articoli di debunking. Il rischio è che questa esposizione continua al fact-checking contribuisca a creare una sfiducia generalizzata verso ciò che leggiamo.
Come per l'effetto della verità implicita, l'effetto della verità contaminata (noto anche come "effetto spillover") è un potenziale problema legato alle etichette introdotte dai social media contro la disinformazione.
- Lettura accademica consigliata: "Warning against warnings: Alerted subjects may perform worse. Misinformation, involvement and warning as determinants of witness testimony”, di Malwina Szpitalak, Romuald Polczyk, Polish Psychological Bulletin, 2010.
Ripetizione
La ripetizione permette alla disinformazione di rimanere impressa nella mente delle persone e rende molto più difficile la correzione, per almeno due ragioni. Se ascoltiamo un'informazione più di una volta, è più probabile che crediamo che sia vera. La ripetizione può anche far sembrare una convinzione più diffusa di quanto non sia realmente, il che può aumentare la sua plausibilità, portandoci alla falsa conclusione che se molte persone pensano che sia vera, ci sono buone probabilità che lo sia.
- Lettura accademica consigliata: "Inferring the popularity of an opinion from its familiarity: A repetitive voice can sound like a chorus”, di Kimberlee Weaver, Stephen M. Garcia, Norbert Schwarz, Dale T. Miller, Journal of Personality and Social Psychology, 2007.
Effetto della verità illusoria
L'effetto della verità illusoria (illusory truth effect) si verifica quando la familiarità ci fa sembrare vero qualcosa che è falso. Il fatto di essere già entrati in contatto con un'informazione falsa (anche solo una volta), ci fa percepire come plausibile qualsiasi successiva esposizione. È un effetto legato alla fluidità percettiva, di cui si parlava già nel primo articolo.
- Lettura accademica consigliata: "Prior exposure increases perceived accuracy of fake news”, di Gordon Pennycook, Tyrone D. Cannon, David G. Rand, Journal of Experimental Psychology: General, 2018.
Effetto del ritorno di fiamma
L'effetto del ritorno di fiamma (backfire effect) è la teoria secondo cui un fact-check può essere controproducente a tal punto da rafforzare la credenza nella notizia falsa che pretende di correggere.
Si tratta di gran lunga del concetto psicologico più contestato quando parliamo di disinformazione e, sebbene famoso, non è stato riscontrato come norma. Alcuni dubitano addirittura che esista. Secondo Full Fact, si tratta di un'eccezione.
Nonostante sia stato più volte messo in dubbio, è uno dei concetti della psicologia della disinformazione più conosciuti dall'opinione pubblica. Ironicamente, è diventato "un mito difficile da sfatare", secondo First Draft.
-
- Lettura consigliata: "The backfire effect: Does it exist? And does it matter for factcheckers?", di Amy Sippit, Full Fact, 2019.
- Lettura accademica consigliata: "Refutations of Equivocal Claims: No Evidence for an Ironic Effect of Counterargument Number", di Ullrich K.H. Ecker, Stephan Lewandowsky, Kalpana Jayawardana, Alexander Mladenovic, Journal of Applied Research in Memory and Cognition, 2018.
Leggi anche >> Come elaboriamo l’informazione che riceviamo e gli errori della nostra mente
Immagine via Pixabay