Balsami e tribù: il debunking è inutile?

Il pubblico a cui ci rivolgiamo non è costituito da chi è già schierato, ma da quelli che non hanno una posizione definita e che hanno più probabilità di trarre beneficio dalla verifica delle prove. Questo ha due conseguenze. In primo luogo che l'aggressività nei confronti della fazione avversa piace alla propria tribù, ma non all'ampia fascia di popolazione a cui parliamo. In secondo luogo che non bisogna limitarsi al debunking, ma fare un lavoro più a lungo termine, che consiste nell'educare ai valori e ai metodi della scienza

img
Una Bufala VERA ©cristina visentin
Reduce da una slogatura alla caviglia, un giorno lord Clarence Emsworth, nono conte di Blandings, riceve in regalo una bottiglia di balsamo. Entusiasta di sperimentare con medicine e sostanze chimiche, prima di andare a dormire il conte di Blandings strofina sulla caviglia un po’ di balsamo, ma gli effetti non sono quelli sperati. Svegliatosi dopo aver sognato di essere stato messo al rogo dagli Indiani, lord Emsworth scopre che la caviglia gli fa più male di prima e per rimediare si versa una nuova dose di unguento. Passano le ore e, non essendo particolarmente lesto nel pensare, lord Emsworth scopre la verità soltanto verso le quattro del mattino, sul punto di procedere alla quinta applicazione di balsamo: il prodotto in realtà è destinato ai cavalli, «e chiunque abbia una conoscenza anche superficiale dei cavalli e dei conti sa che vi è una differenza notevole fra loro: i secondi hanno una pelle più sensibile.»[1]

Questa storia che ha per protagonista lord Emsworth, uno dei molti personaggi ideati dall’umorista britannico P. G. Wodehouse, mi viene in mente ogni volta che ci chiediamo se smascherare le bufale sia efficace o no. Nonostante tutto il nostro lavoro le bufale continuano a esserci e anzi sembrano aumentare, come il male alla caviglia di lord Emsworth. Forse il debunking è dannoso come la pomata per cavalli? La questione è tornata alla ribalta recentemente, con la pubblicazione di uno studio scientifico intitolato “Debunking in a World of Tribes”, a cura di Walter Quattrociocchi, responsabile del laboratorio di scienze sociali dell’IMT di Lucca, e di altri sette ricercatori[2].

Lo studio ha analizzato il comportamento di 54 milioni di utenti Facebook in un arco di tempo di cinque anni, in relazione a due tipi di post: quelli provenienti da fonti scientifiche accreditate e quelli provenienti da pagine favorevoli alle teorie del complotto. Lo studio è arrivato a due conclusioni importanti. In primo luogo, coloro che interagivano con i post (tramite commenti o “mi piace”) tendevano ad aggregarsi in due gruppi di persone ben definiti e non comunicanti tra loro, che possiamo chiamare “scientifici” e “complottisti”.

image
Walter Quattrociocchi
Entrambi questi gruppi erano fortemente esposti al “confirmation bias”, cioè alla tendenza ad accettare soltanto le informazioni in linea con i propri pregiudizi e a scartare quelle contrastanti. In particolare, la maggior parte dei “complottisti” non vedeva mai su Facebook i post di debunking, che quindi non arrivavano a chi ne avrebbe avuto più bisogno. In secondo luogo, i pochi che li vedevano erano i più accesi sostenitori delle teorie smentite e reagivano al debunking rafforzando ancora di più le proprie convinzioni. Questo fenomeno è legato al fatto che Facebook, così come Google e gran parte dei siti internet più popolari, seleziona le notizie privilegiando per ogni utente quelle più in linea con le sue preferenze personali. Gli “scientifici” vedono prevalentemente notizie da fonti scientifiche o riportate in modo scientifico, i “complottisti” soprattutto notizie riportate in modo complottista: la realtà che ci arriva da Internet non è la stessa per tutti, ma è modellata su misura per ognuno di noi e finisce per rafforzare le nostre idee e i nostri pregiudizi. Per questo Quattrociocchi applica il concetto di “camere di risonanza” (“echo chamber”) alla comunità degli “scientifici” e a quella dei “complottisti”: ognuna delle due fa rimbalzare al suo interno sempre lo stesso tipo di informazioni, senza entrare in contatto con l’altra. In questo articolo le chiamerò per brevità, prendendo a prestito un’altra espressione di Quattrociocchi, la “tribù scettica” e la “tribù complottista”.

Dal momento che le teorie del complotto non si diffondono soltanto a causa della cattiva informazione o della credulità, ma anche per altri fattori come la sfiducia crescente dei cittadini nei confronti delle istituzioni e l’analfabetismo funzionale[3], la triste conclusione di Quattrociocchi è che il debunking serve a poco: le bufale continuano a esserci e anzi si diffondono ancora di più.

Com’era prevedibile, questi risultati molto interessanti hanno suscitato diverse discussioni su Facebook e in generale su Internet. Mi ha colpito il fatto che nessuna delle repliche a Quattrociocchi che ho visto si basasse su altri studi scientifici con risultati diversi dai suoi. Vuol dire che la comunità degli scettici e dei debunker, che si propone di promuovere la mentalità scientifica, non verifica scientificamente l’efficacia del proprio lavoro? Rischiamo di fare come lord Emsworth con la sua pomata per cavalli?

Secondo me questo rischio esiste: nel complesso non verifichiamo abbastanza l’efficacia del nostro lavoro. A difesa degli scettici e dei debunker, bisogna dire che siamo una comunità molto piccola, che non ha le risorse economiche per commissionare in proprio degli studi scientifici, ma qualche tentativo di valutare il problema lo facciamo. Per esempio, al convegno sulle leggende metropolitane organizzato dal CICAP e dal CeRaVoLC nel 2004, lo studioso olandese Peter Burger aveva tenuto un intervento intitolato “Pompieri o incendiari?” nel quale si chiedeva proprio se smentire le leggende metropolitane e le bufale fosse efficace o controproducente, a partire da un episodio riguardante l’attrice francese Isabelle Adjani[4].

Una delle cose che abbiamo imparato, sia pure in modo empirico e non scientifico, è che rivolgersi a chi è già convinto dalle teorie del complotto (o dalle pseudoscienze) è una perdita di tempo. Nella nostra esperienza, cercare di convincere a tutti i costi queste persone non fa altro che rafforzarle ancora di più nelle loro convinzioni, proprio come ha trovato Quattrociocchi. Per questa ragione nel CICAP diciamo sempre che il pubblico a cui ci rivolgiamo non è costituito da chi è già schierato, o dalla parte dello scetticismo o dalla parte delle pseudoscienze, ma da tutti quelli che stanno nel mezzo e che hanno più probabilità di trarre beneficio dalla verifica delle prove. Il fatto di rivolgersi a questo pubblico poco “ideologizzato” ha due conseguenze. In primo luogo bisogna tenere presente che l’aggressività nei confronti della fazione avversa piace alla propria tribù, ma non necessariamente all’ampia fascia di popolazione che sta nel mezzo e che è il nostro vero obiettivo. In secondo luogo non bisogna limitarsi al debunking, ma fare un lavoro più complesso e più a lungo termine, che consiste nell’educare ai valori e ai metodi della scienza.

Questa esperienza, purtroppo, non viene sempre applicata dalla comunità degli scettici e dei debunker, che spesso si comporta secondo la dinamica analizzata da Quattrociocchi: esiste davvero una “tribù” scettica molto schierata, composta da vari gruppi e pagine Facebook, che è generalmente molto aggressiva nei confronti della fazione avversa. Il fatto è che sollevare l’attenzione della propria “tribù” è abbastanza facile e dà una gratificazione immediata in termini di “mi piace” e di commenti, ma è anche inutile se non controproducente. Sforzarsi di ottenere dei risultati concreti con il pubblico generale poco schierato, invece, è molto più difficile, non ci sono misure dirette del successo ottenuto, e quindi avviene di meno, anche se sarebbe più importante. Quando il CICAP cerca di affrontare le teorie del complotto in modo pacato e costruttivo, capita spesso che venga criticato non soltanto dai complottisti, ma anche, se non di più, dalla tribù scettica, che vorrebbe un atteggiamento più polarizzato e più in linea con l’identità di quella comunità.

Sicuramente ulteriori ricerche permetteranno di chiarire meglio i risultati di Quattrociocchi e magari di correggere il tiro. Bisogna però partire dal fatto che il lavoro di Quattrociocchi non è il primo in questa direzione, ma conferma le indicazioni di ricerche precedenti: per esempio uno studio del 2014 su un gruppo di genitori ha mostrato che l’informazione sui rischi delle mancate vaccinazioni e sull’assenza di legame tra vaccinazioni e autismo non aumentava affatto la loro intenzione di vaccinare i figli, ma anzi in alcuni di loro produceva l’effetto contrario[5].

Inoltre, anche senza considerare lo studio di Quattrociocchi, l’idea del “debunking ingenuo” per cui basterebbe smentire le false notizie e le teorie del complotto per combatterne la diffusione è già smentita da una serie di conoscenze che abbiamo da tempo:

• la mancanza di informazione e di cultura non sono la causa principale della diffusione di teorie infondate. Molti studi mostrano che le pseudoscienze sono diffuse indipendentemente dal livello di istruzione (come l’astrologia), se non addirittura più diffuse tra le persone con istruzione medio-alta (come l’omeopatia). L’idea che sia sufficiente fornire alle persone informazioni corrette per eliminare le convinzioni sbagliate o ripristinare la fiducia nella scienza è sperimentalmente falsa[6].

• le teorie del complotto e le pseudoscienze rispondono a esigenze psicologiche e sociali ben precise, di conseguenza smentire le false affermazioni a loro sostegno non è sufficiente a farle scomparire. Questo non vuol dire che farlo sia inutile, ma che è soltanto uno degli strumenti, e nemmeno il più importante, per costruire una società sana che non sia preda della cattiva informazione.

• la sterminata quantità di informazioni presenti su Internet e la personalizzazione delle notizie proposte da siti web come Facebook e Google creano comunità di persone esposte a versioni diverse della realtà e non comunicanti tra loro[7].

• l’esistenza di diverse comunità non comunicanti fra loro, ognuna delle quali con una propria versione della realtà poco permeabile a influenze esterne, rende particolarmente difficile smentire le convinzioni false e arrivare a una verità condivisa, alimenta le paranoie e riduce il livello di fiducia reciproca[8].

Quindi il debunking è inutile?

No, non è inutile (cosa che peraltro non ha mai detto nemmeno Quattrociocchi, al contrario di ciò che gli è stato attribuito), ma se viene lasciato da solo serve a poco e può davvero essere controproducente. Diventa utile, invece, se viene usato per creare informazioni da usare con successo all’interno di strategie di comunicazione più sofisticate, come quella suggerita dallo stesso Quattrociocchi di entrare in un’echo chamber con un messaggio coerente alla stessa e provare a modificarla poco per volta con contenuti lievemente differenti[9], oppure quella del reframing, che consiste non nel fornire nuove informazioni ma nel tentare di cambiare il modo in cui un dato problema viene inquadrato dai mezzi di comunicazione[10].

Note


1) “Compagnia per Gertrude”, in P. G. Wodehouse, Il castello di Blandings, Rizzoli, Milano, 1984.
2) W. Quattrociocchi et al, “Debunking in a World of Tribes”, arXiv:1510.04267
3) Per analfabetismo funzionale si intende l’incapacità di interpretare correttamente un testo scritto e di scrivere in modo efficace, pur senza essere letteralmente analfabeti.
4) L’attrice era apparsa alla televisione francese per smentire le voci che le attribuivano un tumore. Uno studio aveva dimostrato che in seguito all’apparizione televisiva di Isabelle Adjani, la percentuale di coloro che credevano alla sua malattia tra coloro che conoscevano la voce era diminuita, ma il numero totale di coloro che avevano sentito la voce era aumentato moltissimo, perciò dopo l’intervista coloro che credevano che Adjani avesse un tumore erano più numerosi di prima, contrariamente alle intenzioni dell’attrice.
5) Brendan Nyhan et al., “Effective Messages in Vaccine Promotion: A Randomized Trial”, in Pediatrics; 3 marzo 2014, DOI: 10.1542/peds.2013-2365
6) Nico Pitrelli, “La crisi del ‘Public Understanding of Science’ in Gran Bretagna”, in Journal of Science Communication 2, marzo 2003.
7) Eli Parisier, The Filter Bubble. What the Internet is Hiding from You, Penguin Books, London, 2011.
8) Farhad Manjoo, True Enough: Learning to Live in a Post-Fact Society, Wiley, Hoboken, 2008.
10) Strategia che è stata esplorata in particolare per quanto riguarda la comunicazione scientifica sul riscaldamento globale. Vedere: http://tinyurl.com/hfyx5ys .