Come fa ad andare il treno? L'illusione di sapere e la conoscenza collettiva

img
«Come fa a andare il treno? Si butta la legna nella caldaia, il calore sviluppa energia, e questo treno va».
«Ma allora anche il caminetto va».
«Bravo! No, il caminetto non va. Già, come mai non va il caminetto?».

Nel film Non ci resta che piangere i personaggi interpretati da Massimo Troisi e Roberto Benigni, tornati indietro nel tempo fino al 1492, vorrebbero insegnare a Leonardo da Vinci a costruire oggetti tipici dell’era contemporanea come il treno o il termometro, ma si rivelano totalmente incapaci di farlo. La loro ignoranza ci fa ridere. Ma siamo sicuri di essere migliori di loro?

La risposta ci arriva dalle scienze cognitive, in particolare da un esperimento molto istruttivo condotto nel 2006 dalla neuroscienziata Rebecca Lawson[1]. In questo esperimento si chiede a un campione di soggetti se sanno come funziona la bicicletta. La maggior parte delle persone risponde di sì, ma quando viene messa alla prova e deve disegnare schematicamente una bicicletta, finisce per schematizzare qualcosa che non può muoversi, o che non è in grado di curvare. Se provate anche voi a farlo, senza guardare l’originale, e poi confrontate il risultato con una bicicletta vera, probabilmente scoprirete di avere sbagliato qualcosa o di avere dimenticato un pezzo essenziale. Come hanno mostrato ulteriori esperimenti, la stessa cosa succede con molti altri oggetti di uso quotidiano come la cerniera lampo, o lo sciacquone del water, del quale la maggior parte delle persone non sa spiegare il funzionamento perché non conosce l’effetto sifone (ben noto invece a chi per esempio ha travasato il vino da una damigiana nelle bottiglie).

Insomma, siamo molto ignoranti, esattamente come Benigni e Troisi. Gli scienziati cognitivi Steven Sloman e Philip Fernbach chiamano questa dinamica “illusione della conoscenza[2]”: crediamo di avere certe conoscenze, ma in realtà non le abbiamo. È fondamentale capire che l’illusione della conoscenza non è un problema limitato ad alcune persone (oggi si direbbe agli “analfabeti funzionali”) ma riguarda tutti noi. Su questo aspetto rischia di fare danni una interpretazione ingenua dell’effetto Dunning-Kruger (il fenomeno per cui le persone poco esperte in un campo tendono a sopravvalutare le proprie abilità), perché diffonde l’idea sbagliata che il mondo si divida in esperti modesti e in ignoranti presuntuosi, mentre nella realtà ognuno di noi è soggetto a questo fenomeno quando deve autovalutarsi in un campo che non conosce bene. Lo spiegano bene, e in maniera ripetibile, gli studi sulla “overconfidence”. Un modo scherzoso ma efficace per farlo capire è questo: quanti uomini conoscete che direbbero sinceramente «la maggior parte delle persone guida meglio di me»? Eppure ce ne dovrebbe essere un buon numero se tutti si autovalutassero obiettivamente.

Tutto questo però non vuol dire banalmente che dobbiamo studiare di più per apprendere le conoscenze che ci mancano, perché sarebbe un’impresa impossibile; vuol dire invece che dobbiamo renderci conto che non pensiamo mai da soli, cioè che la conoscenza e il pensiero razionale più complessi non sono individuali, ma collettivi. Fin da quando abbiamo imparato ad andare a caccia in gruppo, l’evoluzione ha favorito il coordinamento reciproco delle menti, un coordinamento che è via via aumentato, permettendo compiti sempre più complessi grazie alla divisione del lavoro. Anche se come individui avremmo grosse difficoltà a sopravvivere in natura come facevano i nostri antenati (personalmente sono sicuro che mi estinguerei in un batter d’occhio), come umanità abbiamo realizzato conquiste inconcepibili in epoche precedenti.

Faccio un esempio in una materia che conosco. Io lavoro nella progettazione dei satelliti, oggetti complessi che richiedono un coordinamento estremamente organizzato, come quello di un formicaio o di un alveare. Ci sono gli specialisti termici, meccanici, elettrici, informatici, eccetera, e ci sono i coordinatori (nel gergo tecnico “sistemisti” perché si occupano dell’intero sistema e non di una sua parte). All’interno di ogni disciplina le specializzazioni sono ulteriormente ramificate: ci sono gli specialisti del progetto, della modellizzazione matematica, della costruzione di parti, dell’integrazione fra loro di parti diverse, del collaudo, eccetera. Gli specialisti sanno tutto della loro piccola parte di progetto ma non sanno quasi nulla dell’insieme, mentre i sistemisti conoscono bene l’insieme ma sanno pochissimo dei dettagli. Nessuno di noi sarebbe lontanamente capace di progettare un satellite da zero. Grazie al coordinamento, la nostra capacità di “pensare collettivamente” ci permette di ottenere risultati che sarebbero impossibili da parte di singoli individui. Oggi nessuno può sognarsi di padroneggiare ogni campo della conoscenza contemporanea, come forse poteva fare Leonardo da Vinci, e nemmeno un’intera disciplina, ma solo una sua frazione microscopica e, presa da sé, del tutto irrilevante. È soltanto mettendoci insieme che diventiamo straordinari.

Il problema nasce nel momento in cui ognuno di noi si convince, sia pure in buona fede, di sapere qualcosa che in realtà non sa in quanto dà per scontato di avere a disposizione altre intelligenze (naturali o artificiali), perché questo ci porta a prendere decisioni sbagliate.

L’illusione della conoscenza funziona anche all’inverso. Chi è veramente esperto in un settore tende a presupporre che almeno le conoscenze di base di quel campo siano scontate e note a tutti, un fenomeno che gli economisti Colin Camerer e George Loewenstein hanno battezzato “maledizione della conoscenza[3]”. Anche in questo caso facciamo fatica a distinguere tra ciò che sta nella nostra mente e ciò che sta nella mente altrui e non ci rendiamo nemmeno conto che qualcosa che per noi è ovvio possa essere oscuro per qualcun altro. È per questo che spesso gli scienziati non sono bravi divulgatori, a meno che non abbiano avuto una preparazione specifica.

Sia l’illusione della conoscenza sia la maledizione della conoscenza dipendono dal difficile confine tra quello che sappiamo, quello che crediamo di sapere, e quello che crediamo che gli altri sappiano. Purtroppo, meno conosciamo un argomento e più siamo portati ad accettare spiegazioni che un esperto giudicherebbe semplicistiche e sbrigative.

La stessa cosa succede con le pseudoscienze. Ricordo bene l’espressione di orrore sul volto di Stefano Bagnasco quando ho provato a esporgli la pseudoscienza della fusione fredda così come l’avevo capita io, o quella di Lorenzo Montali quando, recidivo, ho fatto la stessa cosa con la psicologia sociale applicata alle teorie del complotto.

D’altra parte, quando uno scettico si stupisce per l’ignoranza di chi crede che i vaccini causino l’autismo o che non siamo mai stati sulla Luna, nemmeno lui possiede tutta la catena di conoscenze che permette di concludere che queste due tesi sono sbagliate, ma come tutti si affida al parere degli esperti per diversi passaggi chiave. Coloro che credono a queste due tesi spesso non sono meno bravi di noi a ragionare, ma si affidano a esperti sbagliati, in altre parole il motivo per cui le loro conclusioni sono sbagliate non sta nelle loro capacità logiche, ma nelle basi da cui parte il ragionamento. Dovrebbe metterci in guardia il fatto che ogni volta che proviamo a convincere qualcuno di loro falliamo miseramente (salvo rarissime eccezioni), cosa che non dovrebbe avvenire se si trattasse davvero di un ragionamento logico di cui conosciamo tutti i passaggi. Di fronte a questo fallimento la prima spiegazione che ci viene in mente è che gli altri sono stupidi, non sono capaci di ragionare, eccetera. L’illusione di sapere che le cose stanno come dice la scienza, anziché semplicemente crederlo (con buone ragioni, si intende) è quasi insuperabile.

image
In questi casi non riusciamo a distinguere la forma del ragionamento dal suo contenuto. Crediamo di avere dimostrato che le cose stanno così, ma in realtà sapevamo già la risposta. Riusciamo a disegnare la bicicletta solo quando ce l’abbiamo davanti agli occhi, o la conosciamo davvero a fondo. (Se per caso avete disegnato correttamente la bicicletta senza essere un ciclista non vi fate troppe illusioni: l’illusione della conoscenza vi colpirà da qualche altra parte). Un altro indizio ci viene dai casi in cui noi scettici proviamo a discutere tra noi sugli aspetti scientifici di un problema la cui risposta non è scontata all’interno della nostra comunità: per esempio, se i vantaggi della TAV superino gli svantaggi, o se sia conveniente privatizzare le imprese pubbliche. Sui temi politici le decisioni si basano spesso su valori e principi non quantificabili, ma anche quando cerchiamo di ragionare soltanto sui dati, tutta la nostra capacità di arrivare a conclusioni condivise grazie al metodo scientifico va a farsi benedire e ognuno resta della sua opinione.

Quindi che cosa possiamo fare in pratica? Per quanto detto finora, penso che l’idea di poter arrivare alle conclusioni sui temi scientificamente controversi esclusivamente con la propria testa sia un’illusione, e di conseguenza che sia intellettualmente disonesto promettere di insegnare questa capacità.

Dobbiamo invece darci degli obiettivi differenti.

Prima di tutto dobbiamo spiegare quanto è fallace la nostra mente, e quanto pregiudizi ed errori di ragionamento ci impediscano di arrivare da soli a conclusioni affidabili, non perché conoscere questi 'bias ci permetta automaticamente di evitarli (un’altra illusione), ma soprattutto perché ci insegna a dubitare delle nostre convinzioni più profonde e a ricordare che abbiamo bisogno di strumenti esterni a noi.

Dobbiamo spiegare che neanche il più grande scienziato è in grado di comprendere completamente la realtà (un fatto che i grandi scienziati non accettano tanto volentieri), che le conoscenze più complesse stanno nella collettività e che si può arrivare a decisioni ragionevoli soltanto attraverso un laborioso confronto delle idee, mediato dagli strumenti che la scienza ha sviluppato per limitare le inefficienze del nostro cervello.

Dobbiamo mettere in pratica questi principi, rinunciando a prendere posizioni ferme sugli argomenti che non conosciamo abbastanza bene e comportandoci come i promotori di un metodo e di un insieme di valori che aiutano ad arrivare alla conoscenza, anziché come i detentori della conoscenza.

Dobbiamo spiegare che è indispensabile dare fiducia (condizionata) agli esperti, non tanto quando ci danno ragione, ma soprattutto quando dicono qualcosa che intuitivamente non ci convince, perché se il nostro istinto ci dice che i migliori esperti hanno torto molto probabilmente il nostro istinto si sbaglia. Questo non vuol dire naturalmente che gli esperti siano infallibili, ma che per contestarli occorre costruire una solida catena di conoscenze oggettive, e non semplicemente cercare degli altri esperti che ci dicano ciò che vogliamo sentire.

Naturalmente è necessario anche vigilare sugli esperti e fare in modo che si meritino la nostra fiducia (e questo dovrebbero farlo tutti i cittadini, non soltanto gli scettici), per esempio promuovendo quelle politiche che limitano l’influenza degli interessi economici sulla ricerca scientifica o che riducono la portata del conflitto di interessi nelle decisioni politiche basate sui risultati scientifici.

Ringrazio Vincenzo Crupi per avermi fatto capire che sono ancora più ignorante di quello che pensavo e avere ispirato questo articolo.

Note

1) Lawson, R. (2006). The science of cycology: Failures to understand how everyday objects work. Memory & Cognition, 34 (8), 1667-1675. doi.org/10.3758/BF03195929.
2) Le osservazioni di Sloman e Fernbach sono raccolte nel bel libro L’illusione della conoscenza. Perché non pensiamo mai da soli, Raffaello Cortina Editore, 2018.
3) Camerer, C., Loewenstein, G., & Weber, M. (1989). The curse of knowledge in economic settings: An experimental analysis. Journal of Political Economy, 97(5), 1232-1254.doi.org/10.1086/261651

accessToken: '2206040148.1677ed0.0fda6df7e8ad4d22abe321c59edeb25f',