Se è regressiva è pseudoscienza

image
©Michael Gager - deviantart
Se ricordate, nel numero 8 di questa rubrica avevamo parlato del criterio della falsificabilità di Popper, che ci può aiutare a distinguere le affermazioni scientifiche da quelle che non lo sono.

Avevamo concluso però dicendo che il criterio di Popper non descrive in modo realistico il lavoro degli scienziati. In effetti, solo in qualche caso gli scienziati progettano i loro esperimenti per mettere direttamente alla prova le teorie; generalmente si fa un esperimento per cercare di chiarire un punto oscuro o rispondere a una domanda, e la “sfida” alla teoria, come la chiama Popper, è solo implicita. D’altronde il criterio di Popper è puramente un criterio logico e non pratico, dato che, per esempio, se esistono molte prove a favore di una teoria smentita da un dato esperimento, è più plausibile che sia sbagliato l’esperimento; il criterio funziona nell’ipotesi che gli esperimenti siamo sempre perfetti. Nel mondo reale, ci vuole molto più di un risultato negativo perché una teoria ben corroborata dai dati sperimentali venga abbandonata: soprattutto, bisogna che sia già disponibile una teoria alternativa che possa convincere la comunità scientifica. In più, il falsificazionismo così com’è non è in realtà neanche tanto utile nella pratica per riconoscere le pseudoscienze, cioè le discipline che vogliono sembrare scientifiche senza in realtà esserlo: ne parla L’arrotino di Occam in questo stesso numero.

Prendiamo un esempio classico. Il moto dei pianeti nel Sistema Solare si può calcolare in base alla legge della gravitazione universale di Newton, tenendo conto dell’attrazione che ciascuno esercita sugli altri. Nel 1845 gli astronomi avevano osservato nell’orbita di Urano irregolarità che non si potevano spiegare con la legge di Newton, pur tenendo conto dell’influenza dei pianeti allora noti. Due matematici, l’inglese John Couch Adams e il francese Urbain Le Verrier, provarono a spiegarle ipotizzando un ulteriore pianeta non ancora osservato. Entrambi fecero previsioni piuttosto accurate sull’orbita del nuovo pianeta, ma Le Verrier fu più fortunato e riuscì a far arrivare per primo le proprie all’Osservatorio di Berlino. Nel 1846 fu scoperto, molto vicino alla posizione indicata dai calcoli, il pianeta che venne poi chiamato Nettuno. L’osservazione non era stata fatta per mettere alla prova la legge di Newton, ma per vedere se lì c’era davvero il pianeta; in modo implicito, però, la “previsione rischiosa” era stata verificata in modo spettacolare, corroborando così la teoria della gravitazione universale. Ma cosa sarebbe successo se il pianeta non fosse stato trovato? In questo caso lo sappiamo, perché la storia non è finita qui.

Solo qualche anno dopo, nel 1859, Le Verrier notò che neanche l’orbita di Mercurio coincideva con quella prevista dalla legge di Newton. Il matematico francese ritentò il colpaccio e suggerì la presenza di un ulteriore pianeta o di un gruppo di asteroidi non ancora scoperto, in un’orbita ancora più vicina al Sole. In uno slancio di ottimismo, propose per il pianeta il nome Vulcano. Da allora gli astronomi andarono alla caccia di Vulcano per decenni, e le lettere degli appassionati di astronomia che annunciavano di averlo avvistato si fecero così frequenti che nel 1876 Scientific American decise di smettere di pubblicarle.

Vulcano non venne mai scovato, ma nessuno pensò per questo di abbandonare la teoria della gravitazione universale, che funzionava così bene nella maggior parte dei casi; il mistero fu infine risolto nel 1916, quando Albert Einstein pubblicò la teoria della relatività generale, una teoria della gravitazione più complessa di quella di Newton. La relatività generale spiega perfettamente la perturbazione dell’orbita di Mercurio e non getta via la teoria di Newton ma la fa diventare un caso particolare, applicabile con buona approssimazione in molti casi pratici.

Negli anni Sessanta del Novecento il filosofo americano Thomas Kuhn, per descrivere questa ritrosia degli scienziati ad abbandonare le loro teorie[1], introdusse il concetto di “paradigma scientifico”: in ogni dato momento, la comunità scientifica ragiona e teorizza all’interno di un quadro coerente che non viene seriamente messo in discussione da piccole incoerenze o aspetti non spiegati. Si è in un periodo di «scienza normale»: gli scienziati si dedicano a risolvere problemi e chiarire lati oscuri senza spostarsi dal quadro generale di riferimento. L’accumularsi di problemi e inconsistenze nella teoria, però, alla fine la mette davvero in crisi: se a questo punto gli scienziati hanno a disposizione una nuova teoria migliore, si verifica un cambiamento di paradigma (Kuhn le chiama «rivoluzioni scientifiche») e il quadro generale di riferimento cambia. È in realtà un po’ più complicato di così: se volete qualche dettaglio in più, lo trovate sempre nell’Arrotino di Occam di questo stesso numero.

Insomma, il criterio di falsificabilità di Popper è troppo schematico, o meglio, come abbiamo detto, è un criterio ideale che non funziona tanto bene nel mondo reale. In più, riguarda esclusivamente la struttura logica della teoria, indipendentemente dal fatto che questa descriva correttamente i fatti oppure no: una teoria può essere falsificabile, e quindi scientifica, anche se completamente falsa, e viceversa. Come ha scritto il filosofo Larry Laudan, il falsificazionismo di Popper «ha la disdicevole conseguenza di incoraggiare come “scientifica” qualunque eccentrica dichiarazione che faccia false asserzioni in maniera accertabile».

Per risolvere questi problemi il filosofo ungherese Imre Lakatos propose di sostituire al criterio proposto da Popper, che chiamò «falsificazionismo ingenuo», un altro che chiamò «falsificazionismo (metodologico) sofisticato». Già dal nome si capisce che è più complicato: una teoria è falsificata soltanto quando viene proposta un’altra teoria che ne comprende le previsioni e in più prevede fatti nuovi che sono confermati dagli esperimenti. Nell’idea di Lakatos, l’attenzione si sposta dalla singola teoria al “programma di ricerca”, cioè una sequenza di teorie che evolvono una nell’altra col tempo. Un programma di ricerca include un nucleo di affermazioni che non sono in discussione e una serie di ipotesi ausiliarie più negoziabili che, nelle parole di Lakatos, costituiscono una «cintura protettiva» intorno al nucleo. L’esempio che fa Lakatos è ancora la scoperta di Nettuno: invece di mettere direttamente in discussione la teoria della gravitazione, gli scienziati hanno prima provato ad attaccare un’ipotesi ausiliaria (l’esistenza di un dato numero di pianeti), per vedere se il problema non stesse in realtà lì.

Sempre nel numero 8 di questa rubrica, se ricordate, avevamo osservato come una caratteristica ricorrente delle pseudoscienze sia l’uso di ipotesi ad hoc per giustificare i fallimenti sperimentali. Un esempio classico è quello dei parapsicologi che, di fronte a risultati negativi, si sono inventati le “vibrazioni negative” emesse dagli osservatori scettici, che sarebbero in grado di annullare le facoltà extrasensoriali. A questo punto ci ritroviamo però con un problema: le ipotesi ausiliarie non sono più un’esclusiva delle pseudoscienze, ma diventano parte integrante dell’attività scientifica. Come facciamo allora a distinguere tra le ipotesi ad hoc degli pseudoscienziati (come le “vibrazioni negative”) e ipotesi ausiliarie legittime? La soluzione è cambiare il “criterio di scientificità”, che per Popper valeva per le singole affermazioni, mentre per Lakatos si applica ai programmi di ricerca.

Un programma di ricerca può essere, nelle parole di Lakatos, “progressivo” se ogni teoria della sequenza spiega più osservazioni empiriche di quella precedente e permette nuove previsioni che possono essere verificate sperimentalmente. Viceversa, un programma regressivo inventa teorie extra per accomodare fatti noti e quando fa previsioni le fallisce, trovando a posteriori scuse per giustificare i fallimenti. Come si può a questo punto immaginare, il criterio di demarcazione è proprio questo: Lakatos definisce “scientifici” i programmi di ricerca progressivi, “pseudoscientifici” quelli regressivi.

Le ipotesi ausiliarie sono quindi accettabili quando permettono di aumentare il potere predittivo di una teoria, sono invece pseudoscientifiche quando servono soltanto a giustificare a posteriori le previsioni fallite, senza permettere nuove previsioni.

Una importante conseguenza di questo criterio è che non è possibile stabilire se una disciplina sia scientifica o meno osservandola in un dato momento, ma solo esaminandone lo sviluppo storico: quindi non possiamo usarlo per giudicare una teoria di recente introduzione, per la quale potremo però valutare semplicemente, come indizi, l’adesione agli standard del metodo e della prassi scientifica.

Note

1) Un ulteriore esempio in proposito si può trovare nella rubrica L’arrotino di Occam: “L’esperimento cruciale”, in Query n. 2, estate 2010.