L’episodio è raccontato nell’articolo che lo staff di RetractionWatch ha pubblicato su Science nel gennaio di quest’anno, da cui siamo partiti nel numero scorso di Query[1]; a seguito della sua pubblicazione, iTrilon ha chiuso i suoi profili WhatsApp e LinkedIn, e anche il suo sito è irraggiungibile. Sempre secondo i dati di RetractionWatch pubblicati nello stesso articolo, nel 2022 la manipolazione del processo di peer review è stata la causa di circa due terzi delle ritrattazioni di articoli scientifici, una quantità più che raddoppiata rispetto all’anno precedente. Qualche scorrettezza nella scelta dei coautori di un lavoro probabilmente è sempre esistita, ma era più del tipo «se mi metti tra gli autori di questo tuo lavoro, poi io ti faccio firmare il mio anche se non hai fatto nulla», mentre questo vasto mercato organizzato ha cominciato a essere notato dalla comunità scientifica intorno al 2013–2014, e il fatto che all’inizio sia comparso principalmente in Cina ci fornisce un importante indizio su una delle sue cause.
In un recente dossier di Query sulla valutazione della ricerca abbiamo visto come in Italia e in tutto il mondo sia consuetudine valutare un dipartimento universitario, un istituto di ricerca o anche un singolo ricercatore in base a criteri bibliometrici, ossia contando gli articoli scientifici pubblicati, generalmente pesati in qualche modo in base all’importanza della rivista su cui sono usciti. Questo si può fare in modo più o meno sofisticato, ma alla base del meccanismo rimane il principio «più pubblichi meglio è».
A partire dagli anni Novanta del secolo scorso, parallelamente all’introduzione in Cina di un sistema competitivo di finanziamento degli istituti universitari, hanno cominciato a comparire incentivi economici per i ricercatori in base al numero delle pubblicazioni e del loro prestigio, portando questo sistema all’estremo. Secondo uno studio pubblicato nel 2017 da tre ricercatori cinesi[2], questi premi in denaro vanno da qualche centinaio di dollari per un articolo su una rivista minore fino a decine di migliaia di dollari per Nature o Science, quando lo stipendio medio di un professore universitario cinese era, all’epoca, dell’ordine di 9000 dollari all’anno.
Secondo gli autori dello studio, il sistema di incentivi è stato introdotto per la prima volta al dipartimento di fisica dell’Università di Nanchino intorno al 1990; in conseguenza, quest’ultima è stata l’università cinese con più lavori pubblicati su rivista per sette anni di fila. Poi, ovviamente, anche altre ne hanno seguito l’esempio varando programmi simili, con premi sempre più consistenti. Il rovescio della medaglia di questa corsa alla pubblicazione è che il numero di articoli con autori cinesi che sono stati ritirati per errori o pratiche discutibili è balzato dai due del 1996 ai 1234 del 2016.
Insomma, da un lato il sistema delle pubblicazioni Open Access, di cui abbiamo parlato molte volte, permette distorsioni del meccanismo delle pubblicazioni scientifiche come le riviste predatorie o, appunto, le paper mill; dall’altro questa attenzione spasmodica alla produttività in termini di numero di articoli pubblicati (sia attraverso la valutazione bibliometrica per le progressioni di carriera, sia attraverso la sua versione estrema e quasi caricaturale degli incentivi economici) induce in tentazione i ricercatori in cerca di un avanzamento di carriera (o di qualche quattrino facile). E ovviamente dove c’è domanda immediatamente si crea l’offerta.
In un report pubblicato congiuntamente nel 2022 da COPE e STM (rispettivamente il Committee on Publication Ethics fondato nel 1997 in Inghilterra da alcuni editor di riviste scientifiche e la principale associazione internazionale di editori scientifici)[3] vengono proposte cinque raccomandazioni per mitigare il problema delle paper mill:
- impegnarsi con le istituzioni e gli enti finanziatori per modificare gli incentivi per i ricercatori, in modo che non sentano più la necessità di usare servizi che forniscono una pubblicazione rapida ma fasulla;
- investire continuamente in strumenti e sistemi, anche automatici, per individuare potenziali articoli prodotti da paper mill appena vengono ricevuti dalla rivista, sviluppando criteri coerenti e condivisi per l’uso di questi strumenti;
- organizzare un’importante attività di formazione per garantire che gli editor e i revisori siano consapevoli del problema delle paper mill e siano meglio attrezzati per aiutare a identificarne i prodotti;
- sviluppare protocolli che impediscano alle paper mill di raggiungere i loro obiettivi;
- rivedere il processo di investigazione e retraction per tenere conto delle caratteristiche uniche dei prodotti delle paper mill, e renderlo più efficiente quando si tratta di indagini su larga scala e non su singoli lavori, come nel caso delle paper mill.
Da questi suggerimenti, da un lato un po’ vaghi e dall’altro banali, si vede come non ci sia una soluzione semplice e immediatamente applicabile; mentre tutte le altre soluzioni proposte sono dei rimedi a posteriori, forse l’unica veramente efficace sarebbe la riforma radicale del sistema degli incentivi e dei processi della valutazione della ricerca proposta dalla prima raccomandazione. Che però è anche la più difficile da mettere in atto.