Ci vuole un vaccino contro l’accanimento parametrico
di Dario Braga
di Dario Braga*
Va bene. Lo ammetto. Ho sbagliato. Ho commesso un errore nel credere che i “parametri oggettivi” fossero l’arma finale contro una certa autoreferenzialità accademica.
Ricordo un intervento di stampa di circa 25 anni fa intitolato, più o meno, “Salgo in cattedra con il computer”. Invocava l’uso dell’Impact factor (If) per classificare le pubblicazioni nei concorsi universitari. Per i non addetti ai lavori: l’If è un indicatore della popolarità, e quindi dell’interesse e della diffusione, di una rivista scientifica. È una spia, seppur indiretta, dell’importanza di un lavoro e quindi della qualità della ricerca svolta dall’autore. L’If sarebbe stato presto seguito dal Citation index (Ci), un indice dell’interesse per una pubblicazione misurato dal numero di volte in cui un altro ricercatore fa riferimento a quel risultato scientifico, prescindendo dall’If della rivista. If e Ci sarebbero poi stati integrati dall’H-index, un ulteriore indicatore “globale” in grado di combinare l’insieme delle pubblicazioni più citate di un ricercatore con il numero di citazioni ricevute in altre pubblicazioni.
Sembrava una rivoluzione: con i “parametri oggettivi”, almeno nei settori dove la bibliometria era possibile, si poteva contrastare la autoreferenzialità di tante commissioni di concorso che operavano sulla base del principio: “Siamo noi i soli in grado di determinare chi fa buona scienza e chi no”. Per l’azione di contrasto, cosa meglio di una serie di robusti indicatori riconosciuti dalla comunità accademica? Nel tempo, tuttavia, quello che era stato concepito come uno strumento per contrastare gli abusi, si è trasformato in uno strumento vessatorio.
Sia chiaro che non sto attaccando la valutazione della ricerca. Semmai il contrario. Sono, e non da oggi, un convinto sostenitore della necessità di basare la ripartizione delle risorse non solo su riscontri oggettivi e trasparenti, ma anche su un’assunzione di responsabilità dei decisori. Proprio per difendere il principio della valutazione, penso sia doveroso segnalare i pericoli e le conseguenze dell’“accanimento parametrico”.
Nel mese passato, tutta la comunità accademica (circa 50mila unità) ha partecipato alla selezione dei prodotti della ricerca da sottoporre all’esercizio periodico di valutazione della qualità della ricerca (Vqr). Nelle aree bibliometriche (scienze, tecnologie, medicina e altre) ai ricercatori e alle ricercatrici è stato chiesto di selezionare tra le proprie pubblicazioni, in sequenza, 1) quelle con l’If più alto e, tra queste, 2) quelle con il Ci più alto, e, tra queste, 3) quelle con il numero di autocitazioni più basso, e, tra queste, 4) quelle che, possibilmente, non avessero coautori nello stesso dipartimento (scoraggiando così alcune collaborazioni). Tutto finalizzato a ottenere il miglior risultato “parametrico” della propria produzione, per poterla poi riversare nella produzione scientifica del Dipartimento e quindi in quella dell’Università di appartenenza. Il risultato di questo esercizio globale, come in passato, sarà utilizzato per stabilire indicatori di distribuzione delle risorse a livello ministeriale. Finalità giusta e condivisibile ma, per capirne l’impatto, si rifletta sul fatto che tutto il personale docente e ricercatore di “area bibliometrica” ha dovuto dedicare molto tempo a questa operazione. Anche con solo un’ora a testa (ma è stato molto di più) si tratta di decine di migliaia di ore di lavoro, a cui vanno aggiunte quelle del personale amministrativo. Tutto lavoro che – a mio avviso – potrebbe oggi essere tranquillamente affidato a un protocollo di intelligenza artificiale che interroghi le banche dati e individui la selezione ottimale per ciascuno di noi. Non dovrebbe essere difficile.
La logica del “parametro al posto della responsabilità” ha tuttavia contagiato tutte le fasi della vita accademica. Una conseguenza, certo non prevista, è quella di spingere alla iper-pubblicazione. Attenzione, non è un fenomeno solo italiano. La maggior parte delle agenzie di valutazione e molte università utilizzano gli stessi criteri per l’assegnazione di finanziamenti e per i reclutamenti. Lo hanno capito anche i grandi publisher che hanno aumentato a dismisura il numero di sedi su cui pubblicare anche per andare incontro alla spinta verso l’open access (un esempio? La nota rivista «Nature» è oggi disponibile con 64 titoli diversi, l’American Chemical Society ne ha ora più di 70).
Più in generale, lo ha capito il mercato che sta moltiplicando in maniera pandemica il numero delle riviste open access, in particolare i cosiddetti predatory journal che cercano di intercettare pubblicazioni residuali spesso prive di qualsiasi valore scientifico. In molti settori sta diventando impossibile seguire una letteratura scientifica in crescita esponenziale e districarsi tra scienza e pseudo-scienza. Anche questa è una epidemia per la quale sarebbe ora di procurarsi dei vaccini.
*Presidente dell’Istituto di studi superiori e direttore dell’Institute of advanced studies Alma mater studiorum, Università di Bologna