Valutazione: 9,5/10. Risultato: bocciato. – Come si distribuiscono i fondi di ricerca all’Università di Roma ‘Tor Vergata’. – Lettera aperta di Raul Mordenti

 

“Niente mi sembra più riprovevole di un intellettuale che, di fronte a un’ingiustizia, volta la faccia da un’altra parte”

(E. W. Said)

 

 

–       Alla Delegata del Rettore per la Ricerca, Chiar.ma Prof.ssa Silvia Licoccia

e, p. c.:

–       al Magnifico Rettore prof. Novelli, al Pro-Rettore Vicario prof. Franchini, ai Direttori dei Dipartimenti della Macro-Area di Lettere, proff. Paoli e Salvatori, alla Coordinatrice della Macro-Area di Lettere, prof.ssa Formica, ai/alle Componenti del Senato Accademico, alla comunità universitaria di Roma ‘Tor Vergata’

 

Cara Collega,

cari/e Colleghi/e, che leggete per opportuna conoscenza,

vi scrivo per rappresentarvi un problema che mi sembra cruciale per il presente e per il futuro della nostra Università: i criteri di assegnazione dei fondi di ricerca, un problema che si intreccia strettamente con la vexata quaestio della cosiddetta VQR e, forse, ci aiuta a conferire concretezza a quel dibattito che ci ha impegnati e divisi nei mesi scorsi.

 

1. Comincio da un apprezzamento doveroso: erano ben cinque anni che nella nostra Università non venivano assegnati fondi di ricerca, come se la ricerca unita alla didattica non fosse il cuore stesso del nostro lavoro, e come se non vedere garantite le condizioni materiali minime per svolgere ricerca fosse un particolare trascurabile.

Occorre dire (a nostra comune vergogna) che i professori di Tor Vergata non sembrano essersi occupati e preoccupati troppo di questa totale assenza di finanziamenti. Dunque sia benvenuta la scelta di tornare a finanziare la ricerca! Certo, si potrebbe osservare che un milione di euro per un Ateneo grande come il nostro è una cifra insufficiente ma – come si dice – è meglio di niente, e l’anno prossimo le cose potrebbero migliorare, dato che nella e-mail del 25/5/16 della Delegata alla Ricerca si annuncia già per il 2017 la cifra di 1.500.000 euro.

Tuttavia proprio questa lettera della Collega contiene a proposito della procedura utilizzata quest’anno un’affermazione davvero inquietante che cito:

 

“Questo modello, esempio di best practice, sarà riprodotto nel nuovo bando per la Ricerca Scientifica di Ateneo che sarà pubblicato a breve…”

 

Confesso che proprio quest’affermazione mi ha fatto correre un brivido nella schiena, dato che personalmente considero il modello adottato ben diverso dalla migliore prassi e anzi – al contrario – penso che esso sia ingiusto, del tutto non trasparente, intollerabile.

Le righe che seguono vogliono cercare di argomentare questo giudizio.

 

2. Partiamo dunque dal Bando “Consolidate the Foundations” pubblicato con decreto rettorale in data 17 luglio 2015.

In primo luogo quel Bando poneva, secondo me assurdamente, sia un limite massimo dell’importo richiesto (€ 25.000) sia un limite minimo (€ 10.000), come se non potessero esistere ricerche che hanno bisogno di meno, o anche di molto meno, per potersi svolgere. Peraltro l’ammontare totale veniva già suddiviso, a monte, fra le aree CUN (si noti: non fra i Dipartimenti, che sono spesso attraversati da più aree CUN).

In secondo luogo tutta la procedura doveva svolgersi esclusivamente in lingua inglese, e io confesso che non riesco ad accettare che la comunità universitaria italiana rinunci con tanta irresponsabile leggerezza all’uso della lingua nazionale, e confesso altresì che non riesco a capire perché mai ricerche di Ispanistica o di Francesistica o di Latino o di Filosofia etc. debbano essere presentate in inglese e non – come mi sembrerebbe logico – nelle lingue di riferimento di quelle discipline, e comunque sempre in aggiunta e mai in alternativa all’italiano.

In terzo luogo veniva annunciata una “Commissione di Ateneo appositamente nominata dal Rettore” con il solo ed esclusivo compito (stando al Bando) di valutare gli ex aequo: “In caso di eventuali ex aequo, i progetti verranno successivamente valutati da una Commissione di Ateneo…”. Su questa strana Commissione torneremo più avanti.

 

3. Il risultato delle valutazioni ci è stato fornito nel modo seguente: solo l’elenco dei vincitori e l’area CUN di afferenza, senza alcuna informazione pubblica né sulle valutazioni riportate dai progetti finanziati né sulla composizione dei gruppi di ricerca e neppure sull’entità dei fondi assegnati a ciascun progetto.

Poiché l’unico dato a cui mi è stato consentito l’accesso riguarda la nostra ricerca, mi sia permesso di parlare brevemente di questa (ma – in nome della trasparenza – il nostro Progetto sarà offerto integralmente alla lettura di chiunque fosse interessato presso il mio sito personale: www.raulmordenti.it).

Il progetto prevedeva di digitalizzare e di mettere on line, presso la nostra Università, tutti i testi poetici della letteratura italiana delle Origini (attualmente irreperibili o presentati in modo non filologico), risalendo dallo spoglio condotto dall’OVI (Opera del Vocabolario Italiano) alle edizioni – ove disponibili –, scegliendo per ciascun testo l’edizione migliore e più attendibile e accompagnandolo con un’aggiornata scheda filologica di valutazione e di commento. Più “Consolidate the Foundations” di così non è possibile! A tale ricerca avrebbero partecipato (in nome della richiesta interdisciplinarità) oltre al professore ordinario di “Critica letteraria”, il professore ordinario di “Storia della lingua italiana”, il prof. Trifone, e i nostri colleghi che insegnano “Letteratura italiana” e “Filologia italiana”, i proff. Manica e Rea, oltre a un giovane Dottore di ricerca titolare di un assegno di studio, il dott. Silvi.

Ho appreso, grazie al cortese aiuto della prof.ssa Licoccia e dell’ingegner Genovese, che la valutazione da noi riportata era stata di 9,5/10. Copio qui di seguito il giudizio dei referees, con qualche imbarazzo tanto tale giudizio è lusinghiero:

 

“a) Innovation of the project: Following in the footsteps of major European Projects, this research promises some interesting ground for innovation in Italian studies in Italy.

The research proposed shows signs of innovation and would add to the study of early Italian literature, although the field of digitalization is widely explored. 4,5.

b) Clearness, credibility and feasibility: The timeframe of the project and the composition of the research group confirm the feasibility of the research.

The description of the research is clear and the attainment of the results credible within the period that will be devote to this project. The collaboration of an expert in ICT is essential. 2,00.

c) Skills of the PI: The CV of the PI, as well as the PI’s previous experience wit (sic!) the PRIN confirm him as a highly qualified scholar to act as project director.

The principal investigator is qualified, thanks to his previous experience, to lead the ressearch (sic!) to success. 2,00.

d) Adequacy and approriateness (sic!) of the expenditures items: Expenditure forecasts are more than adequate and appropriate. The request will certainly cover the cost of the research project and will allow the group to achieve the results they expect in the envisaged timeframe.

the (sic!) budget appears to be appropriate for the described research. All the necessary items are clearly detailed.

Total Mark: 9,5.”

 

(Ho evidenziato con un (sic!) i tre-quattro errori di distrazione presenti nelle poche righe del giudizio, chiarendo che io ne farei molti ma molti di più, ma giusto per ribadire l’assurdità di utilizzare la lingua inglese. Nessuno di noi farebbe quattro errori in venti righe scrivendo in italiano.)

 

Domanda: come si fa a non finanziare una ricerca come questa? Risposta: c’era di meglio. Anzi – mi si è detto – c’è stato un progetto che ha riportato la valutazione di 9,95/10 e non è stato finanziato. Mi permetto di dire che quest’ultimo caso (della cui veridicità non dubito, data la fonte autorevolissima) mi sembra una vergogna.

Fatto sta che un progetto valutato 9,5/10 (o addirittura uno valutato 9,95/10!) non è stato finanziato perché tutti gli altri progetti finanziati hanno riportato una valutazione migliore; cioè – devo presumere – tutti 10/10?

 

4. Ho chiesto ripetutamente (e-mail del 20/6 e del 22/6) alla gentilezza della Delegata del Rettore, la prof.ssa Licoccia, di poter conoscere, in nome della trasparenza, anche i giudizi riportati dai progetti finanziati. Inoltre protestavo perché giudizi diversi di revisori diversi fossero stati fatti confluire in una medesima graduatoria comparativa e le chiedevo altresì informazioni sul ruolo svolto dalla Commissione rettorale di cui al Bando.

Io non sono un giurista e mi rimetto al parere di chi ne sa più di me e di cui mi fido ciecamente (primo fra tutti il Pro-Rettore Vicario), mi sembra tuttavia – ripeto: da profano del diritto – che ovunque c’è erogazione di denaro pubblico ci debba essere trasparente possibilità di controllo, e in questo caso mi sembra non si possano escludere né errori materiali né eventuali discordanze fra il giudizio verbale e quello conclusivo e numerico né, infine, l’eventualità che alcuni referees possano aver dimostrato nel loro giudizio trascuratezze clamorose e/o addirittura calchi di giudizi. Se i giudizi debbono restare segreti, chi può, e chi deve, effettuare tali controlli?

Riporto qui l’essenziale delle tempestive risposte della prof.ssa Licoccia:

 

“…mi preme sottolineare come i revisori siano stati selezionati sulla base del SSD e del settore ERC indicato nella domanda dall’Albo dei revisori gestito dal CINECA. Peraltro, come avviene in tutti i processi di revisione, l’anonimato dei revisori è assolutamente inviolabile. (…) In qualsiasi graduatoria o nella valutazione di manoscritti a peer review concorrono sempre revisori diversi.” (e-mail del 20/6)

 

“In nessun processo di ‘peer review’ valutazioni e votazioni vengono diffuse a qualcuno che non sia l’autore del progetto/manoscritto valutato.” (e-mail del 25/6)

 

Quanto al ruolo svolto dalla Commissione di Ateneo (di cui chiedevo nominativi e verbali), la prof.ssa Licoccia scrive:

 

“…nel caso specifico non c’è stata alcuna valutazione interna all’Ateneo e la graduatoria è stata la conseguenza delle valutazioni dei revisori esterni.” (e-mail del 20/6)

 

Dunque la Commissione nominata dal Rettore non ha svolto alcun ruolo, non essendosi verificati (credo di capire) casi di ex aequo? Gli organi dell’Ateneo si sono limitati al ruolo di passivi passacarte dei referees del CINECA? Confesso che non ho capito bene la vicenda che riguarda tale Commissione.

Poiché la mia richiesta di conoscere i giudizi riportati dai progetti finanziati è stata ripetutamente respinta, posso solo avanzare due ipotesi per spiegare la nostra bocciatura:

a) che siano stati finanziati progetti con una valutazione inferiore alla nostra;

b) che tutti i progetti finanziati, cioè 59, cioè il 36% del totale, abbiano riportato la valutazione di 10/10.

Ripeto: non posso saperlo, non possiamo saperlo, perché alle mie ripetute richieste di conoscere questi dati è stato opposto un netto rifiuto (sottolineo: io non ho mai chiesto invece di conoscere i nomi dei referees).

 

5. Torniamo dunque alle due ipotesi: voglio senz’altro scartare l’ipotesi a), cioè che siano stati finanziati progetti con una valutazione inferiore alla nostra, perché questo contraddirebbe il Bando e le affermazioni della prof.ssa Licoccia; non resta allora che l’ipotesi b) quella che definirei del “todos caballeros”, tutti perfetti, tutti con il massimo dei massimi, tutti 10/10.

È questa una situazione, si converrà, assai rara in natura: in nessun insieme di fatti umani – credo – può accadere che il 36% del totale, più di un caso su tre, sia perfetto. È capitato anche a me, come a molti fra coloro che mi leggono, di svolgere il ruolo di referee per il CINECA: ebbene credo di aver dato poche volte, o forse mai, la valutazione di 10/10.

Di più: in questo caso fra le voci della valutazione ce n’era almeno una che sembra fatta apposta per penalizzare i giovani ricercatori: è la voce “Principal Investigator” (“Skills of the Principal Investigator”); faccio notare – en passant – che tale voce era del tutto assente nel Bando, che non parlava affatto di “Principal Investigator” (così costoro definiscono il coordinatore della ricerca) bensì di “Qualità del gruppo di ricerca”, una voce ben diversa, la quale poi è del tutto scomparsa nella valutazione dei referees. Dunque il Bando è stato disatteso dai valutatori (pardon: dagli Auditors)? Non basterebbe questo ad annullare tutto il procedimento? Certo è che attribuendo due punti su dieci al profilo del coordinatore della ricerca (o PI che dir si voglia) è assai difficile che un giovane (per ipotesi al suo primo progetto) possa riportare la valutazione massima; ma in questo caso – evidentemente – neanche questo limite è valso a impedire le tantissime valutazioni di 10/10.

Né è meno strana la generalizzata perfezione riguardo a tutte le altre voci della valutazione, cioè: “Merito scientifico e natura innovativa del progetto rispetto allo stato dell’arte” (tradotto: “Innovation of the project”); “Chiarezza, credibilità, fattibilità degli obiettivi e impatto del progetto” (tradotto: “Clearness, credibility and feasibility”); “Congruità e appropriatezza delle voci di spesa” (tradotto: “Adequacy and appropriateness of the expenditures items”).

È possibile, è credibile, che 59 progetti abbiano tutti riportato il massimo in ciascuna di queste voci?

 

6. Ma una spiegazione di tutti questi 10/10 forse c’è, anzi forse ce ne sono due, una meno lusinghiera dell’altra.

Anzitutto molti Colleghi hanno sorriso davanti alla mia ingenuità spiegandomi che se si ritiene un progetto degno di finanziamento, beh, allora non c’è altra strada che dargli un bel 10/10. E il dovere di giudicare secondo coscienza? E l’analiticità del giudizio? E la corrispondenza del giudizio al valore intrinseco del progetto, che fine fanno?

Ancora più inquietante è però la seconda spiegazione possibile: è invalsa in alcuni (molti?) Settori Scientifico Disciplinari l’abitudine di dare comunque la massima valutazione ai Colleghi del proprio Settore (“a prescindere”, come direbbe Totò), e questo per motivi (mi permetto di dire) biecamente corporativi. In tal modo il proprio Settore di studi si rafforza poiché si verifica verso di esso un afflusso di denaro e/o di potere accademico. Posso affermare con sicurezza che molti dei venticinque lettori di questa lettera aperta sanno per diretta esperienza che questo effettivamente si verifica.

E naturalmente tali pratiche poco commendevoli sono in atto anche nella VQR: ma è evidente che, essendo in gioco finanziamenti in un sistema di risorse limitate, favorire il proprio Settore Scientifico Disciplinare alla fine significa sfavorire qualcun altro, così come è evidente che colpire un Collega con una valutazione negativa significa favorire qualcun altro, per ipotesi il proprio Settore o la propria Università (si spiegano così alcuni assurdi “0” dati da valutatori della VQR a studiosi eccellenti?).

È questo l’insanabile conflitto di interessi che è intrinseco nella VQR, e aspetto ancora che qualche sostenitore della VQR risponda a questa obiezione fondamentale.

Dice Cicerone che “Un aruspice non può incontrare un altro aruspice senza mettersi a ridere”, perché l’aruspice sa bene quanto serie siano le basi dei giudizi del suo collega.

Io non so come facciano i Colleghi GEV dell’ANVUR a non scoppiare a ridere quando si incontrano fra loro.

 

7. Torniamo al più circoscritto problema dell’assegnazione di fondi nella nostra Università. Il problema di fondo mi sembra il seguente: una valutazione di merito di ogni singola ricerca è stata trasformata, del tutto surrettiziamente e senza alcuna garanzia, in una valutazione comparativa fra ricerche diverse.

È invece del tutto evidente che una cosa è valutare la ricerca X, e una cosa è mettere in competizione fra di loro la ricerca X con la ricerca Y con la ricerca Z. Nel primo caso (la valutazione di una singola ricerca) può essere ammesso che i valutatori siano diversi per ciascuna ricerca, e che dunque siano in una certa misura inevitabilmente diversi anche i criteri e i metri della valutazione, ma nel secondo caso (la valutazione comparativa) è assolutamente necessario che i valutatori siano gli stessi e che siano gli stessi i criteri e i metri del giudizio. Cosa penseremmo di altre valutazioni comparative che ci riguardano (dalle ammissioni al Dottorato fino ai Concorsi) in cui giudizi diversi di valutatori diversi confluissero poi a determinare un’unica graduatoria? Altro che “best practice”, cara Collega Licoccia!

Non vale neanche l’argomento che il confronto avviene all’interno delle medesime aree CUN. Sia perché comunque i referees di ogni ricerca sono diversi fra loro (come ha confermato la prof.ssa Licoccia) sia soprattutto perché all’interno di una stessa area CUN esistono discipline diversissime fra loro. Limitandomi a considerare alcuni progetti finanziati per “Consolidate the Foundations” nelle aree 10 e 11 del CUN e di cui posso conoscere i coordinatori: si va da un progetto sull’industria cinematografica italiana ad uno sugli archivi delle Fosse Ardeatine, da uno sul lessico delle lingue classiche ad uno sull’idea di natura nella filosofia, da uno sulla digitalizzazione dei testi dell’Ottocento italiano a uno sulla musica dei migranti o sullo sviluppo del turismo nella Regione Lazio. Che senso ha mettere in competizione con questi progetti un progetto rivolto alla filologia informatica dei testi poetici delle Origini?

Sarebbe come – scrivevo alla prof.ssa Licoccia il 23/6 – misurare con un metro elastico, mai eguale a se stesso, cani, gatti, uccelli e pesci e farne poi una graduatoria numerica unica.

 

8. Non mi sottraggo, in conclusione, ad avanzare qualche proposta pratica che rivolgo, con tutta modestia, alle nostre autorità accademiche per evitare che si ripeta, con il Bando del prossimo anno, lo scempio che ho finora descritto.

Credo che il punto fondamentale sia il ruolo dei Dipartimenti a cui – fino a prova contraria – l’ordinamento conferisce la responsabilità della ricerca universitaria.

Si attribuiscano in sede di Ateneo ai Dipartimenti dei budget proporzionati alle loro caratteristiche (dimensioni, numerosità, carichi di lavoro, specifiche necessità di spesa per le proprie ricerche etc.) e si eleggano in ciascun Dipartimento, in modo pubblico e trasparente, delle Commissioni di valutazione unitarie il più possibile rappresentative dei diversi Settori Scientifico Disciplinari presenti nel Dipartimento.

A questo punto il giudizio dei referees esterni (ammesso che lo si voglia confermare) svolgerà l’unico ruolo che può svolgere efficacemente, che non consiste certo nel comparare ricerche diverse fra loro e metterle in graduatoria ma solo nell’individuare, valutandole una per una, le ricerche che appaiono di per sé serie e degne di finanziamento (ad es. quelle che superano la valutazione di 8/10, come si accennava anche nel Bando di “Consolidate”).

Quanto assegnare a ogni ricerca non può invece che essere oggetto delle meditate scelte del Dipartimento e della sua Commissione Ricerca, che potrà di volta in volta – ad esempio – scegliere di privilegiare le ricerche dei giovani oppure quelle che non hanno altra possibilità di trovare finanziamenti o – al contrario – scegliere di concentrare tutti i fondi su un solo progetto, o attuare politiche di rotazione dei finanziamenti, e così via. Così come ogni Dipartimento deve essere libero di poter assegnare una quota, magari predefinita, dei fondi di ricerca ricevuti dall’Ateneo per esperienze di ricerca innovative, individuali o collettive, sperimentali, magari poco costose, ma spesso molto produttive.

Insomma una procedura in due momenti: uno esterno per valutare se una ricerca meriti oppure no, e uno interno, affidato ai Dipartimenti per compilare se necessario un’eventuale graduatoria delle priorità.

Meglio ancora se con l’occasione otterremo che tutto si svolga finalmente nella più assoluta trasparenza (chiedendo, se questo è giuridicamente davvero necessario, che tutti i Colleghi che chiedono fondi accettino preventivamente che siano resi pubblici i giudizi ricevuti dai loro referees).

Una vera best practice sarebbe, io credo, recuperare all’Università il compito che le compete di programmare e promuovere la ricerca. Nel rispetto di tutti/e noi e in primo luogo nel rispetto della trasparenza di ogni momento decisionale.

 

Roma Tor Vergata 11 luglio 2016

(prof. Raul Mordenti)

 

[Testo del progetto in inglese]

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.