Ieri è stato presentato il rapporto della grande operazione di valutazione della qualità della ricerca scientifica (VQR) per gli anni 2004-2010 portata avanti per oltre tre anni dall’Agenzia nazionale per la valutazione delle università e della ricerca (ANVUR) per conto del ministero competente. I risultati hanno avuto sui mezzi di comunicazione dapprima un certo risalto, poi moderato dalla consapevolezza di quanto poco i dati cambiassero la percezione più comune del funzionamento dei nostri centri di ricerca: che gli atenei del nord fossero in generale più efficienti di quelli del Sud, che Padova fosse all’avanguardia tra i grandi centri per un buon numero di discipline, che alla Normale di Pisa si lavorasse discretamente bene, si sapeva già. In realtà, a un’analisi più approfondita delle procedure, l’idea che nasce è che difficilmente i dati potessero essere troppo diversi da quelli attesi, e che soprattutto fin dall’inizio si poteva sospettare che l’intera operazione, costata peraltro più di trecento milioni, non potesse portare a contributi più dirompenti e sconvolgenti. Vediamo di fare un po’ di chiarezza su metodi e obiettivi.
Tra gli addetti ai lavori del mondo universitario, si parla da tempo di questo importante e laborioso passaggio, ma il pubblico generale probabilmente ha difficoltà a comprendere le ragioni e le specificità tecniche di una procedura molto complessa e che, come ricordavo in precedenza, si è articolata assai a lungo nel corso del tempo. Se è vero che le procedure di raccolta dei materiali da verificare sono entrate nel vivo solo negli ultimi mesi del 2011, è altrettanto vero che la classica ridda di annunci e controannunci sul definitivo approdo a una valutazione dei prodotti di ricerca del nostro personale universitario è iniziata sicuramente con la definitiva istituzione dell’apposita agenzia pubblica preposta alla verifica della qualità dei nostri atenei, all’inizio nel 2010, e persino ancora prima, addirittura da quando era ministro dell’Università Fabio Mussi e si cominciò a parlare di una ripartizione di parte dei fondi destinati alle sedi accademiche sulla base della qualità dell’output scientifico.
[ad]Questo, in effetti, fin dall’inizio, è stato l’obiettivo primari di tutto il “censimento” dei migliori prodotti scientifici italiani: avere una base conoscitiva su cui impostare una politica universitaria con meccanismi premiali per gli istituti che garantivano maggiore qualità. All’inizio si era pensato di agire in maniera diretta, riservando agli atenei migliori quote più significative del surplus di investimento in formazione superiore e ricerca. Ma nel frattempo le procedure si sono prolungate per un periodo che ha coperto quattro diversi ministeri, caratterizzati da linee politiche piuttosto diverse l’uno dall’altro.
A cambiare profondamente, dal 2007 a oggi, sono state anche (e forse soprattutto) le condizioni oggettive in cui i ministri si sono trovati a operare. Se infatti Mussi poteva ragionevolmente presentare le operazioni di valutazione nell’ottica di una espansione del finanziamento alla ricerca universitaria concretizzatosi nella messa a concorso di nuovi posti di ruolo, nell’istituzione del programma “FIRB – Futuro in ricerca” per giovani studiosi, e in altre iniziative consimili, spesso gestite con modi e tempi sbagliati (perché mettere a disposizione i fondi prima che fosse disponibile un controllo di qualità, se quest’ultimo è davvero così essenziale?) ma comunque in grado di rappresentare l’ultimo sussulto per il possibile sviluppo delle stagnanti carriere universitarie di molti studiosi di valore, negli anni successivi si è assistito di nuovo, per l’ennesima volta come a ogni congiuntura sfavorevole, a una progressiva restrizione dei fondi per le politiche pubbliche che aveva l’istruzione universitaria e la ricerca tra le sue vittime designate.
Dalla Gelmini a Profumo, quindi, ministri non hanno potuto né voluto attendere gli esiti della valutazione per elaborare politiche universitarie adeguate alla situazione, e anzi proprio la lungaggine nell’implementazione della VQR, come è accaduto per molte politiche pubbliche riformatrici italiane, non ha fatto altro che rappresentare la “copertura” per scelte improntate al puro e semplice risparmio di fondi. In effetti, la necessità di rispettare i tempi dilatati per avere i materiali conoscitivi necessari a impostare scelte di spesa più consapevoli portava a dover ricorrere ai classici “provvedimenti urgenti” che tanto spesso hanno caratterizzato la legislazione italiana nel settore universitario, e che con questi chiari di luna non potevano che concretizzarsi nel taglio delle spese.
D’altro canto, la necessità di armonizzare la procedura di valutazione alla politica di riduzione di spesa, nel corso del tempo, ha condotto anche a commistioni più gravi e difficili da rimettere in discussione. Infatti si è andata sviluppando, alimentata da gran parte della politica e dell’amministrazione ministeriale, una certa retorica dell’eccellenza scientifica (e della possibilità di valutarla senza fallo tramite meccanismi di verifica) portava a dare spazio all’idea che proprio la valutazione potesse essere lo strumento concettuale per attribuire definitiva legittimità, e conseguentemente un aspetto permanente, alle riduzioni nell’investimento in conoscenza: una volta individuate le sedi “buone” e quelle “cattive”, queste ultime potranno essere indiscriminatamente penalizzate e finanche portate alla chiusura, visto che solo le prime “meritano” davvero di sopravvivere.
In termini non meno crudi di questi, del resto, si esprimeva il coordinatore della VQR, Sergio Benedetto, presentando a inizio 2012 in un intervento riportato su La Repubblica il lavoro di valutazione che si stava svolgendo:
Tutte le università dovranno ripartire da zero. E quando la valutazione sarà conclusa, avremo la distinzione tra research university e teaching university. Ad alcune si potrà dire: tu fai solo il corso di laurea triennale. E qualche sede dovrà essere chiusa.
Un atteggiamento del genere, che Benedetto non ha per nulla abbandonato nell’intervista rilasciata ieri a Il Sussidiario.net, in cui pure lasciava il compito di elaborare le scelte migliori sulla base dell’apporto conoscitivo fornito dalla VQR a un ministero oggi assai meno propenso a usare l’accetta più del bisturi, trova la sua radice nell’idea espressa, tra gli altri, da Roberto Perotti nel suo (ora giustamente quasi dimenticato dall’autore stesso) instant book del 2008 sull’università:
L’università è diversa dal liceo proprio perché il suo compito è promuovere e coltivare le eccellenze, sia tra i ricercatori sia tra gli studenti […]. Fare ricerca è dunque una condizione necessaria, e in gran parte sufficiente, per una università di successo […]. L’università deve produrre ricerca d’avanguardia.
Si tratta però di valutazioni che intanto sono sono inserite in un quadro storicamente inesatto, come giustamente ha ricordato Mauro Moretti nella sua recensione al volume di Perotti:
Il sistema universitario, in realtà, ha avuto ed ha finalità molto più complesse e diversificate; se in Italia si dovessero solo, o prevalentemente, coltivare le eccellenze e fare ricerca di punta, i circa due milioni di studenti attualmente iscritti non avrebbero senso in rapporto alle prospettive del sistema, ed anche duecentomila sarebbero davvero troppi. La ricerca è condizione necessaria, soprattutto sul piano della qualificazione e della selezione dei docenti, ma è ben lungi dall’essere sufficiente a dar conto del funzionamento e degli scopi dell’istruzione superiore, e delle ragioni per le quali, da almeno due secoli, i grandi Stati moderni hanno investito energie e risorse in questo settore.
Esse, inoltre, rivelano un sostanziale analfabetismo istituzionale sulla natura e sul ruolo delle università di ricerca in un sistema che veda le sedi differenziate sul piano funzionale. Una distinzione di questo tipo, infatti, è di obiettivi e finalità più che di qualità assoluta del servizio offerto, e soprattutto rappresenta un punto di arrivo di un processo di adeguamento istituzionale in cui la valutazione della ricerca prodotta è solo un elemento, successivo alla possibilità del gli atenei di sviluppare autonomamente politiche di assunzione volte al miglioramento della qualità dei loro dipendenti, e quindi all’istituzione di meccanismi di mobilità professionale fluidi per gli addetti all’insegnamento e alla ricerca. Un caso abbastanza paradigmatico del respiro programmatico necessario a portare avanti una riforma del genere è quanto sta cercando di attuare il governo di un altro sistema universitario tradizionalmente non “verticale” nella sua struttura, quello tedesco, attraverso l’alimentazione progressiva di hub internazionali di ricerca con contributi federali affiancati a quelli ordinari degli stati.
Resta poi da chiedersi se davvero le informazioni raccolte dalla VQR potranno reggere, anche nel lungo periodo, un obiettivo politico così ambizioso. Si potrà fondare sui dati a disposizione una scelta che, dinamicamente, può avere riflessi così forti? E qui si arriva a parlare, finalmente, del metodo di rilevazione. In sostanza, ogni docente e ricercatore strutturato doveva inviare tre lavori scientifici a sua scelta, che altri studiosi avrebbero letto e valutato, fino a ottenere la valutazione media per ricercatore in Italia in ogni settore, e quindi la valutazione media per ricercatore in ogni settore nei singoli istituti: la variazione tra i due valori (accompagnata da altre specifiche che non prendo in considerazione per farla breve) rappresenta l’indicatore della qualità.
Tutto il procedimento è un campo minato di errori e pratiche discutibili. Nel metodo, la pratica di valutazione messa in opera con la VQR è stata fatta spesso passare come un adeguamento dell’Italia agli standard internazionali di controllo del risultato degli investimenti in ricerca scientifica, ma in realtà si tratta di una sorta di unicum: siamo di fronte a una istituzione di fatto di emanazione governativa che verifica in un colpo solo la qualità di tutti gli addetti e i centri di lavoro scientifico, in pratica senza avere precedenti a cui riferirsi, senza procedere con gradualità, senza affidarsi, come generalmente avviene all’estero, ad agenzie di valutazione indipendenti (che, per una situazione in cui tutti gli attori valutanti e valutati sono pubblici, significa private) in grado di operare sondaggi diversificati nel metodo. Questo genera quindi critiche relative alla scarsa rappresentatività delle competenze diffuse a un sistema che sostanzialmente mortifica la comunità scientifica escludendola dalla selezione dei responsabili della valutazione settore per settore, tutti più o meno direttamente di nomina politica, traducibili nella semplice domanda di come possa essere efficace un organismo, il ministero, che attraverso la VQR si fa una domanda e si dà una risposta da solo, e che intende utilizzare quell’unica risposta come base conoscitiva pressoché unica per le proprie pratiche normative e per le sue scelte di favore o sfavore ai vari istituti.
Nel merito, poi, anche la risposta che arriva al ministero dal VQR è soggetta a debolezze intrinseche. Perché, in primo luogo, non considerare personale come assegnisti e contrattisti vari, che dopo un quindicennio di progressiva precarizzazione dell’attività di ricerca sono diventati la vera spina dorsale per la produzione scientifica di qualità? Perché, più in generale, l’idea di fondo del tutto è ancora quella di sedi universitarie pensate (e considerate) come semplice somma del proprio personale di ruolo, da valutare uno per uno, e non come strutture che erogano il loro servizio collettivamente, sulla base di strategie plurali. Non si è nemmeno cercato di prendere in considerazione l’attività di ricerca come collaborazione, lavoro di relazione e di squadra, e anzi si è fatto di tutto per cancellare la questione, ad esempio impedendo la presentazione di lavori a più mani redatti da équipe dello stesso centro di ricerca come prodotti collettivi, ma solo come prodotti individuali per uno degli autori. Al di là dell’inevitabile profonda differenza che i risultati di un rilevamento svolto con questo tipo di paletti arbitrari produrranno rispetto a quelli delle agenzie internazionali più accreditate, l’elemento di base su cui riflettere è che si assiste al singolare tentativo di valutare istituti rifiutando di prenderli in considerazione come tali, nella loro progettualità comune.
In conclusione, come si può riassumere la VQR nei suoi caratteri fondamentali? Essa è stata una procedura che nel corso del tempo ha finito per svilupparsi in forma parallela, e per inglobare nelle sue finalità di fatto, le politiche di taglio alla spesa a cui non si è cercata un’alternativa ma solo una valutazione, e in tutti i suoi passaggi ha cercato semplicemente di valutare l’esistente, secondo criteri che lo cristallizzassero nel tempo, eventualmente giudicando buoni e cattivi e offrendo al ministero la giustificazione per premi e punizioni anche drastiche, ma mai ponendosi come stimolo per un cambiamento del funzionamento dei nostri atenei. Siamo insomma di fronte al prodotto istituzionale di un sistema destinato al piccolo cabotaggio dell’autoconservazione, privo di una politica riformatrice di ampio respiro, che sostituisce la valutazione dell’esistente (magari in cerca di alcuni colpevoli da esporre al pubblico ludibrio attraverso i loro risultati non lusinghieri) alla possibilità di modificare quell’esistente che è primario responsabile di eventuali fallimenti, e che soprattutto non lascia spazio a riflessioni e progetti che non siano quelli del centro ministeriale, con buona pace di una autonomia accademica che in Italia è sempre stata, ed è destinata a restare, poco più che un’autogestione delle risorse graziosamente concesse dall’alto.