"I ricercatori non crescono sugli alberi" è il titolo del libro scritto a quattro mani da Francesco Sylos Labini e Stefano Zapperi sulla ricerca e l'università in Italia. E' stato pubblicato da Laterza a gennaio 2010. A cosa serve la ricerca, perché finanziarla, cosa fanno i ricercatori, che relazione c'è tra ricerca ed insegnamento, come riformare il sistema della ricerca e dell'università, a quali modelli ispirarsi. Due cervelli non in fuga denunciano la drammatica situazione italiana e cosa fare per uscire dalle secche della crisi. Perché su una cosa non c'è dubbio: se ben gestito, il finanziamento alla ricerca non è un costo ma l'investimento più lungimirante che si possa fare per il futuro del paese e delle nuove generazioni.




domenica 1 maggio 2011

Chi denigra la ricerca italiana

Spesso si sente dire che nelle classifiche internazionali delle università le cose non vanno bene  in quanto i primi atenei italiani s’incontrano soltanto a partire dalla duecentesima posizione. Questapresunta mediocrità delle nostre università è stata spesso usata in maniera strumentale, specialmente nella discussione della recente legge di riforma dell’università. Alcuni economistinostrani, di cui abbiamo già scritto, che, è bene ricordarlo, non rappresentano tutti gli economisti ma coloro che hanno una fede pressoché illimitata nella capacità del mercato di risolvere qualsiasi problema, ci ricordano spesso della presunta mediocrità del sistema universitario e della ricerca italiani.

Come ho già ricordato Roberto Perotti ci assicura che “al di là della retorica, e con le solite dovute eccezioni che è sempre possibile citare, l’università italiana non ha un ruolo significativo nel panorama della ricerca mondiale”, Michele Boldrin si mostra sicuro del “mediamente basso livello didattico e scientifico dell’università italiana”, mentre Luigi Zingales ci ricorda che “nella classifica internazionale creata dall’università di Shanghai, che misura la qualità dell’output di conoscenza prodotto, nel 2008 la prima italiana (Milano) si trova soltanto al 138esimo posto. L’Inghilterra ha 11 centri nei primi 100 posti, la Germania e la Svezia 5, la Svizzera e la Francia 3”.Strano non trovare un fisico, un matematico, un chimico, un informatico, un ingegnere, ecc., che si unisca a questo coretto di denuncia. Ma è davvero così strano?

Molto meno frequentemente si sente riportare un altro dato: l’Italia si colloca nei primi dieci paesi al mondo per numero di pubblicazioni scientifiche e per numero di citazioni di queste.  Dopo mesi di campagna mediatica che ha messo in guardia l’opinione pubblica sulla necessità di riformare drasticamente un sistema così improduttivo, costoso e corrotto come quello dell’università italiana, anche alcuni quotidiani nazionali (ad esempio il Sole24ore e La Repubblica) riscoprono che il “prodotto” della ricerca scientifica italiana non è proprio da buttar via.

Come ho già avuto modo di discutere
, pur con tutti i limiti del caso, le pubblicazioni scientifiche sono il “prodotto” dell’attività della ricerca di base e le citazioni di queste sono una maniera, sicuramente imperfetta, per misurare la qualità del prodotto stesso. Mentre per la produzione scientifica di un singolo ricercatore ci sono vari aspetti cautelativi che vanno presi in considerazione, per quello che riguarda un intero paese, possiamo supporre che dal conteggio delle pubblicazioni e delle citazioni nelle banche date certificate sia possibile ottenere un buon indicatore della quantità, della qualità e dell’impatto della produzione scientifica.

Un recente articolo dell’Economist ha ripreso  e rilanciato uno studio effettutato dalla Royal Societyinglese che ha confrontato la percentuale delle citazioni degli articoli scientifici prodotti dai vari paesi negli anni 1999-2003 e 2004-2008. L’Italia conferma il suo settimo posto, migliorando la sua percentuale di citazioni dal 3% del periodo 1999-2003 al 3,7% del periodo 2004-2008, dunque con un incremento del 20%. Le nazioni che ci precedono sono quei paesi che investono in questo settore una frazione percentuale del Pil maggiore della nostra, il che implica anche una buona efficienza.

Ci sarebbe da brindare allora? Più che brindare bisognerebbe interrogarsi su chi siano quei ricercatori che, malgrado le mille difficoltà di ogni giorno, malgrado la costante penuria di fondi, l’irregolarità e spesso l’arbitrio con cui questi vengono assegnati, malgrado il fatto che una parte del sistema accademico sia sicuramente gravemente malato, e malgrado la denigrazione continua di tanti piccoli uomini, riescono a fare ricerca scientifica di qualità in questo paese.

Succede dunque che, parafrasando il famoso detto, trovato il dato positivo, inventata la spiegazione per screditarlo.  In una polemica con l’allora ministro Moratti, che aveva posto l’attenzione su un famoso studio sulla produzione scientifica delle nazioni di David King, il prof. Giavazzi scrisse:  “Anche questo indicatore del valore della produttività scientifica di una nazione è, secondo me, ingannevole. Nella ricerca conta solo l’eccellenza: ciò che non è eccellente non lascia traccia nella storia”. Nell’attesa che il prof. Giavazzi trovi il suo posto nella storia, gli consigliamo di leggere un testo di storia della scienza per capire cosa sia un’eccellenza scientifica e come questa si sviluppi. In genere pare che  questa venga fuori da un sistema di buona qualità e non proprio dal cappello magico, il che implica che l’interesse politico e strategico si debba concentrare sul creare le condizioni perché l’eccellenza si sviluppi. Di più non si può fare qui da noi sul pianeta Terra, mentre la coltivazione delle sole eccellenze  è certo possibile in quel ridicolo universo parallelo dove ci sono esseri perfetti che sanno tutto e che scelgono sempre in maniera assolutamente razionale per ottimizzare il proprio portafoglio: peccato trovarsi da un’altra parte.

I dati di King sono stati usati da Roberto Perotti nel suo libro L’università truccata, dopo opportuna sistemata, come prova dell’assoluta mediocrità della ricerca italiana. Il metodo usato da Perotti è quello di introdurre una normalizzazione delle citazioni nelle diverse discipline, ovvero di considerare il “fattore d’impatto standardizzato” che è un indice di qualità media che non tiene conto della quantità. Viceversa, l‘H-index è stato ideato proprio per avere una misura che tenga conto sia della quantità che della qualità ed è pertanto decisamente più appropriato del fattore di impatto standardizzato. Consultando il sito SCImago si trovano semplicemente i dati delle pubblicazioni, citazioni e dell’H-index per le diverse discipline scientifiche ed è dunque immediato avere conferme del fatto che globalmente l’Italia si posiziona al settimo posto sia per quantità che per qualità delle pubblicazioni. Inoltre, in 24  delle 27 aree scientifiche considerate da SCImago, l’Italia arriva entro i primi dieci posti.

Sempre alla ricerca della “normalizzazione” più giusta, Roberto Perotti, Andrea Ichino e colleghihanno proposto di dividere il numero di pubblicazioni per il numero di ricercatori accademici, motivando questa scelta col fatto che solo i ricercatori accademici producono pubblicazioni scientifiche. Secondo loro, in Italia, a differenza d’altri paesi, i ricercatori accademici corrispondono alla quasi totalità dei ricercatori. In ogni caso l’Italia entra sempre nelle prime dieci posizioni al mondo.  Inoltre chi l’ha detto che i ricercatori non accademici non fanno articoli? E come mai i ricercatori dei Bell Labs hanno vinto sei premi Nobel? E le pubblicazioni sfornate dai laboratori diCraig Venter sulla genomica non sono scientifiche? Insomma, anche qui la spiegazione adottata per screditare il dato non regge, e anzi scredita chi l’ha proposta; per parafrasare il duo Perotti-Boeri: come è possibile che ordinari di università prestigiose perdano il loro tempo per operazioni di disinformazione così maldestre?

(Pubblicato su Il Fatto Quotidiano)

Nessun commento:

Posta un commento