"I ricercatori non crescono sugli alberi" è il titolo del libro scritto a quattro mani da Francesco Sylos Labini e Stefano Zapperi sulla ricerca e l'università in Italia. E' stato pubblicato da Laterza a gennaio 2010. A cosa serve la ricerca, perché finanziarla, cosa fanno i ricercatori, che relazione c'è tra ricerca ed insegnamento, come riformare il sistema della ricerca e dell'università, a quali modelli ispirarsi. Due cervelli non in fuga denunciano la drammatica situazione italiana e cosa fare per uscire dalle secche della crisi. Perché su una cosa non c'è dubbio: se ben gestito, il finanziamento alla ricerca non è un costo ma l'investimento più lungimirante che si possa fare per il futuro del paese e delle nuove generazioni.




lunedì 23 maggio 2011

La crisi economica tra previsioni e farfalle

Di tanto in tanto, in occasione di qualche evento catastrofico come un terremoto o una crisi economica si ritorna a discutere di cosa significhi fare una previsione e nel caso a cosa serva una scienza che non è in grado di fare previsioni. Il significato di previsione ha subito un’importante evoluzione nelle scienze dure: mentre, nell’Ottocento, Pierre Simon Laplace immaginava che una conoscenza infinitamente precisa, ad esempio, delle posizioni e delle velocità dei pianeti, sarebbe stata sufficiente per una previsione delle loro posizioni e velocità in qualsiasi tempo futuro, questa certezza venne a cadere  quando si comprese, con Henri Poincaré, che “piccole differenze nelle condizioni iniziali ne producano di grandissime nei fenomeni finali. Un piccolo errore nelle prime produce un errore enorme nei secondi. La previsione diventa impossibile e si ha un fenomeno fortuito”. Questo è il famoso effetto farfalla: una farfalla che sbatte le ali in Brasile può causare un ciclone in Florida, nel senso che un a piccola perturbazione può causare, in determinate circostanze, grandi cambiamenti nell’evoluzione futura di un sistema.

Questa caratteristica di caoticità è presente anche nel semplice sistema composto dalla Terra, dal Sole e dalla Luna di cui si conosce la legge che ne governa il moto (la gravità di Newton) e si possono misurare con buona precisione alcuni parametri fondamentali, come la massa dei corpi, le velocità, le posizioni, ecc. Per via dell’effetto farfalla, è possibile effettuare previsioni affidabili solo per un certo periodo (circa un milione d’anni) oltre il quale il sistema diventa caotico. Nel caso della meteorologia le previsioni sono affidabili solo per un periodo di circa una settimana (in media). La previsione è tanto più affidabile quanto minore è l’intervallo di tempo considerato: tra un’ora possiamo essere ragionevolmente sicuri della nostra previsione.

Per i terremoti la situazione è invertita: una volta identificata una zona sismica non siamo in grado di quantificare la probabilità della previsione nel breve periodo, piuttosto possiamo essere ragionevolmente sicuri che nel lungo termine si verificherà un terremoto. Questo tipo di conoscenza  è utile per elaborare una mappa del rischio sismico e fare dunque una politica di prevenzione, come ad esempio costruire in modo antisismico. In un recente articolo su Nature il sismologo americano Robert Geller scrive:  “E’ ora di dire al pubblico francamente che i terremoti non possono essere previsti… Tutto il Giappone è a rischio terremoti, e lo stato attuale della scienza sismologica non ci permette di differenziare il livello di rischio in particolari aree geografiche. Noi dovremmo dire al pubblico e al governo di  ‘prepararsi per l’imprevisto’ e fare del nostro meglio per comunicare sia quello che sappiamo e che non sappiamo”.

In economia la situazione è  invece molto più controversa. Come si è visto nel caso dell’ultima crisi, la gran parte degli economisti, e in particolare quelli, i neo-liberisti, che pensano che “il mercato” sia una sorta di sistema dinamico che si auto-regola se non viene “disturbato” da interventi esterni, non ha previsto la crisi. L’argomento portato a difesa di quest’incapacità è stato che non si possono prevedere le crisi finanziarie come non si possono prevedere i terremoti. Ma questo argomento non regge: come i geologi identificano una zona sismica gli economisti dovrebbero capire le condizioni per cui l’occorrenza di un evento traumatico diventano maggiormente probabili; mentre una zona sismica rimane tale per un tempo geologico, un sistema economico può essere più o meno soggetto a crisi per un tempo scala di alcuni anni.

Nessuna persona ragionevole pretende dunque che gli economisti avessero previsto che esattamente nell’agosto 2007 sarebbe avvenuta una grave crisi finanziaria o che a settembre 2008 la crisi sarebbe precipitata in una crisi di fiducia, ecc. Non si tratta, infatti, di individuare il punto preciso nel tempo e nello spazio in cui ha luogo la crisi, ma di individuare il “rischio sismico”, in un lasso ragionevole di tempo, di un evento catastrofico (un crollo in Borsa, lo scoppio di una bolla immobiliare, il fallimento delle banche, la chiusura di grandi fabbriche, la caduta generalizzata della domanda, ecc.) e degli effetti che può  provocare (recessione o caduta del Pil, disoccupazione, ecc.). Come spiega, ad esempio, Roberto Petrini nel suo bel libro “Processo agli economisti” un’analisi qualitativa del “rischio sismico”  è stata sviluppata soprattutto da quella minoranza d’economisti, detti eterodossi, che avevano avvertito che la situazione economica degli Stati Uniti stava diventando suscettibile di eventi catastrofici.

Ci si chiede dunque quale sia l’utilità di una teoria che non è in grado né di fare previsioni quantitative, come la meccanica celeste o la meteorologia, né di costruire una mappa del rischio come la geologia. In un editoriale su Nature Jean-Philippe Bouchaud, fisico e studioso dei mercati finanziari, scrive: “I razzi volano sino alla luna, l’energia viene ottenuta da minuti cambiamenti di massa atomica senza grandi disastri, i satelliti di posizionamento globale aiutano milioni di persone a trovare la loro strada di casa. Ma qual è un successo che sia il fiore all’occhiello dell’economia, oltre alla sua ricorrente incapacità di prevedere e prevenire le crisi, tra cui l’attuale crisi del credito mondiale? … Soprattutto, vi è la necessità decisiva di cambiare la mentalità di coloro che lavorano in economia e nell’ingegneria finanziaria. Essi hanno bisogno di allontanarsi da ciò che Richard Feynman ha definito Cargo Cult Science: una scienza che segue tutti i precetti e le apparenti forme dell’indagine scientifica, mentre manca ancora qualcosa d’essenziale. Un insegnamento eccessivamente formale e dogmatico nelle scienze economiche e nella matematica finanziaria sono elementi integranti del problema”. In altre parole il problema sta nella forzatura di trattare, nella formalizzazione matematica, una scienza sociale come l’economia come se fosse una scienza dura senza considerare poi che la validità di una teoria nelle scienze dure si ottiene dal confronto con l’esperimento. L’eccessiva formalizzazione rischia di eliminare quegli strumenti concettuali più propri di una scienza sociale, che sono necessari a comprendere, sia pure in maniera parziale e qualitativa, la realtà economica.

Inoltre, se l’elevato “rischio sismico” non è stato compreso da molti economisti di primo piano, quello che lascia maggiormente perplessi è che, una volta che la crisi finanziaria aveva preso il via, c’è stata una corsa da parte d’alcuni a negarne le conseguenze catastrofiche nell’economia reale come fecero, ad esempio, i nostri Alberto Alesina e Francesco Giavazzi. Piuttosto che effetto farfalla, in questo caso si è andati direttamente per farfalle.

domenica 1 maggio 2011

Chi denigra la ricerca italiana

Spesso si sente dire che nelle classifiche internazionali delle università le cose non vanno bene  in quanto i primi atenei italiani s’incontrano soltanto a partire dalla duecentesima posizione. Questapresunta mediocrità delle nostre università è stata spesso usata in maniera strumentale, specialmente nella discussione della recente legge di riforma dell’università. Alcuni economistinostrani, di cui abbiamo già scritto, che, è bene ricordarlo, non rappresentano tutti gli economisti ma coloro che hanno una fede pressoché illimitata nella capacità del mercato di risolvere qualsiasi problema, ci ricordano spesso della presunta mediocrità del sistema universitario e della ricerca italiani.

Come ho già ricordato Roberto Perotti ci assicura che “al di là della retorica, e con le solite dovute eccezioni che è sempre possibile citare, l’università italiana non ha un ruolo significativo nel panorama della ricerca mondiale”, Michele Boldrin si mostra sicuro del “mediamente basso livello didattico e scientifico dell’università italiana”, mentre Luigi Zingales ci ricorda che “nella classifica internazionale creata dall’università di Shanghai, che misura la qualità dell’output di conoscenza prodotto, nel 2008 la prima italiana (Milano) si trova soltanto al 138esimo posto. L’Inghilterra ha 11 centri nei primi 100 posti, la Germania e la Svezia 5, la Svizzera e la Francia 3”.Strano non trovare un fisico, un matematico, un chimico, un informatico, un ingegnere, ecc., che si unisca a questo coretto di denuncia. Ma è davvero così strano?

Molto meno frequentemente si sente riportare un altro dato: l’Italia si colloca nei primi dieci paesi al mondo per numero di pubblicazioni scientifiche e per numero di citazioni di queste.  Dopo mesi di campagna mediatica che ha messo in guardia l’opinione pubblica sulla necessità di riformare drasticamente un sistema così improduttivo, costoso e corrotto come quello dell’università italiana, anche alcuni quotidiani nazionali (ad esempio il Sole24ore e La Repubblica) riscoprono che il “prodotto” della ricerca scientifica italiana non è proprio da buttar via.

Come ho già avuto modo di discutere
, pur con tutti i limiti del caso, le pubblicazioni scientifiche sono il “prodotto” dell’attività della ricerca di base e le citazioni di queste sono una maniera, sicuramente imperfetta, per misurare la qualità del prodotto stesso. Mentre per la produzione scientifica di un singolo ricercatore ci sono vari aspetti cautelativi che vanno presi in considerazione, per quello che riguarda un intero paese, possiamo supporre che dal conteggio delle pubblicazioni e delle citazioni nelle banche date certificate sia possibile ottenere un buon indicatore della quantità, della qualità e dell’impatto della produzione scientifica.

Un recente articolo dell’Economist ha ripreso  e rilanciato uno studio effettutato dalla Royal Societyinglese che ha confrontato la percentuale delle citazioni degli articoli scientifici prodotti dai vari paesi negli anni 1999-2003 e 2004-2008. L’Italia conferma il suo settimo posto, migliorando la sua percentuale di citazioni dal 3% del periodo 1999-2003 al 3,7% del periodo 2004-2008, dunque con un incremento del 20%. Le nazioni che ci precedono sono quei paesi che investono in questo settore una frazione percentuale del Pil maggiore della nostra, il che implica anche una buona efficienza.

Ci sarebbe da brindare allora? Più che brindare bisognerebbe interrogarsi su chi siano quei ricercatori che, malgrado le mille difficoltà di ogni giorno, malgrado la costante penuria di fondi, l’irregolarità e spesso l’arbitrio con cui questi vengono assegnati, malgrado il fatto che una parte del sistema accademico sia sicuramente gravemente malato, e malgrado la denigrazione continua di tanti piccoli uomini, riescono a fare ricerca scientifica di qualità in questo paese.

Succede dunque che, parafrasando il famoso detto, trovato il dato positivo, inventata la spiegazione per screditarlo.  In una polemica con l’allora ministro Moratti, che aveva posto l’attenzione su un famoso studio sulla produzione scientifica delle nazioni di David King, il prof. Giavazzi scrisse:  “Anche questo indicatore del valore della produttività scientifica di una nazione è, secondo me, ingannevole. Nella ricerca conta solo l’eccellenza: ciò che non è eccellente non lascia traccia nella storia”. Nell’attesa che il prof. Giavazzi trovi il suo posto nella storia, gli consigliamo di leggere un testo di storia della scienza per capire cosa sia un’eccellenza scientifica e come questa si sviluppi. In genere pare che  questa venga fuori da un sistema di buona qualità e non proprio dal cappello magico, il che implica che l’interesse politico e strategico si debba concentrare sul creare le condizioni perché l’eccellenza si sviluppi. Di più non si può fare qui da noi sul pianeta Terra, mentre la coltivazione delle sole eccellenze  è certo possibile in quel ridicolo universo parallelo dove ci sono esseri perfetti che sanno tutto e che scelgono sempre in maniera assolutamente razionale per ottimizzare il proprio portafoglio: peccato trovarsi da un’altra parte.

I dati di King sono stati usati da Roberto Perotti nel suo libro L’università truccata, dopo opportuna sistemata, come prova dell’assoluta mediocrità della ricerca italiana. Il metodo usato da Perotti è quello di introdurre una normalizzazione delle citazioni nelle diverse discipline, ovvero di considerare il “fattore d’impatto standardizzato” che è un indice di qualità media che non tiene conto della quantità. Viceversa, l‘H-index è stato ideato proprio per avere una misura che tenga conto sia della quantità che della qualità ed è pertanto decisamente più appropriato del fattore di impatto standardizzato. Consultando il sito SCImago si trovano semplicemente i dati delle pubblicazioni, citazioni e dell’H-index per le diverse discipline scientifiche ed è dunque immediato avere conferme del fatto che globalmente l’Italia si posiziona al settimo posto sia per quantità che per qualità delle pubblicazioni. Inoltre, in 24  delle 27 aree scientifiche considerate da SCImago, l’Italia arriva entro i primi dieci posti.

Sempre alla ricerca della “normalizzazione” più giusta, Roberto Perotti, Andrea Ichino e colleghihanno proposto di dividere il numero di pubblicazioni per il numero di ricercatori accademici, motivando questa scelta col fatto che solo i ricercatori accademici producono pubblicazioni scientifiche. Secondo loro, in Italia, a differenza d’altri paesi, i ricercatori accademici corrispondono alla quasi totalità dei ricercatori. In ogni caso l’Italia entra sempre nelle prime dieci posizioni al mondo.  Inoltre chi l’ha detto che i ricercatori non accademici non fanno articoli? E come mai i ricercatori dei Bell Labs hanno vinto sei premi Nobel? E le pubblicazioni sfornate dai laboratori diCraig Venter sulla genomica non sono scientifiche? Insomma, anche qui la spiegazione adottata per screditare il dato non regge, e anzi scredita chi l’ha proposta; per parafrasare il duo Perotti-Boeri: come è possibile che ordinari di università prestigiose perdano il loro tempo per operazioni di disinformazione così maldestre?

(Pubblicato su Il Fatto Quotidiano)