"I ricercatori non crescono sugli alberi" è il titolo del libro scritto a quattro mani da Francesco Sylos Labini e Stefano Zapperi sulla ricerca e l'università in Italia. E' stato pubblicato da Laterza a gennaio 2010. A cosa serve la ricerca, perché finanziarla, cosa fanno i ricercatori, che relazione c'è tra ricerca ed insegnamento, come riformare il sistema della ricerca e dell'università, a quali modelli ispirarsi. Due cervelli non in fuga denunciano la drammatica situazione italiana e cosa fare per uscire dalle secche della crisi. Perché su una cosa non c'è dubbio: se ben gestito, il finanziamento alla ricerca non è un costo ma l'investimento più lungimirante che si possa fare per il futuro del paese e delle nuove generazioni.




lunedì 31 gennaio 2011

Scienziati e tennisti


Si possono classificare gli scienziati come i tennisti? A seguito del mio post su Come ti divento uno scienziato citato sul tema della valutazione dell’attività di ricerca, ricevo e pubblico questa lettera da Mauro degli Esposti.

Nell’ultimo di una serie di articoli su Il Fatto Quotidiano riguardanti la valutazione scientifica, Francesco Sylos Labini sostiene che  è molto semplice capire quali non debbano essere i metodi per valutare quantitativamente la ricerca e chi la fa. Infatti parte dal presupposto che “la qualità della ricerca non si classifica con un numero, ovvero non è ragionevole fare una classifica di scienziati come se si trattasse di tennisti”.

Affermazioni  come queste si muovono in senso opposto all’iniziativa che insieme ai colleghi della Via-Academy abbiamo sviluppato. Si tratta del censimento delle eccellenze scientifiche italiane oTop Italian Scientists basato proprio su un numero, il parametro bibliometrico conosciuto come H-index o indice di H. Il quale è il numero X di pubblicazioni che hanno ricevuto almeno lo stesso numero X di citazioni. Se il lavoro di uno scienziato è citato significa che il lavoro di quello scienziato è importante, in genere. Nel citare le sue pubblicazioni si riconosce quindi che quello scienziato ha un impatto nel suo settore. Ma l’indice H misura anche la continuità di questo impatto, poichè il valore cresce col numero di pubblicazioni citate. In questo sta il valore dell H-index: sintetizza in un numero sia l’impatto (numero di citazioni) che la produzione (numero di pubblicazioni) di uno scienziato. Quindi risulta superiore, nel valutare il profilo scientifico di persone od istituti, sia al numero totale delle citazioni (che risente della popolarità e di distorsioni derivate dal tipo e campo di pubblicazione) che al numero delle pubblicazioni (certi campi ne producono volumi maggiori e con maggiore facilità di altri, e molte non vengono mai citate!).

Chiarito questo, veniamo al metodo per calcolare l’H-index. Al giorno d’oggi, Google Scholarrisulta migliore di tutti gli altri database per fare questo calcolo, come commenti recenti hanno sottolineato. Per settori specifici, Isi o altri database sono maggiormente accurati (e meglio considerati), ma se si vuole tracciare un quadro omogeneo delle eccellenze di un istituto universitario, o di una nazione, Google Scholar rimane la scelta globalmente più giusta. Soprattutto se poi i dati ottenuti con metodi diversi vengono esaminati da esperti nei vari rami della conoscenza, come regolarmente facciamo per verificare i Top Italian Scientists.

Riguardo proprio a questo, è opportuno menzionare che in uno studio che verrà presto pubblicato sulla rivista specializzata Scientometrics (Marco Geraci e Mauro Degli Esposti, “Where do Italian universities stand? An in-depth statistical analysis of national and international rankings”), un’approfondita analisi statistica ha mostrato che una graduatoria delle università italiane basata solo sui dati dei Top Italian Scientists ha un forte correlazione con le graduatorie più conosciute a livello internazionale (come ad esempio quella elaborata dell’Università di Shangai Jiao Tong). Questo ed altri risultati dell’analisi supportano un principio che sarebbe irragionevole controbattere e su cui apparentemente siamo tutti d’accordo: la qualità e il volume della ricerca sono parametri fondamentali di valutazione.

Ci sono poi, ovviamente, numerosi aspetti metodologici da discutere. Fra questi, rimane il problema dei falsi negativi nella valutazione basata su H-index, cioè dei casi di validissimi scienziati che risultano avere bassi valori di indice H. Ma sui casi singoli ci sarà da commentare ulteriormente, dato che la discussione sul tema proseguirà.

Qui di seguito la mia risposta:

La misura del numero di pubblicazioni e di citazioni di uno scienziato, e poi dell’indice H che è essenzialmente correlato al numero di citazioni (nella gran parte dei casi, la radice quadrata diviso 2), è uno strumento di cui è bene discutere pregi e difetti per usarlo ed interpretarlo in maniera sensata. Il numero di citazioni, che indica quanti ricercatori hanno letto e, in principio, trovato interessante ed utile un articolo, è un indice di popolarità e non direttamente di qualità. Il problema centrale è se popolarità implichi qualità: una semplice scorsa alla storia della scienza mostra che non la implica affatto in tantissimi casi.

Alcune istituzioni scientifiche di prestigio, come l’Accademia delle scienze francese, si sono dunque preoccupate di stilare delle linee guida sul corretto uso degli indici bibliometrici come degli strumenti da usare con grande cautela e da persone esperte, da affiancare sempre e necessariamente ad una valutazione puntuale della qualità di un ricercatore basata sullaconoscenza effettiva dei suoi contribuiti scientifici (bisogna leggersi gli articoli e, possibilmente capirli, per giudicare). Questi indici sono soggetti a deformazioni di vario tipo, tra i cui l’incompletezza e la manipolazione dei database, come dimostrato dall’eclatante caso di Ike Antkare.

Vi sono anche banche date certificate (ISI Web of Knowledge, ecc.), che indicizzano solo le pubblicazioni e le citazioni che compaiono su riviste in cui sia stata adottata la revisione da parte di pari: queste sono però sostanzialmente incomplete in tanti settori. In genere le scienze naturali, l’ingegneria e  la medicina sono le più monitorate; un discorso completamente diverso andrebbe fatto per le scienze sociali, economia, letteratura, legge, ecc., dove le monografie (non censite sui database) sono le pubblicazioni principali. Inoltre vi è il problema delle auto-citazioni, del fatto che il numero di citazioni di un articolo è proporzionale al numero di autori dello stesso, ecc.

In aggiunta, l’indice H è un indice integrale ed aumenta con l’età:  è necessario perciò normalizzare l’indice H con gli anni di carriera altrimenti s’introduce un effetto sistematico per il quale si sovrastima l’attività di scienziati anziani e si sottostima quella di scienziati giovani. Ci sono poi i falsi positivi, ad esempio scienziati che orientano la propria carriera con l’intento di massimizzare non tanto la qualità scientifica, quanto i propri indici bibliometrici: questo può essere ottenuto in vari modi, alcuni dei quali non eticamente corretti, come ad esempio firmando articoli non propri, citando per essere citati, dirigendo grandi gruppi di ricerca e firmando un numero abnorme ed insensato di articoli, ecc.

E’ noto inoltre che un’attenzione troppo grande al valore degli indici bibliometrici può influenzare inmaniera artificiale ma importante sia l’attività scientifica del singolo ricercatore, che cerca così di orientare la sua attività sulle linee di ricerca che vanno più di moda e sono percorse dal maggior numero di ricercatori (e dunque sono più citate), sia la dinamica globale di un campo, ad esempio eliminando completamente coloro i quali cercano di studiare problemi considerati marginali ad un certo momento ma che potrebbero in seguito rivelarsi importanti. Come ho già avuto modo di osservare, su questi punti c’è un vivo dibattito a livello internazionale.

Veniamo ora alla classifica della Via Academy. Supponiamo che i dati sui quali sia stata elaborata siano completi, ipotesi non verificata visto il database di provenienza (ScholarGoogle) e la varietà di discipline che include (dalla biologia alla letteratura passando per l’economia), supponiamo inoltre che le citazioni siano indice di qualità.  Anche nel caso in cui queste più favorevoli ipotesi si verifichino questa classifica non è equivalente ad una di, ad esempio, tennisti, bensì ad una in cui i tennisti sono messi insieme ai calciatori, saltatori con l’asta, velisti, maratoneti, ecc.Questo avviene in quanto diversi campi scientifici (ed i sotto-settori di un campo) hanno delle modalità completamente diverse rispetto sia al numero di pubblicazioni che al numero di citazioni e dunque non sono semplicemente commensurabili. Ad esempio, si riscontrano variazioni enormi nel numero medio di citazioni ricevute da un articolo nell’arco di due anni: in matematica può raggiungere il valore di 2,55 mentre in medicina può arrivare a 51. Per superare questo problema sono stati proposti vari metodi, generalmente basati sull’idea di normalizzare il numero di citazioni a quantità standard appropriatamente scelte. Il problema non è banale e una soluzione recentemente proposta mostra che la distribuzione delle citazioni diviene la stessa quando normalizzata al numero medio di citazioni per articolo per disciplina. In questa maniera si trovano dei risultati sorprendenti, come ad esempio il fatto che un articolo pubblicato nel campo dell’ingegneria aerospaziale con sole 20 citazioni abbia “più successo” di un articolo in biologia con 100 citazioni. Ma questo chiaramente non significa che il primo è necessariamente più importante del secondo, ma solo che sia relativamente più citato e dunque più popolare.

Il punto fondamentale è che non bisogna ridurre il dibattito sull’uso degli strumenti bibliometrici in questi termini: chi  critica gli indici bibliometrici è contro la valutazione. L’idea che unavalutazione della ricerca tramite i soli indici bibliometrici sia una cosa sensata da fare è ingenua e sbagliata, anche quando fatta usando database completi, normalizzando i dati appropriatamente per tener conto delle diverse discipline,  considerando l’effetto integrato dell’età, delle auto-citazioni, ecc. La classifica della Via Academy, non soddisfacendo neanche queste condizioni basilari, per dirla con Francesco Vatalaro, “non aiuta alla comprensione del livello qualitativo del sistema accademico italiano: è solo un modo di sommare mele con patate”. 



Intervista a Radio 3 Scienza

Ike Antkare, chi è costui? A cercare su google, si scopre che è uno scienziato molto citato in letteratura. Ma, come ci spiega Francesco Sylos Labini, fisico del Centro Enrico Fermi e dell'Istituto dei sistemi complessi del CNR di Roma, l'apparenza può ingannare. Come si fa a valutare bene la ricerca scientifica? Lo chiediamo anche a Giuseppe Novelli, genetista dell'università di Roma Tor Vergata, appena nominato nel consiglio direttivo dell'Agenzia nazionale di valutazione dell'università e della ricerca.

Al microfono Pietro Greco.



Scarica il podcast  (dal minuto 19,00)

mercoledì 26 gennaio 2011

Come ti divento uno scienziato citato

Si fa un gran parlare di valutazione, parola intorno alla quale tutti sono d’accordo, finanche persone che dovrebbero nascondersi al solo suono della parola. Ma cosa significa valutare l’attività di uno scienziato? Come classificare la qualità della ricerca? Come scegliere i progetti a cui dare dei finanziamenti? Intorno a queste domande c’è nel mondo un grande dibattito, di cui in Italia non si sente una grande eco se non per schemi iper-semplificati e dunque sbagliati. Il problema è indubbiamente complicato e mettere a punto delle strategie a questo fine è una delle grandi questioni irrisolte della scienza moderna. Basti ricordare che più del 90% dei fisici mai vissuti in tutti i tempi, sono ora viventi. Questa situazione pone dei problemi nuovi che vanno affrontati cercando di trovare dei metodi ragionevoli ed efficaci. Come ho discusso in un post precedente se è difficile stabilire quali siano questi metodi è molto più semplice capire quali non debbano essere. La qualità della ricerca non si classifica con un numero, ovvero non è ragionevole fare una classifica di scienziati come se si trattasse di, ad esempio, tennisti. Certo è possibile studiare le metriche (quante pubblicazioni? Quante citazioni? E così via) che qualche indicazione la possono fornire se ben maneggiate, mai a prescindere da un’analisi accurata nel merito, ma un indice automatizzato di valutazione della ricerca rimane un miraggio.

In matematica un controesempio è un fatto particolare che dimostra che una congettura è falsa. E’ sufficiente vedere una pecora nera per dimostrare che l’affermazione “tutte le pecore sono bianche” è falsa. Seguendo questa logica un gruppo di informatici francesi ha fatto il seguente esperimento. Ha generato con un software apposito dei falsi articoli scientifici, scritti usando l’appropriato linguaggio tecnico ma usando frasi a caso, e li ha messi in rete. Anche l’autore degli articoli, Ike Antkare, è un nome di fantasia. Perché un articolo sia identificato dal motore di ricerca di Google che indicizza gli articoli scientifici, Google Scholar, è sufficiente che questo abbia almeno una referenza ad un articolo già esistente nella lista di questo motore di ricerca. Dunque sono stati generati 101 articoli: in uno si sono messe referenze solo ad articoli reali ed in ognuno degli altri 100, 99 citazioni ai restanti 99 articoli di Ike Antkare. Per velocizzare l’identificazione da parte di Google si è usato un altro trucco ed in pochi mesi Ike Antkare è diventato una stella nel firmamento degli scienziati di tutti i tempi. Infatti molti degli strumenti correntemente usati per misurare il numero di pubblicazioni e di citazioni fanno uso dei dati forniti da Scholar Google (ad esempio, scholarmeter, publish or perish, Scholar H-index calculator, H-view, scHolar index,…). In base a questi strumenti (usati spesso nel computo delle pubblicazioni e delle citazioni degli scienziati che partecipano a concorsi veri!) dall’8 aprile del 2010 Ike Antkare è diventato uno degli scienziati più citati nel mondo moderno, in una posizione migliore, ad esempio, di Albert Einstein.

Questo controesempio è stato fatto per dimostrare che alcuni strumenti usati correntemente, basati su Google Scholar,  per misurare la performance degli scienziati non sono affidabili e che è molto semplice truccare i dati. E’ inoltre interessante notare che questa distorsione sarebbe potuta avvenire, nel bene o nel male, usando nomi di persone reali. Non si può che condividere la conclusione degli autori di questo interessante esperimento: “E’ generalmente accettato che importanti decisioni riguardo il futuro di uno scienziato non possano essere prese se basate su questi criteri. Inoltre il caso di Ike Antkare mostra che è necessario guardare in dettaglio non solo agli articoli ma anche agli articoli che citano gli articoli.”

Ci sono altre banche dati da cui si possono ricavare informazioni riguardo le pubblicazioni e le citazioni vere, come ad esempio l’isi web of knowledge. Ma il problema di fondo, ovvero dare il giusto peso alle metriche di uno scienziato, rimane irrisolto anche quando si hanno dei dati certificati. Per capire la criticità di questi indicatori è però necessario inquadrare il problema da un punto di vista storico, e su questo spinoso argomento mi riprometto di ritornare a breve.



lunedì 17 gennaio 2011

Supermarket Cnr


 Nel silenzio cosmico dei sempre informatissimi commentatori dei principali mezzi di comunicazione di massa di questo sfortunato paese, a parte le solite sparute eccezioni che non  mollano mai, la dottoressa bresciana, abilitata avvocato a Reggio Calabria, diventata ministro dell’Istruzione per ovvie qualità, sta mettendo mano all’ultima lettera del suo Ministero  (Miur): dopo essersi occupata d’istruzione e poi d’università, è ora passata alla ricerca. Ovvero, con rapida efficienza si appresta a “riorganizzare” gli enti di ricerca ed in particolare il principale, il Consiglio Nazionale delle Ricerche, che intende riformare per introdurre finalmente il merito e la valutazione, per aumentarne l’efficienza, e magari per porre anche in questo caso la parola fine al falso egualitarismo del sessantotto.

Il Cnr è un ente generalista, ovvero si occupa di tante diverse discipline scientifiche. Nella classifica Scimago, che registra la performance delle istituzioni scientifiche di tutto il mondo. il Cnr si trova alla 23esima posizione con 31 mila articoli (per fare un confronto, il CNRS francese, che ha 4 volte i dipendenti, si trova nella seconda posizione con 125 mila articoli). Chiunque abbia avuto a che fare con il Cnr sa bene quali siano i suoi difetti, ma sa anche che c’è una parte del personale di alto livello  internazionale che riesce raddoppiare le risorse ministeriali attraverso la partecipazione a bandi nazionali ed internazionali. Come nel caso dell’università il principio dovrebbe essere quello di capire quali siano le criticità ed intervenire per migliorare la situazione.  Come nell’università, un problema importante dovrebbe essere quello di dare spazio ed autonomia alle generazioni più giovani. Ma, come nell’università, questo è l’ultimo dei problemi del legislatore.

Durante il governo Prodi, partendo dal presupposto che il presidente del Cnr  dovesse anche essere uno scienziato di alto profilo, l’allora ministro Mussi affidò la selezione ad un comitato di scienziati italiani e stranieri che gli propose una rosa di tre nomi. I criteri per la scelta del presidente erano quelli dell’assoluta eccellenza scientifica, attestata internazionalmente, e della provata capacità manageriale nell’ambito di enti di ricerca italiani e internazionali. Da questa lista, in cui comparivano solo scienziati di primo piano, il ministro Mussi scelse nel 2008 il fisico Luciano Maiani, già presidente dell’Istituto Nazionale di Fisica Nucleare  e del Cern.  Notiamo che nulla del genere accadeva nel passato, quando i presidenti degli enti di ricerca  erano scelti dal ministro in base ad altre logiche, che hanno portato a casi paradossali come quello del prof. Pistella, nominato dal ministro Moratti senza aver mai condotto attività scientifiche di una certa consistenza, anzi, gonfiando il cv con un falso numero di pubblicazioni. Il caso Pistella ha avuto l’attenzione di riviste internazionali del calibro di Nature e Science.

Dunque, nel nuovo statuto che si appresta ad essere approvato a breve dal Consiglio di Amministrazione del Cnr, viene dato un ruolo determinante al Direttore Generale (Dg), svuotando di fatto il ruolo del presidente. Il Dg viene nominato direttamente dal ministro e vengono previsti dei ruoli che non si limitano alla gestione delle risorse, ma che invadono la sfera scientifica. Ad esempio, il Dg ha voce nella determinazione dei direttori di Dipartimento (il Cnr è diviso in 11 dipartimenti tematici) ma anche nel conferimento degli incarichi dei direttori di Istituto (ogni dipartimento è diviso in istituti). Dunque il Dg impartisce istruzioni ed indirizzi operativi a tutte le strutture dell’ente. Il risultato è duplice: da una parte si limita l’autonomia dell’ente, in una legge che ne dovrebbe prevedere l’autonomia statutaria, e dall’altra il Dg, diretta emanazione del ministro, può influenzare in maniera diretta ed esplicita la ricerca.  Inoltre viene eliminato dal Consiglio di Amministrazione il rappresentante della comunità scientifica.

La questione di fondo che andrebbe discussa in dettaglio è il motore delle scelte ministeriali, che è il  seguente. Come notato da Donald Gillies nel suo splendido libro How should research be organised?, i supermercati sono tra le compagnie più di successo del mondo ed i loro manager hanno saputo trasformarli in imprese d’alta efficienza. Il problema che bisogna porsi è se i metodi manageriali che hanno reso efficienti i supermercati sono capaci di aumentare l’efficienza delle organizzazioni che hanno come scopo la ricerca. Da un’analisi approfondita si evince che questi metodi applicati alla ricerca hanno esattamente l’effetto opposto: invece di aumentare, diminuiscono l’efficienza della produzione di ricerca.

Il punto è semplice ed è intrinseco a come funziona la ricerca: i ricercatori non sono degli impiegati che lavorano su commissione, quanto piuttosto sono loro stessi che devono decidere cosa studiare, su quali linee di ricerca investire il proprio tempo e come affrontare i problemi che hanno davanti. La ricerca non è un autostrada che si imbocca e poi si va avanti a tutta velocità, quanto piuttosto è sempre una esplorazione di un territorio sconosciuto, una sorta di jungla nella quale ognuno, con la propria sensibilità e conoscenza cerca, piano piano, di orientarsi. Dunque sono gli scienziati stessi che devono auto-organizzarsi sul funzionamento del proprio lavoro e certo non è possibile che una persona estranea al mondo della ricerca riesca a dare degli indirizzi sensati su come operare. Questo tra l’altro è quello che succede in tutti gli enti di ricerca del mondo. Se vogliamo trovare un esempio storico, possiamo ricordare che durante il fascismo  fu imposto il generale Pietro Badoglio come presidente del Cnr, proprio per affermare la volontà del governo di controllo della ricerca. Ma all’epoca la ricerca scientifica italiana, grazie al fascismo, fu smantellata quasi del tutto e i pochi che resistettero e che diedero il via alla rinascita del dopoguerra lo  fecero grazie alle proprie qualità e non perché parte di una qualche istituzione funzionante.

C’è dunque chi, nel Titanic che affonda, si è armato di secchiello e cerca di svuotare l’acqua che entra da tutte le parti sperando che altri si sensibilizzino al problema. Il Consiglio Scientifico Generale del Cnr ha espresso la sua contrarietà a questa operazione di riorganizzazione della governance dell’ente. La settimana scorsa la seduta del Cda è stata interrotta da un gruppo di ricercatori, che si sono opposti non solo a questa delirante riorganizzazione dell’ente, ma hanno anche fatto presente il taglio del 13% alle risorse ed il tetto di spesa per il personale al 75% dei fondi ministeriali, con la diretta implicazione dell’impossibilità di assumere nuovo personale. Così il Cnr è in stato di mobilitazione e, di nuovo, a fare le spese di queste belle trovate governative sono le generazioni più giovani, che forse ora sapranno chi ringraziare.

mercoledì 12 gennaio 2011

Disinformazione, menzogna e università



“Articolo21 ha deciso di assegnare il prossimo premio annuale per la libertà di informazione alla delegazione dei 12 studenti e ricercatori che sono stati ricevuti dal Presidente Napolitano”. Così l’Associazione Articolo 21, molto sensibile al tema della libertà d’informazione, ha voluto assegnare un significativo riconoscimento al movimento di studenti e ricercatori che il 22 dicembre scorso, alla fine di una bellissima manifestazione sulla tangenziale di Roma in uno scenario surreale quasi volando sopra la città, è stato ricevuto dal Presidente della Repubblica. Perché mai un premio dall’associazione più impegnata per la libertà d’informazione? Che cosa c’entra la libertà d’informazione con la questione della legge sull’università? In realtà l’informazione, o meglio la disinformazione a tutto campo dei maggiori editorialisti nazionali, che forse qualcosa sanno e allora sono in malafede o che magari scrivono per sentito dire, e allora tradiscono il ruolo d’orientamento che dovrebbero avere, e la propaganda ministeriale amplificata dalla carta stampata e dalla televisione, hanno generato il tipico “rumore di fondo” che ha coperto quasi tutta la discussione pubblica sul merito della riforma Gelmini sotto una coltre di menzogne. Gli studenti e i ricercatori sono stati gli unici che, con grande maturità ed esemplare consapevolezza della situazione, hanno cercato di bucare, in tutti i modi, questa cappa di insulsi luoghi comuni e bugie. Non è stato certo un compito facile, ma data la situazione, è avvenuto qualcosa d’importante su cui è bene riflettere.

Il ddl Gelmini è stato difeso portando dati e argomenti falsi, ripetuti in primis, dal ministro stesso che ha ossessivamente ripetuto: è una riforma “per aprire le porte ai giovani”, “per limitare il potere dei baroni”, “per introdurre la valutazione ed il merito nell’università”, “contro l’auto-referenzialità dell’accademia”, contro “gli sprechi”, contro “parentopoli”, perchè “viene archiviata definitivamente la cultura del falso egualitarismo instaurato con il 1968”. Ognuna di queste parole chiave è stata usata per nascondere il contrario di quello che realmente succede: in prima approssimazione basta sostituire la parola “per” con “contro”, e viceversa,  e si ottiene un quadro più realistico. Ovviamente bisogna scendere nel dettaglio d’ogni slogan: questo è stato fatto dai ricercatori della Rete 29 Aprile con dei video ora disponibili sul loro canale Youtube.

Poi ci sono stati i difensori a prescindere dagli argomenti. Il ddl Gelmini è stato difeso perché “è una riforma necessaria”, “è l’unica riforma possibile”, “in politica si sceglie tra il peggio e il meno peggio”, “se la riforma non sarà approvata, i propositi di modernizzazione saranno abbandonati e prevarrà la conservazione dello status quo”. Questi sono i ragionamenti degli sconfitti a prescindere.

Poi ci sono le semplificazioni e le menzogne su chi si è opposto alla riforma: “difende l’esistente”, vuole “fare i propri interessi”, vuole “un avanzamento di carriera ope-legis”,  “è manipolato dagli intellettuali di sinistra”, “non ha proposto un’altra riforma”, “dov’era cinque, dieci, quindici anni fa, perché non protestava?”, ha comunque espresso solo il “disagio delle giovani generazioni; disagio per esprimere il quale la protesta contro la riforma universitaria ha rappresentato poco più che un pretesto”.

Si potrebbe compilare un lungo elenco con tutte queste falsità, con queste analisi superficiali fatte da persone che, nel migliore dei casi, guardano la realtà con i paraocchi dell’ideologia o della convenienza o di tutte e due messe insieme. Che invece di sforzarsi d’interpretare quello che succede, devono inserire quello che avviene in uno schema intellettuale a compartimenti stagni, predefinito, magari risalante a quarant’anni fa (gli studenti, la polizia, il sessantotto, Pasolini, l’ope-legis, ecc.) ma sempre e comunque  prescindendo dai dati di fatto.

Insomma un bel fuoco incrociato, anche perché opporsi al ddl Gelmini è stata una semplice necessità per chi ha capito di cosa si tratta (pochi) e per chi ha intuito quali possono essere le conseguenze per sé, per le nuove generazioni e per l’istituzione universitaria. E’ tuttavia  chiaro a molti, compresi a coloro che si sono opposti al ddl Gelmini, che difendere l’esistente è impossibile. Chi  però deve elaborare e proporre un’altra riforma? La risposta è molto semplice: il legislatore. E’ infatti compito del legislatore ascoltare le proposte che dal mondo accademico possono essere elaborate, discuterle, fare un’analisi accurata della situazione e programmare una riforma seria e di ampio respiro. E questo è esattamente tutto quello che il legislatore non ha fatto. O al più, in questa occasione, il legislatore ha ascoltato solo una parte del mondo accademico, quello che cerca di arrampicarsi sugli specchi pur di sopravvivere qualche altro anno nei posti di comando, quello che non si è mai posto la semplice domanda: che ne sarà delle nuove generazioni? In una parola, la  gerontocrazia dei quasi centenari diventati burocrati, che hanno in mano l’accademia e la ricerca, che dovrebbe guardare al futuro non solo di se stessi, ma del paese. Ma c’è stata anche un’ampia parte del mondo accademico, a partire dai ricercatori della Rete 29 Aprile, dai vari movimenti di studenti, da un consistente gruppo di professori associati, che invece hanno fornito idee, analisi e spunti di riflessione su come articolare un altro progetto di riforma. Non sono stati ascoltati: né dal Governo e né dall’opposizione, se non da quest’ultima piuttosto tardivamente.

Quello che è successo dunque è molto semplice. Il peggior ministro della storia repubblicana ha dato il suo nome alla peggiore riforma universitaria mai vista dal dopoguerra ad oggi. Non è un mistero che dietro questa riforma si celino interessi “forti” (Confindustria) di diverso genere, che comunque non hanno niente a che fare con l’università e la ricerca. I commentatori “indipendenti” selezionati dalla stampa nostrana hanno scritto pagine vergognose  che non si  dimenticheranno facilmente.  Quello che è più grave è che gli anziani, i colti, i saggi, a parte poche e sparute eccezioni, hanno abbandonato le nuove generazioni a se stesse.

C’è però ancora chi pensa e crede che “l’Università statale non sia un’istituzione da rottamare e regalare ai primi caimani che passano, ma un luogo fondamentale e irrinunciabile d’elaborazione e diffusione delle idee, una risorsa per lo sviluppo e un fondamento per la democrazia, una spina nel fianco per chi vede come il fumo negli occhi la cultura, il libero pensiero e un’autonoma capacità di comprensione”. C’è chi resiste ora perché ha un’idea del futuro e ha capito che l’università è uno dei problemi che investono oggi tutta la nostra società e che sono molto contigui, a partire dalla libertà d’informazione. C’è chi resiste e non è affatto detto che debba soccombere anche se la legge Gelmini è stata promulgata.

(Pubblicato su Il Fatto Quotidiano online)

lunedì 3 gennaio 2011

Intervista a RadioCittàFutura del 23.12.2010

FSL ha partecipato ad una trasmissione a radio città futura sulla rifroma Gelmini. Nella prima parte c'è anche un intervento dell'Onorevole  Fabio Granata (FLI). Nella seconda parte interviene la Senatrice Vittoria Franco (PD).