La ricerca di nuove fonti energetiche è l’equivalente all’esplorazione
geografica del XVI secolo: richiede una equilibrata miscela di competenza
tecnica, capacità di vedere oltre gli orizzonti già esplorati, coraggio di
contrapporsi alle visioni generalmente accettate per proporre percorsi
alternativi.
La capacità di sviluppo di una società
moderna è legata indissolubilmente
alla sua disponibilità energetica.
La possibilità di dotarsi di sistemi
di approvvigionamento ed utilizzo
dell’energia nel mondo moderno ha
la stessa valenza che aveva il dominio
delle vie di comunicazione nel mondo
antico; oggi il consumo di energia
pro capite è il parametro con il quale
viene misurato direttamente il benessere
di una popolazione così come un
tempo il controllo dell’accesso ai mercati
garantiva la prosperità nell’economia
mercantile, basta ricercare, nei
testi di storia, il filo conduttore che
ha generato i maggiori conflitti nelle
varie epoche per cogliere la dinamica
di questa sostituzione.
La ricerca di nuove fonti energetiche
è dunque l’equivalente all’esplorazione
geografica del XVI secolo:
richiede una equilibrata miscela di
competenza tecnica, capacità di vedere
oltre gli orizzonti già esplorati,
coraggio di contrapporsi alle visioni
generalmente accettate per proporre
percorsi alternativi. Il compito degli
scienziati è proprio quello di cercare
di spostare sempre più avanti il limite
delle conoscenze per ottenerne dei
benefici per la società; per raggiungere
questo obiettivo è stato selezionato
dalle consuetudini un opportuno
insieme di comportamenti e metodologie
di comunicazione sia all’interno
che all’esterno dell’ambiente
scientifico.
Tuttavia queste regole non
si sono evolute con la stessa rapidità
con cui è cresciuta l’aspettativa da
parte della società civile di scoperte
ed innovazioni in grado di migliorare
significativamente la qualità della
vita. Il risultato è stato un progressivo
scollamento tra l’ambiente scientifico
e l’opinione pubblica, che stenta sempre
di più a capire l’importanza della
ricerca scientifica; inoltre, in periodi
di crisi, questa incomprensione viene
cavalcata dalle politiche populiste
che includono la ricerca nei settori
improduttivi in cui recuperare facilmente
risorse.
La ricerca scientifica viene condotta
oggi soprattutto all’interno delle accademie
che selezionano al proprio
interno le proposte che rappresentano
un avanzamento della conoscenza
attraverso un processo basato sulla
peer review, il giudizio tra pari.
Ogni
proposta deve essere sottoposta ad un severo scrutinio da parte di ignoti colleghi
per poter essere accettata per la
pubblicazione su una rivista scientifica;
in mancanza di un giudizio positivo
il lavoro viene respinto ed ignorato
dalla comunità degli scienziati. Questo
processo di selezione ha funzionato
egregiamente per molti decenni
fino alla fine degli anni 70’, che hanno
visto una vera e propria esplosione
nel numero di addetti alla ricerca ed
una conseguente proliferazione delle
riviste scientifiche legato ai massicci
investimenti fatti nel settore, soprattutto
dal mondo anglosassone.
È stato stimato1 che nel 2006 sono
stati pubblicati 1.346.000 articoli su
23.750 giornali. L’impossibilità di
seguire gli avanzamenti dello stato
dell’arte, anche soltanto nel proprio
ambito di interesse, ha portato alla
progressiva settorializzazione delle
competenze ed alla nascita di riviste
sempre più specializzate che accettano
lavori provenienti da comunità
sempre più piccole e più autoreferenziate;
è diventato sempre più difficile
pubblicare lavori di natura interdisciplinare,
oppure competere per la
pubblicazione su riviste di grande
prestigio come Nature o Science che
garantiscono il massimo della visibilità
in campo scientifico. Tutte quelle
attività che si situano alla frontiera di
settori di ricerca già codificati o che
sfruttano diverse competenze o ancora
che propongono nuove metodologie
interdisciplinari, devono fare
i conti con questo sistema diventato
negli anni gelatinoso e che comincia
ad essere fortemente contestato da
più parti perché troppo rigido ed incapace
di adattarsi con prontezza alle
innovazioni. Capita spesso, infatti,
che i tempi per la pubblicazione di un
risultato siano almeno dell’ordine di
6-8 mesi che possono diventare molti
di più in misura direttamente proporzionale
al contenuto innovativo
del lavoro.
La carriera della maggior
parte dei ricercatori è legata al numero
di pubblicazioni fatte e da questo
dipende direttamente la capacità di
attrarre i finanziamenti necessari al
proseguimento dell’attività ed alla
conferma stessa del proprio ruolo; è
comprensibile quindi, che gli sforzi
dei ricercatori si concentrino su una
modalità di lavoro il cui primo prodotto
è la pubblicazione scientifica.
Accanto a questo, un altro nuovo fenomeno
sta modificando l’ambiente
scientifico, contribuendo a togliergli
definitivamente quell’alone di zona
franca in cui l’unica regola di selezione
è la meritocrazia: la diminuzione
dei finanziamenti, con cui i ricercatori
di tutto il mondo sono stati costretti
a confrontarsi negli ultimi 30
anni, ha contribuito alla creazione di
vere e proprie fazioni animate da uno
spirito di contrapposizione che ha
molto poco di scientifico, interessate
più che altro a difendersi dai competitori
esterni anche e soprattutto a
scapito della critica interna. Insomma,
le comunità scientifiche si sono
trasformate in “comunità di mutue
congratulazioni”.
Succede così che un
ricercatore debba fare, all’inizio o nel
corso della sua vita professionale, una
scelta dolorosa: rimanere nell’alveo
dell’accademia o seguire le proprie
visioni a scapito quanto meno di un
“rallentamento” della carriera. Basta
pensare che nell’aprile 2010 il British
Research Council ha varato un
regolamento che istituisce una sorta
di “black list”2 di ricercatori che abbiano
partecipato senza successo ad
un bando di finanziamento per più
di una volta durante l’anno. Questi
ricercatori non potranno presentare
più di una nuova proposta di ricerca
nell’anno successivo. Il motivo è
limitare la pressione sul sistema di finanziamenti
dovuta alla contrazione
di fondi disponibili, con meno bandi
e dunque più domande per ciascun
bando. Com’è facilmente prevedibile,
il risultato sarà alla lunga quello
di premiare i ricercatori meglio inseriti
nella comunità, i cui progetti non
contengono un tasso di innovazione e
temerarietà che può esporli al rischio
di bocciatura ed i peer reviewer incaricati
di selezionare i progetti migliori
si troveranno a preferire principalmente
quei progetti che si pongono
come una continuazione analitica di
progetti già finanziati in passato.
Prendiamo come esempio la fusione
fredda.
L’annuncio di una produzione
di energia di sospetta origine nucleare
in una cella elettrolitica, nel marzo
del 1989, mise in fibrillazione la
comunità scientifica per alcuni mesi
perché sembrava sfidare tutte le certezze
condivise dalla comunità dei
fisici.
Si sosteneva, infatti, da un lato
di poter osservare reazioni nucleari
di fusione in un metallo a temperatura
ambiente con una trascurabile
emissione di radiazioni, dall’altro di
poter produrre significative quantità
di energia termica con una attrezzatura
di grande semplicità e dal
costo limitato. I due scopritori non
erano ignoti al mondo accademico,
tutt’altro: Martin Fleischmann è un
notissimo e stimato elettrochimico,
Professore Emerito dell’Università di
Southampton e membro della Royal
Academy of Science britannica, che
lo ha premiato con la medaglia per
l’Elettrochimica e la Termodinamica
ed avente all’attivo più di un centinaio
di pubblicazioni, e Stan Pons, suo
allievo, all’epoca ricercatore presso
l’Università dello Utah dove era stato
realizzato l’esperimento. Tuttavia, nel
giro di poche settimane la comunità
scientifica si ribellò con forza bollando
la fusione fredda come “il fiasco
scientifico del secolo” secondo il titolo
di un libro pubblicato alcuni anni
dopo da John R. Huizinga3 membro
dell’US Energy Research Advisory
Board. Il problema della fusione
fredda era quello di rappresentare
un’anomalia nell’ambito della fisica
nucleare.
Una anomalia, secondo il
grande epistemologo Thomas Kuhn,
è un problema teorico che non può
avere una soluzione all’interno dello
stile scientifico corrente, ma è troppo grande per essere ignorata. Tipicamente,
la percezione di una anomalia
porta a ritenere che tutte le premesse
su cui si basa la visione generalmente
accettata debbano essere messe in discussione,
anche se non è necessariamente
così. Anche la fusione fredda
non richiede di rigettare interamente
la moderna teoria delle reazioni nucleari,
come è stato più volte fatto
credere strumentalmente, ma piuttosto
di affiancare a quella descrizione,
valida nel vuoto, una “correzione” che
tenga conto della particolarità della
materia condensata.
La descrizione della materia condensata,
che può essere appresa dai manuali
di meccanica quantistica, è fondata
sul postulato della “separabilità”
dei moti degli elettroni e dei protoni
nei nuclei.
Si afferma che, vista la grande differenza
nelle masse di nuclei ed elettroni
(un nucleo pesa migliaia di volte
di più di un elettrone), i loro moti
intorno alle rispettive posizioni di
equilibrio (sempre attivi nella materia
per temperature diverse dallo
zero assoluto) avvengono su scale di
tempo molto diverse: il piccolo elettrone
gira tanto velocemente intorno
al nucleo che questo gli appare come
fermo.
Dunque, un solido può esser
considerato come la sovrapposizione
di due strutture: i nuclei debolmente
oscillanti intorno alle loro posizioni
di equilibrio e gli elettroni organizzati
in strutture energetiche loro imposte
dalla periodicità del reticolo cristallino.
Inoltre, la distanza tra i nuclei nei
solidi è ben 100.000 maggiore delle
dimensioni di un nucleo, quindi la
materia solida è fatta molto più di
vuoti” che di “pieni”.
In questa rappresentazione la soluzione
del problema della fusione fredda
appare senza speranza! I difensori del
paradigma dominante si sono sentiti
in dovere di segnalare con forza
che questa anomalia contraddiceva a
quasi tutte le idee della fisica atomica
e dello stato solido del XX secolo
e che come tale era assolutamente
impossibile! In realtà, questa è una
visione alquanto semplificata della
struttura della materia condensata
per cui la natura è formata dalla sovrapposizione
di oggetti separabili ed
interagenti mediante forze attive solo
a brevi distanze, una sorta di gigantesco
meccano.
Gli sviluppi della fisica
teorica del dopoguerra, in particolare
a partire dagli anni 50, hanno messo
in evidenza con molti esempi concreti
come la materia nasca dall’interazione
dei singoli atomi o molecole con le
forze che agiscono a distanze grandi
rispetto alla loro separazione. Queste
forze, di natura elettromagnetica,
sono responsabili del loro avvicinamento
a distanze per le quali entrano
in gioco le forze a corto raggio studiate
dalla meccanica quantistica. In tal
modo, le prime sono le vere responsabili
della dinamica di formazione della
materia condensata, mentre le più
familiari interazioni a due corpi spiegano
molte, ma non tutte, le proprietà
dei sistemi ordinati come i cristalli
o disordinati come i liquidi e i vetri.
L’esistenza di reazioni nucleari nella
materia condensata richiede “semplicemente”
che l’interazione con queste
forze di natura elettromagnetica non
venga più considerata come una perturbazione
nella descrizione di un solido
e che, di conseguenza, le reazioni
nucleari non vengano trattate allo
stesso modo in cui si fa, usualmente,
nel vuoto.
Gli scienziati che si sono voluti cimentare
con questo problema hanno
dovuto scontrasi da un lato con l’ostilità
dei colleghi disturbati dall’“anomalia”
e dall’altro con il compito non
facile di rivedere le proprie competenze
in materia di fisica nucleare e dello
stato solido. In poche parole, questa
scoperta ha fatto piazza pulita degli
esperti: nel 1989 non c’era nessuno
che potesse dirsi esperto nella soluzione
di questo difficile problema.
Per affrontarlo erano necessarie competenze
di struttura della materia,
scienza dei materiali, elettrochimica
e fisica nucleare e non c’era nessuno
in possesso della ricetta per far funzionare
il tutto. Per la maggior parte
dei fisici e dei chimici, lavorare sulla
fusione fredda voleva dire rinunciare,
almeno temporaneamente, all’obbiettivo
principale della carriera di un
ricercatore: le pubblicazioni. Occorre
sottolineare che questo aspetto basta,
da solo, a mettere fuori gioco tutti i
giovani ricercatori in cerca di una prima
occupazione. Inoltre, va aggiunta
l’interessata ostilità da parte dei colleghi
impegnati da decenni sul fronte
della ricerca sulla fusione termonucleare
controllata4, a loro volta nei guai a
causa degli ingentissimi finanziamenti
necessari per la sperimentazione
di macchine lontane ancora decenni
dall’obiettivo di produrre energia per
scopi commerciali.
La maggior parte dei ricercatori interessati
a questa ricerca ha cercato
di obbedire ancora una volta al dogma
centrale della ricerca scientifica:
“lavoro-pubblicazione-finanziamento-
lavoro” mettendo a punto esperimenti
per lo più dimostrativi mirati
a convincere la comunità scientifica.
Questo atteggiamento ha contribuito
a diminuire lo scetticismo individuale
di alcuni scienziati, ma ha fallito
nell’ottenere il cambiamento di paradigma
respinto dal sistema perché:
“affermazioni eccezionali richiedono
prove eccezionali”.
Ma, come ha detto
giustamente Martin Fleischmann:
“La sola domanda che ci si può porre
è: chi potrebbe volere il successo di
questa ricerca?”.
Attualmente (settembre 2010) non
ci sono in Europa università o Enti
Pubblici di ricerca che ospitino ricerche
finanziate sulle reazioni nucleari a
bassa energia o LENR (Low Energy
Nuclear Reactions) o reazioni nucleari
nella materia condensata (Condensed
Matter Nuclear Science) come si tende
a definirle oggi. Negli Stati Uniti
si occupa dell’argomento il DARPA
(Defense Advanced Research Projects Agency) ma non il DOE (Department
of Energy) ed uno dei migliori
gruppi di ricerca sull’argomento opera
presso SPAWAR Systems Center di
San Diego5; solo in Giappone sono
attivi diversi gruppi presso istituzioni
pubbliche. Alcuni mesi fa6 l’esercito
degli Stati Uniti ha ritenuto opportuno
di tenere un workshop per valutare
lo stato dell’arte e l’opportunità
di investimenti. Nel frattempo la
comunità scientifica si è anestetizzata
rispetto all’anomalia fusione fredda e
preferisce ignorarla.
Per restituire la corretta dinamica a
questa ricerca potrebbe essere il momento
di cambiare punto di vista:
passare dalla prova di principio necessaria
a convincere la comunità scientifica,
sperando che questo metta in
moto il meccanismo virtuoso che porta
dalla scoperta all’applicazione, alla
realizzazione di un prototipo in grado
di produrre quantità di energia misurabili
anche se di modesta entità che
inserisca definitivamente le LENR, di
cui la fusione fredda rappresenta un
sotto-insieme, nelle possibili nuove
fonti energetiche rinnovabili. Per fare
questo sarebbe necessaria una sinergia
tra industriali dotati di vero spirito
imprenditoriale e scienziati disposti
ad abbandonare (temporaneamente)
il dogma principale del ricercatore.
Da questa collaborazione potrebbe
davvero nascere una impresa scientifica
sufficientemente lungimirante
da produrre un dispositivo in grado
di generare energia con efficienza almeno
confrontabile a quella di altre
fonti rinnovabili, ma affidabile, sicura
e pur sempre una nuova fonte energetica.
Questo modo di procedere
potrebbe rappresentare una buona risposta
all’irrigidimento delle regole di
cui soffre la comunicazione scientifica
e che rischia di soffocarla.
In altri settori questo cammino è già
iniziato e sta dando i suoi frutti. Il più
evidente è nel settore della medicina:
da alcuni anni si stanno affermando
metodologie di diagnosi e cura
che non sono nate all’interno delle
università ed anzi lì trovano scetticismi
o critiche feroci. Tralasciando
il controverso ed abusato esempio
dell’omeopatia, oggi si utilizzano efficienti
strumenti diagnostici, come il
Bioscanner7, o curativi l’“Electrochemical
Therapy”8, il cui funzionamento
è basato sull’interazione tra campi
magnetici di bassa energia e tessuti
biologici, interazione la cui stessa esistenza
è fortemente osteggiata all’interno
dell’accademia.
Ma il sistema ha percepito che la difficoltà
di accettare e metabolizzare le
diversità porta all’inaridimento e si
stanno già producendo gli anticorpi
rappresentati dall’utilizzo sempre più
massiccio della rete.
La comunità degli scienziati coinvolti
ed interessati alle LENR ha potuto
continuare ad esistere proprio grazie
alla rete anche nella quasi impossibilità
di far conoscere il proprio lavoro
sulle riviste scientifiche a maggiore
diffusione ed elevato impact-factor9.
Segno questo che nel mondo di oggi
la comunicazione è diventata davvero
la variabile indipendente.
Sfruttando
questi strumenti la fusione fredda
ha potuto raggiungere e superare il
suo 20esimo compleanno nonostante
l’ostilità diffusa. Nel frattempo i
ricercatori che hanno continuato a
lavorarci sono riusciti ad individuare
i parametri significativi attraverso i
quali il fenomeno diventa controllabile,
anche se fortemente penalizzati
dall’ostracismo della maggior parte
dei colleghi.
Ma il tema trattato è di tale rilevanza
che vale la pena di tentare di recuperare
l’insieme di competenze sviluppato
negli ultimi 20 anni a partire
dall’annuncio di Fleischmann e Pons
anche in presenza di perplessità sulla
completa controllabilità e sull’entità
del fenomeno. È più probabile però
che questo recupero avvenga direttamente
attraverso la realizzazione
di un prototipo per la produzione di
energia ad usi commerciali piuttosto
che attraverso la benedizione della
comunità scientifica che, comunque,
non tarderebbe a seguire in caso di
successo.
D’altra parte Cristoforo Colombo
venne nominato ammiraglio soltanto
dopo aver scoperto l’America.
Note
1. Bo-Christer Björk, Anniki Roos and
Mari Lauri, Information Research
vol.14, no.1, March 2009
2. http://www.nature.com/nature/journal/
v464/n7288/full/464465a.html
3. John R. Huizinga, Cold Fusion: The
Scientific Fiasco of the Century, University
of Rochester Press July 2, 1993.
4. http://www.iter.org/proj
5. http://newenergytimes.com/v2/reports/
SSC-SD-Refereed-Journal-Articles.shtml
6. Army Research Labs (ARL), Adelphi,
MD June 29, 2010 Power and Energy
TFT Low Energy Nuclear reactions
Workshop http://www.newenergytimes.
com/v2/conferences/2010/ARL/ARLAgenda.shtml
7. Il Bioscanner è un dispositivo diagnostico
che effettua una analisi non invasiva
dei tessuti e consente di rilevare stati
patologici, in particolare formazioni tumorali:
http://www.clarbrunovedruccio.
it/ita_bioscanner.htm
8. International Association for Biologically
Closed Electric Circuit in Medicine
and Biology è una associazione di
medici, biologi e biofisici che sviluppa
dispositivi elettromedicali innovativi in
combinazione con terapie convenzionali.
http://www.iabc.readywebsites.com/
page/page/623957.htm
9. L’impact factor è una misura che riflette
il numero di citazioni che riceve un articolo
pubblicato su una rivista scientifica.
Rappresenta una misura dell’interesse
che riscuote quella rivista all’interno
della comunità cui si rivolge.