Scienziati moderni oppure apprendisti stregoni?
Di Geox
I modelli e le previsioni di riferimento in ambito accademico a proposito della teoria del riscaldamento globale causato dall’uomo provengono dai documenti dell’IPCC (Intergovernmental Panel on Climate Change) e pochi altri istituti (Canadian Earth System Model, U.S. Global Research Program). Tali Istituzioni godono di fiducia da parte della politica e delle istituzioni e, pertanto, hanno contribuito fortemente alla formazione di un certo tipo di opinione pubblica. Ma quali sono le fonti e cosa dicono le pubblicazioni di questi istituti?
Cominciamo la disamina dallo U.S. Global Research Program. Tale istituto ha prodotto il documento Fourth National Climate Assessment. Questo “assessment” al Capitolo 3 riporta la seguente scoperta chiave:
«Il contributo umano all’aumento medio di temperatura globale nel periodo 1951-2010 ammonta ad un probabile range di 0.6-0.8 gradi calorici (alta confidenza)… è estremamente probabile che oltre la metà dell’aumento medio di temperatura dal 1951 sia causato da influenza umana (alta confidenza).»
La persona comune si trova spaesata al cospetto di queste terminologie tecniche e finisce per convincersi della pressoché certa influenza umana sui cambiamenti climatici. Peccato però che, in ambito accademico, tali termini assumono un significato preciso: “probabile” si riferisce ad una probabilità superiore al 66%, “estremamente probabile” superiore al 95%, mentre “Alta confidenza” significa evidenza moderata (ovvero ci sono alcune fonti coerenti, vari metodi e/o documentazione limitata), medio consenso. Provate a rileggere il tutto alla luce di queste informazioni: la scoperta chiave assume un significato completamente diverso!
Ma a cosa è dovuta tutta questa incertezza a proposito della teoria del riscaldamento globale antropico? Per rispondere a questa domanda occorre comprendere la metodologia utilizzata dai climatologi per stimare il ruolo della CO2 sulla temperatura della terra. In generale la metodica può essere riassunta in questo modo: si costruisce un modello matematico in cui ogni variabile (CO2, cicli dell’acqua, vapore acqueo, nuvolosità, ecc.) ha un certo peso nel determinare la temperatura. Successivamente si applica il modello al periodo storico selezionato, nel quale ogni variabile è stata misurata. Se il modello ricalca, con una certa approssimazione, la temperatura effettivamente misurata (o stimata) per quel periodo, allora è considerato corretto. Se non è corretto, si prova a cambiare l’impatto di ciascuna variabile e si riapplica il modello, oppure si procede all’esclusione di alcune variabili precedentemente incluse o all’introduzione di nuove.
Insomma, analogamente a quanto faceva Topolino apprendista stregone nel film della Disney “Fantasia” (1940), non vi sono meccaniche che derivano da esperimenti fisici o chimici di laboratorio ed i coefficienti di impatto di ogni variabile sul modello climatico sono adattati secondo un’unica logica: aggiustare il grafico finale affinché sia sovrapponibile con quello delle misurazioni effettive della temperatura. Tutto questo non corrisponde al metodo scientifico, non è scienza!
Ad ogni modo il grado di confidenza dei modelli è molto basso: ci sono variabili incluse per le quali ancora si dibatte se l’effetto sulla temperatura sia effettivamente positivo oppure negativo (Jonas, 2015) come ad esempio la nuvolosità: le nuvole più alte in cielo impediscono al sole di scaldare la terra (effetto raffreddante) mentre quelle basse filtrano i raggi solari e trattengono il calore nell’aria (effetto riscaldante).
Secondo lo U.S. Global Change Research Program, aggiungendo la variabile CO2 ai modelli e pesandola con un certo coefficiente, il grafico in output di questi modelli matematici ricalca meglio la temperatura realmente misurata rispetto allo stesso modello privo di CO2 (la quale, ricordiamolo, sarebbe cresciuta sensibilmente a causa delle attività umane). Detto in altre parole: il riscaldamento antropogenico rappresenta solamente un’ipotesi per giustificare modelli sui dati passati e non una teoria scientifica che abbia superato test validi.
Nei modelli climatici risulta necessario pertanto assumere dinamiche caotiche (la cosiddetta Chaos Theory) per giustificare un nesso causale tra la quantità di anidride carbonica in atmosfera ed il riscaldamento globale. In dettaglio, la quantità di CO2 nella troposfera ammonta a uno 0,04%, mentre il principale gas serra (il più potente), ovvero il vapore acqueo, mediamente è presente per l’1%. Seppur in passato il pianeta abbia avuto livelli di CO2 elevati (anche 15 volte quelli di oggi), nel corso degli ultimi millenni si stima che la quantità di CO2 non abbia mai superato lo 0,03% (sempre che le carote nei ghiacci dei poli siano un metodo affidabile di misurazione, ma questa è un’altra storia). Questo vorrebbe dire che, dal XIX° secolo ad oggi, la CO2 sarebbe aumentata di un terzo, passando dallo 0,03% allo 0,04% di concentrazione nell’aria.
Quindi, secondo gli apprendisti stregoni odierni, nonostante il fatto che il calore sulla terra deriva prevalentemente dal Sole, un lievissimo aumento di CO2 farebbe aumentare in modo infinitesimale la temperatura. Tale aumento, per quanto piccolo (il cosiddetto battito della farfalla), comporterebbe comunque una maggiore evaporazione dell’acqua dagli oceani, quindi il vapore acqueo trattiene ancora più calore sommandosi all’effetto della CO2, mentre i ghiacciai si sciolgono maggiormente, riducendo l’effetto “albedo” (poiché la luce solare non viene più riflessa dal ghiaccio ma viene invece assorbita dalla terra) ed aumentando ancora di più la temperatura. E così via in modo sequenziale: evapora ancora più acqua e si sciolgono ancora più ghiacci, amplificando sempre di più gli effetti di un modesto cambiamento iniziale. È secondo questa modalità che la temperatura sarebbe aumentata di quasi mezzo grado in un secolo.
L’applicazione della Chaos Theory allo studio del clima richiede in genere una conoscenza estremamente elevata dei fattori inclusi nella funzione matematica adottata, in forte contrasto con quanto effettivamente sappiamo ad oggi relativamente ai fenomeni climatici. Non riusciamo nemmeno a prevedere il momento in cui si verificano alcuni dei principali fenomeni che si ritiene abbiano impatti sulla temperatura, non ne comprendiamo in interezza le cause e/o difettiamo nella misurazione dei fattori che li scatenerebbero, né siamo in grado di anticipare quale sarà l’intensità con cui si presenteranno: l’Oscillazione Multidecennale Atlantica (AMO), l’Oscillazione pacifica decadale (PDO), El Niño e il Niño indiano (IOD), le correnti oceaniche e la circolazione termoalina, l’attività vulcanica, i venti, l’attività solare, i cicli di Milankovich ecc.
Insomma, la climatologia ad oggi è una “scienza” (virgolette non a caso) in cui si può dire tutto ed il contrario di tutto e di cui persino la versione “ufficiale” (IPCC) continua a cambiare, anche sensibilmente. Approfondendo bibliografia e fonti dai documenti degli altri istituti citati, è possibile notare che i riferimenti sono sempre ai medesimi modelli:
- CGCM2, del Canadian Centre for Climate Modelling and Analysis;
- ECHAM4/OPYC3, del Max Planck Instituto for Metereology;
- GFDL-R30_c, del Geophysical Fluid Dynamics Laboratory;
- HadCM3, del Hadley Centre for Climate Prediction and Research.
Ma quanto sono affidabili questi modelli?
Commenti recenti