image_pdfimage_print

Autore: Donato Barone
Data di pubblicazione: 22 Agosto 2019
Fonte originale:  http://www.climatemonitor.it/?p=51423

Circa una settimana fa ho pubblicato su CM un  post in cui veniva commentato uno studio (S. Bronnimann e colleghi) che riconosceva, seppur in maniera implicita, alla Piccola Era Glaciale (PEG) un carattere globale, in quanto i segnali di un raffreddamento del clima dell’emisfero boreale, trovavano riscontro in dati di prossimità di carattere globale (variazioni del contenuto di calore oceanico e modifiche del monsone indiano, in modo particolare).

Tale circostanza è, però, negata in modo categorico da uno studio, i cui risultati sono stati pubblicati quasi contemporaneamente a quelli di Bronnimann et al., 2019 su Nature:

Pubblicità

No evidence for globally coherent warm and cold periods over the preindustrial Common Era

a firma di R. NeukomN. SteigerJ. J. Gómez-NavarroJ. Wang & J. P. Werner (da ora Neukom et al., 2019)

Neukom et al., 2019 è basato su una serie di dati di prossimità che provengono un po’ da tutte le parti del globo e  che costituiscono la base di dati utilizzata dal Consortium 2k per la ricostruzione delle temperature globali, nota come PAGES 2k pubblicata nel 2013 e rettificata nel 2015, a causa del gran numero di errori individuati, tra gli altri, da S. McIntyre. Si tratta di ricostruzioni di dati climatici (soprattutto temperature) derivate da carote di sedimenti oceanici, dendrologici (spessore degli anelli degli alberi), coralli, carote di sedimenti lacustri e via cantando. I registri paleoclimatici utilizzati nello studio sono circa 600 e sono distribuiti su tutto il globo terrestre (di cui però solo 200 utilizzati in modo sistematico), per cui, almeno in prima battuta, sembrano essere in grado di offrire una ricostruzione completa del clima terrestre nel corso degli ultimi duemila anni. Lo studio dimostra che quelle che noi definiamo “ere climatiche moderne” sono fenomeni molto localizzati e non hanno affatto respiro globale. E questo vale tanto per il Periodo Caldo Romano (PCR), quanto per il Periodo Caldo Medioevale (PCM) e la Piccola Era Glaciale.

Ho volutamente utilizzato la locuzione “almeno in prima battuta”, in quanto, approfondendo la questione, si scopre che la maggior parte del periodo indagato, viene caratterizzato attraverso un numero molto ridotto di registri di dati di prossimità: qualche decina. Il numero di registri utilizzati per ricostruire il clima passato, diventa, infatti, significativamente consistente a partire dal 1200/1300. Se si vanno ad esaminare, inoltre, le tipologie di registri analizzati, si vede che la stragrande maggioranza dei dati di prossimità sono di origine dendrologica. Essi sono localizzati, infine, quasi tutti nell’emisfero boreale e solo una manciata di serie proviene dall’emisfero australe (cinque, per la precisione).  Diverso è il caso dei registri glaciali e coralligeni che appaiono meglio distribuiti sull’intero globo. Il problema è che i dati desunti da indagini sui coralli, coprono in modo soddisfacente solo un periodo molto breve rispetto a quello analizzato: dal 19° al 20° secolo.

Tutta questa premessa si spiega con l’assunto che i ricercatori hanno posto a base del loro lavoro: l’apparente globalità delle ere climatiche moderne deriva dal numero molto basso di dati di prossimità presi in considerazione. Un’analisi approfondita del tipo di dati di prossimità utilizzati da Neukom et al., 2019, dimostra che quello che loro consideravano un bias di altre ricerche, affligge anche la loro, almeno per i primi 1200/1300 anni dell’Era Comune (dopo Cristo, per intenderci).

Accertato, pertanto, che la copertura spaziale dei dati non è affatto omogenea, cerchiamo di capire come si può stabilire la coerenza temporale del fenomeno climatico preso in esame. Per effettuare un confronto tra due serie di dati, bisogna esaminare i dati dell’una e dell’altra e determinarne lo scarto. Più esso è piccolo, più le due serie sono simili. Per accertare se un fenomeno climatico ha carattere globale o regionale, quindi, bisogna andare a vedere se il caldo registrato in un punto, corrisponde al caldo in un altro punto del globo (coerenza spaziale) e che i due picchi di caldo siano contemporanei (coerenza temporale).

Per quel che riguarda la temperatura terrestre, con l’avvento dei satelliti meteorologici siamo stati in grado di monitorare in modo uniforme il globo terrestre. Lo stesso non si può dire per le altre tipologie di misurazione: i punti di rilevamento non sono distribuiti uniformemente e, pertanto, bisogna interpolare pesantemente le misure, per calcolare le temperature in punti del globo ove non esistono stazioni di misura. Tutto ciò in quanto abbiamo bisogno di determinare i valori di temperatura nei nodi di una griglia che avvolge, idealmente, l’intero pianeta. Con i dati di prossimità il discorso è ancora più complesso: poche decine/centinaia di dati devono essere spalmati sull’intero pianeta.

Neukom et al., 2019 segue questa strada: divide la superficie terrestre sulla scorta di una griglia avente maglie di lato 5°x5° (la stessa utilizzata dai principali centri di ricerca climatica) e calcola i valori delle temperature nei nodi di questa griglia. Se per i termometri siamo abituati ad interpolazioni su distanze di centinaia di chilometri, per i dati di prossimità arriviamo ad interpolazioni/estrapolazioni di migliaia di chilometri.

E con questo abbiamo sistemato la distribuzione spaziale dei dati utilizzati nello studio. La parte più difficile è, però, la sincronizzazione temporale dei dati presi in esame. Considerata la risoluzione dei dati di prossimità, è francamente impossibile sincronizzare serie distanti nello spazio e nel tempo. A meno che non si faccia pesantemente ricorso alla matematica e, in particolare, alla statistica.

E in Neukom et al., 2019 di statistica, probabilità e matematica in genere ne troviamo a iosa. Il problema di fondo resta, però, sempre lo stesso: mentre i metodi di analisi statistica, probabilistica e matematica hanno una loro intrinseca esattezza, non altrettanto vale per i dati cui essi sono applicati. Mi spiego meglio. Se io eseguo una campagna di misure sperimentali di una grandezza fisica con un unico strumento e per un lungo periodo di tempo, escludendo errori sistematici e grossolani, le metodiche analitiche portano a valori della misura che si avvicinano alla verità in tutto l’arco temporale indagato. Sono secoli che lo facciamo e ci riusciamo benissimo. Il problema sorge allorché noi applichiamo tali metodologie a dati molto eterogenei come quelli di prossimità: se i dati di partenza sono imprecisi, anche le conclusioni lo saranno, indipendentemente dal livello di sofisticazione delle metodologie analitiche.

In Neukom et al., 2019 si cerca di verificare che i livelli di temperatura siano contemporaneamente alti (bassi) in tutto il globo nelle varie epoche climatiche prese in considerazione. Se consideriamo la PEG, per esempio, si cerca di calcolare la percentuale della superficie del globo terrestre che in un certo anno sia stata più fredda della media dell’intero periodo. Per giungere a questo risultato essi utilizzano il seguente procedimento. Scelgono innanzitutto delle serie di dati di prossimità con risoluzione annuale e ricostruiscono con metodi analitici le temperature degli anni mancanti. Per far ciò, ovviamente, si trascurano tutti i registri di dati con risoluzione maggiore di un anno (che sono la maggioranza). Tutte le serie di dati vengono calibrate con i dati strumentali del periodo 1911-1995 e vengono validate con i dati del periodo 1881-1910. Queste operazioni che io ho descritto in modo banale, in realtà, sono frutto di pesanti elaborazioni statistiche basate su modelli autoregressivi che consentono di ricostruire le temperature a partire dai dati di prossimità.

Una volta determinati i campi di temperatura nei nodi della griglia, Neukom et al., 2019 cerca di stabilire, punto per punto, i valori della temperatura durante le ere climatiche moderne. Allo scopo di rendere il processo il più oggettivo possibile, si utilizzano delle finestre di 51 anni all’interno delle quali si cerca di individuare il picco caldo (se si indaga un periodo caldo)  o freddo (se si indaga un periodo freddo). Combinando tra loro tutti i risultati ottenuti, si giunge alla conclusione che i periodi freddi e quelli caldi nell’era pre-industriale non coincidono, globalmente, né da un punto di vista spaziale, né da un punto di vista temporale. Ciò a livello annuale. Se l’indagine viene condotta a livello decadale o multidecadale, invece, comincia ad essere ben visibile tanto una coerenza spaziale che temporale.

Il discorso cambia relativamente al periodo caldo moderno (quello attuale). Per tale periodo si nota, infatti, come la coerenza temporale e spaziale sia quasi perfetta.

A conclusione di questa disanima, cui non allego alcun grafico o diagramma anche perché facilmente accessibili consultando l’articolo originale, solo qualche considerazione personale.

La metodologia utilizzata da Neukom et al., 2019, presenta il pregio di aver introdotto un metodo oggettivo per individuare i  picchi di temperatura, senza lasciarsi influenzare dal fatto di trovarsi in un periodo caldo o freddo. Le altre metodologie utilizzate fino ad ora, invece, consentivano di adattare i dati alla convinzione soggettiva del ricercatore e, quindi, i risultati erano viziati da un certo “bias confermativo”.

Il suo principale limite consiste, a mio avviso, nel fatto che i dati utilizzati sono quasi esclusivamente quelli dendrologici e quelli derivanti dallo studio dei coralli (l’ottantacinque per cento del campione) in quanto sono gli unici ad avere una risoluzione annuale. Ciò trasferisce nello studio tutte le perplessità connesse alla ricostruzione delle temperature a partire dagli anelli degli alberi e che ho già trattato in passato qui e qui su CM. Resta inoltre la forte polarizzazione del campione utilizzato nell’analisi: quasi tutti i dati dendrologici provengono dall’emisfero boreale, mentre quelli relativi all’emisfero australe sono poco rappresentati. Questo problema non è risolto dall’utilizzo dei dati provenienti dallo studio dei coralli, in quanto questi ultimi coprono essenzialmente gli ultimi due secoli. Ne deduco che la coerenza spaziale e temporale della distribuzione delle temperature a livello globale nel periodo caldo moderno, potrebbe essere un artefatto di calcolo connesso all’abbondanza di campioni nel periodo più recente. Viceversa la scarsità di campioni nei periodi temporalmente più distanti dai giorni nostri, potrebbe aver reso meno certa la mancanza di coerenza spaziale e temporale dei dati di temperatura delle altre ere climatiche. Queste conclusioni si basano anche sul fatto che la calibrazione e verifica dei dati di temperatura, ricostruiti a partire dai dati di prossimità, sono state effettuate confrontando le temperature ricostruite con quelle del periodo moderno (strumentali).

Volendo esprimere un giudizio conclusivo circa la globalità o meno delle ere climatiche moderne, alla luce dei risultati dei due studi commentati, non mi sento di esprimere un giudizio definitivo, anche se, mettendo insieme tutti gli altri indizi raccolti nel corso di questi anni di studio, tendo a considerare la PEG, il PCR ed il PCM fenomeni globali e non locali.

Pubblicità