Temperature da Radiosonde e confronti

Nella giornata di ieri, il sito Climatemonitor.it ha pubblicato un lungo ed interessante articolo di Franco Zavatti. Ve lo ripropongo integralmente, anche se molti di voi non lo leggeranno in quanto veramente lungo, ma c’è una frase che ha attirto la nostra attenzione, ed è la seguente:

 

…Da notare anche il modo molto diverso con cui i livelli stratosferici “vedono” gli El Niño e il fatto che a 30 hPa la crescita di temperatura dovuta a questo fenomeno sembra avere un ritardo di circa un anno rispetto a quanto succede a 300 hPa…

 

Perché questa frase ha attirato la nostra attenzione?
Semplicemente perché una stratosfera molto calda favorisce le colate artiche a livello troposferico…. E sono sicuro che i molti meteo-appassionati avranno già iniziato ad intravedere una certa corrispondenza con quanto sta accadendo già ora in alzune zone del pianeta!

Buona lettura
Bernardo Mattiucci

 


 

Autore: Franco Zavatti
Data di pubblicazione: 14 Aprile 2016
Fonte originale: http://www.climatemonitor.it/?p=41059

 

Questo post nasce dalla lettura dell’audizione di John Christy il 2 febbraio 2016. Christy parla di molti aspetti della questione climatica: previsioni dei modelli troppo lontane dai dati osservati, mancata osservazione dell’aumento degli eventi estremi, miglioramento della produzione dei cereali con la crescita della CO2, proposta di destinare una piccola parte (2-10%) dei finanziamenti statali a ricerche che studino aspetti del clima non trattati dall’IPCC.

Il primo di questi argomenti è sintetizzato nella figura 1 dell’audizione, riprodotta di seguito, dove è anche presente il confronto tra la media di 4 dataset da pallone (radiosonde montate su palloni stratosferici) e 3 dataset da satellite, tutti riferiti alla temperatura globale “bulk”, intendendo con questo termine la media troposfera (MT, tra 0 e 15 km di altezza). Nella figura viene anche riportato che i fit lineari di tutte le serie sono scalati in modo da avere il valore zero al 1979 (inizio dei dati da satellite).
Non avendo mai analizzato prima i dati da radiosonde, ho voluto concentrarmi su questo aspetto della figura e sul confronto fra dati.

 

christy-fig1

 

A proposito della figura 1 dell’audizione, nei giorni scorsi si è sviluppato uno scambio di opinioni (via twitter) tra Gavin Schmidt e Judith Curry (qui sul sito di JC), in cui si è inserito anche Bob Tisdale con un articolosu WUWT. C’è poi un commento di Roy Spencer qui. Questo post, i cui calcoli erano stati fatti prima, non riguarda la polemica sul confronto dati-modelli anche se leggere i tre articoli citati può essere istruttivo.

 

Ho scaricato i dati da pallone dal sito NOAA (ratpac-a) e quelli da satellite, UAHv6beta5, bassa e media troposfera, dal sito dell’Università dell’Alabama. Mentre i primi sono già disponibili come medie annuali su 13 livelli di altezza (da “Surf” a 30 hPa), ho calcolato io le medie annuali dei valori satellitari (in origine medie mensili): quindi ho usato una sola serie per tipo di strumento (la bassa troposfera di UAH è un di più) invece delle medie di 4 e 3 serie, palloni e satellite, rispettivamente, usate da Christy.

In fig.1 sono mostrate le temperature (anomalie) da radiosonde, relative a 5 livelli di pressione, per 4 delle 7 regioni geografiche in cui è articolato il dataset: emisferi nord e sud (NH e SH), tropici (TR) e globale (GL).

 

Cm63_fig1

Fig.1. Anomalia di temperatura in 4 delle 7 regioni disponibili. La regione tropicale usata qui è quella tra -30° e +30° di latitudine. Sono presenti anche le aree extratropicali nord e sud e quella tropicale tra -20° e +20°. Il salto improvviso tra i dati troposferici e stratosferici è in realtà una transizione continua. Per il livello detto “surf” (presumo a circa 1000 hPA) sono mostrati, in giallo, i fit lineari delle 3 parti (1958-1975; 1976-2000; 2001-2015) in cui ho diviso la serie. I valori numerici dei fit e figure più leggibili sono nel sito di supporto.

 

Dalla fig.1 si possono derivare alcune considerazioni: tutti i livelli, fino a 300 hPa (~9 km), di tutte le regioni geografiche mostrano una crescita continua della temperatura nei tratti ’76-’00 e ’01-’15 (nel periodo ’58-’75 c’è sempre decrescita); l’emisfero nord mostra un’accentuazione della pendenza nel periodo finale, incompatibile con quella del periodo precedente. Cioè, attorno al 2001 si vede una discontinuità (a salire) nella temperatura superficiale di questo emisfero. Vedremo nelle figure successive che, dal livello 250 hPa, si osserva un appiattimento (una pausa) nelle temperature dell’ultimo periodo. In tutte le regioni, con maggiore o minore intensità, si osservano gli El Niño 97-98 e 2010. I livelli stratosferici (da 100 a 30 hPa) hanno un comportamento nettamente diverso; dalla fig.1 sembra ci sia un salto improvviso ma possiamo immaginare, e intuire dalle figure successive, una transizione uniforme. Le temperature, fino agli anni ’70 circa, erano più elevate di quelle troposferiche, poi c’è stato un periodo di sostanziale uguaglianza con al suo interno un improvviso aumento (da qualche decimo a più di un grado) centrato nel 1982. Nel 1992-93 si osserva una diminuzione di temperatura quasi uguale in tutte le regioni (tra 0.6 e 07 °C) per il livello 100 hPa, e una discesa più articolata per il livello 30 hPa (tra 1°C e quasi 2°C). Da notare anche il modo molto diverso con cui i livelli stratosferici “vedono” gli El Niño e il fatto che a 30 hPa la crescita di temperatura dovuta a questo fenomeno sembra avere un ritardo di circa un anno rispetto a quanto succede a 300 hPa. Ancora, 30 hPa mostra una diminuzione continua, a partire dal 1994-96, in tutte le regioni tranne, forse, nell’emisfero sud.

Per chiudere i commenti alla fig.1, devo dire che non ho notizie di “karlizzazione” (cioè modifiche più o meno arbitrarie) applicata ai dati delle radiosonde.

Confronto con UAH
Parafrasando quanto fatto da Christy nella fig.1 dell’audizione, ho scalato tutti i dati (pallone e satellite) in modo che fosse nulla l’anomalia del 1979 (inizio dei dati satellitari). Questa procedura presta il fianco a differenze generate dalle oscillazioni dei singoli dati e Christy, per evitare queste differenze, azzera al 1979 i fit lineari dei dati mediati su 5 anni: in ogni caso, nel sito di supporto sono disponibili i miei grafici senza azzeramento al ’79. Ho poi confrontato le medie annuali delle due serie relative alla media troposfera in fig.2 (pdf).

 

Cm63_fig2

Fig.2. Questa figura, come le tre successive, va letta dal basso all’alto. b) Confronto tra UAH-MT (linea viola spessa) e alcuni livelli tropo- e strato- sferici dei dati da pallone. I dati satellitari si collocano tra i livelli 250 e 300 hPa. a) come b), semplificato. Si nota che, a differenza del livello “surf”, il livello 250 hPa mostra una pausa nella temperatura dopo il 2000.

 

I dati satellitari sono una combinazione degli strati tra 0 e 15 km (Christy, audizione) e si collocano nettamente tra i livelli da pallone con pressione maggiore: negli anni più recenti tra 250 e 300 hPa, ma anche, in anni passati, vicini ai livelli 850 hPa e Surf. Di certo dopo El Niño 97-98 si osserva un allontanamento crescente tra UAH e Surf; questi ultimi (i dati Surf ma anche quelli a 850hPa) mostrano una sensibilità agli El Niño 97-98 e 2010 più bassa rispetto a quella degli altri livelli.

Gli stessi dati da pallone sono confrontati con le anomalie satellitari per la bassa troposfera (LT) in fig.3 (pdf) e mostrano caratteristiche generali simili ma con valori più vicini al livello 300 hPa, rispetto a quelle della media troposfera in fig.2.

Cm63_fig3

Fig.3. Come fig.2, relativamente ai dati UAH per la bassa troposfera (LT). La scritta “zero79” indica che le anomalie sono scalate in modo che valga zero il valore del 1979. Lo stesso vale per la precedente fig.2. Questi grafici, senza scalatura, sono visibili nel sito di supporto.

 

In conclusione, i dati dei palloni stratosferici confermano quelli satellitari di media e bassa troposfera anche se sono presenti differenze di circa 0.2 °C in alcuni intervalli temporali, ad esempio tra il 1992 e il 1996.

Confronto con i dati NOAA
I dati “Surf” delle radiosonde sono diversi dai dati da satellite, credo per ovvi motivi di quota. Per gli stessi motivi, quindi, questi dati dovrebbero essere direttamente confrontabili con i dati di superficie, ad esempio con le anomalie medie annuali di NOAA-NCEI (“karlizzate” per antonomasia,visto che T.R. Karl è il direttore di NOAA).
Il confronto tra i dati annuali NOAA e i dati “Surf”, insieme ad altri 2 o 3 livelli, è in fig.4 (pdf) dove, in a), a NOAA sono stati sottratti 0.15 °C.

 

Cm63_fig4

Fig.4. b) Confronto tra le anomalie medie annuali NOAA (globali, terra+oceano) e alcuni livelli da pallone. I dati NOAA (linea viola spessa) sono quasi sistematicamente più alti dei dati “Surf” (linea nera sottile). a) come b), semplificato e con NOAA diminuito di 0.15 °C.

 

Dalla figura emerge non solo la necessità di sottrarre alle anomalie NOAA circa 0.15 °C per rendere simili due grafici che per natura dovrebbero già essere simili, ma anche un sistematico ritardo di un anno di questi ultimi dati rispetto ai dati da pallone. La correzione del ritardo si apprezza meglio in fig.5 (pdf) dove sono graficati solo NOAA e Surf.

 

Cm63_fig5

Fig.5. Confronto NOAA e Surf: in b) i dati non modificati e in a) ai dati NOAA sono stati sottratti 0.15°C alle ordinate e 1 anno alle ascisse.

 

Se osserviamo la fig.2 o la fig.3 vediamo che tra dati UAH e radiosonde non è presente alcun ritardo e che le differenze in temperatura sono spiegabili (almeno concettualmente) con differenze di altezza. Nel caso di NOAA, gli 0.15°C sottratti (potrebbero essere 0.17 o 0.18 ma non cambierebbe nulla) sono del tutto arbitrari, e il ritardo di un anno è inspiegabile, almeno per me.

Domanda retorica finale: perché con i dati NOAA c’è sempre qualcosa che non va?

Tutti i grafici e i dati relativi a questo post si trovano nel sito di supporto qui

 

 

  • aldeg

    a quanto pare anche i dati satellitari sono soggetti ad errore. Riprendendo un articolo apparso qualche tempo fa anche su vostro sito:
    Il giornalista Gunter Ederer* scrive un articolo segnalando che alterazioni di massa sono stati trovati nella serie di dati delle temperature gestite da NASA-GISS,citando un’analisi completa condotta da uno scienziato tedesco di primo piano, il Dr. Friedrich Karl Ewert. Questi risultati sono ora disponibili al pubblico.Dai dati a disposizione del pubblico, Ewert ha compiuto una scoperta incredibile: Tra il 2010 e il 2012 i dati misuratidal 1881 sono stati modificati in modo da mostrare un riscaldamentosignificativo, soprattutto dopo il 1950. […] Un confronto tra i dati del 2010e i dati del 2012 mostrano che NASA-GISS ha modificato i propri set di dati inmodo che, soprattutto dopo la seconda guerra mondiale, sia apparso unriscaldamento netto e chiaro -. anche se questo non è mai esistito”Scrive Ederer: Ewert ha trovato particolari alterazioni nelle
    stazioni nell’Artico. Il Professor Ewert ha selezionato in modo casuale
    120 stazioni di tutto il mondo e ha paragonato i dati archiviati nel 2010 con i
    dati archiviati nel 2012 e ha scoperto che erano stati manomessi per
    generare il riscaldamento.I vecchi dati hanno mostrato cicli regolari di riscaldamento e
    raffreddamento nel corso del periodo, anche se la concentrazione di CO2
    nell’atmosfera è passata dallo 0,03% allo 0,04%. Secondo i dataset originali
    della NASA, Ederer scrive: la temperatura globale media si è raffreddata
    da 13,8°C del 1881 a 12,9°C del 1895. Poi è salita a 14,3°C nel periodo entro
    il 1905 e scesa di nuovo sotto i 12,9°C nel 1920, risalendo ancora a 13,9°C nel
    1930, è scendendo di nuovo a 13°C nel 1975 prima di risalire a 14°C entro
    il 2000. Entro il 2010 la temperatura è scesa di nuovo fino ad arrivare ai
    13,2°C. Voglio sottolineare che sembra non ci sia stato alcun riscaldamento. In particolare, dai dati del mese di marzo, risulta una temperatura sopra mediai ni Italia .Per quello che ho misurato nella mia stazione meteo, situata in una vasta area verde dentro Roma, marzo si è chiuso con un anomalia di -1.37 C°. Ora è sotto gli occhi di tutti che marzo quest’anno è stato fresco, almeno nel Lazio. Poi riportando i dati del quadrimestre freddo ho: dicembre -0.83; gennaio +0.49; febbraio +2.1. Totale +0.4, praticamente in media .Ribadisco che rispetto a 30 anni fa aumentata l’urbanizzazione, con conseguente aumento delle fonti di calore. Di conseguenza bisogna avere una maggiore accortezza nel rilevare le temperature .Posizionare, come fanno in molti, le centraline meteo sulla terrazza del condomino è sbagliato: da una parte vi sono gli scarichi dei riscaldamenti e delle caldaie, dall’altra i terrazzi sono fatti di materiali che assorbono molto calore durante l’insolazione diurna, andando ad alterare la temperatura dell’aria circostante. Bisogna montarle all’aperto, lontane almeno 100 meri dagli edifici, su un suolo naturale,( no asfalto, no terracotte), a circa 2- 3 metri dal suolo. Infine gli va fatta manutenzione 2 volte l’anno . Se non si fa questo, è facile registrare temperature più alte di quel che sono realmente..

     
    • Tutto vero e sacrosanto.
      Ma a chi è sottomesso alla teoria dell’AGW, per tutti i motivi che possiamo immaginare, tutto questo non ha alcun valore. Per loro il riscaldamento c’è ed è evidente. E’ di chiara e incontrovertibile natura antropica e se la neghi è evidente che o non capisci un cavolo oppure hai qualcuno che ti paga per farlo. E per di più le prove lo dimostrano:

      Sappiamo invece che tutto dimostra l’esatto opposto… e che questi signori non vogliono guardare e analizzare correttamente ciò che accade e perché.

      BM

       
      • aldeg

        aldilà di manomissioni volontarie, c’è il problema che in pochi, anche persone singole, rilevano le temperature come si deve, posizionando le centraline in modo giusto, con le giuste accortezze. Ad esempio sia giovedì, che ieri, a Roma min 7 C°, max 22C°; (7+22)/2=14.5, mentre la media di questo periodo a Roma è di 16 C°, quindi 1.5 gradi sotto media; a sentire la tv, questa settimana le temperature dovevano essere sopra media…

         
        • Quello è un discorso allucinante, purtroppo… perché in troppi sono convinti, ad esempio, che la temperatura “minima” va misurata a mezzanotte circa… mentre la “massima” tra mezzogiorno e le 2 di pomeriggio. In pochi sanno che, invece, la minima va misurata all’alba….
          Già semplicemente facendo questa correzione doverosa, tanti sopramedia sbandierati ai 4 venti, compresi la quasi totalità di quelli della scorsa estate, spariscono.
          E cosi’ facendo si scopre che El Nino Strong, durato oltre 14 mesi, non ha fatto altro che mantenere in media le temperature italiane…. Se non ci fosse stato El Nino avremmo avuto un 2014 bis…

          Bernardo

           
          • aldeg

            anche la fresca estate del 2014 è stata in media secondo alcune rilevazioni di temperatura. E’ evidente che c’è qualcosa che non va, se passi un’estate fresca e piovosa ma poi alcuni dati dicono che è stata in media. Per non parlare poi di chi ha attribuito l’inverni freddi del 2012, 2010 e 2005 al riscaldamento globale. In particolare, il 2005, che forse non tutti ricordano bene, è stato uno dei più freddi di sempre; ha fatto freddo da metà gennaio a metà marzo, con colate artiche alternate a continentali a ripetizione… il 1° marzo 2005 a Roma minima di -5.

             
            • enzo

              Ho come l’impressione che in un prossimo futuro, non troppo lontano, a qualche buontempone risulterà sempre più difficile nascondere le marachelle scherzose sui dati delle temperature. 😀