Nobel per il clima, tra urgenza e complessità

Nobel per il clima, tra urgenza e complessità

Il cambiamento climatico è un problema centrale nelle discussioni scientifiche e politiche attuali, come dimostrano la Cop26 e l’assegnazione del Nobel per la fisica a studiosi dei modelli climatici

di Riccardo Crivellaro e Valentina Guglielmo

Anche la comunità scientifica ha puntato i riflettori sul cambiamento climatico quest’anno e l’ha fatto nel modo più risonante a livello politico e sociale, con l’assegnazione del premio Nobel per la fisica. A Stoccolma, a inizio ottobre, metà del premio è stato assegnato a Giorgio Parisi, per i suoi contributi alla “scoperta dell’interazione tra disordine e fluttuazioni nei sistemi fisici, dalla scala atomica a quella planetaria” e l’altra metà a Syukuro Manabe e Klaus Hasselmann, “per la modellazione fisica del clima terrestre, quantificando la variabilità e prevedendo in modo affidabile il riscaldamento globale”. 

Se nel secondo caso la promozione degli studi sul clima è evidente, nel primo si deve specificare che nello studio dei cosiddetti sistemi complessi, Giorgio Parisi si è dedicato anche al clima, per esempio utilizzando la risonanza stocastica: un modello matematico che sfrutta il rumore di fondo per osservare comportamenti altrimenti invisibili. Proviamo a specificare: le variazioni del flusso di energia provenienti dal Sole hanno un periodo di circa centomila anni, e risultano in una variazione di temperatura molto inferiore rispetto ai picchi di 10°C calcolati ricostruendo il passato del clima terrestre. Introducendo la dinamica degli oceani e dell’atmosfera come rumore nel sistema, invece, queste grandi variazioni di temperatura si rendono visibili.

Il clima è dunque un sistema complesso, un insieme di fenomeni che interagiscono tra loro e che, nella loro totalità, generano effetti macroscopici che non emergerebbero se si considerassero singolarmente. E forse è proprio per questo che il problema del clima è “sfuggito” alla scienza fino al diciottesimo secolo, ed è così complicato elaborare una teoria climatica che tenga conto di tutte le variabili presenti e delle numerose fluttuazioni su una scala spaziale e temporale così grande. Non da ultimo, il clima non è un sistema riproducibile in laboratorio, e non si può verificare la validità dei modelli nel breve termine.

Tuttavia, che l’impennata nei livelli atmosferici di CO2 a cui abbiamo assistito nell’ultimo secolo abbia derivazione antropica è cosa certa. Come pure che le corrisponda un aumento delle temperature medie globali. Che vi sia poco tempo per provare a far qualcosa a riguardo, invece – considerando le inevitabili conseguenze sull’ambiente, ma soprattutto sulla sopravvivenza di ecosistemi e degli stessi esseri umani –, è oggetto di discussione politica, sociale ed economica: dal 31 ottobre al 12 Novembre 2021 si terrà a Glasgow la Cop26, l’ultima occasione di adottare misure efficaci e drastiche per contenere gli effetti della crisi climatica.

Ma come facciamo a fare previsioni, quali modelli utilizziamo e quanto sono affidabili?

È un campo di studio relativamente recente, dicevamo. Le prime misurazioni della composizione chimica dell’atmosfera risalgono al diciottesimo secolo e la scoperta dell’ozono è datata 1840. La prima vera teoria sul clima invece – e probabilmente anche la più conosciuta – è l’effetto serra, scoperto dal chimico svedese Svante Arrenhius nel 1861. La sua ipotesi era che la CO2 e il vapore acqueo nell’atmosfera assorbissero la radiazione infrarossa e la riemettessero sotto forma di calore, facendo aumentare la temperatura e creando una vera e propria “serra”. È sua anche la prima osservazione della correlazione fra aumento della concentrazione di CO2 e temperatura: secondo i suoi calcoli, raddoppiando la prima, la seconda doveva aumentare di 3 o 4 gradi.

La teoria dell’effetto serra e la correlazione trovata da Arrenhius rimangono oggi solo delle semplici approssimazioni, superate dal sempre crescente grado di complessità dei modelli climatici che vogliono tener conto sia del sistema Terra nel suo insieme (della rotazione del nostro pianeta sul proprio asse, ad esempio, della sua orbita attorno al Sole e della sua variazione su tempi di scala astronomica) sia dell’interazione fra le variabili in gioco al suo interno.

I modelli attualmente più realistici – ma anche i più complessi – si chiamano General Circulation Model (Gcm): sono modelli che considerano tutta la Terra, hanno una risoluzione spaziale dell’ordine del centinaio di chilometri in orizzontale e suddividono l’atmosfera in verticale in circa 20-30 strati”, spiega a StaR Angelo Vulpiani, professore ordinario di fisica di Sapienza e coautore di diversi lavori scientifici proprio con Giorgio Parisi. “Questi tengono in considerazione la circolazione degli oceani, la circolazione atmosferica, il contributo delle foreste, la composizione chimica. Sono modelli enormi che prevedono il contributo e la sinergia di diversi specialisti per ciascuna di queste variabili e che necessitano di girare in grossi centri di calcolo”.

I modelli di cui parla Vulpiani sono basati su sistemi di equazioni differenziali non lineari. Aumentando il grado di complessità del sistema considerato – e quindi il numero di variabili in gioco – aumenta il numero di parametri da considerare e la precisione dei dati empirici richiesti.

Ammesso che si conosca l’equazione giusta da usare, manca la conoscenza delle condizioni iniziali”, spiega ancora Vulpiani. “Quindi, basandosi sui dati si ipotizza una condizione iniziale ragionevole, si parte da quella e si fanno diverse prove sporcandola un po’ e guardando dove va a finire il sistema, quali scenari ci propone. Quello che si vede è che all’inizio i risultati coprono un intervallo di valori abbastanza circoscritto, ma che ben presto questo comincia ad allargarsi in maniera esponenziale. Nelle previsioni meteo, per esempio, quando si dice ‘pioggia al 90 per cento’ si intende che 90 delle cento simulazioni svolte in questo modo – variando di poco le condizioni iniziali – ha dato pioggia. Il fatto è che questo tipo di sistema è caotico, il che impone un approccio probabilistico. Per i modelli climatici si ipotizza, invece, chel’aspetto caotico non sia importantissimo. Una cosa è caotica se la si guarda nei dettagli, se la si guarda a scale crescenti lo è sempre meno. Diciamo che si può sperare di prevedere il clima, ma non si può fare altrettanto con la meteorologia”.

Dal momento che – come dicevamo – il clima non è un sistema riproducibile in laboratorio o direttamente testabile, uno dei modi per verificare la bontà dei modelli climatici è provare a ricostruire quello che è già successo. Nel caso dell’emergenza climatica attuale, ad esempio, vi è una costante e crescente discussione – fra esperti, ma anche fra questi e i cosiddetti negazionisti – circa la relazione fra aumento della CO2 e aumento della temperatura. Che fra le due variabili vi sia una correlazione non c’è dubbio: i modelli climatici considerano questa relazione e la includono nella stima delle previsioni sul riscaldamento globale di cui si discute anche in questi giorni a Glasgow. 

Ciò che invece rimane da dimostrare, è se fra le due variabili vi sia un rapporto di causalità.

“In questo caso, fra CO2 e temperatura la domanda è: una è causa dell’altra oppure tutte e due dipendono da una causa esterna o ancora ci sono entrambi questi aspetti? Quest’ultima probabilmente è la risposta più verosimile”, dice Vulpiani. “La causa esterna è di matrice astronomica: si tratta della variazione dell’orbita terrestre, che avviene su scale di diecimila anni. Per indagare il contributo di questa e il rapporto di causalità fra le variabili bisogna quindi andare a guardare il paleoclima, per esempio. In questo caso la domanda che ci ponevamo prima acquista un senso, perché le variazioni astronomiche diventano osservabili e misurabili considerando tempi scala molto lunghi. Di questo mi sono occupato, insieme ad alcuni collaboratori, recentemente: abbiamo considerato una serie di carotaggi con una risoluzione minima di circa 500 anni. Su circa 3 chilometri di carotaggio riusciamo dunque a campionare circa 400 mila anni di storia climatica. Abbiamo rimosso l’effetto astronomico e, in quel che rimane, abbiamo notato un rapporto chiaro di causa effetto dalla CO2 verso la temperatura. Porsi la stessa domanda su scale temporali inferiori invece, come quello che stiamo facendo ora cercando di fare previsioni a 50 o 100 anni, non ha senso perché la componente astronomica è fissa”

Se accelerare la componente astronomica per verificare la causalità del rapporto fra CO2 e temperatura non è fattibile, nel secolo scorso l’uomo si è adoperato per accelerare notevolmente un altro processo che si riteneva molto più lento: la concentrazione di CO2. Secondo i calcoli di Arrenhius, infatti, per raddoppiare i livelli di CO2 in atmosfera e verificare così le sue ipotesi ci sarebbero voluti circa 3000 anni, mentre ai ritmi delle attività umane oggi questo valore sale in modo vertiginoso e il tempo di raddoppio è di pochi anni. Le conseguenze, considerando l’aumento di temperatura corrispondente, riguardano l’ambiente e la sopravvivenza di interi ecosistemi, compresa la specie umana. Non resta che attendere alcune settimane, e vedere se qualcuno è salito a bordo sull’ultimo treno della Cop26.

L’influenza del cambiamento climatico sugli oceani: intervista a Rosalia Santolieri

Gli eventi meteorologici estremi a cui assistiamo quotidianamente ci dicono quanto sia importante studiare i modelli meteorologici per prevenire le catastrofi”. Queste le parole del Nobel Giorgio Parisi riguardo uno dei temi più importanti dell’ultimo decennio: la lotta al cambiamento climatico. In particolar modo Parisi fa riferimento al ruolo degli oceani e di quanto ancora poco sappiamo sul loro coinvolgimento nella questione. A tal proposito, Stoccolma a Roma ha intervistato Teresa Santoleri, direttrice dell’Istituto di Scienze Marine del Consiglio Nazionale delle Ricerche, per capire meglio che peso abbia il cambiamento climatico sugli oceani e come gli studi climatologici e oceanografici possano fornire degli utili strumenti per questa sfida.  

di Jacopo De Luca

In che modo il cambiamento climatico influenza gli oceani?

“L’oceano globale copre il 71% della superficie terrestre ed è responsabile della regolazione del clima terrestre e del sostentamento della vita. Tuttavia, l’oceano sta subendo cambiamenti rapidi, netti e gravi a causa di variazioni naturali, sfruttamento eccessivo e influenze antropiche. È praticamente certo che l’oceano globale si sia riscaldato senza sosta dal 1970 e si sia ripreso oltre il 90% del calore in eccesso nel sistema climatico. Dal 1993, il tasso di riscaldamento degli oceani è più che raddoppiato, e questo mutamento sta causando cambiamenti senza precedenti che stanno interessando l’oceano, le sue coste e la sua composizione. Il livello del mare sta aumentando e gli eventi estremi, come ad esempio le ondate di calore marine, sono molto più frequenti e stanno aumentando di intensitàAssorbendo più CO2, l’oceano ha subito una crescente acidificazione superficiale associata a una perdita di ossigeno dalla superficie a 1000 m di profondità. Negli ultimi decenni, il riscaldamento globale ha portato a un diffuso restringimento della criosfera, con perdita di massa di calotte glaciali e ghiacciai, e diminuzione in termini di estensione e spessore del ghiaccio marino artico”.

Come si fa a monitorare i cambiamenti climatici per gli oceani? 

“L’oceano è monitorato ogni giorno attraverso un sistema osservativo globale composto da una serie di sistemi di misura in situ (navi, boe fisse e sistemi autonomi che solcano l’oceano e i nostri mari) che trasmettono in tempo reale i dati ai centri di raccolta. C’è inoltre un complesso sistema osservativo di satelliti artificiali che monitorano ogni giorno l’oceano globale e acquisiscono dati relativi alle variabili oceaniche essenziali. Tutti questi dati sono poi utilizzati in dei modelli per ricostruire il campo tridimensionale dell’oceano in termini di variabili fisiche, chimiche e biologiche, per prevedere il suo comportamento futuro. L’Europa è molto impegnata in questa sfida internazionale e, attraverso il programma europeo Copernicus, contribuisce all’osservazione globale dell’oceano con le nuove missioni spaziali, i satelliti della serie Sentinel, i servizi marini e climatici”.

Quali sono le previsioni per il futuro?

“Nel corso del XXI secolo, si prevede che l’oceano passerà a condizioni senza precedenti, con

aumento delle temperature, maggiore stratificazione della colonna d’acqua degli strati superiori dell’oceano, ulteriore acidificazione e diminuzione dell’ossigeno. Il livello del mare continuerà a salire a un ritmo crescente e le ondate di calore marine estreme saranno più frequenti.  Si prevede che l’Atlantic Meridional Overturning Circulation (AMOC) – un’importante corrente dell’Oceano Atlantico caratterizzata da un flusso in direzione nord di acqua salina calda e da un flusso in direzione sud di acqua fredda – si indebolirà. I tassi e l’entità di questi cambiamenti saranno inferiori in scenari con basse emissioni di gas serra”.

Quali sono i rischi?

“I livelli estremi del mare e i rischi costieri saranno esacerbati dai previsti aumenti del livello del mare e dall’intensificarsi di cicloni tropicali. I cambiamenti previsti nelle onde e nelle maree variano localmente a seconda di quanto si riesce a far fronte a questi rischi. Inoltre, ci sono rischi legati all’impatto dei cambiamenti climatici e degli eventi estremi sull’ecosistema marino e sulla biodiversità”.

{ Immagine in Evidenza: Cop26 Day3, da Wikimedia Commons }