• AgoraVox su Twitter
  • RSS
  • Agoravox Mobile

 Home page > Attualità > Scienza e Tecnologia > METEO | Le previsioni del tempo e i modelli meteo

METEO | Le previsioni del tempo e i modelli meteo

Come si è arrivati alle attuali previsioni del tempo?

di Vincenzo Senzatela 

Negli ultimi giorni le previsioni del tempo sono state purtroppo un argomento di grande attualità. Gli occhi di milioni di persone sono ancora puntati sulle previsoni di comportamento e rotta dell’uragano Irma che ha devastato i Caraibi prima di puntare sulla Florida e prima ancora lo sono stati sull’uragano Katia che ha inondato il Texas. Anche in Italia l’ondata di maltempo con l’alluvione lampo di Livorno ha portato al centro dell’attenzione le previsioni meteo e la loro affidabilità a causa delle polemiche sul livello di stato d’allerta diramato dalla protezione civile. Purtroppo la meteorologia può fornire previsioni più o meno affidabili, ma non può fornire una certezza assoluta sull’evoluzione del tempo. E’ così possibile prevedere con una settimane di anticipo la rotta a grandi linee di un uragano come Irma sbagliando però all’ultimo di alcune centinaia di chilometri il passaggio dell’occhio sulla Florida. Ed è possibile annunciare una forte perturbazione sull’Italia senza però avere la possibilità di prevedere eventi estremi come quello di Livorno o il temporale che ha inondato Roma. Malgrado questi limiti le previsioni del tempo sono un strumento estremamente utile ed efficace e la cui affidabilità è migliorata tantissimo nel corso degli anni ed è in continuo sviluppo.

Il tentativo di prevedere il tempo nasce dalla necessità di programmare attività quali caccia, lavoro nei campi e guerre. Se già nelle tavolette di argilla babilonesi sono stati rintracciati i primi tentativi di previsione del tempo, i primi studi sistematici dei fenomeni atmosferici arrivarono solo con i greci e in particolare con Aristotele a cui si deve la coniazione del termine “meteorologia”. A questa materia infatti dedicò un opera intitolata appunto “Meteorologica” ovvero “studio di ciò che sta sospeso in alto”. In generale, tuttavia, l’approccio antico alle previsioni del tempo era basato sull’astrologia e fu solo con Leonardo da Vinci che la validità di questa pratica fu messa in discussione. Con la fine del medioevo e l’inizio delle esplorazioni si ebbe per la prima volta un’idea dei venti e della circolazione atmosferica su scala globale, ma a questo si aggiunse anche l’invenzione di strumenti che consentirono la nascita della meteorologia strumentale. Il termometro per misurare la temperatura, il barometro per la pressione, l’anemometro per la velocità del vento, l’igrometro per l’umidità dell’aria consentirono infatti osservazioni quantitative e sistematiche dell’atmosfera: attraverso lo sviluppo di una rete sempre più grande di osservatori meteo si potè così cominciare una raccolta dati su cui lavorare in maniera scientifica. A partire dal ‘600 furono così comprese non solo le caratteristiche fisiche dell’atmosfera, ma anche il meccanismo che regola la circolazione atmosferica a livello globale e grazie all’inglese George Hadley il ruolo fondamentale che riveste in questo il riscaldamento solare. Le conoscenze e gli strumenti a disposizione tuttavia erano ancora ben lontani dal consentire previsioni affidabili anche solo per il giorno successivo.

All’800 invece risale, con gli studi di Coriolis, la comprensione dell’influenza della rotazione terrestre sulla circolazione atmosferica con la scoperta della forza di Coriolis che porta le masse d’aria a ruotare attorno alle alte e basse pressioni invorticandosi e formando i cicloni. Questa forza inoltre, come fu compreso in quegli anni, spezza lo scambio diretto di masse d’aria tra poli ed equatore dando origine alle correnti occidentali delle medie latitudini. Un altro importante contributo venne poi dalla diffusione del telegrafo. Questo, consentendo una comunicazione in tempo reale, permise infatti di scoprire il carattere migratorio dei fenomeni meteorologici: il matematico francese Urbain Le Verrier si rese conto che una tempesta che aveva affondato delle navi francesi nel Mar Nero durante la guerra di Crimea aveva attraversato altre regioni europee due giorni prima. Le basi per i primi tentativi di previsione del tempo a qualche giorno di distanza ormai erano pronte e lo sviluppo della meteorologia proseguì anche attraverso lo sviluppo delle tecniche di raccolta dati nell’alta atmosfera attraverso i palloni sonda.

La rivoluzione della meteorologia che permise previsioni su basi affidabili semi empiriche arrivò infine nel 1917 grazie a un gruppo di meteorologi norvegesi che diede vita alla scuola di Bergen. Fu grazie a loro che fu sviluppato un modello che spiegava la formazione, lo sviluppo e la dissoluzione dei cicloni extratropicali attraverso la suddivisione tra i vari tipi di masse d’aria e l’introduzione del concetto di fronte meteorologico. Questo modello rese possibile effettuare semplici previsioni tramite la costruzione di mappe meteorologiche che riportavano isobare, le line che indicano le zone a uguale pressione, e le isoterme, le linee a uguale temperature. Grazie a queste infatti è possibile individuare e prevedere a grandi linee la posizione e lo spostamento di figure meteorologiche come cicloni e anticicloni e dei fronti ad essi connessi. Dai meteorologi del gruppo norvegese arrivarono anche successivi importanti sviluppi sulla comprensione dei meccanismi atmosferici come il funzionamento della corrente a getto e lo sviluppo delle onde di pressione planetarie dette onde di Rossby, dal nome dello scopritore Carl-Gustaf Rossby, o il meccanismo di formazione della pioggia. Negli anni 40 fu infine chiarito il meccanismo dell’instabilità baroclina, ancora ignorato dalla scuola di Bergen, che spiega compiutamente i meccanismi alla base della formazione dei cicloni attraverso le interazioni tra alta e bassa troposfera (lo strato più basso dell’atmosfera, compreso tra 0 e 10-12.000 metri di altezza, dove avvengono i fenomeni meteorologici ). La comprensione dell’importanza delle condizioni ad alta quota spinse lo sviluppo dell’osservazione degli strati superiori dell’atmosfera tramite l’utilizzo delle radiosonde e degli arei meteorologici ai quali dagli anni ’60 in poi si aggiunsero infine i satelliti meteo.

Tuttavia, anche se a livello generale era stata ottenuta un’ottima comprensione dei meccanismi che caratterizzano il tempo atmosferico, le previsioni conservavano ancora un’impronta artigianale ed empirica e si basavano molto sull’esperienza dei meteorologi. Per avere delle previsioni migliori ci sarebbe voluta la possibilità di calcolare il comportamento delle masse d’aria sulla base delle leggi della fisica. In effetti, a livello fisico, il comportamento dei gas era ormai ben compreso da molti anni e dal punto di vista matematico si avevano già a disposizione le cinque equazioni di Navier-Stokes che descrivono la fluidodinamica. Queste, integrate dall’equazione di stato dei gas, sono in grado di descrivere il comportamento generale di una massa d’aria e persino dell’intera atmosfera e avrebbero consentito di fare delle previsioni del tempo. Purtroppo queste equazioni sono molto complesse e trovare delle soluzioni è quasi impossibile se non in casi molto semplici. A questo proposito già nel 1922 Lewis Fry Richardson pubblicò un articolo intitolato “Previsioni del tempo per processi numerici” che descriveva come semplificare le equazioni per trovare le soluzioni. Questa nuova tecnica però non era sufficiente e il numero dei calcoli rimaneva ancora proibitivo. Fu perciò solo con l’avvento dei supercomputer che divenne possibile gestire l’enorme numero di operazioni. I primi a riuscire a produrre una previsione sulla base delle equazioni fisiche furono i matematici John Von Neumann e Jule Gregory Charney negli anni ’50. Lo strumento che rese possibile questo risultato fu l’ENIAC, il primo grande calcolatore al mondo ideato dallo stesso Von Neumann.

La risoluzione delle equazioni della fluidodinamica anche tramite un computer è però un operazione tutt’altro che banale. Per risolvere le equazioni infatti occorre immettere le cosiddette condizioni iniziali, ovvero conoscere punto per punto lo stato iniziale del fluido, cosa di fatto impossibile già in una stanza, figurarsi nell’atmosfera terrestre. Alle condizioni iniziali vanno poi aggiunte le condizioni al contorno ovvero tutto ciò che delimita lo spazio del problema, che nel caso della meteorologia sono la superficie della terra e l’alta atmosfera che oltre una certa altezza non ha più influenze sulla troposfera. Nel caso della superficie terrestre impostare le condizioni al contorno implicherebbe inserire punto per punto non solo la superficie degli oceani, ma anche di colline e montagne. Per calcolare l’evoluzione del fluido infine occorrerebbe risolvere le equazioni in ogni punto dello spazio, cosa che richiede un numero infinito di operazioni.

Queste difficoltà nascono dal fatto che siamo di fronte a un problema di tipo continuo dove punto per punto esiste un elemento infinitesimo di fluido che evolve in istanti infinitesimi di tempo. Per ovviare a ciò occorre semplificare il problema attraverso un processo detto “discretizzazione” che permette di passare dal continuo al discreto: invece di considerare un fluido in ogni punto dello spazio, lo si considera solo in un insieme finito di punti definiti da una griglia e si assume che le condizioni di questi punti descrivano anche le condizioni del fluido attorno ad essi. La stessa operazione viene fatta anche con le condizioni al contorno con le superfici che vengono semplificate e spezzettate in poligoni regolari e anche con il tempo che viene diviso in istanti divisi da intervalli regolari. A questo punto a partire dalle condizioni iniziali, è possibile calcolare con un numero finito di operazioni l’evoluzione del fluido dall’istante iniziale a quelli successivi in tutti i punti della griglia riuscendo a prevedere così l’evoluzione del sistema. La discretizzazione, tuttavia, costituisce un’approssimazione del problema e introduce degli errori, tanto più grandi quanto più larghe sono le maglie della griglia spaziotemporale, errori che alla fine possono inficiare seriamente la validità della soluzione trovata. Per ridurre gli errori occorerebbe stringere le maglie il più possibile, ma così facendo aumentano enormemente i calcoli da fare e il tempo necessario per risolverli perciò alla fine occorre raggiungere un compromesso.

Tramite un calcolatore è possibile ricostruire un modello che rappresenti il funzionamento dell’atmosfera tenendo anche conto, attraverso le condizioni al contorno, della forma della superficie terrestre. Negli anni ’50 divenne così possibile ottenere la simulazione dell’evoluzione dell’atmosfera dell’intero pianeta, nei giorni successivi, immettendo come condizioni iniziali i dati raccolti dalle stazioni meteo. In questo processo si aggiungono ulteriori errori a quelli legati alla discretizzazione. Per immettere le condizioni iniziali bisogna assegnare i valori dei vari parametri atmosferici come temperatura, pressione, umidità a ogni punto della griglia di simulazione. La rete mondiale di osservatori meteorologici non può coprire ogni punto della griglia ed è distribuita in maniera poco uniforme: deserti e oceani, ad esempio, hanno pochissimi punti di rilevamento a fronte di zone come l’Europa che invece ne hanno moltissimi. I dati vanno così completati facendo delle approssimazioni: se un punto della griglia cade in mezzo a una zona senza stazioni meteo, si ricaveranno i valori dei parametri atmosferici combinando opportunamente i dati delle stazioni più vicine. Naturalmente lo sviluppo delle reti satellitari meteorologiche che consentono una copertura globale del pianeta ha consentito di ridurre questo problema. Una ulteriore difficoltà, poi, nasce dalla modellizzazione della superficie terrestre. Ricostruire catene di montagne anche segmentandole in poligoni regolari non è semplice e aumenta ulteriormente il costo computazionale. Così ancora negli anni ‘90, ad esempio, le Alpi erano rappresentate da una catena uniforme alta un migliaio di metri e ancora più bassi erano considerati gli Appennini con ovvie conseguenze sull’affidabilità delle previsioni.

Purtroppo l’atmosfera è un sistema caotico e lo stato di ogni punto dopo un certo tempo ha conseguenze sullo stato degli altri, concetto riassunto dal famoso detto: se una farfalla sbatte le ali a Tokio a New York si scatena la tempesta. Il combinarsi quindi di tutta questa serie di errori spiega perché ancora oggi dopo soli 3 giorni l’attendibilità di una previsione sia dell’80% e dopo sette giorni si riduca addirittura al 50%. Una delle tecniche sviluppate per ovviare alle incertezze sui dati iniziali è lanciare una serie di simulazioni introducendo in questi delle piccole variazioni casuali. Osservando le differenze nelle previsioni ottenute è possibile capire quanto siano affidabili: se in tutte le simulazioni arriva un’ondata di gelo russo allora è molto probabile che ciò avvenga davvero, se invece arriva solo in alcune, ma in altre arriva un anticiclone, allora la previsione non è molto affidabile. Malgrado ciò prevedere esattamente dove si formeranno singole celle temporalesche, quanto saranno intense e dove andranno a colpire è tutt’oggi impossibile in quanto sono fenomeni localizzati. La loro scala di grandezza è dell’ordine al massimo di qualche decina di chilometri, una scala di grandezza che non può essere descritta accuratamente nei calcoli in quanto paragonabile alla grandezza della griglia di simulazione. In pratica le maglie della griglia sono troppo larghe per impigliare fenomeni troppo locali. Eventi come come il temporale autorigenerante che ha causato l’alluvione a Livorno non sono quindi prevedibili con certezza, quello che si può fare è solo indicare una probabilità che si verifichino fenomeni di forte intensità in una data area.

Dal primo successo di Von Neumann con l’ENIAC, iniziò la moderna meteorologia computazionale la cui evoluzione si è basata su un affinamento dei modelli di simulazione atmosferica, in modo che implementassero sempre meglio i complessi fenomeni fisici che caratterizzano la meteorologia. L’aumento della potenza di calcolo ha poi permesso la costruzione di griglie sempre più fini, mentre il miglioramento della raccolta dati, assieme allo sviluppo di una rete meteorologica mondiale e di una rete satellitare ha permesso di ottenere dati iniziali sempre più completi e meno affetti da errori. Grazie a ciò l’affidabilità delle previsioni è cresciuta notevolmente e continuerà ancora a crescere in futuro.

Attualmente ci sono numerosi modelli meteorologici prodotti da centri di ricerca di tutto il mondo tra cui è in corso una sfida per la realizzazioni delle previsioni migliori. I più importanti sono il modello europeo dell’ECMWF (European Center for Medium-Range Weather Forecast, ovvero Centro Europeo per le Previsioni a Medio Termine), prodotto a Reading in Inghilterra (ma in futuro il suo sviluppo verrà spostato a Bologna), e il modello americano GFS, prodotto dal National Weather Service. Entrambi hanno avuto degli aggiornamenti nel 2015 che li hanno resi più affidabili, ma il modello europeo è rimasto il migliore. Lo sviluppo nel futuro vedrà una sempre maggiore potenza di calcolo e una sempre maggiore riduzione delle dimensioni spaziali della griglia al fine di avere previsioni accurate e ad alta risoluzione.

Lo scorso anno si è tenuta a Trieste una conferenza internazionale organizzata dall’ECMWF sul futuro delle previsioni meteo che ha visto la partecipazione di oltre seicento scienziati da tutto il mondo. Nell’evento sono state presentate e discusse le prospettive della meteorologia per riuscire ad avere previsioni più affidabili e poter anticipare eventi atmosferici come ondate di caldo e tempeste con oltre 10 giorni di anticipo. A questo scopo è stato dichiarato l’obiettivo di voler passare nel 2025 dall’attuale risoluzione di 18 km dei modelli di previsioni a una di soli 4 km. Grazie a una griglia di calcolo così piccola non solo si potrebbero avere delle previsioni a lungo termine più affidabili, ma ci sarebbe finalmente la possibilità di riuscire a individuare molto meglio la formazione delle celle temporalesche e dare migliori allerte per l’arrivo di fenomeni estremi. La sfida è lanciata.

Questo articolo è stato pubblicato qui

Lasciare un commento




    Sostieni AgoraVox

    (Per creare dei paragrafi indipendenti, lasciare fra loro delle righe vuote.)

    Attenzione: questo forum è uno spazio di dibattito civile che ha per obiettivo la crescita dell'articolo. Non esitate a segnalare gli abusi cliccando sul link in fondo ai commenti per segnalare qualsiai contenuto diffamatorio, ingiurioso, promozionale, razzista... Affinché sia soppresso nel minor tempo possibile.

    Sappiate anche che alcune informazioni sulla vostra connessione (come quelle sul vostro IP) saranno memorizzate e in parte pubblicate.

    I 5 commenti che ricevono più voti appariranno direttamente sotto l'articolo nello spazio I commenti migliori

    Un codice colorato permette di riconoscere:

    • I reporter che hanno già pubblicato un articolo
    • L'autore dell'aritcolo

    Se notate un bug non esitate a contattarci.



    Pubblicità




    Pubblicità



    Palmares

    Pubblicità