[as] intersezioni
Che tempo che fa.

di Claudio Cassardo
docente di fisica, meteorologo, climatologo

Negli ultimi settant’anni la capacità di prevedere le condizioni meteorologiche è migliorata notevolmente, grazie soprattutto all’evoluzione dei sistemi osservativi, all’aumento della loro qualità e quantità e alla sempre maggiore affidabilità della modellistica meteorologica. Tuttavia, anche se il progresso delle conoscenze continuerà a ridurre gli errori della previsione, ci sarà sempre un ineludibile margine di incertezza dovuto alla natura non-lineare dell’atmosfera e alle sue interazioni “caotiche” con il resto della biosfera e degli oceani. L’atmosfera è un sistema la cui evoluzione temporale dipende fortemente dalle condizioni iniziali, e queste ultime, nonostante la gran mole di dati osservativi ora disponibili, non possono essere note con esattezza ovunque. Come esempio, si pensi che ogni giorno confluiscono nei server dei centri meteorologici mondiali circa quarantamila dati osservativi relativi a stazioni meteorologiche poste a terra o sul mare, raccolti in media ogni ora o mezz'ora, e circa seicento profili verticali delle grandezze meteorologiche, condotti mediamente due volte al giorno. Un modello globale che funzioni alla risoluzione di un decimo di grado in latitudine e longitudine (grosso modo dieci chilometri, alle nostre latitudini) necessita di 180x360x100 = 6.480.000 (sei milioni e mezzo!) valori a terra e su tutti i suoi livelli verticali. Si capisce dunque bene come la scelta dei valori iniziali sia necessariamente approssimata. Questi inevitabili errori di inizializzazione, a causa della non linearità del comportamento dell’atmosfera, si amplificano in breve tempo fino a rendere imprevedibile la sua evoluzione (o, il che vuol dire la stessa cosa, inaffidabile la soluzione del modello).
 
b.
Esempio di spaghetti-plot (modello Gfs) del 20 aprile 2014 alle ore 06 Utc (tempo coordinato universale). Si noti come le curve tendono a sparpagliarsi giorno dopo giorno fino al 29 aprile, e anche come non in tutte le regioni le previsioni hanno lo stesso grado di attendibilità. È comunque chiaro che la significatività delle ultime tre mappe (e spesso anche delle tre centrali…) è assolutamente nulla e non consente alcun tipo di previsione oggettiva. In particolare, nei pressi della Groenlandia, già il giorno 22, ovvero due soli giorni dopo l’elaborazione del modello, si nota una significativa divergenza delle correnti, che genera posizioni e intensità dei minimi diverse tra le varie mappe.
 
Fu Edward Lorenz nel 1972 a dimostrare, con un semplice algoritmo numerico, tale proprietà del moto dei fluidi, in seguito battezzata “effetto farfalla”. Nei modelli numerici, le equazioni vengono integrate nel tempo iterativamente, fino al termine dell'elaborazione del modello, usando uno step temporale in modo che il valore “futuro” di una variabile venga poi usato come nuovo valore “presente”. Poiché i dati iniziali sono già affetti da un errore, e le funzioni di dati affetti da errore forniscono risultati affetti da errori generalmente crescenti, l’integrazione numerica di un’equazione fornisce un valore con un errore maggiore di quello di partenza. Se la crescita dell’errore fosse lineare, si potrebbe prevedere quando il risultato non è più rappresentativo. Ma poiché la crescita è non lineare, in determinate circostanze e situazioni meteorologiche, gli errori crescono molto rapidamente in breve tempo, rendendo inutile la conoscenza del valore previsto oltre un certo limite. L’impossibilità di stabilire, a priori, l’esattezza di una previsione affidandosi a un’unica previsione deterministica, ha portato nell’ultimo ventennio allo sviluppo di una tecnica, nota con il nome di “ensemble predictions” (“previsioni di insieme”), in cui si integrano simultaneamente più stati dell’atmosfera, caratterizzati da condizioni iniziali poco diverse tra loro. Lo scenario previsto è legato alla frequenza con cui la configurazione atmosferica ricorre nell’insieme di tutte le previsioni. Da diversi anni i meteorologi usano le previsioni di insieme. Il ruolo degli esperti nell’interpretare le previsioni e spiegare i rischi correlati è cruciale, anche nell’epoca dei modelli numerici: per realizzare un centro o addirittura un servizio meteorologico non basta semplicemente mettere assieme i risultati dei modelli utilizzati da altri, senza persone qualificate che interpretino i risultati (ahimè, alcuni centri di questo tipo esistono davvero). Si possono trovare online degli esempi di questa tecnica: ad esempio, collegandosi al portale tedesco wetterzentrale.de è possibile visualizzare le mappe di insieme del modello americano Gfs (disponibili gratuitamente) o anche del modello europeo Ifs del European Centre for Medium-Range Weather Forecasts di Reading (purtroppo non tutte fruibili gratuitamente, nonostante tutti i cittadini europei sovvenzionino tale centro). Tali mappe, che in gergo sono chiamate “spaghetti-plot” o anche “spaghi”, mostrano la distribuzione di alcune curve previste dai membri dell’ensemble del modello sul continente europeo nel susseguirsi dei giorni di previsione (vd. fig. b), oppure di alcuni parametri sulla verticale di determinate località. La consultazione di queste risorse permette anche a chi è digiuno di conoscenze meteorologiche di capire da quale giorno le curve sono così sparpagliate da rendere inaffidabile la previsione (normalmente tra 3 e 5 giorni), e quindi di capire come le tanto decantate e usate app meteo rappresentino solo una sorta di giochino che, senza una valutazione di un esperto, fornisce spesso informazioni inattendibili, soprattutto su tempi lunghi.
 
 

{jcomments on}

 ©asimmetrie   Istituto Nazionale di Fisica Nucleare / via E. Fermi 40 / 00044 Frascati [Roma] Italia
Ufficio Comunicazione INFN / P.zza dei Caprettari 70 / 00186 Roma Italia
Registrazione del Tribunale di Roma n. 336/2012 del 7 dicembre 2012
powered by Multimedia Service e INFN-LNF servizio di calcolo
Informativa sulla Privacy e Cookie Policy