STORIA DELLE PREVISIONI DEL TEMPO
(M.Conte - Riv.
Met. Aer. A57 N3-4)
Introduzione
Le previsioni del tempo meteorologico
possono dividersi in 4 rami fondamentali, i quali hanno una fisionomia
consolidata dalla pratica operativa dei vari Servizi nazionali ed
internazionali anche se non possiedono ancora una definizione
riconosciuta ufficialmente dall’Organizzazione Meteorologica Mondiale
(OMM/WMO).
Questi
4 rami sono:
.previsioni
a brevissima scadenza (fino a 12-18 ore), più note con il termine
inglese di nowcasting;
.previsioni
a breve scadenza (oltre le 12- 18 ore e fino a 48 ore);
.previsioni
a media scadenza ( da 48 ore fino a circa 10 giorni);
.previsioni
a lunga scadenza (oltre i 10 giorni e fino ad un mese od una stagione).
Si
affaccia peraltro all'orizzonte dei vari Servizi anche la opportunità
di previsioni climatiche, di previsioni, cioè, riguardanti la probabile
evoluzione del clima in periodi futuri dell'ordine di uno o più anni. Come
si sarà notato la classificazione precedente è fatta in base ad un
ordine crescente di scadenza. L'evoluzione
storica è però diversa in quanto le previsioni meteorologiche hanno
tratto le loro origini da quelle che oggi si definiscono a breve scadenza;
è perciò da queste che inizieremo questa trattazione, prima con alcuni
cenni storici, poi con l'evoluzione delle varie Scuole che si sono via via
affermate.
L'intuizione di R. Fitz-Roy
Il primo scienziato ad intuire in qualche modo i
meccanismi di formazione di alcuni sistemi meteorologici, oggi ormai
familiari a tutti coloro che seguono anche solo distrattamente i
mass-media, fu R. Fitz-Roy il quale neI suo "Weather
book", edito a Londra nel 1863, scrive testualmente:
"I vortici ciclonici alle nostre latitudini si formano nelle zone
di interazione fra masse d'aria aventi differenti proprietà, le quali
masse si originano rispettivamente nelle zone polari ed in quelle
sub-tropicali". Questa idea, di fondamentale importanza, ebbe
tuttavia poco seguito poichè i commerci coloniali allora imperanti
imponevano una maggiore attenzione verso i fenomeni delle basse
latitudini (che oggi sappiamo collegati a sistemi assai diversi da
quelli delle medie ed alte latitudini); pertanto gli sforzi maggiori venivano
prodigati nei tentativi, peraltro infruttuosi, di adattare alle regioni
temperate le conoscenze acquisite per quelle tropicali. Questo stato di
cose perdurò praticamente fino alla Prima Guerra Mondiale, nonostante
illuminanti quanto frammentarie scoperte quali la formulazione di una
"teoria dinamica" riguardante lo sviluppo di cicloni ed
anticicloni (Hann, 1876) in contrasto con quella "convettiva"
di chiara origine tropicale, l'azione esercitata sulle correnti d'aria
dalla forza di Coriolis (FerreI e Teisseranc De Bort, 1889), l'andamento
della diminuzione della temperatura con la quota e la possibile
esistenza della Stratosfera (Assman e Teisseranc De Bort, 1900- 1902),
ed altre.
Fu però la Prima Guerra Mondiale che portò alla nascita
della prima vera Scuola di Meteorologia moderna, al seguito di una
moltiplicazione rapida del numero delle stazioni meteo, di un incremento
nella regolarità e nella qualità delle osservazioni nonchè di un
veloce sviluppo delle telecomunicazioni.
La Scuola Norvegese
I meteorologi di questa Scuola (detta
"Norvegese" dato che la sua sede principale era
situata a Bergen), impostarono gran parte della Meteorologia che
dominò la scena delle previsioni del tempo in tutto
l'intervallo fra le due
Guerre Mondiali e che ha ancora oggi parecchi elementi di
validità.Prima di tutto gli scienziati scandinavi, ed in
particolare V Bjerknes, J. Bjerknes e S. Solberg, capirono che
non sarebbe stato possibile analizzare il tempo in atto, e tanto
meno prevederne l'evoluzione, utilizzando osservazioni e dati di
singole località senza disporre di un quadro d'insieme su aree
vaste. Si incrementò così il metodo di porre su carte
geografiche dati rilevati alla stessa ora e di tracciare
isolinee che in qualche modo associassero le osservazioni di
stazioni distanti fra loro. Si crearono cioè, dei quadri
"sinottici", più completi e precisi di quanto non
fosse stato fatto fino ad
allora, quadri che costituirono
l'ossatura di quella meteorologia, che sia pure attraverso
profonde modifiche, è ancora oggi un fondamento delle
previsioni del tempo: la Meteorologia Sinottica. Quest'ultima
è il ramo della Fisica dell'Atmosfera in cui, sulla base di
osservazioni organiche disposte su carte geografiche in modo da
offrire una
visione sintetica, vengono sviluppati modelli
(concettuali e fisico-matematici) atti ad individuare la
struttura atmosferica tridimensionale e a prevederne
l'evoluzione futura. V Bjerknes affermò che "se l'analisi
sinottica avesse potuto fornire una descrizione completa dello
stato iniziale dell'atmosfera sarebbe allora stato possibile
fare una prognosi degli stati futuri usando le leggi
fondamentali della idrodinamica e della termodinamica". |
|
La Scuola Norvegese non disponeva
però di dati sufficienti per una descrizione iniziale completa
(soprattutto, erano carenti quelli in quota), nè ancora degli strumenti
di matematica applicata adatti ad un tale problema,nè, tanto meno, di
mezzi di calcolo veloci ed affidabili. Accadde così che il modello
usato da quella Scuola fu di tipo concettuale e soggettivo,
sostanzialmente basato sull'esperienza personale e sull'estrapolazione
dei sistemi e dei fenomeni ad essi associati. Il modello venne chiamato
anche modello del fronte polare poichè fu principalmente applicato ai
fronti di avanzata di aria di origine polare. E se da un lato un tale
modo di procedere rese possibile cogliere alcuni significativi successi
prognostici per le Nazioni affacciate sull’Atlantico, dall’altro si
rivelò spesso fallace in regioni più tormentate, come il Mediterraneo,
dove la complessa orografia, interagendo in maniera molto marcata con i
sistemi meteorologici, ne modifica sostanzialmente la struttura e il
movimento.
L'esperimento di L.F Richardson
Nel 1922, e quindi in periodo di pieno
sviluppo della Scuola Norvegese, fu però anche tentata una previsione
dinamica, una previsione basata, cioè, sulla elaborazione di un modello
fisico-matematico. Tale modello era costituito da un'applicazione
all'atmosfera della teoria fluidodinamica e cioè delle tre equazioni
scalari del moto, dell'equazione di continuità (la quale stabilisce che
ogni variazione di massa in una data regione deve essere bilanciata dal
passaggio di materia attraverso i confini della regione stessa),
dell'equazione di conservazione dell'acqua nelle sue varie fasi (anche
tenendo conto delle sorgenti positive o negative), del primo principio
della termodinamica e della classica equazione di stato dei gas
opportunamente adattata all'atmosfera. Ora, la forma di queste equazioni
è tale che la derivata temporale di ciascuna variabile può essere
espressa mediante le derivate nello spazio delle variabili stesse. Poichè
è possibile misurare la distribuzione spaziale delle grandezze
meteorologiche ad ogni istante, è di conseguenza possibile determinare
anche la loro rapidità di variazione. Ciò costituisce evidentemente
una previsione di uno stato su un intervallo molto piccolo di tempo;
considerando questo stato previsto come un nuovo stato iniziale e
iterando il procedimento si può, alla fine, ottenere una previsione su
di un intervallo di tempo finito. Inoltre, sostituendo tutte le derivate
nel sistema di equazioni dato con i rispettivi rapporti incrementali,
alle differenze finite, è possibile ridurre un sistema di equazioni
differenziali, che non può essere risolto direttamente, ad un sistema
di equazioni algebriche, la cui soluzione può invece essere sempre
ottenuta. Tenendo conto di tutti questi elementi L.F. Richardson effettuò
una previsione di 24 ore sulla regione europea svolgendo tutti i calcoli
a mano ed impiegando circa un anno. Purtroppo i risultati
dell'esperimento furono disastrosi. Fra l'altro furono previste
variazioni di pressione da lO a 100 volte superiori a quelle
effettivamente osservate, perturbazioni che si muovevano a velocità
eccessiva, talora sonica, e in direzioni sbagliate e altri errori
minori. Di conseguenza l' indirizzo di Richardson venne completamente
abbandonato per più di 20 anni senza nemmeno cercare di stabilire le
cause dell' insuccesso.
La teoria dello sviluppo baroclino di
R.Sutcliffe
Fino alla fine degli anni '30 continuò
così a dominare la Meteorologia della Scuola Norvegese che ricevette un
notevole perfezionamento essenzialmente ad opera dell'inglese
R.Sutcliffe, il quale mise a punto la cosiddetta teoria dello sviluppo
baroclino. Questa teoria riesce a collegare l'evoluzione dei campi
dinamici e termici in quota a quelli al suolo dimostrando che questi
ultimi dipendono fortemente dai primi. Approfittando del miglioramento,
peraltro modesto, della rete di osservazione dei parametri meteo in
quota, Sutcliffe mise in evidenza che la formazione di un vortice
ciconico negli strati bassi dipende essenzialmente da un' instabilità
su grande scala che si verifica in determinate e ricorrenti condizioni
nelle configurazioni dei sistemi in quota. Tale instabilità è
collegata principalmente ai gradienti termici (ed è per questo
denominata instabilità baroclina) e produce nel ramo orientale della
saccatura di un'onda in quota, un'ampia zona di divergenza di massa; al
di sotto di tale zona, per compensazione, vi è dunque una regione di
moti verticali ascendenti ed un' altra di convergenza negli strati
prossimi al suolo. In questi ultimi strati, per effetto della forza di
Coriolis, l'aria penetra nella zona di convergenza con movimento
antiorario a spirale creando così un vortice ciclonico; inoltre lo
stesso processo produce un'ondulazione sul fronte di avanzata dell' aria
fredda, cioè sul fronte freddo, determinando, in una prima fase, la
formazione del sistema frontale costituito da fronte freddo e fronte
caldo e successivamente lo sviluppo del sistema
maturo fronte freddo-fronte caldo-fronte occluso. In aggiunta a questo
Sutcliffe mise chiaramente in evidenza che i sistemi in quota hanno una
funzione di guida per quelli prossimi al suolo. Le conclusioni di questa
teoria fornirono un poderoso strumento di miglioramento prognostico;
infatti nella meteorologia della Scuola Norvegese, basata quasi
esclusivamente sui dati di osservazione prossimi al suolo, l'innesco
dell'ondulazione del fronte freddo, primo passo per la formazione di un
sistema frontale, come pure il parallelo inizio dello sviluppo di un
vortice ciclonico, si consideravano dovuti ad un impulso grilletto, cioè
ad un'instabilità a scala locale di carattere più o meno casuale e
pertanto difficilmente prevedibile. L'instabilità baroclina, invece,
per l'ampia scala su cui si manifesta e per la maggiore regolarità
dell'evoluzione dei sistemi in quota rispetto a quelli al suolo, è
molto più facilmente prevedibile.
La Scuola di Chicago
Doveva essere un'altra guerra, la Seconda Guerra
Mondiale, a dare un nuovo potente impulso alla meteorologia in genere ed
alle previsioni operative in particolare. Il massiccio impiego
dell'aviazione e le dimensioni più che emisferiche del teatro delle
operazioni belliche portarono allo sviluppo di una rete di stazioni a
maglie molto più strette di quella prima esistente e soprattutto a un
fortissimo e decisivo aumento del numero dei radiosondaggi, cioè delle
osservazioni in quota. E se proverbiale rimane l'abilità dei previsori
inglesi nello sfruttare ai fini bellici l'evoluzione dei sistemi di
tempo, si può dire che, nel campo della Meteorologia e più in generale
della Fisica dell'Atmosfera, la Seconda Guerra Mondiale lasciò
un'eredità positiva. In particolare, forte del grande miglioramento
della rete di osservazioni, un gruppo di meteorologi scandinavi, fra i
quali primeggiano S. Petterssen ed E. Palmen, operante presso
l'Università di Chicago, sottopose a revisione tutto il campo delle
conoscenze acquisite fino ad allora. Fu così largamente confermata, e
successivamente ampliata e perfezionata, la teoria dello sviluppo
baroclino che divenne nel periodo fra la fine della guerra e gli anni 70
il più importante e preciso strumento a disposizione dei previsori
sinottici del tempo a breve scadenza. Molti elementi della teoria della
Scuola Norvegese furono rivisti, corretti ed amplificati. In particolare
si riconobbe che i concetti di linea frontale e di superficie frontale
dovevano essere sostituiti da quelli di banda frontale, nel senso che i
fronti non hanno, come essenzialmente ritenuto fino ad allora, una sola
dimensione, cioè quella longitudinale, bensì due dimensioni: una
longitudinale e una trasversale. In tali dimensioni i fenomeni si
sviluppano e sono distribuiti su due scale di moto diverse; la scala
sinottica (dell'ordine del migliaio di chilometri) per la dimensione
maggiore e la mesoscala dell'ordine del centinaio di chilometri) per la
minore. Ed a proposito di scale di moto, l'individuazione di numerosi
sistemi di tempo non etichettabili nell'ambito della Scuola Norvegese
portò anche alla messa a punto di un nuovo importante strumento
diagnostico e prognostico:l'analisi di scala. Infatti un quadro
sinottico di una situazione meteorologica coinvolge sistemi aventi
dimensioni spazio-temporali diverse, o meglio, come si usa dire, scale
diverse: da quella locale a quella delle onde planetarie. Scale che
lavorano in intervalli temporali diversi, su estensioni territoriali
diverse, con contenuti
energetici diversi, ma tutte presenti contemporaneamente
in un'intrigata sequenza di interazioni. Ebbene, cercare di individuare
e di separare, almeno a fini euristici, le varie scale significa
cominciare a capire quali sistemi avranno più importanza nell'ambito
della scadenza in cui ha validità una determinata previsione. Il gruppo di Chicago catalogò poi in
maniera esemplare le correnti a getto, quelle correnti velocissime (fino
a oltre 500 chilometri orari) che si sviluppano in determinate zone
della troposfera e della stratosfera. Di queste correnti fu riconosciuta
la dinamica di formazione e di evoluzione, la loro posizione rispetto
agli altri sistemi e la loro estrema importanza nell'evoluzione dinamica
delle situazioni meteorologiche. Insomma, il quadro delle conquiste e
dei miglioramenti apportati dal gruppo di quella Università è così
vasto ed importante che si può parlare (anche se non vi è alcun
riconoscimento ufficiale) di Scuola di Chicago. Fra l'altro sul testo di
S. Petterssen
"Weather Analysis and Forecasting" e su quello di E. Palmen e
C. Newton "Atmospheric Circulation Systems", si sono formati,
almeno nella fase iniziale della loro carriera, migliaia di meteorologi
in tutto il mondo. Su linee simili si mosse in Europa il gruppo di
Berlino guidato da R. Scherhag.
Il moderno approccio dinamico per le
previsioni del tempo
Nella seconda metà degli anni '40,
inoltre, diversi fattori resero possibile un riacostamento all'indirizzo
della soluzione numerica di modelli dinamici dell'atmosfera,
all'indirizzo, cioè, che più di 20 anni prima aveva portato al fallito
esperimento di Richardson. In primo luogo il grande sviluppo dei Servizi
Meteorologici
conseguente la Seconda Guerra Mondiale, e quindi il parallelo sviluppo
di una rete internazionale di osservazioni con relativa ampia
disponibilità di dati, fece capire che le equazioni di un modello
dinamico potevano essere semplificate e opportunamente trattate con
piccola perdita del loro contenuto fisico, almeno per moti di grande
scala. In secondo, ma non meno
importante luogo, la disponibilità, dei primi elaboratori elettronici
permise di ridurre drasticamente i tempi di calcolo rendendoli vicini a
quelli necessari per la realtà operativa. In terzo luogo, dai tempi di
Richardson la matematica applicata aveva fatto notevoli passi in avanti,
soprattutto a partire dal 1928 e soprattutto ad opera di Courant, Lewy e
Friedericks. Fu per questi vari fattori che si cominciarono a capire le
ragioni dell'insuccesso di Richardson, corrette le quali si aprì la
strada al moderno approccio dinamico per le previsioni del tempo. Ma si
badi bene, quello che in questo ambito producono
gli elaboratori elettronici sono campi dinamici previsti e non
previsioni di parametri meteorologici come la pioggia, l'umidità ecc.
ecc.. Fino
agli inizi degli anni 80 la previsione finita, quella cioè dei
parametri meteo suddetti, veniva ancora esclusivamente affidata ai
previsori sinottici che, soggettivamente, interpretavano i campi
previsti dagli elaboratori.
I motivi dell'insuccesso di Richardson
Vari gruppi di fisici dell'atmosfera, ed
in particolare quello guidato da J. Charney misero dunque in evidenza
che Richardson fallì per i seguenti motivi:
.
una buona previsione dinamica si basa su una buona analisi iniziale
dello stato dell'atmosfera, la quale buona analisi si basa su una grande
massa di dati di osservazione di cui Richardson non poteva disporre;
.
l' atmosfera, vista a grande scala, è sempre vicina a uno stato di
equilibrio dinamico, l'equilibrio geostrofico; è questa una condizione
in cui approssimativamente si bilanciano la forza di gradiente (dovuta
alla differenza di pressione) e quella deviante, o di Coriolis, (dovuta
alla rotazione terrestre). Ma anche questo si scoprì quando si ebbe
un'ampia disponibilità di dati, soprattutto di quelli in quota;
.
in un procedimento di integrazione iterativa, quale quello ideato da
Richardson, l'incremento di tempo (dt) sul quale si fa ogni passo di
previsione deve
essere più piccolo del tempo che occorre ad una determinata onda, di
velocità di fase c, per compiere la distanza (dx) fra due punti della
griglia utilizzata nelle operazioni alle differenze finite; si deve cioè
avere dt<dx/c. Senza applicare questa condizione (scoperta anni dopo
l'esperienza di Richardson) non si eliminano dai procedimenti le onde
veloci (ad esempio quelle sonore di nessun interesse) che portano a una
forte instabilità di calcolo ed a soluzioni finali fortemente errate.
Successivi
perfezionamenti delle tecniche matematiche e l'aumento della potenza e
della velocità degli elaboratori elettronici portarono, negli anni '60
e ‘70, a forti miglioramenti nella previsione a breve scadenza dei
campi dinamici e di conseguenza pure dei parametri meteorologici come
pioggia, umidità, temperatura, ecc., anche se le previsioni dei
suddetti parametri rimasero sempre soggettive e prevalentemente
qualitative. Si deve però tenere presente che sebbene i modelli numerici
costituiscano una strada più praticabile e conducente a soluzioni più
precise di quelle collegate ai precedenti e più tradizionali modelli
concettuali, le equazioni relative furono adattate e calibrate in modo
da interpretare la maggiore quantità possibile degli elementi di Fisica
dell' Atmosfera acquisiti dalle Scuole Norvegese e di Chicago. Inoltre,
e ancora di più, alle conoscenze raggiunte dalle due Scuole si
rivolsero ampiamente i meteorologi previsori nel tradurre i campi
previsti dagli elaboratori in termini di previsioni del tempo
utilizzabili dai vari utenti.
I primi tentativi di previsioni numeriche
a media e lunga scadenza
Intanto, a cominciare dalla fine degli
anni '50, la vita moderna, sempre più impostata su attività
pianificate e organizzate a medio e lungo termine, aveva fatto insorgere
una pressante richiesta di previsioni a lunga scadenza, di previsioni
cioè di ampiezza mensile, stagionale e in genere superiore a 7-10
giorni. Fin dall'inizio fu chiaro che tali previsioni non potevano
essere basate sui metodi dinamico-numerici usati per quelle a breve
scadenza; infatti, a quei tempi, le previsioni condotte con
l'integrazione numerica delle equazioni fondamentali cominciavano a
divenire inattendibili al di là dei 2 giorni di scadenza. Ci fu,
dunque, in varie parti del mondo, un fiorire di tecniche e metodi
empirico-statistici con i quali furono fatti i primi tentativi di
previsioni, appunto, a scadenza prolungata. Fra questi possono essere
menzionati i metodi basati sulla periodicità o la ricorrenza di
determinati eventi atmosferici (metodi incoraggiati dalla scoperta di
una periodicità quasi-biennale in alcuni fenomeni inerenti la
circolazione a grande scala), quelli fondati sui possibili andamenti di
alcuni parametri meteorologici e sulle loro fluttuazioni intorno a tali
trend, altri ancora facenti capo alla Climatologia ed alle sue
singolarità salienti, altri, infine a carattere più empirico basati
sull'andamento dei decorsi stagionali e sull'esperienza personale. Fra i
vari metodi vale la pena di soffermarci un pò su quello, usatissimo,
delle analogie.
Il metodo delle analogie
L'esperienza quotidiana dei meteorologi
previsori dimostra infatti che i tipi di circolazione a scala sinottica
o superiore che si possono presentare su di una data regione, come per
esempio quella euroatlantica, in realtà non sono poi moltissimi;
inoltre un determinato tipo tende, con una certa frequenza, a
trasformarsi in un altro e altrettanto ben determinato tipo. Ed anche se
la catena di trasformazioni non è sempre la stessa e tende nel tempo a
spezzarsi poiche l'atmosfera è un sistema essenzialmente turbolento e
quindi basato più sulla variabilità che sulla persistenza, si verifica
talora che una certa configurazione delle correnti conduca con maggiore
frequenza ad altre configurazioni da individuare e prevedere in analogia
con quanto accaduto nel passato, anche in un passato remoto. Per
esemplificare, se un sistema di alta pressione in quota, formatosi nella
seconda metà di ottobre sulla regione mediterranea, in 7 casi su lO nel
passato si è trasformato in correnti da sud-ovest nella prima
quindicina di novembre, è ragionevole pensare che esista un'alta
probabilità che l'evento si possa ripetere in futuro anche se non
esiste nessun fondamento fisico conosciuto per avallare una tale
conclusione.
Le anomalie climatiche dei primi anni '70
Per cercare di unificare alcune tecniche e
di mettere ordine in questa materia così complessa e variegata l'
Organizzazione Meteorologica Mondiale cominciò ad organizzare incontri
e piani di studio a partire dal 1965. In queste attività si è
impegnato e distinto in particolare il meteorologo americano J. Namias.
I contatti si infittirono dopo le impreviste ed allora imprevedibili
anomalie a scala mondiale degli anni '72 e '73 che portarono il Pianeta
sull'orlo del collasso alimentare per le bassissime rese nelle
produzioni di cereali sia alle basse latitudini (India, Sahel, ecc.) che
nei granai mondiali di USA, Canada e, dell'allora Unione Sovietica.
Emersero in quegli anni alcuni fatti interessanti. Intanto che le
previsioni a lunga scadenza avevano un certo successo in alcune zone del
Pianeta e molto meno in altre; in secondo luogo che bisognava esaminare
a fondo il problema della prevedibilità dell'atmosfera, e cioè fino a
che punto, per quale massimo intervallo di tempo è intrinsecamente
prevedibile il comportamento di un fluido complesso e turbolento come
l'atmosfera terrestre. Quest'ultima, inoltre, non costituisce nemmeno un
sistema chiuso essendo, nel lungo termine, influenzabile da attività
solare, eruzioni vulcaniche, variazione delle correnti marine ecc.. In
altri termini ci si pose la seguente domanda: anche disponendo di mezzi
di calcolo infinitamente potenti, di modelli dinamici infinitamente
precisi, di una rete mondiale di osservazioni meteorologiche del tutto
adeguata e ben distribuita, fino a quale scadenza ci si potrebbe
spingere nel prevedere l'evoluzione futura dell'atmosfera a scala
globale? Una risposta precisa non è ancora arrivata e tuttora la
questione, peraltro vitale per gli sviluppi futuri, è materia di
contendere, anche se comincia a delinearsi una certa convergenza per una
scadenza compresa fra l5 e 30 giorni.
L'esordio dei primi supercentri di calcolo
Comunque, nella seconda metà degli anni
70, visto che le previsioni a lunga scadenza preparate con i metodi
tradizionali di cui si è parlato non davano nel complesso risultati
soddisfacenti e visto il grande sviluppo della Meteorologia numerica
soprattutto collegato all'incipiente funzionamento di alcuni supercentri
di elaborazione fra i quali spicca l'European Centre for Medium
Range Weather Forecast (ECMWF), si cominciò a
pensare di poter allungare di molto le scadenze delle previsioni
numeriche, che allora erano divenute attendibili fino a 5-7 giorni. La
prima cosa che bisognava fare era quella di capire quanto precisa
avrebbe dovuto essere l'analisi di partenza, ovvero quali
caratteristiche avrebbe dovuto avere la rete mondiale di osservazioni.
Fu questo
uno
degli obiettivi del GARP (Global Atmosphere Research Programme). I
risultati in questo senso furono sintetizzati nell'importante convegno
tenuto a cura dell'Organizzazione Meteorologica Mondiale a Princeton nel
dicembre 1982. Le conclusioni, purtroppo, non furono ottimistiche: si
stimò che una rete osservazionale adatta per una buona analisi di
partenza atta ad ottenere con metodi numerici previsioni di 15- 30
giorni aventi la stessa attendibilità di quelle a media scadenza (cioè
fino a circa 7- 10 giorni) sarebbe stata disponibile presumibilmente nei
primissimi anni del 2000. Fino a quel momento
bisognava
ancora affidarsi alle tecniche tradizionali non numeriche. Di
conseguenza per verificare i progressi fatti in tutti i campi, sia in
quelli tradizionali che in quelli della modellistica numerica orientata
verso la lunga scadenza, l'OMM cominciò ad organizzare convegni a ritmo
biennale a partire dal 1983;
il primo di tali convegni si tenne al College Park in USA.
Frattanto,
però, sulla scena di questo tipo di previsioni si era affacciata una
nuova metodologia, quella delle teleconnessioni.
Le previsioni a lunga scadenza e le
teleconnessioni
La migliorata conoscenza della
Circolazione Generale dell' Atmosfera e del Sistema Climatico mondiale
aveva infatti messo in luce che anomalie imponenti che si verificano in
determinate zone del globo possono influenzare la circolazione globale
in modo tale da generare, dopo molto tempo (anche mesi) altri fenomeni
ben individuabili in regioni del globo distanti perfino molte migliaia
di chilometri da quella dell'anomalia iniziale. Inoltre cominciarono ad
assumere grande importanza gli scambi oceani-atmosfera, come pure quelli
superfici ghiacciate-atmosfera, poichè nel lungo termine influenzano in
maniera importante la circolazione atmosferica globale. Queste ed altre
tecniche si sono affiancate in questi ultimi tempi ai metodi più
tradizionali e già sperimentati nel campo delle previsioni a lunga
scadenza, le quali peraltro, rimangono ancora da un lato di incerta
attendibilità e dall' altro campo di accaniti studi e ricerche dato
l'enorme impatto positivo che un loro sostanziale miglioramento avrebbe
su moltissime attività umane a cominciare da quella fondamentale: l'
Agricoltura.