Articoli Newsletter

newsletter

La supercella tornadica del 22 luglio 2023 in Emilia-Romagna

Tratto dalla Newsletter AISAM n°023 di settembre 2025. Sabato 22 luglio 2023, un’intensa supercella (ossia un temporale in cui la corrente ascendente è dotata di rotazione) a lunga percorrenza ha provocato grandine fino a 10 cm di diametro, estesi danni da vento lineare ed un intenso tornado largo 1.5 km e valutato di grado IF3 sulla Scala Fujita Internazionale (ESSL, 2023) in Emilia- Romagna. Un articolo recentemente pubblicato sulla rivista Weather and Forecasting (De Martin et al., 2025b) analizza con grande dettaglio la dinamica dell’evento e le implicazioni di un fenomeno temporalesco di questa portata sul territorio italiano. Evoluzione della supercella Tra l’11 e il 25 luglio 2023 numerose intense supercelle hanno colpito il Nord Italia, grazie ad una situazione sinottica caratterizzata da un promontorio anticiclonico sul Mediterraneo e una saccatura sull’Europa Centro- Occidentale (De Martin et al., 2025a). Questa situazione ha favorito per molti giorni una sovrapposizione di elevata instabilità, intenso wind shear e flusso di vapore acqueo, ideale per la genesi di forti temporali. La situazione sinottica del 22 luglio 2023 era simile, ma spostata un po’ più a sud rispetto agli altri giorni del periodo (Figura 1). Il promontorio di alta pressione era collocato sul Mar Mediterraneo meridionale ed un’intensa corrente a getto transitava sul suo lato nord, con un massimo sull’Italia centrale, mentre una piccola ondulazione scorreva nell’area alpina. Il temporale che ha generato il tornado si è sviluppato attorno alle ore 10 del mattino in Lombardia, probabilmente a causa del transito dell’ondulazione in quota. Il temporale è diventato facilmente supercella grazie alle favorevoli condizioni atmosferiche, producendo qualche grandinata di medie dimensioni (2-5 cm). Non appena la supercella ha attraversato il fiume Po ed è entrata in Emilia Romagna, una massa d’aria più umida e con maggiore temperatura potenziale equivalente proveniente dal Mar Adriatico ha iniziato ad alimentarla (freccia rossa in Figura 2). La supercella si è quindi intensificata, producendo grandine fino a 10 cm di diametro sul ferrarese. Oltre alla supercella discussa in questo articolo (cerchio nero in Figura 2, è evidente l’eco ad uncino delle precipitazioni), un’altra supercella interessava la pedemontana emiliana più a sud, e altri temporali interessavano le coste dell’alto Adriatico. L’evoluzione della supercella è stata analizzata mediante l’utilizzo di dieci stazioni meteorologiche presenti sul percorso del temporale. In particolare, i dati di perturbazione di pressione (Δp) e di temperatura potenziale virtuale (𝛩𝑣′) descrivono al meglio l’evoluzione rispettivamente del mesociclone e delle cold pools associata ai downdrafts (i dati sono riportati in Figura 5 in De Martin et al., 2025b). Le stazioni meteorologiche coprono uno spazio di circa 110 km tra il mantovano e il ravennate ed un periodo temporale di 4 ore (dalle 11:00 UTC alle 15:00 UTC). Si osserva un progressivo aumento del calo di pressione al transito della supercella nelle stazioni interessate (fino a -7.3 hPa alle 13:15 UTC, poco prima della tornadogenesi), che evidenzia la progressiva intensificazione del mesociclone. In Figura 3 è mostrata una foto dello stesso 21 minuti prima dello sviluppo del tornado: il largo updraft e la presenza di due distinti mesocicloni nello stesso momento (supportata anche da dati radar) evidenzia l’intensità inconsueta di questa supercella. Inoltre, l’analisi della 𝛩𝑣′ mostra che mentre il mesociclone si approfondiva, la temperatura potenziale virtuale calava meno, suggerendo un downdraft meno freddo e che quindi interferisce sempre meno con il processo di tornadogenesi. Si evidenzia che i valori osservati di 𝛩𝑣′ sono molto più bassi rispetto a quelli tipici delle supercelle tornadiche americane. Un ulteriore interessante osservazione riguarda il breve arrivo di aria secca durante il transito del mesociclone in una stazione meteo a pochi chilometri dal luogo dove è avvenuta la tornadogenesi (Figura 10 in De Martin et al., 2025b). È verosimile che dell’aria secca sia stata assorbita dalla supercella, potenzialmente aumentando la temperatura potenziale del downdraft e favorendo il processo di tornadogenesi. I marcati cali di temperatura potenziale precedenti la tornadogenesi indicavano la presenza di intense e fredde correnti discendenti, responsabili di numerosi danni, specie nell’abitato di Voltana. Su Voltana e nelle zone appena ad ovest e sud-ovest del villaggio, la supercella ha prodotto due microbursts (downburst di dimensioni inferiori ai 4 km) che sono conversi verso un punto centrale, probabilmente alla base del mesociclone. Le intense raffiche di vento associate ai microburst (fino a 140 km/h) potrebbero aver generato localizzate aree di vorticità verticale. Queste potrebbero essere state unite in un unico punto ed allungate verticalmente dall’intenso mesociclone sovrastante, producendo la tromba d’aria, come suggerito dal recente modello concettuale di Fischer et al (2024). Infatti, dai sopralluoghi condotti nei giorni successivi, sembrerebbe che il tornado si sia effettivamente sviluppato a poche centinaia di metri ad est di Voltana: questa transizione da raffiche lineari di vento a venti tornadici è suggerita sia da un passaggio di pattern di danno da divergente a convergente, sia dal rapido aggravarsi dei danni associati, passati da danni valutati ai gradi IF0.5-IF1 della Scala Fujita Internazionale (120-150 km/h), a danni valutati di grado IF2-IF2.5 (venti fino a 220-250 km/h) in poche centinaia di metri di spazio. Uno schema riassuntivo dell’evoluzione della supercella e della conseguente tornadogenesi è riportato in Figura 4. Il temporale si è sviluppato in Lombardia (fase 1), poi si è intensificato varcando il fiume Po e generando grandine fino a 10 cm di dimensione nel ferrarese (fase 2). Quindi le intense raffiche di vento generate dal temporale hanno iniziato a causare danni (fase 3). Infine, due microbursts su Voltana hanno innescato lo sviluppo del tornado (fase 4), mentre aria molto umida proveniente dal mare intensificava il mesociclone soprastante. Allo stesso momento dell’aria secca proveniente da sud-ovest potrebbe essere stata assorbita dal temporale. Il tornado quindi si è spostato verso est, mentre una fascia di danni legati a raffiche di vento lineari si è propagata più a sud fino ad Alfonsine. Simulazioni modellistiche e predicibilità dell’evento Usando la versione 4.5 del modello WRF su una griglia di 3.5 km e le condizioni di partenza derivanti dal modello ICON-EU, si è notato che fino a tre giorni prima venivano simulate

La supercella tornadica del 22 luglio 2023 in Emilia-Romagna Leggi tutto »

newsletter

Ondate di calore: review sui rischi e applicazione di un nuovo framework per pericoli idrometeorologici

Tratto dalla Newsletter AISAM n°023 di settembre 2025. Le ondate di calore sono periodi anomali caldi che durano da giorni a mesi e le loro caratteristiche principali sono condizionate con media o alta confidenza dal cambiamento climatico antropogenico in atto. L’Intergovernmental Panel of Climate Change (IPCC, Masson-Dalmotte et al., 2021) stima che gli attuali eventi sono 1.2 K più intensi e 2.8 volte più frequenti rispetto ai livelli pre-industriali (periodo 1850-1900). Le proiezioni mostrano scenari in peggioramento. Un livello di riscaldamento di 4 K potrebbe corrispondere a intensità e frequenze aumentate di 5.1 K e 9.4 volte, con forti conseguenze sulla nostra vita. L’IPCC (Pörtner et al., 2022) riporta che le ondate di calore sono il contributo maggiore all’eccesso di mortalità in Europa tra tutti i pericoli idrometeorologici, cioè tra tutti i pericoli risultanti da fenomeni e processi atmosferici, idrologici o oceanografici (UNDRR, 2017). Ciò ha incoraggiato la ricerca scientifica al fine di quantificare i rischi per la salute e migliorare il confort termico. Tuttavia, questo sforzo è spesso confinato solo alle connessioni dirette trascurando che la relazione tra calore e salute è mediata anche dalla salute degli ecosistemi, la produzione agricola, la sicurezza delle infrastrutture, le relazioni sociali, e il patrimonio culturale e naturale. Per esempio, le ondate di calore possono esacerbare periodi siccitosi aumentando i flussi di calore all’interfaccia tra suolo e atmosfera (Perkins, 2015) comportando morie di alberi (Gazol and Camarero, 2022) e perdite di raccolto (Potopova et al., 2017). La minore sicurezza alimentare può contribuire a instabilità geopolitiche (d’Amour et al., 2016). Inoltre, il deficit idrico può condurre a morie di fauna acquatica (Carlson et al., 2020) e ad una minore efficienza di raffreddamento delle centrali termiche e nucleari (Linnerud et al., 2011). Una riduzione in produzione di energia potrebbe coincidere con una maggiore richiesta di elettricità per l’uso di aria condizionata (Morakinyo et al., 2019). Blackout avvengono se la domanda supera la fornitura, esponendo persone a maggiori rischi sanitari (Nunes et al., 2011). La review proposta da Brogno et al. (2025) ha analizzato 1459 pubblicazioni sulle ondate di calore da una prospettiva interdisciplinare classificandole secondo sei campi di ricerca: salute, società, ecosistema, agricoltura, infrastruttura, e patrimonio. Le pubblicazioni derivano da una ricerca sistematica su Web of Science delle parole “ondata di calore” e “rischio” in titoli, abstract, e parole chiave in articoli, review, e libri scritti in inglese entro il 2023. Come mostrato in Figura 1, la review conferma una visione antropocentrica basata sulla salute umana (61.1% delle pubblicazioni), ben oltre gli ecosistemi che sono il secondo campo più analizzato (16.3%). Se questi due campi mostrano un trend esponenziale nel numero di ricerche condotte negli ultimi due decenni, ciò non si verifica negli altri campi. Inoltre, disparità sono osservabili anche all’interno di ogni campo di ricerca, con una sottocategoria che copre circa almeno il 50% delle pubblicazioni. La review ha analizzato gli articoli anche da una prospettiva del rischio, cioè il potenziale accadimento di conseguenze avverse dovute alle interazioni dinamiche tra pericolo, esposizione e vulnerabilità (Pörtner et al., 2022). Il rischio può essere stimato dal prodotto di queste tre componenti (triangolo del rischio di Crichton, 1999). Il pericolo è l’occorrenza di un evento che può causare perdite di vita, salute, proprietà, infrastrutture, mezzi di sussistenza, servizi, ecosistemi e risorse. L’esposizione quantifica tutti gli elementi esposti al pericolo come persone, bestiame, raccolti, specie, ecosistemi, infrastrutture, servizi, risorse, e beni culturali, sociali e economici. La vulnerabilità è la propensione o la predisposizione di questi elementi a subire danni ed include anche la capacità di affrontare il pericolo attraverso strategie di adattamento. Seppur il rischio può concretizzarsi solo se tutte e tre le componenti non sono nulle, solo il 3.1% delle pubblicazioni analizzate integra tutte le componenti in una valutazione di rischio. I trend delle singole componenti mostrano andamenti esponenziali, mentre le valutazioni di rischio mostrano un plateau nell’ultima decade e sono quasi esclusivamente focalizzate sulla salute umana. La review si è concentrata anche sull’analisi degli attuali trend e proiezioni di frequenza e intensità delle ondate di calore, sui fattori naturali e antropogenici che le influenzano, gli indici proposti per la loro identificazione e classificazione, e le conseguenze di questi eventi sui vari campi di ricerca. Questa analisi ha evidenziato che la maggior parte degli studi sulle conseguenze quantifica rischi medi su molti eventi non fornendo informazioni sulla variazione del rischio in funzione sia di intensità che di durata, cioè i due fattori chiave nella definizione di ondata di calore. Inoltre, ogni studio adotta indici diversi rendendo difficile la comparazione dei risultati anche all’interno dello stesso campo di ricerca. La review raccomanda che la comunità scientifica selezioni e adotti comuni metodologie per ogni campo di ricerca al fine di produrre evidenze scientifiche più coerenti e favorire il processo decisionale verso l’adattamento a questi eventi estremi. Comprendere come il rischio evolve in funzione delle caratteristiche delle ondate di calore può avere ripercussioni a livello decisionale data la tendenza verso eventi sempre più intensi e duraturi mostrata dalle proiezioni climatiche. La necessità di una più coerente ricerca scientifica, che tenga conto di una visione interdisciplinare ed integri tutte le componenti di rischio, ha condotto all’introduzione in Brogno et al. (2024) di un framework per la valutazione di rischi idrometeorologici e dell’effetto di strategie di adattamento sia in eventi passati che scenari futuri. Il framework adotta il triangolo del rischio di Crichton. Esso richiede la quantificazione del pericolo durante un evento tramite indici che tengono conto delle sue caratteristiche principali normalizzati in accordo con la climatologia. L’esposizione è calcolata tramite dati da censimenti e uso del suolo. La vulnerabilità è stimata come il prodotto tra un fattore di vulnerabilità che lega ogni elemento esposto al pericolo con la loro predisposizione all’essere danneggiato o danneggiare l’ambiente e un costo qualora il danno si concretizzasse. Dato che la predisposizione è stimata dagli impatti osservati negli eventi precedenti, il framework fornisce una stima del rischio medio su molti eventi piuttosto che una predizione di ciò che avverrà nel singolo evento analizzato. Ciò è

Ondate di calore: review sui rischi e applicazione di un nuovo framework per pericoli idrometeorologici Leggi tutto »

newsletter

L’affondamento Bayesian di Porticello: una tempesta di vento convettiva prevedibile?

Tratto dalla Newsletter AISAM n°023 di settembre 2025. Un articolo recentemente pubblicato sulla rivista Weather (De Martin F., M.M. Miglietta, T. Gastaldo, M. Martinazzo, F. Pavan, M. Siena, S. Di Sabatino, The Bayesian sinking in Porticello: a predictable convective windstorm? Weather, 2025, http://doi.org/10.1002/wea.7715) ha analizzato in dettaglio la tempesta che è stata responsabile della tragedia della nave Bayesian a Porticello (località mostrata in Figura 1) e ha causato la morte di sette persone la notte del 19 agosto 2024, alle 04:06 ora locale. Si è trattato dell’evento temporalesco (escludendo le alluvioni) che ha causato più vittime dal 1970, quando un vaporetto si inabissò a Venezia per effetto del passaggio di un tornado sulla laguna veneta. Figura 1. a) Mappa della Sicilia, in cui è evidenziata la località del radiosondaggio (Trapani); (b) ingrandimento dell’area indicata con il riquadro rosso in (a), che include la posizione di tre stazioni meteorologiche (Aspra, Bagheria e Solanto), l’area dell’affondamento dello yacht del Bayesian e la posizione dei video #1 e #2. Le mappe di sfondo sono ricavate da © Google Maps. Il movimento della tempesta è indicato con una freccia rossa. Purtroppo, l’assenza di dati radar, di video che riprendano esattamente l’area dove è avvenuto l’affondamento e di testimoni diretti, visto che l’evento si è verificato di notte, rendono difficile chiarire se la tragedia sia stata causata da una tromba marina o piuttosto da raffiche di vento lineari (un downburst o un gust front). Due video registrati nelle località #1 e #2 mostrate in Figura 1b, in prossimità del luogo dove si trovava il Bayesian, mostrano intense raffiche di vento, probabilmente causate da un downburst, ma nessun vortice o altra caratteristica che faccia pensare a un tornado. Le mappe meteorologiche mostrano che durante il giorno della tragedia la situazione sinottica era dominata dalla presenza di un minimo barico in quota che si era spostato dalla Francia meridionale verso l’Italia centrale. Il fronte freddo ha innescato convezione profonda nel Mar Tirreno, favorita dalla temperatura elevata del mare nel mese di agosto. Il sondaggio termodinamico di Trapani (non molto lontano dal luogo dove si è verificato l’affondamento, vedi Figura 1a) delle ore 00:00 UTC del 19 agosto 2024 mostra la presenza di aria molto calda e umida nei bassi strati dell’atmosfera, associata a elevata instabilità, evidenziando pertanto condizioni favorevoli allo sviluppo di sistemi convettivi intensi. Le immagini da satellite mostrano come la tempesta si sia sviluppata come sistema convettivo alla mesoscala (MCS) nella parte meridionale del Mar Tirreno. La convezione profonda è stata confermata dalle immagini satellitari che hanno mostrato la presenza di celle convettive a forte sviluppo verticale, con temperature alla sommità della nube di circa 210K (Figura 2). Un’analisi della traiettoria della temperatura minima alla sommità della nube convettiva, un noto indicatore dell’intensità delle correnti ascendenti, ha evidenziato come la cella temporalesca che ha interessato l’area di Porticello avesse una direzione di spostamento concorde con quella attesa per un temporale ordinario, ovvero seguendo il vento a circa 700 hPa. Qualora il temporale in questione fosse stata una supercella, la cella avrebbe deviato verso destra. Questa osservazione suggerisce come nessuna supercella fosse presente quella notte nei pressi di Porticello. Ciò comunque non esclude che si possa essere formato un tornado non-supercellulare, per quanto quest’ultimo avrebbe dovuto essere di minore intensità. Figura 2. Temperatura di Brillanza estratta dalla banda infrarossa a 12,0 μm del SEVIRI alle ore 01:57 UTC del 19 agosto 2024 (dopo correzione per parallasse). La posizione dello yacht del Bayesian è indicata con un punto rosso. L’orario indicato rappresenta l’ora finale del periodo di acquisizione di 12 minuti del SEVIRI. Le stazioni meteorologiche amatoriali di Aspra, Bagheria e Solanto (Figura 1b) presenti in prossimità del luogo della tragedia hanno registrato un aumento della pressione e un calo della temperatura potenziale in corrispondenza dell’evento, dati che supportano l’ipotesi di un downburst. Figura 3. Velocità del vento a 10 m alle ore 04:00 UTC (frecce) e raffiche di vento massime (ombreggiatura colorata) a 10 m tra le 03:00 e le 04:00 UTC del 19 agosto 2024, simulate dal modello ICON- 2I inizializzato alle 00:00 UTC del 18 agosto 2024. La posizione del Bayesian è evidenziata con un pallino rosso. Un punto molto dibattuto riguarda la possibilità di prevedere un evento di questo tipo in tempo utile per l’allertamento della popolazione. Un avviso per temporali forti era stato emesso dalla Protezione Civile Italiana il giorno precedente l’evento. Infatti, l’analisi delle simulazioni del modello ICON inizializzate 28 ore prima dell’evento mostravano indicazioni di raffiche di vento intense nel Mar Tirreno (Figura 3). Sia le simulazioni deterministiche che probabilistiche hanno indicato la possibilità di raffiche superiori a 24.5 m/s nel basso Tirreno, per quanto non esattamente nella regione interessata dal naufragio e all’istante di tempo in cui l’evento è stato osservato. Tali previsioni risultavano più accurate nella simulazione inizializzata alle 00:00 UTC del 19 agosto, che era però troppo a ridosso dell’evento per poter essere di qualche utilità operativa. Le conclusioni a cui è giunto lo studio sono quindi che l’affondamento della nave Bayesian è stato probabilmente causato da forti raffiche di vento lineari originate da un sistema convettivo multicellulare. Pur non essendoci evidenze della presenza di una tromba marina, il suo verificarsi non può essere escluso del tutto. Il crescente verificarsi di eventi convettivi intensi e localizzati in Italia evidenzia la necessità di un sistema di allerta dedicato alla previsione delle tempeste di natura convettiva nel nostro Paese. Questa necessità è resa ancora più urgente dalla vulnerabilità ed esposizione delle numerose persone che si dedicano ad attività all’aperto nella stagione estiva, in corrispondenza del picco di frequenza dei fenomeni convettivi nel nostro Paese. Autori: Marcello Miglietta (CNR-ISAC) Francesco De Martin (Università di Bologna)

L’affondamento Bayesian di Porticello: una tempesta di vento convettiva prevedibile? Leggi tutto »

Buco dell'ozono antartico

Il buco dell’ozono antartico nel 2024 torna alla normalità 

Flash news tratta dalla Newsletter n° 021 di marzo 2025 Negli ultimi quattro anni, il buco dell’ozono antartico è durato più a lungo del solito e si è chiuso nella seconda metà di dicembre, interrompendo la serie degli anni precedenti e seguendo uno sviluppo più tipico. Il buco dell’ozono ha iniziato a chiudersi all’inizio di dicembre, il che è più vicino alla media rispetto a quanto accaduto negli anni più recenti. Anche gli altri indicatori normalmente utilizzati per monitorare il buco dell’ozono, come l’area totale, sono risultati più vicini alla media rispetto agli ultimi anni. Lo sviluppo del buco dell’ozono antartico nel 2024 è iniziato più tardi della media, principalmente a causa dell’interruzione del vortice polare in seguito a due improvvisi episodi di riscaldamento stratosferico avvenuti a luglio. La sua area ha continuato ad aumentare per tutto settembre, seguendo da vicino la media del periodo 1979-2021, raggiungendo la sua dimensione massima di 22 milioni di km2 entro la fine del mese. Non solo la sua massima estensione è risultata più piccola rispetto al 2023 e al 2022 (quando raggiunse circa 25 milioni di km2), ma il massimo si è verificato più tardi rispetto al 2023, in linea con la media storica.  Buco dell’ozono: l’efficacia del protocollo Montreal L’area del buco dell’ozono è diminuita costantemente di dimensioni per tutto ottobre, in linea con la media, e si è stabilizzata fino a novembre con un’area approssimativa di 10 milioni di km2. La rottura del vortice polare nella prima settimana di dicembre ha poi portato rapidamente alla chiusura del buco dell’ozono del 2024 in linea con la data di chiusura media del 1979-2021. Questo mostra l’efficacia del protocollo di Montreal e dei suoi successivi emendamenti nel ridurre le emissioni di sostanze che riducono l’ozono. 

Il buco dell’ozono antartico nel 2024 torna alla normalità  Leggi tutto »

L’isola di calore urbana: misure e applicazioni

Articolo tratto dalla Newsletter n° 020 di dicembre 2024 Il fenomeno dell’isola di calore urbana, generalmente indicato come UHI dall’inglese Urban Heat Island, noto e studiato da quasi due secoli (Howard, 1833; Oke et al., 2017), riceve in epoca recente un rinnovato interesse specialmente nel quadro generale della resilienza ai cambiamenti climatici e per il fatto che più della metà della popolazione mondiale vive nelle città, con tendenza alla crescita. La fenomenologia associata è essenzialmente termica, rappresentabile dalla differenza tra temperature in ambito urbano rispetto a quelle del circostante ambiente extra urbano (Indice UHI), ma presenta anche altri aspetti meteo-climatici, come quelli relativi all’umidità e alla circolazione sia orizzontale che verticale, alla nuvolosità e alla precipitazione. Il tutto è dovuto alle diverse caratteristiche radiative e termiche delle superfici urbane rispetto a quelle extra urbane, che determinano un diverso tasso orario di raffreddamento serale e riscaldamento diurno: la figura 1 illustra un episodio significativo per la città di Milano in una delle stazioni di misura della rete della Fondazione Osservatorio Meteorologico Milano Duomo ETS (FOMD: www.fondazioneomd.it). Il fenomeno UHI è specifico per ogni singola città e va quindi analizzato caso per caso. Le generalizzazioni sono possibili solo sulle metodologie utilizzate, mentre la valutazione degli aspetti urbanistici (oltre a quelli geografici e climatologici) diventa imprescindibile sia per la tipologia delle strutture (edifici, parchi, strade) che per la loro geometria e distribuzione territoriale. Trattandosi comunque di un fenomeno meteorologico, può e deve essere trattato anche in termini climatologici. In questo caso sono rilevanti sia gli aspetti evolutivi del clima in sé, ormai diventati ineludibili con dirette influenze sul clima urbano, sia l’evoluzione urbanistica della singola città: tanto più rilevante quest’ultima in considerazione della rapida ed importante crescita urbana nell’ultimo secolo e ancora in corso specialmente in alcune aree geografiche, con conseguenze sul clima extra urbano almeno a scala regionale. Lavori recenti (Huilin et al., 2023) stanno in particolare esaminando la tendenza recente della temperatura urbana e dell’UHI, evidenziando come la prima cresca in genere molto più della media globale e regionale esaltando il fenomeno UHI specialmente di giorno: a Milano, ad esempio, il tasso di riscaldamento urbano recente risulta essere quasi 3 volte quello medio globale. Mentre la media annua dell’Indice UHI è in genere di pochi gradi, ma con ampie variazioni in funzione dell’area climatica e della tipologia e dimensione urbanistica, il suo valore medio orario può raggiungere i 10 ÷ 12°C nel caso delle città più grandi e densamente popolate e con particolari caratteristiche dell’edificato (figura 2). La differenza tra temperatura urbana ed extra urbana dipende sia dalla climatologia locale che dalle specifiche condizioni meteorologiche a scala sinottica o mesosinottica al momento della misura. Il fenomeno è infatti favorito e accentuato da condizioni anticicloniche con cielo sereno (effetti radiativi) e scarsa ventilazione (effetti avvettivi): il valore dell’Indice UHI diventa pertanto realmente significativo solo al di sopra di una soglia che permetta di distinguere l’effetto dell’urbanizzazione dal “rumore” sinottico. In alternativa lo si può studiare filtrando i dati in funzione del tipo di tempo meteorologico (per esempio in base ad una opportuna selezione di valori di pressione, nuvolosità, precipitazione e vento). In genere l’Indice assume valori massimi dopo il tramonto del sole e minimi durante le ore diurne (quando sono possibili anche valori negativi, figura 1) ed è più accentuato nei mesi freddi rispetto a quelli caldi, ma con ampia variabilità geografica di queste caratteristiche. Inoltre il fenomeno dell’Isola di calore urbana può risultare intensificato durante le ondate di calore, specialmente nelle ore notturne. La figura 3 riassume alcune caratteristiche dell’Indice UHI per Milano per le stazioni di FOMD ubicate in città, calcolato come differenza rispetto alla media di cinque selezionate stazioni extra urbane di ARPA Lombardia: le 8 stazioni di FOMD hanno un comportamento molto simile essendo caratterizzate quasi tutte dalla stessa LCZ (Local Climate Zone 2, “Compact mid-rise”: Oke et al. 2017) e si distinguono principalmente per la loro distanza dal centro città. Strumenti di conoscenza e analisi del fenomeno UHI sono sia i dati delle misure (meteorologiche e urbanistiche) che i modelli in grado di descriverlo: questi ultimi devono necessariamente essere ad altissima risoluzione spaziale, contenere una dettagliata descrizione del tessuto urbano ed essere validati con le osservazioni. Nonostante l’importanza della modellistica ed il suo crescente sviluppo per lo studio del fenomeno, le misure rimangono fondamentali: tuttavia nella letteratura scientifica recente è molto più facile trovare lavori di sperimentazione modellistica che relativi alle misure e alle loro incertezze, in particolare per quelle di natura climatologica. Queste ultime richiedono infatti non solo strumentazione dedicata e distribuita nel territorio (reti) per risolvere i vari ambiti urbanistici, ma anche il mantenimento nel tempo dell’operatività e della qualità e riferibilità del dato: un aspetto molto oneroso e impegnativo, ma in genere poco remunerativo e pertanto destinato più a un servizio che alla ricerca. In passato un ruolo importante in questo senso è stato svolto dagli osservatori storici, quasi tutti posti al centro di grandi città, che oggi consentono la ricostruzione del clima cittadino nell’arco di molti decenni e fino a oltre due secoli (in Italia ricordiamo ad esempio almeno Roma, Milano e Firenze, ma ce ne sono molti altri: il WMO ad oggi ha riconosciuto in Italia 22 Osservatori Centenari). Tuttavia queste serie storiche non bastano a descrivere in dettaglio la complessità urbanistica delle moderne città, specialmente considerando le importanti applicazioni in campo energetico e per la resilienza climatica. Nel mondo non sono molte le municipalità che si sono dotate (e comunque solo in epoche relativamente recenti) di reti meteorologiche urbane dedicate, talvolta derivate da campagne di ricerca scientifica: tra queste basti ricordare, per essere state tra le prime a coniugare ricerca e servizio, almeno Birmingham e Hong Kong. In Italia non esistono analoghe situazioni: in questo senso l’attività di FOMD rappresenta un caso unico, essendosi dotata a partire dal 2010 di una rete dedicata a scala nazionale, oggi forte di una cinquantina di stazioni urbane (Borghi et al., 2014; Frustaci et al., 2017): l’area di Milano in particolare rappresenta un vero

L’isola di calore urbana: misure e applicazioni Leggi tutto »

Integrazione di dati pluviometrici e satellitari per la simulazione idrologica: analisi della metodologia basata sugli automi cellulari sul bacino del fiume Tanaro

I modelli idrologici rivestono un ruolo centrale nei sistemi di allerta per le alluvioni e nella gestione sostenibile delle risorse idriche, soprattutto nel contesto del cambiamento climatico. Per il loro funzionamento operativo, questi modelli si basano su dati di precipitazione, sia osservati sia previsti, rendendo fondamentale una stima accurata delle piogge e della loro distribuzione spaziale. L’affidabilità delle simulazioni delle portate fluviali dipende infatti dalla precisione di questi dati, poiché l’incertezza nelle previsioni idrologiche è strettamente correlata a quella del campo di precipitazione. Questo legame è dovuto alla complessa relazione non lineare tra la variabilità spazio-temporale delle precipitazioni e il deflusso fluviale. I pluviometri sono comunemente utilizzati come riferimento per stimare le precipitazioni areali (APE, Areal Precipitation Estimation). Tuttavia, la loro rappresentatività spaziale è spesso limitata dalla scarsa densità e dall’irregolare distribuzione delle reti, il che può generare errori significativi nella ricostruzione del campo di pioggia e compromettere l’affidabilità delle simulazioni idrologiche. Inoltre, le reti pluviometriche raramente rispettano gli standard minimi stabiliti dall’Organizzazione Meteorologica Mondiale (OMM), a causa di vincoli geomorfologici e climatici locali. In alternativa, le osservazioni satellitari offrono dati di precipitazione spazialmente distribuiti, migliorandone la copertura e la rappresentatività. Per sfruttare al meglio queste informazioni, è necessario utilizzare processi di interpolazione e tecniche di integrazione che ottimizzino la rappresentazione spaziale delle precipitazioni. I dati satellitari forniscono una copertura globale e risultano particolarmente preziosi in aree con una scarsa disponibilità di misurazioni in situ, come le regioni montuose. Tuttavia, anch’essi presentano limiti legati a incertezze su intensità, durata e scala degli eventi precipitativi. Nonostante queste limitazioni, la rappresentazione spaziale dei pattern pluviometrici da satellite rappresenta un’informazione preziosa per i modelli idrologici distribuiti. Questo studio mira a validare l’algoritmo Cellular Automata (CA) (Packard and Wolfram, 1985) per combinare dati pluviometrici e satellitari su bacini di scala medio-piccola e a valutare i benefici dell’integrazione delle diverse tipologie di dato per migliorare le simulazioni idrologiche. La validazione è indiretta in quanto è stato effettuato un confronto tra le portate simulate e quelle osservate per valutare l’efficacia dei dati di precipitazione integrati. Lo studio ha analizzato l’impatto idrologico dell’utilizzo dei campi di precipitazione integrati della rete italiana di pluviometri e del prodotto satellitare IMERG del programma NASA GPM. L’algoritmo Cellular Automata è stato utilizzato per pre-processare i dati di input al fine di integrarli e ricostruire una versione migliorata del campo di precipitazione. L’approccio basato sugli automi cellulari (CA) è stato sperimentato sul bacino del fiume Tanaro, situato nell’Italia nord-occidentale, uno dei principali affluenti del fiume Po. Questo bacino si distingue per la sua estensione di 276 km in lunghezza e 8.324 km² di superficie, con una portata media di 123 m³/s. Storicamente, il Tanaro è stato soggetto a numerosi eventi di piena severi: dal 1801 al 2001 si sono registrate almeno 136 inondazioni significative. Questa variabilità nel valore di portata rende il bacino un’area ideale di studio per testare l’approccio proposto. Il metodo è stato applicato a tre differenti casi studio relativi ad eventi alluvionali avvenuti tra novembre e dicembre 2014. Caratteristiche dei dati utilizzati Il dato pluviometrico è generalmente associato a un’area di influenza attribuita alla rete di pluviometri. In particolare, ogni pluviometro viene considerato al centro di un’area di influenza circolare di raggio R (raggio di influenza). Secondo Shi et al. (2020), il valore di R può essere calcolato tenendo conto anche della distanza media tra le stazioni pluviometriche e viene espresso dalla seguente relazione:R= √(S/N) (1)dove S è la superficie del bacino considerato, mentre N è il numero di pluviometri che ricadono nel bacino. Una copertura adeguata della rete pluviometrica richiede che il raggio medio R sia almeno comparabile con la variabilità spaziale delle precipitazioni. Nel caso del bacino del fiume Tanaro, con una superficie S nota e 73 pluviometri, N, la distanza media tra le stazioni è di circa 11 km, sebbene la distribuzione delle stazioni non sia uniforme. Per migliorare l’analisi, nelle simulazioni idrologiche, sono stati selezionati diversi valori di R. La figura 1 ci offre una visualizzazione chiara di come la rete pluviometrica copre il bacino del Tanaro quando si considera un raggio di influenza di 5 km. Il prodotto di precipitazione satellitare utilizzato in questo studio è il Global Precipitation Measurement (GPM) Integrated Multi-satellitE Retrievals for GPM (IMERG). I dati forniscono stime di precipitazione quasi globali (60°N–60°S) combinando misurazioni da radiometri a microonde passivi (PMW) comprendenti la costellazione satellitare GPM Low Earth Orbit (LEO) e sensori geostazionari (GEO) a infrarossi (IR). Il prodotto IMERG è disponibile anche in una versione di ricerca post-real-time, denominata IMERG Final, che integra l’analisi mensile dei dati pluviometrici per migliorarne la precisione (Huffman et al., 2018; O et al., 2017). In questo studio sono state utilizzate stime di tasso di pioggia con risoluzione temporale di 30 minuti e spaziale di 0.1° x 0.1° (circa 10 km x 10 km), appartenenti alla versione 5 di IMERG Final. Sono stati impiegati sia i dati non calibrati (UNCAL) sia quelli calibrati (CAL), dove i dati pluviometrici mensili vengono integrati per correggere eventuali distorsioni, garantendo una rappresentazione più accurata delle precipitazioni. I dati di portata osservati sono fondamentali per valutare l’output dei modelli idrologici in risposta a diversi scenari di precipitazione. Tuttavia, l’uso di modelli idrologici deterministici presenta alcune criticità, tra cui la necessità di disporre di serie temporali lunghe e complete, spesso non disponibili, soprattutto nei piccoli corsi d’acqua stagionali generalmente privi di strumentazione. La mancanza di dati sulla gestione artificiale delle acque rappresenta un’ulteriore sfida, rendendo difficile la validazione dei modelli nei bacini fortemente antropizzati. In questi casi, i modelli simulano la portata naturale del fiume senza tenere conto dell’influenza di strutture artificiali. Inoltre, le stime delle portate fluviali sono soggette a significative incertezze dovute a fattori come l’interpolazione ed estrapolazione delle curve di deflusso, condizioni di flusso instabile e variazioni stagionali della rugosità del letto del fiume (Di Baldassarre e Claps, 2011). Per questo studio, sono state selezionate otto stazioni con lunghe serie temporali di dati di portata relative al 2014. Queste stazioni, distribuite strategicamente nel bacino del fiume Tanaro

Integrazione di dati pluviometrici e satellitari per la simulazione idrologica: analisi della metodologia basata sugli automi cellulari sul bacino del fiume Tanaro Leggi tutto »

Il progetto ReData

Articolo tratto dalla Newsletter n° 020 di dicembre 2024. Nella seconda metà dell’Ottocento, grazie alla capillare diffusione delle reti telegrafiche, diventa possibile ricevere in tempo quasi reale informazioni meteorologiche da tutte le zone sviluppate del Pianeta. Il potenziale applicativo di queste informazioni è enorme in quanto esse sono essenziali per qualsiasi attività previsionale. Nascono quindi in tutti Paesi più avanzati appositi Servizi con il compito di operare in questo settore.  In questo contesto, viene fondato in Italia nel 1876 il Regio Ufficio Centrale di Meteorologia (RUCM) che svolse un ruolo cruciale nella standardizzazione e nel coordinamento delle osservazioni meteorologiche effettuate nel nostro Paese. Uno tra i contributi più importanti di questa istituzione è la compilazione del Bollettino Meteorico Giornaliero (BMG). Esso riporta i dati di numerose variabili meteorologiche rilevati alle ore 8:00 presso decine di osservatori italiani, insieme a carte meteo che mostrano la distribuzione delle isobare e delle isoterme sul territorio italiano. Completano il bollettino le previsioni meteo per il giorno, allora chiamate “presagi”. Il bollettino si arricchisce poi negli anni successivi e crescono sia le stazioni considerate (esse arrivano a superare il centinaio) che le osservazioni riportate (vengono aggiunte anche le osservazioni della sera precedente). Il bollettino viene redatto in forma pressoché inalterata fino all’ingresso dell’Italia nella Seconda Guerra Mondiale. I bollettini giornalieri sono stati via via raccolti e pubblicati in fascicoli annuali che sono oggi disponibili in vari archivi: una collezione completa si trova al CMA del CREA a Roma.  1.1 Il progetto  Il progetto ReData (Recovery of Data), avviato nel 2017 dall’Associazione Meteonetwork OdV e dall’Università degli Studi di Milano, si propone i) di creare un archivio digitale dei BMG prodotti dal RUCM tra il 1879 e il 1940 e ii) di estrarre i contenuti presenti in essi in modo che possano essere usati per la ricerca scientifica. Inserito nel contesto internazionale del Data Rescue Portal della World Meteorological Organization (WMO) (figura 1), questo progetto mira a preservare e a rendere accessibili per la comunità scientifica internazionale e nazionale preziose informazioni meteorologiche storiche.  La prima parte del progetto è già stata sviluppata quasi per intero ed essa verrà completata entro la prima metà del 2025. La seconda parte è invece ancora agli inizi. Essa è stata inizialmente avviata per mezzo di un’applicazione  sviluppata da Meteonetwork (vedi https://redata.meteonetwork.it/), ma dopo un avvio promettente, con un buon numero di digitalizzazioni e volontari coinvolti, l’interesse verso la digitalizzazione dei dati contenuti nei BMG è diminuito negli anni, rallentando e complicando la gestione del notevole carico di lavoro necessario per portare avanti l’iniziativa.  Pertanto, nel 2024 si è deciso di rilanciare questa parte del progetto cercando di puntare su nuovi strumenti e metodi che rendessero più attrattiva e facilmente accessibile l’attività di digitalizzazione dei dati. Questa attività si è sviluppata con il contributo di due tesi di laurea, una triennale presso l’Università degli Studi di Milano e una magistrale presso il Politecnico di Milano. Entrambe le tesi hanno mirato a disegnare una nuova struttura della seconda parte del progetto ReData, sfruttando il potenziale della Citizen Science e della piattaforma internazionale Zooniverse, che coinvolge volontari a partecipare ad attività legate alla ricerca scientifica.  2. Il BMG e la rete delle stazioni utilizzate nell’ambito di esso  Nel 1879, la rete delle stazioni i cui dati venivano pubblicati nei bollettini comprendeva appena 11 stazioni. Tuttavia, nel giro di pochi decenni, il numero delle stazioni salì a 70. La rete raggiunse il suo massimo sviluppo dopo la Prima Guerra Mondiale (figura 2), quando vennero aggiunte le stazioni di diverse capitanerie di porto e stazioni nei nuovi territori acquisiti dall’Italia, come Trieste e Trento, e Tripoli e Bengasi sulle coste libiche.  I bollettini sono composti da diverse pagine per giorno: 4 pagine dal 1879 al 1913, 6 pagine dal 1914 al 1922, e ancora 4 dal 1923 al 1934. Queste pagine sono state tutte scansionate dal socio AISAM e socio Meteonetwork Luca Ronca (figura 3). I bollettini relativi al periodo 1935-1940 verranno scansionati nella prima parte del 2025.  Il contenuto dei bollettini ha subito alcuni cambiamenti nel corso degli anni, ma la loro struttura è rimasta pressoché invariata. L’intero contenuto può essere suddiviso nelle seguenti sezioni:  Altre informazioni, come telegrammi ricevuti da città estere, attività endogene o tabelle riassuntive di carattere meteorologico.  La tabella delle osservazioni italiane risulta essere la sezione di maggiore interesse per ReData. Il primo obiettivo che ci poniamo nell’ambito del rilancio della digitalizzazione dei dati del BMG è quello di digitalizzare i dati dal 1882 (figura 4) al 1913, periodo durante il quale la struttura della tabella è rimasta invariata, contenendo le seguenti variabili meteorologiche registrate alle ore 8 di mattina:  3. ReData su Zooniverse  Zooniverse è un portale di Citizen Science che consente ai volontari di partecipare a progetti scientifici, tra cui la digitalizzazione di documenti meteorologici storici come i BMG considerati nell’ambito del progetto ReData (https://www.zooniverse.org/projects/meteonetwork/redata). Il grande vantaggio di Zooniverse è che ci consente di attingere da un bacino di volontari molto più ampio. A differenza del sito di Meteonetwork, dove gli utenti possono scegliere liberamente su quali stazioni e periodi lavorare, il nuovo approccio che abbiamo usato nell’ambito di questa piattaforma mira a digitalizzare i dati in modo uniforme, anno per anno, su tutte le stazioni disponibili. Questo garantisce una copertura spaziale equilibrata e permette di ricostruire le carte di analisi sinottica del passato in modo più accurato.  I workflow, ovvero le attività proposte ai volontari, sono suddivisi per stazione e anno, identificati con il formato “Y xxxx” (dove Y indica la stazione e xxxx l’anno). Ogni workflow guida l’utente nella trascrizione dei dati attraverso una serie di domande strutturate che seguono l’ordine delle variabili meteorologiche riportate nel bollettino. Sono forniti tutorial, testi di supporto e pagine di approfondimento per guidare l’attività nei dettagli.  L’utente seleziona un workflow dalla homepage, accedendo a una scansione casuale dell’anno scelto, e risponde ai tasks seguendo le istruzioni (figura 5).  4. L’importanza dei dati del BMG per la ricerca climatologica  Il contributo più importante dei dati del BMG per la ricerca

Il progetto ReData Leggi tutto »

Fulmine Scala

Il fulmine in escursione

Articolo tratto dalla Newsletter n° 020 di dicembre 2024 “Il fulmine in escursione” è il libro scritto da Domenico Scala, disponibile su Amazon, anche in formato ebook. Si tratta di un testo alla portata di tutti ma anche di un’analisi rigorosa e precisa dei vari fenomeni fisici, partendo dalla genesi del fulmine, per poterlo conoscere e affrontare con la giusta consapevolezza. Il fulmine, un fenomeno che da sempre ha affascinato e terrorizzato l’umanità, soprattutto per la sua imprevedibilità e ineluttabilità.  Ma è davvero così imprevedibile? La scienza è riuscita, studiando il problema, a dare risposte? E queste sono conosciute dal grande pubblico e da chi, per lavoro o per diletto, deve affrontare questo pericolo?  Sono queste le domande a cui si propone di rispondere “Il fulmine in escursione” di Domenico Scala, divulgando e facendo conoscere il fenomeno, perché solamente una comprensione profonda dell’evento può portarci ad adottare strategie e tattiche per evitare di affrontarlo e per minimizzare i rischi.  Purtroppo, in occasione di fatti luttuosi, la problematica viene invece trattata in maniera superficiale, spesso banale e, qualche volta, errata. Invece può rivelarsi utilissimo portare a conoscenza del grande pubblico le scoperte scientifiche alla base del fenomeno, la loro interpretazione e come esse possono essere sfruttate, sia in fase di prevenzione e pianificazione, sia durante l’evento.  Con un linguaggio semplice, chiaro e alla portata di tutti, ma, nel contempo, con un’analisi rigorosa e precisa dei vari fenomeni fisici, partendo dalla genesi del fenomeno, il libro ci conduce sempre di più a fondo nella problematica. La convinzione dell’autore è che solamente comprendendo si ricorda e solamente ricordando si possono studiare e mettere in atto soluzioni per minimizzare i problemi. Da qui la struttura dell’opera, che non ha paura di annoiare con concetti teorici, che però porteranno a comprendere la genesi e le caratteristiche del fulmine e illustreranno le corrette azioni da intraprendere.  Corredano il libro figure e mappe della fulminosità. È disponibile anche un’edizione inglese, con l’illustrazione dei casi più interessanti a livello mondiale, come l’alta densità di fulmini della Florida o il cosiddetto “Relampago del Catatumbo”. 

Il fulmine in escursione Leggi tutto »

Alpi neve 30%

Neve in diminuzione sulle Alpi: più del 30 % in meno in cent’anni 

Articolo tratto dalla Newsletter n° 20 – dicembre 2024 Nel corso dell’ultimo secolo, e in particolare a partire dagli anni ottanta del novecento, la quantità di neve fresca che cade sulle Alpi è diminuita, in modo più vistoso a bassa quota e sul versante meridionale della catena montuosa, nonostante un lieve aumento delle precipitazioni invernali complessive. Sono i risultati principali dello studio “Long-term snowfall trends and variability in the Alps”, pubblicato ad accesso libero il 18 agosto 2024 sull’International Journal of Climatology, e frutto del lavoro di un gruppo di ricercatori italiani coordinati da Michele Bozzoli e afferenti a diversi istituti e centri di ricerca (Università degli studi di Trento – Dipartimento di Ingegneria Civile, Ambientale e Meccanica; Società Meteorologica Italiana; EURAC Research of Bolzano; European Organisation for the Exploitation of Meteorological Satellites – EUMETSAT, Darmstadt, Germany; Laboratory for Air Pollution/Environmental Technology, Dübendorf, Svizzera). Per la prima volta sono state analizzate 46 serie secolari (1920-2020) di dati stagionali (novembre-maggio) di neve fresca a differenti altitudini (da 56 m a 1878 m) lungo tutto l’arco alpino e le pianure adiacenti, mettendo anche in relazione la variabilità e le tendenze nivometriche osservate con le temperature e le precipitazioni, e con alcuni indici di teleconnessione che descrivono gli schemi generali di circolazione atmosferica nella regione euro-atlantica. Nei cent’anni di dati considerati, i settori Sud-Ovest (corrispondente a gran parte del Nord Italia) e Sud-Est (estremo Nord-Est italiano e Slovenia occidentale) della regione alpina hanno sperimentato le diminuzioni più nette delle quantità di neve fresca, mostrando tendenze rispettivamente di -4.9% e -3.8% al decennio. Nevica meno anche sul versante settentrionale dell’arco alpino, ma con tendenza alla riduzione meno marcata (-2.3% al decennio). Nell’intero periodo secolare oggetto di studio, le variazioni sono state pari a -34% nell’insieme delle Alpi, -49% nel Sud-Ovest, -38% nel Sud-Est e -23% nel Nord. Dunque in un centinaio di anni le quantità di neve fresca si sono mediamente ridotte di un terzo, e si sono perfino dimezzate su gran parte del Nord Italia. Nel complesso, la causa principale della diminuzione della neve fresca va ricercata non tanto in minori precipitazioni invernali (pioggia e neve fusa), le quali al contrario sono leggermente aumentate nei settori Sud-Ovest e Nord delle Alpi (beninteso al netto di una marcata variabilità interannuale che può proporre di quando in quando stagioni molto secche come quelle estreme del 2021-22 e 2022-23), quanto in un aumento delle temperature medie valutato in +0.15 °C/decennio (ovvero +1.5 °C/secolo) e omogeneamente distribuito nelle regioni analizzate. Solo nel settore Sud-Est (estreme Alpi orientali italiane e Slovenia) alla diminuita nevosità ha contribuito in parte anche una certa riduzione delle precipitazioni invernali a lungo termine. La diminuzione delle quantità di neve fresca è più evidente sotto i 1000 m di quota, dove l’aumento di temperatura degli ultimi decenni ha in gran parte trasformato in pioggia le nevicate invernali. Alle quote superiori spesso le condizioni termiche sono ancora favorevoli al verificarsi di copiose nevicate, allorché si instaurino situazioni propizie a precipitazioni abbondanti, come avvenuto ad esempio nella primavera 2024. Tuttavia, anche quando nevica in quantità, spessore e durata del manto nevoso sono penalizzati dalle temperature medie in aumento, come segnalato da Matiu et al. (2021) in “Observed snow depth trends in the European Alps: 1971 to 2019” (vedi Newsletter n. 6 Anno 2021, pag 12). Mentre le tendenze delle precipitazioni complessive e delle temperature sono relativamente omogenee alle diverse quote delle Alpi, quella della neve fresca è fortemente dipendente dall’altitudine: nevica meno soprattutto alle quote di bassa montagna e in pianura, dove le temperature (di solito, durante le precipitazioni invernali, già vicine al punto di fusione degli 0 °C) sono un elemento molto critico per la conservazione dei fiocchi fino al suolo, e il marcato aumento termico degli ultimi decenni ha sempre più spesso trasformato in pioggia le nevicate, divenute ormai rare ed esigue in particolare nelle pianure del Nord Italia. Le variazioni di neve fresca sono invece deboli e statisticamente non significative in media-alta montagna, dove – almeno per ora – nonostante l’incremento di temperatura l’inverno rimane ancora sufficientemente freddo per produrre precipitazioni nevose. In alta quota l’abbondanza o meno delle nevicate è infatti controllata più dalle quantità di precipitazioni, che dalle temperature (fattore, quest’ultimo, meno critico, dati i valori di solito ampiamente sotto 0 °C in inverno). La diminuzione della neve fresca si è concentrata in gran parte nell’ultimo quarantennio di accelerato riscaldamento atmosferico. L’analisi ha mostrato che circolazioni atmosferiche associate a fasi negative degli indici NAO (North Atlantic Oscillation) e AO (Arctic Oscillation), dunque con vortice polare debole e maggiore propensione a depressioni e irruzioni di aria fredda verso Alpi e Mediterraneo, sono cruciali per sperimentare copiose nevicate a bassa quota. Peraltro la correlazione tra neve fresca, NAO e AO è divenuta più marcata nei decenni recenti, segno che le nevicate a bassa quota sono sempre più dipendenti dal realizzarsi di condizioni particolarmente favorevoli e per nulla scontate, mentre in passato “riusciva a nevicare” in configurazioni meteorologiche anche più marginali, date le temperature più basse (ad esempio, in Pianura Padana, anche durante gli episodi sciroccali miti, oggi quasi sempre apportatori di pioggia). Un limite del lavoro è l’ancora scarsa disponibilità di serie di misura secolari e continue di neve fresca sopra i 1000 m di quota, ma eventuali aggiornamenti dell’analisi nei prossimi anni potranno beneficiare dell’ingresso nel data set di nuove serie centenarie di misure di innevamento avviate con l’entrata in servizio di numerosi impianti idroelettrici sulle Alpi tra anni Venti e Trenta del Novecento. Questo conferma l’importanza della salvaguardia delle stazioni meteorologiche centenarie e del recupero delle loro preziose serie di dati per la valutazione dei cambiamenti climatici, come auspicato dall’Organizzazione Meteorologica Mondiale nel quadro del programma internazionale “Centennial Observing Stations”. Questo articolo scientifico segue a distanza di tre anni quello dedicato alle variazioni di spessore e durata del manto nevoso al suolo sulle Alpi (“Observed snow depth trends in the European Alps: 1971 to 2019”), pubblicato nel marzo 2021 sulla rivista The Cryosphere da un gruppo di lavoro coordinato da

Neve in diminuzione sulle Alpi: più del 30 % in meno in cent’anni  Leggi tutto »

Il clima che non ti aspetti

Articolo tratto dalla Newsletter n° 019 del 4 settembre 2024 “Il clima che non ti aspetti”, scritto da Andrea Giuliacci, è uscito in un’edizione aggiornata. I temi portanti restano quelli: il cambiamento climatico, l’evoluzione storica del clima e anche l’importanza dell’educazione, della comunicazione e della divulgazione per migliorare il domani dei nostri figli È uscita l’edizione aggiornata de “Il clima che non ti aspetti” di Andrea Giuliacci, Edizioni Ronca. Negli ultimi decenni le condizioni climatiche sono cambiate con velocità e modalità che sembrano non aver precedenti nella Storia, difficilmente spiegabili con normali cicli naturali. Un cambiamento drastico, che pone inquietanti quesiti anche riguardo al futuro: neve e ghiaccio abbandoneranno le Alpi? Faremo davvero lunghe crociere in un Polo Nord privo di ghiaccio? Cosa ne sarà di Venezia e tante altre città costiere? Nel libro “Il clima che non ti aspetti”, Andrea Giuliacci dà la risposta a queste e a tante altre domande, descrivendo innanzitutto i metodi utilizzati dalla Scienza per ricostruire il clima del passato e per prevedere quello del futuro, per poi raccontare come i cicli naturali e le azioni dell’Uomo abbiano modificato le condizioni climatiche nel corso degli ultimi millenni. Nel volume si trova anche una chiara spiegazione delle evidenze scientifiche che confermano le emissioni di gas climalteranti prodotte dalle attività umane quali principali responsabili del più recente cambiamento climatico osservato in Italia e nel Mondo, e quali siano quindi gli scenari più probabili per il prossimo futuro. Ma gli eventi meteo-climatici, si sa, condizionano anche la vita di tutti i giorni, e proprio per questo il libro, oltre a trattare le basi scientifiche del cambiamento climatico, dedica ampio spazio a come questo stia influenzando ambiente, cultura, società ed economia. In ultimo, un intero capitolo è dedicato alle strategie che mirano a combattere il cambiamento climatico, dalle politiche energetiche ai più innovativi progetti scientifici, passando per il ruolo fondamentale di educazione, comunicazione e divulgazione.

Il clima che non ti aspetti Leggi tutto »