Approfondimenti

Ok, voglio dedicarmi ai “modelli”: e adesso?

Patrizia Favaron Carta, penna, calamaio? Insomma, mica tanto. Oggi, “occuparsi di modelli” (che siano di dispersione in atmosfera, di circolazione a mesoscala, oppure dei sistemi Large Eddy Simulation, o chissà che altro) vuol dire, in concreto, passare una fetta della propria vita davanti ad un computer, scrivendo codice: il vecchissimo modo carta-penna-e-calamaio, oramai, credo si sia estinto da molti decenni. E comunque, obiettivamente, i computer sono molto comodi: quando non esistevano la gente ne faceva a meno, ma i calcoli della meteorologia dinamica o della micro-meteorologia doveva farli lo stesso: con un regolo calcolatore, o una calcolatrice da tavolo, magari direttamente a mano. Ma, avojja. “Usare un calcolatore per scrivere codice”, nel campo delle scienze dell’atmosfera, oggi vuol dire lavorare per lo più in Fortran: qualcosa si fa anche usando altri linguaggi di programmazione, ma davvero poco, e la mia impressione è che le cose resteranno a questo modo ancora a lungo, per le ragioni che dirò in seguito. Animo! “Ouch. Devo imparare il Fortran…” Lo si sente dire, o accennare con sguardi sconsolati, ancora oggi. Leggi in rete, e trovi di tutto, ricavandone per lo più l’impressione che imparare il Fortran invece, che so, di Python o C++, sia una condanna a morte, la strada certa a doversi rassegnare alla disoccupazione, o peggio. Che il Fortran è irriducibilmente e irrecuperabilmente vecchio, e che la sola lettura di un manuale che lo riguardi comporti la comparsa di numerosissime rughe. Chissà, forse per un programmatore le cose stanno davvero così. Ma la realtà è che la persona che si occupa di modellistica e usa il Fortran per scrivere codice non è un programmatore. Il mestiere del programmatore informatico è di realizzare applicazioni, sistemi operativi, algoritmi contabili, persino sistemi IA. Ma la maggior parte di queste attività, oltre alla necessità di scrivere codice, ha in comune altre cose interessanti: Quindi, la prossima volta che un amico nerd tenterà di sommergerti con un panegirico a favore di Rust, o di qualche altra novità informatica, potrai rispondere con un’alzata di spalle e dirgli “Ma mica sono una programmatrice, io.” E lasciarlo nel suo brodo a sbollire, o indurlo a cercare qualche altro programmatore con cui attaccare bottone e fare allegramente a cornate (non chiedetemi il perché, ma in quella comunità va spesso a finire così, e non solo tra i maschietti). Un addendum: quanto a me, l’ho scampata bella. Quando mi sono laureata in matematica i computer esistevano già. Persino quelli personali! Solo che, paragonati anche solo al più scarso dei cellulari di oggi, facevano davvero poco. E per ottenerne qualcosa di utile si doveva, di tanto in tanto, ricorrere all’Assembly, protagonista di horror stories anche più pittoresche di quelle che riguardano il Fortran. Al liceo, però, ricordo benissimo quando il nostro prof di matematica ci faceva tracciare per punti il grafico delle funzioni che ci aveva dato da studiare: “Sì, sì, derivate, minimi, massimi. Ma come fate a sapere che non avete sbagliato?” (In effetti…) Piccolo dettaglio: provaci, a determinare i valori di una funzione del tipo di “tanh(pi*x/exp(-sin(pi*x/4)))” con una calcolatrice: ti troverai più o meno nel mezzo della scena clou del film “Il diritto di contare”, in cui le signore del Reparto Ingegneria fanno i calcoli con assordanti calcolatrici elettromeccaniche, ai tempi in cui la parola computer designava un mestiere. Però, le storie dell’orrore che si trovano in rete sono sempre lì, e… Tutta una questione di spelling?! E, che dire. Spezzoni di codice come B = 0.0 IF(X-A) 10, 10, 20 10 B = A – X 20 B = -B proprio proprio belle, e comprensibili… Solo che questo non è il Fortran, ma il FORTRAN. Quello, per intenderci, di quando ero bambina io. Con le righe che cominciavano dopo sei spazi. Le etichette. Le linee di continuazione con un carattere non-spazio nella prima posizione. Gli IF aritmetici. Gli statement DATA, EQUIVALENCE, e robe così. Poi nel 1990 (in realtà un po’ prima) il linguaggio si è evoluto, ha abbandonato il “formato fisso” a favore del “formato libero” (però, se sei masochista, nulla ti impedisce di usare il formato fisso di una volta, o di piantarti il bisturi nella coscia come il Dottor Frankenstin se per quello). E questo, solo trentacinque anni fa! Negli anni successivi il Fortran è andato incontro ad una evoluzione relativamente rapida, che lo ha arricchito dell’estensione per la programmazione a oggetti, e di numerose novità legate per lo più alla programmazione parallela. Nel frattempo ha anche cambiato nome: da FORTRAN è divenuto Fortran (che qualcuno chiama Modern Fortran). Solo che molte persone della Vecchia Guardia (ehm, la mia…) non lo ha saputo. In effetti nessuno glie lo ha detto. E chissà, molte di loro ancora ricordano benissimo i tempi in cui per mettere le mani su un calcolatore dovevi essere, minimo minimo, professoressa ordinaria – ed anche in quel caso i Tecnici ti guardavano con un’espressione tra il preoccupato e il sospettoso. Non poche delle persone che si erano laureate a quei tempi hanno, poi, conservato il disgusto provato da cucciole e cuccioli per tutta la vita. Proprio mentre sto scrivendo queste righe, in parallelo (o insanità profonda del multitasking, e un accidente a colui che ha detto certe persone esservi più portate d’altre: la verità è che il multitasking nobilita chi non ne fa) sto scrivendo la prossima versione di un sistema eddy covariance in tempo reale, e, guarda un po’, sto usando il Fortran. Non su qualche polveroso mainframe dei tempi andati, ma su un “umile” Raspberry Pi 5 (‘nzomma, umile: surclassa da tutte le parti il Mitico CRAY X-MP del Cineca di Bologna, il supercomputer cui Pochissimi Eletti potevano accedere quando ero studentessa io – per inciso e doverosa completezza d’informazione, io no). Perché uso il Fortran? Potrei adoperare altri linguaggi (qualcuno lo conosco, Python, R, C/C++, persino un po’ di Rust), ed in alcune aree dello sviluppo del sistema certamente farei più in fretta. Ma, problema: un “sistema Eddy Covariance” non è un normale registratore di dati (per quello avrei

Ok, voglio dedicarmi ai “modelli”: e adesso? Leggi tutto »

Un mondo appena oltre…

Patrizia Favaron Oltre i nostri sensi, ma sempre qui Sentiamo spesso dire che il Mondo non si limita a ciò che il nostro sistema sensoriale (ed il cervello) ci permette di percepire. E noi, che ci occupiamo a vario titolo di meteorologia, siamo ben familiari con questo concetto dai risvolti non proprio piacevolissimi. Per esempio: il vento c’è, ma chi lo ha mai veduto? Con l’aria trasparente? E chi, invece, ne ha avvertita la presenza con il tatto? Specialmente quando è debole? Qualcuno o qualcuna più esperta di me in biologia evoluzionistica potrebbe aggiungere del suo, e dire che certo, i nostri sensi si sono evoluti molto, ma non per farci scrivere dei bellissimi paper accademici. Se mai, per scovare prede, allevare e proteggere cuccioli, trovare un compagno o una compagna, eccetera – la meteorologia, in effetti, è venuta “un po’” dopo, giusto qualche manciata di milioni di anni… Lungi da me voler ribattere qualcosa al riguardo: l’è minga el me mestée. Non è il mio mestiere. Però, posso forse fare qualcosa di più diretto – meglio, non lo so: giudicherete voi. Mostrandovi un aspetto della realtà che non riusciamo a cogliere con la vista o qualche altro modo, senza un aiutino: il mondo, osservato nel campo dell’infrarosso termico. L’immagine che vediamo rappresenta in particolare la temperatura radiometrica (l’ho ottenuta con una termocamera di quelle “professionali ma non da ricerca” – di più non potevo permettermi 😊 – e macchine di questo tipo sono usate di solito nei cantieri e negli impianti per localizzare punti caldi o freddi, e cose così: l’impiego “in Natura” non credo fosse stato preventivato dal loro costruttore). E già in questo modo ci rivela un aspetto che non solo non potevamo vedere, ma neanche immaginare: non solo esistono dei gradienti termici tra un punto e l’altro della superficie terrestre, ma questi sono molto grandi. Quello in figura è ancora, tutto sommato, modesto. Ma immaginiamoci d’essere uno di quegli insemini che passano la loro vita al riparo delle cortecce: l’ambiente che li ospita può passare dall’essere un frigorifero ad un forno nel giro di un centimetro, a volte meno. Il “gradiente”, lo ricordo qui per chi non abbia molta dimestichezza con queste cose, è il rapporto tra la variazione di una grandezza (la temperatura, nel nostro caso) e della lunghezza lungo la quale questa si verifica. Magari la differenza tra le due temperature, massima e minima, non sembra grandissima. Ma se la misuriamo lungo una distanza piccolissima, di un centimetro o pochi millimetri, il gradiente fa più che in fretta a esplodere! Isole di calore, ed altre cose così Il fenomeno dell’isola di calore, la differenza di temperatura che c’è tra i centri urbani e le aree rurali vicine, è conosciuto ormai da tutte e tutti noi, non foss’altro che per abitudine. Sfinimento, direi quasi. E molto se ne è scritto, per grandi e piccoli (io, che a volte mi sento un po’ bimba, ho apprezzato molto questa descrizione). Ma, potremmo anche vederla, avessimo una vista abbastanza acuta e “generalista”? Patti, ma che razza di domanda del tubo: In sintesi: certo che sì, e persino a piccolissima scala! La superficie coperta dalla figura qui sopra non arriva ai 4 metri quadri. E già dentro questa briciola di superficie vediamo un’isola di calore, minuscola, estremamente ben marcata. La stessa cosa capita, se confrontiamo un’intera città con la campagna circostante. E volendo, persino dentro la stessa città! Le aree costruite tendono ad essere impermeabili, e così, necessariamente, tutta l’energia che in condizioni naturali sarebbe finita in atmosfera come calore latente (evaporazione, in pratica), vi verrà riversata come calore sensibile (aumento di temperatura percepita). Ma le superfici artificiali non sono mica tutte uguali: Un climatizzatore naturale “Meraviglia.” Cammini in mezzo alla Natura, persino quella addomesticata di un parco, e la sensazione che provi non può che trovare la sua sintesi definitiva in una sola parola: meraviglia. Non c’è che dire, comunque: quella che riempie i nostri occhi e le nostre menti è, comunque, una meraviglia molto attiva. Pochi decimi di secondo, così ho letto. Tanto basta alle piante per orientare (se possono) le loro foglie verso il Sole, e per girare i cloroplasti in modo che si espongano in modo ottimale alla luce. Altrettanto, non più, per aprire o chiudere gli stomi, quelle minuscole bocchine che, a migliaia, si trovano per lo più sulla pagina inferiore delle foglie, e permettono alle piante di regolare la propria permeabilità all’acqua (ed all’ossigeno, all’anidride carbonica, …). Permeabilità, perché. Le piante sono, in effetti, le principali attrici del processo di evapotraspirazione. Lo regolano, a loro beneficio. Su scale così grandi, da modificare il funzionamento dell’atmosfera. Fanno per sé, ed anche per noi, animali, adattati nei milioni di anni all’ambiente creato dalle piante. Lo studio del comportamento delle piante in presenza (o meno) di radiazione solare è, davvero, affascinante. Un intreccio strettissimo tra Fisica solare, Fisica dell’atmosfera, Fisiologia, Ecologia degli ecosistemi. È uno degli argomenti in cui più facilmente vediamo al lavoro le connessioni nascoste in piena vista del sistema-Terra. E gli strumenti ci permettono di coglierle meglio. Nel modo più diretto. Chiudo qui, accennando solo al fatto che colleghi e colleghe attivi nel campo della micro-meteorologia le termografi le usano in modo sistematico, e che molte di loro finiscono in paper accademici e altre pubblicazioni (cercate, e troverete 😊). Grazie per l’attenzione, e, intanto, grazie alla Tecnica che ci permette di vedere più lontano!

Un mondo appena oltre… Leggi tutto »

Flussi verticali di... Di tutto: nutrienti, energia. La conseguenza più evidente del conoscere il vento nella direzione verticale.

La velocità verticale del vento: c’è, ma non si dice…

Patrizia Favaron Il vento: un vettore a tre dimensioni Lo spazio ordinario si descrive usando tre dimensioni. Il “vento” è il vettore velocità del flusso di aria. Quindi anche il vettore vento ha tre dimensioni. Le due dimensioni orizzontali le conosciamo: possiamo ricavarle dalla velocità e dalla direzione, una volta che ci mettiamo d’accordo sul sistema di riferimento. E la terza, quella verticale, dov’è finita? La risposta è facile: se usiamo un anemometro “bi-dimensionale”, come quello in figura (per la cronaca, un Davis 7905 a coppe e banderuola), l’abbiamo ignorata. Buttata via… 🫣 Ragioni per un’omissione La velocità verticale di solito non si misura, perché si da per scontato che il suo valor medio è nullo. Affermazione che, se si seguono pedissequamente le indicazioni del Rapporto CIMO-WMO, posizionando cioè l’anemometro in cima ad un palo di 10 metri su un terreno piatto ed uniforme, e praticamente in assenza di ostruzioni importanti al vento, allora ci siamo: un anemometro a coppe e banderuola, grazie alle sue inerzie meccaniche, si comporta come un filtro passa-basso e così approssima il vento medio. Abbiamo detto che la sua componente verticale è praticamente nulla, e così siamo tutte contente, e tutto funziona benissimo: non c’è nulla da misurare. A questa ragione, un po’ teorica, se ne aggiunge una molto più pratica: in molte applicazioni il vento verticale non interessa più di tanto. Un esempio, tanto per capirci, è il trasporto a distanza di un rilascio tossico. In casi come questo non mi importa nulla se la “nube tossica” sale o scende (la immaginerò sempre rasente al suolo, in caso peggiore). Però, desidero sapere esattamente dove va a finire con il passare del tempo. Se solo le cose fossero semplici come sembrano… Restiamo sul pratico. Uno dei capisaldi della decarbonizzazione è l’adozione di fonti di energia rinnovabili, e tra queste l’energia eolica. (Magari ci torneremo in un prossimo articolo.) Un’ipotetica compagnia investitrice nel campo dell’energia eolica dovrà, così, assicurarsi in anticipo (e garantirlo alle banche) che l’investimento sia redditizio, e cioè che i ricavi siamo maggiori dei costi per una differenza maggiore dell’interesse che si sarebbe portato a casa mettendo quegli stessi soldi in banca o comprando titoli di Stato. I ricavi dipendono da quanto vento “pregiato” ci si può aspettare (argomento affascinante in sé). I costi, invece, sono dovuti ai costi d’investimento, eventuali imposte, e costi di manutenzione. Sin qui, tutto intuitivo: la decisione se investire o no parrebbe poterla prendere chiunque, purché avesse una gran quantità di denaro a disposizione. Ai costi di manutenzione va però aggiunto un dettaglio. Come tutti i manufatti, le turbine eoliche sono coperte da una garanzia. Questa, come tutte le garanzie, prevede clausole che tutelano la ditta che ha costruito le turbine da errori d’impiego da parte dell’acquirente. E tra gli errori, l’installazione in un sito inadatto. Cosa si intenda per inadatto, dipende dalla tecnologia della turbina, dal modello, dalle dimensioni, e da una miriade di fattori. Posso dire che “inadatto” qui non vuol dire “improduttivo” (una turbina installata in un luogo dove non c’è vento non si guasterà mai: si usurerà, nei secoli, come fanno tutte le sculture esposte all’aperto), ma in cui le caratteristiche geografiche e del vento influiscono sull’affidabilità della turbina. Una delle caratteristiche del vento presa in considerazione è il suo “angolo medio rispetto al piano orizzontale”. Le turbine (del tipo ad elica, direi) vengono montate con l’asse del rotore posto quasi sul piano orizzontale (la differenza, minima, serve per ragioni meccaniche legate ai complicati meccanismi di riduzione). La “navicella” che sostiene il rotore può ruotare lungo l’asse verticale, così da permettere alla turbina di inseguire il vento (o addirittura, nei modelli più recenti, di “aspettarlo”: il sistema di controllo di alcuni parchi eolici è dotato di un LIDAR che misura il vento a distanza, prima che raggiunga le turbine, così da permettere a queste di prepararsi per tempo ad accoglierlo). Questo schema di progetto da per scontato che il vento investa la turbina perfettamente di fronte. Ma se il vento avesse una componente verticale molto diversa da zero? Nel caso, investendo le pale dal basso, o dall’alto, il vento indurrebbe sforzi e vibrazioni enormi (le pale possono essere lunghe decine di metri), che alla lunga potrebbero indurre quelle che ingegnere ed ingegneri chiamano “rotture a fatica” che, a loro volta, possono causare danni catastrofici. Una clausola tipica, allora, prescrive che il vento non possa deviare dal piano orizzontale per più o meno di 7° e 30′. Come si fa a garantire che una cosa del genere non accada? Di regola, per via modellistica: le deviazioni del vento dal piano orizzontale dipendono molto dalla topografia, e dalla distanza dal suolo del rotore: due aspetti controllabili – è per questo che molto raramente vedrete una pala eolica installata sul fianco di una collina. Ma questo nel caso di impianti eolici di grande taglia. Quelli piccoli e minuscoli, diciamo dai 100 kW in giù, sono esposti ad altre sorgenti di vento non orizzontale, come per esempio la presenza di ostruzioni sopravvento, o cambi nella rugosità aerodinamica superficiale (che so, l’alternarsi di colture alte come il mais e masse come la soia), ed altre “inezie” micro-meteorologiche. Ora: se un impianto si guasta in modo catastrofico, tale da richiedere un intervento costosissimo come per esempio lo smantellamento di una turbina guasta e la sua successiva sostituzione, possiamo scommettere che prima di riconoscere la garanzia, la ditta costruttrice delle turbine farà le sue valutazioni e, in caso di dubbio, avvierà un’indagine. Uno degli argomenti che cercherà di verificare è l’impossibilità del Cliente di dimostrare che il vento non devii mai di più o meno di sette gradi e mezzo dall’orizzontale. Perché, stando così le cose, potrà tentare di far valere la clausola di esclusione dalla garanzia. Se riuscisse, con ogni probabilità per la ditta investitrice sarebbe un colpo durissimo, se non la fine. Quanto è facile, per una compagnia costruttrice, dimostrare l’incapacità della ditta investitrice? Dipende molto da quanto sono smaliziate le compagnie investitrici, cioè, in ultima analisi, dal

La velocità verticale del vento: c’è, ma non si dice… Leggi tutto »

L'X-15 in volo

Oltre l’Atmosfera

Patrizia Favaron Premessa Che lo spazio esterno fosse “interessante”, che oltre l’atmosfera vi fosse qualcosa da studiare ed esplorare, lo avevano intuito non pochi ormai più di un secolo fa – i nomi di Hermann Julius Oberth, Konstantin Eduardovic Ciolkovsky e Robert Goddard stanno lì a dimostrarlo. Ed i primi esperimenti di missilistica mostrarono come, in fondo, fosse possibile portare dei manufatti sin lassù. Manufatti, sì, ma persone? La cosa era un po’ più difficile, soprattutto perché insieme ad esse era (è) necessario spedire nello spazio anche quintali di sistemi di sostentamento della vita, scudi termici, schermi antiradiazioni, acqua, ossigeno, provviste… A dire il vero, qualcuno si era spinto molto in alto a bordo di aerostati progettati per le altissime quote: Auguste Piccard aveva superato i 16km, ed i voli “Osoaviakhim-1” (Unione Sovietica) ed “Explorer II” (Stati Uniti) avevano raggiunto rispettivamente 22 e 22.1km. Ma dirlo “spazio”, sarebbe un po’ improprio: dopotutto un aerostato ha bisogno di un mezzo entro il quale galleggiare, cioè, aria. Potrà spingersi molto in alto, ma dovrà comunque rimanere nell’atmosfera. In base ad una convenzione piuttosto condivisa, lo spazio vero e proprio inizia alla quota della “linea di Karman”, a circa 100km sopra il livello medio del mare. Cento chilometri che sono un niente rispetto al raggio terrestre (circa 6366km), ma, animali terragnoli come noi umani devono fare una bella fatica per arrivarci. E non che il viaggio sia di per sé privo di pericoli. Con l’aumento della quota la pressione dell’aria diminuisce progressivamente, sin praticamente a svanire. Alla quota del Monte Everest, 8488m, l’aria è già così poca che sopravvivervi per anche solo qualche ora richiede un allenamento estremo (che spesso neanche basta). Non solo: la temperatura, così confortevole (‘nzomma… 🤦‍♀️) presso il suolo, scende molto, e già alla quota tutto sommato modesta dei voli di linea ha un valore dell’ordine di -50 °C. Insomma: renderci conto per esperienza diretta personale, a pelle, della presenza di strati di atmosfera con proprietà diverse fuori dalla nostra portata non è cosa indolore, e può avvenire con fatica solo grazie a strumenti come le radiosonde portate in quota dai palloni meteorologici. L’immagine qui sopra la conosco bene. Eppure, tutte le volte che la riguardo non posso fare a meno di provare un senso, insieme, di timore e di meraviglia: l’atmosfera, tutta, quella nella quale abitiamo, è davvero una pellicina sottilissima. Cento chilometri… Se la Terra fosse ridotta di colpo alle dimensioni di una palla da basket, l’atmosfera sarebbe spessa … Spessa quanto? Per scoprirlo basta che facciamo una semplice proporzione: 100 km : 6366 km = X cm : 12 cm e cioè, X = 0.1885 cm. Neanche due millimetri. E la nostra cara troposfera, con i suoi 10 km di spessore, non arriverebbe a due decimi di millimetro. (Sarà il caso che di questo staterello ci prendiamo molta cura: non abbiamo altro posto dove andare…) Un’epopea quasi dimenticata La conquista umana dello spazio, così come l’ho definito, non è avvenuta nel 1961 con la storica missione di Yuri Gagarin. A lui, eroe avanguardista, il merito di aver compiuto il primo volo orbitale (su una capsula che i piloti collaudatori di questi tempi non faticherebbero a definire una cassa da morto). Ma la nostra storia comincia nel 1959, con l’avvio del programma X-15 (la progettazione era iniziata alcuni anni prima). Programma di ricerca e sviluppo, che si protrarrà sino al 1967, ben dentro l’”era spaziale” intesa nel modo comune. Ma cos’era l’X-15? Ecco, più o meno una roba così: Eccolo, qui sopra. In apparenza un “aereo”, con impostazione di tipo monoplano, monoposto, con propulsore a razzo. Come operava? Veniva agganciato al pilone dell’ala dell’aereo-laboratorio della NASA, un B-52 modificato, che si occupava di portarlo in quota – il consumo di carburante negli strati più bassi dell’atmosfera sarebbe stato talmente elevato da rendere impossibile un decollo da terra. All’inizio della missione, una volta raggiunta la quota prevista, l’X-15 veniva sganciato. Un esemplare di X-15-2, pochi secondi dopo lo sgancio dal B-52 della NASA (operato dalla USAF); si notino i due enormi serbatoi supplementari. Qualche secondo dopo, perduta un poco di quota e raggiunta la distanza di sicurezza, il pilota accendeva i motori a razzo, e l’X-15 accelerava mentre una ripida cabrata gli faceva guadagnare velocemente quota. Raggiunta la quota di picco, che in alcune missioni raggiungeva o si avvicinava molto ai 100 km dal suolo, picchiava e riguadagnava l’atmosfera più densa, e planando come un aliante raggiungeva la base di destinazione, un lago salato presso la base di Edwards (od una delle altre località designate in caso di emergenza). A dirla così sembra una cosa quasi facile. Ma, come spesso accade, sono i dettagli la parte più allarmante dell’intera storia. Intanto. Per risparmiare peso, l’X-15 disponeva di un carrello anteriore ma non di un carrello posteriore. Al momento dell’atterraggio sganciava la parte inferiore della coda, e toccava il suolo su due pattini. Un’impresa così, però, non puoi compierla sulla pista di un normale aeroporto, o in un prato, o su un’autostrada. Le missioni così dovevano terminare sulla superficie di un lago salato non lontano dalla base USAF di Edwards, in California. Certo, come da tradizione NASA esistevano diversi punti di atterraggio alternativi da usare in caso di “abort” della missione. Ma non era il caso di provarci… Un airframe avveniristico… Con gli occhi di una persona nata negli anni ’60 del secolo scorso, l’X-15 ricordava un aeroplano realmente utilizzato (e, a questo mi dicono, piuttosto famigerato): l’F-104. Ali molto corte, profilo molto allungato, adatto al volo in regime supersonico e, nel caso dell’X-15, ipersonico. La somiglianza esteriore, però, si fermava alla superficie. Progettato per raggiungere e superare velocità superiori a Mach 6, l’X-15 doveva essere in grado di resistere alle tremende temperature incontrate nei momenti di massima velocità. E infatti: la superficie esterna era realizzata in Inconel, una lega aeronautica di pregio in grado di conservare buone proprietà meccaniche anche ad alta temperatura. L’abitacolo, in alluminio, era separato dalla struttura della fusoliera, così da garantire al pilota

Oltre l’Atmosfera Leggi tutto »

Aumento delle depressioni estive sull’Atlantico nord-orientale

Articolo tratto dalla Newsletter n° 021 di marzo 2025 In Europa occidentale il clima si sta riscaldando con particolare rapidità. In Francia, ad esempio, le temperature medie giornaliere dal 1950 al 2022 mostrano un aumento di oltre 1,5°C a causa del cambiamento climatico. Le temperature massime giornaliere invece sono aumentate da due a tre volte in più rispetto alla media globale e le heatwaves sono in aumento (Ribes et al 2022, Vautard et al 2023). Le proiezioni climatiche indicano un aumento delle temperature estreme in Europa occidentale, ma solo pochi degli attuali modelli catturano l’ampiezza di questo fenomeno. Ovviamente, il semplice aumento della temperatura media, a causa del cambio climatico antropico, rende gli estremi più frequenti. Ma ci sono sempre più indizi che fanno pensare che questo riscaldamento in eccesso sia legato in qualche misura anche a cambiamenti nella circolazione atmosferica. Vautard et al (2023) ha suggerito che pattern di pressione che favoriscono flussi di vento da sud e condizioni anticicloniche sull’Europa siano in aumento, portando a temperature elevate. Per esprimere il concetto in termini semplici, la questione principale che si pone è la seguente: perché le heatwaves stanno aumentando? È dovuto all’innalzamento della temperatura media, il che fa sì che una certa soglia di temperatura venga superata più frequentemente? Oppure è il risultato di un aumento delle condizioni meteorologiche che portano ad heatwaves, come anomalie anticicloniche tipo blocking atmosferici o persistenti configurazioni di vento da sud? Con un leggero abuso di linguaggio, queste due spiegazioni sonocomunemente denominate effetto termodinamico e effetto dinamico. È chiaro che questi due elementi non sono indipendenti, ma rappresentano piuttosto paradigmi opposti, e la verità sarà probabilmente una combinazione di entrambi. In questo studio, si è utilizzato un algoritmo per identificare e caratterizzare le depressioni profonde nell’Atlantico e in Europa durante l’estate, analizzando la loro evoluzione nei dati storici e nei modelli climatici. L’obiettivo è comprendere meglio il loro legame con le heatwaves, un aspetto finora poco studiato. Si sono usati dati della Rianalisi ERA5, e dati prodotti dai modelli partecipanti al progetto CMIP6. L’algoritmo è molto semplice: percorre la regione euro atlantica con quadrati di 15°×15° in latitudine e longitudine. All’interno di ogni quadrato, individua il minimo di altezza geopotenziale a 500 hPa, e poi applica un criterio di scala spaziale e un criterio di profondità di almeno 110 m rispetto ai margini circostanti (vedere l’articolo originale per tutti i dettagli). Se un minimo di questo tipo viene trovato nel quadrato per un certo giorno, allora si attribuisce una depressione profonda (deep depression, DD) al centro del quadrato per quel giorno. Risultati principali dello studio L’analisi delle depressioni profonde nella regione euro-atlantica è riassunta nella Figura 1. Come si vede, il numero medio di giorni con DD (DD-day) per la stagione estiva è massimo lungo una banda che va approssimativamente dall’est del Canada alle isole britanniche. In effetti l’algoritmo di conteggio delle depressioni ritrova la classica stormtrack estiva media. Si vede anche un trend positivo e statisticamente significativo a est-sudest del massimo di stormtrack, mentre un trend negativo si registra lungo la costa orientale del Nord America. L’aumento di DD-day nei 73 anni analizzati è considerevole: porta quasi a un raddoppio del loro numero nelle aree di massimo trend. Nella Figura.2 si analizza un po’ più in dettaglio l’area di forte trend positivo, indicata con il rettangolo verde in Figura1. Nel panello a si ritrova il forte aumento di DD-day visto in Figura1 e la sua variabilità interannuale. Il numero medio di DD‐days per estate è passato da 7.6 nel periodo 1950–1974 a 12 nel 1998–2022. Le mappe composite delle anomalie di temperatura (pannello b) mostrano che le depressioni nell’atlantico orientale sono accompagnate da temperature elevate in Europa centrale e occidentale, con un pattern simile a quello tipicamente osservato durante le ondate de calore (vedi Stefanon et al 2012). Un aspetto cruciale dello studio riguarda l’incapacità degli attuali modelli climatici globali (CMIP6) di riprodurre le tendenze osservate nelle depressioni profonde. Nessuno dei 20 modelli analizzati è stato in grado di simulare l’aumento nell’Atlantico orientale, e molti sottostimano il numero totale di DD-day. I trend lineari dei modelli, calcolati con lo stesso metodo utilizzato per ERA5, sono riportati in rosso sul pannello a. Discussione Questi risultati, tutto sommato semplici, ci portano ad una serie di considerazioni. In primo luogo, perché i DD-days portano alte temperature in Europa? Molto rimane da investigare sul legame tra heatwave e depressioni. Le recenti heatwaves (come quelle di luglio 2022 e giugno 2019) sono state associate a cicloni persistenti nella regione atlantica orientale, suggerendo una spiegazione semplice che coinvolge l’avvezione di temperature provenienti da sud sul lato orientale del ciclone. Tuttavia, non bisogna dimenticare che le depressioni, o le cut-off lows, non sono le uniche responsabili delle ondate di calore: anche i sistemi di alta pressione persistenti, come il blocking atmosferico, sono molto comuni in Europa occidentale, e questi sistemi interagiscono con le cut-off lows: le depressioni nella media troposfera riscaldando la colonna atmosferica, potenzialmente favoriscono o rinforzano un blocco sul loro lato est. Un’alta pressione sull’Europa continentale ha un effetto di riscaldamento locale per subsidenza, ma potrebbe a sua volta anche rallentare i sistemi di bassa pressione nell’Atlantico orientale, rendendoli più persistenti. Inoltre, gli effetti diabatici nella zona frontale a est di un ciclone (il warm conveyor belt) possono fornire aria calda al blocco, amplificandolo. Un altro punto che resta da capire è la ragione fisica dell’aumento di queste depressioni. Si tratta di variabilità naturale della circolazione delle medie latitudini o di un segnale causato da una forzante su larga scala? Ed è di origine naturale o antropica? Nell’articolo originale si trova une descrizione dinamica del fenomeno, ma che resta parziale. In breve, mentre il riscaldamento della superfice continentale americana potrebbe spiegare una diminuzione del jet-stream e della stormtrack nell’Atlantico occidentale, l’aumento dell’attività nell’Atlantico orientale è meno chiaro. L’incremento della baroclinicità in questa zona è dovuto a un aumento del wind-shear associato a uno spostamento del jet verso sud-est, ma il legame causale con l’aumento dei cicloni nella

Aumento delle depressioni estive sull’Atlantico nord-orientale Leggi tutto »

Applicazioni di strumentazione autonoma per la misurazione delle caratteristiche fisiche dell’oceano polare

Articolo tratto dalla Newsletter n° 021 di marzo 2025 La conoscenza e comprensione dei fenomeni che avvengono nel mare è sempre limitata da un fattore determinante: il mare è in continua evoluzione e quindi cambia il suo stato nel tempo e nello spazio. Questo è da sempre un cruccio per gli oceanografi che, dagli albori di questa scienza, cercano di inventarsi metodi e strumenti che possano ovviare ai limiti imposti dalla vastità dell’oceano. La sfida è ardua e l’oceano rimane ancora inesplorato e con fenomeni poco chiari e non descritti a sufficienza. L’avvento dei satelliti ha permesso di ottenere una conoscenza approfondita dei processi che interessano gli strati più superficiali ma, ahinoi, il satellite non vede in profondità. E a volte è proprio lì, negli abissi, che sono custoditi molti dei segreti che l’oceano conserva. La tecnologia sta facendo balzi da gigante nel campo delle misure oceanografiche e siamo giunti ad utilizzare dei veri e proprio droni marini che, in completa autonomia, solcano gli oceani misurando i parametri fondamentali che caratterizzano l’ambiente marino. Tra i precursori di questa nuova era della esplorazione marina, ci sono sicuramente gli strumenti denominati Argo Float. Argo è il progetto internazionale (https://argo.ucsd.edu/) che ha come scopo finale l’osservazione su scala globale delle principali caratteristiche fisiche dell’oceano dalla superficie fino a 2000 m di profondità. Il nome Argo è stato scelto per la collaborazione con il programma satellitare di osservazione terrestre Jason, cha ha lo scopo di studiare la forma della superficie oceanica (nella mitologia greca, Giasone – Jason – navigò sulla sua nave Argo alla ricerca del vello d’oro). Iniziato alla fine degli anni ‘90, il programma prevede la copertura di tutti gli oceani con almeno 4000 strumenti che funzionano in modo quasi sincrono e tale da fornire una visione quasi sinottica della struttura verticale del campo di temperatura e salinità. Nella figura 1 è rappresentata la mappa in cui sono riportate le posizioni di tutti gli Argo float attivi e che hanno trasmesso una posizione e i profili misurati alla data della mappa. Come funzionano gli Argo float La natura molto spesso fornisce delle soluzioni a problemi che possono sembrare complessi. Gli Argo float, autonomamente, affondano e risalgono e, una volta in superficie, grazie alla trasmissione satellitare, inviano i dati ai centri di raccolta sulla terra. Ma come è gestito in autonomia lo spostamento verticale? Si riproduce in sostanza il comportamento dei pesci che variano il volume della vescica natatoria per spostarsi da una profondità ad una superiore/inferiore. L’Argo float ha una sua vescica che può essere gonfiata o sgonfiata facendo variare di conseguenza il volume dello strumento. Il volume è legato alla densità attraverso la relazione: densità=massa/volume. Pertanto, se la vescica del float aumenta di volume (si pompa dell’olio presente in un circuito interno) la densità diminuisce e viceversa. Se la densità dello strumento è minore di quella dell’oceano, il float ha un moto ascensionale, se invece avviene il contrario (densità dello strumento maggiore di quella dell’oceano) lo strumento affonda. Un sensore di pressione regola la profondità massima che il float può raggiungere (definita come parking depth posta di solito pari a circa 1000 m). Quindi, arrivati sul punto di rilascio, il float è pronto per immergersi e, lanciato in acqua (passo 1 in figura 2a), affonda fino alla profondità di 1000 (passo 2 in figura 2a) e rimane a questa profondità per 10 giorni trasportato dalla corrente (passo 3 in figura 2a). Scaduti i 10 giorni, lo strumento fa un ulteriore tuffo fino a 2000 m (passo 4) da dove comincia la risalita fino in superficie (passo 5), misurando temperatura e salinità dell’oceano. Raggiunta la superfice, attende il passaggio di un satellite della costellazione Iridium (passo 6), trasmette i dati raccolti e si immerge nuovamente (passo 7). Lo schema del ciclo di lavoro è rappresentato in figura 2 ed è ripetuto dallo strumento fino a quando le batterie lo consentono. Tra i risultati più significativi ottenuti da questi strumenti c’è sicuramente la misura del contenuto di calore dell’oceano da 0 a 2000 m che ha messo in evidenza come l’oceano abbia assorbito più del 90% del calore in eccesso prodotto dal riscaldamento globale del pianeta (figura 2b). Applicazione degli Argo float nell’oceano polare Nonostante un potenziale davvero straordinario e quindi le possibilità di osservare l’oceano come mai successo in passato, un notevole gap conoscitivo persiste nell’esplorazione marina specialmente degli ambienti polari. I poli rappresentano un laboratorio straordinario per conoscere la storia climatica del nostro pianeta e per cercare quindi di intuire il futuro; rispondono molto più rapidamente ai cambiamenti climatici e hanno il potenziale di creare cambi repentini dello stato climatico del nostro pianeta (Schmidt e Hertzberg, 2011). Da ormai un trentennio, il Programma Nazionale di Ricerche in Antartide (PNRA), è impegnato anche nello studio dell’oceanografia del Mare di Ross. L’importanza di questo bacino costiero del continente antartico è legata alla produzione di una massa d’acqua relativamente salata e fredda (Orsi e Wiedrwhol, 2008) che costituisce una frazione significativa del volume totale delle acque più dense del pianeta che, a loro volta, alimentano la grande circolazione termoalina del pianeta (Rahmstorf, 2003). Nel corso degli anni, le campagne estive condotte nell’ambito del PNRA hanno permesso di descrivere nel dettaglio i processi di formazione di queste acque salate e attraverso ancoraggi fissi di strumentazione, è stato possibile misurare la variabilità nel corso dell’anno ma solo in pochi punti del mare di Ross e a quote prestabilite (Castagno et al., 2019). Poco o nulla è noto riguardo la variabilità dei principali parametri fisici lungo la colonna d’acqua durante il periodo invernale, quando il mare di Ross è ricoperto dal ghiaccio marino. In questo periodo, nessuna nave da ricerca può raggiungere queste aree e i satelliti ovviamente non vedono la superficie del mare ma misurano solo la copertura del ghiaccio marino. Nel 2020, i ricercatori presenti a bordo della nave italiana Laura Bassi, in collaborazione con i colleghi dell’Istituto di Oceanografia e Geofisica Sperimentale di Trieste (OGS) che gestiscono sul fronte italiano il programma Argo,

Applicazioni di strumentazione autonoma per la misurazione delle caratteristiche fisiche dell’oceano polare Leggi tutto »

Meteo e scienza dietro Twister (1997)

Negli ultimi mesi, gli Stati Uniti hanno affrontato una serie di tornado devastanti che hanno causato danni significativi e vittime in diverse regioni. Solo nell’ultimo mese, circa 90 tornado hanno colpito il Midwest, con particolare intensità negli stati dell’Arkansas e del Missouri. Questi eventi estremi sono una manifestazione dell’enorme energia atmosferica in gioco nelle dinamiche meteorologiche della regione. I tornado, noti anche come trombe d’aria, sono vortici d’aria in rapida rotazione che si estendono dalla base di un temporale fino al suolo. Si generano quando masse d’aria calda e umida si scontrano con aria fredda e secca, innescando potenti correnti ascensionali. La rotazione può essere favorita dalla presenza di un wind shear, ovvero una variazione della velocità e della direzione del vento con la quota. Per misurare l’intensità di questi fenomeni si utilizza la scala Fujita (o Enhanced Fujita Scale, nella sua versione aggiornata), che associa la velocità del vento ai danni provocati al suolo. I tornado più intensi possono raggiungere velocità superiori ai 300 km/h, con effetti devastanti su edifici e infrastrutture. Negli Stati Uniti, la Tornado Alley – un’area che comprende Texas, Oklahoma, Kansas e Nebraska – è la regione più colpita da questi fenomeni a causa della forte convergenza di masse d’aria contrastanti. Il film Twister (1997) ha portato sul grande schermo la caccia ai tornado, affascinando il pubblico con effetti speciali all’avanguardia e una narrazione coinvolgente. La pellicola segue un gruppo di cacciatori di tempeste che cercano di studiare i tornado attraverso un dispositivo chiamato Dorothy, ispirato al vero progetto TOTO (Totable Tornado Observatory), sviluppato nei primi anni ’80. Sebbene TOTO non abbia mai raccolto dati significativi, il film ha aumentato l’interesse del pubblico sulla ricerca meteorologica e sulla necessità di migliorare le previsioni di questi eventi estremi. Tuttavia, alcune scene del film presentano un’immagine esagerata della realtà: Nonostante alcune licenze cinematografiche, Twister ha contribuito a diffondere la cultura meteorologica e ha ispirato molti a intraprendere carriere nella fisica dell’atmosfera o nella caccia ai tornado. Inoltre, ha incrementato la consapevolezza pubblica sull’importanza di adottare misure di sicurezza in caso di emergenza. Nel 2024 è uscito il sequel, Twisters, con nuove scene spettacolari e tecnologie aggiornate per lo studio dei tornado. Sebbene l’elemento spettacolare rimanga preponderante, il film offre alcuni spunti di riflessione sulle moderne strategie di previsione e analisi di questi fenomeni estremi. Una cosa è certa: la fascinazione per i tornado continua a essere forte, sia nella realtà che nella finzione.

Meteo e scienza dietro Twister (1997) Leggi tutto »

Realtà e parole: un rapporto magari non facile, ma, vitale

Patrizia Favaron Antefatto Realtà e parole: Se non ti piace il giallo, puoi sempre dire che si chiama viola. Magari, se hai abbastanza follower, qualche altra persona si aggiungerà a te e dirà qualcosa del tipo “In effetti sembra giallo, ma è viola! Che cucù che sono, a non averlo notato io prima!” Intanto il giallo, pervicacemente, resterà giallo. Certo, dirà qualcuno, in fondo è tutta una questione di definizioni, e chiamare qualcosa di percettivamente complicato come “giallo” oppure “viola” è una mera convenzione. Magari, nei nostri cervelli, lo stesso colore evoca sensazioni diversissime e non confrontabili, oppure … Intanto, sottoposto ad un’accurata misura di frequenza, il colore di un limone rimane esattamente quello di prima, indipendentemente da come io, o un’ipotetica maggioranza, lo voglia chiamare. Il mondo fisico è fatto così: di duri fatti. Se i fatti sono “spiacevoli”, negarli o non nominarli non ne sposterà di un millimetro il peso. Di questi tempi, la notizia non vi sarà sfuggita, negli States l’attuale amministrazione ha bandito dai documenti ufficiali una lunghissima lista di parole e locuzioni. Tra queste, “Climate Change”. Sperando, immagino, che non parlandone ufficialmente il cambiamento climatico smetterà di far guai. L’atteggiamento mi ricorda quello di un gruppo di bimbe e bimbi piccoli che avevo veduto giocare a nascondino qualche tempo fa: si celavano dietro alberelli sottilissimi, cuccioli di piante che fatte le debite proporzioni di età erano più piccoli di loro e, non vedendo da lì gli altri e le altre, credevano di essere nascosti. Quando, invece, erano praticamente in piena vista. (La versione trumpiana di questo atteggiamento è ancora più radicale: per nascondersi sarebbe sufficiente mettersi la mano davanti agli occhi, e, voilà! Tutti i problemi, e i TIR fermi al semaforo davanti alle strisce pedonali, scompaiono, nello stesso preciso momento in cui noi scompariamo a loro.) La scelta, o la soppressione, dei pensieri e delle parole è un atto politico, e così, scusatemi, questo articolo politico finirà con l’esserlo. Del resto non può non esserlo, dal momento che parla di (meteorologia) cose accademiche e industriali. E dal momento che qui siamo, tutte e tutti, persone di scienza (in tutte le declinazioni possibili), credo valga la pena di andare un poco più a fondo. “Verità”, e non Le verità scientifiche Vediamo di capirci sin da subito. Noi fisici e fisiche (in senso molto inclusivo: qualche secolo fa avrei magari detto “scienziati e scienziate naturali”) non pronunciamo delle verità assolute. Non è, questo, il nostro compito. Più modestamente, procediamo così: Quindi, nel “vero” delle fisiche non c’è nulla di assoluto. Magari qualcuna si sveglia con un’ipotesi migliore della tua, e la tua finisce seppellita per sempre nel cassetto di qualche mostruoso datacenter. C’è un altro punto: tra la formulazione di un’ipotesi e la sua accettazione da parte della comunità scientifica passano anni. Vediamo di riassumere. Le verità scientifiche sono: Con tutte queste caratteristiche, per quali motivi un Paese dovrebbe (scusate la brutalità) cacciare del denaro per occuparsene? Qui la mia lista. Parziale. Limitandomi, appunto, ad alcuni fatti brutali: Verità assolute (ed altre “post-verità”) La costruzione, o il consumo, delle proprie “verità” da parte della gente comune è molto diverso da quello della scienza. Nei modi, come nei fini. Scopo della “verità”, in questa accezione, è di stabilire confini entro i quali collocare il lecito, il desiderabile, il “buono”. Abbastanza plausibili da far sì che questi confini siano ragionevolmente solidi, e proteggano da ciò che sta “fuori”. L’Incognito. L’Altro. Il Nemico. Non è necessario che questo tipo di “verità” abbia qualche aggancio nella realtà: è sufficiente che vi si possa riconoscere. E che le affermazioni compiute in suo nome siano sufficienti non già per prevedere scenari futuri (cosa ben poco efficace per tutelare il proprio bozzolo protetto), ma per giustificare quanto accaduto in passato, darne una spiegazione, magari ingoiarne la supposta inevitabilità. Inventerà, così, capri espiatori, nemici immaginari perseguitando i quali certamente tutto riprenderà a funzionare. O come, seicentoventimilatrentotto anni fa, quelli della tribù di …, che inventarono la tremendissima divinità Balù Balù, artefice a loro dire di tutto ciò che accadeva, in buona sostanza indifferente a quegli sputi solidificati che sono gli umani, e che però ci si poteva ingraziare con preghiere e sacrifici vari. Insomma: un surrogato di controllo. Su questo punto tornerò tra breve. Qui, per adesso, mi accontento di constatare un elemento a mio giudizio importante: la verità secondo il popolo minuto non ha alcun obbligo di confrontarsi con i fatti. Basta sia accettabile. Che fornisca un’immagine di sé nella quale anche chi si trovi in condizioni di miseria e deprivazione riesca a vedersi grande. Perché, non dimentichiamolo, questa è una società patriarcale, che si nutre disperatamente dell’illusione del proprio “valore”, e che obbliga ciascuno, ciascuna ad occupare un posto preciso in un supposto “ordine di beccata”. Come si trasmettono le “verità del popolo”? Dall’alto in basso. I sacerdoti di qualche religione (divina o laica) promanano un dogma, e la plebe lo fa suo. Lo rielabora magari, aggiungendovi qualcosa (non troppo però, per carità!). La “verità” si propaga di bocca in bocca, di anima in anima, seguendo linee di prestigio decrescente. Volontà, e illusione, di potenza: una radice della paura nella scienza? “Io! Io! Io!” Importante esserci. Nel senso di apparire. Parlare, magari senza dire nulla, ma sincerandosi di farlo ad alta voce. Oltre all’accettare in modo acritico “verità” tagliate su misura, c’è anche quest’elemento. L’educazione (chiamiamola così) ad “emergere” ad ogni costo, a scapito delle altre persone, in una competizione da tagliatore… fondata sul nulla. Sulla sistematica sopravvalutazione delle proprie presunte capacità, e sulla loro sovraesposizione. In una continua, quanto improduttiva, self-storytelling. In perfetta buona fede. Immaginando il proprio diritto ad “un posto al Sole”. E nella segreta consapevolezza che, forse, tutto quel valore così attivamente sbandierato, in realtà, non è poi così grande. Che uno scrutinio appena più che attento lo smaschererebbe. Che in un auspicabilmente lontano conflitto bellico, il loro posto sarà nel fango delle trincee, come carne da cannone, spendibile. Lo immaginate, che cosa desidera sentirsi dire questo

Realtà e parole: un rapporto magari non facile, ma, vitale Leggi tutto »

Intervista con: Tiziano Tirabassi

Patrizia Favaron Chi sia Tiziano Tirabassi, quasi non c’è bisogno lo dica proprio io. Dirigente di ricerca di CNR-ISAC per molti anni. Ricercatore, e insegnante, in Università italiane e brasiliane. Famosi i suoi lavori nel campo dei modelli di dispersione, e, una delle (poche) persone che hanno integrato in modo diretto le equazioni di avvezione-diffusione (cosa che io, in un articolo di qualche tempo fa, avevo un po’ frettolosamente etichettato come “impossibile”). Soprattutto, uno di noi: socio AISAM, e grande appassionato di meteorologia. Qui di seguito il testo dell’intervista che ci ha rilasciato: vale la pena di leggerla. Credo proprio possa essere di ispirazione alle persone giovani che si affacciano al mondo della meteorologia, o vorrebbero farlo. Buona lettura. 😊 D: Come è cominciato tutto? R: Come ricercatore sono nato all’ISAC, che allora non si chiamava così ma era una sezione a Bologna  dell’Istituto di Fisica dell’Atmosfera che aveva sede a Roma. Li ho fatto la mia tesi di laurea come studente della facoltà di fisica dell’università di Bologna, dove, a quel tempo (siamo all’inizio degli anni ’70), si teneva l’unico corso in Italia di Fisica dell’Atmosfera. Il corso era tenuto da Ottavio Vittori, in seguito fondatore del FISBAT, precursore dell’attuale ISAC e primo incontro fondamentale per la mia futura attività di ricerca. La mia ricerca in quel periodo era tecnico-sperimentale. Appartenevo a un gruppo, coordinato da Giorgio Giovanelli, in cui si stava progettando un nuovo spettrometro a maschera di correlazione e lo si utilizzava per misurare gas in atmosfera su lunghi percorsi ottici. D: Come sei passato, poi, alla ricerca di base e alla modellistica? E, perché? R: Misurando il gas in atmosfera e partecipando a numerose campagne di misura, anche in ambito europeo, ho cominciato ad interessarmi all’interpretazione delle misure che facevo e quindi alla dispersione di gas e particelle in atmosfera. E mentre studiavo quest’aspetto ho avuto un altro incontro importantissimo. Per circostanze fortuite sono venuto in contatto e ho stretto amicizia con una persona veramente geniale: Renzo Lupini.  Con lui ho iniziato a mettere a punto approssimazioni analitiche per descrivere il trasporto e la diffusione turbolenta in atmosfera. È un approccio che mi ha subito appassionato, perché occorre semplificare e approssimare. Per semplificare è necessario capire il profondo significato di quello che stai affrontando. Non sono arrivato subito alla soluzione dell’equazione di diffusione (allora non immaginavo nemmeno che molti anni dopo ci sarei arrivato) ma erano comunque formula analitiche che approssimavano molto bene i fenomeni Per esempio uno dei risultati che abbiamo ottenuto e quello di descrivere il trasporto e diffusione attraverso una espressione che era sviluppo in serie dei vari momenti della concentrazione. Abbiamo costruito un modello fermandoci al momento quarto. Abbiamo anche trovato una soluzione che minimizzava la soluzione esatta e una che la massimizzava ed utilizzammo una combinazione delle due, ottimizzando la combinazione sia con un approccio concettuale che empiricamente Poi sempre per motivi indipendenti dal nostro lavoro, le nostre strade si sono divise ed io ho continuato da solo cercando di approfondire e migliorare l’approccio analitico. Per esempio ho utilizzato una soluzione proposta da Yeh e Huang (due cinesi americani) in cui i profili del vento e del coefficiente di diffusione erano espressi con leggi di potenza. La mia ricerca si indirizzava a come approssimare profili reali con questi ultimi per ottimizzare la soluzione. Per ben ottimizzare occorre conoscere al meglio il fenomeno che si vuole descrivere.  Mi hanno confermato le scelte che avevo fatto e rafforzato la soddisfazione nel mio lavoro altri incontri successivi che ho fatto. Nel 1986 ho partecipato a un famoso Congresso a San Pietroburgo (URSS), dove per la prima volta i maggiori esperti americani si confrontavano con i colleghi russi. I russi erano molto più attenti all’approccio analitico che gli americani, a causa sia di un cultura matematica più pronunciata che alla carenza di strumenti per il calcolo numerico. Fu allora che ho conosciuto M. Y. Berlyand, fondatore del dipartimento Atmospheric Diffusion and Air Pollution Investigation presso il Main Geophysical Observatory (MGO), una persona affabile, simpaticamente allegra e con un atteggiamento matematico e pratico. Alla  caduta dell’URSS, Berlyand a chiesto aiuto a me e al mio collega Tagliazucca per potere lasciare l’URSS e noi lo invitammo a Bologna all’ISAC, con un contratto di ricerca. È stato molto bello averlo con noi, poi andò definitivamente negli Stati Uniti. F.B. Smith, coautore con Pasquill di un famoso libro negli anni ’80, che ho incontrato varie volte (nell’atteggiamento era un perfetto inglese) ed è stato un insegnante in un corso internazionale presso lo ICTP (International Centre for Theoretical Physics) di Trieste, che io ho diretto, aveva molta considerazione dell’approccio analitico e aveva la grande capacità di approssimare  e di considerare l’essenziale dei problemi affrontati. Medesimo atteggiamento aveva A. P. van Ulden, condirettore con me nel 1994 di un altro corso internazionale presso lo ICTP. Con lui ho discusso molte volte e ho anche costruito un modello di dispersione a puff (chiamato SPM) utilizzando una soluzione approssimata da lui proposta. Tutti incontri che hanno convalidato le mie scelte e mi hanno dato entusiasmo a continuare le mie ricerche con grande determinazione. D: E dunque hai applicato i tuoi risultati in modelli di diffusione… R: Naturalmente ho costruito molti modelli con cui ho partecipato a workshop dove venivano confrontate la capacità dei modelli a rappresentare situazioni reali. Ho costruito vari modelli, tra i quali: Utilizzavo i modelli con datasets internazionali per testarne le capacità e partecipavo a workshop in cui si confrontavano i modelli proposti e si discuteva sulle modalità statistiche da utilizzare per i confronti. Tuttavia, non amavo applicare i modelli per casi reali di controllo ambientale, sono sempre stato attratto dalla ricerca di base.  Tuttavia  l’ho fatto varie volte sia in Italia che all’estero, perché o non potevo rifiutarlo o per ottenere finanziamenti D: Hai avuto altre collaborazioni anche al di fuori del tuo campo specifico? R: Ho incontrato Paolo Zannetti (famoso in Italia anche per il suo bel libro Air Pollution Modeling, in cui sono citate le mie ricerche  con Renzo Lupini) in un congresso negli Stati Uniti (che frequentavo

Intervista con: Tiziano Tirabassi Leggi tutto »

La modellistica meteorologica italiana si incontra: una giornata ad ItaliaMeteo 

Articolo tratto dalla Newsletter n° 021 di marzo 2025 Il 19 febbraio si è svolto a Bologna, presso la Terza Torre della Regione Emilia-Romagna, il primo incontro in presenza dedicato al coordinamento della modellistica meteorologica italiana, organizzato da Agenzia ItaliaMeteo. Questo incontro rappresenta un passo importante con il quale l’Agenzia mira a realizzare il suo compito di coordinamento e armonizzazione delle diverse realtà operanti nel settore. In particolare, l’evento ha coinvolto coloro che si occupano dello sviluppo e del mantenimento operativo di modelli numerici previsionali da Agenzie ed Enti da tutta Italia. La risposta della comunità scientifica è stata particolarmente positiva, con la partecipazione di 63 persone in presenza e 20 da remoto. L’evento, tenutosi in modalità ibrida, ha permesso di coinvolgere anche colleghi geograficamente distanti, favorendo un confronto inclusivo e aperto.  L’incontro ha fatto seguito a una prima riunione online in cui è stata effettuata una ricognizione dei principali sistemi modellistici utilizzati in Italia: ICON, WRF e MOLOCH. Da questa ricognizione è emersa la volontà da parte dell’Agenzia ItaliaMeteo di promuovere un coordinamento strutturato delle attività modellistiche nazionali.  L’organizzazione dell’incontro dedicato alla modellistica meteorologica italiana La giornata dedicata alla modellistica meteorologica italiana si è aperta con un intervento introduttivo del Direttore di ItaliaMeteo, Carlo Cacciamani, che ha sottolineato l’importanza della collaborazione tra coloro che si occupano di modellistica previsionale per ottimizzare e valorizzare le capacità distribuite in tutta Italia. Cacciamani ha anche espresso la volontà di costituire il Tavolo di Coordinamento Permanente della Modellistica Numerica.  È stata poi la volta di una breve introduzione sull’attività operativa, di ricerca e di sviluppo dell’Agenzia ItaliaMeteo. Il sistema modellistico di riferimento per l’Agenzia, basato sul modello ICON (www.icon-model.org, www.cosmo-model.org), si distingue per la sua consolidata collaborazione internazionale e per l’elevato livello di portabilità su sistemi HPC (High-Performance Computing), sia su processori standard che grafici. Una caratteristica fondamentale di ICON è la sua capacità di simulazione dei fenomeni atmosferici su diverse scale spaziali (dal globale al LES – Large Eddy Simulation) e temporali (dalle previsioni a breve termine a simulazioni climatologiche), garantendo prestazioni ottimali nelle verifiche comparative.  La situazione del sistema previsionale ad alta risoluzione Il sistema previsionale ad alta risoluzione italiano, ICON-2I, è attualmente operativo sui cluster HPC del Cineca grazie a risorse messe a disposizione dall’Agenzia. Lo sviluppo della catena modellistica, basata sul sistema modellistico sviluppato negli anni da Arpae Emilia-Romagna, è frutto della collaborazione tra ItaliaMeteo, Arpae Emilia-Romagna e Cineca, con il supporto degli enti del Consorzio COSMO. La catena previsionale è costituita da due corse giornaliere con previsioni fino a 3 giorni, da una corsa di ensemble di 20 membri, che permette di stimare l’incertezza dei fenomeni che si prevedono, e da corse con frequenza trioraria con previsioni fino a 24 ore, importanti in fase di monitoraggio. Le condizioni iniziali di tutte le catene previsionali sono fornite dal sistema di assimilazione dati KENDA (Kilometer-scale Ensemble Data Assimilation), basato su un metodo di ensemble Kalman filter mediante il quale vengono assimilate osservazioni da stazioni al suolo, radiosondaggi, aerei e radar.  Nel corso del 2025, inoltre, è prevista l’attivazione del nuovo sistema HPC dedicato ad ItaliaMeteo, che l’Agenzia ha fortemente voluto e finanziato, che consentirà di incrementare decisamente le capacità di calcolo e, di conseguenza, di migliorare le tempistiche e l’affidabilità della produzione, nonché la qualità del modello grazie al potenziamento dello sviluppo.  Le forme di collaborazione favorite da ItaliaMeteo ItaliaMeteo intende promuovere forme di collaborazione aperte con tutti i soggetti interessati, favorendo la partecipazione su temi comuni attraverso diverse modalità:  Per perseguire questo obiettivo, sono stati istituiti gruppi di lavoro su tematiche di rilievo, tra cui:  La conclusione dell’incontro I presenti all’incontro dedicato alla modellistica meteorologica italiana si sono quindi suddivisi nei diversi gruppi, utilizzando anche il momento del pranzo come occasione di confronto e di scambio di idee. All’interno dei singoli gruppi sono scaturite idee per progetti quali la rianalisi, all’interno del gruppo di assimilazione, e la visualizzazione dei prodotti previsionali nel gruppo dell’implementazione operativa. Per altri gruppi, come quello di verifica, nowcasting e utilizzo dei dati osservativi, la prima fase è stata una ricognizione dei sistemi presenti operativamente per cercare di definire come ottimizzare le risorse già presenti sul territorio. Il gruppo di sviluppo del modello ha lavorato attivamente focalizzandosi su alcuni temi che verranno studiati in attività in collaborazione quali la previsione in ambito urbano, lo studio della microfisica e la definizione di un insieme di casi studio comuni per il confronto dei risultati. L’incontro dedicato alla modellistica meteorologica italiana si è concluso con una sessione plenaria di sintesi delle discussioni e delle azioni che saranno intraprese dai singoli gruppi. Il filo conduttore degli interventi, sia nell’assemblea plenaria che nei diversi gruppi, è stato la ricerca di sinergie progettuali su temi di interesse comune, con particolare attenzione alla complementarità tra le diverse tecnologie modellistiche.  Questo incontro rappresenta una prima tappa fondamentale nel percorso di collaborazione tra le diverse Agenzie ed Enti operanti nel settore. Questa giornata, che si prevede diventi un appuntamento annuale, sarà affiancata dall’attività continuativa dei gruppi di lavoro che si incontreranno con modalità e frequenza definite autonomamente per discutere dei temi proposti.  Virginia Poli(Agenzia ItaliaMeteo e Arpae Emilia-Romagna) Thomas Gastaldo (Agenzia ItaliaMeteo e Arpae Emilia-Romagna)  Chiara Marsigli (Arpae Emilia-Romagna) 

La modellistica meteorologica italiana si incontra: una giornata ad ItaliaMeteo  Leggi tutto »