In micro-meteorologia si finisce quasi subito per imbattersi nelle “Reynolds-Averaged Navier-Stokes equations” (RANS per gli amici), e poi si continua con le chiusure più o meno non-locali eccetera eccetera, nella direzione magnifica e progressiva della modellistica d’alto bordo.
Di solito le RANS sono presentate verso l’inizio dei libri di testo, appena dopo l’introduzione, e insieme a al concetto importantissimo (e molto delicato) della Decomposizione di Reynolds.
E proprio lì si trova praticamente sempre una frase fatale: “La derivazione, che comporta l’applicazione pedissequa delle Condizioni di Reynolds, è lasciata a chi legge”. Grazie. Grazie sentitamente!
Da piccola avevo fatto Matematica, e lì la frase “Con facili calcoli si dimostra che…” abbondava. Di solito la trovavi scritta nei libri (poi, regolarmente, agli esami la dimostrazione te la chiedevano come se sul libro ci fosse la dimostrazione, e non il “Con facili calcoli” 🤭). Oppure, la udivi nel quarto d’ora finale di una lezione (ehm, da grande in un’occasione o due l’ho fatto anch’io… – forse tre).
E morire, se i “facili passaggi” erano tutto, tranne che facili.
Il caso delle RANS non fa eccezione: i passaggi, è vero, sono quasi tutti pedissequi (qualcuno richiede delle acrobazie algebriche carpiate, che però, lo anticipo, sono “a portata”).
Ma infine arrivi ad un punto, procedendo nei conti, in cui ti rendi conto che devi aggiungere delle ipotesi.
Ipotesi fisiche, di valore. Senza le quali, cucù che riesci ad arrivare in fondo.
Questo piccolo fatto è, a mio avviso, paradigmatico di un fenomeno diffusissimo nella Fisica, e in particolare anche nella Meteorologia, micro o macro: i “passaggi algebrici” non sono necessariamente così meccanicamente algebrici.
Prima o poi devi fare un salto, e non di rado è proprio questo la parte interessante di tutto il lavorio.
Un modo per constatare che, in certo senso, la Fisica non è riducibile alla Matematica: costruirla richiede, o determina, o tutte e due le cose, conoscenze sul mondo naturale che vanno al di là delle formule. E per fortuna! Se le cose andassero diversamente da così, la Fisica sarebbe (lo dico io, con un parere di parte) mortalmente noiosa.
Aggiunto che difficilmente qualcuno o qualcuna prenderà mai il Premio Nobel per una derivazione particolarmente ingegnosa (la mia è legnosamente teutonica…), prima di procedere desidero fare un piccolissimo riassunto (senza formule 🫣) della Decomposizione di Reynolds: anche lei può essere utile, per introdurre allo spirito del tema.
Verso la Decomposizione di Reynolds
Ma perché tutta questa fatica?
Per rendercene conto direttamente, conviene che ci rifacciamo sin da subito alla realtà.
E qui, un primo punto interessante: quale realtà? Il vento possiamo percepirlo a pelle, ma difficile darne una valutazione quantitativa. Per quantificare ci serve uno strumento, per esempio un anemometro, come quello che possiamo vedere qui sotto.
Un sensore come questo (un anemometro “a coppe e banderuola”) è in grado di misurare la velocità e la direzione del vento, e collegato ad un opportuno registratore di dati permette la raccolta automatica di dati quantitativi su lunghi periodi temporali.
Esistonoo molti modelli di anemometri a coppe e banderuola, ma tutti hanno due cose in comune:
- Intanto, hanno una “minima di misura” (“soglia di attivazione”), una velocità del vento al di sotto della quale, complici gli attriti, la turchinetta e la banderuola restano ferme.
- Poi, in tutto l’intervallo di misura si comportano come filtri passa-basso. Più nello specifico, il misuratore di velocità (le “coppe”) è un sensore del primo ordine, e quello di direzione (la “banderuola”) del secondo. Purtroppo non abbiamo tempo qui per entrare nei dettagli, ma questo fatto comporta due effetti: il dato restituito presenta sia un ritardo rispetto alla realtà, che uno smussamento.
Per essere assolutamente chiara: questi due effetti, che inducono una certa distorsione nella rappresentazione del vento, sono voluti, e stabiliti in base di progetto – di regola sensori più robusti hanno una soglia di attivazione più alta e inducono un maggiore ritardo.
La figura che segue mostra lla velocità orizzontale del vento rilevata tra le ore 14:00 e 15:00 il 15 Agosto 2016 presso la stazione di Cinisello Parco Nord (ARPA Lombardia).
Una figura come questa ci presenta un fenomeno notevolmente complesso, ma, così l’occhio ci suggerisce, fondamentalmente continuo e, non fosse per i momenti in cui la velocità indicata cade a 0 perché al di sotto della soglia di attivazione, persino derivabile, almeno sino al primo ordine.
L’anemometro a coppe e banderuola è un sensore davvero prezioso, ed ancora di più in campi come la meteorologia alla scala sinottica, o la sicurezza del volo e della navigazione.
Ma non è l’unico: da un paio di decenni sono anche disponibili gli anemometri ultrasonici tri-assiali, come quello che possiamo vedere qui.
Rispetto all’anemometro a coppe e banderuola, l’anemometro ultrasonico tri-assiale
- “Vede” anche il vento lungo la direzione verticale, cosa importantissima quando si desiderino valutare gli scambi tra superficie terrestre ed atmosfera.
- Ha una soglia di attivazione circa 100 volte più fine di quella degli anemometri a coppe e banderuola (dell’ordine di 1 cm/s).
- È in grado di restituire misure ad un rateo di 10 Hz o superiore.
Se tentiamo di misurare lo stesso vento osservato con l’anemometro a coppe e banderuola, vediamo questo grafico:
Ora, limitiamoci all’impatto visivo: cosa appare nel grafico?
La funzione che prima ci sembrava continua e quasi ovunque derivabile adesso assomiglia ad… un frattale? O peppola. Se allargassimo l’asse dei tempi, continueremmo per un (bel) po’ a vedere una figura simile a questa: c’è invarianza di scala, almeno in prima approssimazione: cosa comune in ogni frattale degno di questo nome.
È una sorpresa? Oh, no. Non del tutto. Se facciamo finta che il vento sia descritto in modo perfetto dalle equazioni di Navier-Stokes, possiamo ricordarci come queste, semplificate a colpi di motosega, divengano le tre equazioncine di Lorenz, che descrivono un sistema notoriamente caotico. E caotica, a maggior ragione, è ogni soluzione delle equazioni di Navier-Stokes.
Dire che il grafico di una funzione “caotica” abbia anche una dimensione frattale è, in generale, un errore: esistono (pochi) casi in cui non è così. Ma a giudicare dalle misure, il vento non è uno di questi casi patologici.
Ora, facciamo un passo indietro nel tempo. Siamo in pieno Rinascimento, e un signore dai vestiti piuttosto colorati sta osservando tutto intento il moto dell’acqua in un canale (mi piace immaginare che la scena sia accaduta nelle campagne ad Ovest di Milano – per bieche ragioni personali).
Quel signore si chiama Leonardo Da Vinci, ed ha appena notato una cosa sorprendente: il flusso dell’acqua non è casuale! Certo, vi si vedono mulinelli, rigurgiti, foglie che descrivono traiettorie complicatissime.
Ma nel complesso, la massa dell’acqua si sposta seguendo la pendenza, esattamente come dovrebbe.
Leonardo ha appena scoperto quel fenomeno che nel Codice Atlantico, di qui a qualche ora, battezzerà “turbolenza”.
Leonardo non disponeva di strumenti in grado di tradurre la sua intuizione fulminante in dati quantitativi. E dobbiamo aspettare sino a circa il 1883 perché il professor Osborne Reynolds riuscisse, grazie ad osservazioni sistematiche compiute per mezzo di una macchina da lui stesso costruita, a dare una veste quantitativa all’osservazione di Leonardo.
E qui la faccio breve. Osborne Reynolds scoprì (oltre al famoso numero che porta il suo nome) che Leonardo aveva ragione. E anzi, che una proprietà misurabile di un fluido (per esempio il tempo impiegato dall’inchiostro per percorrere una distanza nota in uno dei tubi della sua macchina, si può scomporre nella somma algebrica di una media e di una fluttuazione.
Di passaggio, quale “media”? Reynolds disponeva di un laboratorio, e poteva così ripetere un esperimento tante volte quanto gli serviva, fissando ogni volta le stesse condizioni iniziali ed al contorno.
La sua media, così, era quella che oggi chiameremmo la “media d’insieme delle realizzazioni di un processo casuale”. Il quadro concettuale è piuttosto semplice (e, vedremo, delicatissimo): ogni singola replica della misura si può considerare alla stregua della misura di una realizzazione di un processo casuale, che non conosciamo. Il fatto che le misure delle repliche differiscano l’una dall’altra deriva dal fatto che questo processo è davvero casuale, e intrinsecamente tale: le condizioni iniziali ed al contorno saranno anche state fissate in modo preciso, ma a livello macroscopico, in termini di temperatura, pressione, rugosità delle superfici, velocità iniziale del fluido, e cose così.
Quello che la bellissima macchina di prova di Osborne Reynolds non permetteva di fare, era di fissare in modo esatto la posizione e la velocità di tutte le molecole che compongono il fluido (Wow: posizione e velocità insieme?! Non vi ricorda qualcosa?). Né la microstruttura di dettaglio di ogni singolo elemento di rugosità, né le proprietà ultrafini dell’inchiostro che usava per visualizzare il moto e renderlo misurabile, né…
Lasciamo pure perdere quella parte di casualità intrinseca che deriva dalla natura in fondo quantistica del moto di una singola molecola (e qui mi direte, “Molecola?! Ma no, ma no, i sistemi quantistici più grossi che conosciamo sono particelle elementari, o al massimo massimo, esagerando, un atomo di idrogeno!”; al che, replicherò invitandovi alla lettura di un bellissimo libro di Al Khalili, “La fisica della vita: la nuova scienza della biologia quantistica”, Bollati Boringhieri: divulgativo, che riporta argomenti in parte ancora in via di validazione, ma che ha il pregio secondo me di sollevare dubbi)). Le altre incertezze sono già più che d’avanzo: il sistema potrebbe essere descritto in modo deterministico, se conoscessimo tutti i suoi dettagli più minuti.
Ma non li conosciamo che, appunto, macroscopicamente. E le fluttuazioni nascono proprio lì, tra il microscopico e il macroscopico, in una terra di mezzo nella quale nascono e si dipanano comportamenti molto complessi.
Reynolds identificò le fluttuazioni come effetto manifesto della “turbolenza” di Leonardo.
Il suo impiego della media di insieme, invece, fece sì che la validazione delle sue scoperte all’aperto, fuori dall’ambiente confortevole e determinato del laboratorio, finisse con l’essere molto difficile.
En passant, la scelta della media d’insieme su un numero elevato di repliche di un medesimo esperimento ha una conseguenza interessante, puramente algebrica: se definiamo (come ha fatto Reynolds) la fluttuazione come differenza tra una replica individuale e la media d’insieme, allora necessariamente la media d’insieme delle fluttuazioni delle varie repliche è nulla.
Questa non è l’unica conseguenza: ve ne sono altre, molto utili nella pratica – tanto che anch’io le userò nella derivazione delle RANS. Per esempio, la media è un operatore lineare nello spazio vettoriale di tutti i possibili segnali. Eccetera.
La lista completa delle “Condizioni di Reynolds” si può trovare in A.S. Monin, A.M. Yaglom, “Statistical Fluid Mechanics: Mechanics of Turbulence”, voll. 1 e 2, Dover (attenzione: morde – è un testo molto avanzato, ma è anche il primo pubblicato sull’argomento, ed ha stabilito molte delle convenzioni che adoperiamo ancora oggi).
La Decomposizione di Reynolds (un segnale misurato in un fluido è somma di una parte media e di una fluttuazione turbolenta) e le Condizioni di Reynolds, prese insieme, formano per così dire l’ossatura pratica della micro-meteorologia.
Là fuori, al freddo e al caldo…
La micro-meteorologia interessa sia gli ambienti confinati che gli spazi aperti. Una cosa è certa, però: non è un’attività da laboratorio.
E fuori dal laboratorio dobbiamo prendere atto di un fatto molto spiacevole: non abbiamo modo di stabilire in modo controllato le condizioni iniziali e al contorno di un esperimento. Neanche riguardo a grandezze macroscopiche. Alle condizioni di prova provvede Madre Natura personalmente di persona.
Niente condizioni fisse di prova, uguale niente media d’insieme.
E quindi…?!
In realtà, no: esiste una scappatoia, che i ricercatori hanno ampiamente praticato (obtorto collo). Invece di usare direttamente la media d’insieme su tante repliche, hanno introdotto operatori di mediazione capaci di operare su una sola “replica”, quella di volta in volta concessa dalla Natura.
E qui si colloca un insieme di constatazioni, a testimoniare quanto sia scivolosa la questione.
Intanto: in laboratorio si poteva parlare di un “processo casuale soggiacente alle misure”. Volendo anche qui all’aperto. Ma questo processo casuale è, a differenza di quello in laboratorio, del tutto inconoscibile.
Bene: possiamo però prendere una sua realizzazione, e sperare che di questo processo casuale soggiacente sconosciuto ci suggerisca almeno qualcosina.
Ma, problema. Prendiamo una realizzazione di un processo casuale di quelli classici, facili facili, che si sanno godere di proprietà molto vantaggiose, come per esempio essere “stazionari” (si veda qui), le cui realizzazioni tutto sembrano tranne che essere stazionarie.
Un esempio classico è la camminata a caso tempo-discreta nel continuo, il cui valore atteso è una funzione identicamente nulla, e le cui realizzazioni sono talmente pazze da essere chiamato, non a caso, “camminata dell’ubriaco”.
In effetti è abbastanza facile, dato un processo casuale, determinare le sue realizzazioni. Ma il percorso contrario è difficilissimo!
Tanto, nel nostro caso, da avere imposto il soddisfacimento di un’ipotesi, l’ergodicità, davvero draconiana. Nota bene: un processo casuale è ergodico, se le sue proprietà statistiche si possono ottenere da una qualsiasi delle sue realizzazioni. Se questa definizione, usata come la adoperiamo in micro-meteorologia, vi sembra leggermente circolare, be’, non siete i soli ad avere qualche perplessità.
Ma tant’è: o si mangia la minestra, oppure…
Purtroppo, un processo ergodico è anche stazionario, e non si conosce alcuna ragione al mondo perché un processo casuale rappresentativo di un moto di fluidi debba esserlo. Sicuramente, le sue realizzazioni (penso alla velocità del vento) comunicano di tutto, tranne che un senso di stazionarietà.
Ma d’altra parte accade spesso nella pratica della statistica di usare relazioni a rigore valide solo per variabili casuali normali anche per variabili che tutto sono, tranne che normali. La micro-meteorologia non fa eccezione (un giorno, spero non troppo lontano, riusciremo a mettere a posto i fondamenti; credo, ad ogni modo, che questa incombenza e la gioia della scoperta toccheranno a voi, piuttosto che a me: una bieca questione di età…).
I professori Monin & Yaglom, ed i loro successori
Tra Fisica Teorica e Fisica Sperimentale intercorre, ecco, un certo piccolo iato. Cosa che in generale non è bellissima (conosco persone che stanno cercando in tutti i modi di superarla, anche entro AISAM), e che è particolarmente spiacevole qualora ci si trovi in mezzo, come accaduto ai professori Monin e Yaglom.
Capita, infatti, che le proprie parole siano interpretate dall’uno o dall’altro dei due partiti in modi divergenti o quasi, e più spesso che no di non poter fare nulla per impedirlo.
Accadde così che un ramo della ricerca, quello teorico, si diresse verso lo studio della turbolenza (un nome famoso: il fluidodinamico francese Uriel Frisch).
L’altro, quello più pratico, si indirizzò invece verso la sua misura in aria libera, all’aperto o no.
Questo secondo ramo, a me più vicino per estrazione, ha prodotto una quantità impressionante di letteratura d’indole molto “tecnica”, di interesse applicativo.
E di tanto in tanto ha cambiato qualche nome.
È così accaduto che le Condizioni di Reynolds sono diventate Postulati di Reynolds (che, povera stella, in tutta la sua vita non aveva osato postulare nulla – tra l’altro, prima di divenire un famosissimo professore di fluidodinamica si guadagnava da vivere come ingegnere civile).
Nei suoi (bellissimi) libri “La manomissione delle parole” e “La nuova manomissione delle parole”, Gianrico Carofiglio ci ammonisce che cambiar Roma in Toma ha, alla lunga e talvolta alla breve, effetti drammatici.
Come matematica, la parola “postulati” applicata ad un insieme di regole mi fa suonare in testa, all’istante, un campanello di allarme: sono per caso degli assiomi? E sì, o meglio, ci vanno vicini (il loro insieme mi pare – congettura – non sia “completo”).
E cosa definiscono? Una famiglia di “operatori media”.
Vastissima (lo dicevo, che il loro sistema non era “completo”…).
Adottando un punto di vista molto pratico, se una “media”, comunque definita, soddisfa a tutte le Condizioni di Reynolds (e la applichiamo a un segnale “ergodico”) allora possiamo adoperarla senza problemi per scomporre il segnale in una parte media ed una fluttuazione turbolenta, e…
Qui, mi scuso. A nome di tutti noi nel campo, me compresa: perché le cose si fanno, a questo punto, un po’ confuse.
Ma vediamo, almeno, di fare un pochino di chiarezza.
Intanto: una realizzazione di un processo casuale (insomma, una serie misurata) può essere “ergodica”? Ma neanche a piangere in turcomanno corretto con punte di islandese trascritto in runico longobardo. Al massimo possiamo immaginare dei criteri numerici che ci dicono se quella realizzazione probabilmente non è ergodica.
Però, nel nostro modo di parlare, vi accadrà spesso di sentire frasi del tipo “oh, sì, sono stata fortunatissima, le mie misure erano proprio ergodiche!” Se ci ascoltate, consideratela un’abbreviazione di una frase molto più veritiera, “Oh, che bel segnale! Ho avuto una fortuna sfondata: sembra stazionario sia in media che in varianza, e spero con tutto il cuore che il processo da cui proviene sia proprio ergodico”, che, lo ammetterete, non è altrettanto elegante della prima versione.
Pratico per pratico, che io sappia il primo tentativo per separare le fluttuazioni dalla media fu compiuto da McMillen, che in un famoso articolo del 1988 (lo trovate qui) proponeva un semplicissimo filtro ricorsivo della forma y_i = beta*y_i-1 + (1-beta)*x_i, dove x è il segnale da filtrare, y il risultato, e beta un coefficiente compreso tra zero e 1: valori prossimi ad 1 comportano un “lisciamento” molto aggressivo (per inciso, questo è il filtro che ho adoperato per simulare un anemometro convenzionale partendo dai dati di un ultrasonico, con beta=0.998).
Il lavoro di McMillen era in linea con i tempi: gli anemometri ultrasonici cominciavano a farsi vedere in giro, e producevano la loro usuale valanga di dati, che a quel tempo i PC faticavano a digerire in tempo reale. Di qui la necessità di un metodo, appunto, facile ed economico (per il computer).
Il filtro di McMillen è stato sviluppato nel contesto della tecnica di misura chiamata “eddy covariance“, grazie alla quale è possibile distillare informazioni macroscopiche sulla turbolenza partendo dai dati prodotti a fiumi dagli anemometri ultrasonici (mi sa che ne riparleremo, in un altro articolo). Se lo guardiamo da vicino, e vogliamo proprio fare i precisino, vediamo che soddisfa a tutte le Condizioni di Reynolds, tranne una (per la cronaca: l’operatore di McMillen “non è involutorio” (😳) – cioè, applicandolo ad un segnale già lisciato lo liscia ancora di più: non dovrebbe). Ma nell’ambito in cui era stato proposto funzionava bene.
Ed aveva un pregio secondo me enorme in termini “didattici”: nel caso, il valore medio è, brutalmente, l’uscita del filtro, quella che ho chiamato “y”. Una funzione del tempo, quindi!
Per molti anni è stato utilizzato dalla onorevolissima comunità dei Praticoni della Eddy Covariance, soprattutto in campo agro-bio-forestale. Recentemente (2003, e con lo zampino di almeno uno di noi AISAMs) ne è stata proposta una versione migliorata che evita il ritardo cui è fisiologicamente soggetto.
Ma, secondo la visione pratico-non-troppo-teorica delle cose, non è una vera media. Andava bene per la eddy covariance, e se l’anemometro ultrasonico continuava a produrre dati, ma non per altri utilizzi.
Ma qui, è il caso che facciamo un passo di lato.
A che serve, in concreto, la Decomposizione di Reynolds?
Torniamo per un attimo al qui-e-adesso.
Abbiamo visto (non scendo in particolari) che uno degli usi della Decomposizione di Reynolds è la misteriosissima tecnica della eddy covariance.
Ma non è il solo, e ce n’è come minimo un altro, importantissimo. La modellistica.
Supponiamo di voler ricostruire il flusso di aria (quella cosa che gli umani chiamano comunemente “vento”) in un volume delimitato da una superficie più o meno rugosa. Fortuna di chi viene dopo, e grazie ai signori Navier & Stokes, abbiamo un modello molto accurato che, risolto, ci permette di determinare in modo “esatto” la soluzione a livello macroscopico: le equazioni di Navier-Stokes, appunto.
A vederle non sono, ecco, proprio bellissime (se però volete osare, le trovate in qualsiasi testo di micro-meteorologia, per esempio nel Sozzi-Georgiadis-Valentini, “Introduzione alla turbolenza atmosferica: Stime, concetti, misure”, Pitagora Editrice, 2003 (non vi metto il link perché non è più in commercio, ma se cercate in biblioteca ci sono ottime probabilità riusciate a trovarlo).
Comunque, sono un sistema di tre equazioni differenziali alle derivate parziali, di cui non si sa se esiste una soluzione analitica (ma se qualcuno o qualcuna di voi la dovesse trovare, sappia che è uno dei pochi “One Million Dollar Problem” sopravvissuti – sta opponendo una strenua resistenza.
Una soluzione analitica non sappiamo se c’è, ma nulla ci impedisce di cercare soluzioni numeriche, approssimate. E però, c’è un piccolo dettaglio: le equazioni di NS (mi permettete di chiamarle così? 🤷🏼♀️) riguardano il vento istantaneo in un punto infinitesimo. Possiamo anche risolverle, ma se immaginiamo di riuscirci ci troviamo dentro di tutto.
Certo, il vento medio, che magari ci interessa moltissimo.
Ma, anche, le fluttuazioni turbolente.
Anche (battuta, ma non troppo) le onde acustiche.
E, un mare di roba “non realistica” – almeno, su questo pianeta.
Come fare? Un modo, che poi è quello usualmente adottato dalla comunità scientifica, è di calcolarne una “media”: quelle che ne escono, le Reynolds Averaged Navier-Stokes equations, ammettono soluzioni che nulla ci vieta di identificare con il “vento medio”.
Il problema è, in pratica, di passare dalle NS alle RANS: e questo è materialmente possibile solo se la “media” soddisfa a tutte le Condizioni di Reynolds. McMillen, quindi, no. 😢
La Storia, però, continuava
Siamo, più o meno, nel 1994, qualche anno dopo il 1988 del fortunato paper di McMillen, e due famosi ricercatori di indole molto pratica, J.C. Kaimal e J.J. Finnigan, danno alle stampe un libriccino sottile, dal titolo Atmospheric Boundary Layer Flows: Their Structure and Measurement, Oxford Academic Press. La copertina, di un lugubre Navy blue scuro, è piuttosto anonima, ma il contenuto è in un certo senso rivoluzionario: perché, in micro-meteorologia, non usare la media a blocchi invece del filtro di McMillen?
In termini pratici, l’idea è brillante: la media a blocchi, a differenza del filtro di McMillen, non deve “ripartire daccapo” se nella serie di dati dovesse mancare qualche misura. Ed è altrettanto facile da calcolare, se non di più. Unico “neo”, a differenza del filtro di McMillen richiede di tenere in memoria decine di migliaia di dati ultrasonici. Ma siamo nei primi anni ’90, ed i PC intanto hanno fatto passi da gigante – la memoria, ormai, non è più una risorsa scarsa e costosa. Appena due anni dopo, nel 1996, il dottor Roberto Sozzi realizzò, nell’ambito di un progetto europeo, uno dei primi esemplari di sistema in tempo reale per la presa ed elaborazione dei dati da un sonico 3D (volendo, potete cercare qui il punto di partenza) (“Eh, bei tempi!” 🙄) (dicono quasi tutte e tutti così, passati i 50 anni di età! 🤭).
La media a blocchi, allo stesso tempo, è stata fonte di una confusione che vediamo di fugare subito. Quando si calcola una “media a blocchi”, per prima cosa si suddividono i dati per blocchi, in base alla loro marca temporale. Poi si calcola la media aritmetica di tutti i dati nel blocco.
E poi si propaga questo valor medio a tutte le marche temporali del blocco.
Di quest’ultimo passaggio non parliamo mai: lo diamo per scontato. Perché il vento medio, o la media di ogni altra grandezza macroscopica possiamo immaginare, è una funzione del tempo, e non un singolo punto rappresentativo!
Il risultato dell’applicazione della media a blocchi (che incidentalmente soddisfa a tutte le Condizioni di Reynolds) è una “funzione a scala”, simile a quelle che avevo incontrate da studentessa di Matematica in Analisi II, parlando di Integrale di Lebesgue.
E non, come sembra a una prima lettura superficiale, ad un insieme di valori isolati.
Vedere il segnale-vento come una funzione a scala permette, oltre che di capire meglio il senso delle equazioni, di vedere alcune sottigliezze un po’ tossiche.
Per esempio: dire che “la media della componente verticale del vettore vento è uguale a zero” vuol dire non tanto che i valori di velocità verticale, sommati su un intervallo abbastanza lungo, e divisi per il numero di campioni, danno zero: se mai, vuol dire che il vento medio verticale è identicamente nullo: affermazione infinitamente più pesante.
Insomma: non è il caso di drammatizzare, ma qualche sottigliezza c’è.
Le RANS, finalmente
Che ci riserva il futuro?
E chi lo può dire?
Possiamo, in fatto di Decomposizione di Reynolds, prevedere facilmente una tendenza – questa, in effetti, c’è.
Tutti gli operatori “media” conosciuti sino ad oggi sono, in un modo o nell’altro, dipendenti da un parametro arbitrario. Il valore di “beta” del filtro di McMillen. La lunghezza del periodo di mediazione nella media a blocchi. La frequenza di taglio, nel filtro FFT-IFFT.
Nel momento in cui ne scegliamo il valore, dichiariamo al Mondo tutto che tutto quello che si trova da una parte rispetto al parametro è “andamento medio”, e tutto ciò che sta dall’altra è “turbolenza”.
Negli ultimi anni questa visione semplificata è stata messa in discussione, e scommetto che i prossimi anni ci porteranno definizioni più fisicamente sensate – quelle di oggi hanno molto di matematico.
Più sensate, e fondate semanticamente. Cos’è, infatti, la “turbolenza”? E non è che alcuni fenomeni visibili nello Strato Limite Planetario, sino ad oggi attribuiti alla turbolenza, sono in realtà qualcos’altro?
Il segnale originale si potrà ancora esprimere come somma, ma magari di più di due componenti, non tutte sempre presenti, e rappresentative di fenomeni diversi. Proprio di questi tempi, molto lavoro è svolto su una classe speciale di questi fenomeni, “a bassa frequenza”, tra i quali il meandering tanto temuto dai micro-meteorologi d’indole operativa.
Insomma, ne vedremo delle belle. Ne vedrete, e parteciperete a costruirne di nuove.
A presto dunque, con altre mie. E nel frattempo, lievi vi siano le ore, e serene, e con la giusta misura di felicità, e che la Natura, dispiegandosi, continui a regalarvi occasioni di meraviglia.
One comment
Comments are closed.