Aisam

L’uso tattico di modelli di dispersione convenzionali

Patrizia Favaron

Uso tattico di modelli di dispersione tradizionali: perché?

In un mio articolo precedente, comparso qui nel nostro Sito, ho raccontato dei modelli di dispersione per uso “tattico”.

Con questa parola, che di questi tempi riconosco non felicissima, intendo un concetto usato in ingegneria, da non confondere con il significato militare (anche se con tutta probabilità è da lì che arriva): per prendere decisioni in tempo (quasi) reale, a fronte dell’evoluzione di eventi in parte incontrollabili.

E sempre in quell’articolo, raccontavo di come modelli scritti in modo specifico in vista di questo caso d’uso ce ne siano ormai diversi – per esempio SCICHEM..

SCICHEM, però, riconosciamolo onestamente, non c’è nella cassetta degli attrezzi degli ingegneri ambientali: possibile che, invece, vi si trovino oggetti come AERMOD, o CALPUFF, o magari addirittura qualche modello a particelle.

Purtroppo, questi modelli di uso comune non sono nati per valutazioni di carattere “tattico”, e si concentrano invece sulla quantificazione degli effetti a lungo termine, annuali, o anche di più. Tema che, invece, un ingegnere chiamerebbe “strategico”.

Imparare a usare un nuovo modello, lo ammetto, non è mai uno scherzo. Bisogna prima trovarlo. Poi capirlo. Investirci del denaro per farlo funzionare (cosa che vale anche se il modello è open-source. E poi preparare i pre- e post-processori, fare prove, capire cosa accade quando non funziona, eccetera.

Insomma, settimane di lavoro. Se preferisci, qualche migliaio di € (con una cifra più vicina al 10 che all’1).

Di qui la domanda: si possono usare i modelli tradizionali per impieghi tattici?

La mia risposta è: Sì. Con alcune limitazioni.

Ma prima è il caso di mettere le mani avanti su una cosa che è il caso di non fare.

Modelli stazionari: per favore, anche no

I modelli stazionari (tutti, senza alcuna eccezione) sono concepiti ipotizzando una meteorologia che non cambia per l’eternità. Questo vuol dire “stazionari”.

Magari si discute sui dettagli delle equazioni, ma questa è una loro caratteristica essenziale, condivisa, e del tutto ineliminabile.

Conseguenza di questa ipotesi di base: la concentrazione al suolo, punto di partenza per stimare gli effetti, non è un valore istantaneo, o una media oraria. Se mai, è un valore limite, quello che si otterrebbe se l’emissione fosse avvenuta dall’inizio dei tempi sempre esattamente allo stesso rateo, e vento e turbolenza non avessero mai spesso di spirare dalla stessa direzione alla medesima velocità e con identico grado di rimescolamento.

E infatti (provate per credere)

++c(x,y,0)dxdy=+\int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} c(x,y,0) dx dy = +\infty

Che i modelli stazionari, quindi, si guardino bene dal soddisfare il bilancio di massa non è di per sé necessariamente una brutta cosa: ci danno una stima veloce e molto cautelativa delle ricadute al suolo, il che, dovessimo giudicare la sensatezza di mettere un nuovo impianto inquinante in una regione geografica caratterizzata da venti molto stabili e intensi (condizioni di validità dei modelli stazionari), ci starebbe anche.

Ma veniamo al “perché no” nel caso degli impieghi tattici.

Chi di voi li ha usati, magari mi dirà che un modello stazionario accetta in ingresso senza protestare un file meteo con una successione di dati orari, e che per ciascuna di queste ore il modello produce un campo di concentrazione.

Verissimo.

Ma tutti quei campi “orari” sono, in realtà, prolungamenti della meteorologia e dell’emissione di quell’ora lì indietro, per tutta l’eternità.

Cosa magari non inutile (con tutte le cautele del caso) se vogliamo determinare effetti di un inquinante a lungo termine.

Nel caso tattico, però, non ci siamo proprio: ci serve una concentrazione istantanea, o una media calcolata su un intervallo ragionevolmente breve, e questa potrebbe avere una distribuzione spaziale radicalmente diversa dalle meravigliose ellissi prodotte dalla maggior parte dei modelli stazionari.

I modelli stazionari, dunque, non sono il ferro del mestiere giusto.

Ci vuole altro: dai modelli lagrangiani, dai puff in su.

Il caso di Calpuff

In Lombardia, la regione in cui risiedo, credo di poter andar tranquilla se affermo che la maggior parte degli studi sulla qualità dell’aria avviene usando Calpuff.

Le ragioni sono molte (i risultati sono facili da confrontare con quelli di studi precedenti, molto spesso prodotti con quel modello; è gratuito, anche se non esattamente open-source; c’è esperienza d’uso; esistono vari processori meteorologici che lo supportano; eccetera).

Ma c’è un però. Molto grosso.

Oggigiorno, il grosso degli ingegneri ambientali utilizza la catena Calpuff attraverso un’interfaccia utente grafica bella, molto curata, ma progettata per il caso d’uso classico: la valutazione degli effetti a lungo termine di un rilascio.

Questo, in pratica, vuol dire compiere simulazioni usando come dato di ingresso meteorologico serie temporali orarie lunghe almeno un anno, e poi, ottenuti altrettanti campi di concentrazione al suolo, aggregarli in statistiche coerenti con le buone pratiche sanitarie (congelate negli indicatori statistici che accompagnano i limiti di legge dei diversi inquinanti previsti dalla normativa).

A livello tattico, però, non interessa l’aggregazione di tutti i campi: va considerato ognuno di essi. Individualmente.

Il “buono” (che è allo stesso tempo anche il brutto e il cattivo) di Calpuff è che lo accompagna un bellissimo processore meteorologico, Calmet, di cui le interfacce grafiche incoraggiano l’utilizzo.

Calmet è, in un certo senso, un integratore di informazioni. Nel caso d’uso immaginato come “standard” dai suoi autori Calmet prende come dato di ingresso una serie di campi tri-dimensionali di vento, temperatura e altre grandezze meteo prodotta usando un “modello meteorologico”, come per esempio WRF. Calmet, nel caso, si limita a funzionare come interpolatore.

Nella grande maggioranza dei casi, però, gli ingegneri ambientali usano Calmet nel suo altro modo, quello in cui legge una varietà di dati da stazioni meteorologiche sparse sul territorio, le integra con dati “geognostici” (presunto land use, elevazione sul livello del mare, …), e produce in uscita una stima del campo di vento e turbolenza.

Nel primo come nel secondo caso, Calmet rilascia campi di vento tridimensionali su una griglia molto fitta, che poi vengono utilizzati da Calpuff nella stima delle ricadute al suolo.

Questi campi tridimensionali sono, tipicamente, molto “lisci”: le eventuali irregolarità presenti nei dati di ingresso (e magari corrispondenti a fenomeni naturali particolarmente “nervosi”, ma non per questo da scartare) finiscono assorbite dallo schema di approssimazione del vento (un campo a divergenza nulla).

In più, se Calmet viene utilizzato partendo da dati misurati in stazioni meteorologiche, provvede a stimare in proprio tutti i dati “avanzati” (segnatamente di turbolenza), anche se la stazione li aveva determinati utilizzando strumentazione specializzata come per esempio anemometri ultrasonici tri-assiali.

Dove, poi, la densità spaziale delle stazioni meteorologiche sia bassa tendono a prevalere gli effetti locali dell'”invenzione creativa” compiuta dalle euristiche impiegate per determinare il first guess (l’approssimazione iniziale da cui poi, con un procedimento iterativo, si ottiene il campo a divergenza nulla).

Calmet, usando dati costruiti in questo modo, finirà con il rilasciare campi di ricaduta al suolo la cui media su un lungo periodo temporale può anche essere sensata, ma che presi individualmente potrebbero non avere (quasi) alcun aggancio con la realtà.

Il che per i nostri impieghi tattici decisamente non va bene.

Che fare, allora? Entra qui un personaggio chiave: l’input meteo puntuale.

Dati meteorologici “puntuali”

.Oltre ai dati meteo in formato Calmet, Calpuff è capace di leggere altri formati di dati.

Tra questi, due hanno per noi un’importanza chiave: il “formato ISC”, e il “formato CTDM+”.

Se li utilizziamo, Calpuff preleverà da quelli tutte le informazioni relative alla turbolenza, e quelli userà nei calcoli: Calpuff, a parte alcuni controlli piuttosto leggeri, prende i dati che gli diamo per buoni, e li usa come sono. Turbolenza inclusa.

Quindi, possiamo prendere i dati di una qualsiasi stazione meteo e passarli al modello?

In teoria sì: non è cosa immediata, bisogna usare un processore meteo.

Ma ancora, se scegliamo solo sulla base della facilità d’uso e non pensiamo a ciò che stiamo facendo, ci riportiamo in quell’ambito scivoloso di considerazioni che ho svolte su Calmet: i processori meteorologici che si trovano in rete, e che sono accompagnati dalla maggior fama, servono proprio per stimare i parametri della turbolenza.

Lo fanno a partire da dati meteo che si suppongono a bassa risoluzione, e del tipo convenzionale. I risultati sono decisamente stime, magari a loro volta basati su stime, o stime di stime. Nel caso, gli indicatori di turbolenza, se anche presenti, vengono ignorati e sostituiti con queste stime: il rischio, molto grave, è che questi dati stimati abbiano un pedigree del tutto incerto, e siano accompagnati da un errore che non è neanche possibile determinare con sicurezza.

La tecnologia disponibile oggi, però, ormai permette la misura diretta o quasi dei parametri di turbolenza, e l’accorciamento drastico delle catene di stima di quelle quantità, come lo spessore del Planetary Boundary Layer, che entrano comunque nei modelli di dispersione.

Esempi di ciò sono le reti micrometeorologiche SHAKEUP (ARPA Lombardia), ARPA Lazio, ARPA Puglia, ed altre, per non contare le ormai piuttosto numerose stazioni meteorologiche “avanzate” private.

Nei file ISC e CTDM+ oggi si possono così mettere dati molto vicini alla realtà.

Come, in pratica?

Adesso, però, che devo fare?

Supponiamo di avere messo le mani su dati meteorologici di qualità “tattica” (nel caso ARPA Lombardia, che conosco bene, basta chiederli).

Come ho detto, non possiamo usare un processore meteorologico di quelli maggiormente di moda.

Dobbiamo usare qualcosa di più mirato al caso. Alla data attuale conosco due possibilità:

  • Il processore meteorologico open-source ST-Me, in grado di utilizzare così come sono dati meteorologici (e di turbolenza) “avanzati”, senza ricostruirli per forza.
  • La libreria pbl_met, per chi invece un processore meteorologico vuole costruirlo da sé (questa, en passant, era l’unica strada percorribile quando ero ragazza – una girata modellistica = un processore meteorologico ad-hoc).

(La disponibilità di processori meteorologici già fatti e tagliati su misura delle stazioni convenzionali in uso presso grosse reti americane avrà anche “democratizzato” l’impiego dei modelli di dispersione, ma come spesso accade, queste presunte “democratizzazioni” hanno comportato anche un abbassamento drastico della qualità dei risultati ottenuti da gente digiuna di Fisica dell’Atmosfera, e interessata solo ad ottenere l’autorizzazione all’avvio di un impianto.)

I due oggetti che ho citato, la pbl_met e ST-Me, vedono anche la mia partecipazione. In generale non amo citarmi, ma questi due sono i casi che conosco: aiutatemi, ve ne prego, a trovarne altri – il blog di AISAM potrebbe servire in modo perfetto per ospitare una lista.

Per il momento chiudo qui. In una prossima puntata vedremo cosa possano voler dire statistiche di concentrazione in un punto con spirito “tattico”.