Patrizia Favaron
Il Lato Oscuro delle ricadute al suolo 😊
I modelli di dispersione lagrangiani, come visto nell’articolo introduttivo sui modelli di dispersione, hanno la prerogativa di restituire ad ogni passo temporale un valor medio della concentrazione al suolo.
Se invece che di un modello disponessimo però di un sensore, che immaginiamo infinitamente veloce e preciso/accurato, e registrassimo tutti i dati da lui prodotti in un tempo di mediazione, non troveremmo un valore costante.
Infatti, le concentrazioni di sostanze chimiche non sono costanti nel tempo, ma anzi soggette a fluttuazioni turbolente a causa delle quali i valori misurati tenderanno a distribuirsi più o meno come vediamo nell’istogramma qui sotto.
Questa figura è rappresentativa di una distribuzione lognormale, e spesso le concentrazioni misurate sono distribuite così (con parametri diversi).
Se la nostra attenzione è dedicata agli effetti a lungo termine dell’esposizione alle concentrazioni, questo livello di conoscenza in più non ci dice nulla di utile.
Ma non tutte le sostanze disperse in atmosfera hanno effetti “a lungo termine”: alcune si rivelano nocive già in un singolo ciclo di inspirazione-espirazione (circa 10 secondi).
Un esempio classico di questo tipo di effetti è quello degli agenti nervini, usati in alcune operazioni belliche e attacchi terroristici (un caso famigerato e famoso fu il rilascio di SARIN nei vagoni della metropolitana di Tokyo del 20 Marzo 1992).
Nel caso degli effetti a breve termine, così, ad interessare non sono più i valori medi, ma le probabilità di supero di una concentrazione al di là della quale gli effetti si fanno pericolosi. E il confronto non è più con un limite di legge espresso in forma di statistica annuale, ma con l’entità complessiva degli effetti avversi.
Il concetto di “rischio”
Già: cosa si intende per “rischio”? Nel linguaggio comune, i “rischi” sono eventualità possibili e spiacevoli. Li si può evitare, oppure (qualcuno lo fa) cercare apposta.
Ma questa non è una definizione: un’opinione, forse, e nulla più. Nella scienza, le opinioni contano meno del due di briscola neozelandese, per cui dobbiamo cercare qualcosa di meglio.
Una vita professionale fa, quando mi occupavo di “sistemi programmabili per applicazioni safety critica” (e, assicuro, i “sistemi programmabili” di allora – prima metà degli anni ’90 – non inducevano ad una grande tranquillità) mi ero imbattuta in questa formula:
Rischio di un evento = Magnitudine degli effetti avversi * Probabilità di occorrenza in un anno
Nei casi che seguivo io, la “Magnitudine degli effetti avversi” si misurava in morti (già uno era da considerare un valore “alto”). Immaginiamo di seguire questa medesima impostazione, molto cruda – ne esistono, comunque, altre (ci sono, per esempio, i rischi finanziari, o politici, o…).
Ora: torniamo alla nostra ricaduta al suolo. E supponiamo di conoscere esattamente la sostanza implicata (è un privilegio a volte raro: in certi incidenti industriali a priori non lo sai, e qualcuno deve avvicinarsi a prelevare dei campioni…).
Al momento della ricaduta al suolo, la sostanza sarà caratterizzata da una certa concentrazione: la cosa prevista dal modello di dispersione!
Bene: se la sostanza è conosciuta, allora è anche nota la concentrazione “di fuga” (possibilissimo che oggi sia conosciuta con un nome diverso), cioè, la concentrazione alla quale, se ti ci trovi esposta, hai mezz’ora per lasciare la zona. Il concetto, molto crudo, era che se per caso la concentrazione risultava maggiore di quel limite, le tue possibilità di fuga, e quindi di sopravvivenza, calavano velocemente a zero.
Se chiamiamo “Cmax” questa concentrazione, e il modello di dispersione ci permettesse di stimare la sua probabilità ora per ora, allora potremmo determinare il rischio, che nel caso vorrebbe dire la frazione di persone che non riuscirebbero a sottrarsi.
Problema: ma i modelli di dispersione permettono?
C’è modello e modello… 🤔
Metto subito le mani avanti: i modelli che conosco e anche uso, per esempio Calpuff, non permettono.
Dirò anzi di più: nella precedente puntata di questa serie (se l’avete mancata potete trovarla qui) avevo detto della classificazione dei modelli. E avevo accennato al caso dei modelli “stazionari”, un tempo usatissimi, ed oggi in via di estinzione (grazie anche al fatto che la US-EPA ormai raccomanda di non usarli). Bene: i modelli stazionari restituiscono un “valore limite” (nel senso matematico del termine: limite per t tendente ad infinito di…), che non è neanche un valor medio. Roba così non è di nessun aiuto, anzi, potrebbe essere persino fuorviante.
Con i modelli lagrangiani parrebbe di poter dire che andiamo un po’ meglio: loro il valor medio orario della concentrazione ce lo danno.
E però, ti rendi conto anche tu, manca un pezzo per completare il quadro: la deviazione standard lognormale. Certo, se l’avessimo potremmo calcolare la probabilità di supero della soglia di fuga, noti valor medio e deviazione standard lognormale.
Ma appunto, non c’è…
Entra in scena un nuovo attore
Siamo nel 1990, epoca della Prima Guerra del Golfo (me la ricordo bene…).
Ai tempi, sull’Iraq “regnava” Saddam Hussein, che aveva appena invaso il Kuwait. Va be’, la storia la potete trovare in rete.
Quanto ai nostri casi, Saddam Hussein era famoso per usare la popolazione civile come scudo umano, e per ammassare stock ingenti di armi chimiche. Le due cose non andavano benissimo insieme: la coalizione ONU guidata dagli USA desiderava mettere le mani su quegli stock, o almeno renderli inoffensivi, ma farlo avrebbe significato esporre la popolazione civile a rischi (appunto) ingenti. Tali che, in caso di incidente, magari l’ONU avrebbe ritirato il mandato.
La tecnologia militare di allora prevedeva dei “bombardamenti intelligenti” che, però, gli operativi in campo lo sanno bene, proprio intelligenti e chirurgici non sono. Ma soprattutto, metti di riuscire a centrare con un “bombardamento chirurgico” un complesso di produzione di SARIN che, guarda caso, era stato collocato a qualche centinaio di metri da un villaggio: se il vento tira dalla parte sbagliata, magari l’impianto lo distruggi anche, ma rischi di inondare di SARIN migliaia di persone innocenti e del tutto ignare del pericolo.
Così (questa, almeno, la storia ufficiale) la CIA (sì, quella, la Central Intelligence Agency – ha dei reparti civili, che operano alla luce del sole) commissionò un modello di dispersione adatto al caso. La Titan Corp vinse l’appalto e, in breve tempo, sviluppò un modello lagrangiano a “puff” dal nome piuttosto carino, SciPuff.
Poi (se volete potete tentare di cercarlo in rete: quand’ero piccola -si fa per dire- il tecnica report che descriveva il caso era ancora in rete, liberamente accessibile) la CIA lo adoperò per stimare le ricadute di SARIN in diversi scenari di attacco, e decise la data e ora ottimale. I bombardieri si fecero trovare sul posto nel momento previsto, e l’impianto di produzione di SARIN fu raso al suolo. Secondo la versione ufficiale non ci furono danni per la popolazione civile.
Intanto, SciPuff iniziava una sua vita propria: la CIA aveva autorizzato la messa a disposizione del pubblico di una sua versione ridotta, ma meravigliosamente utile per l’analisi dei rischi.
Com’era fatto? Intanto, era stato concepito per la versione di Windows e per i PC di quegli anni, cosa che ne ha tarpato le ali impedendone una diffusione duratura (Bill Gates e i produttori di PC, incuranti di questo fatto talmente piccolo da, immagino, non essersene nemmeno accorti, avevano continuato a sfornare versioni su versioni, non del tutto compatibili “all’indietro”).
Ma dal punto di vista tecnico era, davvero, una perla. SciPuff sta, infatti, per “Second-order Closure Integrated puff dispersion model“, e la “second-order closure” è una tecnica che permette di risolvere le equazioni di Navier-Stokes mediate usando la Decomposizione di Reyolds (se volete vedere come si fa, potete farlo in un mio altro articolo, sempre su questi schermi. Certo, ai tempi nessuno si sognava davvero di integrare numericamente quelle equazioni in un modello di dispersione che doveva girare su un normale PC.
Ma I progettisti di SciPuff avevano fatto un lavorone, usando la chiusura del second’ordine per approssimare i termini di covarianza del vento e dell’equazione di avvezione-diffusione, e… arrivare alla deviazione standard lognormale delle ricadute al suolo! Oltre al solito valor medio.
Usi “buoni”
Per qualche tempo, quando era disponibile, SciPuff si era rivelato comodo. Un po’ bizzoso (ogni tanto si inchiodava, ma vabbe’, cambiando un pochino gli input meteo si riusciva sempre ad avere risposte). Ma nel complesso affidabile.
Per qualche anno è stato usato per compiere analisi di rischio in alcuni campi pratici:
- Dispersione di sostanze tossiche in caso di incidente industriale.
- Diffusione per via aerea di patogeni resistenti agli UV ed all’ossigeno (devono essere molto resistenti – persino il capside del virus SARS-Cov-2, quello del COVID-19, non sopravvive a lungo se esposto all’aria).
- Dispersione degli odori.
Poi, che io sappia, essendo difficile farlo funzionare sui PC più recenti, è finito dimenticato.
Chissà, forse lo si può scaricare ancora, da qualche parte: il Web è vasto, molto capace, e spesso nebbioso.
(E da qualche parte, in qualche cartella misteriosa, una versione ricordo di averla tenuta anch’io…)
Come calare nella pratica
Giusto qualche idea, per il momento in modo molto semplice.
Supponiamo di avere a disposizione Scipuff, o qualche cosa di analogo che conosci: oltre che le concentrazioni medie orarie deve anche restituire le deviazioni standard lognormali.
L’altra cosa da avere sotto mano è una mappa con la densità di popolazione; in sua mancanza, si può adoperare come prima approssimazione una mappa dell’edificato, e poi lanciarsi in qualche stima ragionevole.
A questo punto servono i dati meteorologici, o, anzi, micro-meteorologici. Niente di che: sono quelli usati da tutti i modelli di dispersione (ne parleremo in futuro).
Il primo passo è, preparati tutti gli input del modello, farlo girare e capire dove sono i risultati.
Il secondo, che poi è la parte interessante, consiste nell’analisi dei risultati.
Questi saranno, come sempre accade nei modelli di dispersione, dei campi 2D di ricaduta al suolo, due per ogni ora simulata: il valor medio, e la deviazione standard. Adesso, concentriamo tutta l’attenzione di cui siamo capaci su uno di questi punti di griglia, e andiamo a vedere che cosa ci ha detto il modello proprio lì. Facciamo finta che i valori, media e deviazione standard log-normali, siano M=7 e S=0.5 (numeri inventati di sana pianta, scelti in modo da avere dei grafici belli 🤭).
Come primo passaggio, vediamo com’è fatta la funzione densità di probabilità associata a questi due valori:
Per chi non avesse una gran pratica in questo tipo di cose, la “funzione densità di una distribuzione univariata” rappresenta la probabilità che un valore casuale, distribuito proprio secondo “quella legge lì”, assuma valori compresi tra un valore dato, e quel valore più un piccolo scarto.
Di per sé, le funzioni densità di probabilità sono belle a vedersi, e molto informative circa la distribuzione che descrivono. Ma non risolvono il nostro problema: quello che ci serve sapere, nell’analisi di rischio, è la probabilità che il valore di fuga (supponiamo sia 1500) venga superato: nel caso, possiamo convertire (o far convertire dal programma statistico che sto usando, R) la densità nella “funzione distribuzione cumulata”, che rappresenta la probabilità di non-superamento dei valri di concentrazione:
Ora, quale sarà la probabilità di superamento? Ma certo: un valore o supera la soglia, oppure no. I due eventi, superamento e non-superamento, sono disgiunti e complementari, e così la probabilità di superamento sarà 1 meno la probabilità di non-superamento.
Cioè, questa roba qui:
Avevo detto che la soglia di fuga è uguale a 1500. Dal grafico, avessimo una vista acutissima (che di sicuro non è la mia) vedremmo che la probabilità di superamento vale, nel caso, è di circa 0.27. Il 27%!!
Acci, mica poco!
Se sappiamo che il punto di griglia su cui abbiamo fissato l’attenzione contiene presumibilmente, facciamo finta, 1000 abitanti, il punteggio di rischio sarà uguale a 0.27*1000, cioè 270. Questo non sarà il numero di persone uccise dal rilascio tossico, ma sui grandi numeri potrebbe andargli vicino.
(I calcoli “veri” includono anche considerazioni tossicologiche, demografiche, e tante altre cose, ma il concetto, più o meno, è questo).
La confusione del superamento dei limiti di legge
Se avessimo usato un modello “normale”, che ci avrebbe restituito solo il valor medio (non log-normale), magari avremmo ottenuto un valore molto vicino a 1243 (lo si ricava dai valori medio e dei.standard log-normali).
Che è piuttosto piccolo, rispetto ala soglia 1500.
A questo punto, ve lo dico, la maggior parte degli ingegneri e delle ingegnere ambientali avrebbe detto “È sotto la soglia, quindi, tutto bene!”
Ma il valor medio di una variabile casuale (questo, dopotutto, è la concentrazione al suolo), mica è il valore che otterremo necessariamente! Magari ci va bene, e il valore misurato è più piccolo. Ma potrebbe anche essere più grande, e nel caso sarebbero dolori.
Il bello è, che lo storytelling “il valor medio è più piccolo del limite di legge quindi tutto bene” è anche ampiamente accettato dalle Conferenze di Servizi, e altre istituzioni che in teoria dovrebbero giudicare dell’adeguatezza di uno studio modellistico… 😢
Siamo di fronte ad un problema atavico e difficile a risolversi: gli Italiani e le Italiane, nella stragrande maggioranza dei casi, non amano pensare ai numeri come a qualcosa di incerto: li preferiscono espressioni di una certezza oggettiva, di quelle che solo la Religione e la Filosofia possono dare, ma certamente la Fisica (e la Biologia e la Medicina) no. Su questo punto credo ci sia moltissimo su cui lavorare.
Va bene, rischio = 270. Ma, è accettabile?
Importante che ne parliamo.
Anche se a dare la risposta non abbiamo alcun titolo né io, né tu.
Quello dell’accettabilità o meno di un dato valore di rischio, in un certo contesto, non è tema che possano affrontare private cittadine qualsiasi, ma è (o dovrebbe) essere espressione di una decisione politica, nel senso inglese di policymaking, che non è la politics cui di abituano i media.
In altre parole, dovrebbe risultare dalla crasi delle percezioni della intera popolazione in base alla sensibilità degl’individui, ed alle conoscenze offerte dalla Scienza e dalla Tecnica.
In alcuni Paesi (il caso che conosco è quello della Germania Federale) il dibattito sui livelli di rischio accettabile trova posto nel dibattito pubblico, ed avviene più o meno alla luce del sole, con la popolazione, più o meno informata, che esprime sul tema opinioni più o meno sensate. In altri, e segnatamente qui in Italia, le parole “sicurezza” e “rischio accettabile” sono pressoché sconosciute, per ragioni culturali.
Ricordo quando, da piccola, nel mio lavoro precedente, cercavamo di convincere i costruttori di oggetti a priori pericolosissimi della necessità di certificarli per la sicurezza, sottoponendoli a una batteria di prove rigorose. Salvo che in un caso, la risposta che mi sentivo dire era sempre la stessa: “Ma io lo so che la mia Cosa funziona! A me basta che qualcuno ci metta sopra un timbro, e dichiari che non è pericolosa.” Va da sé che, a quei tempi, alcuni soggetti rilasciavano “certificazioni” in bianco, senza uno straccio di prova. Non una bella cosa, ma, indicativa di un atteggiamento culturale, concedetemi, molto latino.
E adesso?
Non è che oggi la necessità di analisi dei rischi da rilascio tossico sia diminuita, rispetto a prima.
Ma, al momento, non abbiamo denti abbastanza affilati per affrontarla in modo diretto.
Tuttavia, se era stato possibile realizzare SciPuff a quei tempi, a maggior ragione lo è ancora, e nulla vieterebbe di rimetterlo, per lo meno, in funzione su macchine di quest’epoca storica.
Io, ormai, sono piuttosto vicina alla fine (mi do, in base alle statistiche per la popolazione femminile italiana, una ventiduina di anni di vita, dei quali non so quanti in condizioni di ragionevole lucidità 😊).
E così, ho l’impressione piuttosto netta che la cosa spetti a te, ed alla tua generazione.
Nel caso, dato lo stato di sviluppo dei modelli nell’Anno del Signore 2024, ti consiglierei di lasciar perdere i modelli a puff, e di concentrare l’attenzione sui modelli lagrangiani a particelle.
E (credo che in uno dei prossimi articoli dirò che significa, ma per ora ci dovremo far bastare il titolo), sulle Equazioni di Langevin adattate al vento debole. E, ai “fenomeni a bassa frequenza”, tra turbolenza e circolazione a mesoscala.
Per parte mia, cercherò di dare come posso il mio minuscolo contributo. Ma, è essenziale la partecipazione di menti fresche, e idee nuove.
Ne riparleremo… 🤗
Post Scriptum: a proposito dell’immagine di copertina
Sì! Dr Merwerkliebe, conosciuto dai suoi nuovi compatrioti come “Dr Strangelove“! Ho sempre apprezzato i film di Stanley Kubrick, e le interpretazioni di Peter Sellers. Quando le due cose accadevano insieme, be’, il mio apprezzamento rasentava l’aperta adorazione.
Così è nel caso.
Tanti anni fa, “Il dottor Stranamore” veniva di tanto in tanto replicato. Oggi non più, ma lo si trova facilmente in streaming.
Chiamarlo commedia, credo sia un po’ riduttivo: è un capolavoro di umorismo nero (molto nero). E tocca molto da vicino, in modo tutto sommato crudelmente lieve, i temi che abbiamo affrontato in questo articolo.
Così, si fa per dire, ma, dati anche i tempi che corrono, ti consiglierei di vederlo…