Modelli di dispersione

Intervista con: Tiziano Tirabassi

Patrizia Favaron Chi sia Tiziano Tirabassi, quasi non c’è bisogno lo dica proprio io. Dirigente di ricerca di CNR-ISAC per molti anni. Ricercatore, e insegnante, in Università italiane e brasiliane. Famosi i suoi lavori nel campo dei modelli di dispersione, e, una delle (poche) persone che hanno integrato in modo diretto le equazioni di avvezione-diffusione (cosa che io, in un articolo di qualche tempo fa, avevo un po’ frettolosamente etichettato come “impossibile”). Soprattutto, uno di noi: socio AISAM, e grande appassionato di meteorologia. Qui di seguito il testo dell’intervista che ci ha rilasciato: vale la pena di leggerla. Credo proprio possa essere di ispirazione alle persone giovani che si affacciano al mondo della meteorologia, o vorrebbero farlo. Buona lettura. 😊 D: Come è cominciato tutto? R: Come ricercatore sono nato all’ISAC, che allora non si chiamava così ma era una sezione a Bologna  dell’Istituto di Fisica dell’Atmosfera che aveva sede a Roma. Li ho fatto la mia tesi di laurea come studente della facoltà di fisica dell’università di Bologna, dove, a quel tempo (siamo all’inizio degli anni ’70), si teneva l’unico corso in Italia di Fisica dell’Atmosfera. Il corso era tenuto da Ottavio Vittori, in seguito fondatore del FISBAT, precursore dell’attuale ISAC e primo incontro fondamentale per la mia futura attività di ricerca. La mia ricerca in quel periodo era tecnico-sperimentale. Appartenevo a un gruppo, coordinato da Giorgio Giovanelli, in cui si stava progettando un nuovo spettrometro a maschera di correlazione e lo si utilizzava per misurare gas in atmosfera su lunghi percorsi ottici. D: Come sei passato, poi, alla ricerca di base e alla modellistica? E, perché? R: Misurando il gas in atmosfera e partecipando a numerose campagne di misura, anche in ambito europeo, ho cominciato ad interessarmi all’interpretazione delle misure che facevo e quindi alla dispersione di gas e particelle in atmosfera. E mentre studiavo quest’aspetto ho avuto un altro incontro importantissimo. Per circostanze fortuite sono venuto in contatto e ho stretto amicizia con una persona veramente geniale: Renzo Lupini.  Con lui ho iniziato a mettere a punto approssimazioni analitiche per descrivere il trasporto e la diffusione turbolenta in atmosfera. È un approccio che mi ha subito appassionato, perché occorre semplificare e approssimare. Per semplificare è necessario capire il profondo significato di quello che stai affrontando. Non sono arrivato subito alla soluzione dell’equazione di diffusione (allora non immaginavo nemmeno che molti anni dopo ci sarei arrivato) ma erano comunque formula analitiche che approssimavano molto bene i fenomeni Per esempio uno dei risultati che abbiamo ottenuto e quello di descrivere il trasporto e diffusione attraverso una espressione che era sviluppo in serie dei vari momenti della concentrazione. Abbiamo costruito un modello fermandoci al momento quarto. Abbiamo anche trovato una soluzione che minimizzava la soluzione esatta e una che la massimizzava ed utilizzammo una combinazione delle due, ottimizzando la combinazione sia con un approccio concettuale che empiricamente Poi sempre per motivi indipendenti dal nostro lavoro, le nostre strade si sono divise ed io ho continuato da solo cercando di approfondire e migliorare l’approccio analitico. Per esempio ho utilizzato una soluzione proposta da Yeh e Huang (due cinesi americani) in cui i profili del vento e del coefficiente di diffusione erano espressi con leggi di potenza. La mia ricerca si indirizzava a come approssimare profili reali con questi ultimi per ottimizzare la soluzione. Per ben ottimizzare occorre conoscere al meglio il fenomeno che si vuole descrivere.  Mi hanno confermato le scelte che avevo fatto e rafforzato la soddisfazione nel mio lavoro altri incontri successivi che ho fatto. Nel 1986 ho partecipato a un famoso Congresso a San Pietroburgo (URSS), dove per la prima volta i maggiori esperti americani si confrontavano con i colleghi russi. I russi erano molto più attenti all’approccio analitico che gli americani, a causa sia di un cultura matematica più pronunciata che alla carenza di strumenti per il calcolo numerico. Fu allora che ho conosciuto M. Y. Berlyand, fondatore del dipartimento Atmospheric Diffusion and Air Pollution Investigation presso il Main Geophysical Observatory (MGO), una persona affabile, simpaticamente allegra e con un atteggiamento matematico e pratico. Alla  caduta dell’URSS, Berlyand a chiesto aiuto a me e al mio collega Tagliazucca per potere lasciare l’URSS e noi lo invitammo a Bologna all’ISAC, con un contratto di ricerca. È stato molto bello averlo con noi, poi andò definitivamente negli Stati Uniti. F.B. Smith, coautore con Pasquill di un famoso libro negli anni ’80, che ho incontrato varie volte (nell’atteggiamento era un perfetto inglese) ed è stato un insegnante in un corso internazionale presso lo ICTP (International Centre for Theoretical Physics) di Trieste, che io ho diretto, aveva molta considerazione dell’approccio analitico e aveva la grande capacità di approssimare  e di considerare l’essenziale dei problemi affrontati. Medesimo atteggiamento aveva A. P. van Ulden, condirettore con me nel 1994 di un altro corso internazionale presso lo ICTP. Con lui ho discusso molte volte e ho anche costruito un modello di dispersione a puff (chiamato SPM) utilizzando una soluzione approssimata da lui proposta. Tutti incontri che hanno convalidato le mie scelte e mi hanno dato entusiasmo a continuare le mie ricerche con grande determinazione. D: E dunque hai applicato i tuoi risultati in modelli di diffusione… R: Naturalmente ho costruito molti modelli con cui ho partecipato a workshop dove venivano confrontate la capacità dei modelli a rappresentare situazioni reali. Ho costruito vari modelli, tra i quali: Utilizzavo i modelli con datasets internazionali per testarne le capacità e partecipavo a workshop in cui si confrontavano i modelli proposti e si discuteva sulle modalità statistiche da utilizzare per i confronti. Tuttavia, non amavo applicare i modelli per casi reali di controllo ambientale, sono sempre stato attratto dalla ricerca di base.  Tuttavia  l’ho fatto varie volte sia in Italia che all’estero, perché o non potevo rifiutarlo o per ottenere finanziamenti D: Hai avuto altre collaborazioni anche al di fuori del tuo campo specifico? R: Ho incontrato Paolo Zannetti (famoso in Italia anche per il suo bel libro Air Pollution Modeling, in cui sono citate le mie ricerche  con Renzo Lupini) in un congresso negli Stati Uniti (che frequentavo

Intervista con: Tiziano Tirabassi Leggi tutto »

Una "particella" in moto nell'atmosfera, trascinata alla deriva dal vento medio, e spostata dalle fluttuazioni turbolente

Modelli a particelle: basi prima delle basi

Patrizia Favaron Modelli a particelle? Di quanti modelli di dispersione esistano, e di una possibile classificazione, avevo già scritto… Avevamo visto, così, più o meno a cosa servono i modelli di dispersione, e come li si potrebbe classificare. E, forse, mi ero lasciata sfuggire una frase circa la grande efficacia e modernità dei “modelli a particelle”. Sì, ma che cosa sono? Come funzionano? E perché sono così “efficaci”? Ne vedremo, in un altro articolo. In questo, invece, vedremo alcuni aspetti “propedeutici” (🫣 mi scusate la parolaccia?) Ma prometto: saranno cose divertenti. E per parte mia farò il possibile per farmi perdonare d’essere una matematica: userò parole, e non formule… Un fatto, comunque, mi sembra piuttosto certo: gli famiglia di modelli porta con sé un linguaggio, un insieme di presupposti fisici o matematici (o tutti e due). Anche, una koiné di utenti affezionati, sviluppatori appassionati, investigatori acutissimi e geniali. Questo vale anche nel caso dei modelli a particelle, e nel loro caso il “linguaggio” ha molto il sapore dei processi casuali (qualcuno, qualcuna li chiama anche “processi stocastici“, ma che dire, le parole semplici mi piacciono di più – soprattutto a parità di significato). Camminate (deterministiche… 😇) nel continuo (Che belli, i giochi “Dai, facciamo finta che…” cui tanto tempo dedicavo da bambina… 😍 Mi piacevano proprio tanto, e, complici i miei due anni in più e la conseguente maggiore stazza, mi era facile reclutare il mio fratellino, che a dirla tutta non sembrava altrettanto interessato alla cosa. Probabilmente, però, nonostante i pochi anni passati sono ancora una bimba, perché i giochi facciamofintache restano ben presenti nella mia vita, e i processi casuali sono certamente tra questi.) (Ecco.) Facciamo finta di prendere un punto, vincolato ad una retta di lunghezza infinita. Facciamo anche finta che il punto si possa spostare lungo questa retta senza incontrare attriti. Ora, supponiamo che al tempo iniziale (che chiameremo “istante zero”) il nostro punto occupi la posizione iniziale di coordinata 0, che chiameremo “origine”. E qui comincia il bello. O, più esattamente, il ballo: all’istante 0, il punto ubico un primo spostamento, che lo porta nel punto di coordinata x1. Poi, al tempo t1, subisce un nuovo spostamento che lo porta nella posizione x2. Al tempo t2 ne subirà un terzo, che lo porterà in x3. E via così, sin che la noia non ci suggerisca di smettere. Come avvengono tutti questi spostamenti? In effetti non lo ho detto. In effetti potrebbero essere di ogni tipo. Per esempio, ogni spostamento potrebbe avere entità +1, e nel caso le posizioni successive {x0=0, x1, x2, …, xn} sono facilissime da prevedere: {0, 1, 2, …, n} Oppure, gli spostamenti potrebbero essere tutti uguali a -1. Od anche, lo spostamento all’istante i-esimo potrebbe essere uguale al doppio dello spostamento al passo precedente, con il primo spostamento uguale ad 1. Nel caso, per la cronaca la successione delle posizioni è {0, 1, 3, 7, 13, …} Successioni come queste sono puramente deterministiche: esiste una regola che, data una posizione, ci permette di prevedere esattamente la posizione successiva. E di più: questa regola, magari complicatissima, ammette come “dati di ingresso” soltanto la posizione al passaggio precedente, ed il numero del passaggio. Situazione, questa, piuttosto comune: tanto da meritarsi un nome, camminata (deterministica) nel continuo. Il fatto che una successione di posizioni (di punti sulla retta) sia deterministica non ne fa qualcosa di poco interessante – e difatti alcune successioni sono a dir poco famosissime: per esempio, quella formata dai Numeri di Fibonacci, {1, 1, 2, 3, 5, 8, …} în cui ogni elemento si ottiene come somma dei due che lo precedono. Possiamo scriverla come una “camminata nel continuo”, nel senso che ho detto? Sì, anche se a livello estetico la definizione in termini di “somma dei due valori che precedono” è molto più bella da vedere – comunque, vediamola lo stesso: F(n) = (1.61803…^n – 0.61803…^3) / 0.23606… dove 0.23606… è la radice quadrata di 5, 1.61803 la “sezione aurea”, cara ai pittori del Rinascimento, e 0.61803… la sua “coniugata” (i numeri di Fibonacci, e la storia delle loro apparizioni spesso misteriose nella Natura, sono protagonisti di un bellissimo libro, Livio M, 2017, La sezione aurea. Storia di un numero e di un mistero che dura da tremila anni, Biblioteca Universale Rizzoli). Quanto allo strano accento “^”, l’ho usato (in mancanza di meglio su questi schermi) per indicare l’elevamento a potenza intera: x^n = x * x * x * … * x (n volte). Insomma, già pescando tra le camminate deterministiche nel continuo si trova davvero di tutto, molto spesso interessante (ricordo, anche, e con affetto, il corso di Matematica combinatoria del geniale professor Michele Sce, intorno al 1986 a Matematica a Milano, in occasione del quale ci introdusse a numerosi altri “numeri magici” della Matematica, tra i quali i Numeri di Bernoulli cari ad Ada Lovelace, per dire solo un caso – ma sarebbero troppi, per parlarne qui. Anche perché le successioni deterministiche non sono state, che io sappia, molto usate per rappresentare i fenomeni di diffusione, e quindi la dispersione. Per arrivare a questi dobbiamo fare un passo piccolo piccolo, ma, come vedremo, dalle conseguenze (letteralmente!) esplosive. La Camminata a Caso nel Continuo Ecco: abbiamo introdotto le camminate deterministiche nel continuo, ed abbiamo veduto come le possiamo scrivere come Valore “adesso” = Valore “prima” + Spostamento “adesso” oppure Valore “adesso” = Regola “per adesso” Ora concentreremo l’attenzione sulla prima di queste due forme (che mi ricorda molto più da vicino il concetto di “camminata” come successione di passi). E già che ci siamo, introduciamo un poco di convenzioni per facilitare il racconto. Intanto, con “x(t)” intendiamo la posizione del punto all’istante “t” rispetto al sistema di coordinate che immaginiamo di imporre sulla retta (lineare). E adesso, l’ipotesi: x(t + dt) = x(t) + S dove con “dt” ho indicato un breve intervallo di tempo (non necessariamente infinitesimo!), e con “S” la novità: uno scostamento casuale, cioè, una variabile casuale di cui immaginiamo di conoscere la distribuzione

Modelli a particelle: basi prima delle basi Leggi tutto »

Modelli di dispersione Gaussiani: Alcune cose da sapere, e 3 miti da sfatare

Patrizia Favaron C’era una volta… Un certo numero di anni fa, i computer personali di oggi non esistevano. E nemmeno esistevano le calcolatrici programmabili. Al massimo, ma dico proprio al massimo e per fortuna, si disponeva di un regolo e di “tavole numeriche”. (C’ero anch’io, a quel tempo, ma non c’entro: ero letteralmente una bambina 😇.) In compenso, inquinavamo come oggi. Anzi, se possibile peggio. E c’era così già la necessità di prevedere le ricadute al suolo delle grandi emissioni (di solito, camini industriali). Così, già allora servivano modelli di dispersione che fossero abbastanza facili da poterli usare. La risposta furono i modelli di dispersione Gaussiani. Ricordo di averne veduto uno interamente cartaceo: un libro, con nomogrammi e regoli e tavole numeriche, che permetteva (con una faticaccia) di determinare la ricaduta al suolo in uno o pochi punti “recettori”. Oggi i modelli Gaussiani sono ormai quasi solo una curiosità storica, ma è davvero molto interessante vedere in che modo sono stati costruiti: secondo me, sono un esempio davvero meraviglioso di modello, nell’accezione di “semplificazione della realtà finalizzata ad ottenere risultati che qualcuno giudica utili”. Com’è fatto un “modello Gaussiano”? Quasi non c’è niente da dire: l’equazione del modello ci sta in poche righe! Davvero, con un poco di pazienza possiamo eseguirlo con una calcolatrice scientifica. I modelli di dispersione che sono arrivati in epoche storiche successive (statistici, euleriani, lagrangiani) richiedono tutti calcolatori più o meno potenti, a volte potentissimi: ma a quei tempi, non ci si poteva permettere altro. La domanda che sorge spontanea sui modelli Gaussiani è: ma come ci sono arrivati? La risposta è, trovo, affascinante. E credo sia interessantissimo, sul piano didattico, vedere “come si faceva” 😊. Come ci sono arrivati? Correvano, come dicevo, anni remoti. Ma non così remoti che a quei tempi non si conoscesse l’equazione di advezione-diffusione: Ma prima di procedere, credo sia doverosa una premessa: tutto quello che sto per dire è la versione semplificata, ma molto molto, del materiale che ho presentato ad un seminario a inizio 2024 ai Fisici e alle Fisiche di UNINSUBRIA. Il tono della mia presentazione voleva essere leggero, e spero di esserci riuscita, anche se riguardandola mi è venuta una certa voglia di fare dei cambi (non mi preoccupo più di tanto: è dal 1962 che convivo con me stessa, e lo so: va sempre a finire così). Nel caso, la trovate qui: Visto che le spieghe sono già tutte là, qui possiamo limitarci alle cose fondamentali., senza il pericolo di perderci nei passaggi. Se avrai la bontà di prendere visione della presentazione vedrai come il procedimento, piuttosto tortuoso, ha richiesto moltissimo ingegno, unito alla capacità di “fare i conti a mano” un tempo diffusa. Capacità e ingegno, però, da soli non bastano: per semplificare le equazioni bisogna fare delle ipotesi. Restrittive. E tanto più, quanto meno diffusa è la disponibilità di risorse di calcolo. Queste, e non altro, fanno (sempre) della scelta di un modello di dispersione un’assunzione di responsabilità molto precisa. In effetti i modelli di dispersione non sono esattamente la stessa cosa dei tubi Dalmine che ho visto usare per i teleriscaldamenti:non esistono tabelle, linee guida e norme che sostituiscano un senso critico da Fisici e Fisiche. “Per favore non usateli!”: un po’ di myth-busting a proposito di modelli Gaussiani La concentrazione prevista al suolo non è un valor medio La semplificazione dell’equazione di advezione-diffusione presume l’esistenza di una soluzione “stazionaria”, cioè che non cambia rispetto al tempo. Una volta che la si ottiene, però, è appunto stazionaria, e la cosa ha un peso enorme: vuol dire, in pratica, che il rilascio di cui ci interessa quantificare la ricaduta al suolo è avvenuto con le stesse modalità dall’eternità negativa sino all’ora corrente. In questa infinità di tempo, vento e turbolenza si suppongono rimasti esattamente uguali. E (altra ipotesi), dato che il tracciante non è reattivo, la sua massa si conserva: ma se ne è stata rilasciata una quantità ad un rateo costante finito per un’infinità di tempo, allora la massa totale è infinita? Se prendete l’equazione del modello Gaussiano e la integrate nelle tre dimensioni spaziali, vedete che in effetti l’integrale diverge. In Matematica questa non è una grande novità: esistono funzioni semplicissime, come ad esempio il reciproco, 1/x, il cui integrale da 0 a x tende ad infinito al crescere di x. Eppure 1/x, al crescere di x, tende a zero, e neanche troppo lentamente. E però, il fatto che in ogni “ora simulata” (che in realtà è una infinità di tempo dall’eternità negativa a quell’ora lì) troviamo una massa infinita suona, come minimo, allarmante: l’ipotesi non è realistica. E particolarmente in certi contesti geografici (la Pianura Padana per dirne uno). In certi, ma non in tutti: nelle Grandi Pianure americane, o nelle vaste aree pianeggianti dell’Asia Centrale, invece, le variazioni del vento e della turbolenza avvengono con molta calma più spesso che nel mio cortile di casa, e nel caso i modelli Gaussiani in certe situazioni funzionano meglio che da me. Per com’è definita, la concentrazione al suolo di un modello stazionario quindi non è un valor medio, ma una sorta di strano “valore limite” ipotizzando condizioni che si mantengono costanti per un tempo infinito. Una concentrazione-limite, per caso, sovrastima le concentrazioni vere? Dopotutto è “limite”, e il suo integrale è infinito. La risposta, però, in generale è negativa. In una situazione normalmente non-stazionaria, per esempio, il vento medio continua a cambiare direzione, e questo induce “avvolgimenti” nel pennacchio di tracciante rilasciato da un punto. Questo “avvolgersi” può comportare localmente il manifestarsi di concentrazioni più alte di quelle previste dai modelli Gaussiani. Che quindi non sono necessariamente “più conservativi”! Sono, se mai, approssimazioni più crude di quelle dei più recenti modelli Lagrangiani… Il modello Gaussiano restituisce concentrazioni infinite se la velocità del vento diventa zero Se guardiamo anche solo distrattamente l’equazione dei modelli Gaussiani vediamo subito che la velocità del vento vi compare a denominatore. Quindi è vero: se la velocità del vento diventa zero, allora la concentrazione prevista dal modello

Modelli di dispersione Gaussiani: Alcune cose da sapere, e 3 miti da sfatare Leggi tutto »

Peter Sellers nella veste del Dr. Stranamore, nel film omonimo di Stanley Kubrick (immagine di pubblico dominio)

Modelli di dispersione e analisi dei rischi

Patrizia Favaron Il Lato Oscuro delle ricadute al suolo 😊 I modelli di dispersione lagrangiani, come visto nell’articolo introduttivo sui modelli di dispersione, hanno la prerogativa di restituire ad ogni passo temporale un valor medio della concentrazione al suolo. Se invece che di un modello disponessimo però di un sensore, che immaginiamo infinitamente veloce e preciso/accurato, e registrassimo tutti i dati da lui prodotti in un tempo di mediazione, non troveremmo un valore costante. Infatti, le concentrazioni di sostanze chimiche non sono costanti nel tempo, ma anzi soggette a fluttuazioni turbolente a causa delle quali i valori misurati tenderanno a distribuirsi più o meno come vediamo nell’istogramma qui sotto. Questa figura è rappresentativa di una distribuzione lognormale, e spesso le concentrazioni misurate sono distribuite così (con parametri diversi). Se la nostra attenzione è dedicata agli effetti a lungo termine dell’esposizione alle concentrazioni, questo livello di conoscenza in più non ci dice nulla di utile. Ma non tutte le sostanze disperse in atmosfera hanno effetti “a lungo termine”: alcune si rivelano nocive già in un singolo ciclo di inspirazione-espirazione (circa 10 secondi). Un esempio classico di questo tipo di effetti è quello degli agenti nervini, usati in alcune operazioni belliche e attacchi terroristici (un caso famigerato e famoso fu il rilascio di SARIN nei vagoni della metropolitana di Tokyo del 20 Marzo 1992). Nel caso degli effetti a breve termine, così, ad interessare non sono più i valori medi, ma le probabilità di supero di una concentrazione al di là della quale gli effetti si fanno pericolosi. E il confronto non è più con un limite di legge espresso in forma di statistica annuale, ma con l’entità complessiva degli effetti avversi. Il concetto di “rischio” Già: cosa si intende per “rischio”? Nel linguaggio comune, i “rischi” sono eventualità possibili e spiacevoli. Li si può evitare, oppure (qualcuno lo fa) cercare apposta. Ma questa non è una definizione: un’opinione, forse, e nulla più. Nella scienza, le opinioni contano meno del due di briscola neozelandese, per cui dobbiamo cercare qualcosa di meglio. Una vita professionale fa, quando mi occupavo di “sistemi programmabili per applicazioni safety critica” (e, assicuro, i “sistemi programmabili” di allora – prima metà degli anni ’90 – non inducevano ad una grande tranquillità) mi ero imbattuta in questa formula: Rischio di un evento = Magnitudine degli effetti avversi * Probabilità di occorrenza in un anno Nei casi che seguivo io, la “Magnitudine degli effetti avversi” si misurava in morti (già uno era da considerare un valore “alto”). Immaginiamo di seguire questa medesima impostazione, molto cruda – ne esistono, comunque, altre (ci sono, per esempio, i rischi finanziari, o politici, o…). Ora: torniamo alla nostra ricaduta al suolo. E supponiamo di conoscere esattamente la sostanza implicata (è un privilegio a volte raro: in certi incidenti industriali a priori non lo sai, e qualcuno deve avvicinarsi a prelevare dei campioni…). Al momento della ricaduta al suolo, la sostanza sarà caratterizzata da una certa concentrazione: la cosa prevista dal modello di dispersione! Bene: se la sostanza è conosciuta, allora è anche nota la concentrazione “di fuga” (possibilissimo che oggi sia conosciuta con un nome diverso), cioè, la concentrazione alla quale, se ti ci trovi esposta, hai mezz’ora per lasciare la zona. Il concetto, molto crudo, era che se per caso la concentrazione risultava maggiore di quel limite, le tue possibilità di fuga, e quindi di sopravvivenza, calavano velocemente a zero. Se chiamiamo “Cmax” questa concentrazione, e il modello di dispersione ci permettesse di stimare la sua probabilità ora per ora, allora potremmo determinare il rischio, che nel caso vorrebbe dire la frazione di persone che non riuscirebbero a sottrarsi. Problema: ma i modelli di dispersione permettono? C’è modello e modello… 🤔 Metto subito le mani avanti: i modelli che conosco e anche uso, per esempio Calpuff, non permettono. Dirò anzi di più: nella precedente puntata di questa serie (se l’avete mancata potete trovarla qui) avevo detto della classificazione dei modelli. E avevo accennato al caso dei modelli “stazionari”, un tempo usatissimi, ed oggi in via di estinzione (grazie anche al fatto che la US-EPA ormai raccomanda di non usarli). Bene: i modelli stazionari restituiscono un “valore limite” (nel senso matematico del termine: limite per t tendente ad infinito di…), che non è neanche un valor medio. Roba così non è di nessun aiuto, anzi, potrebbe essere persino fuorviante. Con i modelli lagrangiani parrebbe di poter dire che andiamo un po’ meglio: loro il valor medio orario della concentrazione ce lo danno. E però, ti rendi conto anche tu, manca un pezzo per completare il quadro: la deviazione standard lognormale. Certo, se l’avessimo potremmo calcolare la probabilità di supero della soglia di fuga, noti valor medio e deviazione standard lognormale. Ma appunto, non c’è… Entra in scena un nuovo attore Siamo nel 1990, epoca della Prima Guerra del Golfo (me la ricordo bene…). Ai tempi, sull’Iraq “regnava” Saddam Hussein, che aveva appena invaso il Kuwait. Va be’, la storia la potete trovare in rete. Quanto ai nostri casi, Saddam Hussein era famoso per usare la popolazione civile come scudo umano, e per ammassare stock ingenti di armi chimiche. Le due cose non andavano benissimo insieme: la coalizione ONU guidata dagli USA desiderava mettere le mani su quegli stock, o almeno renderli inoffensivi, ma farlo avrebbe significato esporre la popolazione civile a rischi (appunto) ingenti. Tali che, in caso di incidente, magari l’ONU avrebbe ritirato il mandato. La tecnologia militare di allora prevedeva dei “bombardamenti intelligenti” che, però, gli operativi in campo lo sanno bene, proprio intelligenti e chirurgici non sono. Ma soprattutto, metti di riuscire a centrare con un “bombardamento chirurgico” un complesso di produzione di SARIN che, guarda caso, era stato collocato a qualche centinaio di metri da un villaggio: se il vento tira dalla parte sbagliata, magari l’impianto lo distruggi anche, ma rischi di inondare di SARIN migliaia di persone innocenti e del tutto ignare del pericolo. Così (questa, almeno, la storia ufficiale) la CIA (sì, quella, la Central Intelligence Agency

Modelli di dispersione e analisi dei rischi Leggi tutto »