Vent’anni di Direttiva allertamento, vent’anni di scienza

Ricorrono il 27 febbraio i vent’anni dall’emanazione della Direttiva allertamento: all’avvicinarsi di questo anniversario, dedichiamo un approfondimento al ruolo dello sviluppo tecnologico e scientifico per modelli previsionali, ma anche per le necessarie fasi di monitoraggio e sorveglianza dei fenomeni meteorologici, idraulici e idrogeologici

Abbiamo da poco ripercorso la storia di quella nota come Direttiva allertamento – o, più precisamente, della Direttiva 27 febbraio 2004: indirizzi operativi per la gestione del sistema di allertamento nazionale per il rischio idrogeologico e idraulico. È l’origine del sistema di allertamento, basato sulla rete dei centri funzionali, che nel nostro paese garantisce le attività di previsione e monitoraggio per eventi meteorologici, idrologici e idrogeologici, permettendo di definirne specifici livelli di allerta e mettere in campo le adeguate misure di prevenzione e protezione, compresa l’informazione alla cittadinanza.

La storia della direttiva è accompagnata dalla storia di uno sviluppo tecnologico e scientifico, che caratterizza in generale tutte le attività e la ricerca in campo della gestione del rischio. Ne parliamo con Luca Molini, ricercatore di Fondazione CIMA.

Ricerca e sviluppo, un duo che si auto-alimenta

«Questo rappresenta uno dei pochi casi in cui il contributo scientifico è inserito in modo diretto ed esplicito all’interno di una direttiva, perché definisce il ruolo dei centri di competenza anche in termini di supporto alle conoscenze e per sviluppo, miglioramento e aggiornamento dei molti strumenti utilizzati nel sistema di allertamento», spiega Molini. «Ruolo che diventa particolarmente evidente guardando alla fase di valutazione».

Come avevamo spiegato, infatti, la Direttiva definisce chiaramente una fase di previsione seguita da una fase di monitoraggio e sorveglianza della situazione. E, nella fase di previsione, il ruolo di protagonisti lo hanno i modelli previsionali (meteorologici, idrologici, idraulici e per le frane) e la loro interpretazione da parte dei tecnici. Inoltre, lo sviluppo di strumenti osservazionali a terra, dei satelliti e della rete radar meteorologica nazionale ne ha permesso l’affinamento nel corso degli anni, determinandone capacità predittive sempre più accurate e precise. «La rete radar, per la quale peraltro Fondazione CIMA ha avuto un importante ruolo di progettista, è stata l’elemento che più di tutti ha permesso di colmare il gap tra la previsione e l’osservazione, e di conseguenza anche tra previsione e monitoraggio», spiega Molini. «Infatti, sono stati sviluppati algoritmi che, basandosi sulle informazioni fornite dai radar, consentono di compiere previsioni a brevissimo termine (nell’ordine dell’ora circa), fondamentali per il monitoraggio degli eventi rapidi – che spesso sono anche i più intensi».

Per certi versi, si tratta di un circolo che si auto-alimenta. L’aumento nella capacità di calcolo ha alimentato il progressi dei modelli previsionali e quindi a previsioni più accurate, anche a scale molto ridotte (necessarie, per esempio, in caso di fenomeni come le flash flood). Gli stessi avanzamenti scientifici e tecnologici hanno consentito di studiare i fenomeni in modo sempre più fine, e questo a sua volta consente di mettere a punto modelli in grado di descrivere gli scenari in modo sempre più accurato. «Insomma, ricerca di base e sviluppo modellistico si nutrono l’un l’altro, permettendoci di aumentare sempre più le conoscenze», commenta Molini.

Di pari passo con lo sviluppo della strumentistica a disposizione, anche le professionalità degli operatori hanno dovuto crescere ed evolversi. Le emissioni (e la gestione) delle allerte, infatti, non sono basate sul mero risultato del modello previsionale, ma richiedono un’interpretazione basata sulle competenze e l’esperienza degli operatori, che sempre più devono essere in grado d’interpretare il quadro fornito dall’uscita modellistica. Come spiega Molini, «Prima del 2004, non erano formalmente definite figure che compissero questo tipo di valutazione, analizzando ed eventualmente correggendo i risultati dei modelli previsionali: sono competenze che hanno dovuto essere in larga parte acquisite e affinate con l’applicazione della Direttiva allertamento, così da definire gli scenari di pericolosità unendo esperienza e dati numerici».

Intelligenza artificiale e affidabilità delle allerte: prospettive per l’allertamento

L’avanzamento scientifico e tecnologico non può, oggi, non tenere conto (e avvantaggiarsi) anche della “new entry” di punta in molti campi della ricerca. Si tratta, ovviamente, dell’intelligenza artificiale, al cui ruolo nell’ambito della gestione del rischio avevamo già dedicato un approfondimento qualche tempo fa. «l’IA può potenzialmente mimare ciò che oggi fanno i previsori umani, ricostruendo la parte di valutazione attraverso algoritmi di calcolo “addestrati” a collegare determinati parametri e valori (per esempio in termini di precipitazione su un certo tipo di territorio) con i loro effetti al suolo», spiega Molini. «Questo non significa far venire meno il ruolo umano, di sicuro non nel breve periodo; significa, però, poter analizzare in maniera massiva i dati per ricondurli a situazioni che si sono già verificate nel passato, e poter identificare gli eventi estremi che una previsione probabilistica ha difficoltà a individuare».

Pensando alle prospettive dell’allertamento italiano, c’è anche un altro aspetto su cui potrebbe convergere l’attenzione dei prossimi anni. Non si tratta di un aspetto strettamente scientifico, ma a cavallo tra scienza e società, che riguarda la valutazione delle allerte: se è infatti indubbia l’importanza del loro ruolo in termini di protezione civile, non è semplice eseguirne un’analisi. Come avevamo raccontato, infatti, la Direttiva è cambiata nel corso degli anni, introducendo l’allertamento per il rischio idrogeologico connesso ai temporali e un codice colore condiviso tra tutte le Regioni nel 2016; prima di questa data, quindi, il sistema risultava più composito e difficilmente confrontabile tra una Regione e l’altra.

«Uno dei grandi temi aperti è quello dell’omogenizzazione del sistema di verifica, per avere un confronto tra effetti al suolo reali e previsioni. Al momento, infatti, non è possibile tenere conto di alcuni effetti al suolo che si verificano quando, per esempio, il terreno è già saturo (per cui anche una precipitazione relativamente limitata può avere effetti significativi), o per fenomeni non strettamente misurabili, come la grandine. Servirebbero un approccio condiviso e una metodologia robusta e omogenea per la registrazione dei danni a livello regionale, così da capire l’impatto reale dei diversi eventi e correggere eventuali bias di sovra- o sottostima degli eventi», conclude Molini. «Questo ci consentirebbe anche di fornire un’informazione ancora migliore alla popolazione».

Condividi