Il machine learning per la riduzione del rischio

Il machine learning è una forma d’intelligenza artificiale in grado di apprendere in modo autonomo, stabilendo nuove connessioni tra i dati e gli elementi che ha a disposizione. Trova applicazione ed è oggetto di ricerca in svariati ambiti, compresa la riduzione del rischio: ne parliamo con Mirko D’Andrea, per approfondire quella che è attualmente la “big thing” della ricerca e non solo

Di machine learning sentiamo parlare sempre più spesso nei più svariati ambiti e sempre più spesso lo troviamo alla base delle nostre tecnologie. Alcune sono già in uso: per esempio, i sistemi di riconoscimento delle mail di spam sfruttano ampiamente le capacità di questa forma d’intelligenza artificiale in grado di apprendere e fare nuovi collegamenti tra i dati forniti. Altre sono in fase di studio, come nel caso di strumenti diagnostici e farmaceutici. In effetti, sono svariati i campi della ricerca scientifica che possono trarre vantaggi e avanzamenti sostanziali dal machine learning, e quello della gestione e mitigazione del rischio non fa eccezione.

Come e perché il machine learning può essere impiegato nel nostro campo di studio, il rischio? Quali sono le sue potenzialità, e quali i suoi limiti attuali? Ne parliamo con Mirko D’Andrea, ricercatore di Fondazione CIMA.

Quali sono le caratteristiche del machine learning che lo hanno reso così importante e pervasivo nella ricerca scientifica?

La risposta è nella funzione stessa del machine learning, ossia la capacità di questi algoritmi di imparare a mettere in collegamento ingenti moli di dati e stabilire connessioni tra loro. In questo modo ci permettono sia di analizzare grandi quantità d’informazioni in tempi molto rapidi, sia di trovare relazioni tra i dati forniti, perfino le meno evidenti. In aggiunta, proprio grazie a questa capacità, il machine learning permette, in molti casi, anche di comprendere meglio alcuni fenomeni oggetto di studio.

Ma come si applica questo nel campo della riduzione del rischio?

Possiamo fare un esempio di applicazione basandoci sugli studi che abbiamo condotto, in Fondazione CIMA, nell’ambito della prevenzione degli incendi boschivi. Per molti anni abbiamo provato a creare, nei nostri modelli, un nesso di causalità tra le caratteristiche di un territorio (la topografia, il tipo di vegetazione eccetera) e la sua suscettività agli incendi. È stato un lavoro che ha richiesto lo sviluppo di algoritmi anche molto sofisticati. La soluzione più efficace, però, è stata basarsi sul machine learning che, avendo a disposizione i dati riguardanti la regione d’interesse e lo storico degli incendi di quell’area, riesce a identificare le caratteristiche che li influenzano di più. In questo modo abbiamo potuto creare prima una mappa di pericolosità agli incendi per la Liguria, per poi allargare via via l’area arrivando a coprire tutta la regione del Mediterraneo orientale.

Ci sono altri esempi di applicazione nel campo della riduzione del rischio? Per esempio, il machine learning potrebbe aiutare per la previsione e la prevenzione delle alluvioni?

In linea generale, anche se si tratta di studi che Fondazione CIMA sta intraprendendo da poco, il machine learning ha un vasto margine di applicabilità nella gestione e riduzione di diversi rischi naturali. Di recente, per esempio, lo European Center Medium Weather Forecast (ECMWF), con cui collaboriamo, ha creato insieme a Google DeepMind un’infrastruttura basata su modelli di machine learning per le previsioni meteorologiche. Inoltre, esistono diversi studi per impiegare il machine learning nella previsione delle alluvioni, basati su principi analoghi a quelli che noi abbiamo sfruttato per gli incendi boschivi.

Anche nel campo delle osservazioni satellitari il machine learning trova larghissimo impiego. Molti di questi algoritmi hanno infatti il loro primo campo di applicazione nella elaborazione delle immagini.

Per esempio, in Fondazione CIMA è in corso uno studio il cui obiettivo è integrare tecniche di machine learning con dati di osservazione della Terra ad alta risoluzione (ottenuti dal satellite Sentinel-2) per migliorare la nostra comprensione delle dinamiche della siccità sulla vegetazione. L’obiettivo finale è identificare indicatori di siccità efficaci tra gli indici di vegetazione che potrebbero essere derivati dai dati Sentinel-2 per la futura mappatura dello stato di siccità sul territorio italiano.

Un altro utilizzo è la stima del contenuto d’acqua della vegetazione (un parametro necessario per le indagini sul rischio d’incendi). Anche in questo caso, i dati sono provenienti da Sentinel-2. Questo satellite, però, opera nello spettro del visibile: ciò significa che non riusciamo ad analizzare le aree coperte da nuvole e dobbiamo fare riferimento a dati antecedenti per estrarre le curve di possibile evoluzione della situazione. A livello modellistico, si tratta di un processo molto complicato e non facilmente modellabile con tecniche classiche; ma possiamo pensare di usare il machine learning per analizzare lo storico degli avvenimenti di quella data area e fare una previsione sulla loro evoluzione.

Ancora, nel campo della modellazione idrologica è in corso uno studio per utilizzare tecniche di Deep Data Assimilation, ovvero l’unione di tecniche di data assimilation (il processo di combinare dati osservati, come quelli meteorologici o satellitari, con modelli matematici per migliorare la precisione delle previsioni o delle simulazioni) con tecniche di deep-learning, una tecnica avanzata di machine learning che utilizza reti neurali profonde, cioè dotate di un grande numero di strati e parametri. L’obiettivo è migliorare le performance dei modelli idrologici, sfruttando capacità di calcolo delle reti neurali e la riduzione dei tempi di calcolo associate a queste tecniche.

Tutti questi sono esempi di analisi di dati numerici. Possiamo pensare di usare il machine learning anche per studi qualitativi?

Assolutamente sì, anzi anche noi lo abbiamo già fatto. Nell’ambito del progetto EDORA, infatti, abbiamo realizzato un atlante sul rischio di siccità, a livello europeo, nelle condizioni climatiche attuali e future. Parte del lavoro si è basato su un’analisi qualitativa del rischio: grazie al machine learning, abbiamo potuto associare determinate condizioni meteo-climatiche a una serie storica di impatti (come la perdita di produzione agricola) osservati nei diversi settori socio-economici analizzati. In questo caso, a entrare in gioco sono sistemi di linguaggio, analoghi a quelli utilizzati dal popolare sistema chatGPT, che ci hanno permesso di estrarre l’informazione relativa alle siccità a scala paneuropea da articoli di giornale, cioè da dataset che non hanno un’informazione strutturata per raccogliere i dati relativi al fenomeno.

D’altronde, l’uso del machine learning sulle analisi testuali è un altro campo di frontiera, perché permette di lavorare su grandi corpi di testo. Parte della ricerca futura di Fondazione CIMA, in effetti, riguarderà anche l’applicazione del machine learning nell’analisi dei framework legislativi. È quanto stiamo facendo con un nuovo percorso di dottorato, che portiamo avanti in collaborazione con la Croce Rossa: lo scopo è analizzare vari set di dati non strutturati per trasformarli in informazioni per l’azione umanitaria.

Possiamo chiudere con qualche considerazione sulle prospettive di questa tecnologia per il futuro? Quali sono, al momento, i limiti?

Il limite più grande nell’utilizzo di tecniche di machine learning è rappresentato dalla “qualità” dei dati disponibili, che siano corretti, quanto più possibile completi, affidabili e rappresentativi del fenomeno che si vuole modellare. Poiché il machine learning fa pieno affidamento sulla qualità dei dati di training, avere un dataset di bassa qualità produrrà risultati scadenti. Allo stesso modo, avere un bias nei dati di addestramento produrrà un sistema con bias intrinsechi, il che può produrre output errati in determinate situazioni.

Comunque, Fondazione CIMA gestiste una grande quantità di dati meteorologici, satellitari, geografici e derivati da modelli meteo. Questa ricchezza di disponibilità di dati di qualità offre grandissime opportunità di utilizzo di queste tecniche.

Una considerazione di carattere più generale, ma non meno importante, è che ci stiamo confrontando con una serie di tecnologie dall’evoluzione incredibilmente rapida. I recenti sviluppi nel campo dell’intelligenza artificiale rappresentano un punto di flessione, un cambio di velocità dell’evoluzione tecnologica. Rimanere al passo con questi progressi tecnologici è una sfida importante nel mondo moderno, quindi anche nel campo della riduzione del rischio e nei temi affrontati dalla nostra Fondazione.

Condividi