22 Settembre 2021

Protezione della popolazione 2030: opportunità e rischi dell’intelligenza artificiale

Oggi il termine collettivo «intelligenza artificiale» (IA) si riferisce in genere alla sottoarea dell’apprendimento automatico, che permette di assimilare regole di decisione a partire dalle caratteristiche statistiche dei test set. Queste forme di intelligenza artificiale potrebbero rivelarsi utili anche nell’ambito della protezione della popolazione, per esempio per migliorare l’individuazione precoce dei rischi.

L’intelligenza artificiale (IA) è diventata una tecnologia abilitante con applicazioni in molti campi della società e dell’economia grazie alla crescente potenza di calcolo, alla disponibilità di dati e agli algoritmi scalabili. Oggi, il termine collettivo «intelligenza artificiale» si riferisce generalmente alla sottoarea dell’apprendimento automatico, cioè agli algoritmi che assimilano le regole di decisione a partire dalle caratteristiche statistiche dei test set. L’uso dell’intelligenza artificiale potrebbe essere utile anche nell’ambito della protezione della popolazione, per esempio per migliorare l’individuazione precoce dei rischi. Tuttavia, questo richiede che si tenga conto delle esigenze particolari della protezione della popolazione.

La protezione della popolazione si occupa di pericoli naturali, tra cui tempeste, terremoti e inondazioni. Per tali eventi, l’intelligenza artificiale può fornire un contributo per creare modelli più rapidamente, elaborare mappe dei pericoli o rilevare segnali di allarme precoce. L’Unione Internazionale delle telecomunicazioni (UIT) delle Nazioni Unite a Ginevra ha istituito, tra gli altri, il focus group «AI for Natural Disaster Management».

Nuove prospettive grazie all’intelligenza artificiale

Immagini a infrarossi di un incendio boschivo scattate da un drone

Alla luce dei devastanti incendi boschivi in California, Australia e Grecia, le possibilità presentate dall’intelligenza artificiale per combattere eventi di questo tipo sono di grande attualità. Nel caso degli incendi boschivi, l’analisi delle fotografie scattate da satelliti, veicoli aerei senza equipaggio o webcam basata sull’intelligenza artificiale può aiutare a rilevare automaticamente gli incendi e quindi a ridurre il tempo di risposta, oltre ad aumentare la possibilità di estinguere il fuoco. Inoltre, i pompieri si affidano sempre più a strumenti di modellazione per prevedere lo sviluppo degli incendi boschivi in base alla topografia, al tempo e al materiale combustibile. Gli incendi pianificati potrebbero così essere meglio controllati e gli incendi non pianificati contenuti con corridoi liberati dal materiale combustibile. In California, per esempio, nell’ambito del progetto WIFIRE, avviato dalla National Science Foundation e dal San Diego Supercomputer Center, è stata creata la piattaforma web Firemap per la simulazione basata sui dati, la previsione e la visualizzazione del decorso degli incendi boschivi in tempo reale. La piattaforma è usata dai pompieri di Los Angeles e da oltre un centinaio di servizi di soccorso locali. Altre applicazioni dell’intelligenza artificiale comprendono la classificazione della copertura del suolo e una previsione del materiale combustibile presente in un’area e di condizioni meteorologiche pericolose.

Radar per valanghe in Canada

Un esempio di applicazione dell’intelligenza artificiale nel settore della protezione della popolazione svizzera è la ricerca sulle valanghe dell’Istituto federale di ricerca sulla foresta, la neve e il paesaggio (WSL). La ricerca utilizza i dati meteorologici, sulle condizioni della neve e sulle valanghe forniti dai sensori per addestrare modelli d’intelligenza artificiale che possono migliorare la risoluzione spaziale e temporale delle previsioni di pericolo valanghe. I ricercatori del Politecnico federale e del WSL elaborano attualmente dei sistemi di preallarme basati sull’intelligenza artificiale anche per le colate detritiche.

Robustezza e sicurezza dell’intelligenza artificiale

I modelli d’intelligenza artificiale non sono tuttavia una panacea universale. Sono fortemente limitati quando si tratta di imparare concetti astratti da un piccolo numero di esempi, capire la causalità o trasferire ciò che è stato appreso ad altri settori. Il ricorso all’intelligenza artificiale è utile soprattutto quando sono disponibili grandi quantità di dati per uno stesso fenomeno. Per gli scenari di pericolo poco probabili ma con gravi conseguenze, però, non esistono molti dati. Oltretutto, nel settore della protezione della popolazione le decisioni sono spesso letteralmente una questione di vita o di morte. È quindi importante esercitare cautela quando si trasferisce potere decisionale a modelli di intelligenza artificiale, poiché la loro robustezza e sicurezza è spesso garantita solo in modo insufficiente.

I modelli di intelligenza artificiale non sono solo esposti ai tipici attacchi informatici, ma introducono anche una nuova categoria di vulnerabilità. Nel campo del riconoscimento delle immagini, per esempio, si osservano numerosi esempi di palesi errori di classificazione dovuti a correlazioni casuali nei dati, prospettive inusuali o manipolazione di elementi subordinati che le persone percepiscono solo a livello inconscio. Nella protezione della popolazione, fino a nuovo avviso l’intelligenza artificiale dovrebbe quindi essere utilizzata principalmente come supporto decisionale, e non per la presa di decisioni autonoma.

Attualmente, meno dell’uno per cento della ricerca sull’intelligenza artificiale mira alla robustezza e alla sicurezza. È quindi importante che la ricerca di base sull’intelligenza artificiale continui ad essere finanziata allo scopo di testarla e certificarla per ridurre le asimmetrie di informazione nell’acquisizione dei suoi modelli. Questo è l’unico modo per garantire che l’intelligenza artificiale possa essere utilizzata in modo sicuro in vari ambiti dell’economia e della società entro il 2030, senza dovere assistere a incidenti dovuti all’intelligenza artificiale o ad attacchi ai suoi sistemi nei settori dei trasporti, della medicina o delle infrastrutture critiche.

Nel rapporto «Trend Analysis Civil Protection 2030 Uncertainties, Challenges and Opportunities» (in inglese), il Center for Security Studies del Politecnico federale di Zurigo ha analizzato dodici sviluppi che potrebbero comportare nuove opportunità o minacce per la protezione della popolazione. L’intelligenza artificiale è uno di questi.

Più informazioni in inglese

 

Autore: Kevin Kohler, Center for Security Studies (CSS), Politecnico federale di Zurigo

Condividi post:

Scrivete un commento

Il tuo indirizzo e-mail non sarà pubblicato. I campi obbligatori sono contrassegnati con un *