22 septembre 2021

Protection de la population 2030 : risques et opportunités liés à l’intelligence artificielle

Lorsqu’on parle d’intelligence artificielle (IA), on entend généralement l’apprentissage par les machines, qui permet de déduire des règles de décision à partir des caractéristiques statistiques des ensembles de données. L’emploi de certaines formes d’intelligence artificielle peut aussi trouver sa place dans la protection de la population, pour améliorer la détection précoce des risques.

Grâce à l’augmentation de la puissance de calcul, à la disponibilité des données et aux algorithmes évolutifs, l’intelligence artificielle (IA) est devenue une technologie habilitante qui trouve des applications dans de nombreux domaines de la société et de l’économie. Aujourd’hui, le terme générique IA fait généralement référence au champ de l’apprentissage automatique, c’est-à-dire aux algorithmes qui apprennent des règles de décision à partir des caractéristiques statistiques de données d’apprentissage. L’IA pourrait aussi servir à la protection de la population, par exemple pour améliorer la reconnaissance précoce des risques, à condition toutefois de prendre en compte les exigences propres à ce domaine.

La protection de la population est confrontée à des dangers naturels comme les ouragans, les tremblements de terre ou les inondations. Pour de tels événements, l’IA peut contribuer à une modélisation plus rapide, à l’établissement de cartes des dangers ou à la détection de signaux avertisseurs. L’Union internationale des télécommunications (UIT), une institution des Nations Unies dont le siège est à Genève, a notamment mis en place un groupe de réflexion AI for Natural Disaster Management (IA pour la gestion des catastrophes naturelles).

L’IA ouvre de nouvelles perspectives

Image infrarouge d’un feu de forêt prise par un drone

Les incendies de forêt dévastateurs qui ont fait rage récemment en Californie, en Australie ou encore en Grèce mettent au premier plan la question de la possibilité d’utiliser l’IA pour lutter contre de tels événements. Cela peut être le cas par exemple pour l’analyse de photos satellite, les drones ou les webcams, qui peuvent contribuer à détecter automatiquement les feux, à raccourcir ainsi le temps de réaction et à augmenter les chances de les éteindre. Les sapeurs-pompiers font de plus en plus usage d’outils de modélisation permettant de prévoir l’évolution des incendies de forêt en fonction de la topographie, de la météo et du matériel combustible. Les feux planifiés peuvent ainsi être contrôlés et les incendies non planifiés contenus grâce à des allées dégagées de tout matériau combustible. En Californie, par exemple, la National Science Foundation et le San Diego Supercomputer Center ont mis sur pied le projet WIFIRE et créé la plateforme web Firemap pour la simulation, la prévision et la visualisation en temps réel de l’évolution des feux de forêt à partir de données. Les sapeurs-pompiers de Los Angeles et une centaine de corps locaux l’utilisent déjà. Les autres applications d’IA comprennent la classification de la couverture végétale ou la prévision de l’accumulation de combustible et de conditions météorologiques dangereuses.

Radar à avalanches au Canada

La recherche sur les avalanches menée par l’Institut fédéral de recherches sur la forêt, la neige et le paysage (WSL) fournit un exemple d’application de l’IA dans le contexte de la protection de la population en Suisse. Elle utilise des données sur les conditions météorologiques, l’état de la neige et les avalanches livrées par des capteurs afin de tester des modèles d’IA à même d’améliorer la résolution spatiale et temporelle des prévisions. Des recherches analogues de l’ETH et du WSL portent sur les systèmes de détection précoce des laves torrentielles.

Robustesse et fiabilité de l’IA

Les modèles d’IA ne sont toutefois pas une panacée. Ils restent très limités lorsqu’il s’agit d’intégrer des concepts à partir d’un petit nombre d’exemples, de comprendre des liens de causalité ou de transférer les connaissances acquises dans d’autres domaines. L’utilisation de l’IA est particulièrement profitable lorsqu’on est en présence de grandes quantités de données, ce qui souvent n’est pas le cas pour les scénarios de danger à faible probabilité d’occurrence mais fort impact. En matière de protection de la population, les décisions sont souvent une question de vie ou de mort, raison pour laquelle il faut faire preuve de prudence si l’on transmet des compétences décisionnelles à des modèles d’IA dont la robustesse et la fiabilité ne sont souvent pas suffisamment garanties.

Non seulement les modèles d’IA sont sensibles aux cyberattaques, mais ils présentent de nouvelles vulnérabilités. Dans le domaine de la reconnaissance d’images, par exemple, il existe de nombreux exemples frappants d’erreurs de classification dues à des corrélations aléatoires dans les données, à des angles de vue inhabituels ou à la manipulation d’éléments subordonnés que les humains ne perçoivent qu’inconsciemment. Dans le champ de la protection de la population, l’IA devrait être utilisée principalement, jusqu’à nouvel ordre, pour l’aide à la décision mais pas pour prendre des décisions en autonomie.

Actuellement, moins de 1 % de la recherche en IA porte sur la robustesse et la sécurité des modèles. Il apparait donc nécessaire de poursuivre le financement de la recherche fondamentale dans le but de tester et de certifier les modèles afin de réduire les asymétries d’information lors de leur acquisition. C’est une condition sine qua non de l’intégration à grande échelle et en toute sécurité de l’IA dans la société et l’économie d’ici 2030 sans que les accidents ou les cyberattaques n’augmentent dans des domaines tels que les transports, la médecine ou les infrastructures critiques.

Dans son rapport de 2030 sur les tendances en matière de protection de la population (en anglais), le Center for Security Studies de l’EPF de Zurich analyse douze évolutions avec les risques et les opportunités qu’elles impliquent. L’intelligence artificielle en fait partie.

Plus d’informations en anglais

Auteur: Kevin Kohler, Center for Security Studies (CSS), ETH Zürich

Partager votre article:

Écrivez un commentaire

Votre adresse courriel ne sera pas publiée. Les champs obligatoires sont marqués *