La détection de feux de forêts à bord de satellites -CNIA 2022

Le mercredi 29 juin 2022, Houssem Farhat (datascientist), Lionel Daniel (ingénieur de recherche), Michael Benguigui (ingénieur de recherche) et Adrien Girard (chef de projet) ont présenté à la CNIA (Conférence Nationale en Intelligence Artificielle) un nouvel article “Modèle et jeu de données pour la détection multi-spectrale de feux de forêt à bord de satellites”. Ces travaux sont issus du projet CIAR.


A PROPOS

« Modèle et jeu de données pour la détection multi-spectrale de feux de forêt à bord de satellites »

Abstract

Le nombre de feux de forêts risque d’augmenter de +50% d’ici à 2100. Dans cet article, nous nous intéressons à la télédétection de ces feux à bord d’un satellite afin de lever des alertes précoces directement depuis l’espace. Dans ce cadre, nous avons entraîné un réseau de neurones UNetMobileNetV3 à segmenter des images multispectrales de Sentinel-2*. Nous avions précédemment annoté ces images semi-automatiquement, puis elles ont été vérifiées manuellement. Nous avons ensuite déployé ce réseau sur un GPU**dans un satellite en orbite basse.


Plus de détails sur la publication : ici

Citation LaTex/BibTex

@inproceedings{houssemfarhat:hal,

TITLE = {Mod{`e}le et jeu de donn{‘e}es pour la d{‘e}tection multi-spectrale de feux de forêt {`a} bord de satellites},
AUTHOR = {Farhat, Daniel, Benguigui, Girard},
BOOKTITLE = {PFIA 2022 – CNIA},
ADDRESS = {Saint-Etienne, France},
YEAR = {2022},
MONTH = Jun, 
KEYWORDS = {System Design ; semantic parsing ; abstract representation ; formalization},
}

*Constellation de satellites scientifiques | **Unité de traitement graphique permettant des d’accélérer les calculs tensoriels accélérant l’intelligence artificielle embarquable


A PROPOS DU DATASET S2WDS (SENTINEL-2 WILDFIRE DATASET)

« Dans le cadre de ces recherches, nous avons exploité un jeu de 90 scènes de 13 bandes spectrales provenant du satellite Sentinel-2, dont la résolution spatiale au sol varie de 40 à 80m et où les foyers ont été pré-annotés automatiquement, puis corrigés manuellement a été mis en place. »

Ces images de niveau de traitement image L1C ont été téléchargées depuis le WCS (Web Coverage Service) de l’API OGC de Sentinel-Hub, puis découpées en images de 256×256 pixels. Ensuite, les mêmes images ont été partitionnées en trainset, valset et testset pour entraîner, valider et tester une Intelligence Artificielle obtenant une qualité d’IoU de 94%.


Plus de fichiers disponibles au téléchargement : ici
Ces résultats sont reproductibles via le code disponible : ici

Deux exemples d’images de 256×256 pixels et leurs annotations associées (=vérité terrain) qui indiquent où sont les foyers. Les images « Fausse couleur » représentent la même scène que l’image RGB mais le canal rouge vert et bleu de votre écran affiche les bandes spectrales B12, B11 et B04 acquises par un satellite Sentinel 2. Les bandes B12 et B11 étant sensibles aux proche-infrarouges, les foyers apparaissent en orangé.

A PROPOS DE L’IMPACT ENVIRONNEMENTAL DE CETTE ETUDE

« L’impact environnemental de cette étude est difficilement mesurable, mais il est important d’en connaître l’ordre de grandeur. »

En évaluant seulement l’impact carbone de la consommation électrique induite par l’entrainement de notre Intelligence Artificielle, les auteurs estiment avoir émis environ 2kgCO2, soit environ 3000 fois moins que leur empreinte carbone personnelle qu’ils devront réduire par 5 en 2050 pour espérer respecter les +2°C des accords de Paris à la COP21.

Même si toute l’équipe est consciente de la situation environnementale actuelle, il est important de savoir que ce projet a pour but de contribuer à l’équilibre environnemental de notre planète. En effet, en détectant rapidement les feux de forêts depuis l’espace, un satellite pourrait directement alerter les humains à proximité et ainsi sauver des vies, la faune et la flore.

Pour plus de détails, veuillez consulter l’article.


A PROPOS DU PROJET CIAR

« Le projet CIAR (Chaîne Image Autonome et Réactive) étudie les technologies permettant de déployer de l’Intelligence Artificielle pour le traitement de l’image sur des systèmes embarqués (satellites, drones de livraison, etc.). »

Pour cela, trois défis interdépendants sont relevés :

  • La définition du cas d’utilisation et la constitution de bases de données image ;
  • La conception d’IA performantes et adaptées aux contraintes des systèmes embarqués ;
  • L’optimisation et l’implémentation matérielle des algorithmes sélectionnés.

Depuis plusieurs années, l’équipe CIAR collabore avec l’ESA (Agence Spatiale Européenne) sur la mission OPS-SAT. Le 22 mars 2021, l’équipe a accompli deux premières spatiales :

  • La mise à jour à distance, depuis une station sol, d’un réseau de neurones artificiel embarqué sur un satellite ;
  • L’utilisation d’un FPGA (Field-Programmable Gate Array) pour déployer et utiliser ce réseau de neurones en orbite.

Plus de détails sur le projet CIAR : ici

INFORMATIONS CLES
Chiffres clés

Durée du projet : 5 ans (Juin 2018 – Juin 2023)

Budget: 6.5M € (financés en partie par le PIA)

Membres: 9

Membres industriels

Activeeon, Avisto, Elsys, Geo4i, MyDataModels, Thales Alenia Space, TwinswHeel

Membres académiques

Inria, Leat/CNRS

Tutelles étatiques

PIA

La détection de feux de forêts à bord de satellites -CNIA 2022
Retour en haut