Plus de 150 partenaires PIGMA mobilisés au webinaire sur les données satellites et l'intelligence artificielle

Animation, Café-atelier, Données, Toutes

05/10/2023

20231005 webinaire PIGMA Donnees satellites IA

Le webinaire de la communauté PIGMA du jeudi 5 octobre a mobilisé plus de 150 participants autour des données satellites à l’heure de l’intelligence artificielle.

En ouverture de webinaire, Héloïse Deschamps, GIP ATGeRi/PIGMA, après avoir accueilli les participants, a rappelé les bonnes pratiques pour le bon déroulement de la matinée.

En introduction, Anne Sagot-Duvauroux, GIP ATGeRi/PIGMA, a remercié l’ensemble des intervenants qui crée la valeur ajoutée des webinaires PIGMA en partageant leurs expériences : Jacques Beas Garcia du CNES; Nicolas Beaugendre de KERMAP et Sébastien Dias du GIP ATGeRi; Yvan Dupuy du SDIS 33; Laure Chaumat et Vincent Poulain de Thalès; et Sébastien Lefèvre de l’Université Bretagne Sud, et du laboratoire IRISA.

Elle a également remercié les 200 inscrits au webinaire, dont plus de 150 étaient connectés. Elle a remercié l’équipe technique Héloïse Deschamps et Thomas Petillon, GIP ATGeRi/PIGMA, pour leur implication dans la production technique de l’évènement.

Elle a rappelé que PIGMA est un réseau de près de 850 partenaires qui partagent plus de 8000 données, et ce depuis 10 ans sur le territoire régional. PIGMA œuvre pour un partenariat durable autour de la gouvernance, l’accès, l’acquisition, et l’entretien de la donnée. La plateforme PIGMA est gérée par le Groupement d’Intérêt Public Aménagement du Territoire et Gestion des Risques.

L’objectif de ces matinées est l’échange d’expériences pour apprendre les uns des autres d’où l’importance d’avoir le plus d’interactivité possible.

Anne Sagot-Duvauroux a ensuite redonné le contexte de ce webinaire.

Aujourd’hui l’acquisition de données d’observation et de connaissance via les satellites s’est démultipliée et démocratisée. Le flux des données fourni est colossal.

L’intelligence artificielle (IA) permet désormais d’aider à traiter ces données massives. Ainsi, l’utilisation de l’analyse d’images basée sur l’IA pour la technologie d’imagerie par satellite est en train de révolutionner la façon de surveiller et analyser la surface de la Terre.

Cette technologie fonctionne en utilisant des algorithmes d’apprentissage en profondeur pour “apprendre” aux ordinateurs à analyser les images satellites. En entraînant l’ordinateur à reconnaître les motifs, les formes et les couleurs, la technologie d’analyse d’images basée sur l’IA est capable d’identifier rapidement et avec précision les objets, les caractéristiques et le terrain à la surface de la Terre.

La combinaison des technologies d’acquisition de données par satellites et de leur analyse par IA peut être utilisée pour surveiller les changements dans l’utilisation des terres, le développement urbain, la production agricole, mais également les océans, les cours d’eau et les littoraux (…), et ce, avec des fréquences de mises à jour élevées.

L’objectif de ce rendez-vous est de découvrir au travers de cas d’usages la valeur ajoutée représentée par l’utilisation des données issues de cette technologie.

Elle a invité Jacques Beas Garcia du CNES à un état des lieux des données satellites à l’heure de l’intelligence artificielle.

 

L’IA au service de la technologie d’imagerie par satellites

De haut en bas : Anne Sagot-Duvauroux, GIP ATGeRi/PIGMA; Jacques Beas Garcia, CNES

Jacques Beas Garcia, sous directeur valorisation des données à la direction de la stratégie au CNES, a dressé un panorama des données satellites à l’heure de l’intelligence artificielle.

Il est parti du double enjeu que représentent les données spatiales aujourd’hui.

Le premier enjeu réside dans les capacités technologiques. En effet, les données spatiales sont des données qui peuvent être très massives et nécessitent de nombreuses opérations pour pouvoir en tirer une information. L’arrivée des technologies numériques, le cloud et l’IA, a permis une capacité d’exploitation extrêmement simple et rapide.

Le deuxième enjeu est l’économie de la donnée. Le spatial est désormais un outil qui permet d’aller monitorer l’ensemble des activités humaines sur la planète. L’économie de la donnée est en train de se généraliser et devient un véritable « driver de l’économie » notamment européenne.

Trois domaines dans le spatial contribuent à l’économie de la donnée :

  • les télécoms,
  • la navigation
  • et l’observation.

La partie la plus importante du marché, qui en est à ses prémices, se situe dans les usages.

Historiquement le marché a été dominé par le secteur de la défense, puis à partir de 2020 de nouveaux secteurs émergent comme la finance, les assurances ou l’agriculture.

Les données spatiales sont extrêmement variées : données optiques, données radars,  données d’altimétrie.

Le spatial génère un autre service qu’on appelle le positionnement précis qui amène  une valeur ajoutée supplémentaire en permettant de localiser de l’information à 4 centimètres sur n’importe quel endroit de la planète.

Le spatial est en capacité de  fournir des données qui vont monitorer l’activité humaine sur l’ensemble de la planète et presque tout le temps.

Au début du développement de la filière de données spatiales, les systèmes étaient unitaires et liés à des acteurs comme Airbus avec Spot puis Pléiade.

Aujourd’hui sont générées autant de données en un an que durant les trente dernières années ! Demain avec l’émergence des constellations seront générées autant de données en un jour qu’en un an !

Jacques Beas Garcia a illustré son propos avec l’exemple d’acteurs qui commencent à annoncer la capacité de revisiter n’importe quel endroit de la planète toutes les 15 minutes, ce qui signifie avoir une information sur n’importe quel endroit de la planète, toutes les 15 minutes !

Il a souligné également que le nombre d’acteurs est en train de se développer considérablement. Aujourd’hui ils sont au nombre d’une soixantaine mais environ 80 projets de constellation sont en préparation pour les mois à venir.

Les données spatiales vont donc être en mesure de répondre à de nombreux enjeux majeurs comme le changement climatique.

Le secteur est également en constante innovation. Il cite en exemple les Haps (High Altitude Platform System) ou drones de haute altitude, qui permettent d’avoir des données collectées en stationnaire. En effet, la plupart des satellites évoqués sont des satellites défilants, les HAPS peuvent désormais surveiller un point en permanence pendant un temps donné.

Jacques Beas Garcia a cité en exemple un projet mené par le CNES avec Airbus : CO3D. L’objectif est d’avoir une capacité à générer un modèle numérique de terrain de la planète en quasi temps réel, avec un essaim de satellites.

L’écosystème est également en train de se structurer. En effet comme les RGPD, deux règlements européens sont rentrés en application : le Data Governance Act et le Data Act. D’autres actions connexes sont en train de définir des normes et des standards ou des architectures de référence.

Jacques Beas Garcia a signalé que des hubs de données sectorielles sont en train de se mettre en place dans de nombreux domaines : en agriculture, dans le tourisme, dans la mobilité…

Les usages évoluent de l’utilisation d’une donnée à la fusion de données.

La valorisation de la donnée passe par plusieurs étapes :

  • d’une donnée brute transformée en information,
  • puis en service à valeur ajoutée,
  • puis une compétence et une connaissance,
  • qui permettent de prendre des décisions éclairées sur la base de ces informations.

C’est ainsi qu’en croisant fusion de données, capacités technologiques et connaissances technologiques (IA et expertises métiers), des services à très haute valeur ajoutée ont émergé.

Jacques Beas Garcia a ainsi cité en exemple les services de Kayrros sur le secteur énergétique, ou l’identification du niveau de stockage du pétrole dans le monde par la fusion de données, la deep tech et les expertises métiers qui permettent de prédire le cours du pétrole et ce, avant les agences de notation !

Cette technologie permet également d’avoir des niveaux d’information sur des économies jusqu’alors secrètes comme pour l’activité économique de la Chine.

D’autres exemples sont notables comme l’agriculture raisonnée, la certification des cultures, le suivi des ressources notamment la gestion en ressources en eau, mais également tous les indicateurs environnementaux, la gestion des risques, la gestion des crises…

Jacques Beas Garcia a conclu en soulignant que le potentiel de ces données est infini.

Après un échange avec les participants, Anne Sagot-Duvaroux a remercié Jacques Beas Garcia et a invité Nicolas Beaugendre, Kermap et Sébastien Dias, GIP ATGeRi à présenter le cas de l’utilisation des données satellites et de l’IA dans la mise à jour du PCRS avec le projet Copernicus.

(Télécharger la présentation de Jacques Beas Garcia, CNES)

 

L’utilisation des données satellites et de l’IA dans la mise à jour du PCRS avec le projet Copernicus.

De haut en bas : Nicolas Beaugendre, KERMAP; Sébastien Dias, GIP ATGeRi/PIGMA; Anne Sagot-Duvauroux, GIP ATGeRi/PIGMA.

Sébastien Dias a présenté dans un premier temps le challenge Copernicus.

Le challenge Copernicus est un appel à projet financé par la Commission européenne via le programme Copernicus. Il est mené à l’initiative du CNES, opéré, encadré, et porté par Aerospace Valley.

L’objectif de ce challenge, est de développer des usages de la donnée spatiale, notamment des données issues du programme Copernicus.

Pour répondre à des usages concrets de collectivités ou d’entreprises, des utilisateurs finaux comme le GIP ATGeRi ont été retenus sur 5 thématiques : énergie renouvelable, climat et santé, sécurité des infrastructures, biodiversité, aménagement.

Le GIP ATGeRi a été retenu sur la thématique aménagement pour les travaux de détections de changements pour la mise à jour du fond de plan cartographique image du plan de corps de rue simplifié (PCRS). Puis l’entreprise Kermap a été sélectionnée après consultation pour effectuer les travaux.

Sébastien Dias a rappelé que le plan de corps de rue simplifié ou PCRS, plus communément appelé PCRS image, est une orthophotographie haute résolution, un fond de plan topographique qui permet de positionner des objets de manière très précise.

Dans le cadre de la loi anti-endommagement de Juillet 2012 visant à limiter les risques d’endommagements sur les réseaux enterrés, aériens et subaquatiques, un lever grande échelle conforme aux formats d’échange PCRS (vecteur ou image) est exigible sur tout le territoire national français au premier janvier 2026. Le GIP ATGeRi participe à l’animation et à la production de différents PCRS sur la Nouvelle-Aquitaine (PCRS image sous des orthophotographie HR 5 cm).

L’enjeu du PCRS c’est de maintenir à jour cette donnée. C’est pourquoi le GIP ATGeRi s’est interrogé sur les mises à jour de ce fond de plan sans revoler sur la totalité du territoire concerné. L’idée est d’identifier les zones à mettre à jour et de faire un plan de vol qui permet de revoler uniquement sur les zones sur lesquelles il y a nécessité de revoler pour faire la mise à jour des dalles de l’orthophotographie.

Dans ce contexte, l’objectif du challenge consiste à mener une expérimentation sur la  détection de zones de PCRS à mettre à jour à partir d’interprétation de données satellites. Dans le fonctionnement actuel, les zones à mettre à jour sont remontées manuellement par les différentes parties prenantes des tours de table. L’idée consiste à aller détecter de manière semi-automatique ou automatique des changements impactant le corps de rue (nouveau lotissement, nouveau rond-point, îlot séparateur, quais-bus, piste cyclable,…) et donc potentiellement déploiement des réseaux sur site à partir d’analyse de données satellites.

Sébastien Dias a ensuite donné la parole à Nicolas Beaugendre pour détailler la méthodologie utilisée.

Nicolas Beaugendre a précisé que la méthodologie baptisée EODES (Etude pour Obtention de la Direction d’Evolution par Satellite) s’appuie sur trois zones tests identifiées préalablement par le GIP ATGeRi. Il s’agit de l’agglomération du Grand Angoulême, celle de Pau et de Valence Romans (en collaboration avec le CRAIG). L’idée est de prendre deux zones en calibration avec de nombreuses données et une zone en validation.

Le projet a démarré le 19 septembre et va se dérouler sur six mois. L’idée est de faire des analyses comparatives (Spot, Pléiade, Sentinelle) entre capteurs sur la capacité ou non d’observer les changements par détection automatique en s’appuyant sur du deep learning. 

Les analyses comparatives sont effectuées sur de l’urbain mais Kermap travaille également sur les territoires agricoles.

Nicolas Beaugendre a conclu en précisant que l’idée à terme est de pouvoir extraire une information de façon automatique directement utilisable par ses clients et par des utilisateurs via une API ou une plateforme régionale.

Après un échange avec les participants, Anne Sagot-Duvaroux a remercié Nicolas Beaugendre et Sébastien Dias et a invité Laure Chaumat et Vincent Poulain, Thalès à présenter les données satellites et l’IA au service de la détection des catastrophes naturelles.

(Télécharger la présentation de Nicolas Beaugendre, Kermap et Sébastien Dias, GIP ATGeRi)

 

Les données satellites et l’IA au service de la détection des catastrophes naturelles

20231005 webinaire PIGMA Donnees satellites IA Laure Chaumat Vincent Poulain
De haut en bas : Vincent Poulain et Laure Chaumat, Thalès; Anne Sagot-Duvauroux, GIP ATGeRi/PIGMA

En introduction, Vincent Poulain a précisé qu’il travaillait avec Laure Chaumat à Thalès Services Numériques à Toulouse. Leur service a une forte expérience en traitement des données satellites. Ils collaborent avec le CNES depuis de nombreuses années.

Ils mènent différentes activités autour de la valorisation et l’exploitation d’images satellites avec des techniques d’intelligence artificielle notamment sur des applications en lien avec les catastrophes naturelles.

Il s’agit typiquement de la détection d’anomalies pour quatre thématiques :

  • les risques,
  • les incendies,
  • la pollution,
  • et la prévision des crues.

La technologie repose sur le développement d’une brique algorithmique qui consiste à identifier des anomalies. Dans l’exemple des forêts des séries temporelles sentinelles 2 sont utilisées sur plusieurs années. Un indice radiométrique ANDVI est calculé et permet de détecter automatiquement toute anomalie.

Vincent Poulain a également cité des exemples concernant la déforestation, des maladies, des parasites comme avec le cas du bombyx disparate ou la surveillance des zones volcaniques.

Sur la thématique incendie, l’ensemble du cycle est concerné de la détection des conditions propices à des départs de feu, à la propagation des feux et la détection de zones anormalement chaudes. Dans ces cas l’analyse s’appuie sur des données satellites (infrarouge thermique), des données terrain, des données météo et un historique de départs de feu sur le territoire concerné, dans l’exemple l’arc méditerranéen.

Puis Laure Chaumat a présenté l’outil de suivi de la pollution de l’air. Il s’appuie sur une double expertise en météorologie / climat / composition atmosphérique, et intelligence artificielle. Cet outil permet un suivi de la pollution de l’air par une estimation en temps réel de la concentration des particules fines au sol depuis l’espace. Il est applicable sur n’importe quel point du globe, notamment pour les zones dépourvues de stations de mesure de la qualité de l’air.

Laure Chaumat a ensuite présenté l’outil de prévision des crues. Avec le changement climatique, les phénomènes de crues sont de plus en plus violents. Ils tendent à se multiplier et s’intensifier et ont des conséquences dramatiques pour les sinistrés. Les secours doivent s’organiser et intervenir dans des délais très courts. Dans ce contexte , il devient donc primordial d’améliorer l’anticipation par la prévision pour minimiser les risques à court et moyen terme. L’outil mis en place utilise les prévisions météo, les données de mesures de débit des cours d’eau, des données d’imagerie satellite pour observer l’état du sol, notamment son humidité. L’analyse de ces données par l’intelligence artificielle permet des prévisions fiables, locales, heure par heure à 5 jours en fenêtre glissante. Les tests effectués actuellement donnent une fiabilité à plus de 90% (exemples sur le bassin de l’Aude à la station de Carcassonne et sur le bassin de Clamoux, à Villedubert). L’outil permet de combiner la probabilité de l’occurrence d’une crue ainsi que son amplitude, son intensité.

Laure Chaumat a précisé que le processus est désormais automatisé et permet donc une détection automatique sans aucune intervention humaine. Il fournit une information accessible sur une plateforme, facilement interprétable pour les utilisateurs non experts.

Après un échange avec les participants, Anne Sagot-Duvauroux a remercié Laure Chaumat et Vincent Poulain et a invité Yvan Dupuy, SDIS 33 à présenter la défendabilité des interfaces habitats-forêt avec le projet « Fast Track Feux de Forêts – Kayrros ».

(Télécharger la présentation de Laure Chaumat et Vincent Poulain, Thalès)

La défendabilité des interfaces habitats-forêt avec le projet « Fast Track Feux de Forêts – Kayrros »

20231005 webinaire PIGMA Données satellites IA Yvan Dupuy
De haut en bas : Yavan Dupuy, SDIS 33; Anne Sagot-Duvauroux, GIP ATGeRi/PIGMA

En introduction Yvan Dupuy a rappelé l’objectif du projet issu d’un appel à manifestation d’intérêt sur l’exploitation des données satellites à des fins opérationnelles. Il associe le GIP ATGeRi, qui gère la cartographie opérationnelle des SDIS (CARTOGIP), et l’entreprise Kayrros.

Le projet se base sur un recensement des zones à faible défendabilité, effectué par le SDIS depuis 2016, non exploitable. En effet, les relevés effectués sur le terrain manuellement présentaient des discordances importantes dues à des interprétations très différentes en fonction des personnes, leur sensibilité et la période de l’année. Ces discordances ont empêché une exploitation opérationnelle de ces données.

La saison 2022 a permis, avec les incendies, de bénéficier d’imagerie thermique, de relevés issus de la reconnaissance aérienne (hélicoptères et drones), d’images satellites (Copernicus).

Ces retours d’expériences ont mis en évidence la nécessité de disposer de meilleurs outils afin de mieux appréhender le risque incendie en le cartographiant.

Le travail s’est concentré sur la défendabilité liée à la notion de débroussaillement qu’il fallait catégoriser couplée aux notions d’accessibilité, et de praticabilité des accès.

En couplant une cartographie de l’état du débrousssaillement, de la végétation, une simulation des prévisions météorologiques et une carte de combustibles, il est possible d’estimer une propagation théorique du sinistre.

Les travaux ont été conduits dans un premier temps avec la société Kayrros avec un croisement de l’imagerie satellite couplé à la base cadastrale qui permet d’identifier tous les points susceptibles de poser des difficultés. Le périmètre des habitations qui sont soumises aux obligations légales de débroussaillement (OLD) situés à moins de 200 mètres d’une forêt est identifié. Un calcul de densité de la végétation est effectué ce qui a permis de catégoriser les zones.

Ces calculs ont été vérifiés par des relevés terrain qui ont démontré l’exactitude des données calculées.

Actuellement la société Kayrros travaille sur la fluidité de la donnée à l’échelle du département. L’objectif est également de disposer de ces données sur la cartographie opérationnelle du SDIS, CARTOGIP gérée par le GIP ATGeRi. Un travail sous la canopée est également nécessaire puisque l’imagerie satellite ne permet pas l’analyse de la végétation située sous la canopée. L’utilisation du Lidar est envisagée. L’intégration de la cartographie de combustibles est également nécessaire.

En conclusion Yvan Dupuy a rappelé qu’il reste à développer la possibilité de travailler hors connexion afin de répondre aux exigences de l’opérationnel.

Après un échange avec les participants, Anne Sagot-Duvauroux a remercié Yvan Dupuy et a invité Sébastien Lefevre, Université Bretagne Sud, laboratoire IRISA à présenter la détection de changements 3D : méthodes IA pour l’analyse de nuage de points et applications dans des environnements urbains et naturels.

(Télécharger la présentation d’Yvan Dupuy, SDIS 33)

 

La détection de changements 3D: méthodes IA pour l’analyse de nuage de points et applications dans des environnements urbains et naturels

20231005 webinaire PIGMA Données satellites IA Seabastien Lefevre
De haut en bas : Sébastien Lefevre, Université Bretagne Sud, laboratoire IRISA; Anne Sagot-Duvauroux, GIP ATGeRi/PIGMA

Sébastien Lefevre est enseignant chercheur à l’Université Bretagne Sud, au laboratoire IRISA

Il a fondé il y a une dizaine d’années une équipe qui s’appelle Obélix, Observation de l’Environnement par Imagerie Complexe, qui s’appuie sur le machine learning, le deep learning, et l’intelligence artificielle pour observer la terre et l’environnement.

Ses travaux vont des développements théoriques et méthodologiques jusqu’à l’optimisation des chaînes de traitement pour des services Copernicus. Les problématiques étudiées touchent par exemple le changement climatique, le littoral, les océans et le développement durable.

Il a effectué un focus sur les travaux d’une thèse, co-financée par le CNES et par la société Magellium. Le sujet de la thèse porte sur la question de l’apprentissage profond, deep learning, pour la détection de changement dans des nuages de points 3D.

L’information 3D peut être très intéressante dans de nombreuses applications. Mais elle nécessite des outils d’intelligence artificielle dédiés.

Il a cité notamment les exemples sur la gestion des risques feux de forêts, la transition énergétique, l’aménagement du territoire et la préservation de la biodiversité.

Il a effectué la démonstration à partir d’un jeu de données publiques, des changements entre deux nuages de points qui laissent apparaitre des nouveaux bâtiments, des bâtiments démolis, de la nouvelle végétation. Il a montré des exemples d’architecture de réseaux de neurones qui ont été proposés pour détecter ces changements.

Il a détaillé la détection de changements qui consiste à prendre 2 images (sur l’exemple une image à gauche et une à droite), à encoder les caractéristiques de ces images, à calculer des différences entre les caractéristiques à plusieurs échelles et propager ces différences dans un décodeur pour extraire des changements.

Il a souligné la qualité des résultats obtenus. Les méthodes de machine learning traditionnelles ont un taux de classification de 50 à 65% selon la métrique utilisée. En utilisant des réseaux de neurones profonds sur des données 2D telles que des MNS, les résultats s’élèvent de 50 à 80%. Avec la technique utilisée dans la thèse les taux approchent les 85% en utilisant des données simulées ou des données réelles par exemple des données 3D des Pays-Bas.

L’intérêt de ces réseaux de neurones, c’est qu’ils vont aussi pouvoir répondre à des problématiques très variées. En changeant les données d’entrainement, le modèle fournit de bons résultats comme pour les données de glissement de terrain en Nouvelle-Zélande. Ainsi  la comparaison d’une image avant un tremblement de terre et une autre après tremblement de terre, permet d’identifier les changements qui est le glissement de terrain lié au au tremblement de terre.

L’inconvénient de la méthode c’est qu’il faut des millions de points pour entrainer les réseaux de neurones. C’est donc très coûteux pour l’utilisateur d’où la nécessité de solutions alternatives.

Il a cité un dernier exemple dans la thèse de modèle de deep learning non supervisé avec d’excellents résultats.

En conclusion, Sébastien Lefevre a rappelé que la donnée 3D (Lidar HD ou CO3D) fournit des informations très intéressantes qui peuvent être traitées autrement qu’en 2,5D. Pour cela il faut des outils adaptés. 

L’intelligence artificielle devient opérationnelle pour de nombreuses problématiques mais elle nécessite un gros travail d’annotation. Là encore des solutions existent pour réduire cet effort.

Enfin il a souligné qu’avec l’intelligence artificielle, il y a de plus en plus de modèles qui ont des capacités d’explicabilité, c’est à dire qui permettent de comprendre pourquoi le réseau prédit un résultat. 

L’avenir de l’IA est dans les modèles génératifs capables de créer des images satellites purement artificielles. Il faudrait savoir comment y faire face.

(Télécharger la présentation de Sébastien Lefevre, Université Bretagne Sud, laboratoire IRISA)

 

En conclusion Anne Sagot-Duvauroux a remercié les intervenants pour leurs présentations qui ont permis d’avoir une vision sur l’existant et des cas concrets d’utilisation. Finalement les données satellites traitées par l’intelligence artificielle ouvrent de nombreuses perspectives. Ce n’est que le début des solutions et des usages très opérationnels de cette technique d’analyse qui ne cesse de se développer.

Puis Anne Sagot-Duvauroux a mis fin au webinaire en remerciant l’ensemble des participants.

Elle a donné rendez-vous pour un nouveau webinaire le 7 décembre prochain sur la thématique des données foncières.

(Replay du webinaire disponible sur inscription à pigma@gipatgeri.fr)