130 participants au webinaire PIGMA sur l’IA au service des projets de territoires

Animation, Café-atelier, Toutes

08/02/2025

ACCUEIL CAFE ATELIER PIGMA IA AU SERVICE DES PROJETS DE TERRITOIRES

Le dernier webinaire de la communauté PIGMA, qui échange de la donnée en Nouvelle-Aquitaine, avait lieu le jeudi 6 février sous la forme d’un café-atelier. 130 participants étaient réunis. L’objectif de ce rendez-vous : comprendre comment l’IA peut devenir un levier stratégique au service des projets de territoires. Compte-rendu.

En ouverture de webinaire, Victoire Roux-Barucq, GIP ATGeRi/PIGMA, après avoir accueilli les participants, a rappelé les bonnes pratiques du webinaire pour optimiser l’expérience de la matinée.

Martin Blazek en charge de l’animation PIGMA, a ensuite remercié les participants présents. Il a signalé qu’ils étaient toujours aussi nombreux et mieux répartis sur le territoire de la Nouvelle-Aquitaine. Sur les 168 partenaires inscrits à ce webinaire PIGMA sur l’IA au service des projets de territoires, 131 étaient présents. Cette mobilisation constante à chaque évènement du réseau montre le dynamisme de la communauté PIGMA.

Il a remercié l’ensemble des intervenants : Jacques Priol, Civitéo/Observatoire Data Publica; Johanna Bonnefoy, La Région Occitanie / Pyrénées-Méditerranée ; Julien Noirot, Bordeaux Métropole ; Pierre Riou, Agglomération Paris Saclay ; Régis Gabriel, Ville de Metz ; Virginie Lafon, I-Sea;

Il a également remercié l’équipe PIGMA pour l’organisation et la production de l’évènement.

Il a rappelé que PIGMA est un centre de ressources d’un réseau de près de 900 partenaires qui partagent plus de 10 000 données depuis 15 ans sur le territoire régional. PIGMA est géré par le GIP ATGeRi : expert en gouvernance de la donnée.

Ces cafés-ateliers PIGMA trimestriels organisés en distanciel sont des temps dédiés de partage autour de la thématique de la donnée et ses usages.

L’objectif des événements du réseau PIGMA est de mutualiser les usages pour gagner en compétences, en productivité et en temps dans nos missions.

Il a rappelé qu’entre innovation technologique et transformation des pratiques, l’IA redessine les contours de la gestion et du développement territorial.

Il a précisé que sur une grande variété de sujets, améliorer la détection des fuites d’eau sur les réseaux, mieux gérer les déchets, répondre plus efficacement aux usagers, les acteurs publics investissent les outils basés sur l’IA…. Que ce soit pour optimiser la planification urbaine, mieux gérer les ressources naturelles ou anticiper les besoins des populations, elle offre des outils puissants pour relever les défis d’aujourd’hui et de demain.

Comment l’IA peut devenir un levier stratégique au service des projets de territoires ?

Il a proposé à travers des exemples concrets et des échanges avec des experts, d’explorer le potentiel de cette technologie pour repenser les approches et accompagner les initiatives locales.

Il a ensuite invité Jacques Priol, Civitéo/Observatoire Data Publica à présenter un état des lieux de l’usage de l’IA au service du développement territorial.

Etat des lieux : l’IA au service du développement territorial

De haut en bas : Jacques Priol, Civitéo/Observatoire Data Publica; Virginie Lafon, I-Sea; Régis Gabriel, Ville de Metz; Pierre Riou, Agglomération Paris Saclay ; Martin Blazek, GIP ATGeRi/PIGMA; Julien Noirot, Bordeaux Métropole.

Jacques Priol est président du cabinet Civitéo, qui accompagne les territoires sur leur politique de la donnée et de l’intelligence artificielle. Il est également cofondateur de l’Observatoire Data Publica dont il a assuré la présidence jusqu’à il y a quelques semaines.

L’Observatoire Data Publica a réalisé une grande enquête sur l’usage de l’Intelligence Artificielle au service des territoires dont il a synthétisé les grands éléments pour son intervention.

L’IA prend une place de plus en plus importante dans le quotidien des habitants. En fonction de leurs pratiques culturelles, en tant que consommateurs, usagers, tous les outils utilisés peuvent embarquer de l’IA. Le service public et en particulier le service public local, n’est pas sous cloche. Il est normal que les collectivités, les élus, les directions s’y intéressent.

Mi 2024, l’Observatoire Data Publica a réalisé une enquête auprès de 300 collectivités territoriales de toutes tailles sur tout le territoire national.

36% des collectivités interrogées disent avoir commencé à tester au moins un projet avec de l’IA dans la collectivité. Cela dépasse le simple usage de Chat GPT. Si elles ne le testent pas encore, 15% vont tester l’IA dans les 12 prochains mois. Très probablement à date, quasiment une collectivité sur 2 a commencé à explorer l’utilisation de l’Intelligence Artificielle dans ses processus de gestion.

Cela concerne des nombreuses politiques, des métiers traditionnellement très numérisés, très digitalisés, ceux de la Smart City, de la ville connectée, de la ville intelligente, les thématiques de la mobilité, l’eau, l’énergie, les déchets, les métiers qui produisent beaucoup de données parce que ce sont des métiers de flux.

Apparaissent également de nombreux usages potentiels de l’intelligence artificielle dans les domaines de l’administration et de la gestion interne, dans les domaines de la relation aux usagers. Les deux domaines représentent quasiment 40% et cela concerne l’IA générative.

En France un certain nombre de très grands projets impliquent l’IA. Ils sont portés par des territoires. Ils mobilisent des volumes de données importants, des expertises d’industriels, d’entreprises, de services numériques, de start-ups, de laboratoires de recherche pour construire des démonstrateurs d’intelligence artificielle dans différents métiers.

Parmi ceux-là, il y a tous les projets lauréats de l’appel à projets DIAT, Démonstrateurs d’IA frugale au service de la transition écologique de la Banque des Territoires, dont certains sont présentés dans ce webinaire. Il s’agit de projets dont le budget représente entre 2,5 et 6 millions d’euros, qui vont être développés sur 3, 4 ans, et qui, lorsqu’ils seront opérationnels dans tel ou tel territoire, pourront être ensuite diffusés auprès d’autres territoires. Mais à côté de ces projets très inspirants, l’enquête a également permis d’identifier de très nombreux projets pour de très nombreux métiers dans des collectivités de toutes les tailles.

L’équipe de Civitéo a analysé plus de 250 projets en 18 mois.

Jacques Priol a ensuite présenté un panorama des métiers et des projets analysés.

Il a énuméré d’abord les métiers internes, de la gestion quotidienne des collectivités qui utilisent l’IA :

  • Pour préparer des politiques publiques avec par exemple la rédaction des délibérations, solution développée à base d’IA générative par un consortium de collectivités avec une start-up française. Cette solution permet de produire de la délibération ou du texte juridique.
  • Dans les systèmes de gestion financière avec du contrôle de gestion.
  • Dans les outils des directions des systèmes d’information en matière de cyber, en matière de code.
  • Pour les ressources humaines avec de l’analyse de CV automatique, les algorithmes qui sont ceux de LinkedIn par exemple,
  • Dans la commande publique avec l’aide à la rédaction de cahiers des charges

Dans les métiers de la ville connectée, l’IA peut être utilisée pour :

  • L’optimisation de l’éclairage intelligent,
  • L’optimisation des ressources bâtiment,
  • La détection des fuites d’eau,
  • La gestion optimisée de l’ensemble des systèmes patrimoniaux,
  • La gestion de l’environnement,
  • La gestion des déchets.

Il existe également des outils de modélisations prédictives :

  • Des impacts des règles d’urbanisme,
  • Des cartes scolaires en matière de santé,
  • Des impacts des politiques sociales,
  • La prévention du non-recours,
  • La chasse aux fraudes.

Dans les collectivités des tests sont également en cours sur :

  • L’environnement,
  • La qualité de l’air,
  • La mobilité en général, avec des carrefours intelligents, des systèmes d’optimisation, des modélisations de gestion de flux,
  • La sécurité, avec des caméras augmentées,
  • Les sujets liés aux dépôts sauvages de déchets,
  • Le stationnement irrégulier.

Enfin, Jacques Priol a également cité les métiers liés à la relation aux usagers avec deux écoles :

  • Celle qui propose de mettre l’IA en première ligne en relation avec les citoyens.
  • Et l’autre qui considère que les IA ne sont pas suffisamment performantes et qui propose de les mettre à disposition des personnes en contact avec le public pour les aider à mieux accueillir et répondre aux concitoyens.

Jacques Priol a rappelé que dans les collectivités beaucoup de projets portent sur des IA prédictives, notamment dans tous les métiers technologiques. Il s’agit de systèmes qui pour certains sont très opérationnels, intégrés dans des processus industriels de gestion de l’énergie, de l’eau, des déchets, au cœur des fonctions urbaines.

En résumé Jacques Priol a retenu 5 éléments clés de ce panorama de l’usage de l’IA dans les collectivités :

  • Les idées et projets sont nombreux en germination plus ou moins avancée. Beaucoup de projets sont en test, peu sont en production effective. Sur les 250 projets identifiés moins d’une vingtaine sont en production effective, moins de 10% des projets sont intégrés dans le fonctionnement quotidien de collectivités.
  • L’IA s’introduit dans les collectivités, quelle que soit leur taille. Et c’est très différent d’un certain nombre d’autres évolutions comme la digitalisation, la numérisation de l’action publique territoriale, notamment la Smart City qui a d’abord touché les grandes métropoles et quelques régions, puis les EPCI de taille intermédiaire, puis progressivement toutes les villes qui pouvaient s’en saisir. L’IA fait irruption de façon simultanée dans des collectivités de toute taille.
  • L’utilisation de l’IA peut être freinée par l’accès limité à des données de qualité. 19% des collectivités qui n’ont pas commencé à utiliser l’IA pensent avoir un problème avec leurs données. 38% de celles qui ont commencé à utiliser l’IA ont un problème avec leurs données. Utiliser de l’IA dans une collectivité nécessite au préalable de réfléchir à l’orchestration de ses données, à la mise à disposition de ses données à la fois pour parfaire l’entraînement d’un système mais pour son fonctionnement quotidien.
  • L’IA est au cœur des enjeux de l’impact carbone des stratégie numériques. Il n’est pas facile de concilier Intelligence Artificielle et stratégie numérique responsable, c’est un enjeu complexe.
  • La transparence algorithmique représente également un autre enjeu complexe. Les acteurs publics sont soumis à une transparence dans les processus de décision, y compris de transparence algorithmique. C’est un sujet complexe, un sujet juridiquement encadré, mais qui est très méconnu. Demain l’utilisation de l’IA dans la relation aux usagers pourra conduire à des déconvenues, y compris juridiques.

Jacques Priol a conclu en rappelant que ces éléments seront détaillés dans un cahier de l’Observatoire Data Publica en ligne prochainement et téléchargeable gratuitement avec des outils d’analyse en licence ouverte, en Créative Common. Les éléments de l’enquête sont d’ores et déjà en ligne.

Martin Blazek a remercié Jacques Priol, Civitéo/Observatoire Data Publica et ensuite invité Johanna Bonnefoy, La Région Occitanie / Pyrénées-Méditerranée à présenter PEP-BIOccIA : la planification écologique pour la préservation de la biodiversité d’Occitanie par l’usage de l’intelligence artificielle.

(Télécharger la présentation de Jacques Priol, Civitéo/Observatoire Data Publica)

PEP-BIOccIA : L’IA au service de la biodiversité

De haut en bas : Martin Blazek, GIP ATGeRi/PIGMA; Johanna Bonnefoy, La Région Occitanie / Pyrénées-Méditerranée

En introduction, Johanna Bonnefoy, La Région Occitanie / Pyrénées-Méditerranée, a présenté PEP-BIOccIA, projet de planification écologique pour la préservation de la biodiversité d’Occitanie par l’usage de l’intelligence artificielle.

Le projet a été déposé à la BAT 2, de l’appel à projets des IAT avec un consortium dont la Région Occitanie est chef de file avec trois autres structures en accompagnement, le CNRS avec les cellules Data Terra et le CEFE (Centre d’Écologie Fonctionnelle et Évolutive), l’association OPenIG, et le bureau d’études TerrOïko.

Johanna Bonnefoy a rappelé le constat initial à l’origine du projet à savoir qu’en région Occitanie, pour pouvoir prendre en compte la biodiversité, notamment dans les projets d’aménagement et dans les politiques publiques, les données homogènes manquaient sur l’ensemble du territoire. La caractérisation des milieux naturels provenait de sources multiples, référentiels nationaux et européens données Ocsol. De fait, la caractérisation des milieux naturels n’était pas adaptée aux compétences biodiversité recherchées par les collectivités locales. Des milieux demeuraient difficilement identifiables. De plus, beaucoup de données étaient issues du SINP (Système d’information de l’inventaire du patrimoine naturel) avec l’écueil de zones blanches, des zones sur lesquelles il n’y a pas de données d’observation.

Les objectifs du projet étaient de fournir une cartographie des milieux naturels haute résolution spatiale, mise à jour annuellement, et complémentaire aux référentiels qui existent déjà OCSGE (Occupation du Sol à Grande Échelle) OCSID (Occupation du Sol Interdépartementale) CARHAB (Cartographie des habitats naturels et semi-naturels).

Ensuite l’idée était de pouvoir fournir une cartographie de probabilité de présence des espèces sur le territoire en complétant les données du SINP et proposer une première solution avec des données de probabilité de présence sur les zones blanches.

Enfin, comme la Région a la compétence biodiversité et information géographique, l’idée était de pouvoir proposer aux structures locales les données de ces deux cartographies en libre accès tout en faisant évoluer la plateforme d’Occitanie pour valoriser les données créées.

Les cibles prévisionnelles identifiées pour le projet PEP BIOccIA sont principalement les acteurs institutionnels, de l’aménagement, de la biodiversité, des laboratoires de recherche.

La Région Occitanie est pilote du projet qui a été structuré en 5 lots, chaque lot est piloté par un membre du consortium. La Région intervient sur le lot 1 pour la partie gestion et coordination globale du projet. OPenIG est pilote du lot 2 pour la réalisation des cartographies des milieux naturels. Le lot 3 de la cartographie des espèces est confié au CEFE du CNRS. Le lot 4, La partie intégration et distribution des données, c’est à dire la construction des infrastructures qui permettront de diffuser les données est confiée à TerrOïko. Enfin, c’est la Région qui reprend le pilotage du lot 5 sur la valorisation technique.

Les membres du consortium sont quasiment intégrés sur tous les lots.

Johanna Bonnefoy a ensuite précisé où l’IA allait être intégrée. Il y a un pool de données d’entrée notamment sur la cartographie naturelle avec l’analyse d’images satellites, avec des données d’entrainement et les premiers algorithmes pour analyser les images satellites de manière automatique. A partir de ces éléments pourra être produite la cartographie des milieux naturels avec la cartographie de probabilité de présence des espèces à partir de modèles bayésiens. Une deuxième version de cette cartographie de probabilité de présence des espèces sera produite avec des hypothèses de changement climatique à partir de modèles de météo. Une fois les deux cartographies produites les données seront intégrées dans la plateforme de distribution dont les spécifications techniques ont été pensées en amont. C’est là qu’interviendra la refonte de la plateforme Occitanie avec des ateliers utilisateurs.

L’objectif est que les territoires puissent s’imprégner de ces données afin de les valoriser dans leurs propres projets.

En conclusion Johanna Bonnefoy a rappelé les échéances des livrables :

  • Une première version de la cartographie des milieux naturels (raster) est prévue à l’été 2026.
  • Début 2027, la version vecteur de la cartographie des milieux naturels est prévue ainsi qu’une première version de la cartographie de distribution des espèces.
  • Et à l’été 2027, la cartographie de distribution des espèces sous hypothèse de changement climatique devrait être disponible.
  • L’ensemble de la documentation, des infrastructures et les livrables est prévue pour fin 2027/ début 2028.

Martin Blazek a remercié Johanna Bonnefoy et a ensuite invité Julien Noirot, Bordeaux Métropole, à présenter l’intelligence artificielle au service de la rénovation énergétique avec StacOptim.

(Télécharger la présentation de Johanna Bonnefoy, La Région Occitanie / Pyrénées-Méditerranée)

StacOptim, l’intelligence artificielle au service de la rénovation énergétique

De haut en bas : Martin Blazek, GIP ATGeRI/PIGMA et Julien Noirot, Bordeaux Métropole.

Julien Noirot a rappelé en introduction le double volet du projet StacOptim : un volet TID (Territoires Intelligents et Durables) avec l’équipement du territoire en connexion pour objets IOT et un volet DIAT avec la data, et l’utilisation de cette data dans des algorithmes pour favoriser la transition énergétique.

StacOPtim regroupe deux acteurs principaux : la collectivité territoriale de Bordeaux Métropole et Domofrance, un des principaux bailleurs sociaux du territoire. Sont également impliqués Dryas, un bureau d’études spécialisé sur la partie data, EnerLab, un bureau d’études spécialisé en audit énergétique et construction. Kocliko est également partie prenante. Il s’agit d’une startup qui constitue le cœur du projet. Elle est constituée de chercheurs doctorants experts en intelligence artificielle appliquée à la modélisation énergétique des bâtiments.

Le secteur du bâtiment représente presque la moitié (44%) de l’énergie consommée au niveau national. Il s’agit principalement de l’énergie qui va être consommée pour faire fonctionner le bâtiment. La consommation énergétique des bâtiments publics représente 81% du total de l’énergie consommée pour les collectivités.

C’est le même constat pour les logements sociaux qui datent pour la plupart des années 60, 70 qui n’ont pas été rénovés avec des personnes en précarité énergétique qui bien souvent sont également en précarité budgétaires.

Le projet est donc à l’origine d’enjeux de société, les limites planétaires avec l’émission de CO2 des consommations énergétiques, le plancher social avec la maîtrise de la facture énergétique pour protéger les habitants, et la souveraineté énergétique.

Au niveau local, Bordeaux s’est engagé dans les villes climatiquement neutres à l’horizon 2030. Le PCAET (Plan Climat Air Énergie Territorial) a été revalidé en 2022 avec deux actions qui portent sur les bâtiments : une sur la partie résidentielle l’autre sur la partie tertiaire, avec des objectifs de baisse de consommation et de baisse d’émissions de CO2 très significatifs.

L’essentiel du travail porte sur le stock de bâtiments : sur l’amélioration de l’exploitation des bâtiments, et sur les gros travaux de rénovation globale qui doivent être engagés.

Il y a trois grands freins par rapport à la problématique de la rénovation des bâtiments :

  • La compréhension parcellaire du comportement énergétique réel des bâtiments
  • Le manque de données objectives pour arbitrer le bouquet de travaux à réaliser pour rénover énergétiquement un bâtiment.
  • Une fois les travaux réalisés, peu de data pour mesurer objectivement les effets des investissements.

L’objectif du projet StacOptim est d’essayer de proposer une réponse à ces trois freins en construisant et éprouvant une méthodologie standardisée.

D’où l’origine du nom StacOptim : Standardiser vos Audits et Comptage pour OPTIMisation énergétique de vos bâtiments.

En termes d’IA les étapes sont :

  • Etre capable de modéliser précisément le bâtiment, d’avoir un jumeau thermique du bâtiment.
  • Sur la base de ce jumeau numérique, faire tourner le bouquet de travaux le plus pertinent à réaliser.
  • La mise en œuvre des actions de travaux d’exploitation.
  • La mesure et la vérification pour comprendre si les actions ont fonctionné, et si elles n’ont pas fonctionné pourquoi.
  • La sensibilisation pour continuer l’optimisation.

Le projet a démarré en septembre dernier et sa durée est de trois ans.

La démonstration se base sur un parc de 54 bâtiments de Bordeaux Métropole : 20 bâtiments sur le parc tertiaire principalement constitués d’écoles et 34 bâtiments résidentiels, composés de grands ensembles, gérés par Domofrance.

L’idée du projet c’est de valoriser et d’enrichir toutes les données bâtimentaires du territoire de Bordeaux Métropole et Domofrance.

Le projet comprend :

  • La partie TID avec le déploiement d’un réseau LoRaWAN pour capter des données des IOT et qui pourra être étendu à d’autres usages sur le territoire.
  • La valorisation dans les jumeaux énergétiques des bâtiments.
  • La capitalisation de toutes les données, y compris celles récupérées par la voie IP, dans le datalake de Bordeaux Métropole.

Ces data vont permettre à EnerLab de construire les jumeaux énergétiques des bâtiments. Ces données vont également être récupérées.

C’est ensuite qu’intervient l’Intelligence Artificielle avec un premier rang d’algorithmes, calibrages bayésiens, qui vont permettre de mieux dimensionner les jumeaux numériques pour qu’ils fonctionnent exactement comme les bâtiments réels.

Puis, des algorithmes génétiques vont permettre d’optimiser les bouquets de travaux à réaliser

Et pour la partie mesure et vérification, l’IA s’appuie sur du machine learning, processus gaussiens, réseaux de neurones.

Puis Julien Noirot a présenté un schéma d’un projet réel pour analyser l’apport de l’IA. Cette analyse permet en partant de propositions chiffrées de rénovations proposées par des maitres d’œuvre pour des bâtiments de modéliser avec l’IA les consommations énergétiques que ces bâtiments vont réaliser et les économies d’énergie que cela représente.

Les bonnes solutions permettent, à un investissement constant d’obtenir 15% d’amélioration en termes de consommation d’énergie.

En conclusion, Julien Noirot a rappelé l’approche frugale et responsable du projet avec :

  • Des IOT basse fréquence,
  • L’optimisation du plan de comptage,
  • La sécurité et la qualité des données,
  • Le respect de la vie privée,
  • La qualité des jumeaux numériques,
  • La transparence et l’explicabilité des algorithmes,
  • Le fait que la décision sera toujours humaine.

L’objectif est de mettre en œuvre une méthodologie standard qui puisse être industrialisée à l’échelle du territoire.

Martin Blazek a remercié Julien Noirot et a ensuite invité Pierre Riou, Agglomération Paris Saclay, à présenter Urba(IA), démonstrateur d’IA Frugale au service de la transition écologique des territoires.

(Télécharger la présentation de Julien Noirot, Bordeaux Métropole)

Urba(IA), démonstrateur d’IA frugale au service de la transition écologique des territoires

PIERRE RIOU CAFE ATELIER PIGMA IA AU SERVICE DES PROJETS DE TERRITOIRES
De haut en bas : Martin Blazek, GIP ATGeRi/PIGMA.

En introduction, Pierre Riou, Directeur du programme au sein de l’agglomération Paris-Saclay, a précisé qu’il était membre de la Commission IA de l’AFNOR, spécialisée dans les thématiques d’IA frugale et d’impact environnemental de l’IA, ainsi que membre du Club Hub France IA.

Lors de son intervention, il a présenté Urba(IA) projet urbain emblématique de l’agglomération Paris-Saclay, situé à la convergence des stratégies locales et nationales en matière de transition environnementale, d’innovation technologique et de partenariats public-privé.

Il a rappelé que ces stratégies nationales sont portées par des initiatives telles que France 2030, avec un investissement prévu de 56 à 60 milliards d’euros sur 10 ans. Ces efforts sont également appuyés par les enjeux stratégiques autour de l’IA et des défis environnementaux liés aux territoires.

Pierre Riou a ensuite détaillé le cadre du projet, mentionnant des appels à projets qui ont conduit à la labélisation de 25 initiatives sur trois vagues successives. L’agglomération Paris-Saclay fait partie des lauréats de la dernière vague et se trouve actuellement en phase de démarrage.

L’agglomération Paris-Saclay est à la fois un pôle de compétitivité mondial reconnu pour ses universités et chercheurs, mais également une communauté d’agglomération comptant 320 000 habitants et des espaces naturels protégés et des forêts classées.

Trois grands piliers structurent les actions de ce territoire :

  • La transition écologique, avec un Plan Climat-Air-Énergie Territorial (PCAET) comprenant 126 actions et en cours de révision, ainsi que la mise en place d’un contrat local Green Deal.
  • L’innovation, qui se concrétise par des projets comme “Decarbonized City” et “Twin 2030” autour des jumeaux numériques. Une charte du numérique responsable a également été mise en place. Une feuille de route autour de l’IA  a également permis l’acculturation de l’ensemble des acteurs.
  • La culture du partenariat, favorisant des coopérations public-privé avec des start-ups, des laboratoires de recherche et d’autres acteurs.

Il a détaillé le périmètre du projet Urba(IA), qui concerne l’urbanisme et vise à répondre à des problématiques réglementaires croissantes, notamment issues des démarches ZAN et des révisions du PLU. Ce projet cherche à intégrer les enjeux environnementaux tels que la pollution, les inondations et les îlots de chaleur. L’objectif est d’utiliser l’IA pour construire des scénarios prospectifs permettant de valider et optimiser les stratégies territoriales.

Pierre Riou a également précisé que le projet vise à proposer des outils pour les élus, les techniciens urbanistes et les citoyens, afin de faciliter l’analyse, la communication publique et l’appropriation des enjeux environnementaux.

Trois territoires pilotes ont été identifiés :

  • La zone d’activité de Courtaboeuf,
  • Chilly-Mazarin, représentant un milieu urbain dense
  • Le quartier de la Croix de Villebois à Palaiseau, avec une mixité de tissu urbain traditionnel et agricole.

Le consortium de partenaires inclut l’agglomération Paris-Saclay en chef de file, l’Institut Paris Région, des start-ups comme NamR spécialisée dans les ilôts de chaleur et Buildrz, spécialisée dans la modélisation de PLU, CentraleSupélec, et Dassault Systèmes.

Au-delà de ces membres du consortium, des collaborations s’effectuent avec l’ensemble des élus et des services des différentes territoires d’expérimentation, également via des appels  à Assistance Maîtrise d’Ouvrage pour soit compléter des expertises spécifique, soit renforcer des problèmes de bande passante et de disponibilité au niveau des équipes internes.

Il a expliqué que le démonstrateur Urba(IA) repose sur une collecte et une rationalisation des données (PLU, schéma directeur, chartes de zones d’activité) afin de modéliser les formes urbaines et simuler leurs impacts environnementaux. L’outil de visualisation 3D qui en découlera permettra d’analyser les éléments, de formuler des recommandations et d’optimiser les choix d’aménagement. Les scenarios d’évolution seront réinjectés dans le système pour voir leur impact pour pouvoir prendre des décisions éclairées.

Un point clé concerne l’évaluation de l’IA de confiance. Pierre Riou a insisté sur la nécessité de garantir la justification et la transparence des simulations pour qu’elles soient opposables en cas d’écarts entre prévisions et réalité.

Urba(IA) vise à développer un langage commun avec les acteurs des métiers, de baser les décisions sur les effets réels des documents d’urbanisme.

Le démonstrateur s’appuie sur 5 systèmes d’intelligence artificielle de différents types incluant entre autres de l’IA générative, un réseau de neurones, du machine learning.

Il a souligné que la frugalité de l’IA reste une priorité. Bien que l’appel à projets ait précédé le référentiel général de l’IA frugale, une estimation initiale a déjà été réalisée, mettant en évidence un bénéfice attendu de 2000 tonnes de CO2 évitées par an, contre 11 tonnes émises par le démonstrateur.

L’évaluation du projet est prévue au fil de l’eau pour corriger la trajectoire selon l’efficacité du démonstrateur et sa contribution aux objectifs de transition écologique et énergétique.

Pour la suite, Pierre Riou a indiqué que l’objectif est de développer un démonstrateur réplicable non seulement sur les trois territoires pilotes, mais aussi à l’échelle nationale.

Le programme, prévu sur trois ans, prévoit une forte implication des utilisateurs pour valider l’adéquation de la solution aux besoins des services et garantir une réplicabilité harmonieuse du projet.

Martin Blazek a remercié Pierre Riou, et a invité Régis Gabriel, Ville de Metz à présenter le projet ViPARE : la propreté urbaine et l’intelligence artificielle pour la ville de Metz.

(Télécharger la présentation de Pierre Riou, Agglomération Paris Saclay)

ViPARE : la propreté urbaine et l’intelligence artificielle pour la ville de Metz

REGIS GABRIEL CAFE ATELIER PIGMA IA AU SERVICE DES PROJETS DE TERRITOIRES
De haut en bas : Martin Blazek, GIP ATGeRi/PIGMA, Régis Gabriel, Ville de Metz.

Régis Gabriel, directeur du pôle propreté urbaine de la Ville de Metz, a présenté le projet ViPARE. Ce projet innovant vise à développer une solution numérique permettant aux collectivités de quantifier, visualiser et analyser l’état de propreté de leurs territoires, en intégrant les technologies d’intelligence artificielle.

Il a mentionné l’objectivation de l’état de propreté : Il a précisé que l’un des buts est de réduire la subjectivité dans l’évaluation de la propreté urbaine afin de cibler les zones nécessitant une intervention prioritaire.

Il s’agit d’un projet de recherche et développement financé dans le cadre de l’appel à projet France 2030 sur trois ans.

Régis Gabriel a détaillé les objectifs principaux de ViPARE :

  • Optimisation des interventions : Il a expliqué qu’il s’agit d’éviter de concentrer les nettoyages uniquement sur les zones faisant l’objet de nombreuses doléances, mais plutôt sur celles présentant un réel besoin.
  • Démocratisation des audits de propreté : Il a présenté l’ambition de proposer une solution financièrement accessible et ergonomique.
  • Stratégies d’optimisation : Il a souligné l’importance de mettre en place des actions de sensibilisation, des mesures de verbalisation et une rationalisation des parcours de nettoyage grâce aux données collectées.

Il a mentionné que le projet est porté par un consortium regroupant la Ville de Metz, l’entreprise innovante Naia Sciences et le laboratoire Eau et Environnement de l’Université Gustave Eiffel à Nantes. La Ville de Paris et la Ville de Nantes sont également parties prenantes pour les résultats.

Régis Gabriel a précisé que la solution repose sur les indicateurs objectifs de propreté (IOP), une méthode d’audit développée par l’Association des villes pour la propreté urbaine (AVPU). Cette approche consiste à effectuer un comptage précis des déchets sur des échantillons représentatifs du territoire, bien que cette pratique soit longue, coûteuse et sujette à la subjectivité des opérateurs.

Il a détaillé la feuilles de route du projet :

  • 2023 : Développement de l’IA avec une première expérimentation.
  • 2024 : Constitution du dataset : Plus de 10 000 images de déchets ont été collectées et annotées (mégots, papiers fragmentés, plastiques, dépôts sauvages, etc.).
  • 2025 : Développement d’un modèle IA : Il a mentionné que les premières expérimentations ont permis d’améliorer la reconnaissance des déchets sur différents types de revêtements (béton désactivé, zones accidentées, espaces verts).
  • 2026 : Déploiement de la solution COBRA (Compteur Urbain par Reconnaissance Automatique) : Il a précisé que le système a été conçu pour fonctionner directement sur smartphone, limitant les besoins en échanges serveur afin de réduire la consommation d’énergie via une application mobile actuellement disponible sur Android. Elle permet une reconnaissance automatique des déchets et le transfert des données vers un tableau de bord interactif pour l’analyse..

Régis Gabriel a montré que les premiers tests permettent une reconnaissance précise des déchets, avec une détection de 242 mégots sur une scène où un comptage manuel en avait relevé 267. L’IA a été challengée sur plusieurs types de sols. Il a souligné que cette performance est considérée comme prometteuse pour les exploitants. Ainsi plusieurs catégories de déchets ont été définies (mégots, papiers cartons, plastiques fragmentés…).

La frugalité est un des critères clés du projet avec un certain nombre de bonnes pratiques :

  • Choisir la solution pour répondre aux besoins en considérant les alternatives à l’IA.
  • Acculturer et former les parties prenantes. En effet dès le démarrage l’ensemble des utilisateurs ont été associés dans une approche métiers. Naia Science a su s’adapter à chaque fois aux contraintes des utilisateurs.
  • Utiliser des datasets en open source, mais également un certain nombre de données directement disponibles.
  • Optimiser l’usage de l’existant et réutiliser les algorithmes.
  • Entraîner pour partager les algorithmes réalisés.

Régis Gabriel a souligné l’importance de ne pas avoir utilisé l’IA pour re-générer et entraîner le modèle.

Il a présenté les étapes suivantes du projet avec en 2025 le déploiement de la première maquette avec les tests terrain destinés à identifier les limites d’usages (consommation de la batterie…).

L’application permet d’établir des rapports interactifs permettant de trier les déchets sur l’espace public avec une analyse possible par catégorie, rues, secteurs, cartes de chaleur. Cela permet d’orienter ensuite le nettoyage par type de salissure.

Régis Gabriel a conclu en rappelant les prochaines étapes du projet :

  • En 2025, la poursuite des tests en situation réelle.
  • La mise en place d’un partenariat stratégique.
  • La mise en place du modèle économique : Il a expliqué que la solution sera ouverte à d’autres collectivités, avec un modèle basé sur un pourcentage des soutiens financiers.

Martin Blazek a remercié Régis Gabriel et a ensuite invité Virginie Lafon, I-Sea  à présenter L’IA au service de l’observation et du suivi de l’environnement.

(Télécharger la présentation de Régis Gabriel, Ville de Metz)

L’IA au service de l’observation et du suivi de l’environnement

VIRGINIE LAFON CAFE ATELIER PIGMA IA AU SERVICE DES PROJETS DE TERRITOIRES
De haut en bas : Martin Blazek, GIP ATGeRi/PIGMA; Virginie Lafon, I-Sea.

Virginie Lafon, de I-Sea, a présenté les activités de l’entreprise bordelaise spécialisée dans l’exploitation des données spatiales pour répondre aux enjeux de la transition écologique et climatique. Elle a précisé que I-Sea intervient principalement dans deux domaines : le littoral et la biodiversité, couvrant aussi bien le milieu terrestre que marin.

Elle a indiqué avoir été entourée de Rémi Butin et Benoît Béguet pour préparer cette présentation, tous deux experts dans le développement d’applications modernes de surveillance environnementale. Les fondements physiques et statistiques des technologies utilisées datent de près de quatre-vingts ans, mais la véritable révolution a été rendue possible par l’essor du numérique, les capacités accrues de calcul, et l’explosion des ressources en données.

Grâce à ces évolutions, il est aujourd’hui possible de cartographier de vastes territoires avec une précision sans précédent, notamment grâce aux images satellitaires. L’entreprise I-Sea adopte ces technologies pour accompagner les collectivités dans leurs actions en faveur de la transition écologique.

Elle a détaillé les différences entre le machine learning et le deep learning, rappelant que le premier repose sur une classification basée sur une connaissance préalable des objets recherchés, tandis que le second utilise des réseaux de neurones pour détecter des motifs complexes.

Elle a présenté un exemple concret de collaboration avec les gestionnaires du réseau Natura 2000 pour actualiser ou élaborer des documents d’objectifs. L’entreprise utilise dans ce cadre des technologies de classification, telles que les forêts aléatoires, afin de spatialiser les différentes typologies de végétation sur des territoires pouvant couvrir entre 20 et 200 km². Elle a précisé que ces cartographies reposent sur des images à très haute résolution spatiale ainsi que sur des données de terrain fournies par des experts.

Elle a souligné que la collecte de données de référence est essentielle pour garantir la fiabilité des modèles et résultats produits. Pour chaque classe typologique, entre 10 et 30 relevés floristiques sont nécessaires, ce qui permet de couvrir environ 1 % de la surface totale à cartographier.

Elle a évoqué les travaux menés pour les villes et métropoles, citant l’exemple de Lorient, où près de 1000 km² ont été cartographiés avec une précision de l’ordre de 1 à 5 m² par pixel. Elle a précisé que malgré la taille importante des zones concernées, seules 1 à 2 % de ces surfaces font l’objet de relevés terrain grâce à une représentativité optimisée.

Elle a présenté un projet réalisé pour la Métropole de Bordeaux, visant à recenser l’ensemble des arbres sur son territoire, y compris les plus petits récemment plantés. Elle a expliqué que ce projet repose sur des techniques de deep learning et nécessite l’étiquetage minutieux de centaines de milliers d’images pour permettre une reconnaissance précise.

Elle a illustré l’intérêt de ces travaux pour les politiques de végétalisation et la gestion des corridors écologiques, ainsi que pour l’évaluation de la valeur écologique des espaces publics et privés, notamment les petits jardins.

Enfin, elle a précisé que ces cartographies permettent de suivre l’évolution spatiale des territoires soumis à des projets de renaturation ou à des transformations environnementales, citant l’exemple d’une zone pilote en bord de Garonne appelée à être submergée.

Pour conclure, elle a insisté sur l’importance cruciale de la collecte de données précises et fiables, soulignant que la qualité des modèles et des analyses repose entièrement sur cette rigueur dans la collecte et l’interprétation des données.

Martin Blazek a remercié Virginie Lafon et à inviter l’ensemble des intervenants à le rejoindre pour la conclusion.

(Télécharger la présentation de Virginie Lafon, I-Sea)

CONCLUSION CAFE ATELIER PIGMA IA AU SERVICE DES PROJETS DE TERRITOIRES
De gauche à droite : Martin Blazek, GIP ATGeRi/PIGMA; Virginie Lafon, I-Sea; Julien Noirot, Bordeaux Métropole ; Régis Gabriel, Ville de Metz ; Johanna Bonnefoy, La Région Occitanie / Pyrénées-Méditerranée.

En conclusion, Martin Blazek, appuyé par les intervenants est revenu sur la pertinence des projets présentés et sur les perspectives que représente l’usage de l’IA au sein des territoires. Les projets présentés étaient inspirants et porteurs d’idées, susceptibles de susciter de nouvelles initiatives d’utilisation de l’IA au service du développement des territoires.

Après avoir remercié les intervenants pour leurs présentations et les participants Martin Blazek a mis fin à l’évènement.

Il a rappelé que le prochain rendez-vous PIGMA est le vendredi 14 février avec la présentation des nouvelles fonctionnalités de la plateforme dont l’IA / chatbot.

Il a donné rendez-vous aux partenaires PIGMA le 3 avril pour un café-atelier sur la thématique du PCRS à l’échéance 2026.

(Replay du webinaire disponible sur inscription)