Données et innovation : construire une stratégie gagnante pour les territoires

Animation, Données, Rencontres régionales, Toutes

23/06/2025

RENCONTRES REGIONALES PIGMA 2025 TABLE RONDE

Lors des Rencontres régionales PIGMA du 12 juin à Bordeaux, chercheurs, acteurs publics et experts de la donnée ont échangé autour d’un enjeu commun : comment faire des données un levier d’innovation territoriale durable. Une table ronde riche en retours d’expériences, visions prospectives et défis à relever. Compte-rendu.

Pierre Macé, GIP ATGeRi, avait réuni en table ronde des experts afin d’identifier les leviers de l’innovation par la donnée dans les territoires de Nouvelle-Aquitaine.

Ainsi,

  • François Gros, Chef d’état-major interministériel de la zone de défense et de sécurité Sud-Ouest,
  • Rudy Cambier, chef de département innovation et Partenariats industriels, IGN,
  • Cyrille Harnay, délégation numérique Région Nouvelle-Aquitaine,
  • Jean-Noël Barthas, Responsable du département Algorithmes et Données, CATIE,
  • Anaïs Teissonnier, Responsable cellule services aux collectivités, CLS Group.

ont échangé sur les enjeux stratégiquesles besoins du terrain, les solutions techniques et les perspectives d’usage, en s’appuyant sur des exemples concrets de projets portés dans la région.

Pierre Macé a remercié l’ensemble des participants et intervenants et a souligné que la thématique “innovation et données” s’impose aujourd’hui comme une interrogation partagée, tant au sein des collectivités que des services de l’État, des SDIS ou des partenaires locaux.

Fort de 30 ans d’expérience dans l’information géographique, le GIP ATGeRi s’inscrit dans une démarche cohérente visant à éclairer la décision publique comme privée, selon une logique rigoureusement structurée d’observation, d’analyse et de proposition.

L’essor de l’intelligence artificielle ravive les réflexions stratégiques jadis suscitées par le Big Data ou l’Open Data. Inscrit dans une continuité marquée par de multiples transitions technologiques (ERP, VPN, GPS, fichiers TXT), ce mouvement invite désormais à repenser l’usage des données sous l’angle de la valeur ajoutée, de l’impact environnemental et des enjeux de gouvernance.

La dématérialisation massive des échanges de données soulève à présent des enjeux écologiques majeurs, avec 29 000 Go générés chaque seconde. Elle rend urgente une réflexion sur la manière de structurer et gouverner la data pour servir les missions fondamentales des territoires.

Dans ce contexte, le soutien institutionnel (FEDER, Région, État, SDIS) apparaît comme un levier clé pour consolider des plateformes telles que PIGMA, devenues essentielles à la structuration territoriale.

Pierre Macé a ensuite invité les intervenants à partager leur vision de la donnée en tant que levier d’innovation dans leurs métiers et à engager une réflexion collective sur les enjeux de structuration, d’usage et de souveraineté qui y sont associés.

Les données enjeux de la gestion de crise

L’Inspecteur général François GROS a présenté son rôle de coordination exercé en matière de sécurité civile, qui consiste à articuler les actions des services départementaux avec les dispositifs nationaux et les mécanismes européens de protection civile. Sans exercer d’autorité de commandement, cette mission vise à organiser la mobilisation et la mise à disposition des ressources lors de crises majeures, telles que les incendies de forêt, les séismes ou les troubles à l’ordre public.

La donnée constitue un enjeu central dans la gestion des crises. Toutefois, si elle n’est pas reliée à un usage opérationnel ou à une analyse métier, elle perd toute valeur stratégique. Une accumulation non ciblée peut même devenir contre-productive, en générant confusion, surinformation et divergences entre experts et compliquant ainsi la prise de décision.

Dans la lutte contre les incendies, l’exploitation croisée des données géographiques (accessibilité des forêts, état des pistes, typologie des plantations, niveau de déforestation), données météorologiques et indicateurs de terrain constitue une base indispensable à l’analyse du risque. Les seules données météo restent insuffisantes pour évaluer précisément le danger. Une attention particulière est accordée aux données en temps réel, valorisées grâce à l’expertise conjointe de l’ONF, de la RDFCI, des SDIS et de la DRAF, afin d’optimiser la répartition des moyens. De plus, les travaux menés par l’INRAE, combinant statistiques et observations, visent à identifier les zones à risques, anticiper la propagation des feux, prioriser les sites sensibles et positionner les ressources de manière optimale.

Le dispositif empirique actuel est hérité d’une organisation antérieure à l’ère numérique. Il repose sur une coordination quotidienne pendant les périodes sensibles, avec deux réunions par jour sur l’ensemble du territoire pour orienter les décisions de mise à disposition des moyens de sécurité civile. Cette approche, associée à un suivi humain de haut niveau, demeure pertinente et fonctionnelle.

La France dispose d’un atout stratégique avec ses moyens aériens de lutte contre les incendies, capables d’intervenir de manière anticipée, une spécificité rare à l’échelle internationale. L’efficacité de ce dispositif repose sur une exploitation fine et pertinente des données disponibles.

Les enjeux économiques et stratégiques à l’échelle de la région

Cyrille Harnay a exposé sa double mission : observer les usages de la donnée à l’échelle régionale et financer des projets d’innovation numérique, notamment ceux intégrant l’intelligence artificielle. Majoritairement portés par des acteurs privés, ces projets soulèvent des enjeux à la fois économiques et stratégiques.

La transformation numérique a profondément redéfini la relation à la donnée. Après l’expansion des volumes induite par le Big Data, l’intelligence artificielle facilite aujourd’hui la réutilisation de données produites par d’autres, souvent sans contrepartie. Pourtant, la production de données demeure coûteuse en infrastructures, en contrôle de qualité et en animation, des coûts majoritairement assumés par le secteur public dans le cadre de ses missions de service.

Cette dynamique crée une asymétrie : les données publiques, mises gratuitement à disposition, alimentent des services économiques développés par des acteurs privés. Ce déséquilibre interroge la viabilité du modèle actuel.

Dès lors, la question n’est plus seulement de stocker des données, mais de les convertir en services à forte valeur ajoutée. La plateforme doit être pensée comme un réservoir de services potentiels, et non comme un simple entrepôt. Le défi pour la Région est d’accompagner activement cette transformation en encourageant le développement de services concrets, utiles et valorisables.

Cette évolution, particulièrement visible depuis cinq ans, s’est accélérée avec l’émergence de l’intelligence artificielle.

Pierre Macé a souligné les limites du modèle économique actuel.

Cyrille Harnay a constaté, en effet, que de nombreuses entreprises privées tirent parti de données produites par d’autres acteurs sans en avoir assumé les coûts de production. Cette situation ne se limite pas aux GAFAM, elle concerne aussi les PME, qui, pour développer leurs services, s’appuient sur des données dont la génération est complexe et onéreuse.

Pierre Macé a observé que de nombreuses entreprises privées utilisent des données produites par d’autres acteurs sans en avoir supporté les coûts de production. Cette réalité ne se limite pas aux grandes plateformes numériques : elle concerne aussi les PME, qui s’appuient sur des données onéreuses pour développer leurs services. Il a rappelé cependant que la production de données n’est pas l’apanage du secteur public. Les acteurs privés en génèrent également dans le cadre de leurs activités quotidiennes. Aussi, dans certains domaines, comme la forêt, la viticulture ou la santé animale, leur partage pourrait renforcer l’efficacité de l’action publique. Il devient ainsi essentiel de faire émerger des modèles de coopération équilibrés, dans lesquels chacun, public comme privé, contribue activement à l’intérêt général.

L’élaboration d’une vision stratégique à l’échelle territoriale repose sur une dynamique collective. Aucun acteur institutionnel, qu’il s’agisse de l’État ou de la Région, ne peut porter seul une telle ambition, à la différence de certains acteurs privés capables de développer des solutions de manière autonome.

20250612 TABLE RONDE
De gauche à droite : Rudy Cambier, IGN ; Anaïs Teissonnier, CLS Group; Jean-Noël Barthas, CATIE ; Cyrille Harnay, Région Nouvelle-Aquitaine ; François Gros, Etat-major interministériel de la zone de défense et de sécurité Sud-Ouest; Pierre Macé, GIP ATGeRi

La pertinence du choix des outils innovants

Jean-Noël Barthas a rappelé que l’IA actuelle repose avant tout sur des algorithmes, sans réelle forme « d’intelligence » au sens humain du terme.

Le CATIE, structure créée en 2014 à l’initiative d’Alain Rousset et soutenue par la région, fonctionne selon un modèle hybride public-privé. Sa mission est dédiée au transfert de technologies numériques, dans une logique de recherche et développement.

L’organisation regroupe trois pôles :

  • un pôle data science,
  • un pôle électronique et IoT,
  • un pôle facteur humain, dédié à l’acceptation des technologies.

Le centre R&D intervient dans le transfert de technologies numériques, en adaptant ses méthodes aux besoins concrets du terrain. L’intelligence artificielle y est mobilisée lorsqu’elle s’avère pertinente, notamment pour exploiter des données issues de capteurs LIDAR ou modéliser des volumes végétaux. Mais d’autres approches, comme les modèles épidémiologiques traditionnels, restent également centrales. Le choix des outils (IA, machine learning ou modélisation mathématique) dépend donc du volume, de la qualité des données et des cas d’usage.

Anaïs Teissonnier présente CLS Group, entreprise engagée depuis près de 40 ans dans la protection de l’environnement grâce à l’exploitation des données satellitaires. Son cœur de métier repose sur la transformation des données spatiales et territoriales en informations géographiques concrètes, notamment sur l’occupation du sol.

Les images satellites sont croisées avec des données complémentaires, souvent issues de sources régaliennes, afin de garantir fiabilité, homogénéité et continuité. L’objectif est de permettre à l’utilisateur final de comprendre les usages, les limites et les potentialités de ces données.

Elle a souligné également le rôle clé des acteurs privés dans le développement de méthodes reproductibles et dans l’usage des algorithmes appliqués au traitement d’images. Cette évolution appelle cependant à une vigilance accrue face aux impacts environnementaux que sont la consommation énergétique, le volume de données générées et la nécessité d’un numérique responsable.

L’intelligence artificielle est ainsi présentée comme un levier pertinent, à condition d’en interroger les usages, la finalité et l’empreinte.

Rudy Cambier a informé que l’IGN, établissement public sous tutelle du ministère de la Transition écologique, joue un rôle central dans la production de données géographiques et forestières. Historiquement producteur de données de référence (topographiques, forestières, cadastrales), l’institut s’engage désormais dans la cartographie des effets du changement climatique, en lien avec les politiques publiques et l’écosystème industriel.

Malgré des moyens publics limités, l’institut fait le pari de l’innovation, en valorisant ses données par l’algorithmie et l’intelligence artificielle. L’outil COSIA, par exemple, permet de cartographier à grande échelle l’occupation du sol, apportant un appui concret au pilotage territorial. Une équipe d’une trentaine de spécialistes a été mobilisée pour conduire ces projets de recherche et développement.

L’institut travaille également sur la détection du changement d’usage des sols agricoles, grâce à la combinaison de données hétérogènes (images orthophotographiques, données satellitaires, etc.) et à l’IA.

En parallèle, l’IGN adopte une posture de co-construction ouverte : avec le projet Panoramax, une alternative libre à Google Street View, l’établissement illustre sa volonté d’impliquer citoyens, collectivités et entreprises dans la création de bases de données collaboratives.

Enfin, l’IGN pilote un ambitieux projet de jumeau numérique de la France et de ses territoires, conçu comme une infrastructure nationale co-produite avec les collectivités et le secteur privé. Cette initiative soulève des enjeux essentiels de souveraineté, de gouvernance de la donnée et de viabilité économique.

Innnovations, difficultés et solutions

Dans un second temps, Pierre Macé a invité les intervenants à préciser leurs ambitions en matière d’innovation et d’intelligence artificielle, les difficultés qu’ils rencontrent et les solutions qu’ils envisagent pour y répondre.

François Gros a décrit les besoins des services de sécurité civile (comme les SDIS) face aux crises et souligne l’efficacité reconnue de la stratégie française d’intervention rapide sur les feux naissants.

Toutefois, pour mieux anticiper et réagir, il rêve d’un système capable d’analyser de nombreuses données (météo, terrain, population, ressources, risques, historiques…) afin d’identifier à l’avance les zones vulnérables et de décider rapidement où positionner les secours.

Trois conditions essentielles sont nécessaires pour qu’un tel système soit utile :

  • la fiabilité des données,
  • l’accessibilité de l’information,
  • la capacité à aider à la décision en temps réel.

L’objectif n’est donc pas seulement de disposer d’informations, mais de pouvoir agir rapidement et pertinemment.

Des expérimentations récentes, intégrant l’intelligence artificielle pour traiter les images et prédire l’évolution de feux de forêt, montrent l’intérêt de telles approches, comme le projet SDIS 34, qui a permis de traiter en temps réel 35 départs de feu grâce à l’IA, en croisant images satellites, traitements algorithmiques et informations de terrain. Ce type de solution a amélioré la coordination entre les centres de commandement et les équipes engagées sur le terrain.

Pour Cyrille Harnay, l’enjeu majeur concerne la gouvernance des données. Le GIP ATGeRi incarne une approche singulière en offrant aux acteurs la capacité de définir précisément quelles données partager, avec quels partenaires et selon quelles modalités. Cette démarche permet de répondre à une difficulté récurrente dans les projets, notamment en aménagement du territoire : la redondance des données produites et le cloisonnement de leur usage.

Un savoir-faire spécifique s’est ainsi développé autour de l’animation des groupes producteurs, de la mise en relation des partenaires et de l’élaboration de règles de partage claires. À mesure que la production de données s’intensifie, cette dynamique devient un levier indispensable pour structurer l’action collective.

Deux défis majeurs se dessinent :

  • La mutualisation et la visibilité des données. Le risque de duplications souligne l’importance du catalogage et de la capitalisation. Les outils d’intelligence artificielle développés par le GIP ATGeRi participent à rendre ces données plus visibles et accessibles.
  • La gouvernance collective. Dans un cadre stratégique, une gestion fragmentée n’est plus tenable. La présence d’un tiers neutre, garant d’échanges maîtrisés entre acteurs, s’impose. Le GIP ATGeRi joue ce rôle d’intermédiation, qui mériterait d’être étendu à d’autres secteurs.

L’enjeu dépasse donc désormais la simple production de données : il s’agit de faire savoir, de faire circuler et surtout, de faire ensemble.

Jean-Noël Barthas a souligné que la mutualisation des données s’impose comme une condition clé dans un contexte de développement rapide de l’intelligence artificielle. La démonstration réalisée récemment par la MAIF à La Rochelle en est un exemple parlant : un assistant vocal a été conçu pour analyser en temps réel les appels liés aux sinistres, permettant une meilleure évaluation de leur gravité lors d’événements climatiques extrêmes. Si le projet n’a nécessité que deux demi-journées pour être présenté, il révèle un potentiel considérable.

En revanche, d’autres initiatives, plus complexes, comme celles dédiées à la modélisation de stratégies de lutte contre certaines maladies saisonnières, requièrent un travail long et rigoureux de collecte, de consolidation et d’analyse sur plusieurs années. Dans ce type de démarche, la mutualisation devient décisive pour garantir un volume de données suffisant à la construction de modèles pertinents et durables.

Au delà de l’innovation : la qualité et la fiabilité des données

La qualité et la fiabilité des données restent un enjeu majeur : des données biaisées ou mal exploitées compromettent l’intégrité des résultats. La confiance dans la donnée constitue ainsi un préalable incontournable.

Il apparaît alors judicieux de démarrer avec des jeux de données simples, même imparfaits, afin de lancer des expérimentations concrètes. L’IA, en s’appuyant sur des référentiels clairs, permet de dépasser les contraintes d’hétérogénéité grâce à des capacités de traitement sémantique avancées.

Enfin, certaines applications, comme l’analyse combinée de données météorologiques et de capteurs, peuvent servir de tremplin à des projets plus ambitieux. Mais la priorité demeure de progresser pas à pas, avec méthode, pour construire progressivement des dispositifs plus ambitieux.

Pierre Macé  a souligné que la confiance dans les données repose sur leur disponibilité dans le temps. L’analyse de phénomènes complexes, tels que les maladies de la vigne, exige un accès durable à des données constantes et cohérentes sur plusieurs années. Il en appelle ainsi à la mise en place d’une véritable stratégie de conservation et de continuité des données au sein des projets.

Jean-Noël Barthas a considèré que, dans les secteurs de l’assurance et des événements climatiques, les données historiques conservent une valeur essentielle, y compris lorsqu’elles datent de plusieurs décennies. Elles permettent d’identifier des tendances longues et de mieux comprendre les cycles.

Pour que l’intelligence artificielle soit réellement efficace, il est toutefois indispensable de disposer d’un corpus de données le plus complet possible. Trop souvent, seules les données considérées comme « correctes » sont conservées, ce qui limite la capacité des modèles à détecter les anomalies. Or, sans exemples d’erreurs ou de cas atypiques, il devient impossible de mesurer la fiabilité des résultats, de définir un seuil de confiance ou de déclencher une alerte justifiant une validation humaine.

Ainsi, même les données imparfaites sont précieuses. L’oubli ou l’élimination volontaire des cas non conformes est une erreur fréquente qui compromet la qualité de l’analyse future.

Anaïs Teissonnier a porté l’ambition de créer un outil d’intelligence artificielle capable de traiter durablement, de manière fiable et interopérable, une vaste diversité de données complexes. Cette vision repose sur l’exploitation conjointe de données satellitaires, de capteurs connectés et d’algorithmes issus de la recherche, en particulier académique et française.

L’objectif est de concevoir un système en mesure de croiser automatiquement des informations issues de sources variées afin d’anticiper les risques naturels, tels que les submersions marines, tempêtes, incendies ou inondations, dans une perspective d’aménagement urbain durable. Ces données doivent s’inscrire dans des scénarios prospectifs intégrant des seuils de fiabilité élevés, au service de l’alerte et de la décision.

L’interopérabilité est un enjeu central. Elle peut être comparée à la difficulté qu’ont les systèmes Windows et Apple à bien communiquer entre eux.

Ce « bouton IA », à haute valeur opérationnelle, permettrait par exemple de conclure, avec un niveau de certitude de 99,9 %, à la nécessité de relocaliser un hôpital situé en zone inondable. L’enjeu va bien au-delà de l’innovation technique : il engage notre capacité collective à prendre des décisions anticipées, partagées et éclairées face aux défis climatiques.

Pierres Macé a demandé de préciser les inquiétudes.

Anaïs Teissonnier a évoqué la question du coût de l’énergie et la difficulté à financer les idées et les innovations, aussi pertinentes soient-elles. Si les entreprises disposent aujourd’hui des compétences techniques nécessaires pour concrétiser des projets complexes, leur mise en œuvre dépend étroitement des moyens humains, matériels et financiers mobilisables. Le stockage des données, sa souveraineté et son financement figurent parmi les enjeux clés identifiés.

La formation constitue également un point de vigilance. Si les cursus récents transmettent des compétences techniques actualisées, ils tendent parfois à négliger les fondamentaux. Elle cite l’exemple de l’interprétation d’images satellite, qui, vingt ans auparavant, nécessitait une formation approfondie, aujourd’hui davantage acquise sur le terrain que dans les formations initiales. Cette évolution invite à repenser les contenus pédagogiques afin de garantir aux professionnels de demain une maîtrise à la fois des outils contemporains et des bases conceptuelles.

Enfin, elle a appelé à une synergie renforcée entre les entreprises, les structures de formation et les institutions, condition indispensable pour assurer la transmission et le soutien des compétences nécessaires à la transformation en cours.

Rudy Cambier a développé une vision ambitieuse du jumeau numérique comme levier structurant pour les politiques publiques et industrielles, en particulier dans la cartographie dynamique et la planification territoriale. Plutôt qu’accumuler les technologies, la démarche repose sur des cas d’usage concrets : adaptation climatique, urbanisation, gestion des risques.

Le jumeau numérique est pensé comme un outil d’aide à la décision, croisant des données hétérogènes (géographiques, sociales, économiques), capable de simuler des scénarios et de les représenter de manière fiable en 3D. Il peut aussi devenir un support de dialogue et de médiation avec les citoyens, notamment face à des enjeux sensibles, comme le recul du trait de côte ou les relocalisations.

Il a alerté cependant sur la multiplication de projets isolés, coûteux, peu interopérables. D’où l’ambition de créer une infrastructure socle commune, portée par un consortium public-privé rassemblant collectivités, CNES, PME françaises et acteurs industriels.

Trois priorités émergent : faciliter l’accès aux outils en réduisant les coûts, instaurer un modèle économique viable en mobilisant les financements publics, comme France 2030, et associer les filières concernées (réseaux, assurances, construction). L’interopérabilité des systèmes s’impose pour relier les jumeaux numériques sectoriels à des modèles territoriaux ou climatiques. Enfin, seule une démarche de co-construction avec les territoires, fondée sur l’existant et le dialogue, permettra de créer des dispositifs utiles et durables.

La collaboration public/privé

Pierre Macé a affirmé que la mutualisation des services entre acteurs publics et privés ne peut réussir que si trois conditions sont réunies : garantir une qualité de services équivalente, établir une gouvernance claire et partagée et assurer une répartition équitable des contributions financières. Cette approche, fondée sur la coopération, s’inscrit pleinement dans la mission du GIP ATGeRi, qui vise à concilier efficacité opérationnelle et maîtrise des ressources.

Pour sa part, Eric Thalgott a exprimé le souhait d’un renouvellement profond des relations entre acteurs publics et privés, invitant à dépasser les logiques établies pour instaurer un dialogue ouvert et exigeant. Ce dialogue doit permettre de réexaminer collectivement des enjeux structurants, au premier rang desquels figure le financement des politiques publiques.

Il a rappelé que la fiscalité versée par les entreprises constitue déjà une forme de contribution à l’effort collectif, et souligne l’étroite interdépendance entre la solidité des finances publiques et la santé du tissu économique. Un affaiblissement de l’un fragilise inévitablement l’autre.

Dans cette perspective, il a appelé à une coopération fondée sur la lucidité, l’équité et la responsabilité partagée, afin de sortir d’une logique d’urgence permanente et de poser les bases d’un partenariat plus équilibré, plus durable et plus constructif.

Pierre Macé a mis en avant un paradoxe révélateur : une table ronde dédiée à la technologie et aux données se transforme rapidement en espace de réflexion sur la coopération, la confiance et la mutualisation entre sphères publique et privée. Il a observé que, bien que les entreprises produisent une quantité significative de données utiles, leur partage avec les institutions publiques reste tributaire d’un climat de confiance et d’une compréhension réciproque des enjeux.

Il a cité plusieurs exemples concrets, notamment dans le secteur de l’assurance, où les tentatives de coopération ont échoué faute de dialogue abouti. À l’inverse, certaines situations de crise, telles que des tempêtes ou épidémies animales, ont agi comme catalyseurs, incitant les acteurs à ouvrir leurs données, à renforcer leurs échanges et à s’appuyer sur des dispositifs partagés.

Il a rappelé que des méthodes collaboratives initiées localement par les Régions, l’État ou des industriels (cercles de confiance, voyages d’étude conjoints, outils de décision partagée) ont été expérimentées avec succès avant d’être diffusées à une échelle plus large.

En définitive, les crises ont souvent permis de franchir des seuils, en brisant les cloisonnements, en faisant émerger une culture du partenariat et en posant les bases de pratiques durables. L’enjeu, selon lui, est désormais de pérenniser ces dynamiques d’intégration, non sous la pression de l’urgence, mais dans une logique d’anticipation, de structuration et de respect des intérêts de chacun.