Record de participants au webinaire café-atelier PIGMA Changement climatique : des données pour anticiper les transitions écologiques des territoires
Animation, Café-atelier, Données
27/02/2026

Le dernier café-atelier de la communauté PIGMA qui échange de la donnée en Nouvelle-Aquitaine avait lieu en webinaire le vendredi 27 février. L’objectif de ce rendez-vous, le changement climatique : des données pour anticiper les transitions écologiques des territoires. Les partenaires de la communauté s’étaient fortement mobilisés pour l’occasion avec plus de 220 inscrits !
En ouverture de webinaire, Thomas Petillon, GIP ATGeRi/PIGMA, après avoir accueilli les participants, a rappelé les bonnes pratiques pour optimiser l’expérience de l’évènement.
Martin Blazek, en charge de l’animation de la plateforme PIGMA au sein du GIP ATGeRi, a ouvert le webinaire en remerciant les participants pour leur présence et leur confiance.
Il a souligné la forte mobilisation autour de cet événement, avec plus de 220 inscrits, marquant une participation record et témoignant du dynanisme superactif de la communauté PIGMA.
Il a rappelé que ce webinaire était organisé dans le cadre de la plateforme PIGMA, portée par le GIP ATGeRi, spécialiste de la gouvernance de la donnée et acteur central du partage de données et de services numériques en Nouvelle-Aquitaine.
Il a précisé que la mission du GIP ATGeRi et de PIGMA consistait à accompagner les collectivités, les services de l’État et les entreprises dans la gestion, l’échange et la valorisation des données géographiques afin de mieux éclairer leur action.
À travers les événements du réseau, la plateforme vise à mutualiser les usages, à favoriser la montée en compétences et à renforcer l’efficacité collective dans les missions quotidiennes des acteurs territoriaux.
Martin Blazek a introduit la thématique de la session, consacrée à l’action face à l’intensification des effets du changement climatique sur les territoires.
Il a rappelé que les aléas naturels, la pression sur les ressources, l’évolution des usages du sol et l’adaptation des politiques publiques conduisent les acteurs locaux à un besoin croissant d’anticipation et d’aide à la décision.
Dans ce contexte, il a souligné que la donnée territoriale constitue un levier essentiel pour comprendre, projeter et piloter les transitions écologiques à l’échelle locale.
Il a précisé que le webinaire visait à explorer plusieurs questions :
- Quels types de données mobiliser ?
- Comment passer de données brutes hétérogènes à des analyses lisibles, partagées et utiles à la décision publique ?
- Comment articuler ces données avec des approches de visualisation ou de modélisation pour éclairer les choix stratégiques des territoires ?
Il a indiqué que les échanges s’appuieraient sur des retours d’expérience en Nouvelle-Aquitaine et au-delà, afin d’illustrer comment les données peuvent devenir des leviers d’anticipation des effets du changement climatique.
Martin Blazek a ensuite introduit successivement les intervenants en présentant brièvement leur expertise et l’angle de leur intervention :
- Jean-Michel Soubeyroux , Météo-France;
- Pauline Allée, AREC Nouvelle-Aquitaine;
- Virginie Steiner, Communauté d’agglomération de La Rochelle;
- Frédéric Deneux, CRAIG Auvergne-Rhône-Alpes;
- Frédéric Levrault, Chambre Régionale d’Agriculture de Nouvelle-Aquitaine;
- Patrick Delmarre, Viti-Tunnel.
Il les a remerciés d’avoir accepté l’invitation ainsi que l’ensemble de l’équipe PIGMA pour l’organsiation.
Il a ensuite invité Jean-Michel Soubeyroux, climatologue à Météo-France, à intervenir sur les apports des données pour anticiper les effets du changement climatique et dresser un panorama des enjeux, des types de données mobilisables et des usages actuels.
Changement climatique et territoires : quels apports des données pour anticiper ? Panorama des enjeux, des types de données mobilisables et des usages actuels

Jean-Michel Soubeyroux est directeur adjoint scientifique, en charge de la climatologie et des services climatiques à Météo-France. Il a précisé qu’il intervenait plus particulièrement sur le diagnostic du changement climatique en France, la production de projections climatiques et le développement de services climatiques, comme le portail DRIAS.
Il a indiqué que son intervention portait sur l’apport des données climatiques pour la transition écologique, en ciblant plus spécifiquement le territoire de la Nouvelle-Aquitaine.
Diagnostic du changement climatique
Il a présenté un état des lieux du changement climatique en partant de l’échelle planétaire jusqu’à une échelle locale.
Il a détaillé que :
- la hausse des températures moyennes à l’échelle mondiale depuis l’ère préindustrielle atteint +1,4°C;
- à l’échelle nationale, cette hausse atteint +2,2°C depuis le début du XXe siècle;
- en Nouvelle-Aquitaine, à Agen, la hausse des températures depuis les années 1960 atteint +1,9°C.
Il a précisé que les années récentes ont été particulièrement chaudes, avec 2025 classée parmi les années les plus chaudes à l’échelle nationale et régionale.
Construction du diagnostic climatique
Il a expliqué que l’établissement du diagnostic climatique repose sur un travail continu de collecte et de structuration des données météorologiques.
Il a présenté les différentes sources mobilisées :
- les stations météorologiques,
- les radars,
- les satellites.
Il a précisé que ces données sont archivées dans des bases climatologiques afin de constituer des séries longues, indispensables pour détecter les signaux du changement climatique, notamment lorsqu’ils sont faibles.
Il a également détaillé le travail de sauvegarde et de numérisation des données anciennes, constituant un patrimoine climatologique encore en cours de valorisation.
Il a expliqué que ces longues séries font ensuite l’objet de traitements statistiques, notamment d’homogénéisation, afin d’isoler le signal climatique réel des biais liés :
- aux évolutions des instruments,
- aux changements de sites de mesure,
- ou aux conditions d’observation.
Évolutions observées en Nouvelle-Aquitaine
Il a précisé que les tendances sont très marquées sur les températures.
En revanche, il a expliqué que les signaux sont moins nets concernant les précipitations :
- peu d’évolution observable à l’échelle annuelle ou saisonnière;
- mais une aggravation des sécheresses des sols, liée à la combinaison de l’augmentation des températures et de l’évapotranspiration.
Il a également indiqué qu’aucun signal clair n’est observé sur les tempêtes, mais qu’une variabilité décennale importante existe.
Accès aux données climatiques
Il a expliqué que les longues séries homogénéisées sont désormais accessibles librement via le portail public : meteo.data.gouv.fr.
Il a précisé que ces données constituent les références à utiliser pour le diagnostic climatique.
Il a présenté différents types de données disponibles :
- données aux stations,
- données spatialisées,
- données sur l’humidité des sols,
- données nivologiques.
Il a indiqué que de nouvelles analyses seront prochainement mises à disposition, notamment l’analyse Anastasia pour les températures quotidiennes.
Projections climatiques
Il a expliqué que le climat futur dépend directement des trajectoires d’émissions de gaz à effet de serre.
Il a rappelé que la France s’est dotée en 2023 d’une Trajectoire de Réchauffement de Référence pour l’Adaptation au Changement Climatique (TRACC).
Il a précisé que :
- en l’absence de mesures supplémentaires, le réchauffement mondial pourrait atteindre environ +3°C;
- ce réchauffement serait plus marqué en France.
Il a indiqué que Météo-France a produit des jeux de données climatiques basés sur cette trajectoire et les a mis à disposition via le portail DRIAS.
Focus sur la Nouvelle-Aquitaine
Il a présenté les évolutions attendues à l’horizon 2050 en Nouvelle-Aquitaine :
Concernant les températures :
- un réchauffement annuel moyen d’environ +2,1°C;
- un réchauffement plus marqué en été qu’en hiver;
- une variabilité interannuelle importante.
Concernant les précipitations :
- peu d’évolution moyenne annuelle;
- des hivers plus humides et des étés plus secs.
Intensification des extrêmes
Il a détaillé les évolutions attendues :
- augmentation des nuits chaudes;
- hausse des journées de fortes chaleurs;
- diminution des jours de gel.
Il a également présenté l’évolution des extrêmes hydrologiques :
- hausse des pluies intenses,
- augmentation des sécheresses,
- élévation du niveau de la mer estimée entre +25 et +33 cm à l’horizon 2050.
Services climatiques pour l’adaptation
Il a expliqué que les données climatiques sont mises à disposition via les portails :
Il a indiqué que ces données alimentent des outils de diagnostic et d’aide à la décision pour les territoires.
Perspectives
Il a présenté les travaux en cours :
- la mise en place d’un portail national des impacts du changement climatique destiné aux décideurs publics;
- la préparation d’un nouveau jeu de projections climatiques basé sur les simulations du GIEC, dont la publication est prévue fin 2026.
Il a conclu que ces nouvelles données permettront d’améliorer encore les services climatiques au service de l’adaptation des territoires.
Martin Blazek a ensuite remercié Jean-Michel Soubeyroux et donné la parole à Pauline Allée, experte des données climat au sein de l’AREC Nouvelle-Aquitaine, afin d’aborder le passage des données brutes à la visualisation et la structuration d’une chaîne de valeur de la donnée climatique.
Télécharger la présentation de Jean-Michel Soubeyroux, Météo-France.
Des données brutes à la visualisation : structurer une chaîne de valeur de la donnée climatique. Méthodes, limites et conditions de fiabilité pour éclairer la décision locale

Pauline Allée a indiqué qu’elle n’allait pas s’attarder sur les sources de données, car Jean-Michel Soubeyroux les avait déjà présentées.
Elle a précisé que, pour le climat passé, l’AREC Nouvelle-Aquitaine récupère les données en open data via la plateforme data.gouv.fr, en s’appuyant notamment sur les données Météo-France.
Elle a expliqué que, pour le climat futur, l’AREC NA utilise le portail DRIAS en cohérence avec la TRACC .
Dans son support, elle a illustré ces sources en distinguant :
-
des données passées issues d’open data Météo-France, sous forme de fichiers CSV par périodes (SIM quotidienne) et une grille SAFRAN (8 km x 8 km) intégrant plusieurs paramètres (précipitations, températures, évapotranspiration, humidité des sols, etc.) ;
-
des données futures issues de DRIAS, sous forme de fichiers netCDF, associées à des ensembles de simulations (couples GCM/RCM – Global/Regional Climate Models – et ensembles régionaux Euro-CORDEX).
Agrégation multi-échelles (région → EPCI → communes)
Pauline Allée a expliqué que l’AREC NA récupère l’ensemble des indicateurs disponibles et les agrège à différentes échelles :
- la Nouvelle-Aquitaine,
- les départements,
- les EPCI,
- et, si besoin, l’échelle communale.
Elle a présenté des exemples sur le climat observé :
- une série temporelle montrant l’écart à la référence 1976–2005 pour la température moyenne en Nouvelle-Aquitaine, et elle a expliqué que la température moyenne est en hausse et au-dessus de la référence depuis environ trente ans, avec seulement trois années plus froides ;
- une série temporelle en valeur absolue sur les nuits tropicales à Bordeaux Métropole, en précisant qu’une nuit tropicale correspond à une température minimale qui ne descend pas sous 20°C ; elle a indiqué que le nombre de nuits tropicales a doublé voire triplé par rapport aux années 1980-1990, atteignant jusqu’à environ un mois de nuits tropicales en 2023 ;
- des cartographies par décennies des précipitations hivernales (1991-2000 / 2001-2010 / 2011-2020), et elle a expliqué que les cartes devenaient « de plus en plus bleues », suggérant une tendance à l’augmentation des cumuls hivernaux sur les dernières décennies, tout en rappelant l’idée de variabilité et de saisonnalités plus marquées.
Climat futur : cartographies TRACC et lecture des tendances régionales
Pauline Allée a ensuite abordé le climat futur en indiquant qu’elle allait présenter des cartographies basées sur les scénarios de la TRACC.
Elle a montré un exemple sur le nombre de jours avec un sol sec (référence 1976-2005, puis niveaux TRACC), et elle a expliqué qu’il existe des disparités au sein de la région, mais que l’ensemble des territoires est touché, avec une sensibilité marquée du nord de la région (ex-Poitou-Charentes).
Elle a présenté un autre exemple sur les précipitations estivales, en indiquant que la tendance est à la baisse en été selon les niveaux TRACC, et qu’en parallèle les précipitations hivernales apparaissent plutôt à la hausse, ce qui conduit à un cumul global relativement stable mais avec des saisonnalités plus marquées, impliquant des besoins d’adaptation.
Mise à disposition : l’outil TerriSTORY (visualisation + téléchargement)
Pauline Allée a précisé que les données TRACC ont été mises à disposition dans un outil nommé TerriSTORY.
Elle a expliqué le fonctionnement :
- sélection de la région Nouvelle-Aquitaine,
- choix de l’échelle (jusqu’à la commune),
- menu déroulant « climat » donnant accès à différents indicateurs : températures, précipitations, indice feu météo, sol sec, déficit hydrique, évapotranspiration potentielle.
Elle a indiqué que l’utilisateur peut se déplacer sur la carte et accéder aux données associées pour chaque commune.
Elle a précisé les correspondances d’horizons :
- la référence (années associées à la période de référence 1976-2005),
- 2030 correspondant au niveau TRACC +2°C,
- 2050 correspondant à +2,7°C,
- 2100 correspondant à +4°C.
Elle a illustré sur un indicateur de fortes chaleurs : elle a expliqué que, sur le nord de la région, on passe d’environ 8–10 jours (référence) à environ 20 jours (+2°C), puis 25–30 jours (2050, +2,7°C), et jusqu’à environ 40 jours à +4°C, soit plus d’un mois de fortes chaleurs contre une dizaine de jours sur la référence.
Elle a précisé que les données sont téléchargeables via une icône dédiée, au choix pour l’année sélectionnée ou l’ensemble des années, et dans différents formats d’export.
Exemple de la Communauté d’agglomération de La Rochelle
Pauline Allée a expliqué que l’AREC NA a travaillé volontairement sur l’exemple de la Communauté d’agglomération de La Rochelle (CALR).
Elle a indiqué qu’à la demande de la collectivité, l’AREC NA a produit certaines cartographies d’indicateurs.
Elle a présenté :
- une cartographie du nombre de jours où la température dépasse 35°C sur la CALR selon la TRACC, en précisant que la période de référence est à 0 jour en moyenne, et qu’à +4°C on atteint une moyenne d’environ une semaine de fortes chaleurs à l’échelle de l’agglomération, avec des différences entre communes (plus dans les terres que sur la côte). Elle a précisé que le niveau +2°C avait été volontairement exclu pour gagner de la place, car ce niveau est déjà presque atteint.
- un indicateur d’inconfort d’été des logements, construit à partir de la base DPE (Diagnostic de Performance Énergétique). Elle a expliqué que cet indicateur permet de cartographier, par commune, la part de logements en inconfort d’été, et qu’en croisant fortes chaleurs et inconfort d’été, il devient possible de cibler les communes où des rénovations seraient prioritaires.
Croisements exposition / sensibilité : vers des indicateurs de vulnérabilité
Pauline Allée a expliqué qu’un travail de croisement est mené entre :
- des données d’exposition (indicateurs climatiques),
- et des indicateurs de sensibilité (urbanisme, santé, ressource en eau, etc.), afin d’identifier des fragilités concernant les populations, les bâtiments, les activités ou les ressources naturelles.
Elle a donné un exemple « santé » :
- Elle a indiqué qu’à l’échelle régionale, on passe de 4 nuits tropicales sur la référence à 34 nuits tropicales à +4°C (plus d’un mois), en soulignant que ces nuits chaudes mettent le corps à rude épreuve car il devient difficile de se refroidir ;
- Elle a précisé que la sensibilité a été mesurée via la part de population vulnérable (moins de 2 ans ou plus de 75 ans), à partir de données INSEE, en indiquant une évolution de 13,2% en 2018 à près de 22,9% à l’horizon 2070 ; elle a expliqué que la cartographie est pour l’instant à l’échelle départementale, avec une descente à des échelles plus fines prévue ultérieurement.
- Elle a précisé que, sur cet exemple de croisement, la Dordogne ressortait comme territoire combinant des nuits plus chaudes et une part plus élevée de population vulnérable.
Cartographies bivariées : prioriser l’action à l’échelle communale
Pauline Allée a expliqué que l’AREC NA produit des cartographies bivariées afin de croiser deux indicateurs sur un même territoire.
Elle a donné deux exemples :
- Nuits tropicales (en ordonnée) × part de logements en inconfort d’été (en abscisse), en indiquant que cette représentation permet de repérer, dans chacun des départements, des communes plus exposées et plus sensibles, et donc potentiellement prioritaires pour des actions de rénovation ; elle a précisé que l’exemple présenté est basé sur l’horizon TRACC +2,7°C (2050).
- Retrait-gonflement des argiles (RGA) (en abscisse) × nombre de jours avec un sol sec (en ordonnée), en indiquant que le nord de la région (ex-Poitou-Charentes, hormis une zone centrale) est particulièrement concerné, avec une aggravation du phénomène liée à l’augmentation des jours de sol sec.
Elle a précisé qu’un croisement est également prévu avec la BD TOPO (base de données topographiques), afin d’identifier les bâtiments, routes et infrastructures susceptibles d’être particulièrement touchés.
Pauline Allée a conclu en rappelant que l’AREC NA a réalisé ce travail d’agrégation et de mise à disposition des données aux différentes échelles (région, département, EPCI, communes), et qu’elle venait de montrer des exemples de cartographies, d’indicateurs et de croisements destinés à faciliter l’identification des vulnérabilités et l’aide à la décision locale
Martin Blazek a remercié Pauline Allée et la complémentarité de son intervention avec la précédente. Il a ensuite invité Virginie Steiner de la Communauté d’agglomération de La Rochelle à présenter la méthodologie mise en place dans le cadre du plan climat du territoire, notamment en matière d’identification des données pertinentes et d’automatisation de leur production.
Télécharger la présentation de Pauline Allée, AREC Nouvelle-Aquitaine.
Croiser données environnementales et territoriales pour accompagner les transitions écologiques, la mise en place d’un plan climat : les données pertinentes et l’automatisation de leur production

Virginie Steiner a remercié Martin Blazek et les intervenants précédents, en indiquant que leurs présentations illustraient la variabilité des données mobilisables dans le cadre de politiques communales et intercommunales.
Elle est Chief Data Officer (CDO) pour la Ville et l’Agglomération de La Rochelle. Elle a précisé qu’elle ne se considérait pas comme spécialiste des données « environnementales » en tant que telles, mais qu’elle travaille sur la gouvernance des données au sein des collectivités.
Elle a expliqué qu’elle intervient sur une gouvernance territoriale des données impliquant des acteurs privés, publics, et même les personnels, afin de récupérer le maximum d’informations utiles à la conduite des politiques publiques.
Elle a précisé que l’objectif, pour la collectivité, est de croiser des données environnementales et des données très territoriales, parfois éloignées à première vue des enjeux environnementaux, afin d’accompagner les transitions écologiques et de piloter le plan climat.
Une trajectoire déjà engagée : open data et La Rochelle Territoire Zéro Carbone
Elle a expliqué que la démarche s’inscrit dans une trajectoire longue.
Elle a précisé que La Rochelle porte une politique d’open data depuis 2012, avec une culture forte de l’ouverture et de la réutilisation des données.
Elle a rappelé qu’un projet structurant a été lancé en 2018 : La Rochelle Territoire Zéro Carbone (LRTZC), avec un objectif de neutralité carbone à l’horizon 2040.
Elle a expliqué que, pour piloter ce projet, la collectivité a créé une plateforme organisée autour de la collecte et de l’exploitation de données issues d’une multiplicité d’acteurs. Elle a mentionné l’enjeu du catalogage, des indicateurs à suivre, et de la mise en place d’une plateforme de données (open data et “shared data”) permettant à la fois de piloter des cas d’usage et de faciliter la réutilisation, y compris pour des données à accès restreint via le conventionnement.
Elle a insisté sur un point : la donnée n’est jamais un objectif en soi mais un moyen, au service d’une finalité (en l’occurrence, la séquestration et la sobriété carbone, la décarbonation et l’action publique).
Elle a cité, à titre d’exemples, des sources de données mobilisées pour piloter les cas d’usage : des données ouvertes (ex. Météo-France), des données d’organismes nationaux, et des données issues de plateformes régionales telles que PIGMA.
Le PCAET 2024 : une déclinaison structurante et transversale
Elle a expliqué que le PCAET (Plan Climat-Air-Énergie Territorial) adopté en 2024 constitue une déclinaison locale de la stratégie nationale bas-carbone, et une continuité du projet LRTZC.
Elle a précisé que le PCAET, attendu notamment dans le cadre de demandes de l’ADEME, est un document conséquent, et que l’enjeu central, côté “data”, est de réussir à piloter les actions et les indicateurs, à fournir les données attendues et à permettre leur réutilisation.
Elle a détaillé que le PCAET couvre un spectre large de politiques publiques (mobilité, déchets, eau, urbanisme, énergie, participation citoyenne, gouvernance, développement économique et tourisme, biodiversité, santé environnementale). Elle a précisé que certains de ces champs produisent ou requièrent des données à haute valeur, tout en étant soumis à des cadres réglementaires nationaux et européens sur la manière de traiter et diffuser la donnée.
Elle a insisté sur l’idée que, pour une collectivité, le PCAET n’est pas un document isolé mais s’articule avec de multiples documents cadres et politiques publiques. Elle a expliqué avoir volontairement montré une slide “dense” pour mettre en évidence l’intrication entre politiques publiques, jusqu’au niveau opérationnel, comme l’autorisation d’urbanisme.
Elle a donné des exemples concrets :
- des zones inconstructibles en raison d’un risque (ex. zones historiquement inondées) ;
- des exigences locales sur la place des arbres, avec un financement via une coopérative carbone ;
- le suivi de linéaires de haies, difficile à consolider à l’échelle intercommunale car la donnée remonte via différents documents, voire via des questionnaires annuels, donc avec un traitement encore très manuel.
Elle a également décrit la diversité des fréquences de suivi des indicateurs (annuels, biannuels, mensuels), et a cité le Plan Alimentaire Territorial comme exemple d’intrication supplémentaire, notamment via l’indicateur du taux de bio dans les cantines – compétence souvent communale – ce qui oblige à récupérer et conventionner des données avec les communes.
Elle a mentionné un cas en cours d’expérimentation : récupérer des informations via les menus publiés sur des sites web (“scraper” des menus) afin de calculer, avec des données contextuelles, des indicateurs comme la part de bio.
Transformer des données hétérogènes en pilotage : du “fichier Excel” à l’infrastructure
Elle a expliqué que l’intensification du changement climatique et les impacts différenciés sur les 28 communes de l’agglomération rendent l’anticipation urgente, car les politiques publiques mettent plusieurs années à produire des effets (financement, gouvernance participative, acceptabilité, initiatives locales).
Elle a précisé que, dans la pratique, les données de pilotage sont très hétérogènes : cela va de formats structurés (ex. géodata) à des contenus non structurés (ex. menus PDF, pages web), ce qui oblige à articuler collecte, modélisation et pilotage.
Elle a expliqué que l’objectif est de remplacer le pilotage encore très “Excel” par une approche permettant :
- une remontée plus automatique,
- une consolidation fiable,
- et une capacité de réutilisation et de comparaison, y compris pour permettre à d’autres acteurs (État, Région) de suivre l’avancement des PCAET et d’identifier les données manquantes.
Obstacles identifiés : fragmentation, recalculs, absence d’automatisation
Elle a précisé plusieurs obstacles majeurs :
- l’absence d’un modèle national standardisé pour les PCAET (au-delà des données obligatoires liées à l’arrêté du 4 août 2016) ;
- l’absence d’API centralisées pour récupérer certaines données ;
- des données dispersées entre État, régions, communes, opérateurs privés ;
- le recalcul des mêmes indicateurs et la recollecte des mêmes données d’un métier à l’autre ;
- des rapports manuels, des délais longs, une qualité variable, et une perte de connaissance si les traitements ne sont pas documentés et automatisés.
Elle a donné un exemple parlant : un même jeu de données peut alimenter plusieurs politiques publiques (ex. marchés publics via le BOAMP, suivi du PCAET et d’autres démarches), avec des périmètres ou des bases de calcul légèrement différents (commune/EPCI, volumes, années), ce qui nécessite une connaissance forte des définitions et des référentiels.
Elle a précisé que la collectivité cherche aussi à récupérer les données issues de bureaux d’études missionnés, afin de ne pas perdre la donnée produite au fil des démarches.
Jeux de données suivis : exemples concrets et diversité des sources
Elle a cité de nombreux exemples de données suivies pour le pilotage du PCAET, en indiquant que le suivi est “assez fin” :
- trafics (ex. aérien, fréquentation transports en commun, données SNCF),
- immatriculations,
- déchets (volumétries, gravats, compostage),
- bornes de recharge,
- biodiversité (ex. nids d’oiseaux),
- artificialisation (lien avec le ZAN – Zéro Artificialisation Nette),
- linéaire de haies,
- arbres, avec ouverture en open data et réutilisations (ex. par OpenStreetMap),
- données ouvertes et données conventionnées, avec les questions récurrentes liées aux droits, aux modèles de données non standardisés, à l’absence d’ontologies/vocabulaires contrôlés, et au manque de séries temporelles.
Méthodologie présentée : collecter, standardiser, valider, calculer, piloter
Elle a présenté une méthodologie en plusieurs étapes, fondée sur des principes de gouvernance et de qualité :
- collecter des données multi-sources (open data + données sous convention) ;
- standardiser les indicateurs (en s’appuyant sur ontologies et vocabulaires contrôlés), en soulignant que cette partie reste un manque important et en citant des travaux de structuration (CNIG) ;
- valider la qualité, la cohérence et la traçabilité des sources ;
- intégrer des méthodologies de calcul (ex. trajectoires, secteurs), en citant le rôle d’une coopérative carbone locale ;
- piloter via tableaux de bord, alertes et comparaisons inter-territoires.
Elle a cité les principes FAIR (Findable, Accessible, Interoperable, Reusable – trouvables, accessibles, interopérables, réutilisables) comme cadre de référence, et a insisté sur l’enjeu d’interopérabilité dans la mise à disposition des données.
Focus : automatisation et gains attendus pour l’aide à la décision
Elle a précisé que l’automatisation vise en priorité :
- la réduction du temps manuel de collecte et de suivi des indicateurs,
- la production de rapports et d’alertes,
- la comparaison inter-territoires,
- la modélisation d’impacts pour simuler des scénarios de décarbonation, afin d’aider les élus à affecter des budgets contraints de la manière la plus efficace possible.
Elle a donné des exemples d’indicateurs ou de chantiers d’automatisation :
- automatiser des comptages (jours chauds, jours de gel),
- suivre des consommations énergétiques et des fluides à l’échelle des bâtiments,
- ouvrir des données (ex. énergie, Enedis) lorsque cela est possible, et traiter autrement les données issues de facturations annuelles (fichiers plats).
Elle a expliqué qu’un élément facilitateur important est l’existence d’une base nationale des bâtiments avec identifiant unique, utile dans un contexte de multi-adressage (ex. une école avec plusieurs adresses). Elle a précisé que cet identifiant permet de rattacher des séries temporelles de consommation à un bâtiment de manière fiable.
Elle a conclu en indiquant que l’objectif est bien l’anticipation et l’aide à la décision, via une réduction du temps manuel, une meilleure fiabilité, et une capacité accrue à comparer et à piloter dans la durée.
Martin Blazek a remercié et Virginie Steiner. Il a souligné l’intérêt de son retour d’expérience, notamment sur la gouvernance des données et les liens spontanés apparus entre les interventions, non préparés à l’avance. Il a poursuivi en invitant Frédéric Deneux du CRAIG Auvergne-Rhône-Alpes, à partager un retour d’expérience sur l’acquisition de données thermographiques estivales pour mesurer la chaleur en ville lors d’épisodes de canicule.
Télécharger la présentation de Virginie Steiner, Communauté d’agglomération de La Rochelle.
Mesurer la chaleur pour adapter nos villes aux épisodes de canicule : retour d’expérience d’acquisition de données thermographiques estivales, une expérience locale reproductible

Frédéric Deneux a remercié PIGMA pour l’invitation. Il est directeur du CRAIG (Centre Régional Auvergne-Rhône-Alpes de l’Information Géographique). Il a indiqué qu’il se considérait comme « l’imposteur du jour », car il n’est pas spécialiste du climat, mais qu’il peut partager une expérimentation menée pour répondre à des besoins exprimés par des territoires.
Il a présenté le CRAIG comme un GIP (Groupement d’Intérêt Public) dont l’ADN est d’acquérir de la donnée géographique pour répondre aux besoins des territoires.
Il a détaillé les missions du CRAIG :
- Acquisition : recueil des besoins, spécifications techniques, montage financier, marchés ;
- Contrôle : réception des livrables, contrôles d’exhaustivité et précision, rapports, documentation;
- Stockage-diffusion : intégration, sauvegardes, diffusion en flux, téléchargement ;
- Formation / support : accompagnement des utilisateurs, mise en place d’outils.
Il a précisé qu’au fur et à mesure que l’on s’éloigne des centres métropolitains, il existe un déficit d’ingénierie ; le CRAIG joue donc un rôle d’accompagnement pour aider les territoires à appréhender et utiliser les données.
Il a indiqué disposer d’un budget annuel de l’ordre de 1,0 à 1,5 M€ pour répondre à ces besoins.
Il a expliqué que, contrairement à la Nouvelle-Aquitaine, sa région n’a pas de façade maritime mais comporte des montagnes et surtout des villes « en surchauffe en été ». Il a précisé que le CRAIG a été sollicité par plusieurs villes afin d’évaluer la possibilité de réaliser des acquisitions pour mieux identifier les îlots de chaleur urbains (ICU).
Il a expliqué que le CRAIG tente régulièrement des expérimentations pour répondre à des besoins émergents. Il a rappelé qu’une démarche similaire avait été menée sur le PCRS (Plan de Corps de Rue Simplifié) en 2014, devenu depuis un standard.
Expérimentation d’une thermographie aérienne estivale à Clermont-Ferrand
Il a ensuite indiqué que, suite à une proposition d’un prestataire, le CRAIG a décidé d’expérimenter une acquisition de thermographie aérienne estivale : une technique plutôt utilisée en hiver pour analyser les déperditions thermiques des bâtiments, mais testée ici en été pour mieux localiser les phénomènes d’îlots de chaleur et, à l’inverse, d’îlots de fraîcheur.
Il a expliqué que les villes en surchauffe ne manquent pas dans la région (Grenoble, Lyon, Valence), mais que le choix s’est porté sur Clermont-Ferrand.
Il a précisé plusieurs raisons :
- Clermont-Ferrand fait partie des dix villes les plus exposées aux îlots de chaleur selon Météo-France ;
- la ville est en « cuvette », avec un urbanisme dense, peu de végétalisation, et une minéralisation (béton, bitume, métal) qui empêche le refroidissement nocturne ;
- et il a mentionné un facteur pratique : le CRAIG est basé à Clermont-Ferrand.
Cahier des charges : conditions et livrables
Il a expliqué que, n’étant pas expert, le CRAIG a établi un cahier des charges “assez simple”.
Il a précisé avoir demandé un chiffrage pour une acquisition aérienne thermique lors d’un épisode de canicule défini, pour Clermont-Ferrand, comme 3 jours consécutifs avec >34°C le jour et >19°C la nuit (source Météo-France).
Il a détaillé les livrables attendus :
- un raster issu des clichés de fin de jour (fin d’après-midi/fin de journée) ;
- un raster issu des clichés de fin de nuit ;
- un raster du différentiel de températures ;
- et une extraction sur l’emprise des filaires de voirie (réseau linéaire).
Conditions de réalisation : contraintes fortes et aléas
Il a expliqué que, même si le cahier des charges paraît simple, la mise en œuvre est “assez compliquée”.
Il a d’abord détaillé des contraintes “classiques” liées aux acquisitions aériennes, notamment les ZICAD (Zones Interdites à la Captation Aérienne de Données) et les autorisations de vol.
Il a ensuite précisé des contraintes spécifiques :
- présence de sites sensibles nécessitant des autorisations : Banque de France, site industriel Michelin, sites militaires à proximité de l’aéroport ;
- difficultés croissantes d’obtention des autorisations dans le contexte actuel ;
- nécessité de vols de nuit : pilote professionnel capable de voler IFR (Instrument Flight Rules), piste éclairée à proximité pour limiter les convoyages ;
- exigence d’agilité du prestataire pour mobiliser l’appareil dès qu’une fenêtre météo se présente ;
- rareté des fenêtres météo (nébulosité + seuils de température).
Il a précisé qu’en 2024 il n’y a pas eu de canicule ; le CRAIG a donc abaissé les seuils pour viser des vagues de chaleur. Il a expliqué avoir donné le “go” lors de la deuxième vague de chaleur d’août 2024, mais que des conditions météo dégradées en fin de nuit ont empêché l’acquisition nocturne : seule la prise de vue de fin d’après-midi a pu être réalisée.
Nature des données et exemples de lecture : matériaux, ombres, ICU
Il a précisé que les données produites sont des données infrarouges, sous forme d’orthos thermiques à résolution 1 m (diapo “Les données”, page 8).
Il a expliqué, via des exemples, que :
-
les températures observées varient fortement selon les matériaux et leur couleur ;
-
l’angle solaire et les ombres portées ont une incidence immédiate sur les températures relevées.
Il a détaillé un exemple sur une place centrale de Clermont-Ferrand : une zone en basalte (pierre volcanique plus sombre) présente des températures plus élevées, tandis qu’une pierre plus claire utilisée sur une autre partie de la place induit une température de surface plus faible ; il a expliqué que le choix du matériau a donc une incidence directe sur la température de sol.
Il a également commenté un exemple sur un site de stade (page 8), en indiquant que la nature des enrobés et les ombres portées (tribunes) se lisent directement sur les cartes thermiques.
Il a montré une détection d’ICU sur un lycée (page 9) et a expliqué que des zones comme la cour et des terrains peuvent ressortir en surchauffe.
Il a précisé un point marquant : un terrain “vert” peut être en surchauffe si ce n’est pas de la végétation mais un revêtement synthétique. Il a expliqué que ces choix d’aménagement (coût d’entretien, réduction de la consommation d’eau) peuvent devenir problématiques en canicule car les terrains deviennent impraticables, ce qui peut amener les élus à reconsidérer certains arbitrages.
Il a également évoqué des zones d’activités où la faible végétalisation se traduit nettement par des températures de surface plus élevées (page 10).
Il a ajouté un exemple inverse dans le centre ancien de Clermond -Ferrand : il a expliqué que des rues étroites, des bâtiments hauts et des “canyons urbains” peuvent créer des couloirs de fraîcheur, et que la thermographie permet d’objectiver ce phénomène. Il a précisé qu’une visualisation 3D aide à comprendre les effets de masques urbains et qu’ils ont récemment ajouté des arbres en 3D, car la végétation a une incidence immédiate sur ces phénomènes (page 11).
Déploiement 2025 : 3 nouveaux secteurs et évolution des moyens
Il a expliqué que, compte tenu des résultats, plusieurs collectivités ont sollicité le CRAIG pour obtenir des données similaires.
Il a précisé qu’en 2025, deux épisodes de canicule ont permis de lancer des acquisitions sur trois nouveaux secteurs :
- Saint-Étienne Métropole,
- Romans-sur-Isère ,
- la Loire (du secteur de Feurs au barrage de Grangent).
Il a expliqué qu’ils ont changé de moyens aériens en utilisant des ULM (Ultra-Léger Motorisé), plus agiles et moins consommateurs en carburant, donc plus vertueux. Il a précisé que cela les a conduits à décaler le vol du matin, car ces engins ne peuvent pas voler de nuit et ne volent qu’à partir d’environ une demi-heure avant le lever du soleil.
Il a indiqué qu’en 2025 ils ont pu réaliser un vol de fin d’après-midi et un vol de fin de nuit, et produire le différentiel de températures (page 13).
Points de vigilance : interprétation des données thermiques
Il a insisté sur plusieurs points de vigilance.
Il a précisé que les mesures correspondent à des températures de surface (au sol / matériaux) et non à la température ambiante ressentie.
Il a expliqué que l’horaire d’acquisition a un impact majeur :
- en fin d’après-midi, les ombres liées à l’angle solaire influencent fortement les températures ;
- au matin, le réchauffement est très rapide dès le lever du soleil, ce qui peut introduire des gradients liés à l’heure réelle de passage.
Il a décrit un cas sur l’acquisition “Loire” : des difficultés logicielles ont retardé le vol ; une partie a été acquise après le lever du soleil, ce qui a produit une différence de températures entre zones acquises plus tôt et plus tard.
Il a précisé un autre point de vigilance : l’orthophoto de référence (PVA Ortho) n’est pas forcément du même millésime que la thermographie. Il a donné un exemple à Clermont-Ferrand : un bâtiment apparaissait “ultra froid” et cela paraissait incohérent ; en comparant les millésimes d’orthophotos, ils ont constaté que le bâtiment avait été repeint (noir → blanc), ce qui explique la différence de température de surface.
Il a enfin évoqué le manque de réflectivité infrarouge de certains matériaux, et l’impact du choix de la bande IR (LWIR, SWIR, etc.) : sur Saint-Étienne Métropole, certains matériaux de toiture renvoyaient peu de signal, donnant l’impression d’un bâtiment “froid” alors que ce n’est qu’un artefact de mesure.
Usages : urbain (à consolider) et cours d’eau (éprouvé)
Il a précisé que les usages sur les “taches urbaines” restent encore à démontrer pleinement, mais que la thermographie permet déjà :
- d’objectiver les températures de surface en canicule,
- de confirmer ou infirmer des choix d’aménagement et de matériaux,
- d’identifier des zones où concentrer les efforts.
Il a expliqué qu’à l’inverse, sur les cours d’eau, les cas d’usage sont éprouvés (page 17). Il a détaillé que la thermographie peut détecter des phénomènes invisibles à l’œil nu :
- apports d’eau souterraine ou de sources froides visibles comme des “taches” plus froides ;
- zones de réchauffement anormal près d’effluents industriels, barrages ou espaces urbains ;
- différences thermiques longitudinales indiquant des processus hydrologiques (échanges nappe-rivière, ombrages, morphologie).
Il a précisé que cela sert la gestion et la conservation : état des lieux avant/après pour des opérations de restauration de berges, mise en évidence de zones sensibles, orientation de stratégies de renaturation, suivi de l’impact du changement climatique sur la thermie, et appui à la décision.
Il a expliqué que le CRAIG diffuse ces données sous licence Etalab, en flux WMS (Web Map Service) et au format COG (Cloud Optimized GeoTIFF), consultables via leur catalogue.
Martin Blazek a remercié Frédéric Deneux et invité Frédéric Levrault de la Chambre Régionale d’Agriculture de Nouvelle-Aquitaine, afin de présenter la méthode de mise en place de l’Observatoire Régional sur l’Agriculture et le Changement cLimatiquE (ORACLE).
Il a bien précisé que la stratégie de développement de cet observatoire appartient désormais aux élus, mais néanmoins que la méthode utilisée et essaimée dans 9 régions de France est visionnaire et pertinente.
Télécharger la présentation de Frédéric Deneux du CRAIG Auvergne-Rhône-Alpes.
Construire un observatoire climatique sectoriel : méthodologie et retour d’expérience avec ORACLE : l’Observatoire Régional sur l’Agriculture et le Changement cLimatiquE

Contacter laure.larieu@na-chambagri.fr pour des informations complémentaires.
Viti-Tunnel, une solution pour sécuriser les cultures contre les aléas climatiques et supprimer les pesticides

Patrick Delmarre est le concepteur de Viti-Tunnel et le président-fondateur de la société MO.DEL, créée pour porter cette innovation. Viti-Tunnel permet de protéger les cultures, supprimer les pesticides et s’adapter au climat.
Contexte : deux problématiques majeures en viticulture
Il a expliqué qu’il est important de poser le contexte dans lequel l’innovation a été imaginée, en rappelant que depuis le début du XXIᵉ siècle les viticulteurs font face à deux problématiques majeures, lourdes d’enjeux pour le devenir des exploitations :
- le dérèglement climatique,
- la défiance de la société vis-à-vis des pesticides.
Il a détaillé que le dérèglement climatique se traduit par une multiplication des pertes de récoltes liées à des épisodes extrêmes comme le gel et la grêle, mais aussi – point qu’il a jugé moins connu – par une augmentation très forte de la pression des maladies de la vigne, entraînant des pertes de récoltes plus fréquentes.
Il a précisé qu’en 2024, selon les statistiques agricoles, les pertes de récoltes moyennes en viticulture dues à l’ensemble de ces aléas se montent à 23%, soit environ un quart des productions.
Concernant la défiance sociétale, il a expliqué qu’elle se traduit par une injonction quotidienne faite aux viticulteurs de réduire drastiquement le recours aux pesticides. Il a précisé que malgré les efforts consentis depuis de nombreuses années, ils n’y parviennent pas aujourd’hui.
Les objectifs prioritaires et la limite des solutions existantes
Il a précisé que les objectifs poursuivis par les viticulteurs sont donc de deux ordres :
- sécuriser les rendements (contre les accidents climatiques et les maladies),
- réduire de manière draconienne l’usage des pesticides.
Il a expliqué qu’à ce jour, l’offre de solutions ne permet pas – ou seulement partiellement – de répondre à ces objectifs. Il a insisté sur le fait qu’il n’existe pas de solution permettant à la fois de sécuriser les récoltes du point de vue des rendements et des maladies, et de réduire significativement l’usage des produits phytosanitaires.
Il a ajouté que les solutions de lutte contre les accidents climatiques sont généralement mono-aléas (gel ou grêle, mais rarement les deux) et qu’elles présentent souvent des imperfections jugées rédhibitoires : fiabilité limitée pour la grêle ; pour le gel, des méthodes très gourmandes en eau ou en énergie, de plus en plus incompatibles avec les exigences environnementales.
Il a conclu cette partie en indiquant qu’à date aucune solution ne permet simultanément :
- de sécuriser contre les pertes liées aux maladies,
- de sécuriser contre les pertes liées à la grêle,
- de sécuriser contre les pertes liées au gel,
- et de réduire drastiquement les pesticides.
Viti-Tunnel : définition et usages (pluie, grêle, gel)
Il a présenté Viti-Tunnel comme un dispositif de couverture physique conçu pour se déployer au-dessus des cultures en rangs (dans leur cas, la vigne), capable de couvrir des hectares entiers en moins d’une minute, autant de fois que souhaité dans une saison agricole. Il a précisé qu’il peut être déployé automatiquement ou non pendant les pluies, les orages de grêle et les périodes de gel.
Il a expliqué que trois idées “très simples” sont à la base du concept, reprises dans le support :
- Idée 1 : déploiement pendant les pluies pour empêcher les gouttes de pluie de tomber sur feuilles et grappes et empêcher le développement des maladies pluvio-dépendantes (il a cité notamment mildiou, black-rot, excoriose) ;
- Idée 2 : déploiement pendant les orages de grêle pour empêcher les grêlons d’atteindre les organes végétatifs et fructifères ;
- Idée 3 : déploiement pendant les périodes de gel pour créer un abri qui emprisonne la chaleur du sol, et augmenter de plusieurs degrés la température sous la bâche.
Fonctionnement technique : bâches, motorisation, solaire, capteurs, algorithme
Il a expliqué le fonctionnement du système : chaque rang est surmonté d’un enrouleur (tube métallique) sur lequel est enroulée une bâche en polyéthylène. Il a précisé que les enrouleurs sont entraînés par des moteurs situés en bout de rang, dans des boîtiers métalliques surmontés de panneaux solaires ; ces boîtiers contiennent aussi une batterie de stockage et une carte électronique.
Il a détaillé que lorsque les moteurs tournent dans un sens, les bâches se déroulent ; dans l’autre sens, elles se ré-enroulent. Il a précisé que les moteurs peuvent dérouler/enrouler sur une distance de 140 m et fonctionnent à l’énergie solaire.
Il a expliqué que les boîtiers moteurs sont reliés par ondes radio à des capteurs intelligents surveillant la météo en temps réel ; un algorithme détermine le fonctionnement des moteurs. Il a précisé que lorsque les capteurs détectent de la pluie, des températures proches de 0°C, ou un orage de grêle en approche, les bâches se déploient ; quand le danger est écarté, elles se ré-enroulent et restent en attente du prochain cycle.
Preuve de concept : 5 ans d’expérimentation (2019–2023) et résultats annoncés
Il a indiqué que l’innovation a été testée lors d’une expérimentation “preuve de concept” de grande envergure, menée pendant 5 ans (2019–2023), sous la direction d’un organisme technique public indépendant : l’IFV (Institut Français de la Vigne et du Vin).
Il a précisé que les tests ont été menés sur des rangs équipés de Viti-Tunnel installés dans 12 propriétés réparties en Gironde.
Il a affirmé que, sur tous les sites et sur les cinq années, aucune perte de vendange significative n’a été constatée ni à cause du gel, ni de la grêle, ni des maladies – et cela sans utiliser de pesticides contre les maladies pluvio-dépendantes.
Il a ensuite décrit trois séries de résultats :
1. Maladies (mildiou) Il a précisé que, sur les 5 ans et les 12 sites, les pertes de vendange dues aux maladies sur les parcelles Viti-Tunnel, conduites sans pesticide contre le mildiou, sont restées inférieures à 5% partout et chaque année.
Il a ajouté qu’il y a eu trois années de très forte pression mildiou (2020, 2021, 2023). Il a précisé qu’un graphique d’exemple montre que Viti-Tunnel “sans traitement” est aussi efficace, voire plus efficace, que les traitements, en citant un cas où les dégâts sur grappes sont autour de 2% sous Viti-Tunnel contre 40 à 60% hors dispositif.
2. Grêle Il a détaillé qu’en 2021, deux parcelles ont subi un orage de grêle avec des grêlons allant jusqu’à la taille d’une balle de ping-pong, et que les pertes sous Viti-Tunnel ont été minimes.
Il a ajouté qu’il ne peut pas s’engager sur des grêlons plus gros (“boule de pétanque”), faute de tests.
3. Gel Il a indiqué que cinq parcelles ont subi des épisodes de gel pendant l’expérimentation. Il a précisé que sur les diagrammes présentés, le vert correspond à “non gelé” et le rouge à “gelé”, et que les rangs Viti-Tunnel au centre apparaissent très peu impactés (page 17).
Il a précisé que les températures ne sont jamais descendues sous -3°C durant les tests ; il a indiqué attendre un gel plus important pour pouvoir répondre au-delà.
Les promesses clients et positionnement
Il a indiqué qu’au regard de ces résultats, Viti-Tunnel s’engage aujourd’hui auprès de ses clients sur :
- la sécurisation contre les pertes de récolte dues aux maladies ;
- la sécurisation contre les pertes dues aux aléas climatiques (grêle jusqu’à “balle de ping-pong”, gel jusqu’à “-3°C”) ;
- et la réduction du recours aux produits phytosanitaires de plus de 80%.
Il a affirmé qu’à date, Viti-Tunnel est la seule solution au monde permettant d’atteindre cet objectif.
Développement : produits, chiffres clés et diversification vers d’autres cultures
Il a expliqué que la société commercialise deux produits :
Smart Protect (version automatique) Il a précisé que c’est la version entièrement automatique : capteurs + algorithme décident des déploiements et des rangements, sans intervention des viticulteurs. Il a ajouté que cette version protège contre les pluies, le gel, la grêle (jusqu’à balle de ping-pong) et aussi les excès de soleil (brûlures) – un usage qu’ils n’avaient pas anticipé au départ mais qui est utilisé par les clients.
Il a précisé : déploiement < 1 minute, autonomie solaire, durée de vie de 20 ans pour le système hors bâche (et 7–8 ans pour les bâches, selon son discours). Il a indiqué qu’une application mobile permet le paramétrage, le pilotage auto/manuel, le suivi des alertes et des déploiements, le tableau de bord et la gestion des profils.
Essential Protect (version manuelle / semi-électrique) Il a expliqué que dans cette version, les boîtiers moteurs et l’électronique sont remplacés par des boîtiers sur lesquels on vient brancher une perceuse-visseuse pour dérouler/enrouler les bâches. Il a précisé qu’il faut moins de 30 secondes pour couvrir un rang de 140 m, et qu’une parcelle d’un hectare peut être couverte en environ une demi-heure par une personne (ordre de grandeur donné à l’oral). Il a expliqué que l’objectif est de rendre la solution plus accessible financièrement, dans un contexte de crise viticole, en retirant des composants coûteux (moteurs, panneaux solaires, cartes électroniques).
Il a précisé que cette version garantit la protection contre maladies, gel, grêle et excès de soleil, mais qu’elle ne permet pas une réduction des phytos aussi forte que Smart Protect, car atteindre la performance maximale supposerait de déployer les bâches à chaque pluie significative, y compris la nuit, les week-ends et jours fériés.
Il a précisé qu’il s’agit d’une start-up ayant commencé la commercialisation en 2024. Il a annoncé :
- un chiffre d’affaires atteignant 400 000 €,
- environ 6,5 km de protection déployée,
- une dizaine de clients.
Il a ajouté qu’une “très bonne surprise” des deux dernières années est l’intérêt d’autres cultures en rang : fruits rouges, pommes, raisins de table, cerises, ainsi que des cultures plus “exotiques” (CBD, piments, muguet…).
Il a expliqué que la technologie – couvrir rapidement des surfaces de 2 à 3 mètres de large sur jusqu’à 140 mètres de long – intéresse pour des applications et problématiques qu’ils n’avaient pas anticipées, et que cette diversification est une aubaine en période de crise viticole car elle permet de poursuivre le développement.
Télécharger la présentation de Jean-Michel Delmarre, Viti-Tunnel.
Martin Blazek a remercié l’ensemble des intervenants, partenaires et participants pour la qualité et la quantité des échanges. Il a salué la complémentarité des interventions et le foisonnement d’informations de la matinée.
Il a cloturé le webinaire avec les dates des prochains événements PIGMA :
-
Vendredi 13 mars, de 9h à 9h30 pour Vendredi en veux-tu en data consacré aux données satellite via DINAMIS.
-
Vendredi 3 avril, de 10h à 12h : Café atelier PIGMA sur les territoires photo-cartographiés et l’exploitation des données immersives.