La communauté PIGMA explore en webinaire les méthodes pour bâtir un observatoire territorial
Animation, Café-atelier
05/12/2025

Le dernier webinaire de la communauté PIGMA, organisé le jeudi 4 décembre, a réuni ses partenaires autour d’un enjeu central : comprendre comment bâtir un observatoire territorial efficace et pérenne. Au fil des interventions, les participants ont exploré les méthodes de gouvernance, les jeux de données mobilisables, les solutions techniques disponibles et les bonnes pratiques pour structurer, piloter et valoriser ces outils dans la durée. Un rendez-vous riche en retours d’expérience et enseignements pour toute la communauté. Compte-rendu.
En ouverture de webinaire, Victoire Roux-Barucq, GIP ATGeRi/PIGMA, après avoir accueilli les participants, a rappelé les bonnes pratiques pour optimiser l’expérience de l’évènement.
Martin Blazek, chargé de l’animation de la plateforme PIGMA et de la coordination des actions associées au sein du GIP ATGeRi, a ouvert le webinaire en accueillant les participants et en les remerciant chaleureusement pour leur présence. Il a souligné que plus de 120 personnes s’étaient inscrites à cette session consacrée aux « observatoires, outils de valorisation des territoires », un très beau score qui illustre une nouvelle fois le dynamisme de la communauté PIGMA. Avec l’équipe d’animation, il s’est dit ravi de réunir ainsi collectivités, services de l’État, acteurs territoriaux et entreprises autour de ces enjeux de connaissance des territoires.
Il a rappelé que ce webinaire est organisé dans le cadre de la plateforme PIGMA, portée par le Groupement d’Intérêt Public Aménagement du Territoire et Gestion des Risques, spécialiste de la gouvernance de la donnée et acteur central du partage de données et de services numériques en Nouvelle-Aquitaine. PIGMA a pour mission d’accompagner les collectivités, les services de l’État et les entreprises dans la gestion, l’échange et la valorisation des données, en particulier des données géographiques. À travers les événements du réseau comme ce webinaire, l’enjeu est de mutualiser les usages, de favoriser la montée en compétences et de gagner collectivement en efficacité dans les missions quotidiennes de chacun.
Replaçant la thématique du jour dans un contexte territorial exigeant, il a indiqué que les observatoires jouent un rôle de plus en plus important face à la diversité et à la complexité des enjeux auxquels sont confrontés les territoires : aménagement, transition écologique, foncier, mobilité, énergie, biodiversité, entre autres. Ces dispositifs, a-t-il insisté, ne se réduisent pas à de simples tableaux de bord.
Selon lui, un observatoire repose sur plusieurs composantes essentielles :
- une stratégie collective de la donnée,
- une gouvernance partagée,
- des données fiables, mises à jour et contextualisées,
- ainsi que des outils lisibles et appropriables par les décideurs publics, les acteurs économiques et les citoyens.
Ce sont ces différentes dimensions, techniques, organisationnelles et politiques, qui permettent à un observatoire de s’inscrire durablement au cœur des dynamiques territoriales.
Il a précisé que le webinaire visait à explorer des méthodes concrètes pour concevoir et faire vivre un observatoire territorial, à partir de retours d’expérience issus de Nouvelle-Aquitaine et d’autres territoires.
Plusieurs grandes questions guideraient les échanges :
- Comment structurer un pilotage clair et collaboratif ?
- Quels jeux de données mobiliser et comment en assurer la mise à jour ?
- Quelles solutions techniques et quelles bonnes pratiques mettre en place pour valoriser durablement ces outils ?
L’objectif est de montrer comment un observatoire peut devenir un véritable levier d’action publique, au service de la connaissance des territoires et de la décision.
Pour éclairer ces enjeux, il a présenté les intervenants de la matinée, qui partageraient leurs démarches, leurs outils et leurs enseignements : Matthieu Noucher du CNRS, Laboratoire PASSAGES, Laurence Cantaloube-Kim de la Région Sud, Loïc Guyot de l’Établissement Public Garonne, Gascogne et Affluents Pyrénéens, Diego Mermoud-Plaza de l’Agence d’Urbanisme Bordeaux Aquitaine (A’URBA) et Damien Tourrette de l’entreprise Immo-Data.
Il a ensuite invité Matthieu Noucher, du CNRS, Laboratoire PASSAGES, à prendre la parole pour introduire et cadrer la thématique du jour.
Observer pour comprendre et mieux décider : panorama et enjeux des observatoires territoriaux

Matthieu Noucher, directeur de recherche au CNRS, Laboratoire PASSAGES, a ouvert son intervention en rappelant la pluralité d’usages attachés au terme « observatoire ». Selon lui, ce mot-valise renvoie à des réalités très différentes selon les secteurs, les territoires et les acteurs concernés. Il a souligné que l’intitulé « observatoire » peut aussi bien désigner un simple outil cartographique qu’un dispositif institutionnel structuré, un espace de débat public ou encore un mécanisme de veille scientifique. Cette diversité, a-t-il insisté, constitue autant une richesse qu’une source de confusion, d’où la nécessité de clarifier les objectifs, les publics et les finalités avant même de produire des indicateurs.
« Un observatoire n’existe jamais hors-sol : il dépend d’un contexte, d’un problème posé et d’acteurs engagés », a-t-il rappelé.
Il a illustré cette pluralité à travers plusieurs exemples tirés de ses expériences de recherche et d’accompagnement.
Il a notamment évoqué l’bservatoire SIG Pyrénées, structuré autour du partage de données, de la coopération interinstitutionnelle et d’un socle technique stable ; les dispositifs de suivi de l’orpaillage en Guyane, marqués par des tensions politiques et par la coexistence de représentations divergentes d’un même phénomène ; ou encore les observatoires fonciers mis en place dans différents pays d’Afrique, où l’enjeu principal réside dans la construction d’indicateurs adaptés au contexte local, malgré des données souvent hétérogènes ou parcellaires. Ces exemples lui ont permis de montrer que chaque observatoire résulte d’un compromis entre une ambition méthodologique, des moyens disponibles et une réalité territoriale spécifique.
Sur le plan théorique, il a proposé un cadrage académique du concept d’observatoire, en rappelant les composantes essentielles :
- la capacité à objectiver un phénomène dans le temps et dans l’espace ;
- l’importance d’une problématisation claire ;
- et la nécessité de définir une stratégie de production, de qualification et de diffusion de l’information.
Ainsi, un observatoire devrait être pensé comme un dispositif évolutif, capable d’accompagner les changements et non de figer les diagnostics. L’intention scientifique joue ici un rôle central : un observatoire n’a de sens que s’il permet d’éclairer l’action, d’enrichir un débat public ou de soutenir une décision.
Il a ensuite développé un point central de son intervention : le rôle déterminant des indicateurs. Il en a proposé une définition exigeante, rappelant qu’un indicateur n’est pas une donnée brute, mais une construction nécessitant un ensemble de choix méthodologiques (définition, échelle, période, qualité des sources, modalités de calcul). La robustesse d’un observatoire repose ainsi sur la qualité des métadonnées, la transparence des méthodes et la traçabilité des transformations successives opérées sur les données initiales. Il a encouragé les participants à considérer les indicateurs comme des objets à part entière, qui doivent pouvoir être interprétés, comparés et discutés.
Lors des échanges, il a précisé que la disponibilité des données ne suffisait pas à garantir leur pertinence « un bon indicateur, c’est d’abord un indicateur qui répond à une question clairement posée ». Il a également insisté sur l’importance de documenter tout ce qui peut influer sur la lecture d’un indicateur, qu’il s’agisse des limites administratives, des changements de méthode dans le temps ou des conditions politiques de production de la donnée.
Pour alerter sur les dérives possibles, il a présenté quatre « pièges » fréquemment rencontrés dans les dispositifs d’observation territoriale.
- Le premier, celui des « observatoires de rien », désigne des plateformes trop pauvres en données ou en indicateurs pour éclairer un sujet.
- Le deuxième est celui des « trous noirs à information », où les données existent mais ne sont ni qualifiées ni explicitées, rendant leur interprétation hasardeuse.
- Le troisième piège, celui des « tableaux noirs », renvoie à des dispositifs qui accumulent des chiffres sans produire de sens ou de piste d’action.
- Enfin, les « usines à gaz » regroupent les observatoires surdimensionnés, où la complexité technique finit par rendre le dispositif inutilisable.
À travers ces cas, il a souligné l’importance de proportionner les ambitions, de rester centré sur les besoins des utilisateurs et de garantir une lisibilité opérationnelle.
Il a élargi son propos aux enjeux politiques liés aux observatoires.
Produire des indicateurs revient à produire des éléments du débat démocratique. Le choix de mesurer un phénomène plutôt qu’un autre, d’utiliser telle échelle ou telle méthode, peut avoir des effets symboliques et même structurants sur l’action publique. Certains observatoires deviennent ainsi des objets de controverse, non en raison de leurs outils, mais parce qu’ils participent à définir des problèmes publics.
L’exemple détaillé de l’orpaillage illégal en Guyane a permis d’illustrer pleinement ces enjeux.
Il a rappelé le contexte : un phénomène ancien, en expansion, à l’intersection de questions environnementales, sécuritaires, économiques et sociales. Pendant plusieurs années, différents observatoires coexistaient, produisant des représentations parfois contradictoires de l’ampleur du phénomène, notamment entre services de l’État, ONG et acteurs locaux. Cette divergence témoignait moins d’une erreur technique que d’une différence de problématisation. Son équipe a alors entrepris une démarche d’analyse visant à comprendre les ressorts de ces divergences : examen des sources, qualification des images satellites, mise en cohérence temporelle, définition d’indicateurs robustes, identification des zones d’incertitude. Cette démarche a permis d’harmoniser des éléments de diagnostic, mais a également montré les limites de la diffusion de certains indicateurs sensibles, notamment pour des raisons opérationnelles ou de sécurité.
Ce cas d’étude a illustré la tension permanente entre transparence, lisibilité publique et contraintes stratégiques, tension qui accompagne nécessairement certains observatoires.
En réponse à plusieurs questions, il a apporté des précisions sur la sécurisation des indicateurs sensibles, la nécessité de documenter les marges d’incertitude et le rôle des métadonnées pour permettre la réutilisation des données dans le temps. Il a insisté sur la notion de « vigilance méthodologique », indispensable pour éviter les dérives interprétatives et garantir la robustesse des analyses.
Martin Blazek a remercié Matthieu Noucher, et a ensuite invité Laurence Cantaloube-Kim, Région Sud, à sa présentation.
Télécharger la présentation de Matthieu Noucher, CNRS, Laboratoire PASSAGES
De la donnée à la décision : construire un observatoire régional pour valoriser le foncier et l’activité économique

Laurence Cantaloube-Kim, géomaticienne à la Région Sud, a présenté le dispositif SUD foncier éco, qu’elle pilote depuis 2018 dans le cadre d’un partenariat régional dédié à l’observation des zones d’activités économiques.
Elle a rappelé que ce projet trouve son origine dans une demande politique forte de l’exécutif régional, qui souhaitait disposer d’un outil permettant de visualiser rapidement l’offre de foncier économique, selon l’idée d’un « SeLoger.com des entreprises », résumée par la formule « le foncier en un clic ».
Pour y répondre, la Région a construit une convention de partenariat public-public associant dès l’origine l’Établissement public foncier régional, la DREAL, la Région et le réseau des Chambres de commerce et d’industrie. Au fil des années, ce noyau initial s’est élargi pour atteindre aujourd’hui quatorze partenaires, intégrant notamment les Chambres de Métiers et de l’Artisanat, risingSUD, l’Agence régionale pour la biodiversité et l’environnement (ARBE), les agences d’urbanisme, la Banque des territoires et le Cerema. Ce réseau, structuré et renouvelé annuellement, s’appuie sur une démarche d’observation collaborative : l’équipe régionale mène des tournées interdépartementales, rencontre les territoires chaque année et co-construit la base de données avec eux.
Elle a détaillé l’architecture de SUD foncier éco, qui repose sur une gouvernance partenariale et une base de données régionale consolidée. Les données issues des observatoires locaux (départementaux, intercommunaux), des partenaires territoriaux et des référentiels nationaux (fichiers SIRET, données d’entreprises, labels, etc.) sont centralisées dans un guichet régional unique. Cette base de données mutualisée est hébergée sur la plateforme régionale DATASUD, qui assure l’hébergement, la sécurité et l’ouverture des données.
L’Observatoire se décline ensuite en deux volets :
- un outil d’observation SUD foncier éco, qui permet la visualisation et l’analyse des données,
- et un portail de ressources, également intitulé SUD foncier éco, qui met à disposition des documents méthodologiques, retours d’expérience et ressources pour les territoires.
Les données produites sont publiées en open data sur DATASUD, garantissant leur réutilisation par une large communauté d’acteurs.
Elle a présenté les principaux indicateurs disponibles dans SUD foncier éco, qui témoignent du niveau de maturité atteint par l’Observatoire.
Pour chaque zone d’activités économiques, l’outil offre une localisation précise, une navigation cartographique immersive, le nombre d’établissements et d’emplois, la vocation dominante de la zone, des indicateurs fonciers (taux d’artificialisation, foncier mobilisable, friches, bâtiments, surfaces bâties et en espaces verts), ainsi qu’un classement visuel de la zone par rapport à la médiane régionale au moyen d’un radar à six branches.
L’Observatoire décrit également les gestionnaires et associations de zone, les polarités économiques (pôles locaux, intercommunaux, régionaux ou nationaux), les labels tels que Parc+, les conditions d’accessibilité (temps d’accès en voiture aux grands équipements de transport, présence de transports en commun) et les services présents (fibre, parkings poids lourds, services et commerces de proximité).
Les chiffres clés actuellement consolidés font apparaître une couverture de l’ensemble des 52 EPCI de la région, soit environ 1 470 espaces d’activité, représentant près de 33 000 hectares de foncier, accueillant près de 98 000 établissements pour plusieurs centaines de milliers d’emplois (environ 670 000 emplois en ZAE).
Laurence Cantaloube-Kim a ensuite insisté sur le rôle majeur joué par SUD foncier éco dans l’accompagnement des inventaires de zones d’activité économique imposés par la loi Climat et Résilience. La Région et l’État ont copiloté une démarche régionale de coordination autour des inventaires ZAE, animant des groupes de travail spécifiques, organisant des webinaires réguliers, partageant méthodes de travail, retours d’expérience et sources de données (comme LOCOMVAC), et structurant des données socles communes.
Un guide méthodologique, élaboré avec le réseau des CCI, a été publié en avril 2023 afin d’accompagner les EPCI dans la mise en œuvre de ces inventaires. Des pré-inventaires fonciers (unités foncières à l’intérieur des ZAE) ont été fournis aux territoires, leur permettant de concentrer leur effort sur la vérification des occupants et des propriétaires. Au total, 46 EPCI, soit environ deux tiers des intercommunalités de la région, ont finalisé leurs inventaires, ce qui a permis une mise à jour massive des périmètres de zones d’activités et une forte actualisation de la base de données régionale en 2024–2025.
Elle a replacé cette démarche dans un paysage national en forte évolution. Le portail national France Foncier+ a souhaité s’appuyer sur les régions déjà dotées d’observatoires structurés pour jouer un rôle de courroie de transmission entre les EPCI et l’échelle nationale. Dans ce cadre, la Banque des territoires et le Cerema ont rejoint la convention de partenariat, renforçant encore la dimension multi-niveaux de SUD foncier éco. La Région Sud assure la consolidation des données, la coordination avec les partenaires nationaux (ministères, groupes de travail CNIG, portail national du foncier, etc.) et la remontée d’informations vers les instances nationales, faisant de l’observatoire un système de référence autant pour les territoires que pour l’État.
À travers une démonstration de l’interface, elle a montré concrètement la puissance de SUD foncier éco.
L’outil, développé par la société Makina Corpus à partir de briques logicielles libres, s’appuie largement sur OpenStreetMap, enrichi par les contributions de nombreux acteurs régionaux. En survolant une zone d’activité, l’utilisateur accède immédiatement à des informations synthétiques ; en cliquant, il obtient une fiche détaillée avec la vocation dominante calculée à partir de la structure de l’emploi (et non des seules surfaces bâties), le nombre d’établissements, la superficie, les indicateurs d’accessibilité, les services issues d’OpenStreetMap, le label éventuel (comme Parc+ pour les parcs engagés dans des démarches de développement durable), la liste des principaux employeurs, les coordonnées du gestionnaire et de l’association de zone, ainsi que le détail de tous les établissements avec leur tranche d’effectifs. La fiche rappelle également, pour certains indicateurs comme la valeur ajoutée, la méthode de calcul employée, en cohérence avec les recommandations scientifiques évoquées en début de webinaire.
Elle a souligné que l’observatoire intègre aussi des données plus fines sur l’emploi total, représenté sous forme de carroyage de 200 mètres, permettant de visualiser les concentrations d’emplois au-delà du seul emploi salarié. Cette couche, qui considère l’ensemble des actifs (y compris les indépendants et les très petites structures), a été sollicitée par le ministère des Transports pour tester un indicateur d’accessibilité à l’emploi en transports en commun. Elle est également mobilisée par le service énergie de la Région pour optimiser l’implantation des bornes de recharge électrique, en privilégiant les secteurs à forte densité d’emplois. D’autres services s’intéressent aux catégories socioprofessionnelles, aux valeurs ajoutées ou aux friches en ZAE, identifiées et partagées notamment via la plateforme Cartofriches, afin de répondre aux enjeux de sobriété foncière et de recyclage des sites économiques.
Les cas d’usage illustrent la richesse opérationnelle de SUD foncier éco.
Les services en charge des déchets ont, par exemple, utilisé les données d’établissements en lien avec les abaques de l’ADEME pour estimer les tonnages théoriques de déchets produits par zone d’activité, et interpeller les EPCI sur le décalage entre le service rendu et la tarification appliquée aux entreprises.
Des syndicats de rivière s’appuient sur les effectifs et le nombre d’établissements en zones exposées pour dimensionner des enveloppes d’indemnisation en cas d’inondation.
Les services thématiques de la Région (mer, énergie, développement économique, etc.) recourent régulièrement à l’Observatoire pour cibler des filières, identifier des entreprises ou documenter des projets.
Elle a également cité des usages plus pédagogiques, comme des étudiants en formation qui peuvent filtrer les établissements par code d’activité, localiser des entreprises sur une commune donnée et trouver des contacts pour des stages.
L’outil permet d’exporter les données sous forme de tableaux, ce qui facilite leur réutilisation dans des études, diagnostics ou supports de décision.
En réponse à une question sur l’accès et la qualité des données d’entreprises, elle a détaillé la chaîne de production des informations.
La Région part d’une base régionale de SIRET et de géo-SIRET pour constituer une table des établissements actifs, filtrée pour ne conserver que les établissements marchands en zone d’activité.
Le réseau des CCI contribue chaque année à la géolocalisation des établissements à l’intérieur des ZAE, afin de corriger les limites du géocodage automatique, souvent mis en défaut par des adresses peu précises.
Les données d’effectifs sont alimentées par plusieurs sources : fichiers consulaires, données historiques d’effectifs (notamment celles transmises en 2018) et recours à l’API ACOSS, à laquelle la Région, en tant qu’organisme public, peut accéder pour récupérer des effectifs moyens mensuels.
Ces informations, combinées, permettent de calculer des tranches d’effectifs et de reconstituer des vocations dominantes à partir des codes NAF.
La Chambre de Métiers et de l’Artisanat fournit, pour sa part, des données spécifiques sur les artisans, afin de combler l’écart entre le répertoire des métiers et les fichiers consulaires des CCI, ce qui permet de mieux caractériser le poids de l’artisanat dans les zones d’activité.
Elle a confirmé que la Région assure la consolidation finale de ces différentes contributions, illustrant la force du partenariat public-public.
Enfin, elle a évoqué les perspectives d’évolution de SUD foncier éco.
L’organisation régulière de comités de pilotage, de groupes de travail, permet d’enrichir chaque année la base d’indicateurs et les modules d’analyse.
De nouveaux outils de contribution vont être mis en service pour permettre aux EPCI de signaler directement les anomalies (changement de gestionnaire, d’association de zone, coordonnées, etc.) et ainsi fluidifier la mise à jour en continu.
Elle a rappelé que la démarche régionale bénéficie aujourd’hui d’une forte reconnaissance nationale :
- auditions au Sénat sur les enjeux fonciers,
- couverture dans la revue Urbanisme,
- sollicitations des ministères (notamment celui des Transports pour l’indicateur d’accessibilité à l’emploi en transports en commun),
- présentation à France Stratégie,
- et contractualisation avec le portail national France Foncier+.
Ces reconnaissances soulignent, selon elle, le caractère « d’outil très ouvert, très riche » de SUD foncier éco, fondé sur une gouvernance partenariale robuste et sur une expertise collective qui en font un observatoire de référence pour la valorisation du foncier économique en région Sud.
Martin Blazek a remercié Laurence Cantaloube-Kim pour la clarté et la richesse de sa présentation, puis a invité Loïc Guyot, Établissement Public Garonne, Gascogne et Affluents Pyrénéens, à prendre la parole pour son intervention.
Télécharger la présentation de Laurence Cantaloube-Kim, Région Sud.
Concevoir un observatoire thématique adapté à l’échelle d’un bassin géographique

Loïc Guyot, responsable de la cellule observatoire et gestion de données à l’Établissement Public Garonne, Gascogne et Affluents Pyrénéens (EPTB), a d’abord rappelé le périmètre d’action de la structure.
L’EPTB couvre un vaste territoire de bassin à cheval sur deux régions, Nouvelle-Aquitaine et Occitanie, et sept départements : Gironde, Lot-et-Garonne, Tarn-et-Garonne, Haute-Garonne, Ariège, Gers et Hautes-Pyrénées. Ce territoire hachuré représente une superficie d’environ 28 900 km² et regroupe plus de 3,2 millions d’habitants, avec une progression démographique attendue de plus de 8 % à l’horizon 2033. D’un point de vue hydrologique, il se caractérise par plusieurs centaines de masses d’eau superficielles (682 masses d’eau superficielles) et 24 masses d’eau souterraines, ce qui en fait un espace particulièrement complexe à suivre en termes de qualité, de quantité, de biodiversité et de gestion du grand cycle de l’eau.
Il est revenu sur l’historique de la mission observatoire au sein de l’EPTB. Un premier outil avait été mis en place dès 2018 pour répondre à un déficit de restitution et de partage des données produites par l’établissement. A posteriori, Loïc Guyot a souligné qu’il s’agissait davantage d’une plateforme de téléchargement et de valorisation des données de la structure que d’un véritable observatoire permettant de suivre des phénomènes dans le temps.
Un tournant important est intervenu en 2020, avec le recrutement d’un technicien SIG et administrateur de base de données, qui est venu renforcer une mission jusque-là portée par le responsable observatoire. Ce renfort de compétences et de temps disponible a rendu possible une refonte plus ambitieuse. À partir de 2022, l’EPTB a ainsi engagé une refonte complète de ses outils d’observation pour aboutir à un nouvel Observatoire, mis en ligne dans une première version en octobre 2023.
Les objectifs assignés à ce nouvel observatoire de la Garonne ont été clairement posés.
Il s’agit d’abord de centraliser l’ensemble des données traitées par l’EPTB, afin de disposer d’une vision consolidée et partagée du bassin.
Il s’agit ensuite de suivre les évolutions du territoire Garonne sur le temps long, dimension essentielle pour des thématiques environnementales comme l’étiage, la qualité des eaux ou la biodiversité.
L’observatoire doit également jouer un rôle d’aide à la décision pour les acteurs du territoire, en offrant des indicateurs lisibles, des tableaux de bord et des analyses qui permettent de fonder les politiques publiques sur des constats objectivés.
Enfin, une partie de la plateforme est spécifiquement dédiée à l’évaluation des opérations menées, tant par l’EPTB que par ses partenaires, afin de mesurer les effets des actions engagées à l’échelle du bassin.
Loïc Guyot a particulièrement insisté sur la méthodologie de construction, présentée comme un point clé de la réussite du projet.
Le processus démarre début 2022 par un recueil structuré des besoins : enquête de satisfaction auprès des utilisateurs, audit technique de l’ancien observatoire, étude de positionnement du futur outil. Sur la base de cette restitution, l’EPTB élabore une note technique de faisabilité puis un cahier des charges précis, directement construit à partir des priorités exprimées par les acteurs.
Après lancement du marché public, la prestation de développement est confiée à la société NeoGéo, qui accompagne l’EPTB de fin 2022 à mars 2023 pour concevoir et réaliser la nouvelle plateforme. L’un des choix structurants est de confier au prestataire le développement socle, mais de garder en interne l’intégration et la structuration de toutes les données. Comme l’a résumé Loïc Guyot, l’enjeu était que l’équipe puisse, à terme, « faire tout de A à Z » sur la valorisation des données, afin de garantir autonomie, souplesse d’évolution et pérennité, sans dépendance systématique au prestataire pour chaque mise à jour.
Sur le plan technique, il a décrit un véritable cycle d’intégration de la donnée, désormais industrialisé.
Les données métiers, très spécifiques à chaque thématique (étiage, biodiversité, zones humides, qualité des eaux, etc.), sont d’abord travaillées avec les experts concernés. Elles sont ensuite intégrées et transformées à l’aide d’un ETL (FME), ce qui permet de traiter des volumes importants de données et de réaliser des opérations de structuration ou de mise à jour en masse.
Les données normalisées sont stockées dans une base de données PostgreSQL, puis exploitées sous Metabase pour produire automatiquement graphiques, tableaux de bord et indicateurs. Ces visualisations sont enfin déployées dans l’Observatoire, où elles deviennent accessibles en consultation et en téléchargement, notamment au format CSV ou image, pour faciliter leur réutilisation par les acteurs du territoire.
La gouvernance de l’observatoire repose sur une approche pragmatique.
L’EPTB a fait le choix de ne pas créer de structure spécifique, mais de s’appuyer sur les instances existantes : comités de pilotage, comités techniques, comité syndical.
Pour chaque thématique, l’observatoire est analysé et piloté avec les experts réunis dans ces instances : choix des indicateurs, interprétation, priorisation des développements.
Ce pilotage par thématique se retrouve dans la structure même du site, qui propose une entrée par grands thèmes plutôt qu’une porte d’accès unique. L’arrivée récente de trois nouveaux départements membres (Ariège, Gers, Hautes-Pyrénées) conduit toutefois à repenser cette gouvernance. Une réflexion est engagée pour 2026 afin d’intégrer progressivement les données de ces nouveaux territoires et d’associer leurs représentants aux instances de pilotage, la mission de gestion et de valorisation de la donnée étant désormais considérée comme une mission socle de la nouvelle structure.
Loïc Guyot a ensuite décrit plus précisément l’observatoire de la Garonne tel qu’il fonctionne aujourd’hui.
La plateforme s’organise autour de quatre grands outils :
- une cartographie interactive,
- une partie « tableaux de bord / indicateurs »,
- une partie « portraits de territoires »
- et un catalogue de données.
Huit thématiques sont prévues : étiage, qualité des eaux, biodiversité, aménagement, paysage, changement climatique, inondations et évaluation des politiques. La page d’accueil présente les thématiques sous forme de tuiles, ainsi que des actualités liées au bassin, tandis que la partie centrale met en avant le nombre de thématiques déjà disponibles, le nombre d’indicateurs (environ 250) et les couches cartographiques associées (environ 60), témoignant d’un observatoire déjà très dense et en croissance rapide.
Pour illustrer concrètement le fonctionnement de l’Observatoire de l’EPTB, il a pris l’exemple de la thématique « Étiage », mission historique de la structure. Il a rappelé que la gestion de l’étiage consiste à réalimenter la Garonne en période de sécheresse, de juin à octobre, afin de maintenir un niveau de débit compatible avec les différents usages du cours d’eau. Sur cette thématique, l’EPTB dispose d’une antériorité de plus de vingt ans de données, ce qui permet un suivi fin des évolutions.
Dans la cartographie interactive, l’utilisateur peut visualiser les stations et points de référence, cliquer sur un point et faire apparaître des graphiques associés, par exemple l’historique de franchissement de certains seuils de débit. L’observatoire permet ainsi de relier en permanence information cartographique et information graphique, conformément aux attentes formulées lors de l’audit initial, qui demandait des outils plus interactifs et plus lisibles.
La partie « tableaux de bord / indicateurs » offre une autre profondeur de lecture. Pour la gestion de l’étiage, plusieurs onglets thématiques regroupent des graphiques d’évolution dans le temps, comme la date annuelle de franchissement de seuils de débit depuis 1993. Ces séries permettent de visualiser si les seuils sont franchis plus tôt ou plus tard, de détecter des tendances (par exemple un assèchement plus précoce) et d’objectiver les effets du changement climatique sur les débits estivaux. Chaque graphique est accompagné de commentaires explicatifs, d’informations sur la donnée sous-jacente et de la possibilité de télécharger les séries de données selon différents formats. Loïc Guyot a souligné que ces fonctionnalités répondaient directement aux besoins exprimés par les acteurs lors de l’enquête de départ, qui souhaitaient pouvoir s’approprier et réutiliser les données produites par l’EPTB, au-delà de la simple consultation en ligne.
Le troisième outil, les « portraits de territoires », a été développé pour répondre à un besoin d’analyse multi-échelles remonté par les acteurs locaux. L’utilisateur choisit un périmètre (par exemple une commission géographique) ; l’observatoire génère automatiquement un tableau de bord rassemblant les principaux indicateurs de la thématique à cette échelle. Il est ensuite possible de comparer ce territoire à un autre, l’outil produisant des graphiques comparatifs avec deux courbes sur un même indicateur. Ce mécanisme permet à des élus, techniciens ou services de l’État de situer leur territoire par rapport à d’autres secteurs du bassin, de visualiser des écarts et d’alimenter ainsi les discussions et les arbitrages.
Le catalogue de données, enfin, propose un accès plus classique aux jeux de données, mais reste essentiel pour ceux qui souhaitent intégrer les données de l’observatoire dans leurs propres outils d’analyse.
En conclusion de son intervention, Loïc Guyot a présenté les perspectives d’évolution de l’outil.
La priorité affichée est d’assurer la continuité de service et l’actualisation régulière des données, condition indispensable pour préserver la confiance des utilisateurs. L’EPTB souhaite également « faire vivre » l’observatoire par des animations thématiques et la recherche de nouvelles données, notamment au travers de partenariats.
Une nouvelle grande thématique consacrée aux inondations est en cours de construction, en cohérence avec les missions de gestion des risques de l’établissement. Par ailleurs, l’accroissement du nombre d’indicateurs et de couches cartographiques conduit à envisager la création d’un moteur de recherche dédié, permettant d’identifier rapidement les indicateurs pertinents dès l’entrée sur la plateforme.
Enfin, l’outil « portraits de territoires » sera enrichi de nouveaux périmètres d’interrogation pour répondre aux besoins des nouveaux membres, dans une logique de service renforcé aux acteurs récemment intégrés au bassin.
Martin Blazek a remercié Loïc Guyot pour cette présentation très concrète de l’observatoire de la Garonne, avant de donner la parole à Diego Mermoud-Plaza, A’URBA, pour un focus sur un observatoire très local dédié aux mobilités.
Prendre le pouls d’un territoire local : méthode et outils pour suivre la mobilité et les rythmes de vie

Diego Mermoud-Plaza, chargé de piloter l’Observatoire des mobilités et des rythmes de vie depuis février au sein de l’Agence d’urbanisme Bordeaux Aquitaine (A’URBA), a d’abord rappelé le rôle et le statut de cette dernière. L’A’URBA est une association loi 1901, financée par ses partenaires institutionnels — notamment Bordeaux Métropole, le Département, la Région et l’État — avec lesquels elle travaille en lien étroit.
L’observatoire des mobilités et des rythmes de vie est hébergé par l’agence et s’inscrit dans ce cadre partenarial.
Il a expliqué que cet observatoire est né de la réalisation de l’enquête EMC2, l’« Enquête Mobilité Certifiée CEREMA », initialement menée sur Bordeaux, puis élargie à l’ensemble de la Gironde.
Les données remontées par EMC2 ont été traitées par l’Observatoire, qui s’est d’abord constitué comme une « plateforme de discussion » autour de cette enquête. Ce lieu de partage s’est progressivement institutionnalisé. L’un des premiers actes de cette institutionnalisation a été la production de chiffres clés, conçus comme une base de discussion commune entre partenaires : l’objectif est que « tous les partenaires aient les mêmes chiffres », condition nécessaire pour pouvoir analyser les situations et débattre sur des bases partagées. Au-delà de ces chiffres clés, l’exploitation des bases EMC2 s’est étalée dans le temps, sur une période qu’il estime à environ cinq ans pour une enquête.
Diego Mermoud-Plaza a ensuite retracé la chronologie récente. À partir de 2021, le pilotage de l’observatoire a changé. L’enquête EMC2, qui a une cadence d’environ dix ans, a de nouveau été menée, avec une prochaine édition prévue pour 2030. L’édition de 2021 représente une opération de grande ampleur : elle concerne plus de 8 000 ménages et plus de 16 000 personnes interrogées. Il a souligné que le temps d’exploitation d’une telle production est nécessairement long : au moment du webinaire, alors que l’on se situe entre 2025 et 2026, les derniers rapports d’exploitation de l’enquête EMC2 2021 sont encore en cours de finalisation.
Il a consacré une part importante de son intervention aux enjeux de gouvernance et à la dimension relationnelle de l’observatoire. Celui-ci repose sur la tenue de quatre comités techniques par an, qu’il décrit comme « l’armature relationnelle de l’Observatoire ». Ces comités rassemblent les principaux partenaires : Bordeaux Métropole, le Département, la Région, l’État, mais aussi des invités comme Keolis ou Nouvelle-Aquitaine Mobilités. Ils sont conçus comme des lieux d’échange à double niveau : échanges entre l’équipe de l’Observatoire et les partenaires, lorsque sont présentées les données et les exploitations issues d’EMC2 ou d’autres études ; échanges entre partenaires eux-mêmes, chacun pouvant présenter ses propres travaux aux autres institutions. Ce partage d’études débouche sur des discussions, permet d’identifier des synergies entre projets et ouvre des possibilités de collaborations (« est-ce qu’on ne ferait pas quelque chose ensemble ? »). Selon lui, ce volet relationnel « fonde » pour une large part l’observatoire, au-delà de la seule dimension de données.
Il a insisté sur le fait que les institutions disposent de peu de temps spécifiquement dédié à leurs échanges mutuels, et que l’observatoire remplit ce rôle de lieu de dialogue régulier. Les participants à ces comités sont essentiellement des techniciens, et non des élus, ce qui permet, selon lui, d’installer une discussion au long cours, plus libre et plus approfondie. Les échanges sont en outre confidentiels, ce qui « met de l’huile dans les rouages » et facilite les discussions sur ce qui peut être fait, ce qui est difficile, ou ce qui pourrait être envisagé ensemble. Les élus, quant à eux, sont plutôt invités dans le cadre d’un événement annuel, organisé en lien avec la mobilité. En 2024, cet événement s’est tenu aux archives de Bordeaux Métropole, sur le thème de l’automobile, avec l’intervention d’un expert national spécialiste de la voiture et des enjeux associés. L’idée est de proposer un temps fort où un expert présente la problématique à un niveau large, tandis que l’observatoire apporte un éclairage local, et d’ouvrir ensuite un temps de débat avec les élus et les acteurs.
Sur les ressources humaines, Diego Mermoud-Plaza a précisé que l’agence compte environ 60 salariés. Environ 30 sont des spécialistes thématiques (par exemple sur la mobilité, l’habitat, les formes urbaines, etc.) et une trentaine sont des spécialistes de métiers transverses : statisticiens, géomaticiens, cartographes, graphistes, entre autres. L’observatoire bénéficie de cette « ressource à disposition », mais le temps qui lui est consacré fait l’objet d’une négociation annuelle avec les partenaires. Le volume alloué se situe entre 150 et 200 jours par an, en fonction de la charge de travail et de l’organisation de l’année. C’est sur cette base que sont arbitrées les priorités : mise à jour des chiffres clés, exploitation d’EMC2, études spécifiques, animation des comités techniques, organisation de l’événement annuel.
Concernant les productions actuelles, il a rappelé que l’observatoire s’articule autour de plusieurs volets complémentaires.
Le premier est l’exploitation des enquêtes EMC2 successives, avec la production de rapports et d’analyses détaillées.
Le deuxième est la production annuelle des chiffres clés de l’observatoire des mobilités, qui sont rendus disponibles sur le site internet ; la nouvelle édition 2025 doit ainsi paraître dans les semaines suivant le webinaire.
Le troisième volet correspond à la réalisation d’études spécifiques, élaborées en concertation avec les partenaires et validées dans le cadre des comités techniques. Certaines de ces études s’appuient sur des collaborations directes avec l’INSEE, permettant de mobiliser des données peu diffusées pour des analyses ciblées sur les enjeux de mobilité qui intéressent à la fois l’observatoire et ses partenaires. Parmi les études récentes, il a notamment mentionné un travail intitulé « Les Girondins et leur(s) voiture(s). Possessions, usages et pratiques », ainsi qu’un projet d’étude sur le thème du confort et de la mobilité, davantage situé du côté de la sociologie des mobilités.
Il a également rappelé l’existence d’un réseau national des agences d’urbanisme (réseau FNAU), qui compte une cinquantaine de structures. Ce réseau est l’occasion de partager des méthodes et des démarches et de travailler en synergie avec d’autres agences. À ce titre, l’observatoire reprend, avec l’accord de ses partenaires, une étude appelée « Métro’Sat », initialement développée par l’agence d’urbanisme de Nantes. Il s’agit d’interroger les temps de parcours entre les différentes communes girondines et Bordeaux, en observant comment ces durées évoluent dans le temps, notamment au moment des congestions.
Diego Mermoud-Plaza a enfin évoqué les outils internes de restitution et les perspectives d’ouverture. Il a montré une plateforme construite sous Tableau, qui constitue aujourd’hui un outil interne d’exploitation et de visualisation des données EMC2. Cet outil permet par exemple d’analyser la motorisation des ménages ou de comparer le nombre de voitures par ménage entre la métropole et le reste du département, avec un niveau de détail fin par secteur de tirage.
La participation au webinaire PIGMA a, selon lui, mis en lumière le fait que ces données n’avaient pas encore été véritablement partagées. Il a indiqué avoir prévu d’inscrire à l’ordre du jour du prochain comité technique une discussion avec les partenaires sur une possible ouverture publique de cette plateforme, via une version accessible en ligne si cela est validé collectivement.
Pour conclure, il a esquissé les perspectives de l’observatoire des mobilités et des rythmes de vie.
Outre la poursuite des travaux avec les partenaires actuels, l’enjeu est d’ouvrir davantage l’observatoire à des « publics secondaires » : bureaux d’études susceptibles d’avoir besoin de ces données, passionnés de mobilité, voire grand public. Des pistes sont envisagées pour l’année suivante : organisation de webinaires dédiés aux EPCI et aux intercommunalités, et développement éventuel de formats plus grand public, comme des podcasts thématiques. Ces orientations sont discutées au sein de l’Observatoire, dans la continuité du rôle qu’il joue déjà comme espace de partage, d’analyse et de construction collective autour des mobilités et des rythmes de vie en Gironde.
Martin Blazek a remercié Diego Mermoud-Plaza et a ensuite invité Damien Tourette, entreprise Immo Data, à intervenir sur le thème d’un observatoire immobilier privé au service des professionnels et du grand public.
Télécharger la présentation de Diego Mermoud-Plaza, A’URBA.
Données ouvertes, valeur partagée : comment l’open data alimente un observatoire privé au service des professionnels et du grand public

Dernier intervenant de la matinée, Damien Tourrette, cofondateur d’Immo Data, a proposé un regard volontairement différent en se plaçant du côté d’un « réutilisateur privé de données publiques ». Il a annoncé d’emblée qu’il s’agirait avant tout d’un retour d’expérience sur la façon dont un acteur privé peut exister en tant qu’observateur reposant massivement sur la donnée ouverte, et sur les conditions concrètes de valorisation de ces informations.
Il a d’abord présenté Immo Data pour situer le contexte. L’entreprise opère un site d’information immobilière qui s’adresse à deux grandes audiences.
D’un côté, un site d’information grand public, sur lequel sont diffusées des informations de marché ; environ 150 000 particuliers viennent chaque mois consulter ces contenus.
De l’autre, une offre destinée principalement aux agents immobiliers, qui disposent de services d’estimation et de rapports d’analyse immobilière.
Il a insisté sur le fait que ces services reposent « à 90 % sur de la donnée publique ». Parmi les sources mobilisées, il a cité la base Demande de valeurs foncières (DVF), le cadastre, la base nationale des bâtiments, la base Citadelle, les données de l’INSEE, les DPE de l’ADEME, ainsi que d’autres jeux de données produits par la sphère publique. Des données privées, comme les annonces immobilières, viennent compléter ce socle, mais restent minoritaires.
Pour illustrer concrètement ce que permet cette combinaison de données, il s’est placé dans la peau d’un agent immobilier utilisant la plateforme.
À partir d’une simple adresse, l’outil reconstitue déjà un grand nombre d’éléments : année de construction issue de la base nationale des bâtiments, dernier DPE réalisé à cette adresse grâce aux données de l’ADEME, détection d’une éventuelle piscine sur la parcelle, récupération de la dernière vente intervenue dans l’immeuble, etc.
L’utilisateur accède ensuite à des rapports plus complets, qui combinent cadastre, autorisations d’urbanisme, informations issues des ventes, annonces, et toute une série d’indicateurs construits par Immo Data.
Il a notamment cité un « score piéton », une note sur 100 qui mesure la capacité à accéder aux services du quotidien à pied depuis le logement, à partir de la variété, du nombre et de la distance aux équipements (boulangerie, bureau de poste, etc.).
L’entreprise calcule également des indicateurs de prix au mètre carré, « en descendant jusqu’à l’IRIS », et propose un service d’estimation qui mobilise plusieurs sources pour caractériser finement les biens.
À partir de cet exemple, Damien Tourrette a dégagé deux conditions qu’il juge indispensables pour qu’un observateur privé existe réellement sur ce marché.
La première est la capacité à créer de la valeur différenciante à partir d’une matière première (les données publiques) à laquelle tout le monde a théoriquement accès.
La seconde est la capacité à distribuer le service auprès de son audience cible : sans visibilité ni accès aux utilisateurs finaux, l’outil reste sans impact. Sur ce deuxième point, qu’il a décrit comme « la problématique de toute entreprise », il a indiqué qu’Immo Data s’était beaucoup appuyée sur la production de contenus nourris par la richesse des données disponibles, ce qui a favorisé la visibilité sur les moteurs de recherche. Le contexte d’ouverture de DVF a également constitué une opportunité : la publication de ces données a suscité un intérêt médiatique et une curiosité du grand public, au point de faire émerger un nouveau mot-clé de recherche, « DVF », quasiment absent auparavant. Cette nouveauté a permis à Immo Data de se positionner sur un terme encore peu concurrentiel, là où les requêtes plus anciennes sont beaucoup plus disputées.
Il a ensuite développé le premier point, celui de la création de valeur différenciante, présenté comme « la clé la plus importante ». Selon lui, deux axes principaux se combinent.
Le premier consiste à faciliter l’accès à l’information. Dans certains cas, la donnée est mise à disposition de manière très brute par les producteurs publics, sous forme de fichiers, ou via des interfaces peu accessibles au grand public. Un particulier lambda, a-t-il rappelé, ne peut pas exploiter directement ces informations ; elles peuvent tout au plus être consultées dans un tableur. Un acteur privé peut donc se positionner en rendant l’information plus consultable, plus recherchable, en permettant d’extraire le sous-ensemble qui correspond précisément au besoin de l’utilisateur. C’est souvent, a-t-il rappelé, l’intention même de l’acteur public lorsqu’il ouvre la donnée : permettre sa réutilisation et toucher un public plus large.
Le second axe consiste à « travailler » la donnée : la croiser avec d’autres informations, construire des indicateurs, développer des algorithmes. Il a résumé cette logique en expliquant que, pour créer de la valeur différenciante, il faut « faire des choses difficiles qui répondent à un besoin ». Si l’on se contente de traitements simples sur une matière première accessible à tous, « n’importe qui peut le faire » et l’acteur n’a pas vraiment de raison d’exister. À l’inverse, produire quelque chose de très complexe qui ne répond à aucun besoin ne conduit pas davantage à un modèle viable.
Il a rapproché cette approche de celle d’autres réutilisateurs privés, à l’image de Yuka, qui a facilité l’accès à l’information nutritionnelle, construit des indicateurs par-dessus et trouvé ses propres leviers de distribution. Dans le cas d’Immo Data, il a cité le travail mené sur les algorithmes de prix au mètre carré et d’estimation, en soulignant que la fiabilisation d’un prix au mètre carré « partout sur le territoire » est beaucoup plus difficile qu’il n’y paraît. Le score piéton relève du même esprit : un indicateur original, non trivial à produire, mais utile pour les utilisateurs.
Damien Tourrette a partagé ensuite un retour d’expérience plus spécifique sur les demandes de valeurs foncières (DVF), dont Immo Data a été, selon lui, « parmi les premiers réutilisateurs privés ». Il a estimé que cette base, parce qu’elle touche directement aux transactions des particuliers, est une donnée particulièrement sensible. Le site a été rapidement consulté par un grand nombre de particuliers, et il a reçu « beaucoup d’appels de personnes en colère » ne souhaitant pas voir le prix d’achat de leur maison accessible en ligne.
Cette situation l’a conduit à de nombreux échanges avec la Direction générale des finances publiques (DGFiP) et la CNIL. Il a jugé que ce type de cas illustrait la nécessité de développer davantage de pédagogie, à la fois à destination des particuliers et des réutilisateurs.
Il a rappelé la difficulté à expliquer à un particulier que la donnée DVF est publiée en open data dans une logique de transparence du marché immobilier, que le particulier a le droit de s’opposer à sa republication sur un site privé comme Immo Data (qui supprime alors la donnée sur demande), mais qu’il ne peut pas s’opposer à la publication par la DGFiP elle-même. Il a noté que ce « paradoxe » était déjà complexe à appréhender pour un professionnel, et plus encore pour un non-spécialiste, même si une FAQ existe sur le site public et pourrait être mieux mise en avant. Il a évoqué l’idée qu’un « matériel matériel pédagogique » spécifique pourrait être utile pour accompagner ces usages, sans aller plus loin dans la formulation de propositions.
Dans l’échange qui a suivi, Damien Tourrette a été interpelé sur l’intérêt, pour un acteur privé, de communiquer sur ses sources et ses méthodes, dans un contexte où nombre d’entreprises restent très opaques pour protéger ce qu’elles considèrent comme un « trésor de guerre ». Damien Tourrette a répondu que plusieurs philosophies coexistent et que cela « dépend de chaque entreprise ». Certaines craignent qu’en disant exactement ce qu’elles font, « n’importe qui puisse le faire ». Immo Data, à l’inverse, assume une démarche plus ouverte : l’entreprise indique les sources qu’elle utilise, précisément parce qu’il s’agit de données accessibles à tous et qu’il n’y a pas d’intérêt réel à les cacher. Cette transparence permet aussi de crédibiliser les résultats et de montrer que les indicateurs produits s’appuient sur des données solides. « Si on crée des choses et qu’on ne sait pas d’où elles proviennent, on peut se poser des questions sur leur fiabilité », a-t-il souligné.
Sur les méthodes, il a distingué partage de principe et dévoilement complet.
À propos de l’algorithme d’estimation, il a rappelé qu’« il n’y a pas de vérité sur la valeur d’un bien », et qu’il s’agit donc d’un objet toujours un peu délicat à expliquer.
L’entreprise répond volontiers aux questions « dans les grandes lignes », en explicitant les points d’attention, les types de données mobilisées et les grands principes méthodologiques, mais sans détailler l’intégralité de l’algorithme, qui est techniquement complexe et relève du cœur de métier de l’équipe technique.
Il a insisté sur le fait que cette transparence relative est surtout vue comme un facteur de crédibilité dans un paysage numérique où « tout le monde peut créer un prix au mètre carré » et où de nombreux services similaires existent. Les utilisateurs demandent fréquemment : « comment est calculé votre prix au mètre carré » ; Immo Data prend le temps d’expliquer, d’autant plus qu’elle estime que son indicateur est « plutôt fiable ».
En contrepoint, il a cité l’exemple de la profession notariale, en expliquant que la base de données interne des notaires, beaucoup plus riche que DVF, est souvent décrite en interne comme un « trésor de guerre », avec une grande vigilance sur la manière dont ces informations peuvent être traitées. Il a indiqué que, sur ce type de données, il existait peu de partenariats ou d’ouvertures, ce qui montrait que la question du partage ne concernait pas seulement le public/privé mais aussi certains acteurs professionnels.
Enfin, Martin Blazek lui a posé une question technique sur les données utilisées pour décrire les services accessibles à pied autour d’un logement (boulangerie, poste, etc.). Damien Tourrette a indiqué qu’il pensait s’appuyer sur des données issues de l’INSEE et a mentionné les ressources produites par Etalab, tout en reconnaissant ne pas avoir la référence exacte en tête. Dans l’échange, des participants ont évoqué la base permanente des équipements comme source possible. Il a profité de cette question pour revenir sur l’idée de facilitation d’accès à l’information : les mêmes données peuvent être disponibles sur un site public, mais sous une forme plus « parcellaire » qui demande à l’usager de connaître sa parcelle et de renseigner successivement département, commune, préfixe, etc. Immo Data, à l’inverse, propose une interface dans laquelle « il suffit de taper l’adresse » pour visualiser les équipements autour de chez soi, illustrant la manière dont un réutilisateur peut rendre plus immédiate une information pourtant déjà ouverte.
Par cet ensemble de retours, Damien Tourrette a livré une analyse très concrète de la façon dont un acteur privé peut bâtir un observatoire immobilier fondé sur la donnée ouverte, en combinant travail de la donnée, création d’indicateurs, accessibilité des interfaces, gestion des enjeux juridiques et pédagogie auprès des utilisateurs.
Martin Blazek a ensuite invité l’ensemble des intervenants à remonter sur scène pour la conclusion, avant de confier la synthèse de la matinée à Matthieu Noucher.
Matthieu Noucher a rappelé qu’il n’avait « pas du tout vocation à porter un jugement normatif sur les observatoires des uns et des autres ». Il a replacé son exposé de cadrage dans son intention initiale : alerter et proposer quelques pistes de réflexion sur une multitude d’enjeux, afin de sortir d’une approche uniquement technique des observatoires. Il a souligné que, derrière les aspects techniques, se jouaient aussi de forts enjeux en matière de ressources humaines, de moyens financiers et d’accessibilité des données, et que les interventions de la matinée avaient, selon lui, très bien mis en évidence cet ensemble de dimensions.
Revenant sur le déroulé du webinaire, il a indiqué que les présentations, notamment à travers les démonstrations d’outils et la mise en scène des indicateurs « en action », avaient bien montré les défis d’agrégation et de traitement des données, ainsi que la nécessité de maintenir dans le temps des jeux de données exploitables pour analyser les évolutions.
Il a également mis en avant les dispositifs organisationnels présentés par les intervenants, citant par exemple l’agence d’urbanisme qui avait évoqué la mise en place de comités se réunissant quatre fois par an. À ses yeux, ces exemples illustrent bien le fait que les observatoires s’inscrivent dans des organisations qui évoluent, et que les plateformes elles-mêmes se transforment peu à peu, se « problématisent » et se distinguent progressivement de simples outils de visualisation pour devenir de véritables dispositifs d’observation.
Il a insisté sur l’idée que ces observatoires devaient être regardés comme des dispositifs « vivants ».
Répondant à une question, il a évoqué la nécessité de réfléchir au cycle de vie des observatoires. Il a observé que, lorsqu’un SIG est déployé dans une organisation, la question d’une « date de fin » ne se pose généralement pas : on suppose que la donnée sera capitalisée en continu.
Pour les observatoires, il peut être pertinent, selon lui, d’adopter une autre posture : on observe un phénomène à partir d’une politique donnée, et il peut y avoir un moment où il faut « s’arrêter », non pour couper l’observatoire, mais pour faire une pause, reposer la problématique, redéfinir les enjeux, revoir les indicateurs et remobiliser les données autrement, en tenant compte de nouveaux capteurs ou de nouveaux modes de connexion. Cette « vie sociale » des observatoires lui a semblé peu interrogée, alors même qu’il existe des temps clés dans leur existence qui mériteraient d’être analysés.
Il a conclu en soulignant que la dernière intervention, consacrée à un observateur privé, répondait pleinement au titre du webinaire, qui évoquait les observatoires comme « outils de valorisation des territoires ». Les données diffusées, a-t-il noté, montrent qu’elles peuvent être véritablement valorisées pour produire des « lectures des territoires multiples » et intéresser une grande diversité d’acteurs.
Selon lui, l’ensemble des présentations offrait ainsi une « belle illustration de la pluralité » des observatoires : un concept à la mode, très pluriel, qui, à travers les cas présentés, révèle toute la diversité de ces dispositifs, sans en masquer les enjeux ni les difficultés méthodologiques, organisationnelles et financières.
En clôture du webinaire, Martin Blazek a remercié l’ensemble des intervenants, partenaires et participants pour leur disponibilité et la qualité des échanges.
Il a rappelé le prochain et dernier rendez-vous de l’année : le vendredi 12 décembre, de 9h à 9h30, pour un Vendredi en veux-tu en data, consacré aux données patrimoine, avec des inscriptions ouvertes en ligne.
Il a conclu en donnant rendez-vous en 2026 pour les prochains événements de la communauté PIGMA.