LePartisan - 22 vues
MEDIAS REVUES BLOGS
URL du flux RSS

▸ les 25 dernières parutions

05.02.2026 à 16:33

Urbanisme écologique : de la nature en ville à la ville régénérative

Philippe Clergeau, Professeur émérite en écologie urbaine, Muséum national d’histoire naturelle (MNHN)
Chris Younes, Professeure émérite à l’École National Supérieure d’Architecture de Paris la Villette et professeure à l’École spéciale d’architecture, membre du GRUE, École nationale supérieure d'architecture de Paris-la Villette
Eduardo Blanco, Ingénieur et urbaniste
Suffit-il de planter quelques arbres dans une rue pour rendre une ville du XXIᵉ siècle plaisante, vivable et durable ?
Texte intégral (2141 mots)

Suffit-il de planter quelques arbres dans une rue pour rendre une ville du XXIᵉ siècle plaisante, vivable et durable ? En auscultant les processus en cours, les réflexions menées pour que la ville soit habitable pour les humains comme pour la biodiversité, le Groupe sur l’urbanisme écologique différencie trois approches : celle de la nature en ville, celle de l’urbanisme écologique et celle de l’urbanisme régénératif.


Si l’architecture est bien l’art de la conception des bâtiments, l’urbanisme est celui de l’organisation et de l’aménagement des espaces urbanisés. Car il s’agit bien d’un art que de mettre en musique une multitude de sciences, techniques, designs, savoirs locaux et expertises. L’objectif final n’est aujourd’hui plus seulement de planifier un espace à partir de dimension sociale et économique mais aussi écologique.

Cette ultime ambition a été avant tout hygiéniste et environnementaliste au cours du XXᵉ siècle : il s’agissait de réduire les pollutions et les impacts négatifs des activités humaines sur la santé et le bien-être des citadins. Les notions de durabilité puis de résilience et de sobriété ont ensuite rebattu les cartes des stratégies et des méthodes à mettre en œuvre, tout au moins dans les discours.

De la nature en ville à la biodiversité urbaine

À côté de réflexions sur la mobilité, l’énergie, la gestion des déchets, etc., une première étape d’une approche écologique est d’intégrer de la végétation dans la ville pour les multiples services qu’elle « rend » aux citadins : rafraîchissement de l’air, régulation des pollutions, ambiance, par exemple. C’est ainsi que des milliers d’arbres sont en cours de plantation dans les grandes villes pour limiter les îlots de chaleur.

Cependant, aussi indispensables que soient ces objectifs de végétalisation et de réduction des impacts, cette stratégie conforte une compréhension simplifiée des systèmes urbains et une gestion par les services compétents « en silo ». Dans les collectivités, seul le service des parcs et jardins ou bien celui de la voirie sont impliqués dans la végétalisation de l’espace public et la plupart du temps, leur action se concentre sur un site, un quartier ou une rue avec un type classique et récurrent de végétation, par exemple les plantations d’une seule espèce d’arbres pour les alignements des boulevards.

Cette vision ne permet pas une durabilité, car, d’une part, ces monocultures sont fragiles face aux accidents climatiques ou sanitaires, comme l’arrivée d’un pathogène, qui peuvent entraîner la mortalité de l’ensemble de la plantation monospécifique et, d’autre part, la vision d’une organisation globale manque généralement.

Une approche plus fonctionnelle semble alors indispensable. Si l’on se concentre toujours sur la biodiversité, il ne s’agit en effet plus seulement de végétaliser mais plutôt de favoriser une biodiversité, avec diverses espèces de végétaux qui vont interagir entre eux et permettre l’installation et le maintien d’une faune et d’une flore spontanée. On ne plante pas seulement des espèces efficaces, par exemple les platanes pour l’ombrage des boulevards, on essaie de prendre soin du sol et de choisir des espèces diversifiées pour limiter les maladies et multiplier les bénéfices pour la société. Cette étape est celle de l’urbanisme écologique qui tente aussi de repenser la conception et l’aménagement urbain en encourageant la création de quartiers verts, le développement des transports doux, l’utilisation de matériaux durables et locaux pour la construction, le souci de l’eau, l’amélioration de la qualité de l’air, le renforcement de la biodiversité.

Vers un urbanisme régénératif

Mais il est possible d’aller encore plus loin.

Alors que l’urbanisme écologique cible surtout l’adaptation et la limitation des impacts négatifs, l’urbanisme régénératif vise à restaurer le fonctionnement des écosystèmes et des processus écologiques. Il sort ainsi de l’anthropocentrisme et prend en compte la complexité des jeux d’échelles du fonctionnement du système ville-nature. Au-delà de cibler des impacts positifs pour la société humaine, il met en lumière aussi les impacts positifs pour toutes les autres espèces.

Ainsi développer une biodiversité est bien inscrit dans l’urbanisme écologique mais en général, les processus écologiques ne sont pas pris en compte à l’échelle globale, notamment les continuités écologiques indispensables aux dispersions des espèces. La fragmentation par les rues et les bâtiments limitent la dispersion des espèces pour atteindre des habitats urbains comme les parcs et les jardins. Il faut alors de véritables « corridors » qui relient les différents habitats, comme, par exemple, des haies qui relient deux forêts pour une faune et une flore forestière. Ainsi un urbanisme régénératif vise notamment à reconnecter ville et campagne, et pas seulement par des trames vertes et bleues mais aussi en considérant la quantité et la qualité de tous les habitats pour que l’ensemble du système s’autoentretienne.

Tout projet implique alors d’intégrer dès sa conception le vivant humain et non humain. Il prend aussi en considération l’héritage de milieux abîmés. L’objectif est une ville non seulement durable mais aussi autogérée, multifonctionnelle, thermiquement vivable, neutre en carbone, biodiversitaire, inventant une nouvelle démocratie et une nouvelle économie.

Des travaux récents ont formalisé cette démarche d’abord dans des pays anglo-saxons, comme le Canada et l’Australie, puis récemment en France. Aujourd’hui, le concept attire l’attention de projets urbains qui essaient d’adhérer aux définitions contemporaines de la conception régénérative : cibler un impact net positif et mutuellement bénéfique pour la nature comme pour la société en vue d’améliorer les conditions d’habitabilité.

Cela implique des projets qui, d’un côté, minimisent leurs impacts négatifs (moins d’énergie consommée, moins d’émissions de gaz à effet de serre, moins de destruction des habitats naturels, etc.) et, d’un autre côté, maximisent des impacts positifs pour les humains en créant des offres d’habitat accessibles et abordables, en réduisant les inégalités sociales, en assurant l’accès aux services urbains, etc., mais aussi pour les autres espèces vivantes en dépolluant des zones, en récréant des habitats, en favorisant leur déplacement, etc. Pour ce faire, l’urbanisme régénératif s’appuie non seulement sur une qualité des diagnostics, mais aussi sur une conception participative ancrée sur le site, pour orienter la création d’un projet adaptable et évolutif dans le temps.

L’exemple de Blatchford, au Canada

Un bel exemple en est le projet de réaménagement du quartier de Blatchford, à Edmonton, dans l’Alberta (Canada). Conçu en 2013, ce projet a tâché de requalifier 217 hectares de fonciers appartenant à l’ancien aéroport de la ville. Pour aboutir au schéma directeur adopté, qui réintègre des écosystèmes naturels, qui s’appuie uniquement sur des énergies renouvelables, qui est neutre en carbone, et qui réduit considérablement son empreinte écologique, une phase de diagnostic socio-écologique à la large échelle a été primordiale.

Le diagnostic a couvert plusieurs volets comme les aspects environnemental et écologique du site : zones polluées et types de pollution, espèces clés de l’écosystème et leurs dynamiques de déplacement et migratoires, potentiel de production d’énergie renouvelable, perméabilité du sol, régime pluviométrique, etc. Ils ont pris en compte également les aspects socio-économiques : installation de commerces, demande de logement à l’échelle de la ville, situation socio-économique du quartier, etc. Ces résultats ont été croisés et ont permis aux équipes d’identifier et prioriser les interventions pour aboutir aux impacts positifs pour la nature et la société.

Le terrain, qui était presque complètement artificialisé, a fait l’objet de plusieurs aménagements paysagers qui ont notamment créé une diversité d’habitats pour la faune et la flore (30 % de sa surface en espace à caractère naturel). Un des points centraux a été la gestion des eaux de pluie principalement par des solutions fondées sur la nature comme des jardins de pluie qui retiennent et infiltrent les eaux de pluie ou des fossés végétalisés.

L’écosystème intègre une diversité d’espèces mais aussi tout un ensemble de processus qui assurent la durabilité du système. En ville, favoriser la biodiversité consiste à se rapprocher de ces fonctionnements complexes
L’écosystème intègre une diversité d’espèces, mais aussi tout un ensemble de processus qui assurent la durabilité du système. En ville, favoriser la biodiversité consiste à se rapprocher de ces fonctionnements complexes. Isabelle Gounand, Fourni par l'auteur

D’indispensables adhésions et actions citoyennes

Régénérer implique un processus d’évolution d’un système socio-écologique pour qu’il atteigne de meilleures conditions de santé. Régénérer, c’est non seulement prendre au milieu mais lui rendre encore plus comme préconisé par le philosophe Michel Serres dans le Contrat naturel (1990). Cela pour éviter que l’être humain soit un parasite qui finit par détruire son hôte. Cette reconnaissance des imbrications est désormais promue dans certaines politiques publiques.

Mais face aux adaptations et anticipations d’envergure à opérer, les oppositions, les dénis et les marches arrière se multiplient. Il est décisif de susciter des adhésions citoyennes qui sont des conditions cruciales pour cultiver des écologies régénératrices. Et éviter que l’écologie ne dérive vers le réglementaire et le techno-solutionnisme.

Cela exige d’organiser des processus participatifs et coopératifs aux différents stades des transformations des milieux habités. Les visions partagées, les terrains d’entente ne vont pas de soi mais s’inscrivent dans une suite de débats, conflits, concertations et médiations quant aux héritages, valeurs et intentionnalités en jeu. Le défi est désormais d’instaurer la fabrique collective de cohabitations vivifiantes.

The Conversation

Philippe Clergeau est animateur du Groupe sur l’Urbanisme Ecologique

Chris Younes et Eduardo Blanco ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

05.02.2026 à 11:36

Comment mesurer la précarité énergétique ?

Dorothée Charlier, Maîtresse de conférences en économie de l’énergie et de l’environnement, IREGE, IAE Savoie Mont Blanc
Bérangère Legendre, Professor, Université Savoie Mont Blanc
Selon la façon dont on mesure la précarité énergétique, certaines personnes peuvent ne pas être reconnues comme concernées et passer à côté des dispositifs d’aide.
Texte intégral (2602 mots)

La précarité énergétique est un phénomène bien réel, mais difficile à cerner précisément. Selon la manière dont elle est mesurée, certaines personnes peuvent ne pas être reconnues comme concernées et passer à côté des dispositifs d’aide, qu’il s’agisse de se chauffer correctement en hiver ou de se protéger de la chaleur en été.


Alors que la hausse durable des prix de l’énergie et le changement climatique accentuent les situations d’inconfort thermique, la précarité énergétique s’impose comme un enjeu social majeur en France et en Europe. Les chiffres abondent – ménages consacrant une part élevée de leurs revenus à l’énergie, ménages ayant eu froid chez eux, situations d’impayés ou de restrictions de chauffage – et nourrissent une inquiétude légitime.

Pourtant, cette visibilité croissante masque une réalité plus complexe : selon l’indicateur mobilisé, on ne désigne pas toujours les mêmes ménages comme « précaires », et une partie importante de la population demeure invisible aux yeux des politiques publiques. Alors comment bien mesurer la précarité énergétique ?

Définir la précarité énergétique : un consensus fragile

En France, la précarité énergétique fait l’objet d’une définition juridique depuis l’article 11 de la loi Grenelle II de 2010, qui la caractérise comme la difficulté pour un ménage de satisfaire ses besoins énergétiques essentiels en raison d’une combinaison de facteurs, notamment des revenus insuffisants, des logements peu performants sur le plan énergétique et des prix élevés de l’énergie.

Cette définition, reprise et largement mobilisée dans les travaux statistiques et les politiques publiques, est proche de celle retenue au niveau européen, qui insiste également sur l’incapacité des ménages à accéder à des services énergétiques essentiels à un coût abordable. Elle a le mérite de souligner le caractère fondamentalement multidimensionnel du phénomène.

Pourtant, dans la pratique, cette richesse conceptuelle est souvent réduite à un ou deux indicateurs simples, principalement fondés sur les dépenses énergétiques.

En France, un ménage est fréquemment considéré comme précaire lorsqu’il consacre plus de 8 ou 10 % de ses revenus à l’énergie et appartient aux ménages à bas revenus. Ces indicateurs présentent des avantages évidents, simplicité de calcul, comparabilité dans le temps et lisibilité pour le grand public. Mais leurs limites sont désormais bien établies. Ils mesurent les dépenses réalisées plutôt que les besoins réels, et ignorent les stratégies de restriction adoptées par de nombreux ménages en difficulté, dont les factures peuvent sembler modérées bien qu’ils subissent un inconfort élevé.

Par exemple, en France, près de 35 % des personnes déclarent avoir souffert du froid dans leur logement au cours de l’hiver 2024-2025, selon le dernier tableau de bord de l’Observatoire national de la précarité énergétique (ONPE).

QU’EST CE QUE L’ONPE ?

  • Créé en 2011 à la suite de la loi Grenelle II, l’Observatoire national de la précarité énergétique (ONPE) est une instance partenariale de référence chargée de produire une connaissance partagée, de suivre l’évolution de la précarité énergétique et d’éclairer les politiques publiques dans les domaines du logement et de la mobilité.

Dans la même édition, une proportion significative de ménages déclare avoir restreint volontairement le chauffage pour éviter des factures élevées, illustrant comment les stratégies d’adaptation peuvent rendre invisibles aux yeux des statistiques officielles des situations pourtant difficiles.

À l’inverse, certains ménages apparaissent comme précaires au regard de leurs dépenses, alors même qu’ils vivent dans des logements confortables mais énergivores, sans subir de privations. Il s’agit notamment de ménages aux revenus relativement élevés, vivant dans des logements gourmands en énergie pour lesquels une facture importante reste compatible avec le niveau de vie.

Plus généralement, ces situations rappellent que les indicateurs fondés sur des seuils, qu’il s’agisse de dépenses ou de température intérieure, sont imparfaits : une même température peut être vécue comme acceptable par certains, par choix ou par habitude, et comme inconfortable par d’autres, selon les préférences, l’âge ou l’état de santé.

Pour dépasser les limites des indicateurs fondés sur les dépenses, les indicateurs dits « subjectifs » ont progressivement pris de l’importance. Ils reposent sur le ressenti des ménages et sur des situations concrètes telles que le fait d’avoir eu froid chez soi, d’être en situation d’impayés ou de vivre dans un logement humide ou dégradé.

Leur principal avantage est de rendre visibles des formes de privation réelle, indépendamment du niveau de dépenses observé, et de capter des dimensions invisibles dans les données comptables, comme l’inconfort, le stress ou les effets sur la santé. Toutefois, ces indicateurs présentent eux aussi des limites, car les réponses dépendent fortement des normes sociales, des attentes individuelles et de la capacité à exprimer une difficulté, ce qui peut conduire à des sous ou sur déclarations selon les franges de la population.

Consciente de ces enjeux, la France a donc fait le choix de ne pas s’appuyer sur un indicateur unique, mais sur un panier d’indicateurs, à l’image du tableau de bord de l’ONPE. Celui-ci combine des indicateurs de dépenses, de restrictions, de ressenti et d’impayés, reconnaissant ainsi le caractère multidimensionnel de la précarité énergétique. Cette approche constitue un progrès important, mais elle soulève une difficulté persistante : comment interpréter simultanément ces signaux et les traduire en décisions opérationnelles lorsque les ménages ne sont concernés que par certaines dimensions et pas par d’autres ?

Le piège du binaire : une vision trop rigide d’un phénomène continu

Être précaire ou ne pas l’être ? La plupart des indicateurs actuels reposent sur une logique binaire : un ménage est classé soit comme précaire, soit comme non précaire, en fonction du dépassement d’un seuil. Cette approche est rassurante, car elle permet de compter, de comparer, de cibler. Mais elle repose sur une hypothèse implicite discutable : celle d’une frontière nette entre les ménages « en difficulté » et les autres.

Or, la réalité est bien différente. La précarité énergétique est un processus, non un état figé. Elle peut être transitoire, s’aggraver progressivement par exemple avec la hausse des prix de l’énergie, ou au contraire être contenue par des stratégies d’adaptation. De nombreux ménages se situent dans une zone intermédiaire : ils ne remplissent pas les critères statistiques de la précarité, mais ils vivent sous une contrainte permanente, exposés au moindre choc.

C’est dans ce contexte qu’émerge la notion de vulnérabilité énergétique. Elle ne désigne pas une situation actuelle de privation, mais un risque de basculer dans la précarité à la suite d’un événement : hausse des prix, perte de revenus, problème de santé, épisode climatique extrême. Cette approche permet de dépasser la logique du « tout ou rien » et de s’intéresser aux trajectoires des ménages. Elle met en lumière une population souvent invisible dans les statistiques classiques, mais pourtant essentielle à considérer si l’on veut prévenir plutôt que réparer.

L’importance des choix de mesure apparaît nettement lorsque l’on considère les ménages les plus modestes : en 2022, parmi les 10 % les plus pauvres de la population, près de 69 % des ménages seraient en situation de précarité énergétique en l’absence à la fois du bouclier tarifaire et du chèque énergie. Cette proportion tombe à 62 % avec le seul bouclier tarifaire, puis à environ 43 % lorsque le bouclier et les chèques énergie sont pris en compte, illustrant combien les dispositifs publics et les conventions de mesure modifient l’ampleur statistique du phénomène.

Mesurer autrement : apports des approches multidimensionnelles

Une première manière de renouveler la mesure de la précarité énergétique consiste donc à recourir à des indicateurs « dits » composites. L’idée est de ne plus se limiter à un seul critère, mais de regrouper plusieurs dimensions du problème dans un indicateur unique. Celui-ci peut par exemple prendre en compte à la fois le niveau de revenu des ménages, la qualité énergétique de leur logement, leurs difficultés à payer les factures, les restrictions de chauffage ou encore l’inconfort thermique ressenti.

Cette approche se distingue des méthodes qui juxtaposent plusieurs indicateurs séparés, comme celles utilisées par l’ONPE. Ici, les différentes dimensions de la précarité énergétique sont combinées dans un même outil, ce qui permet d’avoir une vision plus globale des situations.

Inspirée des travaux sur la pauvreté multidimensionnelle, cette méthode aide à mieux comparer les ménages entre eux et à identifier plus finement ceux qui sont les plus exposés.

L’INDICE DE PAUVRETÉ MULTIDIMENSIONNELLE

  • Mesurer la pauvreté avec un seul indice, par exemple le revenu, présente un risque : celui de n’avoir qu’une image partielle du phénomène. Pour ne pas invisibiliser certaines populations qui subissent ce fléau, l’indice de pauvreté multidimensionnelle, créé à l’Université d’Oxford en 2010 et utilisé dès cette année-là par le Programme des Nations unies pour le développement (PNUD), compile dix indices : la mortalité infantile, la nutrition, les années de scolarité, la sortie de scolarité, l’électricité, l’eau potable, les sanitaires, le sol de l’habitat, le combustible utilisé pour cuisiner, les biens mobiliers.

Par exemple, un ménage aux revenus modestes vivant dans un logement mal isolé, qui limite fortement son chauffage pour contenir ses factures et déclare un inconfort thermique, peut ne pas dépasser individuellement les seuils de dépenses ou de température retenus par les indicateurs classiques, mais apparaître clairement comme précaire lorsqu’on combine ces différentes dimensions au sein d’un indicateur composite.

Mais ces indicateurs ne sont pas sans limites. Ils reposent sur des choix normatifs, parfois peu visibles, notamment sur l’importance accordée à chaque dimension. Par exemple, le poids accordé aux dépenses énergétiques par rapport à l’inconfort thermique ou à la qualité du logement peut conduire à classer différemment deux ménages aux situations pourtant proches, selon que l’on privilégie une contrainte budgétaire, une privation ressentie ou une vulnérabilité structurelle. Ces choix donc restent en partie arbitraires et peuvent limiter l’appropriation de ces indicateurs par les acteurs publics et la compréhension du phénomène par le grand public.

Une autre manière d’aborder la précarité énergétique, de plus en plus utilisée en sciences sociales, consiste à recourir à des méthodes de classification statistique. Leur principe est simple : au lieu de décider à l’avance à partir de quel seuil un ménage est considéré comme « précaire », ces méthodes commencent par regrouper les ménages qui se ressemblent, en tenant compte simultanément de plusieurs dimensions de leur situation.

Concrètement, les ménages sont classés en fonction de caractéristiques observées comme le type de logement, le niveau des dépenses d’énergie, les difficultés de paiement, les restrictions de chauffage ou encore l’inconfort thermique. Les méthodes de classification rassemblent ainsi des personnes aux profils proches, sans imposer au préalable de seuils arbitraires sur chacun de ces indicateurs.

Ce n’est qu’ensuite que l’on interprète les groupes obtenus. On observe alors qu’ils correspondent assez clairement à des situations distinctes : des ménages sans difficulté particulière, des ménages vulnérables, et des ménages en situation de précarité énergétique avérée. Ces groupes présentent non seulement des points communs sur les critères utilisés pour les classer, mais aussi sur d’autres caractéristiques sociales ou économiques, comme la composition familiale ou le type de territoire.

Ces méthodes permettent ainsi de mieux comprendre les différentes formes de précarité énergétique, et de dépasser une approche trop rigide fondée uniquement sur des seuils souvent arbitraires.

Pourquoi mesurer la précarité énergétique restera toujours difficile

Même avec des outils plus sophistiqués, mesurer la précarité énergétique restera un exercice délicat. Les besoins énergétiques varient selon le climat, la composition du ménage, l’état de santé, l’âge, ou encore les normes culturelles. Ce qui constitue un inconfort pour certains peut être perçu comme acceptable pour d’autres.

Les ménages en difficulté effectuent souvent des arbitrages complexes entre différentes dépenses essentielles : se chauffer, se nourrir, se déplacer, se soigner. Ces arbitrages sont difficiles à observer dans les données et échappent en grande partie aux indicateurs traditionnels.

Plutôt que de chercher une mesure unique et définitive, l’enjeu est donc de construire des outils capables d’éclairer la diversité des situations et des trajectoires. Dans un contexte de transition énergétique et de dérèglement climatique, mieux mesurer la précarité énergétique devient moins une question de précision statistique qu’une nécessité pour anticiper, prévenir et adapter les politiques publiques.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

04.02.2026 à 16:11

Fissures, sols instables… comment les aléas climatiques redessinent la carte du risque immobilier

Miia Chabot, Associate Dean Pedagogy and Learning Innovation, Excelia
Les aléas climatiques font peser de nouvelles menaces sur les bâtiments. De nouvelles méthodes se développent pour mieux chiffrer ces risques et en prévenir les conséquences.
Texte intégral (2167 mots)

Acheter un logement, c’est parier sur l’avenir. Or, à l’horizon 2050, le changement climatique redessine la carte du risque immobilier : risque de submersion par exemple, mais également de retrait-gonflement des argiles, phénomène par lequel une sécheresse peut occasionner des dégâts parfois graves sur le bâti. On parle aussi de « maisons fissurées ». Dans ce contexte, comment évaluer la vulnérabilité d’un bien face aux enjeux climatiques ?


Lorsque l’on achète une maison, ce n’est pas seulement sur la solidité du bâti que l’on mise : c’est aussi sur la stabilité d’un sol. En France, près d’un logement sur deux – soit 48 % du territoire métropolitain – repose aujourd’hui sur un terrain vulnérable au retrait-gonflement des argiles, un phénomène silencieux, amplifié par les sécheresses, qui fissure les murs quand la terre se contracte.

Plus de 10 millions de maisons individuelles sont déjà exposées. Entre 1995 et 2019, les sécheresses géotechniques ont entraîné plus de 18 milliards d’euros d’indemnisations (en euros 2023) et en moyenne, près de 700 millions d’euros sont versés chaque année. En 2022, le coût des sinistres a dépassé 3 milliards d’euros, et il pourrait atteindre 43 milliards d’ici à 2050. Les dommages observés sur les bâtiments traduisent un déséquilibre économique à part entière : la déformation du sol devient un facteur de perte de valeur immobilière.

Ce risque n’est pas isolé. Il s’inscrit dans un ensemble plus large d’impacts climatiques physiques qui, partout en Europe, créent des effets économiques différenciés selon les territoires et les activités. La sécheresse, la chaleur ou les pluies extrêmes n’affectent pas de la même manière l’agriculture, l’industrie ou le logement.

Carte d’exposition des formations argileuses au phénomène de mouvement de terrain différentiel consécutif à la sécheresse et à la réhydratation des sols. BRGM, Fourni par l'auteur

Relier le climat aux conditions du bâti et aux dynamiques locales permet de passer du constat au chiffrage. En combinant les données climatiques, géologiques et structurelles, il devient possible d’évaluer le coût réel d’un aléa, de passer des cartes d’exposition aux cartes de dommages, et d’estimer, à l’horizon 2050, l’ampleur potentielle des pertes liées à la sécheresse des sols. Les fissures de nos maisons traduisent la manière dont le climat pèse désormais sur la valeur du patrimoine et sur la continuité des activités qu’il abrite.


À lire aussi : Retrait-gonflement des sols argileux : une explosion des risques depuis 2015


Un risque silencieux

Concrètement, le retrait-gonflement des argiles est provoqué par la « respiration » de la terre sous nos pieds : elle se gorge d’eau, puis se rétracte quand elle s’assèche. Dans les sols argileux, ce cycle naturel de gonflement et de retrait est amplifié par les sécheresses successives. Au fil du temps, ces mouvements différentiels déforment les fondations, engendrant fissures et désordres structurels. Le phénomène reste invisible jusqu’à ce qu’il soit trop tard : les murs se fendent, les seuils se déforment, les ouvrants ne ferment plus.

Des recherches récentes montrent que la structure des sols argileux, faite de pores de tailles différentes, explique leur forte sensibilité au manque d’eau. Lorsqu’ils se dessèchent, l’eau s’échappe d’abord des grands pores, provoquant un retrait rapide, puis des plus petits, ce qui accentue la contraction du sol. D’autres travaux relient directement la dynamique hydrique à la déformation mécanique : plus la perte d’eau est brutale, plus le sol se rétracte et la contrainte sur les structures augmente.

Ce risque n’est donc pas seulement une affaire de nature de sol : il dépend aussi de la variabilité climatique, de la profondeur des fondations et de la capacité du sol à retenir l’eau. Chaque été sec accentue la mémoire du précédent, laissant les terrains un peu plus fragiles.


À lire aussi : Maisons, routes, rail, pistes cyclables… comment lutter contre les risques de retrait-gonflement argileux ?


Des cartes incomplètes, un risque qui grandit

Les cartes nationales, comme Géorisques ou celles du BRGM, constituent aujourd’hui la base de l’information publique sur le retrait-gonflement des argiles. Elles ont le mérite d’exister, mais restent pensées pour une lecture d’ensemble du territoire. Leur échelle, souvent kilométrique, ne permet pas d’évaluer la vulnérabilité réelle d’une maison ni la dynamique du sol à l’échelle de la parcelle. Entre deux terrains voisins, la composition du sous-sol, la présence d’argiles gonflantes ou la profondeur des fondations peuvent pourtant tout changer.

Certaines bases de données internationales offrent un éclairage complémentaire. La Digital Soil Map of the World (FAO – Unesco) décrit la nature des sols à l’échelle planétaire, tandis que les indices satellitaires comme le Soil Water Index (SWI) permettent de suivre l’humidité des sols au fil du temps. Ces approches sont précieuses pour la recherche, mais leur résolution (souvent de l’ordre du kilomètre) reste trop faible pour évaluer le comportement réel d’un terrain face à la sécheresse.

De nouveaux outils plus opérationnels cherchent à combler ce vide. L’application Risque Maison Climat RGA propose, à partir d’une simple adresse, une première estimation du niveau d’exposition d’un logement. En combinant la nature du sol, la fréquence des sécheresses et la vulnérabilité du bâti, elle offre une lecture claire et personnalisée du risque. Mais ses calculs reposent encore sur des données moyennes et n’intègrent pas la variabilité fine du sous-sol.

Les dispositifs publics existants se complètent sans se recouper : Climadiag projette les évolutions climatiques locales, Bat-ADAPT identifie les fragilités du bâti, et Géorisques recense les aléas connus sans les relier à la structure du logement. Ensemble, ils informent mais ne permettent pas d’anticiper les dommages.

Les initiatives privées, de leur côté, peinent à dépasser la logique assurantielle. Les simulateurs proposés par certains assureurs, comme la MAIF, intègrent des indicateurs climatiques, mais sans transparence sur leurs modèles ni accès aux données. Ces outils sensibilisent, sans permettre d’agir.

Mesurer les dommages

Identifier un sol argileux, c’est décrire une vulnérabilité. Ce qui compte aujourd’hui, c’est de savoir ce que cette vulnérabilité coûte quand la sécheresse s’installe. Le passage des cartes d’exposition aux cartes de dommages marque la frontière entre savoir et agir.

Des approches que nous avons développées avec des collègues dans des recherches récentes montrent qu’il est désormais possible d’estimer le coût réel des aléas climatiques, qu’il s’agisse d’inondations, de vagues de chaleur ou de sécheresses géotechniques. En reliant les anomalies climatiques, la nature des sols et les caractéristiques du bâti, les modèles de dommages permettent d’évaluer les pertes économiques attendues.

Cette démarche, déjà utilisée pour les inondations dans des modèles comme Hazus ou JRC, peut être transposée au retrait-gonflement des argiles. Elle consiste à traduire les paramètres physiques d’un site, tels que l’humidité, la profondeur des fondations ou la résistance du sol, en impact financier mesurable.


À lire aussi : Changement climatique : un indicateur pour prévoir les risques de maisons fissurées


Croiser les données

Pour y parvenir, la clé réside dans l’intégration des données. Les informations existent mais demeurent dispersées entre bases publiques, assureurs et bureaux d’études. Croiser les données climatiques, géologiques et structurelles permet de simuler le coût probable d’un sinistre, incluant les fissurations, les reprises en sous-œuvre et, pour les bâtiments tertiaires, les pertes d’exploitation liées à une interruption d’activité.

C’est ainsi que les modèles de gestion des risques climatiques évoluent : du diagnostic de vulnérabilité à une véritable estimation de dommage qui relie les conditions physiques du sol aux conséquences économiques tangibles. Cette démarche n’a rien d’abstrait. Elle ouvre la voie à une gestion prospective des risques capable d’anticiper les coûts à l’horizon 2050. Les estimations réalisées pour d’autres aléas montrent déjà que les pertes associées aux sécheresses pourraient être multipliées par dix dans certaines régions.

Mesurer les dommages, c’est transformer une information environnementale en outil de décision. Pour un propriétaire, cela revient à évaluer la perte potentielle de valeur d’un bien dans un climat plus chaud et plus sec. Pour une entreprise, c’est la possibilité d’intégrer le coût du risque dans la gestion du bâti, les contrats d’assurance ou la planification des travaux. Pour les pouvoirs publics, c’est un levier pour orienter les politiques de prévention et d’aménagement.

The Conversation

Miia Chabot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

3 / 25

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
AlterQuebec
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌞