08.02.2026 à 14:20
La guerre de l’énergie a déjà commencé en Ukraine : pourquoi l’Europe a tout intérêt à développer le stockage thermique
Texte intégral (2504 mots)
La guerre en Ukraine rappelle la vulnérabilité des infrastructures énergétiques, qui peuvent alors se muer en cibles militaires, pourtant proscrites en tant que telles par le droit des conflits armés : terminaux gaziers, centrales nucléaires, lignes à haute tension… Toutefois, des solutions existent pour rendre notre système énergétique plus résilient, par exemple celles fondées sur le stockage de chaleur plutôt que le simple transport d’électricité ou de gaz. Ce domaine demeure malheureusement, à l’heure actuelle, un impensé des politiques de transition énergétique.
Lorsque la Russie a entrepris de frapper systématiquement les infrastructures énergétiques ukrainiennes, des millions de personnes ont été brutalement plongées dans l’obscurité au cœur de l’hiver. Des postes électriques ont explosé, des transformateurs ont brûlé, les systèmes de chauffage se sont arrêtés, laissant des communautés entières sans défense. Ces attaques allaient bien au-delà de la destruction matérielle : elles révélaient un danger longtemps ignoré en Europe, celui d’une énergie désormais militarisable.
Pendant des décennies, les débats européens sur la sécurité énergétique ont porté sur les marchés, l’approvisionnement en combustibles et la décarbonation. Or la guerre en Ukraine a mis en lumière une vulnérabilité que ni les stocks stratégiques ni les mécanismes de régulation des prix ne peuvent corriger : la fragilité physique du réseau électrique.
À mesure que les systèmes deviennent plus numériques, plus interconnectés et plus essentiels à tous les aspects de la vie quotidienne, ils sont de plus en plus exposés aux cyberattaques, mais également aux missiles, aux sabotages et aux phénomènes climatiques extrêmes.
Cette nouvelle réalité impose une question clé. Lorsque les infrastructures électriques deviennent une cible militaire stratégique, comment renforcer la résilience énergétique d’un État ?
Comment l’énergie est devenue un champ de bataille
La guerre en Ukraine illustre de manière directe comment les conflits contemporains visent les fondements mêmes du fonctionnement d’un pays. Les frappes russes ont ciblé les centrales électriques, les corridors à haute tension, les postes de transformation, avec un objectif clair : déstabiliser l’ensemble de l’appareil d’État en perturbant l’alimentation énergétique.
De grandes centrales thermiques ont été délibérément mises à l’arrêt pour isoler des régions entières. Les installations hydrauliques du Dniepr ont également été frappées, créant des risques d’inondations massives et de coupures prolongées. Même les lignes d’alimentation des centrales nucléaires – jusqu’ici considérées comme intouchables – ont été visées à plusieurs reprises.
Ces attaques s’inscrivent dans une stratégie cohérente. En faisant tomber l’électricité, on fait tomber des services essentiels : les hôpitaux basculent sur des groupes électrogènes à l’autonomie limitée, les stations de pompage – qui permettent l’approvisionnement en eau potable – cessent de fonctionner, les télécommunications s’interrompent, les processus industriels se figent…
Les villes retrouvent soudain leur forme antérieure à l’ère électrique. L’électricité devient alors un levier militaire à part entière.
Une Europe vulnérable face à des réseaux vieillissants
Ce scénario ne concerne pas seulement le territoire ukrainien. L’Europe possède des réseaux électriques très centralisés, hautement numérisés et déjà à des niveaux de charge élevés, avec des marges de manœuvre physiques et opérationnelles limitées.
Même en l’absence de conflit armé, ces réseaux sont exposés à une combinaison de risques : cyberattaques, actes de sabotage, phénomènes climatiques extrêmes, montée en puissance de l’électrification et dépendance accrue aux technologies numériques.
Les vulnérabilités européennes ressemblent à celles de l’Ukraine, mais leur origine est différente. En Ukraine, les vulnérabilités du système énergétique résultent à la fois d’un héritage de réseaux centralisés, d’un sous-investissement prolongé et de leur exploitation délibérée comme cibles militaires. En Europe de l’Ouest, elles proviennent principalement de choix de conception effectués en temps de paix.
Une grande partie des infrastructures européennes a été construite dans les années 1970, pendant une période où le risque géopolitique se résumait aux chocs pétroliers. Les grands actifs centralisés – centrales nucléaires françaises, terminaux GNL allemands, nœuds de transport d’électricité – ont d’abord été conçus pour être efficients, dans une logique d’optimisation économique et de fonctionnement en régime normal. Pourtant, une attaque ou un incident local peut entraîner des effets en cascade et en faire des points de défaillance majeurs.
La numérisation, tout en améliorant la gestion du réseau – par exemple grâce aux compteurs communicants qui permettent une meilleure visibilité des consommations, ou aux centres de pilotage du système électrique (ou dispatching) qui ajustent en temps réel l’équilibre entre production et demande – élargit le champ des menaces. Un simple piratage peut perturber le fonctionnement d’un poste électrique ou désorganiser la conduite du réseau, sans qu’aucune charge explosive ne soit déclenchée. Le changement climatique multiplie en outre les stress sur le réseau (par exemple, risque d’incendie ou de rupture du fait de la surchauffe), en particulier en Europe centrale et orientale.
Face à cela, l’Europe souffre de déficits structurels. L’Union européenne a développé des règles sectorielles pour le marché de l’électricité, la sécurité d’approvisionnement et, séparément, la cybersécurité. En revanche, elle ne s’est pas dotée d’un cadre transversal dédié à la résilience matérielle et opérationnelle des réseaux en situation de crise.
Elle ne dispose pas non plus d’une stratégie réellement coordonnée pour déployer des solutions de secours décentralisées (par exemple des micro-réseaux capables de fonctionner en « îlotage », des capacités locales de stockage d’énergie ou de chaleur, etc.), au-delà des réponses d’urgence comme le recours ponctuel à des groupes électrogènes. Enfin, l’Europe ne pratique que rarement des tests de résistance coordonnés (« stress tests », c’est-à-dire des exercices de crise et scénarios d’incident éprouvés de manière organisée). Faute de pilotage clair au niveau de l’UE, ce sujet demeure un impensé des politiques de transition énergétique.
Pourtant, garantir la stabilité du réseau électrique revient à garantir la continuité des industries et des services publics, de santé, mais aussi celle de la démocratie. La résilience énergétique est un élément central de la souveraineté d’un État.
À lire aussi : Blackout dans le sud de l’Europe : une instabilité rare du réseau électrique
Le stockage thermique, levier de résilience énergétique
Le système énergétique européen est donc en transition, exposé à des menaces hybrides et engagé dans un mouvement de décentralisation, par exemple, avec la production décentralisée d’électricité photovoltaïque. Dans ce contexte, l’Europe ne doit pas seulement renforcer la résilience de son réseau électrique, mais également diversifier ses sources d’énergie et surtout ses modes de stockage de l’énergie.
Le stockage thermique (on parle de technologies TES, pour Thermal Energy Storage) désigne les moyens permettant d’accumuler un excès de production de chaleur pour la restituer plus tard, en fonction de la demande. Or, 50 % de la consommation d’énergie finale en Europe est utilisée pour le chauffage et le refroidissement. Stocker l’énergie directement sous forme de chaleur de façon décentralisée, au plus proche des consommateurs finaux, permet de répondre à une large partie des besoins sans passer par le réseau électrique.
Ces dispositifs, particulièrement robustes, sont déjà matures au plan technologique et ne nécessitent pas de terres rares, contrairement aux batteries électriques. Les TES offrent ainsi, pour des usages thermiques, une solution complémentaire aux batteries électriques. En ce sens, elles renforcent aussi indirectement la résilience du réseau électrique. De cette façon, ils peuvent réduire les pics de demande électrique, aussi bien en fonctionnement normal qu’en situation perturbée.
Trois grandes familles de TES existent :
Le stockage sensible (nommé d’après la « chaleur sensible », liée à l’augmentation de la température de fluides ou de matériaux – eau, céramique ou sels fondus pour des hautes températures), mais sans changement de phase (solide/liquide ou liquide/gaz). Il s’agit d’une solution simple, durable et à coûts maîtrisés.
Le stockage latent (d’après la « chaleur latente », en lien avec l’énergie absorbée ou libérée lors d’un changement de phase) est fondé sur des matériaux à changement de phase. Ces derniers offrent une forte densité énergétique, pour des variations de températures moindres.
Le stockage thermochimique, enfin, est fondé sur des réactions réversibles permettant un stockage longue durée avec un rendement élevé et sans pertes thermiques. C’est celui qui propose la densité énergétique la plus importante.
Les solutions fondées sur le stockage sensible sont aujourd’hui largement utilisées dans l’industrie alors que le stockage latent n’en est qu’aux prémices de la commercialisation. Les applications du stockage thermochimique, enfin, n’en sont encore qu’à la preuve de concept.
Ces technologies présentent des caractéristiques intéressantes : une longue durée de vie (plus de vingt à trente ans), une bonne résistance au cyclage thermique (c’est-à-dire, l’alternance de phases de charge et de décharge), l’absence de matériaux critiques, et enfin une sécurité d’utilisation intrinsèque.
Leur conception physique relativement simple ainsi que leur compatibilité avec les réseaux de chaleur, les procédés industriels ou encore les micro-réseaux (ou smart grids), intégrant des énergies renouvelables, renforcent encore leur intérêt.
Il est urgent de développer des écosystèmes de recherche transnationaux, y compris avec l’Ukraine, qui permettront de développer de nouvelles solutions TES innovantes. Le projet franco-ukrainien Nadiya, auquel nous participons, illustre cette dynamique. Ce projet réunit l’Université nationale de technologie d’Odessa, l’Université de Pau et des Pays de l’Adour et l’Insa Lyon afin de développer des systèmes de stockage d’énergie basés sur des matériaux à changement de phase avancés.
Dans ce projet, les chercheurs ukrainiens apportent des données empiriques uniques sur le fonctionnement des infrastructures sous attaque et les besoins thermiques en situation de crise. Ces enseignements sont précieux pour l’Europe, confrontée elle aussi à un risque énergétique accru.
À lire aussi : Le stockage massif d’électricité, brique indispensable de la flexibilité pour atteindre la neutralité carbone
De l’Ukraine à l’Europe, des solutions à développer
Du point de vue technique, le stockage thermique ne résoudra pas tout, mais sa robustesse, sa durée de vie et son indépendance vis-à-vis des matériaux critiques en font un levier important d’autonomie et de stabilité.
L’expérience ukrainienne le montre : même lorsque l’électricité revenait par intermittence, de nombreuses installations industrielles devaient interrompre leur production, faute de chaleur. Dissocier la stabilité thermique de la stabilité électrique favorise ainsi la résilience énergétique globale.
Pourtant, l’Europe peine encore à intégrer le TES dans ses stratégies nationales. Son déploiement souffre de normes incomplètes, d’un manque de projets pilotes et d’une reconnaissance insuffisante au niveau politique. C’est regrettable.
En pratique, il conviendrait de renforcer la planification régionale de la résilience et de pratiquer régulièrement des tests de résistance (« stress tests ») et de sensibiliser davantage le grand public. À une échelle institutionnelle, la coopération entre les ministères nationaux de l’énergie et de la défense mériterait d’être renforcée.
Le Vieux Continent est aujourd’hui confronté à un choix déterminant : continuer à considérer l’énergie comme une simple marchandise, ou la reconnaître comme l’un des piliers fondamentaux de sa sécurité collective, au même titre que la défense ou la santé publique.
À lire aussi : La thermodynamique, cette science méconnue dont dépend la transition écologique
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
07.02.2026 à 15:27
JO d’hiver : comment la neige artificielle rend les courses de ski de fond plus rapides mais aussi plus dangereuses
Texte intégral (4028 mots)

Derrière les images de cartes postales des Jeux d’hiver de Milan-Cortina 2026, une autre réalité s’impose aux athlètes, comme des pistes qui dépendent de la neige artificielle et souvent verglacées. À la clé, des conditions de ski très différentes de celles permises par la neige naturelle, au risque d’accroître le risque d’accident. Un avant-goût des hivers futurs, déjà profondément transformés par le réchauffement climatique.
Lorsque les téléspectateurs regarderont les Jeux olympiques d’hiver de Milan-Cortina, qui se tiennent du 6 au 22 février 2026, ils verront des pistes immaculées, des pistes damées et des athlètes s’affronter dans des paysages enneigés. Des paysages en partie rendus possibles grâce à une tempête qui a recouvert les sites montagneux des Alpes italiennes d’une couche de neige fraîche, juste à temps.
Mais à plus basse altitude, où se déroulent les épreuves de ski de fond notamment, les athlètes et les organisateurs ont dû composer avec la pluie, une neige fine et parfois fondante, ainsi que des surfaces glacées, du fait du recours à la neige artificielle.
Rosie Brennan, skieuse de fond de l’équipe olympique américaine 2026, nous a ainsi confié avant les Jeux :
« La plupart de nos courses se déroulent sur de la neige artificielle. La télévision réussit très bien à donner l’impression que nous sommes dans des endroits enneigés et hivernaux, mais cette année a été particulièrement mauvaise. »
En tant que scientifiques qui étudions la neige en montagne, les ressources en eau et l’impact humain du réchauffement hivernal, nous observons les changements hivernaux à travers plusieurs indicateurs : hausse des températures, réduction de l’enneigement, raccourcissement des saisons neigeuses…
Les athlètes olympiques sont personnellement confrontés à des conditions hivernales changeantes, d’une façon méconnue à la fois du public et des scientifiques. Le manque de neige et les pluies plus fréquentes influencent où, quand et comment ils peuvent s’entraîner, ainsi que le degré de danger du terrain.
Nous avons échangé avec les skieurs de fond Rosie Brennan, Ben Ogden et Jack Young alors qu’ils se préparaient pour les Jeux d’hiver de 2026. Leurs expériences reflètent ce que décrivent de nombreux athlètes : un sport de plus en plus défini non pas par la variabilité de l’hiver naturel, mais par la fiabilité de la neige artificielle.
Ce que les caméras ne montrent pas
La technologie d’enneigement artificiel permet de créer des half-pipes pour les compétitions de snowboard et de ski freestyle. Elle permet également d’organiser des courses lorsque la neige naturelle est rare. Les Jeux olympiques d’hiver de 2022 à Pékin ont entièrement reposé sur la neige artificielle pour de nombreuses courses.
Cependant, la neige artificielle crée une surface très différente de celle de la neige naturelle, ce qui modifie les paramètres que les skieurs doivent prendre en compte pour la course.
Dans les nuages, la forme unique de chaque flocon de neige est déterminée par la température et l’humidité. Une fois formées, ces formes étoilées commencent à s’éroder lentement à mesure que les cristaux s’arrondissent pour former des sphères. Ainsi, la neige naturelle offre une variété de textures et de profondeurs : poudreuse après une tempête, ferme ou cassante par temps froid, fondante et humide lors de pluies ou de périodes de dégel…
La neige artificielle varie moins que la neige naturelle en termes de texture ou de qualité. Elle commence et termine son cycle de vie sous la forme d’un granule de glace entouré d’une fine pellicule d’eau liquide. Cela la rend plus lente à se modifier naturellement, mais plus facile à modeler. En revanche, une fois gelée, elle durcit sur place.
À lire aussi : Verra-t-on la fin du ski dès 2050 ?
Des pistes « plus rapides, plus glissantes et plus risquées »
Lorsque de la neige artificielle est produite, le bruit est strident : un sifflement aigu qui surgit des buses pressurisées des canons à neige. Ces canons projettent de l’eau mélangée à de l’air comprimé, qui gèle au contact de l’air froid extérieur, créant ainsi de petites particules de glace dense. Les gouttes piquent la peau exposée, comme l’une d’entre nous, Agnes Macy, l’a bien compris, en tant qu’ancienne skieuse de compétition.
Des canons à neige projettent ensuite la neige artificielle sur la piste de course. Souvent, les pistes sont les seules bandes de neige visibles – une bande blanche entourée de boue brune et de plaques d’herbe.
La skieuse professionnelle Rosie Brennan, aujourd’hui âgée de 37 ans, poursuit :
« Les pistes conçues pour la neige naturelle offrent des sensations complètement différentes lorsqu’elles sont recouvertes de neige artificielle. Elles sont plus rapides, plus glacées et présentent plus de risques que ce que l’on pourrait imaginer pour le ski de fond. »
Il n’y a rien de tel que de skier sur de la neige fraîche. Après des chutes de neige ayant recouvert le sol d’une couche de poudreuse légère et moelleuse, on a presque l’impression de flotter. Cette neige pardonne plus volontiers les erreurs.
Sur la neige artificielle, les skieurs accélèrent plus vite dans les descentes. Les skieurs alpins apprécient peut-être cette vitesse, mais les skis de fond n’ont pas de carres métalliques comme les skis alpins, ce qui fait que les virages à pas tournant ou les dérapages dans les virages rapides peuvent donner à l’athlète l’impression de perdre le contrôle. « Cela nécessite un style de ski, des compétences et des forces différents de ceux que j’ai appris en grandissant », poursuit Rosie Brennan.
Comment les athlètes s’adaptent, avec l’aide de la science
Les athlètes doivent adapter leur technique et préparer leurs skis différemment en fonction des conditions d’enneigement.
Pour les skieurs professionnels, c’est une science. Des paramètres tels que la morphologie des cristaux de neige, la température, le matériau et la structure de la semelle des skis, la rigidité des skis, la technique du skieur et les conditions environnementales interagissent pour déterminer la vitesse d’un athlète.
Avant les courses de ski de fond, les techniciens comparent plusieurs paires de skis, préparées avec différentes surfaces de base et différents types de fart. Ils évaluent la vitesse de glisse de chaque type de ski et la durée pendant laquelle il peut maintenir la qualité de glisse, deux caractéristiques qui dépendent du frottement entre le ski et la neige.
Par rapport à la neige naturelle, la neige artificielle offre en général une surface plus résistante et plus durable dans le temps. En ski de fond, cela permet des poussées plus efficaces et plus puissantes sans que les skis ou les bâtons ne s’enfoncent trop profondément dans la neige. Dans le même temps, les améliorations apportées aux machines utilisées pour damer la neige permettent désormais d’obtenir des surfaces plus dures et plus homogènes qui permettent de skier plus vite.
Alors certes, l’objectif est de skier vite, mais les chutes à ski sont la cause la plus fréquente de blessures aux Jeux olympiques d’hiver. Avec la neige artificielle, les compétiteurs de saut à ski – et tous les autres skieurs qui tombent – atterrissent sur une surface plus dure, ce qui peut augmenter le risque de blessure.
Des hivers moins enneigés qu’avant
La météo peut toujours réserver des surprises, mais les tendances climatiques de long terme modifient ce à quoi on peut s’attendre d’un hiver typique.
Dans les Alpes, les températures ont augmenté d’environ 2 °C depuis la fin des années 1800, avant que le recours croissant aux énergies fossiles n’augmente les niveaux de gaz à effet de serre. À l’échelle mondiale, 2025 a été la troisième année la plus chaude jamais enregistrée, après 2024 et 2023.
Pour les régions montagneuses, ces conditions plus chaudes ont des conséquences. La neige fond plus tôt et plus fréquemment au milieu de l’hiver, en particulier pendant les redoux hivernaux, qui étaient autrefois rares. Des épisodes de fonte des neiges en plein hiver sont de plus en plus fréquents à haute altitude et plus tôt dans la saison. Dans le même temps, la limite des neiges, c’est-à-dire l’altitude à laquelle les précipitations passent de la neige à la pluie, remonte.
Mis bout à bout, cela signifie qu’il y a moins de neige naturelle, qu’elle tombe sur une surface plus réduite et qu’elle dure moins longtemps qu’avant.
À lire aussi : 1,5 °C en plus au thermomètre en 2024 : quelles leçons en tirer ?
Comment adapter l’entraînement des athlètes
Ces changements dans le paysage hivernal ont également transformé la manière dont les athlètes s’entraînent. Les sites d’entraînement traditionnels, tels que les glaciers autrefois utilisés pour le ski d’été, sont devenus peu fiables. En août 2025, le glacier de Hintertux, seul centre d’entraînement ouvert toute l’année en Autriche, a annoncé sa première fermeture temporaire.
Rosie Brennan poursuit :
« Il est de plus en plus difficile de planifier les lieux d’entraînement entre les compétitions. La fiabilité de l’enneigement n’est pas géniale dans de nombreux endroits. Nous devons souvent nous rendre à des altitudes plus élevées pour avoir plus de chances de trouver de la neige. »
L’entraînement en altitude peut être bénéfique, mais il concentre les athlètes dans un nombre restreint de sites d’entraînement, réduit les possibilités d’accès pour les jeunes athlètes en raison de l’éloignement et augmente les coûts pour les équipes nationales.
En Amérique du Nord, certains de ces glaciers, comme le glacier Haig au Canada ou le glacier Eagle en Alaska, ne sont accessibles que par hélicoptère. Lorsque les skieurs ne peuvent pas accéder à la neige, l’entraînement sur terre ferme avec des skis à roulettes est l’une des seules options possibles.
Les athlètes voient le changement climatique en temps réel
Comme les terrains hivernaux sont leur lieu de travail, ces athlètes remarquent souvent les changements avant que ceux-ci n’apparaissent dans les statistiques climatiques de long terme.
Même les skieurs professionnels âgés d’une vingtaine d’années, comme Jack Young, ont déclaré avoir remarqué l’expansion rapide des infrastructures d’enneigement artificiel sur de nombreux sites de compétition au cours des dernières années. La fabrication de neige artificielle nécessite d’importantes quantités d’énergie et d’eau. Elle est également le signe évident que les organisateurs considèrent que les hivers sont de moins en moins fiables.
Les athlètes sont aussi témoins des répercussions concrètes sur l’économie locale lorsque les mauvaises conditions d’enneigement entraînent une baisse de la fréquentation. Le skieur de fond Ben Ogden, âgé de 25 ans, précise :
« Dans les Alpes, lorsque les conditions sont mauvaises, on voit clairement à quel point cela affecte les communautés. Leurs moyens de subsistance, qui dépendent du tourisme, sont souvent affectés négativement, et leur qualité de vie s’en trouve modifiée. »
De nombreux athlètes pratiquant des sports d’hiver expriment publiquement leurs inquiétudes. Des groupes tels que Protect Our Winters, fondé par le snowboardeur professionnel Jeremy Jones, œuvrent pour faire avancer les politiques qui protègent les espaces extérieurs pour les générations futures.
Pour les athlètes des Jeux olympiques de 2026, la variabilité des conditions au sein de la région olympique (neige en altitude, pluie en basse altitude) reflète une réalité plus large : la stabilité des conditions hivernales diminue.
Les athlètes le savent mieux que quiconque. Leurs compétitions se déroulent en montagne. Ils s’y entraînent. Ils en dépendent.
Les Jeux d’hiver se dérouleront encore cette année. La neige sera belle sur les écrans de télévision. Mais n’oublions pas que, hors champ, les hivers sont en train de changer.
Keith Musselman a reçu des financements de la National Science Foundation américaine. Il est membre de la Science Alliance pour l'organisation à but non lucratif Protect Our Winters.
Agnes Macy a reçu des financements de la National Science Foundation américaine.
05.02.2026 à 16:33
Urbanisme écologique : de la nature en ville à la ville régénérative
Texte intégral (2141 mots)
Suffit-il de planter quelques arbres dans une rue pour rendre une ville du XXIᵉ siècle plaisante, vivable et durable ? En auscultant les processus en cours, les réflexions menées pour que la ville soit habitable pour les humains comme pour la biodiversité, le Groupe sur l’urbanisme écologique différencie trois approches : celle de la nature en ville, celle de l’urbanisme écologique et celle de l’urbanisme régénératif.
Si l’architecture est bien l’art de la conception des bâtiments, l’urbanisme est celui de l’organisation et de l’aménagement des espaces urbanisés. Car il s’agit bien d’un art que de mettre en musique une multitude de sciences, techniques, designs, savoirs locaux et expertises. L’objectif final n’est aujourd’hui plus seulement de planifier un espace à partir de dimension sociale et économique mais aussi écologique.
Cette ultime ambition a été avant tout hygiéniste et environnementaliste au cours du XXᵉ siècle : il s’agissait de réduire les pollutions et les impacts négatifs des activités humaines sur la santé et le bien-être des citadins. Les notions de durabilité puis de résilience et de sobriété ont ensuite rebattu les cartes des stratégies et des méthodes à mettre en œuvre, tout au moins dans les discours.
De la nature en ville à la biodiversité urbaine
À côté de réflexions sur la mobilité, l’énergie, la gestion des déchets, etc., une première étape d’une approche écologique est d’intégrer de la végétation dans la ville pour les multiples services qu’elle « rend » aux citadins : rafraîchissement de l’air, régulation des pollutions, ambiance, par exemple. C’est ainsi que des milliers d’arbres sont en cours de plantation dans les grandes villes pour limiter les îlots de chaleur.
Cependant, aussi indispensables que soient ces objectifs de végétalisation et de réduction des impacts, cette stratégie conforte une compréhension simplifiée des systèmes urbains et une gestion par les services compétents « en silo ». Dans les collectivités, seul le service des parcs et jardins ou bien celui de la voirie sont impliqués dans la végétalisation de l’espace public et la plupart du temps, leur action se concentre sur un site, un quartier ou une rue avec un type classique et récurrent de végétation, par exemple les plantations d’une seule espèce d’arbres pour les alignements des boulevards.
Cette vision ne permet pas une durabilité, car, d’une part, ces monocultures sont fragiles face aux accidents climatiques ou sanitaires, comme l’arrivée d’un pathogène, qui peuvent entraîner la mortalité de l’ensemble de la plantation monospécifique et, d’autre part, la vision d’une organisation globale manque généralement.
Une approche plus fonctionnelle semble alors indispensable. Si l’on se concentre toujours sur la biodiversité, il ne s’agit en effet plus seulement de végétaliser mais plutôt de favoriser une biodiversité, avec diverses espèces de végétaux qui vont interagir entre eux et permettre l’installation et le maintien d’une faune et d’une flore spontanée. On ne plante pas seulement des espèces efficaces, par exemple les platanes pour l’ombrage des boulevards, on essaie de prendre soin du sol et de choisir des espèces diversifiées pour limiter les maladies et multiplier les bénéfices pour la société. Cette étape est celle de l’urbanisme écologique qui tente aussi de repenser la conception et l’aménagement urbain en encourageant la création de quartiers verts, le développement des transports doux, l’utilisation de matériaux durables et locaux pour la construction, le souci de l’eau, l’amélioration de la qualité de l’air, le renforcement de la biodiversité.
Vers un urbanisme régénératif
Mais il est possible d’aller encore plus loin.
Alors que l’urbanisme écologique cible surtout l’adaptation et la limitation des impacts négatifs, l’urbanisme régénératif vise à restaurer le fonctionnement des écosystèmes et des processus écologiques. Il sort ainsi de l’anthropocentrisme et prend en compte la complexité des jeux d’échelles du fonctionnement du système ville-nature. Au-delà de cibler des impacts positifs pour la société humaine, il met en lumière aussi les impacts positifs pour toutes les autres espèces.
Ainsi développer une biodiversité est bien inscrit dans l’urbanisme écologique mais en général, les processus écologiques ne sont pas pris en compte à l’échelle globale, notamment les continuités écologiques indispensables aux dispersions des espèces. La fragmentation par les rues et les bâtiments limitent la dispersion des espèces pour atteindre des habitats urbains comme les parcs et les jardins. Il faut alors de véritables « corridors » qui relient les différents habitats, comme, par exemple, des haies qui relient deux forêts pour une faune et une flore forestière. Ainsi un urbanisme régénératif vise notamment à reconnecter ville et campagne, et pas seulement par des trames vertes et bleues mais aussi en considérant la quantité et la qualité de tous les habitats pour que l’ensemble du système s’autoentretienne.
Tout projet implique alors d’intégrer dès sa conception le vivant humain et non humain. Il prend aussi en considération l’héritage de milieux abîmés. L’objectif est une ville non seulement durable mais aussi autogérée, multifonctionnelle, thermiquement vivable, neutre en carbone, biodiversitaire, inventant une nouvelle démocratie et une nouvelle économie.
Des travaux récents ont formalisé cette démarche d’abord dans des pays anglo-saxons, comme le Canada et l’Australie, puis récemment en France. Aujourd’hui, le concept attire l’attention de projets urbains qui essaient d’adhérer aux définitions contemporaines de la conception régénérative : cibler un impact net positif et mutuellement bénéfique pour la nature comme pour la société en vue d’améliorer les conditions d’habitabilité.
Cela implique des projets qui, d’un côté, minimisent leurs impacts négatifs (moins d’énergie consommée, moins d’émissions de gaz à effet de serre, moins de destruction des habitats naturels, etc.) et, d’un autre côté, maximisent des impacts positifs pour les humains en créant des offres d’habitat accessibles et abordables, en réduisant les inégalités sociales, en assurant l’accès aux services urbains, etc., mais aussi pour les autres espèces vivantes en dépolluant des zones, en récréant des habitats, en favorisant leur déplacement, etc. Pour ce faire, l’urbanisme régénératif s’appuie non seulement sur une qualité des diagnostics, mais aussi sur une conception participative ancrée sur le site, pour orienter la création d’un projet adaptable et évolutif dans le temps.
L’exemple de Blatchford, au Canada
Un bel exemple en est le projet de réaménagement du quartier de Blatchford, à Edmonton, dans l’Alberta (Canada). Conçu en 2013, ce projet a tâché de requalifier 217 hectares de fonciers appartenant à l’ancien aéroport de la ville. Pour aboutir au schéma directeur adopté, qui réintègre des écosystèmes naturels, qui s’appuie uniquement sur des énergies renouvelables, qui est neutre en carbone, et qui réduit considérablement son empreinte écologique, une phase de diagnostic socio-écologique à la large échelle a été primordiale.
Le diagnostic a couvert plusieurs volets comme les aspects environnemental et écologique du site : zones polluées et types de pollution, espèces clés de l’écosystème et leurs dynamiques de déplacement et migratoires, potentiel de production d’énergie renouvelable, perméabilité du sol, régime pluviométrique, etc. Ils ont pris en compte également les aspects socio-économiques : installation de commerces, demande de logement à l’échelle de la ville, situation socio-économique du quartier, etc. Ces résultats ont été croisés et ont permis aux équipes d’identifier et prioriser les interventions pour aboutir aux impacts positifs pour la nature et la société.
Le terrain, qui était presque complètement artificialisé, a fait l’objet de plusieurs aménagements paysagers qui ont notamment créé une diversité d’habitats pour la faune et la flore (30 % de sa surface en espace à caractère naturel). Un des points centraux a été la gestion des eaux de pluie principalement par des solutions fondées sur la nature comme des jardins de pluie qui retiennent et infiltrent les eaux de pluie ou des fossés végétalisés.
D’indispensables adhésions et actions citoyennes
Régénérer implique un processus d’évolution d’un système socio-écologique pour qu’il atteigne de meilleures conditions de santé. Régénérer, c’est non seulement prendre au milieu mais lui rendre encore plus comme préconisé par le philosophe Michel Serres dans le Contrat naturel (1990). Cela pour éviter que l’être humain soit un parasite qui finit par détruire son hôte. Cette reconnaissance des imbrications est désormais promue dans certaines politiques publiques.
Mais face aux adaptations et anticipations d’envergure à opérer, les oppositions, les dénis et les marches arrière se multiplient. Il est décisif de susciter des adhésions citoyennes qui sont des conditions cruciales pour cultiver des écologies régénératrices. Et éviter que l’écologie ne dérive vers le réglementaire et le techno-solutionnisme.
Cela exige d’organiser des processus participatifs et coopératifs aux différents stades des transformations des milieux habités. Les visions partagées, les terrains d’entente ne vont pas de soi mais s’inscrivent dans une suite de débats, conflits, concertations et médiations quant aux héritages, valeurs et intentionnalités en jeu. Le défi est désormais d’instaurer la fabrique collective de cohabitations vivifiantes.
Philippe Clergeau est animateur du Groupe sur l’Urbanisme Ecologique
Chris Younes et Eduardo Blanco ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.