LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

09.04.2025 à 15:04

L’incendie du centre de tri à Paris, symbole de l’envers des déchets ?

Maxence Mautray, Doctorant en sociologie de l’environnement, Université de Bordeaux

Les départs de feu dans les centres de tri sont malheureusement très fréquents et souvent causés par des erreurs humaines, possibles à divers stades du tri des déchets.
Texte intégral (1762 mots)

Les départs de feu dans les centres de tri sont malheureusement très fréquents et souvent causés par des erreurs humaines qui peuvent intervenir à différents stades de la gestion du tri, une activité qui rassemble de nombreux acteurs, ayant des objectifs parfois contradictoires.


Lundi 7 avril au soir, le centre de tri des déchets du XVIIe arrondissement de Paris s’est embrasé, provoquant la stupeur des riverains. Le feu, maîtrisé durant la nuit grâce à l’intervention de 180 pompiers, n’a fait aucun blessé parmi les 31 salariés présents, l’alarme incendie s’étant déclenchée immédiatement.

Si aucune toxicité n’a pour l’heure été détectée dans le panache de fumée émanant du site, l’incident a eu des conséquences pour les habitants : une portion du périphérique a dû être fermée à la circulation et un confinement a été décrété pour les zones à proximité. Le bâtiment, géré par le Syctom (le syndicat des déchets d’Île-de-France), s’est finalement effondré dans la matinée du mardi 8 avril.

Mais comment un feu aussi impressionnant a-t-il pu se déclarer et durer toute une nuit en plein Paris ? Si les autorités n’ont pas encore explicité toute la chaîne causale entraînant l’incendie, elles ont cependant mentionné, lors notamment de la prise de parole du préfet de police de Paris Laurent Nuñez, la présence de bouteilles de gaz dans le centre de tri et l’explosion de certaines, ce qui a pu complexifier la gestion du feu par les pompiers, tout comme la présence de nombreuses matières combustibles tel que du papier et du carton dans ce centre de gestion de tri.

Une chose demeure elle certaine, un départ de feu dans un centre de tri n’est malheureusement pas une anomalie. De fait, si cet incendie, de par son ampleur et peut-être aussi les images virales des panaches de fumées devant la tour Eiffel, a rapidement suscité beaucoup d’émois et d’attention, à l’échelle de la France, ce genre d’événement est bien plus fréquent qu’on ne le pense.

Depuis 2010, 444 incendies

La base de données Analyse, recherche et information sur les accidents (Aria), produite par le Bureau d’analyse des risques et pollutions industriels (Barpi) nous éclaire à ce sujet.

Depuis 2010, 444 incendies ont été recensés en France sur des installations de traitement et d’élimination des déchets non dangereux (centres de tri, plateformes de compostage, centres d’enfouissement…).

À ces incendies s’ajoutent parfois des explosions, des rejets de matières dangereuses et des pollutions des espaces environnants et de l’air. L’origine humaine est souvent retenue comme la cause de ces catastrophes. Même si elles n’entraînent pas toujours des blessés, elles soulignent la fragilité structurelle de nombreuses infrastructures du secteur des déchets ménagers.

Au-delà de cet événement ponctuel, l’incendie de Paris soulève donc peut-être un problème plus profond. En effet, notre système de gestion des déchets implique une multiplicité d’acteurs (ménages, industriels, services publics…) et repose sur une organisation complexe où chaque maillon peut devenir une source d’erreur, conduisant potentiellement à la catastrophe.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Un métier dangereux et méconnu

De fait, pénétrer dans un centre de gestion de tri, comme il m’a été donné de le faire dans le cadre de mes recherches doctorales, c’est se confronter immédiatement aux risques quotidiens associés aux métiers de tri des déchets dans les centres.

Si l’on trouve dans ces centres des outils toujours plus perfectionnés, notamment pour réaliser le premier tri entrant, l’œil et la main humaine restent malgré tout toujours indispensables pour corriger les erreurs de la machine.

Ces métiers, bien qu’essentiels au fonctionnement des services publics des déchets, sont pourtant peu connus, malgré leur pénibilité et leurs risques associés. Les ouvriers, dont le métier consiste à retirer les déchets non admis des flux défilant sur des tapis roulants, sont exposés à des cadences élevées, des heures de travail étendues et des niveaux de bruits importants.

Ils sont aussi confrontés à de nombreux risques : des blessures dues à la répétition et la rapidité des gestes, mais aussi des coupures à cause d’objets parfois tranchants, voire des piqûres, car des seringues sont régulièrement présentes dans les intrants.

Des erreurs de tri persistantes

La majorité du travail des ouvriers de ces centres consiste ainsi à compenser les erreurs de tri réalisées par les ménages. Ce sont souvent des éléments qui relèvent d’autres filières de recyclage que celle des emballages ménagers et sont normalement collectés différemment : de la matière organique comme des branchages ou des restes alimentaires, des piles, des ampoules ou des objets électriques et électroniques, ou encore des déchets d’hygiène comme des mouchoirs et des lingettes.

Ces erreurs, qui devraient théoriquement entraîner des refus de collecte, ne sont pas toujours identifiées par les éboueurs lors de leurs tournées.

Derrière cette réalité, on trouve également les erreurs de citoyens, qui, dans leur majorité, font pourtant part de leur volonté de bien faire lorsqu’ils trient leurs déchets.

Mais cette intention de bien faire est mise à l’épreuve par plusieurs obstacles : le manque de clarté des pictogrammes sur les emballages, une connaissance nécessaire des matières à recycler, des règles mouvantes et une complexité technique croissante.

Ainsi, l’extension récente des consignes de tri, depuis le 1er janvier 2023, visant à simplifier le geste en permettant de jeter tous les types de plastiques dans la poubelle jaune, a paradoxalement alimenté la confusion. Certains usagers expliquent qu’ils hésitent désormais à recycler certains déchets, comme les emballages en plastique fin, par crainte de « contaminer » leur bac de recyclage, compromettant ainsi l’ensemble de la chaîne du recyclage.

Malgré ces précautions, les erreurs de tri persistent. À titre d’exemple, le Syndicat mixte intercommunal de collecte et de traitement des ordures ménagères (Smictom) des Pays de Vilaine comptait 32 % de déchets non recyclables dans les poubelles jaunes collectées sur son territoire en 2023. Après 20 000 vérifications de bacs jaunes effectuées en une année afin de mettre en place une communication adaptée à destination de la population, ce taux n’a chuté que de cinq points en 2024, signe que la sensibilisation seule ne suffit pas à réorienter durablement les pratiques des usagers.

Les défis de notre système complexe de gestion des déchets

Notre système de gestion des déchets comporte donc un paradoxe. D’un côté, les ménages ont depuis longtemps adopté le geste de tri au quotidien et s’efforcent de le réaliser de manière optimale, malgré des informations parfois peu claires et un besoin constant d’expertise sur les matières concernées. De l’autre, il n’est pas possible d’attendre un tri parfait et les centres de tri se retrouvent dans l’obligation de compenser les erreurs.

À cela s’ajoute une complexité supplémentaire qui réside dans les intérêts divergents des acteurs de la gestion des déchets en France.

Les producteurs et les grandes surfaces cherchent à mettre des quantités toujours plus importantes de produits sur le marché, afin de maximiser leurs profits, ce qui génère toujours plus de déchets à trier pour les consommateurs.

Les services publics chargés de la gestion des déchets sont aussi confrontés à une hausse constante des ordures à traiter, ce qui entre en tension avec la protection de l’environnement et de la santé des travailleurs. Enfin, les filières industrielles du recyclage, communément nommées REP, souhaitent pour leur part accueillir toujours plus de flux et de matières, dans une logique de rentabilité et de réponse à des objectifs croissants et des tensions logistiques complexes.

Dans un tel contexte, attendre une organisation fluide et parfaitement maîtrisée de la gestion des déchets relève de l’utopie. Chacun des maillons de la chaîne poursuit des objectifs parfois contradictoires, entre recherche de la rentabilité, contraintes opérationnelles, protection des humains et de l’environnement et attentes des citoyens. Si des initiatives émergent (simplification du tri, contrôle des infrastructures, sensibilisation des citoyens, innovations technologiques, etc.), elles peinent à harmoniser l’ensemble du système.

Dès lors, le risque d’incidents ne peut être totalement éliminé. L’incendie du centre parisien n’est donc pas une exception, mais bien le témoin d’un système qui, malgré les efforts, reste structurellement vulnérable. Loin de pouvoir atteindre le risque zéro, la gestion des déchets oscille en permanence entre prévention, adaptation et situation de crise.

The Conversation

Maxence Mautray a reçu, de 2020 à 2024, des financements de la part du ministère de l'Enseignement supérieur et de la Recherche et du SMICVAL Libournais Haute Gironde dans le cadre d'une recherche doctorale.

08.04.2025 à 16:33

Afrique : comment les drones de livraison pourraient transformer les prévisions météo

Jérémy Lavarenne, Research scientist, Cirad

Cheikh Modou Noreyni Fall, Chercheur au Laboratoire Physique de l'Atmosphère et de l'Océan de l'UCAD, Université Cheikh Anta Diop de Dakar

Alors que les données météo manquent cruellement en Afrique, une idée fait son chemin. Celle d’utiliser les drones, de plus en plus nombreux dans les ciels du continent pour livrer par exemple des médicaments.
Texte intégral (2131 mots)
Deux drones dans une zone rurale du Malawi, utilisés, dans le cadre de la coopération financée par l’Union européenne, pour dresser des cartes localisant les infrastructures et ressources vitales les plus proches, destinées à la population locale. Anouk Delafortrie (UE)/Flickr, CC BY

Alors que les données météo manquent cruellement en Afrique, une idée fait son chemin. Celle d’utiliser les drones, de plus en plus nombreux dans les ciels du continent pour livrer par exemple des médicaments. Car ces derniers peuvent fournir également de nombreuses données météo.


Un drone fend le ciel au-dessus des plaines ensoleillées d’Afrique de l’Ouest. Ses hélices vrombissent doucement dans l’air chaud de l’après-midi. Au sol, un agriculteur suit du regard l’appareil qui survole son champ, où ses cultures peinent à se développer, à cause d’un épisode de sécheresse. Comme la plupart des paysans de cette région, il ne peut compter que sur les précipitations, de plus en plus irrégulières et imprévisibles. Ce drone qui passe pourrait-il changer la donne ? Peut-être.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Une véritable explosion des drones de livraison en Afrique

Nés dans divers contextes civils et militaires (photographie, surveillance, cartographie…), les drones connaissent aujourd’hui une expansion fulgurante en Afrique, surtout pour la livraison de produits de première nécessité dans des zones difficiles d’accès. Parmi eux, la société états-unienne Zipline et les Allemands de Wingcopter sont particulièrement actifs au Rwanda, au Ghana, au Nigeria, au Kenya, en Côte d’Ivoire et au Malawi, où ils transportent du sang, des vaccins, des médicaments ou encore du matériel médical.

Mais ce que l’on sait moins, c’est que ces drones portent aussi en eux un potentiel météorologique : au fil de leurs livraisons, et afin de sécuriser les vols et planifier efficacement leur route, ils enregistrent des données sur la vitesse du vent, la température de l’air ou la pression atmosphérique.

Un manque criant de données météo

Pourquoi ces informations sont-elles si précieuses ? Parce qu’en matière de prévision météo, l’Afrique souffre d’un déficit majeur. Par exemple, alors que les États-Unis et l’Union européenne réunis (1,1 milliard d’habitants à eux deux) disposent de 636 radars météorologiques, l’Afrique – qui compte pourtant une population quasi équivalente de 1,2 milliard d’habitants – n’en possède que 37.

Les raisons derrière cela sont multiples : budgets publics en berne, manque de moyens techniques, mais aussi monétisation progressive des données, rendant l’accès à l’information plus difficile. La question du financement et du partage de ces données demeure pourtant cruciale et devient un enjeu majeur pour la sécurité alimentaire et la gestion des risques climatiques.


À lire aussi : Le paradoxe des données climatiques en Afrique de l’Ouest : plus que jamais urgentes mais de moins en moins accessibles


La « collecte opportuniste » de données météo

Dans ce contexte, chaque nouveau moyen de récupérer des informations est un atout. Or, si les drones de livraison africains ont d’abord été pensés pour desservir des lieux isolés, ils permettent aussi des relevés météo dits « opportunistes » effectués en marge de leurs missions, dans une logique comparable aux relevés « Mode-S EHS » transmis par les avions de ligne depuis des altitudes beaucoup plus importantes. Zipline affirme ainsi avoir déjà compilé plus d’un milliard de points de données météorologiques depuis 2017. Si ces relevés venaient à être librement partagés avec les agences de météo ou de climat, ils pourraient ainsi, grâce à leurs vols à basse altitude, combler les lacunes persistantes dans les réseaux d’observation au sol.

La question du partage reste toutefois ouverte. Les opérateurs de drones accepteront-ils de diffuser leurs données ? Seront-elles accessibles à tous, ou soumises à des accords commerciaux ? Selon la réponse, le potentiel bénéfice pour la communauté scientifique et pour les prévisions météorologiques locales pourrait varier considérablement.

Fourni par l'auteur

Les drones déjà destinés à la météo

L’idée d’utiliser des drones destinés aux observations météo n’est pas neuve et rassemble déjà une communauté très active composée de chercheurs et d’entreprises. Des aéronefs sans équipage spécifiquement conçus pour la météorologie (appelés WxUAS pour Weather Uncrewed Aircraft Systems) existent déjà, avec des constructeurs comme le Suisse Meteomatics ou l’états-unien Windborne qui proposent drones et ballons capables de fournir des relevés sur toute la hauteur de la troposphère. Leurs capteurs de pointe transmettent en temps réel des données qui nourrissent directement les systèmes de prévision.

Selon les conclusions d’un atelier organisé par Météo France, ces observations contribuent déjà à améliorer la qualité des prévisions, notamment en réduisant les biais de prévision sur l’humidité ou le vent, facteurs clés pour détecter orages et phénomènes connexes. Pourtant, les coûts élevés, l’autonomie limitée et les contraintes réglementaires freinent encore une utilisation large de ces drones spécialisés.

Or, les appareils de livraison déployés en Afrique ont déjà surmonté une partie de ces défis grâce à leur modèle économique en plein essor, à un espace aérien moins saturé et à une large acceptation sociale – car ils sauvent des vies.

Entretien avec Tony Segales, l’un des scientifiques chargés de la construction et de la conception de drones pour mesurer l’atmosphère et améliorer les prévisions au National Weather Center de Norman, Oklahoma.

Fiabilité des données : des défis mais un fort potentiel

Reste la question de la fiabilité. Même si les drones de livraison captent des variables essentielles (vent, température, pression…), on ne peut les intégrer aux systèmes de prévision qu’à condition de valider et d’étalonner correctement les capteurs. Mais avec des protocoles rigoureux de comparaison et de calibration, ces « données opportunistes » pourraient répondre aux exigences de la météo opérationnelle et devenir un pilier inédit de la surveillance atmosphérique.

Leur utilisation serait d’autant plus précieuse dans les zones rurales, en première ligne face au changement climatique. Là où les stations au sol manquent ou vieillissent, les survols réguliers des drones pourraient fournir des relevés indispensables pour anticiper épisodes secs, orages violents ou autres phénomènes météo extrêmes.


À lire aussi : VIH : et si les drones servaient aussi à sauver des vies ?


L’essor d’initiatives locales

Parallèlement, des initiatives émergent pour démocratiser l’accès à la technologie drone. Au Malawi, par exemple, des projets universitaires (dont EcoSoar et African Drone and Data Academy) montrent que l’on peut construire à bas coût des drones de livraison efficaces à partir de matériaux simples (mousse, pièces imprimées en 3D). Cette démarche ouvre la voie à une potentielle collecte de données météo supplémentaires, accessible à des communautés qui souhaitent mieux comprendre et anticiper les aléas climatiques.

Coopération internationale et perspectives

À une échelle plus large, l’Organisation météorologique mondiale (OMM) mène la campagne Uncrewed Aircraft Systems Demonstration Campaign (UAS-DC), réunissant des opérateurs publics et privés autour d’un même objectif : intégrer les drones dans le réseau mondial d’observation météorologique et hydrologique. Les discussions portent sur la définition des mesures fondamentales (température, pression, vitesse du vent, etc.), et l’harmonisation des formats de données et sur leur diffusion pour que ces mesures soient immédiatement utiles aux systèmes de prévision.

Cependant, ces perspectives ne deviendront réalité qu’au prix d’une coopération poussée. Entre acteurs publics, opérateurs de drones et gouvernements, il faudra coordonner la gestion, la standardisation et, surtout, le partage des informations. Assurer un libre accès – au moins pour des organismes à but non lucratif et des communautés rurales – pourrait transformer ces données en un levier majeur pour la prévision et la résilience climatiques.

Qu’ils soient opérés par de grandes sociétés ou construits localement à moindre coût et s’ils continuent d’essaimer leurs services et de collecter des relevés, les drones de livraison africains pourraient bien inaugurer une nouvelle ère de la météorologie sur le continent : plus riche, plus précise et, espérons-le, plus solidaire – grâce à des modèles économiques soutenables, à l’utilisation déjà effective de données météo embarquées et à la créativité citoyenne qui émerge un peu partout.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

07.04.2025 à 16:56

Plus de trace de l’objectif « zéro artificialisation nette » ?

Brian Padilla, écologue, recherche-expertise "biodiversité et processus d'artificialisation", Muséum national d’histoire naturelle (MNHN)

Fanny Guillet, sociologue, chargée de recherche au CNRS, Muséum national d’histoire naturelle (MNHN)

Julien Siracusa-Philippe, Chargé de projet "Évaluation scientifique des politiques publiques de neutralité écologique"

Maylis Desrousseaux, Maîtresse de conférences en Urbanisme, Université Paris-Est Créteil Val de Marne (UPEC)

La proposition de loi Trace en cours de discussion au Parlement diminue fortement l’objectif « zéro artificialisation nette », fixés en 2021. Mais quels étaient ces objectifs et en quoi sont-ils menacés ?
Texte intégral (2528 mots)
Un village dans les Alpes-Maritimes. Dans ce département, 35,35 % du littoral est artificialisé, ce qui en fait l’un des taux les plus élevés de France. Kemal Mercan/Shutterstock

La proposition de loi Trace (Trajectoire de réduction de l’artificialisation concertée avec les élus), en cours de discussion au Parlement, diminue fortement les objectifs de « zéro artificialisation nette » (ZAN), fixés en 2021. Mais quels étaient ces objectifs et en quoi sont-ils menacés ?


Chaque année, la France hexagonale voit en moyenne 200 km2 d’espaces naturels, agricoles ou forestiers disparaître. C’est l’équivalent de 20 000 terrains de football qui sont ainsi artificialisés. Dans les deux tiers des cas, ces espaces sont dévolus à la construction de nouveaux logements, souvent loin des métropoles, dans des zones à faible croissance démographique. Plus frappant encore, un quart de cette artificialisation concerne des communes qui perdent des habitants.

Ces chiffres sont préoccupants, alors que de nombreux travaux scientifiques soulignent le rôle de l’artificialisation des sols dans les crises écologiques actuelles. La fragmentation et la disparition d’espaces naturels figurent de fait parmi les principales causes de l’effondrement de la biodiversité. La diminution de la capacité des sols à stocker le CO2 – voire la transformation de ces derniers en sources d’émission lorsqu’ils sont dégradés – accentue les dérèglements climatiques. L’imperméabilisation des sols favorise, elle, le ruissellement de surface, amplifiant la pollution des cours d’eau et les risques d’inondations.

Les récentes crues dévastatrices dans les Hauts-de-France au cours de l’hiver 2023-2024 ou encore les inondations survenues en octobre 2024 dans le centre et le sud de la France sont les derniers témoins des conséquences directes de l’artificialisation et de l’altération des fonctions écologiques des sols.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le ZAN : une ambition environnementale reléguée au second plan

Pour enrayer l’effondrement de la biodiversité et amorcer une stratégie nationale de préservation des sols, la France s’est fixé un objectif ambitieux dans la loi Climat et résilience (2021) : « zéro artificialisation nette » (ZAN) en 2050. Construit en 2 étapes, cet objectif vise dans un premier temps à réduire de moitié la consommation d’espaces naturels, agricoles et forestiers (Enaf) sur la période allant de 2021 à 2031 par rapport à la décennie précédente, puis, d’ici à 2050, de prendre les dispositions nécessaires pour qu’à l’échelle nationale, un hectare soit « désartificialisé » pour chaque hectare artificialisé.

Initialement pensé comme une politique environnementale ambitieuse, le ZAN a néanmoins suscité de nombreux débats autour de sa mise en œuvre et sur la répartition des « enveloppes » d’artificialisation. Son déploiement territorial, censé permettre aux régions d’organiser la réduction de la consommation d’Enaf, s’est transformé en un exercice comptable. Plutôt que de s’intéresser à évaluer les conséquences des choix d’aménagement sur le fonctionnement des écosystèmes composant leurs territoires, les représentants des collectivités se sont en effet opposés aux méthodes retenues pour compter les mètres carrés artificialisés.

Les autorités environnementales, chargées de rendre des avis publics sur les études d’impacts des projets, plans et programmes, rappellent pourtant dans leurs avis successifs et leurs rapports annuels que le ZAN ne se limite pas à un simple contrôle des surfaces artificialisées : il implique aussi d’évaluer l’impact des projets sur les fonctions écologiques des sols.

Malgré ces rappels, face à la pression des associations d’élus, le Sénat a déjà assoupli le dispositif, en 2023, avec la loi ZAN 2, qui repousse le calendrier de mise en œuvre et offre à de nombreuses communes la garantie de pouvoir consommer à hauteur d’un hectare d’Enaf, sans prendre la peine de discuter des besoins en matière d’aménagement et des alternatives à explorer.


À lire aussi : Objectif ZAN : comment tenir les comptes ?


La loi Trace : assouplissement ou déconstruction du ZAN ?

Avec la proposition de loi Trace (Trajectoire pour une réduction de l’artificialisation concertée avec les élus) – adoptée par le Sénat, le 18 mars dernier, et dans l’attente d’un examen à l’Assemblée nationale, l’objectif ZAN risque une nouvelle fois d’être profondément fragilisé. Présentée comme un simple assouplissement, cette réforme remet en cause des avancées de la loi Climat et résilience. Elle retourne par exemple, à une définition comptable de l’artificialisation, fondée uniquement sur la consommation d’Enaf et supprime celle de la loi Climat et résilience qui la qualifiait comme une « altération durable de tout ou partie des fonctions écologiques des sols ».

Cette dernière définition s’approchait pourtant des constats issus des travaux en écologie, selon lesquels l’intensification des usages de l’espace participe aux impacts sur le bon fonctionnement des écosystèmes.

Ces quatre photographies illustrent des niveaux d’artificialisation croissants. Des espaces verts urbains régulièrement tondus ou des espaces agricoles intensifs participent à l’altération des fonctions écologique des sols
Ces quatre photographies illustrent des niveaux d’artificialisation croissants. Des espaces verts urbains régulièrement tondus ou des espaces agricoles intensifs participent à l’altération des fonctions écologique des sols. Images : Pixabay/Pexels/Wikimedia, Fourni par l'auteur

De fait, la suppression de cette définition suppose qu’un sol peut être interchangeable avec un autre tant que son usage reste naturel, agricole ou forestier, ignorant ainsi tous les processus écologiques qui conduisent à la création, à l’évolution et à la santé d’un sol.

En choisissant de prendre en compte uniquement la consommation d’Enaf, la proposition de loi laisse aussi de côté le principal outil qui permettait de mesurer, à une échelle fine, les changements d’usage et d’occupation des sols. Les données d’occupation du sol à grande échelle (OCS GE), produites par l’IGN pour comptabiliser l’artificialisation permettaient en effet de suivre l’artificialisation causée par les politiques de planification de l’urbanisme.

Le calcul de la consommation d’Enaf se base sur les parcelles cadastrales et les fichiers fonciers, tandis que les données de l’OCS GE sont spatialement plus précises. Les espaces considérés comme artificialisés sont très différents selon la méthode reten
Le calcul de la consommation d’Enaf se base sur les parcelles cadastrales et les fichiers fonciers, tandis que les données de l’OCS GE sont spatialement plus précises. Les espaces considérés comme artificialisés sont très différents selon la méthode retenue. Graphique réalisé à partir d'une orthophotographie de la BD TOPO V3, des données cadastrales du Plan Cadastral Informatisé et des données de l'OCS GE, Fourni par l'auteur

Autre recul significatif : le report à 2034 de l’objectif intermédiaire de réduction de l’artificialisation, dont l’ambition sera désormais fixée par les régions. Ce décalage enterre l’idée d’une transition immédiate vers une sobriété foncière, pourtant essentielle pour repenser nos besoins en aménagement, alors même que de nombreux élus ont déjà commencé à intégrer ces objectifs (c’est le cas par exemple de la Région Bretagne ou encore du schéma de cohérence territoriale (Scot) de Gascogne).

S’y ajoute par ailleurs une disposition visant à accorder un droit à artificialiser de 0,5 ha en cas de requalification d’un hectare de friche. Autrement dit, lorsqu’une collectivité s’emploiera à aménager sur 4 ha d’espaces délaissés, elle sera autorisée à détruire par ailleurs 2 ha supplémentaires d’Enaf.

Enfin, l’exclusion des projets d’envergure nationale ou européenne du calcul de l’artificialisation marque un autre tournant préoccupant. Ces grands projets, dont la liste ne cesse de s’allonger, sont supposés permettre de concilier le développement économique et la transition écologique. Y figurent pourtant de nombreux projets routiers, des établissements pénitentiaires et des zones d’activité. Le législateur choisirait ainsi d’exonérer l’État des contraintes du ZAN, opposant de fait sa politique de réindustrialisation aux impératifs de préservation de l’environnement.

En quelques articles seulement, la proposition de loi Trace transforme ainsi l’objectif ZAN en un catalogue d’exceptions, autorisant la destruction et la fragmentation des espaces naturels sans réelle évaluation de leurs fonctions écologiques. Il ne reste, de fait, plus grand-chose des ambitions initiales d’une loi qui voulait donner un élan nouveau à une politique de régulation de l’aménagement qui peine à porter ses fruits depuis vingt-cinq ans.

Quelques semaines après l’annulation par le tribunal administratif de Toulouse du projet d’autoroute A69 – qui devait artificialiser 366 hectares de sols et dont les travaux ont déjà causé la destruction de nombreux espaces naturels, cette nouvelle proposition de loi illustre les tensions croissantes entre, d’un côté, les mobilisations citoyennes contestant les grands projets d’aménagement consommateurs de foncier et, de l’autre, une volonté politique de simplification, qui semble aller à rebours des engagements environnementaux annoncés dans la stratégie nationale Biodiversité 2030.

En cherchant à détricoter les principes du ZAN, la loi Trace pose donc une question fondamentale : voulons-nous réellement engager la transition, ou préférons-nous maintenir un modèle dépassé, aux dépens de l’environnement dont nous dépendons ?

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

06.04.2025 à 17:33

Climat et agriculture : pour éviter le risque de surchauffe, le levier du méthane

Marc Delepouve, Chercheur associé au CNAM, Docteur en épistémologie, histoire des sciences et des techniques, Conservatoire national des arts et métiers (CNAM)

Bertrand Bocquet, Professeur des Universités, Physique & Science, Technologie et Société, Université de Lille

En éliminant les énergies fossiles, on réduit les émissions de gaz à effet de serre… mais également de dioxydes de soufre à l’effet refroidissant. Comment éviter toute surchauffe transitoire ?
Texte intégral (2629 mots)

Limiter l’utilisation des énergies fossiles doit permettre de lutter contre le réchauffement climatique. Or, à court terme, il faut aussi prendre en compte l’autre conséquence de la décarbonisation de l’économie : la baisse des émissions de dioxydes de soufre, qui ont, au contraire, un effet refroidissant sur la planète. Pour pallier le risque de surchauffe transitoire, il existerait pourtant un levier précieux : réduire les émissions de méthane liées à l’agriculture.


L’agriculture est sous tension. Aujourd’hui source de problèmes écologiques, sanitaires, sociaux et même éthiques du fait des enjeux de souffrance animale, elle pourrait se situer demain du côté des solutions. Elle pourrait constituer le principal levier pour répondre au risque d’un épisode de surchauffe du climat.

La réduction de l’utilisation des énergies fossiles, rendue nécessaire pour l’atténuation du changement climatique, porte en effet un tel risque. Le recours aux énergies fossiles (charbon, pétrole, gaz naturel…) provoque des émissions de dioxyde de carbone (CO2), dont l’effet de serre réchauffe le climat. Mais la combustion d’un grand nombre de ces produits fossiles s’accompagne de l’émission de dioxyde de soufre (SO2) qui possède un effet refroidissant sur le climat et génère des aérosols qui ont eux aussi un effet refroidissant.

Au plan global, l’impact du CO2 en termes de réchauffement est plus fort que le pouvoir refroidissant du SO2 et constitue la première cause du changement climatique. Se passer des énergies fossiles, ce que nous nommerons dans cet article défossilisation de l’énergie, est donc au cœur des stratégies d’atténuation du changement climatique.

Le problème, c’est que les effets sur le climat d’une baisse des émissions de CO2 mettent du temps à se faire sentir du fait de la durée de vie élevée du CO₂ dans l’atmosphère. En comparaison, les effets d’une chute des émissions de SO2 sont quasiment immédiats, la durée de vie de ce gaz n’étant que de quelques jours dans la troposphère et de quelques semaines dans la stratosphère.

Si elles ne prennent en compte ces différences de temporalité, les stratégies d’atténuation pourraient conduire à un épisode de surchauffe momentané du climat. Les rapports du GIEC ont notamment exploré ces incertitudes : à l’issue d’un arrêt rapide des fossiles, l’effet réchauffant lié à la fin des émissions de SO2 se situerait très probablement dans la fourchette de 0,11 °C à 0,68 °C.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Afin de répondre à ce risque, certains promeuvent des solutions de géo-ingénierie, dont certaines sont porteuses de risques environnementaux majeurs. Pourtant, une solution simple qui ne présente pas de tels risques existe.

Elle repose en premier lieu sur la diminution rapide des émissions anthropiques de méthane, tout d’abord celles issues de l’agriculture, du fait de l’élevage de bétail notamment. Cette option est politiquement sensible, car elle nécessite l’appropriation de ces enjeux et la mobilisation du monde agricole et des consommateurs.

Pour ce faire, il est essentiel que des recherches ouvertes soient menées avec et pour la société.


À lire aussi : Climat : derrière les objectifs chiffrés, une édulcoration des connaissances scientifiques ?


De la surchauffe à l’emballement

Revenons d’abord sur l’effet refroidissant des émissions de SO2 émis par les énergies fossiles. Cet effet sur le climat résulte de l’albédo du SO2, c’est-à-dire du pouvoir réfléchissant du SO2 pour le rayonnement solaire. Cet albédo intervient à trois niveaux :

  • tout d’abord, directement par le SO2 lui-même,

  • ensuite, par l’intermédiaire de l’albédo des aérosols que génère le SO2,

  • enfin, ces aérosols agissent sur le système nuageux et en augmentent l’albédo. En leur présence les nuages sont plus brillants et réfléchissent plus de rayonnement solaire vers l’espace.


À lire aussi : Moins d’aérosols de soufre, moins d’éclairs : les effets surprenants d’une réglementation maritime


Ce n’est pas tout. Au risque d’un épisode de surchauffe dû à la baisse des émissions de SO2, s’ajoute celui d’une amplification du réchauffement par des phénomènes laissés sur le côté par les modèles climatiques et les scénarios habituels. Par exemple, des hydrates de méthane des fonds marins pourraient mener à des émissions subites de méthane. Autre exemple, sous les glaciers polaires, des populations de micro-organismes émetteurs de méthane ou de dioxyde de carbone pourraient se développer massivement du fait de la fonte des glaces.

La question prend une nouvelle importance : depuis 2024, l’ampleur du réchauffement se situe au-dessus de la fourchette probable prévue par le GIEC. La température moyenne de l’année 2024 a dépassé de plus de 1,5 °C le niveau de référence de l’ère préindustrielle. Pour le mois de janvier 2025, ce dépassement est de 1,75 °C, et de 1,59 °C en février, malgré le retour du phénomène climatique La Niña qui s’accompagne généralement d’un refroidissement temporaire des températures.

S’agit-il d’une tendance de fond ou seulement d’un écart passager ? À ce jour, il n’existe pas de réponse à cette question qui fasse l’objet d’un consensus entre les climatologues.

Réduire les émissions de méthane, une carte à jouer

Réduire rapidement les émissions de méthane d’origine humaine permettrait de limiter considérablement le risque d’épisodes de surchauffe, et ceci sans occasionner d’autres risques environnementaux.

Le méthane est, à l’heure actuelle, responsable d’un réchauffement situé dans une fourchette de 0,3 °C à 0,8 °C, supérieure à celle du SO2. Quant à la durée médiane de vie du méthane dans l’atmosphère, elle est légèrement supérieure à dix ans.

Dix ans, c’est peu par rapport au CO2, mais c’est beaucoup plus que le SO2 et ses aérosols. Autrement dit, réduire les émissions de méthane permettrait de limiter le réchauffement à moyen terme, ce qui pourrait compenser la surchauffe liée à l’arrêt des émissions de SO2.

Durée de vie médiane de plusieurs composés chimiques dans l'atmosphère. Fourni par l'auteur

Mais pour cela, il faut qu’il existe une réelle stratégie d’anticipation, c’est-à-dire une réduction des émissions de méthane d’origine humaine qui surviennent de façon plus rapide que la défossilisation de l’énergie (baisse des émissions de CO2), sans pour autant affaiblir les ambitions relatives à cette dernière.

Où placer les priorités ? À l’échelle mondiale, les émissions anthropiques de méthane sont issues :

  • à hauteur d’environ 40 %, d’activités agricoles (rizières en surface inondée, élevage de ruminants…),

  • à 35 %, de fuites liées à l’exploitation des énergies fossiles,

  • et pour environ 20 %, de déchets (fumiers, décharges, traitement des eaux…).

On peut donc considérer que 35 % des émissions s’éteindraient avec la défossilisation. D’ici là, il est donc urgent de réduire les fuites de méthane liées à l’exploitation des énergies fossiles tant que celle-ci n’est pas totalement abandonnée.

Mais comme ce levier ne porte que sur un bon tiers des émissions de méthane, il reste prudent de miser sur l’agriculture, l’alimentation et la gestion des déchets.

Favoriser l’appropriation locale

Réduire les émissions de méthane de l’agriculture peut, par exemple, passer par une modification des régimes alimentaires des ruminants, par le recours à des races moins émettrices de méthane, par l’allongement du nombre d’années de production des ruminants, par des changements dans le mode de culture du riz, ou par la récupération du méthane issu de la fermentation des fumiers. Il existe une grande diversité de procédés techniques pour réduire les émissions de méthane d’origine agricole.

Ces procédés sont le plus souvent à mettre au point ou à perfectionner et restent à développer à l’échelle internationale. Ils requièrent des innovations techniques, une adaptation des marchés et une appropriation par les agriculteurs. Leur déploiement ne peut suffire et ne pourra être assez rapide pour répondre à l’urgence qu’il y a à diminuer drastiquement les émissions de méthane. La question de la réduction de certaines productions agricoles et de certaines consommations alimentaires se pose donc.

Réduire de façon conséquente la consommation de viande de ruminants, de produits laitiers et de riz est possible… si les comportements de consommation individuels suivent. Cela exige une forme de solidarité mais aussi des décisions politiques fortes. Cela passe par une appropriation pleine et entière des enjeux climatiques par les agriculteurs, par les consommateurs et par l’ensemble des parties prenantes des questions agricoles et alimentaires.

La dimension locale serait une voie pertinente pour mettre en œuvre des solutions. À cet égard, les GREC (groupes régionaux d’experts sur le climat) pourraient jouer un rôle majeur.

Nous avons notamment identifié deux leviers : la dimension de forum hybride de la démocratie technique (espace d’échanges croisés entre savoirs experts et savoirs profanes), qui peut être prolongée par une dimension de recherche-action-participative (RAP).

Au niveau régional, ils permettraient de mettre en débat les connaissances scientifiques en matière de changement climatique, comme ce cas a priori contre intuitif de surchauffe planétaire liée à la défossilisation. Ils pourraient contribuer à la définition de stratégies déclinées localement en solutions concrètes et nourrir des questionnements nécessitant un travail de recherche.

Les GREC pourraient ainsi impulser des démarches participatives de recherche et d’innovation et, par exemple, s’appuyer sur des dispositifs d’interface sciences-société (boutiques des sciences, tiers-lieux de recherche, fablab, hackerspace…). Pour cela, ils pourraient s’appuyer sur des approches RAP qui permettent de co-produire des savoirs avec des chercheurs, d’avoir une meilleure appropriation des résultats de recherche pour des applications concrètes et d’impliquer des citoyens et/ou des groupes concernés au travers de leur participation active à toutes les étapes du projet de recherche et de ses applications.

Par la création d’un réseau international, les GREC pourraient favoriser des synergies entre les actions locales et contribuer à définir et à renouveler les stratégies nationales et internationales, tout ceci, non par le haut comme de coutume, mais par le bas.

The Conversation

Bertrand Bocquet est membre du Réseau de recherche sur l'innovation (https://rri.univ-littoral.fr/)

Marc Delepouve ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

03.04.2025 à 17:48

Tant que l’écologie ne sera pas une urgence, il sera difficile de renoncer à nos modes de vie

Fabrice Raffin, Maître de Conférence à l'Université de Picardie Jules Verne et chercheur au laboratoire Habiter le Monde, Université de Picardie Jules Verne (UPJV)

Nous n’avons jamais été aussi nombreux dans le monde à connaître un niveau de confort et de liberté aussi élevé. La menace qui pèse sur l’environnement nous poussera-t-elle à y renoncer ?
Texte intégral (1543 mots)

Nous n’avons jamais été aussi nombreux dans le monde à connaître un niveau de confort et de liberté aussi élevé. Ce mode de vie, même s’il nous émancipe, est malheureusement indissociable de la destruction de l’environnement. Faudra-t-il que celle-ci devienne une menace tangible pour nous pousser à renoncer à notre « petit confort » ? L’anthropologie permet d'éclairer cette question.


Lorsque j’entre dans la maison de René, ce matin de décembre 2022, dans le village de Beaucourt-en-Santerre, la température est bien plus proche de 25 °C que des 19 °C alors préconisés pour « économiser l’énergie ». René, retraité de la fonction publique, fait partie de ces humains modernes et puissants du XXIe siècle.

Il ne prend pas du tout au sérieux la menace du gouvernement de l’époque concernant les possibilités de rupture d’approvisionnement électrique : « on a des centrales nucléaires quand même ! »

Durant notre échange, René montre qu’il maîtrise la température de sa maison : sans effort, il repousse l’assaut du froid qui règne alors dehors.

« Je n’ai pas travaillé toute ma vie pour me geler chez moi_, déclare-t-il sûr de lui, les écolos, tout ça, ils nous emmerdent ».

Comment expliquer cette inaction pour le moins paradoxale ? La pensée du philosophe Henri Lefebvre est éclairante. Selon lui, l’humain doit éprouver un besoin pour agir, travailler et créer. Pour lui, le véritable besoin naît d’une épreuve, d’un problème qu’il faut régler nécessairement, ce serait même la seule façon d’engendrer une action humaine volontaire.

Ce phénomène pourrait expliquer pourquoi il est si difficile de traduire en actes

« l’urgence écologique ». Peut-on parler « d’urgence » lorsqu’il n’y a pas encore de réelle épreuve ?

Une menace pas assez pressante

La multiplication des tempêtes violentes, des inondations, la montée des océans, la fonte des glaciers, les sécheresses et les incendies, aussi réels et tangibles soient-ils, n’ont peut-être pas encore eu lieu à suffisamment large échelle pour marquer les routines quotidiennes à l’échelle d’un pays entier.

L’hypothèse est la suivante : dans les pays occidentaux, les aléas climatiques ne porteraient pas encore suffisamment à conséquences pour que se ressente un besoin d’agir généralisé.

Autrement dit, les souffrances engendrées par le changement climatique restent peut-être trop éloignées, trop localisées ou trop sporadiques. À peine éprouve-t-on collectivement un malaise au regard de la convergence des avertissements continus des militants écologistes et de la litanie des catastrophes à l’échelle planétaire, mais localisées sur de petits périmètres.

De plus, pour des dégâts locaux et éphémères, si forts soient-ils, les pays occidentaux sont assez équipés pour y remédier économiquement et techniquement, assez riches pour qu’ils ne remettent pas en cause l’organisation socio-économique globale.

Comme une fuite en avant, l’exploitation des ressources naturelles leur donne, la capacité de maîtriser les effets des catastrophes naturelles nées de l’exploitation des ressources naturelles. Jusqu’à où ?

Un consumérisme existentiel

Dès lors, faire évoluer notre mode de vie occidental demeure une option peu envisagée, d’autant plus que ce dernier est perçu comme la dimension la plus fondamentale, l’accomplissement le plus profond et caractéristique des Modernes que nous sommes.

Ce mode de vie couvre avec une efficacité inédite les besoins les plus essentiels que l’humanité a toujours cherché à combler : repousser les limites de la mort, les maladies, alléger le fardeau physique de l’existence dans la lutte pour satisfaire nos besoins biologiques et nous protéger contre un environnement hostile, etc.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


La recherche du confort matériel est, en cela tout à fait existentielle. Cet existentialisme n’a rien d’écologique. Les besoins de l’humain sont tout entiers tournés vers la production, la réalisation, l’acquisition d’objets, la consommation d’artefacts qui le libèrent. La source de cette prospérité matérielle étant fondée sur l’exploitation du monde vivant et minéral, les humains procrastineront tant que possible le changement d’équilibre de ce rapport à l’environnement.

Devant cette nécessité existentielle, pointer la responsabilité et la rationalité en mobilisant des arguments scientifiques n’a que peu d’effets. Surtout lorsque les appels sont maladroitement portés. Certains militants écologistes ou scientifiques sont ainsi perçus comme des prédicateurs, des prospectivistes ou des moralistes.

C’est qu’ils n’ont, selon moi, pas compris le primat anthropologique de la lutte contre l’environnement : notre mode de vie occidental comble, bien que de manière imparfaite, mais plus que jamais dans l’histoire, les besoins fondamentaux des humains.

Un combat perdu d’avance ?

Le risque est donc que les Modernes occidentaux se battent tant que possible pour le maintien de ce mode de vie, et ce jusqu’à épuisement des ressources.

Au regard de l’actualité depuis l’élection de Trump et l’invasion de l’Ukraine, il y a fort à parier qu’ils s’attaqueront même aux humains les plus faibles pour le conserver, avant de se battre entre eux. Il est même possible que, pour conserver ce privilège, ils préfèrent sacrifier les humains les plus pauvres.

Parce que ce mode de vie représente la plus grande émancipation vis-à-vis de la mort et de la douleur jamais atteinte pour un nombre d’individus aussi grand, mais aussi la plus grande liberté obtenue par rapport à l’environnement.

Une émancipation continue, bien que non achevée, vis-à-vis de ce que Marx appelait, « le règne de la nécessité ». Et si, pour paraphraser Marx, « un règne de la nécessité subsiste toujours », une bonne partie des occidentaux, même s’ils travaillent, sont « au-delà de ce règne ». Le règne des Modernes ressemble beaucoup à ce moment de l’histoire de l’humanité auquel Marx aspirait où « commence le développement des puissances de l’homme, qui est à lui-même sa propre fin, qui est le véritable règne de la liberté ». Un moment où travailler et consommer ne soient plus seulement réduits à satisfaire des besoins biologiques, mais à l’épanouissement, au bien-être de la personne.

La liberté et le confort qui libèrent le temps et le corps sont les biens les plus précieux de l’humain moderne occidental (et de tous les non-occidentaux devenus Modernes). Il est possible qu’il faille attendre que la menace climatique mette en péril cette liberté de façon palpable pour qu’il ressente le besoin de la défendre. Alors seulement, il pourra pleinement agir pour rééquilibrer son rapport à l’exploitation de l’environnement… s’il est encore temps.

C’est sur cette réalité anthropologique qu’achoppe aujourd’hui l’injonction à l’action écologiste, une injonction d’autant moins efficace qu’elle s’oppose à une quête essentielle de l’humanité depuis son apparition sur terre.

Dans ce contexte, faudrait-il penser que la perspective anthropologique est désespérante ? Non, puisqu’elle permet au contraire d’éviter l’écueil des injonctions militantes naïves, des faux espoirs simplistes, ou encore, de contrer la parole des gourous. L’enjeu est de repartir de l’humain pour engager des actions vraiment efficaces.

The Conversation

Fabrice Raffin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

03.04.2025 à 11:04

Réduire la vitesse, changer de revêtement… Quelles solutions contre la pollution sonore routière ?

David Ecotière, Chercheur en acoustique environnementale - Directeur adjoint de l’Unité Mixte de Recherche en Acoustique Environnementale (UMRAE), Cerema

Marie-Agnès Pallas, Chercheuse en acoustique environnementale, Université Gustave Eiffel

Le bruit routier est en France la première cause de nuisances sonores. Des travaux de recherche ont comparé l’efficacité des différentes options pour le diminuer.
Texte intégral (2378 mots)

Des chercheurs en acoustique ont comparé différentes options pour atténuer les nuisances sonores causées par le bruit routier. En fonction des situations, il peut être plus intéressant d’opter pour un moteur électrique plus silencieux, de changer le revêtement des routes ou d’optimiser la vitesse du trafic routier. Mais dans la plupart des cas, la solution optimale est plurielle.


Selon l’Organisation mondiale de la santé (OMS), le bruit est le deuxième facteur de risque environnemental en Europe en matière de morbidité, derrière la pollution de l’air. Il représente un problème majeur pour la santé publique, dont les répercussions socio-économiques globales, estimées à 147 milliards d’euros par an, en 2021, sont trop souvent négligées.

Le bruit des transports, en particulier le bruit routier, est en France la principale cause de ces nuisances. Différentes solutions peuvent pourtant être mises en œuvre pour limiter son impact. Modifier la propagation acoustique en interposant un obstacle de grande dimension entre la source et les riverains (bâtiments, écran acoustique, buttes naturelles…) peut être un moyen très efficace de réduire l’exposition sonore, mais n’est pas toujours techniquement ou financièrement envisageable et ne permet pas de couvrir toutes les situations possibles.

Améliorer l’isolation acoustique des bâtiments est également une très bonne solution technique, mais elle présente l’inconvénient de ne pas protéger les personnes situées à l’extérieur et de perdre en efficacité dès lors que portes ou fenêtres sont ouvertes. La meilleure des options reste ainsi, avant tout, de réduire l’émission sonore à la source.

Dans cette optique, des actions sont régulièrement mises en place, soit dans un cadre réglementaire (étude d’impact de nouvelles infrastructures, opérations de résorption des « points noirs du bruit » etc.), soit de façon volontariste par des collectivités ou des gestionnaires d’infrastructures routières pour lutter contre les nuisances sonores.

Des polémiques récentes sur la façon de réduire le bruit routier peuvent néanmoins brouiller le message auprès du citoyen et nuire ainsi à la crédibilité de ces solutions, dont le rôle reste avant tout de combattre ce fléau environnemental. Qu’en est-il exactement de leur efficacité et de leur pertinence techniques ?

Pourquoi le trafic routier est-il bruyant ?

Avant d’explorer les différentes solutions permettant la réduction du bruit routier à la source, il est important de comprendre les causes de ce bruit et les paramètres sur lesquels on peut agir pour le réduire. Les bruits de comportement, liés à un mode de conduite non conventionnel ou inadapté, contre lesquels des mesures de lutte sont en cours d’évaluation dans plusieurs villes, ne seront pas considérés ici.

Le son émis par un véhicule routier provient de deux principales sources :

  • le bruit de propulsion, dû au système mécanique (moteur, transmission, échappement),

  • et le bruit de roulement, dû au contact entre les pneumatiques en mouvement et la chaussée.

En conditions normales, le bruit de propulsion prédomine en dessous de 30 à 40 km/h pour les véhicules légers (VL) – ou de 40 à 50 km/h pour les poids lourds (PL) – tandis que le bruit de roulement l’emporte au-delà et augmente rapidement avec la vitesse.


Visuel d’illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu

Abonnez-vous dès aujourd’hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


Pour les véhicules actuels en fonctionnement standard, les autres sources potentielles de bruit (écoulement de l’air sur le véhicule…) sont négligeables par rapport au bruit de propulsion et au bruit de roulement.

Pour un bruit constant, il est communément admis que l’audition humaine ne perçoit une variation qu’à partir d’un écart de 2 décibels A (dBA) minimum. L’acousticien de l’environnement considère ainsi qu’un changement inférieur à ce seuil est « non significatif », car insuffisamment perceptible. Il utilise, en première approche, ce seuil comme repère pour juger de l’efficacité potentielle d’une solution de réduction du bruit.

Agir sur la motorisation

Agir sur la motorisation permet de diminuer les émissions sonores à basse vitesse. Les moteurs électriques sont ainsi généralement moins bruyants que les moteurs thermiques, avec une différence qui tend cependant à diminuer pour les véhicules thermiques neufs actuels, moins sonores que par le passé.

La réglementation oblige aussi les véhicules électriques à ajouter un son synthétique en dessous de 20 km/h pour améliorer la sécurité des piétons (dispositif AVAS). Une boîte de vitesse automatique contribue également à réduire l’émission sonore, car elle assure un régime du moteur thermique toujours adapté à l’allure et évite ainsi les excès de bruit dus à des conduites en surrégime.

Hors des restrictions d’accès imposées à certains cœurs de ville, agir sur la motorisation des véhicules n’est cependant généralement pas du ressort d’un gestionnaire d’infrastructure routière. Le changement d’une grande partie du parc roulant est en outre nécessaire pour produire un impact acoustique significatif, ce qui n’est efficace qu’à long terme.

Optimiser l’écoulement du trafic

Pour des effets à court terme, une deuxième option consiste à optimiser l’écoulement du trafic en modifiant le débit des véhicules ou leur vitesse. Les gains sonores attendus d’une réduction du débit suivent une loi logarithmique, où une division par 2 du nombre total de véhicules entraîne une diminution de 3 dBA. La diminution de la vitesse permet quant à elle de diminuer les émissions sonores en agissant sur le bruit de roulement.

Dans ce cas, au-delà de 40 km/h, les gains attendus sont de l’ordre de 1 à 1,5 dBA par tranche de réduction de 10 km/h. Toutefois, les émissions sonores des véhicules légers et des poids lourds n'étant pas équivalentes, l'émission sonore globale d'un trafic routier dépendra des proportions de ces véhicules qui y circulent et du revêtement de chaussée. Il est donc difficile de donner ici une estimation synthétique des gains potentiels dans toutes les situations.

L’application en ligne Motor développée par notre équipe permet à chacun de tester, en première approche, des scénarios de trafic en modifiant les différents paramètres d’influence du bruit afin de juger de leur efficacité potentielle sur la réduction de l’émission sonore d’une voirie routière.

Modifier le revêtement

Une troisième solution consiste à modifier le type de revêtement de chaussée afin d’agir sur le bruit de roulement.

On peut comparer les performances acoustiques de très nombreux revêtements de chaussées, par exemple à l’aide de notre application en ligne BDECHO, qui tire parti de la base nationale des performances acoustiques des revêtements de chaussées français.

Celle-ci montre ainsi que les revêtements les moins bruyants sont ceux dont la couche de surface est à faible granulométrie (enrobés à petits agrégats) et qui présentent une certaine porosité. À l’inverse, celle des plus bruyants a une plus forte granulométrie et n’est pas poreuse.

Si chaque solution peut contribuer à la réduction du bruit routier, chacune comporte également des inconvénients.

Quels avantages pour ces solutions ?

Changer un revêtement bruyant par un autre moins bruyant peut engendrer une réduction du bruit de 2 dBA à 10 dBA au maximum, et ce, dès 25 km/h pour les véhicules légers et dès 40 km/h pour les poids lourds.

Onéreuse, cette solution nécessite une mise en œuvre lourde et une intervention conséquente sur la voirie. Les performances acoustiques des revêtements ont aussi l’inconvénient d’évoluer au fil du temps, avec une dégradation des performances plus rapide pour les revêtements les moins bruyants. Une dispersion importante des performances (de l’ordre de plusieurs dBA) est également observée au sein de chaque catégorie de revêtement, ce qui entraîne une plus grande incertitude sur la prévision des performances attendues.

La réduction de vitesse, quant à elle, n’est pas toujours possible. Ou encore, son efficacité peut être limitée, par exemple si les vitesses de l’infrastructure existante sont déjà modérées ou que la réduction de vitesse ne peut pas être appliquée aux poids lourds, plus bruyants, et que ces derniers sont déjà en proportion non négligeable dans le trafic. Les gains attendus peuvent également être moindres qu’espérés si les vitesses pratiquées sont inférieures aux vitesses réglementaires de l’infrastructure, par exemple en situation chronique de ralentissements ou de congestion.

C’est ce qui a par exemple été constaté lors de mesures acoustiques récentes sur le périphérique parisien, où les gains théoriques ont été atteints uniquement la nuit, lorsque la circulation est fluide. Notons que ce type de solution peut cependant apporter des co-bénéfices intéressants en matière de pollution atmosphérique ou d’accidents de la route, sans nécessairement nuire significativement au temps de parcours perçu.

Combiner les différentes solutions

Réduction des vitesses, revêtements peu bruyants, restriction du trafic, changements de motorisation… quelle est finalement la meilleure méthode pour faire chuter les émissions sonores routières ?

Réduire le trafic global engendrera toujours une chute des émissions, audible sous réserve d’une baisse du trafic d’au moins 30 à 40 %, si la solution est appliquée seule.

Pour les autres options, en zone à vitesse réduite (inférieure à 40km/h), jouer sur la motorisation est la solution la plus efficace. Cela peut passer par l’incitation à l’adoption de véhicules électriques ou d’autres motorisations moins bruyantes, les méthodes agissant sur le bruit de roulement étant dans ce cas moins efficaces.

Dans des voiries où la vitesse moyenne des véhicules est plus élevée, les chaussées peu bruyantes ou la diminution des limites de vitesse peuvent apporter des réductions intéressantes. Mais leur pertinence devra être étudiée au cas par cas en amont, en fonction des propriétés initiales de l’infrastructure considérée (vitesse, structure du trafic, revêtement de chaussée existant, etc.).

Les trois solutions étant compatibles entre elles, l’idéal consiste bien entendu à les associer afin de cumuler avantageusement les gains apportés par chacune d’entre elles.

The Conversation

David Ecotière a reçu des subventions publiques du Ministère de la Transition écologique.

Marie-Agnès Pallas a reçu des financements du Ministère de la Transition écologique, de l’Union européenne et de BpiFrance.

02.04.2025 à 16:53

Serpents, araignées… D’où viennent nos peurs de certains animaux ?

Xavier Bonnet, Directeur de Recherche CNRS en biologie et écologie des reptiles, Centre d'Etudes Biologiques de Chizé

Karl Zeller, Docteur en Écologie Évolutive, Muséum national d’histoire naturelle (MNHN)

Une étude d’ampleur inédite montre que la peur ressentie envers certains animaux n’a pas grand-chose à voir avec le danger qu’ils représentent.
Texte intégral (2325 mots)

Une étude d’ampleur inédite montre que la peur que nous ressentons envers certains animaux n’a pas grand-chose à voir avec le danger qu’ils représentent. Mais ces émotions peuvent en revanche avoir des effets très néfastes sur la protection de la biodiversité.


En 1872, Charles Darwin décrivait la peur comme une puissante alliée pour éviter ou pour fuir les dangers. Au cours des plus de 50 millions d’années d’évolution des primates et pendant la presque totalité de l’histoire humaine, grands carnivores, crocodiles ou serpents venimeux étaient de terribles menaces. En avoir peur était donc nécessaire à la survie.

Mais aujourd’hui, notre peur des animaux ne s’arrête pas aux espèces dangereuses. Certains animaux inoffensifs nous terrifient également. Pourquoi ce décalage entre danger réel et terreur ? Des facteurs socioculturels et le succès de théories contestables pourraient l’expliquer.

Pour mieux comprendre la peur des animaux nous avons sondé plus de 17 000  participants à travers le monde, en leur proposant un questionnaire sous forme de jeu en ligne fondé sur des portraits photographiques d’animaux. Le panel comprenait 184 espèces : des mammifères, des reptiles, des oiseaux, des arthropodes (insectes et araignées) et des amphibiens. En pratique, au cours d’une aventure imaginaire, des paires de photos (un lion et une mésange, par exemple) étaient tirées au sort et présentées à l’écran, 25 fois de suite.

Chaque participant devait choisir l’animal qui lui faisait le plus peur, cliquer sur sa photo, passer à la paire suivante puis, à la fin du jeu, répondre à quelques questions.

Nous avons ainsi obtenu les résultats sur plus de 400 000 duels de photos, une mine d’or statistique. L’analyse des choix et des temps de réponse ont permis de classer les 184 animaux selon le niveau de crainte qu’ils inspirent. La diversité des participants (âge, genre, pays d’origine, études, etc.) a révélé des relations complexes entre danger réel (ou écologique) et influences socioculturelles.

Biophobie et peur irrationnelle des animaux

Une constante est cependant apparue : dans toutes les zones géographiques et classes d’âges, des animaux inoffensifs pour l’humain, comme les chauves-souris, les araignées ou les serpents non venimeux, ont suscité des réactions de peur très marquées, autant voire plus qu’avec des espèces potentiellement très dangereuses comme l’hippopotame ou l’ours brun. La logique de terrain, celle énoncée par Darwin, était donc bien prise en défaut.

Pour expliquer cette discordance, certaines théories très en vogue depuis plus de quinze ans proposent que la peur des serpents et des araignées soit figée, innée et codée dans nos gènes.

Mais comment la sélection naturelle aurait-elle produit un résultat aussi illogique ? Comment savoir également si les premiers humains avaient peur des araignées et des serpents, surtout que de nombreux primates ne les fuient pas et, au contraire, les mangent ? Les serpents sont également toujours considérés comme des délices culinaires et sont largement consommés dans différentes régions du monde. Les théories patinent un peu sur ces points cruciaux.

D’autres explications semblent nécessaires. Un autre cadre théorique pointe les facteurs socioculturels dans la transmission d’émotions, notamment les peurs, y compris celle des animaux. Combinée à l’absence de contact avec la nature, la transmission familiale et sociale de la peur du vivant conduirait jusqu’à la biophobie, c’est-à-dire la peur ou même la haine du vivant.

Des facteurs culturels pourraient effectivement expliquer pourquoi de nombreuses personnes croient à tort que les araignées sont dangereuses et tuent fréquemment des humains alors que seulement 0,5 % des araignées sont potentiellement dangereuses pour l’humain, les accidents graves sont rarissimes et les décès vraiment exceptionnels. Dans notre étude, certains participants ont même déclaré avoir peur d’être mangés par une araignée, une idée totalement irrationnelle.

Des préjugés, un sentiment général de dégoût, mais surtout le manque de connaissances naturalistes laissent ainsi la place aux légendes et aux peurs exagérées qui les accompagnent. La distorsion est amplifiée par les médias et les films, où les araignées et serpents géants sont trop souvent monstrueux et féroces.

Un mécanisme central est que les peurs exacerbées peuvent être transmises en un clin d’œil et voyager de génération en génération. Cet effet est marqué chez les plus jeunes, un parent effrayé par une petite araignée de maison peut inoculer sa terreur à ses enfants en quelques secondes. Ainsi renforcées, les représentations déformées des animaux dans les films peuvent devenir des croyances ancrées, puis des « vérités ». Ce décalage entre le danger perçu et la réalité quotidienne s’accroît dans les sociétés urbanisées, où la déconnexion avec la nature augmente constamment.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les animaux dangereux font tout de même peur

Bien sûr, les animaux potentiellement dangereux, comme le lion, suscitent aussi des réactions fortes et rationnelles de peur. De nombreux cas de prédation, d’attaques ou de morsures mortelles sont documentés à travers le monde. Dans notre étude, les crocodiles, les grands félins et les serpents venimeux sont effectivement perçus comme très effrayants. Les participants ont clairement exprimé leur peur d’être tués par une énorme vipère du Gabon ou d’être mangés par un tigre.

Inversement, la grande majorité des animaux inoffensifs, comme le lapin, la tortue ou le koala, n’ont suscité aucune peur. Ces résultats confirment donc une définition générale de la peur comme un état émotionnel adaptatif, qui incite les animaux à réagir de façon appropriée face à des stimulus potentiellement dangereux.

Mais il reste difficile de distinguer ce qui relève de mécanismes innés plutôt que des biais culturels dans la peur des animaux. La grande taille (un bison adulte est impressionnant), les dents de carnassier, le regard fixe du prédateur ou les signaux d’avertissement (bandes colorées sur les serpents venimeux ou les guêpes) sont probablement des messages clairs compris de tous, indépendamment de la culture, mais cela reste à démontrer. Les visions purement innées ou purement culturelles, extrêmement rigides, correspondent particulièrement mal à une réalité qui semble davantage complexe et intriquée.

La peur exagérée des animaux, un frein à la conservation

Une chose reste certaine : les peurs exacerbées, irrationnelles et invalidantes, c’est-à-dire des phobies, ont des conséquences. Elles gâchent la vie, y compris celle des animaux qui en font les frais. Le déclin des serpents en témoigne. Il progresse à une vitesse alarmante, aussi bien en Europe que sur le plan mondial. Il est donc urgent de les protéger. En outre, ces animaux jouent des rôles écologiques clés et sont des auxiliaires de l’agriculture. Pourtant ils sont souvent persécutés et tués.

Or, la peur qu’il inspirent est le principal déclencheur de cette attitude agressive et violente. Le pire est que, lorsqu’il s’agit de serpents venimeux, le risque d’être mordu par riposte augmente considérablement. Au cours d’une rencontre, il est prudent de laisser les serpents tranquilles ou de s’enfuir plutôt que de leur taper dessus. La peur exagérée et les gestes dangereux et mal contrôlés entraînent des drames pour les humains et les autres animaux.

L’aversion forte pour certains animaux couplée à la perte de contact avec la nature est aussi associée à la dégradation de la santé mentale. L’expérience directe avec la nature semble nécessaire aux équilibres psychologique et physiologique.

Or, la manière dont nous percevons la nature influence directement notre investissement dans sa préservation. Les espèces perçues comme effrayantes, souvent à tort, sont malheureusement fortement négligées par les programmes de conservation. La biophobie rend difficile l’éducation à l’environnement et la protection de la biodiversité. La répugnance pour de nombreux arthropodes et reptiles s’accompagne d’un faible effort de conservation par rapport aux espèces charismatiques (par exemple, les dauphins ou les ours). Il est pourtant nécessaire de protéger des ensembles.

La note positive est qu’il a été montré expérimentalement qu’une simple sortie nature, un bref contact avec les serpents, suffit à changer la donne, tout au moins chez des enfants. Ce résultat souligne le rôle majeur de la culture et de l’éducation, par rapport aux hypothèses fondées sur la peur innée des serpents.

Il est donc essentiel d’étudier le développement et la persistance des perceptions positives et négatives vis-à-vis des animaux pour améliorer le confort de vie, la santé, mais aussi pour réduire les conflits entre l’humain et la nature. Élargir des actions de sensibilisation à toutes les espèces est fondamental pour guider les efforts de protection. Détruire pour délit de faciès n’est pas acceptable. En outre, la destruction de populations ou d’espèces peut perturber des écosystèmes et avoir un bilan mitigé voire négatif.

La peur est notre alliée, mais, mal domptée, elle peut se retourner contre nous et contre notre environnement. Il serait sage d’en tenir compte dans les programmes d’éducation.

The Conversation

Karl Zeller a reçu des financements de l'Initiative Biodiversité Écologie, Évolution, Société (IBEES) de l'Alliance Sorbonne Université.

Xavier Bonnet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

01.04.2025 à 16:13

La Première Guerre mondiale du point de vue des chevaux

Eric Baratay, Professeur d'histoire, Université Jean Moulin Lyon 3

Indispensables pour la cavalerie, l’infanterie mais également l’artillerie, pour tirer canons, munitions, vivres et hommes, les chevaux ont aussi façonné l'évolution de cette guerre de tranchées.
Texte intégral (2885 mots)
Cavaliers de l'armée britannique en 1918. Photo prise par un photographe de guerre employée par l'armée britannique. National Library of Scotland , CC BY

Retracer l’histoire du point de vue des animaux, tâcher de trouver des sources pouvant témoigner de leur vécu et de leur évolution. Telle est l’ambition du dernier livre supervisé par Eric Baratay aux éditions Tallandier.

Dans ces bonnes feuilles que nous vous proposons, cet historien se penche sur la Grande Guerre qui, sur le seul front de l’Ouest, mobilisa pas moins de huit millions de chevaux. Indispensables pour la cavalerie, l’infanterie mais également l’artillerie, pour tirer canons, munitions, vivres et hommes, ils ont façonné l’évolution de cette guerre.

Saviez-vous par exemple qu’en 1914 c’est le manque de chevaux des Français comme des Allemands qui a empêché qu’un camp ou l’autre réussisse à contourner son adversaire, ce qui a provoqué la fixation du front et quatre ans de guerre de tranchées.

En examinant les écrits de poilus et des vétérinaires au front, Eric Baratay tâche ici de retracer la douloureuse mobilisation de ces millions de chevaux.


Lors de leur réquisition, les chevaux éprouvent d’abord un stress psychologique et physique en perdant leurs repères habituels du fait d’une succession de lieux, de mains, de voix. Leur embarquement dans les wagons est souvent difficile ; ils résistent, hennissent, se sentent poussés, frappés, se font serrer les uns contre les autres. Les plus rétifs continuent à hennir, à frapper les parois ; beaucoup sont apeurés par les trains qui passent, éprouvés par les secousses, irrités par les congénères inconnus.

Ils vivent un autre bouleversement lors de leur affectation, devant s’habituer à de nouveaux noms, de nouvelles voix et conduites, de nouveaux gestes et mots en divers patois changeant au gré des réaffectations, permissions, disparitions des hommes. Ainsi, les chevaux de trait affectés à la cavalerie se retrouvent avec un soldat sur le dos, rarement plus aguerri, tout aussi craintif, et ceux qui réagissent, hennissent, ruent, subissent alors des coups, entendent des cris, ce qu’ils connaissaient assez rarement auparavant s’ils viennent des campagnes.

Escorte de prisonniers allemands par la cavalerie française, le 24 août 1914. William Heinemann, London, CC BY

Dans les services attelés, les chevaux doivent apprendre à travailler avec des congénères pour les solitaires d’autrefois ou de nouveaux partenaires pour les habitués à cet emploi. Ils sont assemblés selon leur taille, leur force, voire leur couleur, rarement selon leur caractère, que les hommes ne connaissent pas et ne cherchent pas. Des chevaux manifestent des incompatibilités d’humeur, obligent ces humains à les séparer jusqu’à ce qu’une répartition soit trouvée, qu’une paix plus ou moins durable s’installe. Lors des essais à tirer ensemble, beaucoup se heurtent, glissent, tombent, s’empêtrent dans les traits, s’épuisent. L’adaptation est remise en cause par les changements d’affectation et les arrivées de nouveaux partenaires, tels ces chevaux américains, que les alliés vont chercher à partir de l’automne 1914 pour compenser les pertes.

D’autant que leur traversée de l’Atlantique s’avère un calvaire côté français, où l’on ne donne qu’une avance aux marchands américains, les laissant assurer le transport à moindres frais. Dès l’Amérique, les équidés choisis se retrouvent concentrés et mélangés dans des parcs puis entassés à 15 ou 20 dans des wagons, sans attache et sans surveillance interne. Les conflits, les coups, les chutes s’ajoutent au stress du voyage durant lequel ces animaux ne bénéficient guère d’arrêts le long d’un parcours de quatre à huit jours. Au port, ils sont de nouveau concentrés en enclos puis placés sur des barges et hissés par des grues sur des navires restés au large, une opération très stressante pour les équidés.

Perturbés par le déracinement, les importants changements climatiques à l’échelle américaine, le bouleversement du régime alimentaire, beaucoup s’affaiblissent et contractent des maladies infectieuses, d’autant qu’ils ne bénéficient pas de désinfection des enclos et des wagons ou de contrôles épidémiologiques, encore peu usités côté français.

À bord des navires, ces équidés se retrouvent entassés les uns contre les autres, en quatre rangées parallèles par étage, attachés de près, et comme ils ne font pas d’exercice dans des enclos ou de promenade sur le pont extérieur, qu’ils restent inactifs trois semaines au minimum, ils endurent des fourbures aiguës aux jambes. L’entassement est tel que des équidés se voient placés sur le pont extérieur où, malgré les couvertures mises sur eux ou les toiles tendues par-dessus, ils endurent de fortes variations de température, une humidité incessante, des courants d’air permanents, subissent d’importants refroidissements tout en devant résister aux tempêtes qui balaient l’endroit.

Au moins, ces animaux ne souffrent-ils pas de l’atmosphère confinée des étages internes, de la chaleur moite, du gaz carbonique, des fortes odeurs que les équidés enfermés produisent mais qui les indisposent vivement, d’autant que l’aération, guère pensée, est très insuffisante, que les excréments, le fumier, les aliments avariés sont irrégulièrement évacués et ces ponts mal nettoyés par des équipages négligents, peu impliqués financièrement dans le maintien en bonne santé des bêtes, bien qu’ils pâtissent aussi de la situation. Les morts sont laissés au milieu des vivants tout au long du voyage parce qu’on n’a pas prévu de les évacuer à la mer ! Les rescapés ressentent évidemment les phéromones de stress dégagés par les agonisants puis les odeurs des cadavres.

Chevaux et mulets souffrent souvent de la soif et de la faim, les marchands ayant trop peu prévu, les matelots s’évitant des corvées régulières, les aliments n’étant que de médiocre qualité. Ces équidés doivent souvent manger des aliments simplement jetés à terre, avalant en même temps la paille souillée, voire leurs excréments pour compenser la faim, mais les bêtes attachées trop court, incapables de baisser autant leur tête, sont forcées de jeûner. Beaucoup s’affaiblissent, contractent ou amplifient des maladies, mangent encore moins, respirent toujours plus mal, tombent au premier tangage, ont de plus en plus de peine à se relever, se blessent facilement lors des heurts avec d’autres ou contre les parois et lors de ces chutes, se fracturant des os ou se rompant des ligaments, contractant alors le tétanos ou la gangrène.

À l’arrivée, les sorties sont souvent retardées car, dans nombre de navires, les rampes reliant les ponts ont été enlevées pour mieux entasser, d’autant qu’on ne prévoyait pas de promenade extérieure. Les équidés doivent attendre plusieurs jours que de nouvelles pentes soient installées, sur lesquelles ils se précipitent pour sortir de cet enfer. Les blessés et les malades ne pouvant pas les gravir attendent d’être sanglés puis soulevés à la grue. À terre, les chevaux, souvent des mustangs plus ou moins sauvages, achetés à moindre coût, se montrent rebelles à la discipline. Ils déconcertent autant leurs congénères européens, habitués au travail, que les conducteurs qui font alors pleuvoir les coups.

Chevaux transportant des munitions à la 20ᵉ Batterie de l’Artillerie canadienne de campagne à Neuville Saint-Vaast, France
Chevaux transportant des munitions à la 20ᵉ Batterie de l’Artillerie canadienne de campagne à Neuville Saint-Vaast, France. Archives du Canada, CC BY

Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Des incompréhensions réciproques

Ces incompréhensions sont nombreuses, d’autant que nombre de soldats n’ont jamais côtoyé de chevaux auparavant et que ces derniers ne sont pas habitués à de tels environnements. Nous avons vu que beaucoup d’équidés réquisitionnés refusent d’entrer dans les wagons ou les camions. Cela conduit les soldats à les qualifier de « bêtes », à se grouper jusqu’à six ou sept pour les forcer et à manier la violence. Or cette attitude des chevaux s’explique par leur vision, mieux connue de nos jours : étroite en hauteur mais très panoramique en largeur, d’un flanc à l’autre. Ils ont donc le sentiment d’être bêtement précipités contre un obstacle alors que la voie est libre autour ! D’autant qu’ils détectent mal l’intérieur noir des wagons, mettant du temps à accommoder leur vue à l’obscurité, et qu’ils rechignent logiquement à entrer dans cet inconnu… à la manière d’un automobiliste qui, par temps ensoleillé, freine devant une section très ombragée de la route formant un mur noir.

Des soldats français essayant de tirer une mule épuisée hors de la boue d’un trou d’obus
Des soldats français essayant de tirer une mule épuisée hors de la boue d’un trou d’obus. National Library of Scotland, CC BY

Un autre exemple d’incompréhension concerne l’abreuvement des chevaux durant l’été 1914. Ils ne peuvent pas boire suffisamment, souvent une fois la nuit car les cavaliers limitent ces moments dangereux pour eux, et cela provoque une importante mortalité. On peut invoquer la guerre de mouvement, qui réduit les possibilités de nourrir et d’abreuver, et la négligence des hommes, qui est réelle, mais la situation est confortée par un aspect inconnu des humains et même des animaux : on sait maintenant que les chevaux connaissent une forme de déshydratation qui ne provoque pas une soif importante, ce qui signifie que ces chevaux de guerre n’ont sans doute pas suffisamment manifesté leur besoin.

The Conversation

Eric Baratay ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

31.03.2025 à 16:21

François, le pape vert : un tournant écologique pour l’Église

Bernard Laurent, Professeur, EM Lyon Business School

« Laudate si » est la plus célèbre des encycliques du pape François. Volontairement écologiste, elle remet l’Église et la Terre au centre du village. Que nous dit-elle de la vision du pape ?
Texte intégral (1975 mots)
Le pape François souhaite une rupture radicale de nos modes de vie consuméristes dans les pays riches, qui pense le développement des pays les plus pauvres. Ricardo Perna/Shutterstock

« Laudato si » (2015) est la plus célèbre des encycliques du pape François. Volontairement écologiste, elle remet l’Église et la Terre au centre du village. Que nous dit-elle de la vision de l’Église catholique et de ce pape politique ?


Il y a dix ans, le 24 mai 2015, le pape François rendait publique « Laudato si », de l’italien médiéval « Loué sois-tu », une encyclique qui ne donnait pas dans la demi-mesure. Ce texte surprit plus d’un catholique par ses constats sans concessions et son appel à une transformation en profondeur de nos modes de vie. Elle unissait toutefois, si nous en tenons à la France, les courants conservateurs – courant pour une écologie humaine, créée en 2013 – et des intellectuels catholiques ouverts, comme le jésuite Gaël Giraud, auteur de Produire plus, polluer moins : l’impossible découplage ?.

Le pape se plaçait dans la continuité de ses prédécesseurs. Paul VI, Jean-Paul II ou Benoît XVI s’inquiétaient avant lui des effets dramatiques d’une exploitation abusive de la nature sur l’humanité :

« Une exploitation inconsidérée de la nature de l’être humain risque de la détruire et d’être à son tour la victime de cette dégradation. »

Quels sont les enseignements de cette encyclique ? Que nous dit-elle de la vision de l’Église catholique ? Et du pape François ?

Le pape vert

Le pape François dresse le constat d’un environnement particulièrement dégradé :

« La pollution […] affecte tout le monde, [elle est] due aux moyens de transport, aux fumées de l’industrie, aux dépôts de substances qui contribuent à l’acidification du sol et de l’eau, aux fertilisants, insecticides, fongicides, désherbants et agrochimiques toxiques en général. » (§-20.)

Le pape vert publie l’encyclique « Laudato si», en juin 2015, quelques mois avant la conférence de Paris sur le climat. L’objectif : sensibiliser l’opinion publique aux enjeux de réchauffement climatique, en créant une approche relationnelle entre Dieu, l’être humain et la Terre. C’est la première fois qu’une encyclique est entièrement consacrée à l’écologie.

Il s’inquiétait des effets du réchauffement climatique :

« À son tour, le réchauffement a des effets sur le cycle du carbone. Il crée un cercle vicieux qui aggrave encore plus la situation. Il affectera la disponibilité de ressources indispensables telles que l’eau potable, l’énergie ainsi que la production agricole des zones les plus chaudes et provoquera l’extinction d’une partie de la biodiversité de la planète. » (§-24.)

Contre le techno-solutionnisme

Depuis « Rerum novarum », du pape Léon XIII, les différentes encycliques sociales n’ont cessé de rejeter l’idée libérale d’une société régulée par le seul bon fonctionnement du marché. Le sociologue des religions Émile Poulat résumait parfaitement la position de l’Église en 1977 dans son livre Église contre bourgeoisie. Introduction au devenir du catholicisme actuel : « Elle n’a jamais accepté d’abandonner la marche du monde aux lois aveugles de l’économie. »

Jacques Ellul dans son bureau
Pour le Français Jacques Ellul, la technique n’a rien d’une matière neutre puisqu’il s’agit d’une véritable puissance animée par son propre mouvement. » Wikimedia, CC BY-SA

En 2015, le pape François rejetait les solutions techniques qui ne seraient que cautère sur une jambe de bois, tout comme la croyance aux vertus salvatrices du marché autorégulé. Il accuse « le paradigme technocratique » de dominer l’homme en subordonnant à sa logique l’économique et le politique (§-101). Des accents qui rappellent le philosophe français protestant Jacques Ellul, injustement oublié, et son idée d’« autopropulsivité » de la technique, sans limites, qui est placée en alpha et oméga de nos sociétés.

La charge contre les vertus supposées du marché était spectaculaire. Le pape stigmatise notamment :

  • la surconsommation des pays développés :

« Étant donné que le marché tend à créer un mécanisme consumériste compulsif pour placer ses produits, les personnes finissent par être submergées, dans une spirale d’achats et de dépenses inutiles. » (§-203.) ;

  • la glorification du profit et du marché autorégulé :

« Dans certains cercles, on soutient que l’économie actuelle et la technologie résoudront tous les problèmes environnementaux. » (§-109.) ;

  • l’hypertrophie de la finance spéculative :

« La politique ne doit pas se soumettre à l’économie et celle-ci ne doit pas se soumettre aux diktats ni au paradigme d’efficacité de la technocratie. » (§-189.) ;

  • l’inégale répartition des richesses dans le monde :

« Les plus pauvres sont les premières victimes : de fait, la détérioration de l’environnement et celle de la société affectent d’une manière spéciale la plus faible de la planète. » (§-48.) ;

  • l’inégal niveau de développement entre les pays, ce qui conduit François à évoquer une « dette écologique » des pays riches envers les pays les moins développés (§-51).

Justice sociale et décroissance

Le pape François lie très étroitement sauvegarde de la planète et justice sociale. Il s’inscrit dans la lignée des travaux de l’économiste dominicain Louis-Joseph Lebret, fondateur en 1941 de l’association Économie et humanisme (E&H). Le père Lebret souhaitait remettre l’économie au service de l’homme et travailler sur les pays les moins avancés économiquement en défendant les vertus des communautés et de l’aménagement du territoire.

Quant au pape François, il souhaite une rupture radicale de nos modes de vie consuméristes dans les pays riches, en pensant le développement des pays les plus pauvres (§-93). Les réactions des pays développés lui paraissaient insuffisantes à cause des intérêts économiques en jeu, ajoutait-il (§-54).

Nous retrouvons là le principe de la destination universelle des biens, qui est le principe organisateur de la propriété défendu par la doctrine sociale de l’Église. Il commande de se soucier d’une répartition des biens permettant à chaque être humain de vivre dans la dignité.


À lire aussi : Pape François vs. J. D. Vance : fracture au sein du monde catholique


Au-delà des mesures techniques nécessaires et des pratiques individuelles sobres, le pape François invite les citoyens des pays développés à ne pas se contenter de demi-mesures largement insuffisantes. Au contraire, il pousse à changer nos modes de vie dans une logique de décroissance. Le but : permettre aux pays en voie de développement de sortir de la pauvreté, tout en ménageant l’environnement.

« Face à l’accroissement vorace et irresponsable produit durant de nombreuses décennies, il faudra penser aussi à marquer une pause en mettant certaines limites raisonnables, voire à retourner en arrière, avant qu’il ne soit trop tard. […] C’est pourquoi l’heure est venue d’accepter une certaine décroissance, mettant à disposition des ressources pour une saine croissance en d’autres parties. » (§-193.)

Dix ans plus tard, le texte raisonne pleinement avec nos préoccupations. Nous pourrions suggérer aux très catholiques vice-président J. D. Vance et secrétaire d’État Marco Rubio des États-Unis de relire cette encyclique.

The Conversation

Bernard Laurent est adhérent à la CFTC Membre du Conseil Scientifique de l'IRES

31.03.2025 à 15:42

Le train survivra-t-il au réchauffement climatique ?

Mathis Navard, Docteur en Sciences de l'information et communication (ISI), Université de Poitiers, IAE de Poitiers

Les conditions climatiques menacent de plus en plus les infrastructures ferroviaires, alors que le train est appelé à jouer un rôle majeur pour lutter contre le réchauffement. Et la France tarde à agir.
Texte intégral (1892 mots)

Alors qu’il est un allié incontournable de la lutte contre le changement climatique, le transport ferroviaire est aussi victime de ses effets. Les incidents liés aux aléas climatiques se multiplient, mais la France tarde à agir.


Ce lundi 31 mars, les voyageurs pourront de nouveau traverser en train la frontière franco-italienne. Depuis un an et demi, la ligne Paris-Milan était interrompue en raison d’un impressionnant éboulement survenu sur ses voies en août 2023. Loin d’être un événement isolé, ce type d’incidents se multiplie au fur et à mesure que les effets du réchauffement climatique s’intensifient.

Face à cette situation, il est urgent que l’ensemble des acteurs de la filière ferroviaire (entreprises, collectivités, États…) se mobilise pour adapter les infrastructures à des conditions climatiques de plus en plus imprévisibles et violentes. Et ce, à une période où le nombre de voyageurs ne cesse de croître.

Si certains pays européens se sont déjà engagés dans cette voie, la France tarde à passer à l’action.

Le train, allié majeur de la décarbonation

La situation est d’autant plus paradoxale que le train constitue un levier important dans la lutte contre le changement climatique. Un trajet en train émet en moyenne 95 % de CO₂ en moins que lorsqu’il est effectué en voiture. Le ferroviaire est donc un incontournable de la décarbonation des mobilités.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Un enjeu majeur, puisque le secteur des transports demeure le premier contributeur aux émissions françaises de gaz à effet de serre, comptant pour 30 % du total national. Il est l’un des rares domaines dont ce chiffre ne diminue pas. Plus inquiétant, sa tendance est même à la hausse depuis trois décennies.

Un moyen de transport de plus en plus plébiscité

Les voyageurs ne s’y trompent pas. Selon une étude réalisée en 2023 pour la SNCF, 63 % d’entre eux disent prendre le train par conviction écologique. Une autre enquête, ayant sondé une plus large partie de la population française, nous apprend que 83 % des répondants reconnaissent les bénéfices écologiques de ce mode de transport.

Chaque année, le trafic ferroviaire de voyageurs bat des records dans notre pays. Selon l’Autorité de régulation des transports, il a progressé de 21 % pour les trains du quotidien et de 6 % pour l’offre à grande vitesse entre 2019 et 2023.

A contrario, le transport de marchandises poursuit son inexorable chute, -17 % en un an.

Des infrastructures menacées par le changement climatique

Plusieurs raisons expliquent cette forte rétractation des services ferroviaires de fret : hausse des coûts de l’énergie, mouvements sociaux… et éboulement sur la ligne Paris-Milan.

Le trafic de voyageurs est lui aussi de plus en plus impacté par des conditions météorologiques toujours plus extrêmes. Interruption totale des circulations en janvier 2025 en raison des inondations en Ille-et-Vilaine, déraillement d’un TER à cause d’une coulée de boue en juillet 2024 dans les Pyrénées-Orientales suivi des deux accidents similaires en octobre en Lozère puis dans l’Aisne… Les exemples ne manquent pas dans l’actualité récente.

Si des aléas de ce type ont toujours existé, leur fréquence et leur intensité augmentent avec l’amplification du changement climatique. Quelle que soit la trajectoire des scénarios du GIEC empruntée, nous savons que cette tendance se poursuivra dans les décennies à venir, de façon plus ou moins marquée en fonction de la vitesse de la réduction de nos émissions de gaz à effet de serre. Les intempéries pourraient ainsi multiplier de 8 à 11 fois les perturbations ferroviaires d’ici à 2100.

Les risques portant sur le réseau sont multiples et concernent à la fois les voies, les télécommunications, les ouvrages et l’alimentation électrique. Parmi les principales menaces, citons la déformation des voies en raison de fortes chaleurs, la déstabilisation des sols provoquée par des cycles de gel-dégel ou de fortes pluies ainsi que d’importants dégâts causés par des incendies et des tempêtes.

En France, l’émergence timide d’une stratégie d’adaptation

La SNCF et ses 27 000 kilomètres de lignes se retrouvent en première ligne face à ces catastrophes. Bien que variable d’une année à l’autre, leur coût direct est estimé annuellement entre 20 millions et 30 millions d’euros.

Un document stratégique d’une trentaine de pages a été publié par SNCF Réseau l’an dernier. Il projette une adaptation à un réchauffement moyen pouvant atteindre +4 °C à l’horizon 2100. Cette feuille de route a été élaborée en collaboration avec Météo France, avec qui la SNCF se met systématiquement en lien en cas d’alertes météorologiques.

L’échange de données est également au cœur de cette stratégie. Un outil d’alerte baptisé Toutatis a par exemple été conçu pour surveiller les voies en cas de fortes pluies. Son homologue Predict anticipe quant à lui les risques de crues dès que certains seuils pluviométriques sont atteints.

Un sous-investissement chronique dans le réseau

Pas de quoi pour autant convaincre la Cour des comptes qui, en 2024, a alerté la SNCF sur l’absence d’un plan d’adaptation structuré intégrant le climat futur. Le rapport souligne également le manque d’informations sur les coûts climatiques.

La juridiction rejoint l’Autorité de régulation des transports sur le sous-investissement chronique dont est victime le réseau français, ce qui renforce mécaniquement sa vulnérabilité. Un milliard d’euros serait encore manquant pour en stabiliser l’état, et ce, alors que son âge moyen est toujours de 28,4 ans.

Déjà en 2019, une équipe de chercheurs avait mené une étude de cas à ce sujet. Leurs résultats mettaient en lumière un important décalage entre les discours de la SNCF et la faible intégration des connaissances scientifiques dans sa gestion ferroviaire. Elle se ferait encore de façon incrémentale, sans transformations profondes, et à partir d’expériences passées plutôt que des projections climatiques futures.

Des initiatives inspirantes dans les pays voisins

Les inspirations d’adaptation venues de nos voisins européens ne manquent pourtant pas. En Belgique et en Italie, les rails sont par exemple peints en blanc afin de limiter l’accumulation de chaleur et, in fine, leur dilatation.

La Suisse propose une solution alternative en refroidissant les rails avec un véhicule-citerne en cas de fortes chaleurs. La Confédération helvétique ainsi que l’Autriche (avec laquelle elle partage un relief accidenté) se sont engagées dans une démarche d’atténuation visant à davantage protéger les lignes des avalanches et des glissements de terrain tout en améliorant les systèmes de drainage. Cela passe notamment par le renforcement des forêts – un véritable bouclier protecteur – et des ouvrages existants.

Autant de choix politiques structurants qui ont été réalisés dans des pays où l’investissement en faveur du ferroviaire est de 2 à 9 fois plus important qu’en France. Il est donc plus que jamais nécessaire de s’engager dès à présent dans une stratégie d’adaptation plus systémique.

Vers une stratégie européenne d’adaptation ?

C’est tout l’objet d’un projet européen baptisé Rail4EARTH. Il fait le pari de l’innovation et de la rapidité d’action. Mais le chemin à parcourir est encore long pour que cette ambition se traduise en véritable feuille de route opérationnelle à l’échelle de notre continent.

L’application des données climatiques – actuelles comme futures – au secteur du ferroviaire demeure imparfaite. Le développement d’une gouvernance intégrant des experts en climatologie est souhaité par la SNCF, qui fait partie des partenaires de ce projet.

Il y a urgence à agir. Comme l’a démontré une étude britannique, l’adaptation des infrastructures ferroviaires aux différents scénarios du GIEC est souvent surestimée. Elles sont donc plus vulnérables que ce que les projections laissent penser.

Une raison de plus, s’il en fallait une, pour s’engager dès à présent dans un plan d’action à l’échelle européenne afin de continuer à faire du train un levier majeur de décarbonation de nos déplacements dans un monde qui ne cesse de se réchauffer.

The Conversation

Mathis Navard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

31.03.2025 à 11:59

Les consommateurs acceptent-ils de manger des produits valorisés à partir de déchets alimentaires ?

Marie-Christine Lichtlé, Professeur des Universités, Co-Responsable de la Chaire MARÉSON, Université de Montpellier

Anne Mione, Professeur de marketing stratégique, management de la qualité et stratégie, Université de Montpellier

Béatrice Siadou-Martin, Professeur des universités en sciences de gestion, Co-responsable de la Chaire MARESON, Université de Montpellier

Jean-Marc Ferrandi, Professeur Marketing et Innovation à Oniris, Université de Nantes, Co-fondateur de la Chaire MARÉSON, Nantes Université

Une étude menée auprès de 941 consommateurs français questionne l’acceptabilité de l’upcycling alimentaire, ou la valorisation des déchets comestibles en biscuits apéritifs, farines ou plats préparés.
Texte intégral (1717 mots)
4,3 millions de déchets alimentaires sont comestibles -- aliments non consommés encore emballés, restes de repas, etc. Alors, qu’en faire ? HalynaRom/Shutterstock

De nouvelles pousses entrepreneuriales émergent pour valoriser des déchets comestibles en biscuits apéritifs ou plats préparés. Une étude menée auprès de 941 consommateurs français questionne l’acceptabilité de cet upcycling alimentaire.


Les entreprises proposant de l’upcycling alimentaire, surcyclage ou valorisation ont le vent en poupe. Hubcycled produit de la farine à partir de lait de soja ou arôme à base de pépins de fraises, la biscuiterie Ouro valorise de la drêche en biscuits apéritifs ou In Extremis valorise des pains invendus en boulangerie dans une proposition de biscuits apéritifs.

« L’upcycling alimentaire est défini comme un aliment dont au moins un des ingrédients serait soit un coproduit ou un résidu de la fabrication d’un autre produit (drêche pour la bière), soit un produit invendu (pain), soit un ingrédient qui était précédemment considéré comme un déchet et/ou gaspillé dans la chaîne d’approvisionnement. »

En raison des coûts liés à la collecte de ces déchets ou invendus et de ceux liés à leur transformation, le prix de vente de ces produits upcyclés est plus élevé que celui des offres traditionnelles. Mais, qu’en est-il de l’acceptabilité de ces produits par le consommateur ? Est-il prêt à consentir ce sacrifice monétaire pour se tourner vers une offre alimentaire durable ? Ce modèle de niche peut-il devenir un business model soutenable ? Telles sont les questions auxquelles nous répondons dans une recherche menée auprès de 941 consommateurs.

Upcycling alimentaire

En 2021, 8,8 millions de tonnes de déchets alimentaires ont été produits en France. Parmi ces déchets, 4,3 millions de tonnes sont comestibles – aliments non consommés encore emballés, restes de repas, etc. Pour encourager les entreprises dans la transition écologique de leurs modèles de production, le gouvernement a voté en 2020 la loi antigaspillage pour une économie circulaire (Agec). Car l’industrie agroalimentaire est confrontée à des enjeux importants : assurer la sécurité alimentaire, proposer une offre durable, limiter le gaspillage alimentaire à tous les niveaux que ce soit la production, la distribution ou la consommation.

Schéma sur le gaspillage alimentaire en France
Étendue du gaspillage alimentaire (aliments non consommés encore emballés, restes de repas, etc.) en France, en 2021. Ministère de l’écologie

Acceptabilité de l’upcycling

Notre objectif est de mesurer l’acceptabilité des produits upcyclés et d’identifier les attributs susceptibles d’accroître cette acceptabilité – selon qu’ils portent sur l’entreprise, sur la qualité du produit ou du processus de fabrication.


Abonnez-vous dès aujourd’hui !

Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Pour mesurer l’acceptabilité des consommateurs vis-à-vis de ces produits upcyclés, notre recherche s’appuie sur une expérimentation menée auprès de 941  consommateurs. Après avoir pris connaissance d’une offre de biscuits apéritifs – prix, poids, visuel du produit, libellés –, ces derniers ont été interrogés à quatre reprises. Les données collectées permettent d’apprécier la réponse comportementale du consommateur, appréhendée par l’attitude envers le produit et le consentement à payer dans un premier temps avec une présentation minimale de l’offre.

Des informations sont également fournies et communiquent sur trois bénéfices potentiels différents : la démarche vertueuse de l’entreprise, la qualité gustative et la qualité processuelle des biscuits.

Consentement à payer

Notre recherche a trois enseignements principaux. Le premier concerne le consentement à payer. En moyenne, les consommateurs indiquent un consentement à payer de 1,96 euro. Ce prix est bien supérieur au prix de référence du marché (le leader du marché propose le produit à 0,90 euro). Il reste cependant inférieur au coût réel de cette offre ou des offres qualitatives (certaines marques bio sont vendues à plus de 3 euros).

Deuxièmement, l’ajout d’un argument, peu importe sa nature, permet d’améliorer la valeur créée. Le consommateur est alors prêt à payer en moyenne 2,15 euros au lieu de 1,96 euro (soit un gain d’environ 10 %). Cependant, l’ajout d’un ou de deux arguments supplémentaires n’améliore pas le consentement à payer.

Ce nouveau produit n’est pas accepté de la même manière selon tous les consommateurs ; cela justifie la mise en œuvre d’une approche différenciée. En effet, la distance psychologique influence la perception et la représentation du produit upcyclé. Elle est définie par la théorie du niveau de construit comme une expérience subjective associée au degré de proximité ou de distance qu’un individu éprouve à l’égard d’un objet, ici le biscuit. Nous montrons que la distance psychologique explique l’attitude envers le produit et le consentement à payer. Autrement dit, les consommateurs les moins distants du biscuit ont un consentement à payer supérieur à celui des personnes distantes et ont l’attitude la plus favorable. Inversement, les plus distants envers le biscuit ont le consentement à payer le plus faible et l’attitude la plus défavorable.

Communiquer sur la singularité

Cette recherche suggère ainsi des pistes pour améliorer la durabilité de ce business model. En termes de communication, il est important pour les entreprises évoluant sur ce marché d’ajouter un avantage cohérent avec le caractère upcyclé et de communiquer sur celui-ci. Cette communication a pour objectif de renforcer la crédibilité des entreprises sur ce marché. Elle doit s’appuyer sur des arguments concrets afin de réduire la distance psychologique.

Il est inutile de démultiplier les avantages, car ces efforts de communication n’améliorent pas nécessairement le consentement à payer et l’attitude. Ce résultat est convergent avec les effets limités montrés par la multilabellisation des produits alimentaires. Les études montrent qu’avoir plusieurs labels ou certifications n’améliorent pas le consentement à payer pour des produits alimentaires tels que le miel.

Les entreprises doivent clairement s’adresser aux consommateurs sensibles au gaspillage alimentaire et se positionner sur ce marché de niche avant de pouvoir espérer atteindre l’ensemble des consommateurs. Cette segmentation permet d’offrir des pédagogies différenciées adaptées aux différents publics pour réduire leur distance psychologique vis-à-vis des biscuits et… les convaincre d’acheter ce produit avec un consentement à payer plus élevé.


Marie Eppe, fondatrice d’In Extremis, a participé à la réalisation de cette contribution.

The Conversation

Béatrice Siadou-Martin a reçu des financements de l'ADEME et de la Région Pays de la Loire (programme IP-AG).

Jean-Marc Ferrandi a reçu des financements de l'ADEME et de la Région Pays de la Loire (programme IP-AG)

Anne Mione et Marie-Christine Lichtlé ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

31.03.2025 à 11:59

À quoi servent les obligations vertes ?

Kamel Si Mohammed, researcher, Université de Lorraine

Vanessa Serret, Professor, IAE Metz School of Management – Université de Lorraine

Les obligations vertes sont entre deux eaux. D’un côté, les velléités de Donald Trump de mettre fin aux politiques climatiques. De l’autre, un boom de ce marché avec 530 milliards de dollars d’émissions en 2024.
Texte intégral (2068 mots)
Plus l’incertitude économique est élevée, plus les obligations vertes démontrent leur résilience, en réduisant les risques climatiques. AlexeyGodzenko/Shutterstock

Emprunt émis sur les marchés financiers par un État ou une entreprise pour financer des projets liés spécifiquement à l’environnement, les obligations vertes sont entre deux eaux. D’un côté, les velléités de Donald Trump de mettre fin aux politiques climatiques. De l’autre, un boom de ce marché avec 530 milliards de dollars d’émissions en 2024.


Avec l’élection de Donald Trump, les acteurs de la finance verte grincent des dents. Le président américain a fait réagir en décidant de sortir de l’accord de Paris. Entre 8 100 et 9 000 milliards de dollars par an jusqu’en 2030. C’est l’argent qu’il faudrait mobiliser pour atteindre les objectifs climatiques mondiaux selon le Climate Policy Initiative. Pour lever ces sommes colossales, les gouvernements et les entreprises se tournent de plus en plus vers les obligations vertes.

Dans une étude sur les États-Unis de 2008 à 2022, nous explorons la manière dont ces obligations contribuent à la réduction des risques climatiques. À l’instar des obligations classiques, les obligations vertes sont des emprunts – et donc des dettes – émis sur le marché par des États ou des entreprises. Ces obligations vertes sont destinées uniquement à financer des activités écologiques. Avec quels résultats ?

51,1 milliards de dollars aux États-Unis

Les États-Unis, après avoir réintégré l’Accord de Paris en 2021, se sont fixés des objectifs ambitieux : réduire de 50 à 52 % leurs émissions de gaz à effet de serre d’ici 2030 par rapport au niveau de 2005. Pour atteindre ces objectifs, le pays mise sur la finance verte, notamment via les obligations vertes.

Dès 2020, les États-Unis ont été le plus grand émetteur mondial d’obligations vertes, avec 51,1 milliards de dollars émis selon la Climate Bonds Initiative. Cette tendance s’est poursuivie, atteignant 550 milliards de dollars en 2024, se rapprochant du record de 588 milliards de dollars établi en 2021. Fannie Mae, organisme spécialisé dans la garantie des prêts immobiliers, a été un pionnier des obligations vertes.

Émission d’obligations vertes par Apple entre 2016 et 2024. Fannie Mae, Fourni par l'auteur

Apple a émis sa première obligation verte en 2016, avec un montant de 1,5 milliard de dollars, établissant ainsi un jalon important dans le secteur de la finance durable pour une entreprise technologique. Après une légère baisse en 2017, les émissions ont augmenté à partir de 2019, atteignant 4,5 milliards de dollars en 2024.

Incertitudes économiques

Notre étude sur le marché américain analyse la période de 2008 à 2022. Elle prend en compte plusieurs événements majeurs, tels que la signature de l’accord de Paris, mais aussi des crises économiques comme la crise financière de 2008 et la pandémie de Covid-19. Les chocs économiques – comme la crise de 2008 ou la guerre en Ukraine – augmentent l’incertitude. Elles rendent les obligations vertes plus attractives en tant que valeurs refuges. Plus l’incertitude économique est élevée, plus les obligations vertes démontrent leur résilience en réduisant les risques climatiques.

Un point clé de cette recherche est l’impact de l’incertitude économique sur les obligations vertes. Pour mesurer cela, nous avons utilisé l’indice d’incertitude politique économique, ou Economic Policy Uncertainty (EPU), ainsi que l’indice des sommets climatiques, ou Climate Summit Index (CSI). Ces indices reflètent la manière dont les événements politiques et les engagements climatiques influencent les marchés financiers.

Indice d’incertitude politique économique de 1996 à 2024. Policyuncertainty

Les résultats économétriques montrent que les obligations vertes jouent un rôle crucial dans la réduction des risques climatiques. Toutefois, l’efficacité de ces obligations est à nuancer. Par exemple, lorsque les engagements politiques en faveur du climat sont faibles, l’impact des obligations vertes s’avère plus limité.

Plus d’obligations vertes, moins de risques climatiques

Pour mener cette analyse, nous avons utilisé la méthode statistique appelée régression quantile-surquantile multivariée. Cette méthodologie permet de mesurer l’impact des obligations qui peut être asymétrique selon une période de faible ou de forte incertitude économique. Ils permettent d’étudier la relation dynamique entre les obligations vertes et les risques climatiques selon différents scénarios de marché.

Nos résultats montrent que lorsque le marché des obligations vertes est encore peu développé, leur capacité à réduire les risques climatiques est plus limitée. Cependant, au fur et à mesure que le marché des obligations vertes se développe, leur impact positif sur la réduction des risques climatiques devient plus prononcé. Autrement dit une plus grande émission d’obligations vertes est associée à une baisse significative des risques climatiques.

Cadre règlementaire incitatif

L’efficacité des obligations vertes dépend des politiques climatiques mises en place lors des sommets internationaux mesurés par l’indice de sommet climatique. Nous avons constaté que les engagements pris lors de ces sommets influencent directement le marché des obligations vertes. Lorsque les gouvernements prennent des mesures strictes pour réduire les émissions de carbone, la demande pour ces obligations augmente, ce qui renforce leur impact positif sur la réduction des risques climatiques.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Notre étude montre que l’indice de risque climatique diminue d’environ 16 %, lorsque l’émission d’obligations vertes est très élevée, illustrant leur effet significatif dans l’atténuation du risque climatique. Cependant, lorsque l’indice des sommets climatiques est faible, l’effet des obligations vertes sur la réduction du risque climatique est plus limité, enregistrant une baisse d’environ 12 %.

Ces résultats soulignent la nécessité d’un cadre réglementaire incitatif pour favoriser l’expansion du marché des obligations vertes et maximiser leur efficacité dans la lutte contre le changement climatique.

Trois enseignements

Notre étude propose au moins trois recommandations pratiques à destination des décideurs et des investisseurs pour maximiser l’impact des obligations vertes.

  1. Instaurer un cadre incitatif solide : mettre en place des garanties gouvernementales, afin de réduire les risques financiers associés aux obligations vertes et ainsi attirer un plus grand nombre d’investisseurs.

  2. Établir des normes claires : définir précisément les critères qui qualifient une obligation verte. Cela permettra d’accroître la transparence et la confiance des investisseurs, tout en renforçant l’intégrité du marché.

  3. Faciliter l’accès aux obligations vertes, notamment pour les petites entreprises et les investisseurs institutionnels, en développant des plates-formes de trading dédiées comme le Luxembourg Trade Exchange.

Élargir aux pays émergents

Les obligations vertes ne se limitent pas à un simple instrument financier. Elles représentent un levier puissant pour accélérer la transition écologique, réduire les risques climatiques et stabiliser les marchés financiers face aux incertitudes économiques et politiques. Cependant, notre étude met en lumière une limite notable : les résultats se concentrent principalement sur les États-Unis, un marché financier mature. Il serait essentiel d’élargir le champ d’analyse aux pays émergents, où les risques climatiques et les incertitudes économiques sont souvent plus marqués.

En 2023, les émissions d’obligations vertes dans les marchés émergents ont augmenté de 34 %, atteignant 135 milliards de dollars. Ces chiffres soulignent le potentiel croissant de ces instruments dans ces régions. Des recherches futures pourraient explorer comment ces obligations peuvent répondre aux besoins spécifiques des économies émergentes, pays où le risque climatique est souvent plus élevé ainsi que l’incertitude politique.

The Conversation

rien à déclarer

Kamel Si Mohammed ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

31.03.2025 à 11:59

Les conseils d’administration peuvent-ils diminuer les émissions de gaz à effet de serre dans leur entreprise ?

Cécile Cezanne, Maître de conférences-HDR en économie, Université Côte d’Azur

Gaye-Del Lo, Maître de conférences, Centre d'Économie Paris Nord (CEPN), Université Sorbonne Paris Nord

Sandra Rigot, Professeur des Universités en économie, Université Sorbonne Paris Nord, Chaire « Énergie et Prospérité, Chaire Economie du Climat, Université Sorbonne Paris Nord

Une étude menée sur 305 entreprises cotées met en lumière l’influence du conseil d’administration sur la réduction des émissions de gaz à effet de serre (GES).
Texte intégral (1907 mots)
Parmi les décisions du conseil d’administration, on peut citer la fixation de cibles environnementales mesurables, le développement de l’économie circulaire et des chaînes d’approvisionnement responsable ou encore l’investissement dans l’innovation verte. Godlikeart/Shutterstock

Une étude menée sur 305 entreprises cotées en France, en Allemagne, au Royaume-Uni et au Japon, met en lumière l’influence du conseil d’administration sur la réduction des émissions de gaz à effet de serre (GES). Une empreinte surtout prégnante dans les entreprises les plus émettrices.


Sous la pression des tensions géopolitiques et des impératifs de compétitivité, l’Union européenne a amorcé un choc de simplification du Green Deal incarné par les directives Omnibus. Inspiré par les conclusions du rapport Draghi sur le décrochage économique de l’Europe, ce texte allège les contraintes réglementaires, notamment en matière de normes dans les domaines environnementaux, sociaux et de gouvernance. Cette inflexion du cadre institutionnel risque de ralentir la transition écologique. À moins que les entreprises s’engagent volontairement à adapter leur gouvernance face aux défis climatiques actuels…

En tant qu’organe de gouvernance par excellence, le conseil d’administration a un rôle crucial à jouer. Notre étude récente menée sur 305 entreprises cotées en France, en Allemagne, au Royaume-Uni et au Japon, entre 2015 et 2021, met en lumière l’influence du conseil d’administration sur la réduction des émissions de gaz à effet de serre (GES). En substance, le conseil d’administration, souvent perçu comme un organe mis au service de la performance strictement financière de l’entreprise, se révèle être un acteur déterminant de la lutte contre le changement climatique. En favorisant la diversité de genres et en structurant des comités dédiés à la durabilité, il peut contribuer à faire des entreprises de véritables moteurs du changement.

Stratégie verte des conseils d’administration

La gouvernance d’entreprise, qui désigne l’ensemble des règles et processus encadrant la gestion et le contrôle des sociétés, a connu une évolution significative au fil des décennies. D’abord centrée sur la maximisation des profits et la protection des intérêts de court terme des actionnaires, elle s’est progressivement élargie pour inclure des considérations sociales et environnementales. Aujourd’hui, les entreprises sont évaluées non seulement sur leurs performances financières, mais aussi de plus en plus sur leurs résultats en matière de développement durable.

Le conseil d’administration est l’organe chargé d’orienter et de superviser les décisions stratégiques de l’entreprise et de trancher sur toute question relative à son intérêt social. Il remplit deux fonctions majeures : la gestion des décisions, qui consiste à influencer et soutenir les choix stratégiques des dirigeants, et surtout le contrôle des décisions en veillant à ce que ces choix respectent l’intérêt global de l’entreprise et de ses parties prenantes.

En matière de transition écologique, le conseil d’administration doit adopter des stratégies environnementales basées sur des exigences réglementaires et des normes internationales non obligatoires : GRI, IR, TCFD, CDP, etc. Parmi ces décisions, on peut citer la fixation de cibles environnementales mesurables, le développement de l’économie circulaire et des chaînes d’approvisionnement responsables ou encore l’investissement dans l’innovation verte. Ces démarches sont fondamentales car elles influencent directement la capacité d’une entreprise à réduire ses émissions de GES.

Diversité de genres

Notre étude montre que la composition du conseil d’administration joue un rôle déterminant sur la performance carbone des entreprises.

Parmi les facteurs essentiels, figure d’abord la diversité de genres au sein de l’instance ; les entreprises ayant une plus forte proportion de femmes administratrices affichent des niveaux d’émissions plus faibles. Le parcours de formation – droit, sciences humaines, sciences de l’éducation – et les dynamiques professionnelles des femmes diffèrent sensiblement de ceux de leurs homologues masculins selon Galbreath et Jaffe & Hyde.


Abonnez-vous dès aujourd’hui ! Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Plus enclines à soutenir des initiatives philanthropiques et à valoriser la responsabilité sociétale des entreprises, elles se distinguent par une sensibilité accrue aux enjeux sociaux et environnementaux. Cette orientation les conduit à promouvoir des politiques de durabilité et à exercer une surveillance rigoureuse sur les engagements environnementaux.

Comités spécialisés en RSE

Un autre facteur clé est la création de comités spécialisés au sein du conseil d’administration. Notre étude montre que les entreprises disposant d’un comité RSE (responsabilité sociale et environnementale) enregistrent une meilleure performance en matière de réduction des GES. Notamment pour les émissions directes (Scope 1) et indirectes liées à la consommation d’énergie (Scope 2). Même s’ils n’ont aucun pouvoir de décision et que leur mission consiste essentiellement à éclairer les réflexions du conseil d’administration, ces groupes de travail permettent d’instaurer une vigilance accrue sur les objectifs climatiques.

Scope 1, 2 et 3 selon le standard international, GHG Protocol, qui cartographie les différentes sources d’émissions de gaz à effet de serre. Greenhouse gas protocole

En revanche, la présence de membres indépendants, bien qu’elle garantisse un regard objectif, ne semble pas avoir d’effet direct sur la réduction des émissions. De même, la composition du conseil d’administration n’aurait pas d’influence sur les émissions les plus indirectes (Scope 3), alors que ces dernières représentent environ 80 % des émissions globales des entreprises.

Secteurs à fortes émissions

Les résultats varient toutefois selon les domaines d’activité. Les entreprises opérant dans les secteurs à fortes émissions identifiés par le GIEC comme l’énergie, les bâtiments, les transports, l’industrie et l’AFOLU – agriculture, foresterie et autres usages des terres –, bénéficient davantage de ces dispositifs de gouvernance. Dans ces secteurs, la diversité de genres parmi les administrateurs et la présence d’un comité RSE ont un impact particulièrement marqué sur la réduction des émissions. À l’inverse, dans les industries à plus faibles émissions, ces facteurs jouent un rôle moins décisif, probablement en raison d’une empreinte carbone initialement moindre.

Au-delà de la réduction des émissions de GES, le conseil d’administration pourrait se saisir d’une question complémentaire majeure : la préservation de la biodiversité. Essentielle pour assurer la résilience des écosystèmes et garantir la durabilité des activités humaines, elle reste sous-estimée. Or, le conseil a les moyens, outre l’adoption volontaire d’initiatives comme la norme TNFD (Taskforce on Nature-related Financial Disclosures), de pousser les entreprises à limiter activement leur impact sur la biodiversité. Il pourrait veiller à la mise en place de modèles d’affaires attentifs aux écosystèmes, au développement de dispositifs de compensation des atteintes à la biodiversité ou encore à l’adoption de technologies plus respectueuses de la nature. Là encore, la composition du conseil d’administration pourrait être un enjeu de taille. La décision récente de l’entreprise Norsys de faire siéger la nature au sein de son conseil d’administration l’atteste.

The Conversation

Cécile Cezanne est chercheuse associée à la Chaire Énergie et Prospérité (https://chair-energy-prosperity.org/).

Sandra Rigot a reçu le soutien de la Chaire Énergie et Prospérité et de la Chaire Énergie du Climat

Gaye-Del Lo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

30.03.2025 à 16:35

Comment l’ingéniosité des « plantes de service » peut aider à réduire les pesticides

Paula Fernandes, Researcher, Cirad

Alain Ratnadass, Senior research scientist, Cirad

François-Régis Goebel, Directeur de Recherches en protection des cultures, gestion des bioagresseurs, Cirad

Gaëlle Damour, chercheuse, Cirad

Les végétaux regorgent de ressources pour repousser les attaques de ravageurs et de maladies. En faire des alliés permet de réduire le recours aux produits phytosanitaires.
Texte intégral (2989 mots)
Utilisation de l’œillet d’Inde en plantation de canne pour réduire l’incidence des ravageurs aériens. François-Régis Goebel/Cirad UPR Aida, Fourni par l'auteur

Il existe chez les plantes des dizaines de mécanismes plus ingénieux les uns que les autres pour réguler naturellement les organismes qui s’attaquent aux cultures. S’appuyer sur ces alliés précieux est indispensable pour diminuer notre dépendance aux pesticides. Cela permet aussi de construire des systèmes agroécologiques plus résilients.


Chaque jardinier connaît l’œillet d’Inde, allié qui éloigne insectes et maladies du potager. Mais saviez-vous qu’il existe de nombreuses autres plantes, dites « plantes de service », précieuses pour une agriculture plus respectueuse de la santé et de l’environnement ?

Des résultats de recherche révèlent qu’une large gamme de plantes, lorsqu’on les intègre aux systèmes de culture, sont capables de réguler les bioagresseurs des champs (insectes et arthropodes, nématodes, champignons, bactéries, virus, adventices), et donc de réduire les besoins en pesticides.

Selon les plantes, elles mobilisent un mécanisme particulier ou en combinent plusieurs. Certaines vont agir contre les bioagresseurs aériens, tels les plantes aromatiques ou le maïs. D’autres sont efficaces contre les bioagresseurs telluriques, comme les crotalaires, le sorgho hybride ou les crucifères.

Créer les conditions propices

Penchons-nous dans un premier temps sur les mécanismes mis en œuvre par certains végétaux pour contrer les bioagresseurs aériens.

Les plantes refuges, fréquemment implantées en bordure de parcelle, assurent un habitat favorable aux auxiliaires, en leur fournissant le gîte et le couvert. Ainsi, ces derniers sont déjà présents lorsque les ravageurs arrivent pour attaquer les cultures, ils interviennent plus rapidement (prédation, parasitisme). C’est le cas notamment du tournesol mexicain (Tithonia diversifolia) utilisé aux abords des champs de canne à sucre en Tanzanie pour attirer et préserver les coccinelles prédatrices du puceron jaune Sipha flava, ravageur majeur dans ce pays.

Utilisation d’arbres d’ombrage, ici l’eucalyptus et l’érythrine dans les plantations de café au Costa Rica, crédit. Jacques Avelino, Cirad, UMR PHIM, Fourni par l'auteur

Les plantes d’ombrage, intégrées dans la parcelle, modifient son microclimat. En changeant la luminosité et l’humidité, elles rendent les conditions climatiques défavorables à certains bioagresseurs et plus favorables à d’autres.

C’est notamment le cas des eucalyptus ou érythrines dans les plantations de caféiers, vis-à-vis du champignon Colletotrichum kahawae provoquant l’anthracnose des baies au Cameroun. Ces plantes ont le même effet sur la cochenille Placococcus citri et le champignon Cercospora coffeicola qui provoque au Costa Rica la cercosporiose.

Créer des barrières naturelles

Certaines plantes jouent un rôle de barrière contre les agresseurs. Implantées en bordure, elles forment un rideau végétal qui empêche les ravageurs d’atteindre la culture. C’est le cas des barrières de Crotalaria juncea qui obstruent le passage des aleurodes, qui volent à hauteur d’homme vers les plants de piment.

D’autres végétaux utilisent également l’espace pour freiner l’avancée de l’ennemi. Associés à une culture sensible, ils vont dissimuler cette dernière aux ravageurs en créant un effet de « dilution » visuelle. Ces associations, en générant une discontinuité spatiale, peuvent aussi ralentir la propagation de proche en proche des maladies fongiques.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Elles peuvent par ailleurs réguler les adventices par compétition pour les ressources (lumière, eau, nutriments) ou par barrière physique. En bananeraie, des espèces comme Neonotonia wightii ou Arachis pintoi ont révélé de bonnes aptitudes, avec un impact modéré sur la croissance des bananiers.

Émettre des odeurs répulsives ou attractives

Les plantes émettrices d’odeurs peuvent être utilisées seules ou bien combinées pour accroître leur efficacité dans un système « push-pull » :

La plante « push », intégrée au milieu de la culture, diffuse un « parfum répulsif » pour les ravageurs. Les plantes aromatiques, telles que le basilic ou le gros thym antillais Plectranthus amboinicus, constituent un vivier intéressant de plantes « push ».

Utilisation d’une bordure de maïs pour détourner la noctuelle de la tomate, Martinique. Cirad UPR Hortsys, Fourni par l'auteur

Parallèlement, une plante « pull » est introduite, soit dans la parcelle pour attirer les auxiliaires, soit en bordure pour attirer vers elle le ravageur, le détournant ainsi de la culture. Ainsi, certaines variétés de maïs doux attirent la femelle de la noctuelle de la tomate qui, au lieu de pondre sur les tomates, va le faire sur les soies des épis de maïs – qui constituent des « voies sans issue » car les larves qui éclosent ne peuvent s’y développer.

Interrompre la reproduction de l’ennemi

Les plantes citées jusqu’ici ne s’attaquaient qu’aux bioagresseurs aériens. Mais d’autres mécanismes existent pour combattre les bioagresseurs telluriques.

La rotation des cultures, notamment, permet d’interrompre la reproduction des bioagresseurs. Lorsqu’une plante non sensible à l’agresseur vient remplacer pendant une période la plante sensible, la population de parasites dans le sol diminue fortement.

Trois plantes assainissantes d’intérêt pour la réduction des nématodes et de certaines maladies bactériennes du sol comme le flétrissement bactérien causé par Ralstonia solanacearum. Paula Fernandes, Cirad, UPR Hortsys, Fourni par l'auteur

Une fois que la culture sensible revient sur la parcelle, elle est en mesure de se développer sans incidence majeure tant que la population pathogène reste faible. Une véritable course de vitesse s’engage alors entre le développement de la culture et la multiplication du pathogène.

C’est par exemple le cas en cultures maraîchères ou dans des bananeraies. Créer des jachères assainissantes à base d’espèces non-hôtes (comme Crotalaria juncea ou Brachiaria spp) réduisent les populations de nématodes phytoparasites.

Empoisonnement ou inhibition

Autre méthode d’attaque contre les telluriques, l’empoisonnement ou l’inhibition – aussi appelée allélopathie. Ici, différentes stratégies existent et ont été mises en évidence.

Certains végétaux, tels que les crotalaires, libèrent via leurs racines des alcaloïdes pyrrolizidiniques toxiques pour plusieurs espèces de nématodes phytoparasites.

Autre moyen, la biofumigation par certains végétaux au moment de leur décomposition. Par exemple des isothiocyanates, composés soufrés à large spectre d’efficacité (champignons, bactéries, nématodes…), issus de la dégradation des glucosinolates largement présents chez les brassicacées (moutarde par exemple) et les alliacées (ail, oignon…).

D’autres plantes, enfin, provoquent la germination des graines de plantes parasites (comme le Striga) ou attirent les pathogènes (nématodes phytoparasites) vers leurs racines en émettant des signaux semblables à ceux d’une plante sensible. Ainsi, le coton, le lin ou le soja, plantes non hôtes, diminuent le potentiel infectieux du sol en engendrant la germination « suicidaire » du Striga, dont les radicules sont alors incapables de se fixer à leurs racines.

De façon générale, les plantes de service peuvent aussi jouer un rôle bénéfique en stimulant la diversité de la microflore et de la macrofaune du sol, de façon globale ou ciblée.

Supprimer les bioagresseurs

Parmi les communautés du sol se trouvent des espèces antagonistes ou prédatrices des bioagresseurs. En particulier certains nématodes libres, qui se nourrissent de nématodes phytoparasites. Mais aussi des bactéries et champignons, qui peuvent produire des antibiotiques ou encore parasiter ces bioagresseurs. On parle alors de suppressivité spécifique.

En bananeraie, les jachères de Paspalum notatum augmentent ainsi les populations de nématodes libres omnivores ou prédateurs, qui en retour diminuent les populations de nématodes phytoparasites.

D’autres microorganismes du sol, sans réguler directement les pathogènes, occupent des niches où ils sont en compétition avec eux, notamment en colonisant la rhizosphère des plantes, et en utilisant les mêmes ressources.

Ce faisant, ils réduisent les conditions favorables à la croissance des pathogènes. On parle alors de suppressivité générale.

Enrichir le sol

Outre l’accroissement de populations bénéfiques du sol, les plantes de service contribuent également à l’enrichir. Souvent employées comme engrais verts ou plantes de couverture, elles restituent au sol de la matière organique et des nutriments, accessibles ensuite à la plante cultivée.

Du fait de l’amélioration de sa résistance physiologique, via une nutrition plus équilibrée et la disponibilité de certains oligoéléments, celle-ci est moins vulnérable aux attaques des bioagresseurs, telluriques mais aussi aériens.

L’efficacité des plantes de service dépend donc dans une large mesure du contexte. Pour réussir, l’utilisation de plantes de service pour gérer des bioagresseurs requiert une compréhension claire des principes génériques de l’agroécologie couplée à une connaissance fine des espèces impliquées, afin d’adapter et appliquer ces principes à des situations spécifiques.

L’évolution des interactions entre cultures et bioagresseurs nécessite également d’adapter les pratiques au changement, et, le cas échéant, de mobiliser simultanément divers mesures et mécanismes de régulation.


Le 5 juin 1984 naissait le Cirad fondé par décret. Depuis plus de 40 ans, les scientifiques du Cirad partagent et co-construisent avec les pays du Sud des connaissances et des solutions innovantes pour préserver la biodiversité, la santé végétale et animale, et rendre ainsi les systèmes agricoles et alimentaires plus durables et résilients face aux changements globaux.

The Conversation

Paula Fernandes a reçu des financements de bailleurs publics de la recherche pour le developpement

Alain Ratnadass a reçu des financements de bailleurs de fonds publics français, européens et internationaux pour la recherche pour le développement.

François-Régis Goebel est membre de l'International Society of Sugarcane Technologists (ISSCT). Il a reçu des financements de bailleurs de fonds publics français, européens et internationaux pour la recherche pour le développement.

Gaëlle Damour a reçu des financements de bailleurs de fonds publics français, européens et internationaux pour la recherche pour le développement.

27.03.2025 à 11:48

Comment nommer les nuages ? Une histoire entre science et art

Anouchka Vasak, Maitresse de conférences de littérature française, Université de Poitiers

Alexis Metzger, Géographe de l’environnement, du climat et des risques, INSA Centre Val de Loire

Martine Tabeaud, Géographe, Université Paris 1 Panthéon-Sorbonne

Nommer ces amas de gouttelettes d’eau en suspension dans l’air a été une longue quête du côté de la science comme de l’art.
Texte intégral (5084 mots)
_Cirrus_ (« boucle de cheveux »), _nimbus_ (« orageux »), _cumulus_ (« amas ») ou _stratus_ (« étendu ») sont les noms latins donnés aux différents nuages, par le Britannique Luke Howard, météorologue amateur, dans son ouvrage publié en 1803, que l’histoire a retenus. Michael Jastremski/LivingShadow, Fourni par l'auteur

Lointains, mouvants, impalpables… La nature même des nuages fait de ces amas de gouttelettes d’eau en suspension dans l’atmosphère un objet d’étude complexe à appréhender pour les peintres comme pour les scientifiques. À l'occasion de la Journée internationale des nuages, le 29 mars, retour sur ces nuages qui n'en finissent pas de fasciner.


Les parois des abris sous roche et des grottes du Paléolithique ne représentent jamais de nuages. Il est pourtant évident que l’observation des états du ciel et donc des nuages fut vitale pour les premiers hominidés. Mais comment dessiner, nommer et décrire des objets si mouvants ? Retour sur une quête qui passionna scientifiques et artistes du monde entier.

Pour évoquer les nuages, de nombreuses cultures mentionnent leurs couleurs et le risque de détérioration du temps, en opposant par exemple ceux qui sont hauts et très blancs et ceux, à l’inverse, que l’on observe bas et très noirs. C’est le cas par exemple à Madagascar avec une distinction faite entre les nuages clairs de la saison sèche et ceux de la mousson, de couleur bleu foncé à noir à leur base, et très épais.

Au Japon, des atlas du XVIIIᵉ siècle les associent eux à des constellations, tandis qu’à la même époque les maîtres de l’estampe, comme Hokusai, les représentent généreusement.

Quand il s’agit de les nommer, toutes les typologies recensées les comparent à des objets familiers (diablotins, pis de vache, mouton, oiseau, chou, pomme, fleur…). Les artistes ne sont pas en reste de cette diversité pour figurer les nuages.

Le Fuji par temps clair, de Katsushika Hokusai. Wikicommons

Entre la terre et les cieux

Beaucoup ont tenté de traduire sur la toile ou le papier cette réalité céleste fugace, observable en un lieu donné et à un moment donné. Les ciels typés accompagnent ainsi les arrière-plans des enluminures médiévales. Mais il ne s’agit pas là d’une recherche systématique de compréhension, d’inventaire des nuages.

Durant tout le Moyen Âge les nuages dans la peinture, souvent murale, permettent surtout de faire un lien entre les mondes divin et matériel, le céleste et le terrestre. Les peintres hollandais s’affranchissent ensuite du religieux pour montrer des ciels remplis de nuages réalistes, balayant souvent d’ouest en est les Pays-Bas.

« Le même mais plus sombre »

En 1785, le peintre paysagiste britannique Alexander Cozens publie une Nouvelle Méthode pour assister l’invention dans le dessin de compositions originales de paysages (A New Method of Assisting the Invention in Drawing Original Compositions of Landscape). Sa méthode du blot drawing (« dessin par tâches », en français), destinée aux peintres, utilise les taches d’encre comme point de départ d’une composition paysagère.

Vingt gravures de ciels accompagnent ce traité. Composées par paire, elles sont pour la plupart intitulées La même chose que la précédente, mais en plus sombre (The Same as the Last but Darker), signe que la dénomination des nuages n’est pas alors la question.

De fait, en Europe, le premier projet encyclopédique de répertoire de nuages n’apparaît qu’au XIIIe siècle avec le livre XI du Livre des propriétés des choses, du moine franciscain Barthélemy l’Anglais qui se contente d’évoquer leur diversité de formes et de couleurs, sans leur apposer de noms spécifiques. Pour lui, le nuage se forme

« car la chaleur du ciel attire très subtilement vers elle les exhalaisons de l’eau et de la terre ; elle en sépare les parties les plus légères, assemble le reliquat et les convertit en nuages ».


Visuel d’illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu

Abonnez-vous dès aujourd’hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


Cirrus 1-Diablotins 0

Des propositions de classification des « états du ciel » sont ensuite proposées par l’érudit Robert Hooke, à la Société royale de Londres pour l’amélioration des connaissances naturelles (communément appelée la Royal Society) ou bien par la Société météorologique palatine (1780). Il faut ensuite attendre 1802 pour que deux classifications de nuages soient élaborées par des hommes de sciences. Le premier est le naturaliste français Jean-Baptiste de Lamarck qui s’efforce de mettre au point, de 1802 à 1818, une classification en français. Il proposera in fine au moins trois typologies de nuages, aux résonances plus poétiques que scientifiques : nuages en lambeaux, attroupés, boursouflés, en balayures, diablotins…

Vint ensuite le Britannique Luke Howard. Ce jeune quaker, pharmacien et météorologue amateur, publie en 1803 On the Modifications of Clouds que la postérité retiendra. À la manière du botaniste suédois Carl von Linné quelques décennies plus tôt, Howard distingue et nomme en latin les différentes formations nuageuses : cirrus (« boucle de cheveux », en latin), nimbus (« nuage orageux »), cumulus (« amas ») et stratus (« étendu »).

Mais Howard prend malgré tout quelques libertés vis-à-vis de la méthode de son prédécesseur. D’abord, parce que Linné avait identifié trois grands groupes d’objets d’étude (baptisés « règnes ») – le minéral, le végétal et l’animal – et que, pour évoquer les nuages, il faut donc sortir de ces délimitations.

Ensuite, Howard s’affranchit aussi des subdivisions de Linné qui répartit, au sein de ses différents règnes, les objets d’études en classes, espèces et genres. Pour les nuages, Howard distingue des « modifications », au sens de formations nuageuses. Il dénombre ainsi :

  • trois « modifications » simples (cirrus, cumulus, stratus) ;

  • deux intermédiaires, combinaison de deux formations simples (cirro-cumulus, cirro-stratus) et deux composées (le cumulo-stratus, ou cirro-stratus fondu avec un cumulus, et le cumulo-cirro-stratus, ou nimbus, c’est-à-dire le nuage le plus dense, le nuage de pluie.

Dessiner pour démontrer

Pour accompagner cette dénomination, Howard va proposer des dessins, comme les naturalistes le faisaient par exemple pour les plantes. La première édition de On the Modifications of Clouds, parue en 1803, comporte ainsi trois planches.

La nouvelle édition de 1865, publiée sous le titre Essay on the Modifications of Clouds, est, pour sa part, illustrée de gravures représentant des compositions paysagères de nuages étagés d’après ses esquisses de ciel surmontant une partie terrestre dessinée par le peintre Edward Kennion.

Gravure représentant une composition paysagère de nuages étagés, d’après ses esquisses célestes surmontant une partie terrestre dessinée par Edward Kennion. _Essay on the Modifications of Clouds_

Grâce à Goethe, qui s’intéressa très tôt à la météorologie et notamment aux nuages, Howard fut vite reconnu par les artistes européens. À la fin de son Essai de théorie météorologique (1825), il saluera en Howard « l’homme qui sut distinguer les nuages ». Si Howard ne parvint pas à convaincre Caspar David Friedrich, le peintre du célèbre Voyageur au-dessus de la mer de nuages (1818), de peindre des nuages « d’après Howard » (« Ce serait, lui rétorque Friedrich, la mort du paysage en peinture »), les peintres de l’époque romantique ne peuvent en tout cas plus ignorer que la perception des nuages est désormais informée mais peut-être aussi limitée, selon certains, par la classification de Howard.

Topographie de nuages britanniques et brésiliens

Celui qui s’en accommoda le mieux fut John Constable. Au début de la décennie 1820, et durant deux années, il scrute depuis son quartier de Hampstead les ciels londoniens et produit une série d’études à l’huile à travers lesquelles il cherche à retranscrire la variation des conditions météorologiques à différents moments de la journée.

L’artiste complète souvent ses Cloud Studies, exécutées sur papier d’après la nomenclature de Howard, avec des mentions de la date, de l’heure, de la direction du vent.

Cloud Study (1822), de John Constable. The Courtauld Gallery, CC BY

L’exactitude météorologique de ces précisions a pu être vérifiée. L’impression de mouvement est donnée par les formes des nuages. La technique, inédite pour l’époque, consiste en de larges brossages sur des sous-couches colorées.

Bien loin de là, au Brésil, à la latitude du tropique du Capricorne, un autre peintre, Hercule Florence, a, de son côté, entrepris d’immortaliser les ciels de Campinas, à 90 kilomètres au nord de Sao Paulo, de 1832 à 1837. Il partage avec Constable un souci d’authenticité. Puisque « […] les ciels de la zone torride sont différents des ciels des contrées tempérées », il publie un Atlas pittoresque des ciels à l’usage des jeunes paysagistes. Ce catalogue comprend vingt-deux aquarelles numérotées, datées et décrites minutieusement, sans référence à la nomenclature latine des nuages, inconnue d’Hercule Florence.

« Deuxième étude à S. Carlos, 27 juillet 1832, 3 heures de l’après-midi. Ciel du sud-est », parmi les séries d’étude des ciels brésiliens, du géographe Hercule Florence, à l’aquarelle, au graphite, à l’encre de Chine et à l’encre ferrogallique sur papier. Collection Cyrillo Hercules Florence/Collection IMS. Instituto Moreira Salles

Il s’adresse en priorité aux peintres afin de les aider à représenter dans leurs tableaux des arrière-plans vraisemblables et fidèles à la saison et à l’heure.

Vers un Atlas international des nuages

Dans les sphères scientifiques, cependant, la classification de Howard reste, pendant plusieurs décennies, peu et mal utilisée. Un météorologiste de Cuba André Poey pose même la question de l’universalité des types de nuage et de la subjectivité du dessin. Pour évaluer cela, le congrès météorologique international de 1879 décide alors d’envoyer le météorologiste et photographe britannique Ralph Abercromby faire deux tours du monde.

Il publiera au retour Sur l’identité des formes de nuages tout autour du monde. Son travail débouchera également sur une classification internationale des nuages, largement inspirée de Howard, mais complétée d’une nomenclature fondée sur dix principaux types de nuages.

Photographie d’un ciel londonien par Ralph Abercromby (1884). Wikimeedia, CC BY

Cette typologie sera consacrée par l’édition, en 1891, des Instructions météorologiques, d’Alfred Angot, suivies, en 1896, par l’Atlas international des nuages, établi par les météorologues Hugo Hildebrand Hildebransson, Albert Riggenbach et Léon Teisserenc de Bort pour fixer les catégories de nuages « universels ». Selon les auteurs, les dessins sont trop schématiques et les peintures peu fidèles. Les photographies donnent des résultats plus réalistes. L’Atlas est donc illustré par 16 photographies prises par Ralph Abercromby.

De l’ordinaire à l’extraordinaire des ciels

Mais les peintres ne cessent pas pour autant de s’intéresser aux nuages.

De 1912 à 1951, par exemple, le peintre français André des Gachons, qui a installé une station météorologique dans son jardin de la Chaussée-sur-Marne (Marne) et qui devient bénévole des services météorologiques, peint d’une à trois aquarelles de ciel chaque jour. Neuf mille six cents œuvres sont ainsi répertoriées dans des cahiers. Les aquarelles s’intègrent à une planche sur laquelle figurent aussi les relevés de caractères de l’air.

L’originalité de ce travail réside dans la répétition sur une longue durée et la mise en mémoire de ciels très ordinaires. On n’y trouve que quelques ciels avec des nuages extraordinaires (explosions de munitions, tirs de DCA, etc.) observés pendant la Première Guerre mondiale.

Planche de cirrostratus, 20 février 1916. Les coordonnées géographiques indiquées semblent utiliser Paris comme méridien d’origine (2,33723° à l’est de Greenwich) comme sur les cartes de l’époque ([1]). Il y a en outre une erreur sur la latitude qui est en fait 48° 50′ Nord, et pas 40° 50′. « Au point exact de l’intersection du méridien et du parallèle » fait donc référence à ces coordonnées : 2° 10′ E et 48° 50′ N, soit en coordonnées actuelles 4.50390°E, 48.83333°N, en sortant de la Chaussée-sur-Marne, en direction de Saint-Martin-aux-Champs, comme indiqué (chemin de Saint-Martin). André des Gachons, CC BY

Aujourd’hui, nombre d’artistes continuent de se saisir de cet objet évanescent. Polymorphe, le nuage l’est aussi dans les messages qu’il peut porter, incarnant le rêve et la liberté pour Sylvain Soussan dans son musée des nuages, le mouvement et l’inconstance pour François Réau, l’incertitude pour Benoît Pinero) marchant dans le brouillard dans la vallée de la Loire ou même l’apocalypse à travers l’illustration choisie par la BNF pour l’exposition sur ce thème.

Guillaume Trouillard, éditions de la Cerise, 2013, Fourni par l'auteur

Quant à l’Atlas international des nuages, il se dote régulièrement de nouveaux nuages, comme le cataractgenitus qui se forme au-dessus des chutes d’eau. De quoi, de nouveau, inspirer les peintres et former de nouveaux traits d’union entre art et science.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
   FIABILITÉ FAIBLE
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓