07.04.2025 à 16:56
Brian Padilla, écologue, recherche-expertise "biodiversité et processus d'artificialisation", Muséum national d’histoire naturelle (MNHN)
Fanny Guillet, sociologue, chargée de recherche au CNRS, Muséum national d’histoire naturelle (MNHN)
Julien Siracusa-Philippe, Chargé de projet "Évaluation scientifique des politiques publiques de neutralité écologique"
Maylis Desrousseaux, Maîtresse de conférences en Urbanisme, Université Paris-Est Créteil Val de Marne (UPEC)
La proposition de loi Trace (Trajectoire de réduction de l’artificialisation concertée avec les élus), en cours de discussion au Parlement, diminue fortement les objectifs de « zéro artificialisation nette » (ZAN), fixés en 2021. Mais quels étaient ces objectifs et en quoi sont-ils menacés ?
Chaque année, la France hexagonale voit en moyenne 200 km2 d’espaces naturels, agricoles ou forestiers disparaître. C’est l’équivalent de 20 000 terrains de football qui sont ainsi artificialisés. Dans les deux tiers des cas, ces espaces sont dévolus à la construction de nouveaux logements, souvent loin des métropoles, dans des zones à faible croissance démographique. Plus frappant encore, un quart de cette artificialisation concerne des communes qui perdent des habitants.
Ces chiffres sont préoccupants, alors que de nombreux travaux scientifiques soulignent le rôle de l’artificialisation des sols dans les crises écologiques actuelles. La fragmentation et la disparition d’espaces naturels figurent de fait parmi les principales causes de l’effondrement de la biodiversité. La diminution de la capacité des sols à stocker le CO2 – voire la transformation de ces derniers en sources d’émission lorsqu’ils sont dégradés – accentue les dérèglements climatiques. L’imperméabilisation des sols favorise, elle, le ruissellement de surface, amplifiant la pollution des cours d’eau et les risques d’inondations.
Les récentes crues dévastatrices dans les Hauts-de-France au cours de l’hiver 2023-2024 ou encore les inondations survenues en octobre 2024 dans le centre et le sud de la France sont les derniers témoins des conséquences directes de l’artificialisation et de l’altération des fonctions écologiques des sols.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Pour enrayer l’effondrement de la biodiversité et amorcer une stratégie nationale de préservation des sols, la France s’est fixé un objectif ambitieux dans la loi Climat et résilience (2021) : « zéro artificialisation nette » (ZAN) en 2050. Construit en 2 étapes, cet objectif vise dans un premier temps à réduire de moitié la consommation d’espaces naturels, agricoles et forestiers (Enaf) sur la période allant de 2021 à 2031 par rapport à la décennie précédente, puis, d’ici à 2050, de prendre les dispositions nécessaires pour qu’à l’échelle nationale, un hectare soit « désartificialisé » pour chaque hectare artificialisé.
Initialement pensé comme une politique environnementale ambitieuse, le ZAN a néanmoins suscité de nombreux débats autour de sa mise en œuvre et sur la répartition des « enveloppes » d’artificialisation. Son déploiement territorial, censé permettre aux régions d’organiser la réduction de la consommation d’Enaf, s’est transformé en un exercice comptable. Plutôt que de s’intéresser à évaluer les conséquences des choix d’aménagement sur le fonctionnement des écosystèmes composant leurs territoires, les représentants des collectivités se sont en effet opposés aux méthodes retenues pour compter les mètres carrés artificialisés.
Les autorités environnementales, chargées de rendre des avis publics sur les études d’impacts des projets, plans et programmes, rappellent pourtant dans leurs avis successifs et leurs rapports annuels que le ZAN ne se limite pas à un simple contrôle des surfaces artificialisées : il implique aussi d’évaluer l’impact des projets sur les fonctions écologiques des sols.
Malgré ces rappels, face à la pression des associations d’élus, le Sénat a déjà assoupli le dispositif, en 2023, avec la loi ZAN 2, qui repousse le calendrier de mise en œuvre et offre à de nombreuses communes la garantie de pouvoir consommer à hauteur d’un hectare d’Enaf, sans prendre la peine de discuter des besoins en matière d’aménagement et des alternatives à explorer.
À lire aussi : Objectif ZAN : comment tenir les comptes ?
Avec la proposition de loi Trace (Trajectoire pour une réduction de l’artificialisation concertée avec les élus) – adoptée par le Sénat, le 18 mars dernier, et dans l’attente d’un examen à l’Assemblée nationale, l’objectif ZAN risque une nouvelle fois d’être profondément fragilisé. Présentée comme un simple assouplissement, cette réforme remet en cause des avancées de la loi Climat et résilience. Elle retourne par exemple, à une définition comptable de l’artificialisation, fondée uniquement sur la consommation d’Enaf et supprime celle de la loi Climat et résilience qui la qualifiait comme une « altération durable de tout ou partie des fonctions écologiques des sols ».
Cette dernière définition s’approchait pourtant des constats issus des travaux en écologie, selon lesquels l’intensification des usages de l’espace participe aux impacts sur le bon fonctionnement des écosystèmes.
De fait, la suppression de cette définition suppose qu’un sol peut être interchangeable avec un autre tant que son usage reste naturel, agricole ou forestier, ignorant ainsi tous les processus écologiques qui conduisent à la création, à l’évolution et à la santé d’un sol.
En choisissant de prendre en compte uniquement la consommation d’Enaf, la proposition de loi laisse aussi de côté le principal outil qui permettait de mesurer, à une échelle fine, les changements d’usage et d’occupation des sols. Les données d’occupation du sol à grande échelle (OCS GE), produites par l’IGN pour comptabiliser l’artificialisation permettaient en effet de suivre l’artificialisation causée par les politiques de planification de l’urbanisme.
Autre recul significatif : le report à 2034 de l’objectif intermédiaire de réduction de l’artificialisation, dont l’ambition sera désormais fixée par les régions. Ce décalage enterre l’idée d’une transition immédiate vers une sobriété foncière, pourtant essentielle pour repenser nos besoins en aménagement, alors même que de nombreux élus ont déjà commencé à intégrer ces objectifs (c’est le cas par exemple de la Région Bretagne ou encore du schéma de cohérence territoriale (Scot) de Gascogne).
S’y ajoute par ailleurs une disposition visant à accorder un droit à artificialiser de 0,5 ha en cas de requalification d’un hectare de friche. Autrement dit, lorsqu’une collectivité s’emploiera à aménager sur 4 ha d’espaces délaissés, elle sera autorisée à détruire par ailleurs 2 ha supplémentaires d’Enaf.
Enfin, l’exclusion des projets d’envergure nationale ou européenne du calcul de l’artificialisation marque un autre tournant préoccupant. Ces grands projets, dont la liste ne cesse de s’allonger, sont supposés permettre de concilier le développement économique et la transition écologique. Y figurent pourtant de nombreux projets routiers, des établissements pénitentiaires et des zones d’activité. Le législateur choisirait ainsi d’exonérer l’État des contraintes du ZAN, opposant de fait sa politique de réindustrialisation aux impératifs de préservation de l’environnement.
En quelques articles seulement, la proposition de loi Trace transforme ainsi l’objectif ZAN en un catalogue d’exceptions, autorisant la destruction et la fragmentation des espaces naturels sans réelle évaluation de leurs fonctions écologiques. Il ne reste, de fait, plus grand-chose des ambitions initiales d’une loi qui voulait donner un élan nouveau à une politique de régulation de l’aménagement qui peine à porter ses fruits depuis vingt-cinq ans.
Quelques semaines après l’annulation par le tribunal administratif de Toulouse du projet d’autoroute A69 – qui devait artificialiser 366 hectares de sols et dont les travaux ont déjà causé la destruction de nombreux espaces naturels, cette nouvelle proposition de loi illustre les tensions croissantes entre, d’un côté, les mobilisations citoyennes contestant les grands projets d’aménagement consommateurs de foncier et, de l’autre, une volonté politique de simplification, qui semble aller à rebours des engagements environnementaux annoncés dans la stratégie nationale Biodiversité 2030.
En cherchant à détricoter les principes du ZAN, la loi Trace pose donc une question fondamentale : voulons-nous réellement engager la transition, ou préférons-nous maintenir un modèle dépassé, aux dépens de l’environnement dont nous dépendons ?
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
06.04.2025 à 17:33
Marc Delepouve, Chercheur associé au CNAM, Docteur en épistémologie, histoire des sciences et des techniques, Conservatoire national des arts et métiers (CNAM)
Bertrand Bocquet, Professeur des Universités, Physique & Science, Technologie et Société, Université de Lille
Limiter l’utilisation des énergies fossiles doit permettre de lutter contre le réchauffement climatique. Or, à court terme, il faut aussi prendre en compte l’autre conséquence de la décarbonisation de l’économie : la baisse des émissions de dioxydes de soufre, qui ont, au contraire, un effet refroidissant sur la planète. Pour pallier le risque de surchauffe transitoire, il existerait pourtant un levier précieux : réduire les émissions de méthane liées à l’agriculture.
L’agriculture est sous tension. Aujourd’hui source de problèmes écologiques, sanitaires, sociaux et même éthiques du fait des enjeux de souffrance animale, elle pourrait se situer demain du côté des solutions. Elle pourrait constituer le principal levier pour répondre au risque d’un épisode de surchauffe du climat.
La réduction de l’utilisation des énergies fossiles, rendue nécessaire pour l’atténuation du changement climatique, porte en effet un tel risque. Le recours aux énergies fossiles (charbon, pétrole, gaz naturel…) provoque des émissions de dioxyde de carbone (CO2), dont l’effet de serre réchauffe le climat. Mais la combustion d’un grand nombre de ces produits fossiles s’accompagne de l’émission de dioxyde de soufre (SO2) qui possède un effet refroidissant sur le climat et génère des aérosols qui ont eux aussi un effet refroidissant.
Au plan global, l’impact du CO2 en termes de réchauffement est plus fort que le pouvoir refroidissant du SO2 et constitue la première cause du changement climatique. Se passer des énergies fossiles, ce que nous nommerons dans cet article défossilisation de l’énergie, est donc au cœur des stratégies d’atténuation du changement climatique.
Le problème, c’est que les effets sur le climat d’une baisse des émissions de CO2 mettent du temps à se faire sentir du fait de la durée de vie élevée du CO₂ dans l’atmosphère. En comparaison, les effets d’une chute des émissions de SO2 sont quasiment immédiats, la durée de vie de ce gaz n’étant que de quelques jours dans la troposphère et de quelques semaines dans la stratosphère.
Si elles ne prennent en compte ces différences de temporalité, les stratégies d’atténuation pourraient conduire à un épisode de surchauffe momentané du climat. Les rapports du GIEC ont notamment exploré ces incertitudes : à l’issue d’un arrêt rapide des fossiles, l’effet réchauffant lié à la fin des émissions de SO2 se situerait très probablement dans la fourchette de 0,11 °C à 0,68 °C.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Afin de répondre à ce risque, certains promeuvent des solutions de géo-ingénierie, dont certaines sont porteuses de risques environnementaux majeurs. Pourtant, une solution simple qui ne présente pas de tels risques existe.
Elle repose en premier lieu sur la diminution rapide des émissions anthropiques de méthane, tout d’abord celles issues de l’agriculture, du fait de l’élevage de bétail notamment. Cette option est politiquement sensible, car elle nécessite l’appropriation de ces enjeux et la mobilisation du monde agricole et des consommateurs.
Pour ce faire, il est essentiel que des recherches ouvertes soient menées avec et pour la société.
À lire aussi : Climat : derrière les objectifs chiffrés, une édulcoration des connaissances scientifiques ?
Revenons d’abord sur l’effet refroidissant des émissions de SO2 émis par les énergies fossiles. Cet effet sur le climat résulte de l’albédo du SO2, c’est-à-dire du pouvoir réfléchissant du SO2 pour le rayonnement solaire. Cet albédo intervient à trois niveaux :
tout d’abord, directement par le SO2 lui-même,
ensuite, par l’intermédiaire de l’albédo des aérosols que génère le SO2,
enfin, ces aérosols agissent sur le système nuageux et en augmentent l’albédo. En leur présence les nuages sont plus brillants et réfléchissent plus de rayonnement solaire vers l’espace.
À lire aussi : Moins d’aérosols de soufre, moins d’éclairs : les effets surprenants d’une réglementation maritime
Ce n’est pas tout. Au risque d’un épisode de surchauffe dû à la baisse des émissions de SO2, s’ajoute celui d’une amplification du réchauffement par des phénomènes laissés sur le côté par les modèles climatiques et les scénarios habituels. Par exemple, des hydrates de méthane des fonds marins pourraient mener à des émissions subites de méthane. Autre exemple, sous les glaciers polaires, des populations de micro-organismes émetteurs de méthane ou de dioxyde de carbone pourraient se développer massivement du fait de la fonte des glaces.
La question prend une nouvelle importance : depuis 2024, l’ampleur du réchauffement se situe au-dessus de la fourchette probable prévue par le GIEC. La température moyenne de l’année 2024 a dépassé de plus de 1,5 °C le niveau de référence de l’ère préindustrielle. Pour le mois de janvier 2025, ce dépassement est de 1,75 °C, et de 1,59 °C en février, malgré le retour du phénomène climatique La Niña qui s’accompagne généralement d’un refroidissement temporaire des températures.
S’agit-il d’une tendance de fond ou seulement d’un écart passager ? À ce jour, il n’existe pas de réponse à cette question qui fasse l’objet d’un consensus entre les climatologues.
Réduire rapidement les émissions de méthane d’origine humaine permettrait de limiter considérablement le risque d’épisodes de surchauffe, et ceci sans occasionner d’autres risques environnementaux.
Le méthane est, à l’heure actuelle, responsable d’un réchauffement situé dans une fourchette de 0,3 °C à 0,8 °C, supérieure à celle du SO2. Quant à la durée médiane de vie du méthane dans l’atmosphère, elle est légèrement supérieure à dix ans.
Dix ans, c’est peu par rapport au CO2, mais c’est beaucoup plus que le SO2 et ses aérosols. Autrement dit, réduire les émissions de méthane permettrait de limiter le réchauffement à moyen terme, ce qui pourrait compenser la surchauffe liée à l’arrêt des émissions de SO2.
Mais pour cela, il faut qu’il existe une réelle stratégie d’anticipation, c’est-à-dire une réduction des émissions de méthane d’origine humaine qui surviennent de façon plus rapide que la défossilisation de l’énergie (baisse des émissions de CO2), sans pour autant affaiblir les ambitions relatives à cette dernière.
Où placer les priorités ? À l’échelle mondiale, les émissions anthropiques de méthane sont issues :
à hauteur d’environ 40 %, d’activités agricoles (rizières en surface inondée, élevage de ruminants…),
à 35 %, de fuites liées à l’exploitation des énergies fossiles,
et pour environ 20 %, de déchets (fumiers, décharges, traitement des eaux…).
On peut donc considérer que 35 % des émissions s’éteindraient avec la défossilisation. D’ici là, il est donc urgent de réduire les fuites de méthane liées à l’exploitation des énergies fossiles tant que celle-ci n’est pas totalement abandonnée.
Mais comme ce levier ne porte que sur un bon tiers des émissions de méthane, il reste prudent de miser sur l’agriculture, l’alimentation et la gestion des déchets.
Réduire les émissions de méthane de l’agriculture peut, par exemple, passer par une modification des régimes alimentaires des ruminants, par le recours à des races moins émettrices de méthane, par l’allongement du nombre d’années de production des ruminants, par des changements dans le mode de culture du riz, ou par la récupération du méthane issu de la fermentation des fumiers. Il existe une grande diversité de procédés techniques pour réduire les émissions de méthane d’origine agricole.
Ces procédés sont le plus souvent à mettre au point ou à perfectionner et restent à développer à l’échelle internationale. Ils requièrent des innovations techniques, une adaptation des marchés et une appropriation par les agriculteurs. Leur déploiement ne peut suffire et ne pourra être assez rapide pour répondre à l’urgence qu’il y a à diminuer drastiquement les émissions de méthane. La question de la réduction de certaines productions agricoles et de certaines consommations alimentaires se pose donc.
Réduire de façon conséquente la consommation de viande de ruminants, de produits laitiers et de riz est possible… si les comportements de consommation individuels suivent. Cela exige une forme de solidarité mais aussi des décisions politiques fortes. Cela passe par une appropriation pleine et entière des enjeux climatiques par les agriculteurs, par les consommateurs et par l’ensemble des parties prenantes des questions agricoles et alimentaires.
La dimension locale serait une voie pertinente pour mettre en œuvre des solutions. À cet égard, les GREC (groupes régionaux d’experts sur le climat) pourraient jouer un rôle majeur.
Nous avons notamment identifié deux leviers : la dimension de forum hybride de la démocratie technique (espace d’échanges croisés entre savoirs experts et savoirs profanes), qui peut être prolongée par une dimension de recherche-action-participative (RAP).
Au niveau régional, ils permettraient de mettre en débat les connaissances scientifiques en matière de changement climatique, comme ce cas a priori contre intuitif de surchauffe planétaire liée à la défossilisation. Ils pourraient contribuer à la définition de stratégies déclinées localement en solutions concrètes et nourrir des questionnements nécessitant un travail de recherche.
Les GREC pourraient ainsi impulser des démarches participatives de recherche et d’innovation et, par exemple, s’appuyer sur des dispositifs d’interface sciences-société (boutiques des sciences, tiers-lieux de recherche, fablab, hackerspace…). Pour cela, ils pourraient s’appuyer sur des approches RAP qui permettent de co-produire des savoirs avec des chercheurs, d’avoir une meilleure appropriation des résultats de recherche pour des applications concrètes et d’impliquer des citoyens et/ou des groupes concernés au travers de leur participation active à toutes les étapes du projet de recherche et de ses applications.
Par la création d’un réseau international, les GREC pourraient favoriser des synergies entre les actions locales et contribuer à définir et à renouveler les stratégies nationales et internationales, tout ceci, non par le haut comme de coutume, mais par le bas.
Bertrand Bocquet est membre du Réseau de recherche sur l'innovation (https://rri.univ-littoral.fr/)
Marc Delepouve ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.04.2025 à 17:48
Fabrice Raffin, Maître de Conférence à l'Université de Picardie Jules Verne et chercheur au laboratoire Habiter le Monde, Université de Picardie Jules Verne (UPJV)
Nous n’avons jamais été aussi nombreux dans le monde à connaître un niveau de confort et de liberté aussi élevé. Ce mode de vie, même s’il nous émancipe, est malheureusement indissociable de la destruction de l’environnement. Faudra-t-il que celle-ci devienne une menace tangible pour nous pousser à renoncer à notre « petit confort » ? L’anthropologie permet d'éclairer cette question.
Lorsque j’entre dans la maison de René, ce matin de décembre 2022, dans le village de Beaucourt-en-Santerre, la température est bien plus proche de 25 °C que des 19 °C alors préconisés pour « économiser l’énergie ». René, retraité de la fonction publique, fait partie de ces humains modernes et puissants du XXIe siècle.
Il ne prend pas du tout au sérieux la menace du gouvernement de l’époque concernant les possibilités de rupture d’approvisionnement électrique : « on a des centrales nucléaires quand même ! »
Durant notre échange, René montre qu’il maîtrise la température de sa maison : sans effort, il repousse l’assaut du froid qui règne alors dehors.
« Je n’ai pas travaillé toute ma vie pour me geler chez moi_, déclare-t-il sûr de lui, les écolos, tout ça, ils nous emmerdent ».
Comment expliquer cette inaction pour le moins paradoxale ? La pensée du philosophe Henri Lefebvre est éclairante. Selon lui, l’humain doit éprouver un besoin pour agir, travailler et créer. Pour lui, le véritable besoin naît d’une épreuve, d’un problème qu’il faut régler nécessairement, ce serait même la seule façon d’engendrer une action humaine volontaire.
Ce phénomène pourrait expliquer pourquoi il est si difficile de traduire en actes
« l’urgence écologique ». Peut-on parler « d’urgence » lorsqu’il n’y a pas encore de réelle épreuve ?
La multiplication des tempêtes violentes, des inondations, la montée des océans, la fonte des glaciers, les sécheresses et les incendies, aussi réels et tangibles soient-ils, n’ont peut-être pas encore eu lieu à suffisamment large échelle pour marquer les routines quotidiennes à l’échelle d’un pays entier.
L’hypothèse est la suivante : dans les pays occidentaux, les aléas climatiques ne porteraient pas encore suffisamment à conséquences pour que se ressente un besoin d’agir généralisé.
Autrement dit, les souffrances engendrées par le changement climatique restent peut-être trop éloignées, trop localisées ou trop sporadiques. À peine éprouve-t-on collectivement un malaise au regard de la convergence des avertissements continus des militants écologistes et de la litanie des catastrophes à l’échelle planétaire, mais localisées sur de petits périmètres.
De plus, pour des dégâts locaux et éphémères, si forts soient-ils, les pays occidentaux sont assez équipés pour y remédier économiquement et techniquement, assez riches pour qu’ils ne remettent pas en cause l’organisation socio-économique globale.
Comme une fuite en avant, l’exploitation des ressources naturelles leur donne, la capacité de maîtriser les effets des catastrophes naturelles nées de l’exploitation des ressources naturelles. Jusqu’à où ?
Dès lors, faire évoluer notre mode de vie occidental demeure une option peu envisagée, d’autant plus que ce dernier est perçu comme la dimension la plus fondamentale, l’accomplissement le plus profond et caractéristique des Modernes que nous sommes.
Ce mode de vie couvre avec une efficacité inédite les besoins les plus essentiels que l’humanité a toujours cherché à combler : repousser les limites de la mort, les maladies, alléger le fardeau physique de l’existence dans la lutte pour satisfaire nos besoins biologiques et nous protéger contre un environnement hostile, etc.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
La recherche du confort matériel est, en cela tout à fait existentielle. Cet existentialisme n’a rien d’écologique. Les besoins de l’humain sont tout entiers tournés vers la production, la réalisation, l’acquisition d’objets, la consommation d’artefacts qui le libèrent. La source de cette prospérité matérielle étant fondée sur l’exploitation du monde vivant et minéral, les humains procrastineront tant que possible le changement d’équilibre de ce rapport à l’environnement.
Devant cette nécessité existentielle, pointer la responsabilité et la rationalité en mobilisant des arguments scientifiques n’a que peu d’effets. Surtout lorsque les appels sont maladroitement portés. Certains militants écologistes ou scientifiques sont ainsi perçus comme des prédicateurs, des prospectivistes ou des moralistes.
C’est qu’ils n’ont, selon moi, pas compris le primat anthropologique de la lutte contre l’environnement : notre mode de vie occidental comble, bien que de manière imparfaite, mais plus que jamais dans l’histoire, les besoins fondamentaux des humains.
Le risque est donc que les Modernes occidentaux se battent tant que possible pour le maintien de ce mode de vie, et ce jusqu’à épuisement des ressources.
Au regard de l’actualité depuis l’élection de Trump et l’invasion de l’Ukraine, il y a fort à parier qu’ils s’attaqueront même aux humains les plus faibles pour le conserver, avant de se battre entre eux. Il est même possible que, pour conserver ce privilège, ils préfèrent sacrifier les humains les plus pauvres.
Parce que ce mode de vie représente la plus grande émancipation vis-à-vis de la mort et de la douleur jamais atteinte pour un nombre d’individus aussi grand, mais aussi la plus grande liberté obtenue par rapport à l’environnement.
Une émancipation continue, bien que non achevée, vis-à-vis de ce que Marx appelait, « le règne de la nécessité ». Et si, pour paraphraser Marx, « un règne de la nécessité subsiste toujours », une bonne partie des occidentaux, même s’ils travaillent, sont « au-delà de ce règne ». Le règne des Modernes ressemble beaucoup à ce moment de l’histoire de l’humanité auquel Marx aspirait où « commence le développement des puissances de l’homme, qui est à lui-même sa propre fin, qui est le véritable règne de la liberté ». Un moment où travailler et consommer ne soient plus seulement réduits à satisfaire des besoins biologiques, mais à l’épanouissement, au bien-être de la personne.
La liberté et le confort qui libèrent le temps et le corps sont les biens les plus précieux de l’humain moderne occidental (et de tous les non-occidentaux devenus Modernes). Il est possible qu’il faille attendre que la menace climatique mette en péril cette liberté de façon palpable pour qu’il ressente le besoin de la défendre. Alors seulement, il pourra pleinement agir pour rééquilibrer son rapport à l’exploitation de l’environnement… s’il est encore temps.
C’est sur cette réalité anthropologique qu’achoppe aujourd’hui l’injonction à l’action écologiste, une injonction d’autant moins efficace qu’elle s’oppose à une quête essentielle de l’humanité depuis son apparition sur terre.
Dans ce contexte, faudrait-il penser que la perspective anthropologique est désespérante ? Non, puisqu’elle permet au contraire d’éviter l’écueil des injonctions militantes naïves, des faux espoirs simplistes, ou encore, de contrer la parole des gourous. L’enjeu est de repartir de l’humain pour engager des actions vraiment efficaces.
Fabrice Raffin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.04.2025 à 11:04
David Ecotière, Chercheur en acoustique environnementale - Directeur adjoint de l’Unité Mixte de Recherche en Acoustique Environnementale (UMRAE), Cerema
Marie-Agnès Pallas, Chercheuse en acoustique environnementale, Université Gustave Eiffel
Des chercheurs en acoustique ont comparé différentes options pour atténuer les nuisances sonores causées par le bruit routier. En fonction des situations, il peut être plus intéressant d’opter pour un moteur électrique plus silencieux, de changer le revêtement des routes ou d’optimiser la vitesse du trafic routier. Mais dans la plupart des cas, la solution optimale est plurielle.
Selon l’Organisation mondiale de la santé (OMS), le bruit est le deuxième facteur de risque environnemental en Europe en matière de morbidité, derrière la pollution de l’air. Il représente un problème majeur pour la santé publique, dont les répercussions socio-économiques globales, estimées à 147 milliards d’euros par an, en 2021, sont trop souvent négligées.
Le bruit des transports, en particulier le bruit routier, est en France la principale cause de ces nuisances. Différentes solutions peuvent pourtant être mises en œuvre pour limiter son impact. Modifier la propagation acoustique en interposant un obstacle de grande dimension entre la source et les riverains (bâtiments, écran acoustique, buttes naturelles…) peut être un moyen très efficace de réduire l’exposition sonore, mais n’est pas toujours techniquement ou financièrement envisageable et ne permet pas de couvrir toutes les situations possibles.
Améliorer l’isolation acoustique des bâtiments est également une très bonne solution technique, mais elle présente l’inconvénient de ne pas protéger les personnes situées à l’extérieur et de perdre en efficacité dès lors que portes ou fenêtres sont ouvertes. La meilleure des options reste ainsi, avant tout, de réduire l’émission sonore à la source.
Dans cette optique, des actions sont régulièrement mises en place, soit dans un cadre réglementaire (étude d’impact de nouvelles infrastructures, opérations de résorption des « points noirs du bruit » etc.), soit de façon volontariste par des collectivités ou des gestionnaires d’infrastructures routières pour lutter contre les nuisances sonores.
Des polémiques récentes sur la façon de réduire le bruit routier peuvent néanmoins brouiller le message auprès du citoyen et nuire ainsi à la crédibilité de ces solutions, dont le rôle reste avant tout de combattre ce fléau environnemental. Qu’en est-il exactement de leur efficacité et de leur pertinence techniques ?
Avant d’explorer les différentes solutions permettant la réduction du bruit routier à la source, il est important de comprendre les causes de ce bruit et les paramètres sur lesquels on peut agir pour le réduire. Les bruits de comportement, liés à un mode de conduite non conventionnel ou inadapté, contre lesquels des mesures de lutte sont en cours d’évaluation dans plusieurs villes, ne seront pas considérés ici.
Le son émis par un véhicule routier provient de deux principales sources :
le bruit de propulsion, dû au système mécanique (moteur, transmission, échappement),
et le bruit de roulement, dû au contact entre les pneumatiques en mouvement et la chaussée.
En conditions normales, le bruit de propulsion prédomine en dessous de 30 à 40 km/h pour les véhicules légers (VL) – ou de 40 à 50 km/h pour les poids lourds (PL) – tandis que le bruit de roulement l’emporte au-delà et augmente rapidement avec la vitesse.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
Pour les véhicules actuels en fonctionnement standard, les autres sources potentielles de bruit (écoulement de l’air sur le véhicule…) sont négligeables par rapport au bruit de propulsion et au bruit de roulement.
Pour un bruit constant, il est communément admis que l’audition humaine ne perçoit une variation qu’à partir d’un écart de 2 décibels A (dBA) minimum. L’acousticien de l’environnement considère ainsi qu’un changement inférieur à ce seuil est « non significatif », car insuffisamment perceptible. Il utilise, en première approche, ce seuil comme repère pour juger de l’efficacité potentielle d’une solution de réduction du bruit.
Agir sur la motorisation permet de diminuer les émissions sonores à basse vitesse. Les moteurs électriques sont ainsi généralement moins bruyants que les moteurs thermiques, avec une différence qui tend cependant à diminuer pour les véhicules thermiques neufs actuels, moins sonores que par le passé.
La réglementation oblige aussi les véhicules électriques à ajouter un son synthétique en dessous de 20 km/h pour améliorer la sécurité des piétons (dispositif AVAS). Une boîte de vitesse automatique contribue également à réduire l’émission sonore, car elle assure un régime du moteur thermique toujours adapté à l’allure et évite ainsi les excès de bruit dus à des conduites en surrégime.
Hors des restrictions d’accès imposées à certains cœurs de ville, agir sur la motorisation des véhicules n’est cependant généralement pas du ressort d’un gestionnaire d’infrastructure routière. Le changement d’une grande partie du parc roulant est en outre nécessaire pour produire un impact acoustique significatif, ce qui n’est efficace qu’à long terme.
Pour des effets à court terme, une deuxième option consiste à optimiser l’écoulement du trafic en modifiant le débit des véhicules ou leur vitesse. Les gains sonores attendus d’une réduction du débit suivent une loi logarithmique, où une division par 2 du nombre total de véhicules entraîne une diminution de 3 dBA. La diminution de la vitesse permet quant à elle de diminuer les émissions sonores en agissant sur le bruit de roulement.
Dans ce cas, au-delà de 40 km/h, les gains attendus sont de l’ordre de 1 à 1,5 dBA par tranche de réduction de 10 km/h. Toutefois, les émissions sonores des véhicules légers et des poids lourds n'étant pas équivalentes, l'émission sonore globale d'un trafic routier dépendra des proportions de ces véhicules qui y circulent et du revêtement de chaussée. Il est donc difficile de donner ici une estimation synthétique des gains potentiels dans toutes les situations.
L’application en ligne Motor développée par notre équipe permet à chacun de tester, en première approche, des scénarios de trafic en modifiant les différents paramètres d’influence du bruit afin de juger de leur efficacité potentielle sur la réduction de l’émission sonore d’une voirie routière.
Une troisième solution consiste à modifier le type de revêtement de chaussée afin d’agir sur le bruit de roulement.
On peut comparer les performances acoustiques de très nombreux revêtements de chaussées, par exemple à l’aide de notre application en ligne BDECHO, qui tire parti de la base nationale des performances acoustiques des revêtements de chaussées français.
Celle-ci montre ainsi que les revêtements les moins bruyants sont ceux dont la couche de surface est à faible granulométrie (enrobés à petits agrégats) et qui présentent une certaine porosité. À l’inverse, celle des plus bruyants a une plus forte granulométrie et n’est pas poreuse.
Si chaque solution peut contribuer à la réduction du bruit routier, chacune comporte également des inconvénients.
Changer un revêtement bruyant par un autre moins bruyant peut engendrer une réduction du bruit de 2 dBA à 10 dBA au maximum, et ce, dès 25 km/h pour les véhicules légers et dès 40 km/h pour les poids lourds.
Onéreuse, cette solution nécessite une mise en œuvre lourde et une intervention conséquente sur la voirie. Les performances acoustiques des revêtements ont aussi l’inconvénient d’évoluer au fil du temps, avec une dégradation des performances plus rapide pour les revêtements les moins bruyants. Une dispersion importante des performances (de l’ordre de plusieurs dBA) est également observée au sein de chaque catégorie de revêtement, ce qui entraîne une plus grande incertitude sur la prévision des performances attendues.
La réduction de vitesse, quant à elle, n’est pas toujours possible. Ou encore, son efficacité peut être limitée, par exemple si les vitesses de l’infrastructure existante sont déjà modérées ou que la réduction de vitesse ne peut pas être appliquée aux poids lourds, plus bruyants, et que ces derniers sont déjà en proportion non négligeable dans le trafic. Les gains attendus peuvent également être moindres qu’espérés si les vitesses pratiquées sont inférieures aux vitesses réglementaires de l’infrastructure, par exemple en situation chronique de ralentissements ou de congestion.
C’est ce qui a par exemple été constaté lors de mesures acoustiques récentes sur le périphérique parisien, où les gains théoriques ont été atteints uniquement la nuit, lorsque la circulation est fluide. Notons que ce type de solution peut cependant apporter des co-bénéfices intéressants en matière de pollution atmosphérique ou d’accidents de la route, sans nécessairement nuire significativement au temps de parcours perçu.
Réduction des vitesses, revêtements peu bruyants, restriction du trafic, changements de motorisation… quelle est finalement la meilleure méthode pour faire chuter les émissions sonores routières ?
Réduire le trafic global engendrera toujours une chute des émissions, audible sous réserve d’une baisse du trafic d’au moins 30 à 40 %, si la solution est appliquée seule.
Pour les autres options, en zone à vitesse réduite (inférieure à 40km/h), jouer sur la motorisation est la solution la plus efficace. Cela peut passer par l’incitation à l’adoption de véhicules électriques ou d’autres motorisations moins bruyantes, les méthodes agissant sur le bruit de roulement étant dans ce cas moins efficaces.
Dans des voiries où la vitesse moyenne des véhicules est plus élevée, les chaussées peu bruyantes ou la diminution des limites de vitesse peuvent apporter des réductions intéressantes. Mais leur pertinence devra être étudiée au cas par cas en amont, en fonction des propriétés initiales de l’infrastructure considérée (vitesse, structure du trafic, revêtement de chaussée existant, etc.).
Les trois solutions étant compatibles entre elles, l’idéal consiste bien entendu à les associer afin de cumuler avantageusement les gains apportés par chacune d’entre elles.
David Ecotière a reçu des subventions publiques du Ministère de la Transition écologique.
Marie-Agnès Pallas a reçu des financements du Ministère de la Transition écologique, de l’Union européenne et de BpiFrance.
02.04.2025 à 16:53
Xavier Bonnet, Directeur de Recherche CNRS en biologie et écologie des reptiles, Centre d'Etudes Biologiques de Chizé
Karl Zeller, Docteur en Écologie Évolutive, Muséum national d’histoire naturelle (MNHN)
Une étude d’ampleur inédite montre que la peur que nous ressentons envers certains animaux n’a pas grand-chose à voir avec le danger qu’ils représentent. Mais ces émotions peuvent en revanche avoir des effets très néfastes sur la protection de la biodiversité.
En 1872, Charles Darwin décrivait la peur comme une puissante alliée pour éviter ou pour fuir les dangers. Au cours des plus de 50 millions d’années d’évolution des primates et pendant la presque totalité de l’histoire humaine, grands carnivores, crocodiles ou serpents venimeux étaient de terribles menaces. En avoir peur était donc nécessaire à la survie.
Mais aujourd’hui, notre peur des animaux ne s’arrête pas aux espèces dangereuses. Certains animaux inoffensifs nous terrifient également. Pourquoi ce décalage entre danger réel et terreur ? Des facteurs socioculturels et le succès de théories contestables pourraient l’expliquer.
Pour mieux comprendre la peur des animaux nous avons sondé plus de 17 000 participants à travers le monde, en leur proposant un questionnaire sous forme de jeu en ligne fondé sur des portraits photographiques d’animaux. Le panel comprenait 184 espèces : des mammifères, des reptiles, des oiseaux, des arthropodes (insectes et araignées) et des amphibiens. En pratique, au cours d’une aventure imaginaire, des paires de photos (un lion et une mésange, par exemple) étaient tirées au sort et présentées à l’écran, 25 fois de suite.
Chaque participant devait choisir l’animal qui lui faisait le plus peur, cliquer sur sa photo, passer à la paire suivante puis, à la fin du jeu, répondre à quelques questions.
Nous avons ainsi obtenu les résultats sur plus de 400 000 duels de photos, une mine d’or statistique. L’analyse des choix et des temps de réponse ont permis de classer les 184 animaux selon le niveau de crainte qu’ils inspirent. La diversité des participants (âge, genre, pays d’origine, études, etc.) a révélé des relations complexes entre danger réel (ou écologique) et influences socioculturelles.
Une constante est cependant apparue : dans toutes les zones géographiques et classes d’âges, des animaux inoffensifs pour l’humain, comme les chauves-souris, les araignées ou les serpents non venimeux, ont suscité des réactions de peur très marquées, autant voire plus qu’avec des espèces potentiellement très dangereuses comme l’hippopotame ou l’ours brun. La logique de terrain, celle énoncée par Darwin, était donc bien prise en défaut.
Pour expliquer cette discordance, certaines théories très en vogue depuis plus de quinze ans proposent que la peur des serpents et des araignées soit figée, innée et codée dans nos gènes.
Mais comment la sélection naturelle aurait-elle produit un résultat aussi illogique ? Comment savoir également si les premiers humains avaient peur des araignées et des serpents, surtout que de nombreux primates ne les fuient pas et, au contraire, les mangent ? Les serpents sont également toujours considérés comme des délices culinaires et sont largement consommés dans différentes régions du monde. Les théories patinent un peu sur ces points cruciaux.
D’autres explications semblent nécessaires. Un autre cadre théorique pointe les facteurs socioculturels dans la transmission d’émotions, notamment les peurs, y compris celle des animaux. Combinée à l’absence de contact avec la nature, la transmission familiale et sociale de la peur du vivant conduirait jusqu’à la biophobie, c’est-à-dire la peur ou même la haine du vivant.
Des facteurs culturels pourraient effectivement expliquer pourquoi de nombreuses personnes croient à tort que les araignées sont dangereuses et tuent fréquemment des humains alors que seulement 0,5 % des araignées sont potentiellement dangereuses pour l’humain, les accidents graves sont rarissimes et les décès vraiment exceptionnels. Dans notre étude, certains participants ont même déclaré avoir peur d’être mangés par une araignée, une idée totalement irrationnelle.
Des préjugés, un sentiment général de dégoût, mais surtout le manque de connaissances naturalistes laissent ainsi la place aux légendes et aux peurs exagérées qui les accompagnent. La distorsion est amplifiée par les médias et les films, où les araignées et serpents géants sont trop souvent monstrueux et féroces.
Un mécanisme central est que les peurs exacerbées peuvent être transmises en un clin d’œil et voyager de génération en génération. Cet effet est marqué chez les plus jeunes, un parent effrayé par une petite araignée de maison peut inoculer sa terreur à ses enfants en quelques secondes. Ainsi renforcées, les représentations déformées des animaux dans les films peuvent devenir des croyances ancrées, puis des « vérités ». Ce décalage entre le danger perçu et la réalité quotidienne s’accroît dans les sociétés urbanisées, où la déconnexion avec la nature augmente constamment.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Bien sûr, les animaux potentiellement dangereux, comme le lion, suscitent aussi des réactions fortes et rationnelles de peur. De nombreux cas de prédation, d’attaques ou de morsures mortelles sont documentés à travers le monde. Dans notre étude, les crocodiles, les grands félins et les serpents venimeux sont effectivement perçus comme très effrayants. Les participants ont clairement exprimé leur peur d’être tués par une énorme vipère du Gabon ou d’être mangés par un tigre.
Inversement, la grande majorité des animaux inoffensifs, comme le lapin, la tortue ou le koala, n’ont suscité aucune peur. Ces résultats confirment donc une définition générale de la peur comme un état émotionnel adaptatif, qui incite les animaux à réagir de façon appropriée face à des stimulus potentiellement dangereux.
Mais il reste difficile de distinguer ce qui relève de mécanismes innés plutôt que des biais culturels dans la peur des animaux. La grande taille (un bison adulte est impressionnant), les dents de carnassier, le regard fixe du prédateur ou les signaux d’avertissement (bandes colorées sur les serpents venimeux ou les guêpes) sont probablement des messages clairs compris de tous, indépendamment de la culture, mais cela reste à démontrer. Les visions purement innées ou purement culturelles, extrêmement rigides, correspondent particulièrement mal à une réalité qui semble davantage complexe et intriquée.
Une chose reste certaine : les peurs exacerbées, irrationnelles et invalidantes, c’est-à-dire des phobies, ont des conséquences. Elles gâchent la vie, y compris celle des animaux qui en font les frais. Le déclin des serpents en témoigne. Il progresse à une vitesse alarmante, aussi bien en Europe que sur le plan mondial. Il est donc urgent de les protéger. En outre, ces animaux jouent des rôles écologiques clés et sont des auxiliaires de l’agriculture. Pourtant ils sont souvent persécutés et tués.
Or, la peur qu’il inspirent est le principal déclencheur de cette attitude agressive et violente. Le pire est que, lorsqu’il s’agit de serpents venimeux, le risque d’être mordu par riposte augmente considérablement. Au cours d’une rencontre, il est prudent de laisser les serpents tranquilles ou de s’enfuir plutôt que de leur taper dessus. La peur exagérée et les gestes dangereux et mal contrôlés entraînent des drames pour les humains et les autres animaux.
L’aversion forte pour certains animaux couplée à la perte de contact avec la nature est aussi associée à la dégradation de la santé mentale. L’expérience directe avec la nature semble nécessaire aux équilibres psychologique et physiologique.
Or, la manière dont nous percevons la nature influence directement notre investissement dans sa préservation. Les espèces perçues comme effrayantes, souvent à tort, sont malheureusement fortement négligées par les programmes de conservation. La biophobie rend difficile l’éducation à l’environnement et la protection de la biodiversité. La répugnance pour de nombreux arthropodes et reptiles s’accompagne d’un faible effort de conservation par rapport aux espèces charismatiques (par exemple, les dauphins ou les ours). Il est pourtant nécessaire de protéger des ensembles.
La note positive est qu’il a été montré expérimentalement qu’une simple sortie nature, un bref contact avec les serpents, suffit à changer la donne, tout au moins chez des enfants. Ce résultat souligne le rôle majeur de la culture et de l’éducation, par rapport aux hypothèses fondées sur la peur innée des serpents.
Il est donc essentiel d’étudier le développement et la persistance des perceptions positives et négatives vis-à-vis des animaux pour améliorer le confort de vie, la santé, mais aussi pour réduire les conflits entre l’humain et la nature. Élargir des actions de sensibilisation à toutes les espèces est fondamental pour guider les efforts de protection. Détruire pour délit de faciès n’est pas acceptable. En outre, la destruction de populations ou d’espèces peut perturber des écosystèmes et avoir un bilan mitigé voire négatif.
La peur est notre alliée, mais, mal domptée, elle peut se retourner contre nous et contre notre environnement. Il serait sage d’en tenir compte dans les programmes d’éducation.
Karl Zeller a reçu des financements de l'Initiative Biodiversité Écologie, Évolution, Société (IBEES) de l'Alliance Sorbonne Université.
Xavier Bonnet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.04.2025 à 16:13
Eric Baratay, Professeur d'histoire, Université Jean Moulin Lyon 3
Retracer l’histoire du point de vue des animaux, tâcher de trouver des sources pouvant témoigner de leur vécu et de leur évolution. Telle est l’ambition du dernier livre supervisé par Eric Baratay aux éditions Tallandier.
Dans ces bonnes feuilles que nous vous proposons, cet historien se penche sur la Grande Guerre qui, sur le seul front de l’Ouest, mobilisa pas moins de huit millions de chevaux. Indispensables pour la cavalerie, l’infanterie mais également l’artillerie, pour tirer canons, munitions, vivres et hommes, ils ont façonné l’évolution de cette guerre.
Saviez-vous par exemple qu’en 1914 c’est le manque de chevaux des Français comme des Allemands qui a empêché qu’un camp ou l’autre réussisse à contourner son adversaire, ce qui a provoqué la fixation du front et quatre ans de guerre de tranchées.
En examinant les écrits de poilus et des vétérinaires au front, Eric Baratay tâche ici de retracer la douloureuse mobilisation de ces millions de chevaux.
Lors de leur réquisition, les chevaux éprouvent d’abord un stress psychologique et physique en perdant leurs repères habituels du fait d’une succession de lieux, de mains, de voix. Leur embarquement dans les wagons est souvent difficile ; ils résistent, hennissent, se sentent poussés, frappés, se font serrer les uns contre les autres. Les plus rétifs continuent à hennir, à frapper les parois ; beaucoup sont apeurés par les trains qui passent, éprouvés par les secousses, irrités par les congénères inconnus.
Ils vivent un autre bouleversement lors de leur affectation, devant s’habituer à de nouveaux noms, de nouvelles voix et conduites, de nouveaux gestes et mots en divers patois changeant au gré des réaffectations, permissions, disparitions des hommes. Ainsi, les chevaux de trait affectés à la cavalerie se retrouvent avec un soldat sur le dos, rarement plus aguerri, tout aussi craintif, et ceux qui réagissent, hennissent, ruent, subissent alors des coups, entendent des cris, ce qu’ils connaissaient assez rarement auparavant s’ils viennent des campagnes.
Dans les services attelés, les chevaux doivent apprendre à travailler avec des congénères pour les solitaires d’autrefois ou de nouveaux partenaires pour les habitués à cet emploi. Ils sont assemblés selon leur taille, leur force, voire leur couleur, rarement selon leur caractère, que les hommes ne connaissent pas et ne cherchent pas. Des chevaux manifestent des incompatibilités d’humeur, obligent ces humains à les séparer jusqu’à ce qu’une répartition soit trouvée, qu’une paix plus ou moins durable s’installe. Lors des essais à tirer ensemble, beaucoup se heurtent, glissent, tombent, s’empêtrent dans les traits, s’épuisent. L’adaptation est remise en cause par les changements d’affectation et les arrivées de nouveaux partenaires, tels ces chevaux américains, que les alliés vont chercher à partir de l’automne 1914 pour compenser les pertes.
D’autant que leur traversée de l’Atlantique s’avère un calvaire côté français, où l’on ne donne qu’une avance aux marchands américains, les laissant assurer le transport à moindres frais. Dès l’Amérique, les équidés choisis se retrouvent concentrés et mélangés dans des parcs puis entassés à 15 ou 20 dans des wagons, sans attache et sans surveillance interne. Les conflits, les coups, les chutes s’ajoutent au stress du voyage durant lequel ces animaux ne bénéficient guère d’arrêts le long d’un parcours de quatre à huit jours. Au port, ils sont de nouveau concentrés en enclos puis placés sur des barges et hissés par des grues sur des navires restés au large, une opération très stressante pour les équidés.
Perturbés par le déracinement, les importants changements climatiques à l’échelle américaine, le bouleversement du régime alimentaire, beaucoup s’affaiblissent et contractent des maladies infectieuses, d’autant qu’ils ne bénéficient pas de désinfection des enclos et des wagons ou de contrôles épidémiologiques, encore peu usités côté français.
À bord des navires, ces équidés se retrouvent entassés les uns contre les autres, en quatre rangées parallèles par étage, attachés de près, et comme ils ne font pas d’exercice dans des enclos ou de promenade sur le pont extérieur, qu’ils restent inactifs trois semaines au minimum, ils endurent des fourbures aiguës aux jambes. L’entassement est tel que des équidés se voient placés sur le pont extérieur où, malgré les couvertures mises sur eux ou les toiles tendues par-dessus, ils endurent de fortes variations de température, une humidité incessante, des courants d’air permanents, subissent d’importants refroidissements tout en devant résister aux tempêtes qui balaient l’endroit.
Au moins, ces animaux ne souffrent-ils pas de l’atmosphère confinée des étages internes, de la chaleur moite, du gaz carbonique, des fortes odeurs que les équidés enfermés produisent mais qui les indisposent vivement, d’autant que l’aération, guère pensée, est très insuffisante, que les excréments, le fumier, les aliments avariés sont irrégulièrement évacués et ces ponts mal nettoyés par des équipages négligents, peu impliqués financièrement dans le maintien en bonne santé des bêtes, bien qu’ils pâtissent aussi de la situation. Les morts sont laissés au milieu des vivants tout au long du voyage parce qu’on n’a pas prévu de les évacuer à la mer ! Les rescapés ressentent évidemment les phéromones de stress dégagés par les agonisants puis les odeurs des cadavres.
Chevaux et mulets souffrent souvent de la soif et de la faim, les marchands ayant trop peu prévu, les matelots s’évitant des corvées régulières, les aliments n’étant que de médiocre qualité. Ces équidés doivent souvent manger des aliments simplement jetés à terre, avalant en même temps la paille souillée, voire leurs excréments pour compenser la faim, mais les bêtes attachées trop court, incapables de baisser autant leur tête, sont forcées de jeûner. Beaucoup s’affaiblissent, contractent ou amplifient des maladies, mangent encore moins, respirent toujours plus mal, tombent au premier tangage, ont de plus en plus de peine à se relever, se blessent facilement lors des heurts avec d’autres ou contre les parois et lors de ces chutes, se fracturant des os ou se rompant des ligaments, contractant alors le tétanos ou la gangrène.
À l’arrivée, les sorties sont souvent retardées car, dans nombre de navires, les rampes reliant les ponts ont été enlevées pour mieux entasser, d’autant qu’on ne prévoyait pas de promenade extérieure. Les équidés doivent attendre plusieurs jours que de nouvelles pentes soient installées, sur lesquelles ils se précipitent pour sortir de cet enfer. Les blessés et les malades ne pouvant pas les gravir attendent d’être sanglés puis soulevés à la grue. À terre, les chevaux, souvent des mustangs plus ou moins sauvages, achetés à moindre coût, se montrent rebelles à la discipline. Ils déconcertent autant leurs congénères européens, habitués au travail, que les conducteurs qui font alors pleuvoir les coups.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Ces incompréhensions sont nombreuses, d’autant que nombre de soldats n’ont jamais côtoyé de chevaux auparavant et que ces derniers ne sont pas habitués à de tels environnements. Nous avons vu que beaucoup d’équidés réquisitionnés refusent d’entrer dans les wagons ou les camions. Cela conduit les soldats à les qualifier de « bêtes », à se grouper jusqu’à six ou sept pour les forcer et à manier la violence. Or cette attitude des chevaux s’explique par leur vision, mieux connue de nos jours : étroite en hauteur mais très panoramique en largeur, d’un flanc à l’autre. Ils ont donc le sentiment d’être bêtement précipités contre un obstacle alors que la voie est libre autour ! D’autant qu’ils détectent mal l’intérieur noir des wagons, mettant du temps à accommoder leur vue à l’obscurité, et qu’ils rechignent logiquement à entrer dans cet inconnu… à la manière d’un automobiliste qui, par temps ensoleillé, freine devant une section très ombragée de la route formant un mur noir.
Un autre exemple d’incompréhension concerne l’abreuvement des chevaux durant l’été 1914. Ils ne peuvent pas boire suffisamment, souvent une fois la nuit car les cavaliers limitent ces moments dangereux pour eux, et cela provoque une importante mortalité. On peut invoquer la guerre de mouvement, qui réduit les possibilités de nourrir et d’abreuver, et la négligence des hommes, qui est réelle, mais la situation est confortée par un aspect inconnu des humains et même des animaux : on sait maintenant que les chevaux connaissent une forme de déshydratation qui ne provoque pas une soif importante, ce qui signifie que ces chevaux de guerre n’ont sans doute pas suffisamment manifesté leur besoin.
Eric Baratay ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2025 à 16:21
Bernard Laurent, Professeur, EM Lyon Business School
« Laudato si » (2015) est la plus célèbre des encycliques du pape François. Volontairement écologiste, elle remet l’Église et la Terre au centre du village. Que nous dit-elle de la vision de l’Église catholique et de ce pape politique ?
Il y a dix ans, le 24 mai 2015, le pape François rendait publique « Laudato si », de l’italien médiéval « Loué sois-tu », une encyclique qui ne donnait pas dans la demi-mesure. Ce texte surprit plus d’un catholique par ses constats sans concessions et son appel à une transformation en profondeur de nos modes de vie. Elle unissait toutefois, si nous en tenons à la France, les courants conservateurs – courant pour une écologie humaine, créée en 2013 – et des intellectuels catholiques ouverts, comme le jésuite Gaël Giraud, auteur de Produire plus, polluer moins : l’impossible découplage ?.
Le pape se plaçait dans la continuité de ses prédécesseurs. Paul VI, Jean-Paul II ou Benoît XVI s’inquiétaient avant lui des effets dramatiques d’une exploitation abusive de la nature sur l’humanité :
« Une exploitation inconsidérée de la nature de l’être humain risque de la détruire et d’être à son tour la victime de cette dégradation. »
Quels sont les enseignements de cette encyclique ? Que nous dit-elle de la vision de l’Église catholique ? Et du pape François ?
Le pape François dresse le constat d’un environnement particulièrement dégradé :
« La pollution […] affecte tout le monde, [elle est] due aux moyens de transport, aux fumées de l’industrie, aux dépôts de substances qui contribuent à l’acidification du sol et de l’eau, aux fertilisants, insecticides, fongicides, désherbants et agrochimiques toxiques en général. » (§-20.)
Le pape vert publie l’encyclique « Laudato si», en juin 2015, quelques mois avant la conférence de Paris sur le climat. L’objectif : sensibiliser l’opinion publique aux enjeux de réchauffement climatique, en créant une approche relationnelle entre Dieu, l’être humain et la Terre. C’est la première fois qu’une encyclique est entièrement consacrée à l’écologie.
Il s’inquiétait des effets du réchauffement climatique :
« À son tour, le réchauffement a des effets sur le cycle du carbone. Il crée un cercle vicieux qui aggrave encore plus la situation. Il affectera la disponibilité de ressources indispensables telles que l’eau potable, l’énergie ainsi que la production agricole des zones les plus chaudes et provoquera l’extinction d’une partie de la biodiversité de la planète. » (§-24.)
Depuis « Rerum novarum », du pape Léon XIII, les différentes encycliques sociales n’ont cessé de rejeter l’idée libérale d’une société régulée par le seul bon fonctionnement du marché. Le sociologue des religions Émile Poulat résumait parfaitement la position de l’Église en 1977 dans son livre Église contre bourgeoisie. Introduction au devenir du catholicisme actuel : « Elle n’a jamais accepté d’abandonner la marche du monde aux lois aveugles de l’économie. »
En 2015, le pape François rejetait les solutions techniques qui ne seraient que cautère sur une jambe de bois, tout comme la croyance aux vertus salvatrices du marché autorégulé. Il accuse « le paradigme technocratique » de dominer l’homme en subordonnant à sa logique l’économique et le politique (§-101). Des accents qui rappellent le philosophe français protestant Jacques Ellul, injustement oublié, et son idée d’« autopropulsivité » de la technique, sans limites, qui est placée en alpha et oméga de nos sociétés.
La charge contre les vertus supposées du marché était spectaculaire. Le pape stigmatise notamment :
« Étant donné que le marché tend à créer un mécanisme consumériste compulsif pour placer ses produits, les personnes finissent par être submergées, dans une spirale d’achats et de dépenses inutiles. » (§-203.) ;
« Dans certains cercles, on soutient que l’économie actuelle et la technologie résoudront tous les problèmes environnementaux. » (§-109.) ;
« La politique ne doit pas se soumettre à l’économie et celle-ci ne doit pas se soumettre aux diktats ni au paradigme d’efficacité de la technocratie. » (§-189.) ;
« Les plus pauvres sont les premières victimes : de fait, la détérioration de l’environnement et celle de la société affectent d’une manière spéciale la plus faible de la planète. » (§-48.) ;
Le pape François lie très étroitement sauvegarde de la planète et justice sociale. Il s’inscrit dans la lignée des travaux de l’économiste dominicain Louis-Joseph Lebret, fondateur en 1941 de l’association Économie et humanisme (E&H). Le père Lebret souhaitait remettre l’économie au service de l’homme et travailler sur les pays les moins avancés économiquement en défendant les vertus des communautés et de l’aménagement du territoire.
Quant au pape François, il souhaite une rupture radicale de nos modes de vie consuméristes dans les pays riches, en pensant le développement des pays les plus pauvres (§-93). Les réactions des pays développés lui paraissaient insuffisantes à cause des intérêts économiques en jeu, ajoutait-il (§-54).
Nous retrouvons là le principe de la destination universelle des biens, qui est le principe organisateur de la propriété défendu par la doctrine sociale de l’Église. Il commande de se soucier d’une répartition des biens permettant à chaque être humain de vivre dans la dignité.
À lire aussi : Pape François vs. J. D. Vance : fracture au sein du monde catholique
Au-delà des mesures techniques nécessaires et des pratiques individuelles sobres, le pape François invite les citoyens des pays développés à ne pas se contenter de demi-mesures largement insuffisantes. Au contraire, il pousse à changer nos modes de vie dans une logique de décroissance. Le but : permettre aux pays en voie de développement de sortir de la pauvreté, tout en ménageant l’environnement.
« Face à l’accroissement vorace et irresponsable produit durant de nombreuses décennies, il faudra penser aussi à marquer une pause en mettant certaines limites raisonnables, voire à retourner en arrière, avant qu’il ne soit trop tard. […] C’est pourquoi l’heure est venue d’accepter une certaine décroissance, mettant à disposition des ressources pour une saine croissance en d’autres parties. » (§-193.)
Dix ans plus tard, le texte raisonne pleinement avec nos préoccupations. Nous pourrions suggérer aux très catholiques vice-président J. D. Vance et secrétaire d’État Marco Rubio des États-Unis de relire cette encyclique.
Bernard Laurent est adhérent à la CFTC Membre du Conseil Scientifique de l'IRES
31.03.2025 à 15:42
Mathis Navard, Docteur en Sciences de l'information et communication (ISI), Université de Poitiers, IAE de Poitiers
Alors qu’il est un allié incontournable de la lutte contre le changement climatique, le transport ferroviaire est aussi victime de ses effets. Les incidents liés aux aléas climatiques se multiplient, mais la France tarde à agir.
Ce lundi 31 mars, les voyageurs pourront de nouveau traverser en train la frontière franco-italienne. Depuis un an et demi, la ligne Paris-Milan était interrompue en raison d’un impressionnant éboulement survenu sur ses voies en août 2023. Loin d’être un événement isolé, ce type d’incidents se multiplie au fur et à mesure que les effets du réchauffement climatique s’intensifient.
Face à cette situation, il est urgent que l’ensemble des acteurs de la filière ferroviaire (entreprises, collectivités, États…) se mobilise pour adapter les infrastructures à des conditions climatiques de plus en plus imprévisibles et violentes. Et ce, à une période où le nombre de voyageurs ne cesse de croître.
Si certains pays européens se sont déjà engagés dans cette voie, la France tarde à passer à l’action.
La situation est d’autant plus paradoxale que le train constitue un levier important dans la lutte contre le changement climatique. Un trajet en train émet en moyenne 95 % de CO₂ en moins que lorsqu’il est effectué en voiture. Le ferroviaire est donc un incontournable de la décarbonation des mobilités.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Un enjeu majeur, puisque le secteur des transports demeure le premier contributeur aux émissions françaises de gaz à effet de serre, comptant pour 30 % du total national. Il est l’un des rares domaines dont ce chiffre ne diminue pas. Plus inquiétant, sa tendance est même à la hausse depuis trois décennies.
Les voyageurs ne s’y trompent pas. Selon une étude réalisée en 2023 pour la SNCF, 63 % d’entre eux disent prendre le train par conviction écologique. Une autre enquête, ayant sondé une plus large partie de la population française, nous apprend que 83 % des répondants reconnaissent les bénéfices écologiques de ce mode de transport.
Chaque année, le trafic ferroviaire de voyageurs bat des records dans notre pays. Selon l’Autorité de régulation des transports, il a progressé de 21 % pour les trains du quotidien et de 6 % pour l’offre à grande vitesse entre 2019 et 2023.
A contrario, le transport de marchandises poursuit son inexorable chute, -17 % en un an.
Plusieurs raisons expliquent cette forte rétractation des services ferroviaires de fret : hausse des coûts de l’énergie, mouvements sociaux… et éboulement sur la ligne Paris-Milan.
Le trafic de voyageurs est lui aussi de plus en plus impacté par des conditions météorologiques toujours plus extrêmes. Interruption totale des circulations en janvier 2025 en raison des inondations en Ille-et-Vilaine, déraillement d’un TER à cause d’une coulée de boue en juillet 2024 dans les Pyrénées-Orientales suivi des deux accidents similaires en octobre en Lozère puis dans l’Aisne… Les exemples ne manquent pas dans l’actualité récente.
Si des aléas de ce type ont toujours existé, leur fréquence et leur intensité augmentent avec l’amplification du changement climatique. Quelle que soit la trajectoire des scénarios du GIEC empruntée, nous savons que cette tendance se poursuivra dans les décennies à venir, de façon plus ou moins marquée en fonction de la vitesse de la réduction de nos émissions de gaz à effet de serre. Les intempéries pourraient ainsi multiplier de 8 à 11 fois les perturbations ferroviaires d’ici à 2100.
Les risques portant sur le réseau sont multiples et concernent à la fois les voies, les télécommunications, les ouvrages et l’alimentation électrique. Parmi les principales menaces, citons la déformation des voies en raison de fortes chaleurs, la déstabilisation des sols provoquée par des cycles de gel-dégel ou de fortes pluies ainsi que d’importants dégâts causés par des incendies et des tempêtes.
La SNCF et ses 27 000 kilomètres de lignes se retrouvent en première ligne face à ces catastrophes. Bien que variable d’une année à l’autre, leur coût direct est estimé annuellement entre 20 millions et 30 millions d’euros.
Un document stratégique d’une trentaine de pages a été publié par SNCF Réseau l’an dernier. Il projette une adaptation à un réchauffement moyen pouvant atteindre +4 °C à l’horizon 2100. Cette feuille de route a été élaborée en collaboration avec Météo France, avec qui la SNCF se met systématiquement en lien en cas d’alertes météorologiques.
L’échange de données est également au cœur de cette stratégie. Un outil d’alerte baptisé Toutatis a par exemple été conçu pour surveiller les voies en cas de fortes pluies. Son homologue Predict anticipe quant à lui les risques de crues dès que certains seuils pluviométriques sont atteints.
Pas de quoi pour autant convaincre la Cour des comptes qui, en 2024, a alerté la SNCF sur l’absence d’un plan d’adaptation structuré intégrant le climat futur. Le rapport souligne également le manque d’informations sur les coûts climatiques.
La juridiction rejoint l’Autorité de régulation des transports sur le sous-investissement chronique dont est victime le réseau français, ce qui renforce mécaniquement sa vulnérabilité. Un milliard d’euros serait encore manquant pour en stabiliser l’état, et ce, alors que son âge moyen est toujours de 28,4 ans.
Déjà en 2019, une équipe de chercheurs avait mené une étude de cas à ce sujet. Leurs résultats mettaient en lumière un important décalage entre les discours de la SNCF et la faible intégration des connaissances scientifiques dans sa gestion ferroviaire. Elle se ferait encore de façon incrémentale, sans transformations profondes, et à partir d’expériences passées plutôt que des projections climatiques futures.
Les inspirations d’adaptation venues de nos voisins européens ne manquent pourtant pas. En Belgique et en Italie, les rails sont par exemple peints en blanc afin de limiter l’accumulation de chaleur et, in fine, leur dilatation.
La Suisse propose une solution alternative en refroidissant les rails avec un véhicule-citerne en cas de fortes chaleurs. La Confédération helvétique ainsi que l’Autriche (avec laquelle elle partage un relief accidenté) se sont engagées dans une démarche d’atténuation visant à davantage protéger les lignes des avalanches et des glissements de terrain tout en améliorant les systèmes de drainage. Cela passe notamment par le renforcement des forêts – un véritable bouclier protecteur – et des ouvrages existants.
Autant de choix politiques structurants qui ont été réalisés dans des pays où l’investissement en faveur du ferroviaire est de 2 à 9 fois plus important qu’en France. Il est donc plus que jamais nécessaire de s’engager dès à présent dans une stratégie d’adaptation plus systémique.
C’est tout l’objet d’un projet européen baptisé Rail4EARTH. Il fait le pari de l’innovation et de la rapidité d’action. Mais le chemin à parcourir est encore long pour que cette ambition se traduise en véritable feuille de route opérationnelle à l’échelle de notre continent.
L’application des données climatiques – actuelles comme futures – au secteur du ferroviaire demeure imparfaite. Le développement d’une gouvernance intégrant des experts en climatologie est souhaité par la SNCF, qui fait partie des partenaires de ce projet.
Il y a urgence à agir. Comme l’a démontré une étude britannique, l’adaptation des infrastructures ferroviaires aux différents scénarios du GIEC est souvent surestimée. Elles sont donc plus vulnérables que ce que les projections laissent penser.
Une raison de plus, s’il en fallait une, pour s’engager dès à présent dans un plan d’action à l’échelle européenne afin de continuer à faire du train un levier majeur de décarbonation de nos déplacements dans un monde qui ne cesse de se réchauffer.
Mathis Navard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2025 à 11:59
Marie-Christine Lichtlé, Professeur des Universités, Co-Responsable de la Chaire MARÉSON, Université de Montpellier
Anne Mione, Professeur de marketing stratégique, management de la qualité et stratégie, Université de Montpellier
Béatrice Siadou-Martin, Professeur des universités en sciences de gestion, Co-responsable de la Chaire MARESON, Université de Montpellier
Jean-Marc Ferrandi, Professeur Marketing et Innovation à Oniris, Université de Nantes, Co-fondateur de la Chaire MARÉSON, Nantes Université
De nouvelles pousses entrepreneuriales émergent pour valoriser des déchets comestibles en biscuits apéritifs ou plats préparés. Une étude menée auprès de 941 consommateurs français questionne l’acceptabilité de cet upcycling alimentaire.
Les entreprises proposant de l’upcycling alimentaire, surcyclage ou valorisation ont le vent en poupe. Hubcycled produit de la farine à partir de lait de soja ou arôme à base de pépins de fraises, la biscuiterie Ouro valorise de la drêche en biscuits apéritifs ou In Extremis valorise des pains invendus en boulangerie dans une proposition de biscuits apéritifs.
« L’upcycling alimentaire est défini comme un aliment dont au moins un des ingrédients serait soit un coproduit ou un résidu de la fabrication d’un autre produit (drêche pour la bière), soit un produit invendu (pain), soit un ingrédient qui était précédemment considéré comme un déchet et/ou gaspillé dans la chaîne d’approvisionnement. »
En raison des coûts liés à la collecte de ces déchets ou invendus et de ceux liés à leur transformation, le prix de vente de ces produits upcyclés est plus élevé que celui des offres traditionnelles. Mais, qu’en est-il de l’acceptabilité de ces produits par le consommateur ? Est-il prêt à consentir ce sacrifice monétaire pour se tourner vers une offre alimentaire durable ? Ce modèle de niche peut-il devenir un business model soutenable ? Telles sont les questions auxquelles nous répondons dans une recherche menée auprès de 941 consommateurs.
En 2021, 8,8 millions de tonnes de déchets alimentaires ont été produits en France. Parmi ces déchets, 4,3 millions de tonnes sont comestibles – aliments non consommés encore emballés, restes de repas, etc. Pour encourager les entreprises dans la transition écologique de leurs modèles de production, le gouvernement a voté en 2020 la loi antigaspillage pour une économie circulaire (Agec). Car l’industrie agroalimentaire est confrontée à des enjeux importants : assurer la sécurité alimentaire, proposer une offre durable, limiter le gaspillage alimentaire à tous les niveaux que ce soit la production, la distribution ou la consommation.
Notre objectif est de mesurer l’acceptabilité des produits upcyclés et d’identifier les attributs susceptibles d’accroître cette acceptabilité – selon qu’ils portent sur l’entreprise, sur la qualité du produit ou du processus de fabrication.
Abonnez-vous dès aujourd’hui !
Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Pour mesurer l’acceptabilité des consommateurs vis-à-vis de ces produits upcyclés, notre recherche s’appuie sur une expérimentation menée auprès de 941 consommateurs. Après avoir pris connaissance d’une offre de biscuits apéritifs – prix, poids, visuel du produit, libellés –, ces derniers ont été interrogés à quatre reprises. Les données collectées permettent d’apprécier la réponse comportementale du consommateur, appréhendée par l’attitude envers le produit et le consentement à payer dans un premier temps avec une présentation minimale de l’offre.
Des informations sont également fournies et communiquent sur trois bénéfices potentiels différents : la démarche vertueuse de l’entreprise, la qualité gustative et la qualité processuelle des biscuits.
Notre recherche a trois enseignements principaux. Le premier concerne le consentement à payer. En moyenne, les consommateurs indiquent un consentement à payer de 1,96 euro. Ce prix est bien supérieur au prix de référence du marché (le leader du marché propose le produit à 0,90 euro). Il reste cependant inférieur au coût réel de cette offre ou des offres qualitatives (certaines marques bio sont vendues à plus de 3 euros).
Deuxièmement, l’ajout d’un argument, peu importe sa nature, permet d’améliorer la valeur créée. Le consommateur est alors prêt à payer en moyenne 2,15 euros au lieu de 1,96 euro (soit un gain d’environ 10 %). Cependant, l’ajout d’un ou de deux arguments supplémentaires n’améliore pas le consentement à payer.
Ce nouveau produit n’est pas accepté de la même manière selon tous les consommateurs ; cela justifie la mise en œuvre d’une approche différenciée. En effet, la distance psychologique influence la perception et la représentation du produit upcyclé. Elle est définie par la théorie du niveau de construit comme une expérience subjective associée au degré de proximité ou de distance qu’un individu éprouve à l’égard d’un objet, ici le biscuit. Nous montrons que la distance psychologique explique l’attitude envers le produit et le consentement à payer. Autrement dit, les consommateurs les moins distants du biscuit ont un consentement à payer supérieur à celui des personnes distantes et ont l’attitude la plus favorable. Inversement, les plus distants envers le biscuit ont le consentement à payer le plus faible et l’attitude la plus défavorable.
Cette recherche suggère ainsi des pistes pour améliorer la durabilité de ce business model. En termes de communication, il est important pour les entreprises évoluant sur ce marché d’ajouter un avantage cohérent avec le caractère upcyclé et de communiquer sur celui-ci. Cette communication a pour objectif de renforcer la crédibilité des entreprises sur ce marché. Elle doit s’appuyer sur des arguments concrets afin de réduire la distance psychologique.
Il est inutile de démultiplier les avantages, car ces efforts de communication n’améliorent pas nécessairement le consentement à payer et l’attitude. Ce résultat est convergent avec les effets limités montrés par la multilabellisation des produits alimentaires. Les études montrent qu’avoir plusieurs labels ou certifications n’améliorent pas le consentement à payer pour des produits alimentaires tels que le miel.
Les entreprises doivent clairement s’adresser aux consommateurs sensibles au gaspillage alimentaire et se positionner sur ce marché de niche avant de pouvoir espérer atteindre l’ensemble des consommateurs. Cette segmentation permet d’offrir des pédagogies différenciées adaptées aux différents publics pour réduire leur distance psychologique vis-à-vis des biscuits et… les convaincre d’acheter ce produit avec un consentement à payer plus élevé.
Marie Eppe, fondatrice d’In Extremis, a participé à la réalisation de cette contribution.
Béatrice Siadou-Martin a reçu des financements de l'ADEME et de la Région Pays de la Loire (programme IP-AG).
Jean-Marc Ferrandi a reçu des financements de l'ADEME et de la Région Pays de la Loire (programme IP-AG)
Anne Mione et Marie-Christine Lichtlé ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
31.03.2025 à 11:59
Kamel Si Mohammed, researcher, Université de Lorraine
Vanessa Serret, Professor, IAE Metz School of Management – Université de Lorraine
Emprunt émis sur les marchés financiers par un État ou une entreprise pour financer des projets liés spécifiquement à l’environnement, les obligations vertes sont entre deux eaux. D’un côté, les velléités de Donald Trump de mettre fin aux politiques climatiques. De l’autre, un boom de ce marché avec 530 milliards de dollars d’émissions en 2024.
Avec l’élection de Donald Trump, les acteurs de la finance verte grincent des dents. Le président américain a fait réagir en décidant de sortir de l’accord de Paris. Entre 8 100 et 9 000 milliards de dollars par an jusqu’en 2030. C’est l’argent qu’il faudrait mobiliser pour atteindre les objectifs climatiques mondiaux selon le Climate Policy Initiative. Pour lever ces sommes colossales, les gouvernements et les entreprises se tournent de plus en plus vers les obligations vertes.
Dans une étude sur les États-Unis de 2008 à 2022, nous explorons la manière dont ces obligations contribuent à la réduction des risques climatiques. À l’instar des obligations classiques, les obligations vertes sont des emprunts – et donc des dettes – émis sur le marché par des États ou des entreprises. Ces obligations vertes sont destinées uniquement à financer des activités écologiques. Avec quels résultats ?
Les États-Unis, après avoir réintégré l’Accord de Paris en 2021, se sont fixés des objectifs ambitieux : réduire de 50 à 52 % leurs émissions de gaz à effet de serre d’ici 2030 par rapport au niveau de 2005. Pour atteindre ces objectifs, le pays mise sur la finance verte, notamment via les obligations vertes.
Dès 2020, les États-Unis ont été le plus grand émetteur mondial d’obligations vertes, avec 51,1 milliards de dollars émis selon la Climate Bonds Initiative. Cette tendance s’est poursuivie, atteignant 550 milliards de dollars en 2024, se rapprochant du record de 588 milliards de dollars établi en 2021. Fannie Mae, organisme spécialisé dans la garantie des prêts immobiliers, a été un pionnier des obligations vertes.
Apple a émis sa première obligation verte en 2016, avec un montant de 1,5 milliard de dollars, établissant ainsi un jalon important dans le secteur de la finance durable pour une entreprise technologique. Après une légère baisse en 2017, les émissions ont augmenté à partir de 2019, atteignant 4,5 milliards de dollars en 2024.
Notre étude sur le marché américain analyse la période de 2008 à 2022. Elle prend en compte plusieurs événements majeurs, tels que la signature de l’accord de Paris, mais aussi des crises économiques comme la crise financière de 2008 et la pandémie de Covid-19. Les chocs économiques – comme la crise de 2008 ou la guerre en Ukraine – augmentent l’incertitude. Elles rendent les obligations vertes plus attractives en tant que valeurs refuges. Plus l’incertitude économique est élevée, plus les obligations vertes démontrent leur résilience en réduisant les risques climatiques.
Un point clé de cette recherche est l’impact de l’incertitude économique sur les obligations vertes. Pour mesurer cela, nous avons utilisé l’indice d’incertitude politique économique, ou Economic Policy Uncertainty (EPU), ainsi que l’indice des sommets climatiques, ou Climate Summit Index (CSI). Ces indices reflètent la manière dont les événements politiques et les engagements climatiques influencent les marchés financiers.
Les résultats économétriques montrent que les obligations vertes jouent un rôle crucial dans la réduction des risques climatiques. Toutefois, l’efficacité de ces obligations est à nuancer. Par exemple, lorsque les engagements politiques en faveur du climat sont faibles, l’impact des obligations vertes s’avère plus limité.
Pour mener cette analyse, nous avons utilisé la méthode statistique appelée régression quantile-surquantile multivariée. Cette méthodologie permet de mesurer l’impact des obligations qui peut être asymétrique selon une période de faible ou de forte incertitude économique. Ils permettent d’étudier la relation dynamique entre les obligations vertes et les risques climatiques selon différents scénarios de marché.
Nos résultats montrent que lorsque le marché des obligations vertes est encore peu développé, leur capacité à réduire les risques climatiques est plus limitée. Cependant, au fur et à mesure que le marché des obligations vertes se développe, leur impact positif sur la réduction des risques climatiques devient plus prononcé. Autrement dit une plus grande émission d’obligations vertes est associée à une baisse significative des risques climatiques.
L’efficacité des obligations vertes dépend des politiques climatiques mises en place lors des sommets internationaux mesurés par l’indice de sommet climatique. Nous avons constaté que les engagements pris lors de ces sommets influencent directement le marché des obligations vertes. Lorsque les gouvernements prennent des mesures strictes pour réduire les émissions de carbone, la demande pour ces obligations augmente, ce qui renforce leur impact positif sur la réduction des risques climatiques.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Notre étude montre que l’indice de risque climatique diminue d’environ 16 %, lorsque l’émission d’obligations vertes est très élevée, illustrant leur effet significatif dans l’atténuation du risque climatique. Cependant, lorsque l’indice des sommets climatiques est faible, l’effet des obligations vertes sur la réduction du risque climatique est plus limité, enregistrant une baisse d’environ 12 %.
Ces résultats soulignent la nécessité d’un cadre réglementaire incitatif pour favoriser l’expansion du marché des obligations vertes et maximiser leur efficacité dans la lutte contre le changement climatique.
Notre étude propose au moins trois recommandations pratiques à destination des décideurs et des investisseurs pour maximiser l’impact des obligations vertes.
Instaurer un cadre incitatif solide : mettre en place des garanties gouvernementales, afin de réduire les risques financiers associés aux obligations vertes et ainsi attirer un plus grand nombre d’investisseurs.
Établir des normes claires : définir précisément les critères qui qualifient une obligation verte. Cela permettra d’accroître la transparence et la confiance des investisseurs, tout en renforçant l’intégrité du marché.
Faciliter l’accès aux obligations vertes, notamment pour les petites entreprises et les investisseurs institutionnels, en développant des plates-formes de trading dédiées comme le Luxembourg Trade Exchange.
Les obligations vertes ne se limitent pas à un simple instrument financier. Elles représentent un levier puissant pour accélérer la transition écologique, réduire les risques climatiques et stabiliser les marchés financiers face aux incertitudes économiques et politiques. Cependant, notre étude met en lumière une limite notable : les résultats se concentrent principalement sur les États-Unis, un marché financier mature. Il serait essentiel d’élargir le champ d’analyse aux pays émergents, où les risques climatiques et les incertitudes économiques sont souvent plus marqués.
En 2023, les émissions d’obligations vertes dans les marchés émergents ont augmenté de 34 %, atteignant 135 milliards de dollars. Ces chiffres soulignent le potentiel croissant de ces instruments dans ces régions. Des recherches futures pourraient explorer comment ces obligations peuvent répondre aux besoins spécifiques des économies émergentes, pays où le risque climatique est souvent plus élevé ainsi que l’incertitude politique.
rien à déclarer
Kamel Si Mohammed ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2025 à 11:59
Cécile Cezanne, Maître de conférences-HDR en économie, Université Côte d’Azur
Gaye-Del Lo, Maître de conférences, Centre d'Économie Paris Nord (CEPN), Université Sorbonne Paris Nord
Sandra Rigot, Professeur des Universités en économie, Université Sorbonne Paris Nord, Chaire « Énergie et Prospérité, Chaire Economie du Climat, Université Sorbonne Paris Nord
Une étude menée sur 305 entreprises cotées en France, en Allemagne, au Royaume-Uni et au Japon, met en lumière l’influence du conseil d’administration sur la réduction des émissions de gaz à effet de serre (GES). Une empreinte surtout prégnante dans les entreprises les plus émettrices.
Sous la pression des tensions géopolitiques et des impératifs de compétitivité, l’Union européenne a amorcé un choc de simplification du Green Deal incarné par les directives Omnibus. Inspiré par les conclusions du rapport Draghi sur le décrochage économique de l’Europe, ce texte allège les contraintes réglementaires, notamment en matière de normes dans les domaines environnementaux, sociaux et de gouvernance. Cette inflexion du cadre institutionnel risque de ralentir la transition écologique. À moins que les entreprises s’engagent volontairement à adapter leur gouvernance face aux défis climatiques actuels…
En tant qu’organe de gouvernance par excellence, le conseil d’administration a un rôle crucial à jouer. Notre étude récente menée sur 305 entreprises cotées en France, en Allemagne, au Royaume-Uni et au Japon, entre 2015 et 2021, met en lumière l’influence du conseil d’administration sur la réduction des émissions de gaz à effet de serre (GES). En substance, le conseil d’administration, souvent perçu comme un organe mis au service de la performance strictement financière de l’entreprise, se révèle être un acteur déterminant de la lutte contre le changement climatique. En favorisant la diversité de genres et en structurant des comités dédiés à la durabilité, il peut contribuer à faire des entreprises de véritables moteurs du changement.
La gouvernance d’entreprise, qui désigne l’ensemble des règles et processus encadrant la gestion et le contrôle des sociétés, a connu une évolution significative au fil des décennies. D’abord centrée sur la maximisation des profits et la protection des intérêts de court terme des actionnaires, elle s’est progressivement élargie pour inclure des considérations sociales et environnementales. Aujourd’hui, les entreprises sont évaluées non seulement sur leurs performances financières, mais aussi de plus en plus sur leurs résultats en matière de développement durable.
Le conseil d’administration est l’organe chargé d’orienter et de superviser les décisions stratégiques de l’entreprise et de trancher sur toute question relative à son intérêt social. Il remplit deux fonctions majeures : la gestion des décisions, qui consiste à influencer et soutenir les choix stratégiques des dirigeants, et surtout le contrôle des décisions en veillant à ce que ces choix respectent l’intérêt global de l’entreprise et de ses parties prenantes.
En matière de transition écologique, le conseil d’administration doit adopter des stratégies environnementales basées sur des exigences réglementaires et des normes internationales non obligatoires : GRI, IR, TCFD, CDP, etc. Parmi ces décisions, on peut citer la fixation de cibles environnementales mesurables, le développement de l’économie circulaire et des chaînes d’approvisionnement responsables ou encore l’investissement dans l’innovation verte. Ces démarches sont fondamentales car elles influencent directement la capacité d’une entreprise à réduire ses émissions de GES.
Notre étude montre que la composition du conseil d’administration joue un rôle déterminant sur la performance carbone des entreprises.
Parmi les facteurs essentiels, figure d’abord la diversité de genres au sein de l’instance ; les entreprises ayant une plus forte proportion de femmes administratrices affichent des niveaux d’émissions plus faibles. Le parcours de formation – droit, sciences humaines, sciences de l’éducation – et les dynamiques professionnelles des femmes diffèrent sensiblement de ceux de leurs homologues masculins selon Galbreath et Jaffe & Hyde.
Abonnez-vous dès aujourd’hui ! Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Plus enclines à soutenir des initiatives philanthropiques et à valoriser la responsabilité sociétale des entreprises, elles se distinguent par une sensibilité accrue aux enjeux sociaux et environnementaux. Cette orientation les conduit à promouvoir des politiques de durabilité et à exercer une surveillance rigoureuse sur les engagements environnementaux.
Un autre facteur clé est la création de comités spécialisés au sein du conseil d’administration. Notre étude montre que les entreprises disposant d’un comité RSE (responsabilité sociale et environnementale) enregistrent une meilleure performance en matière de réduction des GES. Notamment pour les émissions directes (Scope 1) et indirectes liées à la consommation d’énergie (Scope 2). Même s’ils n’ont aucun pouvoir de décision et que leur mission consiste essentiellement à éclairer les réflexions du conseil d’administration, ces groupes de travail permettent d’instaurer une vigilance accrue sur les objectifs climatiques.
En revanche, la présence de membres indépendants, bien qu’elle garantisse un regard objectif, ne semble pas avoir d’effet direct sur la réduction des émissions. De même, la composition du conseil d’administration n’aurait pas d’influence sur les émissions les plus indirectes (Scope 3), alors que ces dernières représentent environ 80 % des émissions globales des entreprises.
Les résultats varient toutefois selon les domaines d’activité. Les entreprises opérant dans les secteurs à fortes émissions identifiés par le GIEC comme l’énergie, les bâtiments, les transports, l’industrie et l’AFOLU – agriculture, foresterie et autres usages des terres –, bénéficient davantage de ces dispositifs de gouvernance. Dans ces secteurs, la diversité de genres parmi les administrateurs et la présence d’un comité RSE ont un impact particulièrement marqué sur la réduction des émissions. À l’inverse, dans les industries à plus faibles émissions, ces facteurs jouent un rôle moins décisif, probablement en raison d’une empreinte carbone initialement moindre.
Au-delà de la réduction des émissions de GES, le conseil d’administration pourrait se saisir d’une question complémentaire majeure : la préservation de la biodiversité. Essentielle pour assurer la résilience des écosystèmes et garantir la durabilité des activités humaines, elle reste sous-estimée. Or, le conseil a les moyens, outre l’adoption volontaire d’initiatives comme la norme TNFD (Taskforce on Nature-related Financial Disclosures), de pousser les entreprises à limiter activement leur impact sur la biodiversité. Il pourrait veiller à la mise en place de modèles d’affaires attentifs aux écosystèmes, au développement de dispositifs de compensation des atteintes à la biodiversité ou encore à l’adoption de technologies plus respectueuses de la nature. Là encore, la composition du conseil d’administration pourrait être un enjeu de taille. La décision récente de l’entreprise Norsys de faire siéger la nature au sein de son conseil d’administration l’atteste.
Cécile Cezanne est chercheuse associée à la Chaire Énergie et Prospérité (https://chair-energy-prosperity.org/).
Sandra Rigot a reçu le soutien de la Chaire Énergie et Prospérité et de la Chaire Énergie du Climat
Gaye-Del Lo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.03.2025 à 16:35
Paula Fernandes, Researcher, Cirad
Alain Ratnadass, Senior research scientist, Cirad
François-Régis Goebel, Directeur de Recherches en protection des cultures, gestion des bioagresseurs, Cirad
Gaëlle Damour, chercheuse, Cirad
Il existe chez les plantes des dizaines de mécanismes plus ingénieux les uns que les autres pour réguler naturellement les organismes qui s’attaquent aux cultures. S’appuyer sur ces alliés précieux est indispensable pour diminuer notre dépendance aux pesticides. Cela permet aussi de construire des systèmes agroécologiques plus résilients.
Chaque jardinier connaît l’œillet d’Inde, allié qui éloigne insectes et maladies du potager. Mais saviez-vous qu’il existe de nombreuses autres plantes, dites « plantes de service », précieuses pour une agriculture plus respectueuse de la santé et de l’environnement ?
Des résultats de recherche révèlent qu’une large gamme de plantes, lorsqu’on les intègre aux systèmes de culture, sont capables de réguler les bioagresseurs des champs (insectes et arthropodes, nématodes, champignons, bactéries, virus, adventices), et donc de réduire les besoins en pesticides.
Selon les plantes, elles mobilisent un mécanisme particulier ou en combinent plusieurs. Certaines vont agir contre les bioagresseurs aériens, tels les plantes aromatiques ou le maïs. D’autres sont efficaces contre les bioagresseurs telluriques, comme les crotalaires, le sorgho hybride ou les crucifères.
Penchons-nous dans un premier temps sur les mécanismes mis en œuvre par certains végétaux pour contrer les bioagresseurs aériens.
Les plantes refuges, fréquemment implantées en bordure de parcelle, assurent un habitat favorable aux auxiliaires, en leur fournissant le gîte et le couvert. Ainsi, ces derniers sont déjà présents lorsque les ravageurs arrivent pour attaquer les cultures, ils interviennent plus rapidement (prédation, parasitisme). C’est le cas notamment du tournesol mexicain (Tithonia diversifolia) utilisé aux abords des champs de canne à sucre en Tanzanie pour attirer et préserver les coccinelles prédatrices du puceron jaune Sipha flava, ravageur majeur dans ce pays.
Les plantes d’ombrage, intégrées dans la parcelle, modifient son microclimat. En changeant la luminosité et l’humidité, elles rendent les conditions climatiques défavorables à certains bioagresseurs et plus favorables à d’autres.
C’est notamment le cas des eucalyptus ou érythrines dans les plantations de caféiers, vis-à-vis du champignon Colletotrichum kahawae provoquant l’anthracnose des baies au Cameroun. Ces plantes ont le même effet sur la cochenille Placococcus citri et le champignon Cercospora coffeicola qui provoque au Costa Rica la cercosporiose.
Certaines plantes jouent un rôle de barrière contre les agresseurs. Implantées en bordure, elles forment un rideau végétal qui empêche les ravageurs d’atteindre la culture. C’est le cas des barrières de Crotalaria juncea qui obstruent le passage des aleurodes, qui volent à hauteur d’homme vers les plants de piment.
D’autres végétaux utilisent également l’espace pour freiner l’avancée de l’ennemi. Associés à une culture sensible, ils vont dissimuler cette dernière aux ravageurs en créant un effet de « dilution » visuelle. Ces associations, en générant une discontinuité spatiale, peuvent aussi ralentir la propagation de proche en proche des maladies fongiques.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Elles peuvent par ailleurs réguler les adventices par compétition pour les ressources (lumière, eau, nutriments) ou par barrière physique. En bananeraie, des espèces comme Neonotonia wightii ou Arachis pintoi ont révélé de bonnes aptitudes, avec un impact modéré sur la croissance des bananiers.
Les plantes émettrices d’odeurs peuvent être utilisées seules ou bien combinées pour accroître leur efficacité dans un système « push-pull » :
La plante « push », intégrée au milieu de la culture, diffuse un « parfum répulsif » pour les ravageurs. Les plantes aromatiques, telles que le basilic ou le gros thym antillais Plectranthus amboinicus, constituent un vivier intéressant de plantes « push ».
Parallèlement, une plante « pull » est introduite, soit dans la parcelle pour attirer les auxiliaires, soit en bordure pour attirer vers elle le ravageur, le détournant ainsi de la culture. Ainsi, certaines variétés de maïs doux attirent la femelle de la noctuelle de la tomate qui, au lieu de pondre sur les tomates, va le faire sur les soies des épis de maïs – qui constituent des « voies sans issue » car les larves qui éclosent ne peuvent s’y développer.
Les plantes citées jusqu’ici ne s’attaquaient qu’aux bioagresseurs aériens. Mais d’autres mécanismes existent pour combattre les bioagresseurs telluriques.
La rotation des cultures, notamment, permet d’interrompre la reproduction des bioagresseurs. Lorsqu’une plante non sensible à l’agresseur vient remplacer pendant une période la plante sensible, la population de parasites dans le sol diminue fortement.
Une fois que la culture sensible revient sur la parcelle, elle est en mesure de se développer sans incidence majeure tant que la population pathogène reste faible. Une véritable course de vitesse s’engage alors entre le développement de la culture et la multiplication du pathogène.
C’est par exemple le cas en cultures maraîchères ou dans des bananeraies. Créer des jachères assainissantes à base d’espèces non-hôtes (comme Crotalaria juncea ou Brachiaria spp) réduisent les populations de nématodes phytoparasites.
Autre méthode d’attaque contre les telluriques, l’empoisonnement ou l’inhibition – aussi appelée allélopathie. Ici, différentes stratégies existent et ont été mises en évidence.
Certains végétaux, tels que les crotalaires, libèrent via leurs racines des alcaloïdes pyrrolizidiniques toxiques pour plusieurs espèces de nématodes phytoparasites.
Autre moyen, la biofumigation par certains végétaux au moment de leur décomposition. Par exemple des isothiocyanates, composés soufrés à large spectre d’efficacité (champignons, bactéries, nématodes…), issus de la dégradation des glucosinolates largement présents chez les brassicacées (moutarde par exemple) et les alliacées (ail, oignon…).
D’autres plantes, enfin, provoquent la germination des graines de plantes parasites (comme le Striga) ou attirent les pathogènes (nématodes phytoparasites) vers leurs racines en émettant des signaux semblables à ceux d’une plante sensible. Ainsi, le coton, le lin ou le soja, plantes non hôtes, diminuent le potentiel infectieux du sol en engendrant la germination « suicidaire » du Striga, dont les radicules sont alors incapables de se fixer à leurs racines.
De façon générale, les plantes de service peuvent aussi jouer un rôle bénéfique en stimulant la diversité de la microflore et de la macrofaune du sol, de façon globale ou ciblée.
Parmi les communautés du sol se trouvent des espèces antagonistes ou prédatrices des bioagresseurs. En particulier certains nématodes libres, qui se nourrissent de nématodes phytoparasites. Mais aussi des bactéries et champignons, qui peuvent produire des antibiotiques ou encore parasiter ces bioagresseurs. On parle alors de suppressivité spécifique.
En bananeraie, les jachères de Paspalum notatum augmentent ainsi les populations de nématodes libres omnivores ou prédateurs, qui en retour diminuent les populations de nématodes phytoparasites.
D’autres microorganismes du sol, sans réguler directement les pathogènes, occupent des niches où ils sont en compétition avec eux, notamment en colonisant la rhizosphère des plantes, et en utilisant les mêmes ressources.
Ce faisant, ils réduisent les conditions favorables à la croissance des pathogènes. On parle alors de suppressivité générale.
Outre l’accroissement de populations bénéfiques du sol, les plantes de service contribuent également à l’enrichir. Souvent employées comme engrais verts ou plantes de couverture, elles restituent au sol de la matière organique et des nutriments, accessibles ensuite à la plante cultivée.
Du fait de l’amélioration de sa résistance physiologique, via une nutrition plus équilibrée et la disponibilité de certains oligoéléments, celle-ci est moins vulnérable aux attaques des bioagresseurs, telluriques mais aussi aériens.
L’efficacité des plantes de service dépend donc dans une large mesure du contexte. Pour réussir, l’utilisation de plantes de service pour gérer des bioagresseurs requiert une compréhension claire des principes génériques de l’agroécologie couplée à une connaissance fine des espèces impliquées, afin d’adapter et appliquer ces principes à des situations spécifiques.
L’évolution des interactions entre cultures et bioagresseurs nécessite également d’adapter les pratiques au changement, et, le cas échéant, de mobiliser simultanément divers mesures et mécanismes de régulation.
Le 5 juin 1984 naissait le Cirad fondé par décret. Depuis plus de 40 ans, les scientifiques du Cirad partagent et co-construisent avec les pays du Sud des connaissances et des solutions innovantes pour préserver la biodiversité, la santé végétale et animale, et rendre ainsi les systèmes agricoles et alimentaires plus durables et résilients face aux changements globaux.
Paula Fernandes a reçu des financements de bailleurs publics de la recherche pour le developpement
Alain Ratnadass a reçu des financements de bailleurs de fonds publics français, européens et internationaux pour la recherche pour le développement.
François-Régis Goebel est membre de l'International Society of Sugarcane Technologists (ISSCT). Il a reçu des financements de bailleurs de fonds publics français, européens et internationaux pour la recherche pour le développement.
Gaëlle Damour a reçu des financements de bailleurs de fonds publics français, européens et internationaux pour la recherche pour le développement.
27.03.2025 à 11:48
Anouchka Vasak, Maitresse de conférences de littérature française, Université de Poitiers
Alexis Metzger, Géographe de l’environnement, du climat et des risques, INSA Centre Val de Loire
Martine Tabeaud, Géographe, Université Paris 1 Panthéon-Sorbonne
Lointains, mouvants, impalpables… La nature même des nuages fait de ces amas de gouttelettes d’eau en suspension dans l’atmosphère un objet d’étude complexe à appréhender pour les peintres comme pour les scientifiques. À l'occasion de la Journée internationale des nuages, le 29 mars, retour sur ces nuages qui n'en finissent pas de fasciner.
Les parois des abris sous roche et des grottes du Paléolithique ne représentent jamais de nuages. Il est pourtant évident que l’observation des états du ciel et donc des nuages fut vitale pour les premiers hominidés. Mais comment dessiner, nommer et décrire des objets si mouvants ? Retour sur une quête qui passionna scientifiques et artistes du monde entier.
Pour évoquer les nuages, de nombreuses cultures mentionnent leurs couleurs et le risque de détérioration du temps, en opposant par exemple ceux qui sont hauts et très blancs et ceux, à l’inverse, que l’on observe bas et très noirs. C’est le cas par exemple à Madagascar avec une distinction faite entre les nuages clairs de la saison sèche et ceux de la mousson, de couleur bleu foncé à noir à leur base, et très épais.
Au Japon, des atlas du XVIIIᵉ siècle les associent eux à des constellations, tandis qu’à la même époque les maîtres de l’estampe, comme Hokusai, les représentent généreusement.
Quand il s’agit de les nommer, toutes les typologies recensées les comparent à des objets familiers (diablotins, pis de vache, mouton, oiseau, chou, pomme, fleur…). Les artistes ne sont pas en reste de cette diversité pour figurer les nuages.
Beaucoup ont tenté de traduire sur la toile ou le papier cette réalité céleste fugace, observable en un lieu donné et à un moment donné. Les ciels typés accompagnent ainsi les arrière-plans des enluminures médiévales. Mais il ne s’agit pas là d’une recherche systématique de compréhension, d’inventaire des nuages.
Durant tout le Moyen Âge les nuages dans la peinture, souvent murale, permettent surtout de faire un lien entre les mondes divin et matériel, le céleste et le terrestre. Les peintres hollandais s’affranchissent ensuite du religieux pour montrer des ciels remplis de nuages réalistes, balayant souvent d’ouest en est les Pays-Bas.
En 1785, le peintre paysagiste britannique Alexander Cozens publie une Nouvelle Méthode pour assister l’invention dans le dessin de compositions originales de paysages (A New Method of Assisting the Invention in Drawing Original Compositions of Landscape). Sa méthode du blot drawing (« dessin par tâches », en français), destinée aux peintres, utilise les taches d’encre comme point de départ d’une composition paysagère.
Vingt gravures de ciels accompagnent ce traité. Composées par paire, elles sont pour la plupart intitulées La même chose que la précédente, mais en plus sombre (The Same as the Last but Darker), signe que la dénomination des nuages n’est pas alors la question.
De fait, en Europe, le premier projet encyclopédique de répertoire de nuages n’apparaît qu’au XIIIe siècle avec le livre XI du Livre des propriétés des choses, du moine franciscain Barthélemy l’Anglais qui se contente d’évoquer leur diversité de formes et de couleurs, sans leur apposer de noms spécifiques. Pour lui, le nuage se forme
« car la chaleur du ciel attire très subtilement vers elle les exhalaisons de l’eau et de la terre ; elle en sépare les parties les plus légères, assemble le reliquat et les convertit en nuages ».
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
Des propositions de classification des « états du ciel » sont ensuite proposées par l’érudit Robert Hooke, à la Société royale de Londres pour l’amélioration des connaissances naturelles (communément appelée la Royal Society) ou bien par la Société météorologique palatine (1780). Il faut ensuite attendre 1802 pour que deux classifications de nuages soient élaborées par des hommes de sciences. Le premier est le naturaliste français Jean-Baptiste de Lamarck qui s’efforce de mettre au point, de 1802 à 1818, une classification en français. Il proposera in fine au moins trois typologies de nuages, aux résonances plus poétiques que scientifiques : nuages en lambeaux, attroupés, boursouflés, en balayures, diablotins…
Vint ensuite le Britannique Luke Howard. Ce jeune quaker, pharmacien et météorologue amateur, publie en 1803 On the Modifications of Clouds que la postérité retiendra. À la manière du botaniste suédois Carl von Linné quelques décennies plus tôt, Howard distingue et nomme en latin les différentes formations nuageuses : cirrus (« boucle de cheveux », en latin), nimbus (« nuage orageux »), cumulus (« amas ») et stratus (« étendu »).
Mais Howard prend malgré tout quelques libertés vis-à-vis de la méthode de son prédécesseur. D’abord, parce que Linné avait identifié trois grands groupes d’objets d’étude (baptisés « règnes ») – le minéral, le végétal et l’animal – et que, pour évoquer les nuages, il faut donc sortir de ces délimitations.
Ensuite, Howard s’affranchit aussi des subdivisions de Linné qui répartit, au sein de ses différents règnes, les objets d’études en classes, espèces et genres. Pour les nuages, Howard distingue des « modifications », au sens de formations nuageuses. Il dénombre ainsi :
trois « modifications » simples (cirrus, cumulus, stratus) ;
deux intermédiaires, combinaison de deux formations simples (cirro-cumulus, cirro-stratus) et deux composées (le cumulo-stratus, ou cirro-stratus fondu avec un cumulus, et le cumulo-cirro-stratus, ou nimbus, c’est-à-dire le nuage le plus dense, le nuage de pluie.
Pour accompagner cette dénomination, Howard va proposer des dessins, comme les naturalistes le faisaient par exemple pour les plantes. La première édition de On the Modifications of Clouds, parue en 1803, comporte ainsi trois planches.
La nouvelle édition de 1865, publiée sous le titre Essay on the Modifications of Clouds, est, pour sa part, illustrée de gravures représentant des compositions paysagères de nuages étagés d’après ses esquisses de ciel surmontant une partie terrestre dessinée par le peintre Edward Kennion.
Grâce à Goethe, qui s’intéressa très tôt à la météorologie et notamment aux nuages, Howard fut vite reconnu par les artistes européens. À la fin de son Essai de théorie météorologique (1825), il saluera en Howard « l’homme qui sut distinguer les nuages ». Si Howard ne parvint pas à convaincre Caspar David Friedrich, le peintre du célèbre Voyageur au-dessus de la mer de nuages (1818), de peindre des nuages « d’après Howard » (« Ce serait, lui rétorque Friedrich, la mort du paysage en peinture »), les peintres de l’époque romantique ne peuvent en tout cas plus ignorer que la perception des nuages est désormais informée mais peut-être aussi limitée, selon certains, par la classification de Howard.
Celui qui s’en accommoda le mieux fut John Constable. Au début de la décennie 1820, et durant deux années, il scrute depuis son quartier de Hampstead les ciels londoniens et produit une série d’études à l’huile à travers lesquelles il cherche à retranscrire la variation des conditions météorologiques à différents moments de la journée.
L’artiste complète souvent ses Cloud Studies, exécutées sur papier d’après la nomenclature de Howard, avec des mentions de la date, de l’heure, de la direction du vent.
L’exactitude météorologique de ces précisions a pu être vérifiée. L’impression de mouvement est donnée par les formes des nuages. La technique, inédite pour l’époque, consiste en de larges brossages sur des sous-couches colorées.
Bien loin de là, au Brésil, à la latitude du tropique du Capricorne, un autre peintre, Hercule Florence, a, de son côté, entrepris d’immortaliser les ciels de Campinas, à 90 kilomètres au nord de Sao Paulo, de 1832 à 1837. Il partage avec Constable un souci d’authenticité. Puisque « […] les ciels de la zone torride sont différents des ciels des contrées tempérées », il publie un Atlas pittoresque des ciels à l’usage des jeunes paysagistes. Ce catalogue comprend vingt-deux aquarelles numérotées, datées et décrites minutieusement, sans référence à la nomenclature latine des nuages, inconnue d’Hercule Florence.
Il s’adresse en priorité aux peintres afin de les aider à représenter dans leurs tableaux des arrière-plans vraisemblables et fidèles à la saison et à l’heure.
Dans les sphères scientifiques, cependant, la classification de Howard reste, pendant plusieurs décennies, peu et mal utilisée. Un météorologiste de Cuba André Poey pose même la question de l’universalité des types de nuage et de la subjectivité du dessin. Pour évaluer cela, le congrès météorologique international de 1879 décide alors d’envoyer le météorologiste et photographe britannique Ralph Abercromby faire deux tours du monde.
Il publiera au retour Sur l’identité des formes de nuages tout autour du monde. Son travail débouchera également sur une classification internationale des nuages, largement inspirée de Howard, mais complétée d’une nomenclature fondée sur dix principaux types de nuages.
Cette typologie sera consacrée par l’édition, en 1891, des Instructions météorologiques, d’Alfred Angot, suivies, en 1896, par l’Atlas international des nuages, établi par les météorologues Hugo Hildebrand Hildebransson, Albert Riggenbach et Léon Teisserenc de Bort pour fixer les catégories de nuages « universels ». Selon les auteurs, les dessins sont trop schématiques et les peintures peu fidèles. Les photographies donnent des résultats plus réalistes. L’Atlas est donc illustré par 16 photographies prises par Ralph Abercromby.
Mais les peintres ne cessent pas pour autant de s’intéresser aux nuages.
De 1912 à 1951, par exemple, le peintre français André des Gachons, qui a installé une station météorologique dans son jardin de la Chaussée-sur-Marne (Marne) et qui devient bénévole des services météorologiques, peint d’une à trois aquarelles de ciel chaque jour. Neuf mille six cents œuvres sont ainsi répertoriées dans des cahiers. Les aquarelles s’intègrent à une planche sur laquelle figurent aussi les relevés de caractères de l’air.
L’originalité de ce travail réside dans la répétition sur une longue durée et la mise en mémoire de ciels très ordinaires. On n’y trouve que quelques ciels avec des nuages extraordinaires (explosions de munitions, tirs de DCA, etc.) observés pendant la Première Guerre mondiale.
Aujourd’hui, nombre d’artistes continuent de se saisir de cet objet évanescent. Polymorphe, le nuage l’est aussi dans les messages qu’il peut porter, incarnant le rêve et la liberté pour Sylvain Soussan dans son musée des nuages, le mouvement et l’inconstance pour François Réau, l’incertitude pour Benoît Pinero) marchant dans le brouillard dans la vallée de la Loire ou même l’apocalypse à travers l’illustration choisie par la BNF pour l’exposition sur ce thème.
Quant à l’Atlas international des nuages, il se dote régulièrement de nouveaux nuages, comme le cataractgenitus qui se forme au-dessus des chutes d’eau. De quoi, de nouveau, inspirer les peintres et former de nouveaux traits d’union entre art et science.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
26.03.2025 à 16:30
Denis Benita, Ingénieur transports, Ademe (Agence de la transition écologique)
Les poids lourds représentent 27 % des émissions de CO2 liées au transport. Leur électrification apparaît ainsi indispensable pour réduire leurs émissions de gaz à effet de serre, mais celle-ci peine à se déployer pour l’instant, notamment du fait de son coût élevé. Différents leviers sont actionnés pour accélérer cette transition.
Les poids lourds représentent, en France, 27 % des émissions de CO₂ liées aux transports, alors même qu’ils ne constituent que 1,3 % du parc automobile du pays. Le parc des camions compte environ 600 000 véhicules quand la France recense 39 millions de voitures. Un constat qui s’explique à la fois par leur très forte consommation de carburant et par le fait qu’ils roulent sur de très longues distances.
L’enjeu de diminuer leur impact environnemental apparaît donc majeur. Pour cela, plusieurs options existent aujourd’hui :
la plus plébiscitée actuellement est de se tourner vers le biocarburant B100, produit à partir de colza. Il s’agit de l’unique biocarburant éligible, à ce stade, à la vignette Crit’Air 1, qui sera peut-être un jour la seule permettant d’accéder à certaines zones à faibles émissions (ZFE). Il a l’avantage d’être facile à adopter : il suffit de le substituer au diesel dans son réservoir et de s’assurer que son véhicule est bien compatible.
La deuxième option vers laquelle se tournent nombre d’acteurs du transport routier est le gaz naturel véhicule, en privilégiant autant que possible son alternative renouvelable avec le biogaz naturel véhicule. Là aussi, éligible à la vignette Crit’Air 1, sa mise en œuvre est plus complexe, avec l’achat d’un camion dédié et la nécessité de se situer à proximité d’une station de gaz naturel pour véhicules (GNV).
La dernière option est l’achat d’un poids lourd électrique, qui demeure très minoritaire. Sur les quelque 50 000 camions vendus en France en 2024, seuls 670 étaient électriques, soit 1,4 % du marché – contre 33 % des bus et 16,9 % des voitures.
Cette solution constitue pourtant le choix le plus vertueux sur le plan environnemental, mais certains freins restent à lever pour faciliter son déploiement.
À lire aussi : Quelle technologie de batterie pour les voitures électriques ? Un dilemme de souveraineté industrielle pour l’Europe
Le premier intérêt du poids lourd électrique est son absence d’émissions de particules fines et d’oxyde d’azote. Les émissions de CO2 ne sont pas nulles – il faut prendre en compte celles liées à la production de l’électricité utilisée –, mais elles sont malgré tout 75 % plus faibles que celles d’un camion diesel.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Il est ainsi particulièrement pertinent pour les centres-villes, où circulent tous les petits poids lourds de 19 tonnes qui réalisent les livraisons du dernier kilomètre.
Le marché des batteries étant déjà tiré par les constructeurs de véhicules particuliers, la présence de très gros constructeurs devrait permettre d’importantes économies d’échelle qui, indirectement, vont aider à faire baisser le prix des camions.
La filière possède en outre un excellent rendement « du puits à la roue » (c’est-à-dire, prenant en compte tout le cycle de vie de l’énergie utilisée), bien meilleur que ceux des filières diesel ou hydrogène par exemple. La France étant dotée d’une énergie électrique majoritairement décarbonée, elle aurait tort de s’en priver, d’autant que son réseau électrique est également très développé et très performant, maillage qui facilitera le déploiement de stations de charge sur l’ensemble du territoire.
C’est donc depuis quelques mois cette option qui mobilise en France la plus forte volonté politique, en accord aussi avec les différents acteurs français de l’industrie automobile qui privilégient la filière électrique à l’hydrogène. La plupart des constructeurs de camions envisagent d’ailleurs de vendre au moins 50 % de véhicules électriques à partir de 2030, sachant que l’Europe leur impose par ailleurs des quotas relativement stricts de réduction de leurs émissions de CO2.
Cette transformation pose toutefois de nombreux défis.
Le premier défi est de parvenir à structurer la filière en incitant ses acteurs à investir massivement dans le développement des poids lourds électriques.
Cela passe aujourd’hui principalement par la réglementation. Des règles drastiques ont ainsi été imposées au cours des dernières années aux constructeurs par l’UE, qui sont désormais tenus de diminuer de 45 % leurs émissions moyennes de CO2 en 2030, de 65 % d’ici à 2035 et de 90 % à horizon 2040.
À cette réglementation s’ajoutent les « normes euro » qui encadrent les émissions de polluants. La prochaine, Euro 7, sera introduite en 2028. Là aussi, l’absence d’émissions de particules et d’oxydes d’azote par le poids lourd électrique joue en sa faveur. Respecter ces seuils les forcera à redoubler d’ingéniosité pour accélérer leur production de poids lourds électriques.
Le défi est également technique : sur les camions électriques, le poids important des batteries augmente la charge à l’essieu, qui peut excéder la charge maximale réglementaire admissible et risque de mettre à mal l’architecture du véhicule. Une contrainte qui doit être prise en compte par le constructeur – en ajoutant par exemple un essieu supplémentaire – et qui rehausse mécaniquement le prix final.
L’autre pan de la transition des poids lourds vers l’électrique est le déploiement indispensable d’infrastructures de recharge. Si les petits camions (parfois équipés de chargeurs embarqués) et les bus peuvent se recharger au dépôt, les gros qui réalisent de longues distances sur plusieurs jours doivent pouvoir trouver, au fil de leurs trajets, des stations de recharge.
Or, aujourd’hui, la France ne compte qu’une trentaine de stations poids lourds, chacune étant dotée de trois ou quatre bornes de recharge. Ce chiffre devrait atteindre 80 à 90 stations d’ici la fin de l’année. Par ailleurs le règlement européen AFIR impose aux pays de l’UE d’implanter des bornes d’au moins 350 kilowatts (kW) pour les poids lourds sur les principaux axes routiers, avec deux paliers de déploiement prévus à horizon 2025 puis 2030.
Selon un rapport de mars 2024, commandé sur le sujet par des entreprises privées, dont Enedis, TotalEnergies et Vinci Autoroutes, ce besoin devrait grimper d’ici à 2035 à 12 200 bornes réparties sur 519 aires de services et de repos. On estime à 630 millions le coûts des investissements alors nécessaires pour répondre à ces besoins.
À noter que certaines de ces stations pourront dépasser très prochainement le seuil de 1 MW de puissance, contre 350 à 400 kW aujourd’hui. Un camion électrique pourra ainsi se recharger intégralement en trente minutes, pendant la pause du chauffeur, contre plus d’une heure aujourd’hui. Une réponse à la question de l’autonomie des véhicules, souvent pointée comme un frein à leur adoption.
Le rapport est en outre rassurant sur les éventuels risques de tension que ce déploiement pourrait faire émerger sur le réseau électrique. Il pointe une très forte complémentarité entre poids lourds électriques et véhicules légers électriques, les premiers se rechargeant plutôt en journée et en semaine, quand les seconds sont rechargés plutôt la nuit et les week-ends.
Une nouvelle problématique surgit toutefois quant aux bornes de recharge : le foncier à mobiliser. De plus en plus puissantes, elles prennent aussi de plus en plus de place : une station de type MCS (Megawatt Charging System) prend à elle seule la place d’un tracteur routier (véhicule motorisé qui tracte la semi-remorque des poids lourds) avec sa remorque !
Aujourd’hui, le principal obstacle à la bascule des poids lourds vers l’électrique est économique. Le coût très élevé des poids lourds électriques, en particulier, constitue le frein majeur à leur appropriation. À l’achat, un tel véhicule présente aujourd’hui trois fois le coût d’un poids lourd thermique.
Ce prix, même s’il devrait diminuer avec le temps, est tel que les économies réalisées à l’utilisation – par l’alimentation en électricité plutôt qu’en gasoil – ne suffisent pas à compenser son surcoût pour l’instant.
Si l’on souhaite amorcer dès à présent la transition, l’aide publique sera donc indispensable. Dans ce cadre, l’Agence de la transition écologique (Ademe) a lancé, en 2024, l’appel à projets e-Trans, qui vient financer des véhicules lourds électriques. Doté d’une enveloppe totale de 110 millions d’euros, le budget de cet AAP est réparti en trois lots distincts : 95 millions d’euros pour les poids lourds 100 % électriques à batterie, 10 millions d’euros pour les autobus et navettes urbaines 100 % électriques à batterie et 5 millions d’euros pour les autocars 100 % électriques à batterie.
Depuis, un deuxième système a été créé par le gouvernement qui repose sur des fiches CEE (Certificat économie d’énergie). Ces aides financées par les pénalités payées par des entreprises polluantes octroient des bonus de 35 à 53 000 euros sur tous les achats de poids lourds électriques engagés avant 2030.
Enfin, le programme public Advenir vise à subventionner des infrastructures de charge.
Par ailleurs, deux systèmes innovants en matière d’électrification méritent que l’on s’y attarde : les autoroutes électrifiées et le rétrofit. Chacun présente des atouts pour atténuer le frein économique, diminuer l’impact environnemental de ces véhicules ou les besoins en bornes de recharge.
En premier lieu, les autoroutes électrifiées : équipées de rails au sol, de caténaires ou de systèmes à induction, elles permettraient aux poids lourds – et peut-être, à plus long terme, aux voitures – de se recharger en roulant. Son principal atout est d’alléger les camions, en les dotant de batteries plus petites, donc de réduire le besoin en bornes de recharge et de diminuer la pression sur les métaux critiques : lithium, cobalt, nickel ou graphite… dont l’usage va entrer en compétition avec d’autres secteurs.
Une des limites de ce système est qu’il doit idéalement être transfrontalier. Un camion transitant de l’Allemagne à la France devra pouvoir bénéficier d’une continuité de service. Or ces deux pays envisagent à ce stade deux méthodes différentes : le rail pour la France, la caténaire pour l’Allemagne. Des efforts de coordination apparaissent indispensables.
L’autre problème relève de la temporalité. Le système ne sera sans doute mature qu’en 2030. D’ici là, la filière de poids lourds électriques classiques et les infrastructures de recharge ont le temps de se développer… La solution sera-t-elle toujours pertinente ? La viabilité économique du système pose aussi question : le système sera-t-il suffisamment utilisé ? Au risque, sinon, que l’opérateur ne puisse se rémunérer.
Le rétrofit, enfin, qui consiste à convertir un véhicule thermique de plus de cinq ans en véhicule électrique en remplaçant le moteur, est un autre système à creuser. La méthode émerge pour l’instant sur les autocars, pour lesquels l’équation économique est plus favorable. Mais le marché du camion commence à s’y intéresser. Beaucoup moins chère qu’un camion neuf, plus vertueuse d’un point de vue environnemental, cette solution apparaît plus viable à court terme que les autoroutes électrifiées.
Des freins, évoqués au fil de l’article, restent à lever pour qu’une bascule définitive s’opère dans le secteur des poids lourds vers l’électrique.
Toutefois, les injonctions réglementaires envers la filière, les investissements dans les infrastructures de recharge et l’accompagnement public d’incitation à l’achat de poids lourds électriques devraient accélérer le processus.
Aujourd’hui, l’État s’engage dans cette direction, mais il doit veiller à ne pas diluer ses efforts. D’autres investissements ont lieu dans des filières comme le gaz ou l’hydrogène : si des complémentarités peuvent exister avec la filière des poids lourds électriques, il faut toutefois veiller à ce qu’ils ne viennent pas phagocyter les efforts alloués à ces derniers.
Denis Benita ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.03.2025 à 16:47
Thierry Gauquelin, Professeur émérite, Institut méditerranéen de biodiversité et d’écologie marine et continentale (IMBE), Aix-Marseille Université (AMU)
Une théorie abondamment diffusée en ligne accuse les arbres mâles d’être responsables des allergies au pollen de plus en plus fréquentes en ville. L’occasion de revenir sur le monde fascinant de la sexualité des arbres.
Le printemps arrive, et avec lui, le moment fatidique de la reproduction sexuée des plantes. Mais comment cela se passe-t-il ? Comme souvent le vivant est aussi divers qu’étonnant, et son observation a parfois pu donner lieu à des interrogations sur de possibles guerres de sexe, voire à des accusations de « sexisme botanique ». Qu’en est-il réellement ?
Chez la plupart des espèces d’arbres que vous connaissez, chaque individu possède à la fois des organes reproducteurs mâles et femelles. On dit qu’ils sont bisexués.
Au sein de ces bisexués, on trouve deux grandes catégories.
Chez l’ensemble des conifères (les pins, sapins, cèdres…) et chez beaucoup d’essences forestières, on trouve sur un même arbre, des fleurs (ou cônes chez les conifères) mâles et des fleurs (ou cônes) femelles. On parle alors d’espèces monoïques.
Visuellement, ces fleurs ou cônes mâles et femelles sont différentes. Chez le chêne ou le noisetier, par exemple, les fleurs mâles sont regroupées sur des sortes d’épis que l’on nomme chatons, alors que les fleurs femelles sont minuscules, semblables à de petits bourgeons d’où émergent les stigmates qui vont capter les grains de pollen.
Chez les pins, les cônes mâles jaune vif constitués de nombreuses étamines sont plus petits que les cônes femelles qui se transformeront en « pommes de pin » après fécondation.
Mais parfois, aussi, les deux sexes se retrouvent dans une même fleur. On parle alors d’arbres à fleurs hermaphrodites. C’est moins courant pour les arbres de nos forêts (même si l’on peut voir de telles fleurs sur le tilleul ou sur les sorbiers), mais c’est la règle chez les fruitiers (pommiers, cerisiers, cognassiers…) et chez beaucoup d’arbres d’agrément (magnolias, marronniers).
Chez d’autres arbres, la situation est encore différente. On trouve certains individus qui ne portent que des organes mâles produisant du pollen et d’autres individus qui ne portent eux que des organes femelles, produisant des ovules, puis qui produiront des fruits. Il y a donc des arbres mâles et des arbres femelles. On dit que ces espèces sont dioïques.
Si une telle répartition sexuelle, avec des individus mâles et des individus femelles est la règle chez les humains et chez nombre d’animaux, il est plutôt rare dans le règne végétal. Seuls 6 % des 300 000 espèces de plantes recensées présentent cette particularité. On peut citer le Ginkgo biloba, l’if (Taxus baccata), le genévrier thurifère (Juniperus thurifera), les peupliers (Populus sp) ou encore le palmier-dattier (Phoenix dactylifera). Pour cette dernière espèce, comme pour une espèce herbacée, le compagnon blanc (Silene latifolia), on a même pu identifier la présence de chromosomes sexuels XY pour les mâles et XX pour les femelles.
Cette répartition des organes sexués est donc peu courante, mais elle présente cependant un avantage majeur. Celui d’éviter toute consanguinité. Le pollen produit par un arbre mâle devra, transporté par le vent ou par des animaux, trouver un arbre femelle pour se reproduire. Et cet arbre femelle sera génétiquement différent du mâle. D’où un brassage génétique important en perspective.
Les espèces bisexuées, qui portent donc sur le même arbre des organes sexués des deux sexes, quant à elles, ont dû développer d’autres stratégies pour limiter cette consanguinité, tel le décalage temporel dans l’épanouissement des organes mâles et femelles. Ainsi, les étamines n’arrivant pas à maturité en même temps que le pistil de la même fleur, le pollen de cette fleur devra aller féconder des fleurs d’autres individus au pistil mature et génétiquement différents.
Mais la répartition des sexes est loin d’être toujours aussi tranchée et fixée. Dans des populations de frêne commun (Fraxinus excelsior), on peut ainsi rencontrer des arbres mâles, femelles ou bien bisexués.
Plus étrange encore, les extraordinaires vieux genévriers (Juniperus phoenicea) des gorges de l’Ardèche ou du Verdon sont réputés bisexués, mais ont en réalité une sexualité hésitante. Ils peuvent de fait changer de sexe ; bisexués une année, mâles ou femelles une autre. Cela correspond-il à une adaptation aux conditions environnementales particulièrement difficiles de ces falaises verticales, au sol quasi inexistant, permettant à ces arbres d’atteindre des âges qui peuvent dépasser un millier d’années ? L’écologue Jean-Paul Mandin, grand spécialiste de ces étonnants arbres de falaise a pu montrer que, dans leur grande majorité, les individus bisexuels passent ensuite par un état mâle, c’est-à-dire par une année où ils n’expriment pas leur sexe femelle.
Il émet l’hypothèse que tout se passe comme si un individu qui a fait des fleurs femelles et donc qui a ensuite investi beaucoup d’énergie dans le développement des fruits, se « reposait » l’année suivante en étant nettement plus mâle ou en ne fleurissant pas du tout.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Si l’on se concentre maintenant sur les espèces chez qui l’on trouve systématiquement des arbres mâles et des arbres femelles, de nombreuses questions adviennnent. D’abord, y-a-t-il autant d’individus mâles que d’individus femelles ? Cette question, essentielle d’un point de vue écologique est celle du sex-ratio. Si cette proportion est déséquilibrée, avec par exemple, plus de femelles que de mâles, quelle en est la signification ? ; les arbres femelles sont-ils plus résistants que les mâles ? Quelles conséquences y-a-t-il à terme sur la dynamique de cette population ?
Pour beaucoup d’espèces, il a été suggéré que les femelles seraient moins nombreuses, car moins compétitives. Elles investissent de fait plus de ressources que les mâles, car elles produisent des ovules qui donnent ensuite des fruits, souvent de grande taille, quand les mâles produisent eux du pollen, certes en grande quantité mais plus petit. Cet investissement des femelles pourrait donc se faire au détriment de leur croissance ou de la défense contre les prédateurs, ce qui les rendrait plus vulnérables que les mâles, limiterait leur longévité et entraînerait à terme un sex-ratio en faveur de ces derniers.
Mais ce n’est pas une règle générale.
Un sex-ratio où prédomine les femelles a par exemple été retrouvé au niveau des populations de genévrier thurifère des Atlas marocains qui ont bénéficié d’une analyse très précise afin de mieux comprendre la dynamique de ces populations menacées par la hache du berger, la dent du bétail et le changement climatique.
Les genévriers thurifères mâles produisent du pollen en très grande quantité car sa pollinisation se fait par le vent. Ce pollen produit est donc majoritairement exporté et représente une perte brute pour l’arbre. Les genévriers mâles investissent ainsi beaucoup dans la reproduction et pourraient alors être moins compétitifs que les femelles.
Mais de leur côté, la production de cônes femelles, qu’on appelle des galbules, peut également être considérable (jusqu’à 4 kg de galbules par an). Cependant, contrairement au pollen, ces galbules restent sur place, tombant sous la couronne des arbres, et enrichissent ainsi le sol en nutriments quand ils se décomposent. Un phénomène tout au bénéfice de l’arbre qui voit que son investissement important dans la production de cônes femelles est alors compensé par l’amélioration du sol où croissent ses racines.
À lire aussi : L’avantage d’avoir des petites feuilles pour certains arbres
Cet investissement différent dans la reproduction au détriment de la croissance n’est sans doute pas le seul facteur permettant d’expliquer ce sex-ratio des populations de genévrier. À l’heure actuelle cependant, il n’existe pas d’autres éléments montrant qu’un sexe soit, par exemple, plus sollicité qu’un autre par le troupeau ou les habitants des villages environnants.
Car le sex-ratio peut aussi être lié directement à l’action humaine. C’est le cas des palmeraies marocaines. Dans les palmeraies « naturelles », il peut y avoir autant de mâles que de femelles. Par contre, dans les vergers à l’exploitation raisonnée, les palmiers femelles ont été privilégiés par rapport aux mâles qui ne doivent pas représenter plus de 4 % des arbres, car seuls les palmiers femelles produisent des dattes. On fait alors appel à une pollinisation artificielle traditionnelle ou semi-mécanisée.
Récemment, c’est le sex-ratio des arbres en ville qui a été l’objet de nombreuses interrogations.
Beaucoup d’allergies étant dues aux grains de pollens produits uniquement par l’appareil reproducteur mâle des fleurs, une polémique s’est développée tentant d’accuser les paysagistes urbains et leur « sexisme botanique » qui serait responsable de l’augmentation des allergies.
Abondemment partagées sur TikTok, à partir de 2021, cette théorie défend l’idée que l’on s’est mis à ne planter que des arbres mâles, producteurs de pollens allergènes dans les villes pour éviter les désagréments que peuvent causer leurs homologues femelles qui, en produisant des fruits et des graines, peuvent générer des détritus, des trottoirs glissants, obstruer les égouts…
Cependant, en remontant le fil de cette idée devenue virale sur les réseaux sociaux, on se rend compte que cette théorie est tirée d’un ouvrage mentionnant cette réalité pour une seule espèce dioïque : les peupliers deltoïdes dont seuls les mâles sont plantés dans certaines villes des États-Unis.
Or, les principaux responsables des allergies respiratoires demeurent eux des arbres bisexués (cyprès, noisetier, bouleau, aulne, platane, chêne, frêne, tilleul, etc.), et le peuplier qui a généré cette folle théorie en ligne, quant à lui, n’est pas tellement présent dans nos villes. Ne jetons donc pas la pierre aux arbres mâles. La science considère évidemment que l’on ne peut établir de hiérarchie entre arbres mâles et femelles au sein d’une espèce dioïque, les deux étant indispensables à la pérennité de l’espèce. D’ailleurs, nous l’avons vu, chacun des sexes doit déployer des efforts importants afin de produire soit du pollen, soit des fruits et des graines.
Enfin, les allergies peuvent aussi être des allergies de contact ou en relation avec le fruit ou la graine ingérée… et là, peu importe le sexe de l’arbre sachant que si l’on parle d’allergies liées au fruit, c’est l’arbre femelle qui sera responsable si l’espèce est dioïque.
Ne nous trompons donc pas d’ennemi. L’accroissement des allergies au pollen en ville est en réalité dû au changement climatique, qui entraîne une production de pollen plus tôt en saison et en plus grande quantité, et aux pollutions atmosphériques qui contribuent à l’intensification des symptômes d’allergie.
Thierry Gauquelin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.03.2025 à 16:40
Pierre Boulet, Professeur d'informatique, Université de Lille
L’empreinte carbone de la transition numérique risque-t-elle d’exploser à l’aune de l’essor des intelligences artificielles génératives ? Cette question concerne aussi le secteur de l’enseignement supérieur et de la recherche.
En matière de transition numérique, les secteurs de l’enseignement supérieur et de la recherche (ESR) sont loin d’être à la traîne. En effet, la recherche repose déjà massivement sur des infrastructures de calcul et de stockage, sur des réseaux de communication permettant une collaboration internationale efficace, et les enseignements utilisent tous les jours des plates-formes pédagogiques numériques. Mais cette numérisation massive est-elle compatible avec la transition écologique ?
Dans l’ESR comme ailleurs, le numérique a des impacts environnementaux positifs et négatifs. Au même titre que les autres universités, l’Université de Lille est impliquée dans cette transition. Celle-ci est mise en perspective avec l’irruption de l’intelligence artificielle (IA) générative à l’occasion de la semaine des transitions organisée par l’Université de Lille. L’occasion de faire le point sur les liens entre transition numérique et écologique.
La transition écologique et la transition numérique ont un point commun : elles décrivent toutes les deux la transformation d’un système pour passer d’un état stable à un autre.
Si on regarde l’enseignement supérieur, la transition numérique est déjà très largement entamée. Les systèmes d’information des établissements d’enseignement supérieur gèrent déjà à l’aide d’outils informatiques la plupart de leurs grandes fonctions : scolarité, gestion des ressources (humaines, financières, immobilières), recherche…
Par ailleurs, les étudiants et les personnels bénéficient d’une large gamme d’outils de communication et de travail collaboratif. Le recours aux plates-formes numériques pour l’enseignement s’est généralisé (plateformes pédagogiques, classes virtuelles, etc.). Tout ceci est bien documenté dans la collection numérique éditée par l’Agence de mutualisation des universités et des établissements (Amue).
Le numérique a eu, depuis la fin des années 1980, un effet transformateur majeur sur les établissements d’enseignement supérieur, bien avant d’autres pans de la société. C’est aussi cela qui leur a permis de traverser la crise du Covid-19 sans cesser de former les étudiants et de produire des connaissances.
Nous sommes ainsi arrivés à un niveau de maturité numérique où les établissements construisent leurs propres schémas directeurs du numérique pour planifier l’évolution de leurs systèmes d’information en fonction de l’évolution des besoins et des technologies.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Il reste toutefois beaucoup à faire : les établissements doivent s’adapter aux innovations numériques et, notamment, à la déferlante des intelligences artificielles génératives.
Les impacts environnementaux du numérique commencent à être bien documentés. L’Ademe, entre autres, a produit plusieurs documents faisant le bilan des connaissances sur ce sujet.
Elle estime que le numérique (data centres, réseaux et terminaux) représente en France :
une empreinte carbone de 29,5 millions de tonnes équivalent CO2, soit 4,4 % de l’empreinte carbone nationale, soit l’équivalent des émissions dues aux poids lourds,
une consommation électrique de 51,5 térawatts-heures, soit 11 % de la consommation électrique totale,
Sans mesures correctrices dans les années à venir, son impact devrait croître de manière difficile à suivre.
Ces impacts sont probablement sous-évalués, car ces évaluations datent d’avant la révolution de l’intelligence artificielle (IA) générative et ne prennent pas en compte les impacts hors du territoire français des usages numériques (en particulier ceux faisant appel à des traitements effectués dans des data centres situés à l’étranger).
La fabrication des matériels informatiques en constitue la part principale. Celle-ci constitue 80 % de l’empreinte carbone du numérique, tout en entraînant des pollutions des eaux et des sols du fait de l’extraction des matières premières.
L’ONU, dans son rapport sur l’économie numérique en 2024, insiste également sur la consommation d’eau du numérique, à la fois pour la fabrication du matériel que pour son utilisation. Les plus gros data centres utilisent des systèmes de refroidissement à eau liquide qui posent des conflits d’usage. Les investissements massifs en cours dans l’IA générative pourraient encore aggraver le problème.
À lire aussi : Impact environnemental du numérique : l’inquiétant boom à venir
Comment relever ces nouveaux défis, et à quel prix ? Cette transition vers l’IA générative est-elle encore soutenable au plan écologique ? Faut-il miser sur celle-ci ou la ralentir ? Tout dépend, en définitive, de ce que l’on souhaite en faire.
Vaut-il mieux utiliser l’IA pour chercher de nouveaux forages pétroliers ou pour améliorer les prévisions sur l’évolution du climat ? Dans ce contexte, l’enjeu de sobriété et d’écoresponsabilité numérique peut aussi s’appliquer à l’enseignement supérieur et à la recherche (ESR).
La communauté de l’ESR s’interroge sur ces questions, comme en témoignent plusieurs initiatives, par exemple les journées GreenDays, qui rassemblent chaque année depuis douze ans les chercheurs de diverses disciplines intéressés au numérique écoresponsable.
Du point de vue des infrastructures, l’ESR a déjà effectué une large part de sa mue numérique, à la fois pour les systèmes d’information et pour le soutien à la recherche avec des supercalculateurs – comme ceux qui sont proposés par Genci ou au sein du mésocentre de calcul scientifique de l’Université de Lille.
La démarche de mutualisation des moyens de calcul de l’Université de Lille, engagée dès 2011, permet de regrouper les financements sur projets pour construire une infrastructure efficace et partagée au bénéfice de tous les chercheurs du site. Son hébergement dans le data center de l’université assure une meilleure efficacité énergétique du refroidissement de cette infrastructure que si elle était dispersée dans de multiples petites salles. De plus, cette mutualisation permet d’éviter les périodes de faible utilisation des machines, en plus d’en réduire le nombre.
Plusieurs démarches sont engagées dans l’enseignement supérieur et la recherche au niveau national pour maîtriser l’impact de ces infrastructures numériques :
un marché public national d’achat de matériel informatique qui inclut des contraintes environnementales,
une mutualisation des hébergements informatiques dans des data centres régionaux avec un plan de fermeture des petits sites, moins efficaces au plan énergétique,
et le développement de communs numériques dans une démarche d’écoconception, coordonnée au niveau national par le Coreale.
Ces enjeux concernent aussi les formations portées par les établissements d’enseignement supérieur. Ces établissements incluent de plus en plus systématiquement des modules de cours sur les impacts du numérique dans ses formations en informatique. À l’Université de Lille par exemple, on trouve une fresque du numérique en licence et des unités d’enseignement dédiées en master ainsi qu’en formation d’ingénieurs. Le groupe de travail EcoInfo a d’ailleurs produit un référentiel de connaissances pour un numérique éco-responsable qui aide à construire ces modules de formation.
La formation à la « transition écologique pour un développement soutenable » est en outre préconisée pour tous les étudiants de premier cycle à partir de 2025.
Enfin, pour le grand public et les autres organisations, l’Ademe, le CNRS et Inria portent le projet AltImpact, qui vise à sensibiliser aux enjeux du numérique écoresponsable et liste de nombreuses bonnes pratiques actionnables à la maison, au travail ou dans une organisation.
Cet article est publié dans le cadre de la Semaine des transitions, organisée par l’Université de Lille du 24 au 29 mars 2025.
Pierre Boulet est membre du GDRS EcoInfo et de l'association VP-Num des vices-présidents en charge du numérique dans les établissements d'enseignement supérieur. Il a reçu des financements de l'ANR, de la Métropole Européenne de Lille, de la Région Hauts-de-France et de la Commission Européenne pour ses travaux de recherche.
24.03.2025 à 16:22
Bruno Lafitte, Expert data center, Ademe (Agence de la transition écologique)
Les annonces se multiplient en France et à l’étranger sur la construction de centres de données gigantesques, dédiés à répondre aux besoins en puissance de calcul de plus en plus colossaux requis par l’intelligence artificielle (IA). En France, il apparaît urgent de planifier et de réguler ce déploiement sur le territoire, qui n’est pas sans risque de créer des conflits dans l’allocation des ressources en électricité.
À l’occasion du sommet sur l’intelligence artificielle qui s’est tenu les 10 et 11 février 2024, le gouvernement a annoncé 109 milliards d’euros d’investissements privés. Parmi ces financements, une partie sera consacrée à la construction de deux centres de données d’une puissance de 1 GW chacun. Le gouvernement a également publié à cette occasion une carte recensant dans 9 régions françaises 35 zones prêtes pour l’implantation de centres de données pour l’intelligence artificielle (IA). Cinq de ces zones dépassent les 50 hectares : deux en Île-de-France, une dans le Grand Est, une dans les Hauts-de-France et une en PACA.
Déjà clés de voûte du numérique, les centres de données sont appelés à jouer un rôle croissant avec la montée en puissance de l’IA générative : les besoins en puissance de calcul de cette dernière étant colossaux, elle exige des supercalculateurs capables de répondre aux milliards de requêtes des utilisateurs de ChatGPT et autres modèles d’IA générative. Ils sont hébergés au sein de centres de données conçus pour être en mesure de répondre à ces besoins.
Cela fait déjà plusieurs années que la France est concernée par la déferlante des data centers – elle en compterait environ 300 de grande taille, selon RTE. S’ils se sont d’abord concentrés, dans l’Hexagone, à Paris et en Île-de-France, la saturation foncière et électrique de la région francilienne pousse désormais les acteurs du secteur à se déployer dans le reste du pays, Marseille en tête, grâce à aux 18 câbles sous-marins dont elle est le point d’arrivée.
Or, l’installation de ces infrastructures se heurte de plus en plus à des résistances locales. Dans ce contexte, il apparaît indispensable de se pencher sur les enjeux qui entourent les implantations de centres de données, comme le détaillait un avis d’expert publié par l’Agence de la transition écologique (Ademe) en octobre 2024.
Disponibilité électrique, consommation énergétique, consommation d’eau, artificialisation des sols et intégration dans le tissu socioéconomique local sont quelques-uns des paramètres à considérer pour juger de la pertinence ou non d’implanter un centre de données sur un territoire.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Précisons par ailleurs que l’on distingue deux formats de data centers, aujourd’hui appelés à cohabiter en France :
les grands, dits data centers « hyperscale », qui s’implantent en périphérie des villes,
et les data centers « edge », plus petits et insérés au tissu urbain.
Les deux présentent des besoins en énergie importants, exigent une connexion Internet, une disponibilité du réseau électrique et un lieu sûr et stable pour disposer de leurs données. La façon de les intégrer localement et les conditions de leur acceptabilité se posent néanmoins différemment.
Penchons-nous sur les principaux risques qui entourent l’implantation de ces infrastructures, les façons de minimiser leurs effets néfastes et la nécessité de planifier leur développement pour maximiser leurs effets bénéfiques.
Le premier sujet qui vient à l’esprit lorsqu’on aborde cette question est la consommation électrique massive des centres de données. Cette dernière est principalement due aux serveurs qui traitent les données et dans une moindre mesure au refroidissement de ces serveurs pour assurer leur fonctionnement optimal.
L’exemple du campus centre de données Data4, à Nozar (Essonne), offre un ordre d’idées. Baptisé le PAR1, il regroupe 23 centres de données, s’étend sur 110 hectares et est doté d’une puissance de 250 MW. Cela se traduit par une consommation de 1,3 térawatt-heure (TWh) par an, ce qui correspond à… la consommation annuelle d’énergie de plus de 270 000 ménages, soit le nombre de ménages de villes comme Toulouse ou Lyon !
Sur la plateforme Operat gérée par l’Ademe, qui recense les déclarations de consommation électrique du tertiaire, les data centers arrivent en tête en termes de densité de consommation.
Alors qu’ils ne représentent que 0,1 % de la surface déclarée, ils sont pourtant à l’origine de 2,2 % des consommations et sont la catégorie la plus énergivore. Au mètre carré, ils consomment ainsi 2 000 à 3 000 kWh par m2 et par an (contre 100 à 200 pour un bâtiment classique). Selon RTE, la consommation électrique des centres de données en France devrait tripler d’ici à 2035. Et l’Ademe estime qu’ils représenteront 8 % de la consommation électrique française à horizon 2050, contre 2 % aujourd’hui, selon RTE.
Ces besoins impliquent, pour chaque implantation, une disponibilité du réseau électrique suffisante, autrement dit des « tuyaux » dimensionnés pour satisfaire une demande importante. Au risque, sinon, de voir surgir des conflits d’usage, comme cela a pu être le cas à Londres où la présence de centres de données a entravé la création de quartiers résidentiels.
Se pose ici une première question dans le choix d’allocation de la ressource électrique, qui est déterminée par RTE en France. À Marseille, les data centers auraient ainsi empêché l’électrification des navires à quai.
Pour l’instant, les problématiques portent moins sur le volume d’électricité produite – la France en exporte – que sur ses réseaux de distribution. Nous sommes, en la matière, dotés d’une planification nationale qui permet d’encadrer l’électricité sacralisée pour les data centers et de décider quelle puissance sera allouée dans les prochaines années à ces usages.
Certaines mesures peuvent toutefois contribuer à contenir – ou du moins, à répondre – aux besoins énergétiques supplémentaires qu’engendre la multiplication des centres de données.
D’une part, des gains d’efficacité énergétique de plus de 50 % sont atteignables dans les data centers, selon l’Ademe, en agissant sur les bâtiments, les serveurs, le refroidissement et les alimentations de secours. Différents indicateurs existent pour évaluer ces performances : le PUE (Power Usage Effectiveness), en particulier, établit le ratio entre l’énergie totale consommée par le centre de données et l’énergie consommée pour sa partie informatique. En moyenne, le PUE des nouvelles grosses installations tend vers 1,2, là où les structures existantes présentent un PUE de 1,5 en moyenne.
Parmi les leviers qui permettent de baisser la consommation électrique consacrée au refroidissement, et donc le PUE :
L’utilisation du refroidissement adiabatique, qui utilise la vaporisation de l’eau pour refroidir, se fait au détriment de la consommation d’eau et doit être proscrit.
Le refroidissement liquide, qui consiste à faire circuler de l’eau autour des serveurs et de leurs composants, est à privilégier, notamment pour les nouveaux serveurs à puissance élevée.
Le free cooling indirect, qui revient à refroidir indirectement les serveurs avec l’air extérieur, est le plus vertueux, d’autant que les serveurs acceptent aujourd’hui des températures de fonctionnement plus élevées.
Il faut par ailleurs s’assurer que l’implantation du centre de données permette la valorisation de la chaleur fatale produite par ses serveurs. Dans les cas des data centers « edge », elle peut se faire directement sur le bâtiment voisin ; pour les data centers « hyperscale », situés en périphérie de ville, un couplage avec un réseau de chaleur urbain pourra être privilégié
Dans les deux cas, cette intégration doit être anticipée au moment du choix du lieu d’implantation.
Outre l’électricité, l’arrivée d’un centre de données implique de mettre la main sur une autre ressource précieuse : le foncier, dont l’accès est déjà très tendu en France. Le campus de data centers PAR01 de DATA4 comprend ainsi 24 data centers sur une surface de 110 hectares. À Marseille, l’emprise foncière de certains acteurs de centres de données suscite des tensions localement.
En ce qui concerne les data centers hyperscale, voués à être installés plutôt en périphérie des villes, il s’agit de s’assurer qu’ils n’entrent pas en concurrence avec d’autres projets de développement local et qu’ils ne mettent pas en péril les objectifs de la loi zéro artificialisation nette.
Sur le sujet, l’Ademe préconise de privilégier leur implantation sur des friches, de préférence industrielles. Là aussi toutefois, des conflits d’usages pourraient émerger, la réhabilitation des friches étant de plus en plus plébiscitée pour des projets de développement urbain, de parcs, de tiers lieux ou encore de logements.
Bien choisir la localisation d’un data center tout en en maximisant ses bénéfices est donc une gageure. Les conditions à réunir sont multiples : l’accès au foncier, l’optimisation de la performance énergétique avec la possibilité de valoriser la chaleur fatale, l’accès à une électricité suffisante et propre ainsi qu’à la fibre, et l’inscription du projet en cohérence avec les schémas de développement urbain locaux.
L’adhésion locale dépendra également de la capacité de ces infrastructures à générer une activité économique locale : la création d’emplois directement liés à la construction et à la maintenance, mais aussi le développement d’un écosystème économique en lien avec le numérique et l’IA. Il s’agirait ainsi, par l’anticipation et par la régulation, de maximiser les externalités positives pour tempérer les désagréments.
Mais ne nous fourvoyons pas : tous ces efforts ne doivent pas nous exempter d’une réflexion globale sur la finalité de cette déferlante des centres de données.
Certes, rapatrier nos données numériques constitue un réel enjeu de souveraineté. Mais certains usages numériques décuplés par l’IA générative méritent que l’on s’interroge sur leur pertinence avant de s’y jeter à corps perdu. Au risque, sinon, de perdre la maîtrise de l’allocation de nos ressources énergétiques et foncières.
Bruno Lafitte ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.03.2025 à 12:40
Xavier Lecocq, Professeur de management stratégique, Université de Lille
Benoît Demil, Professeur de management stratégique, Université de Lille - I-site
Vanessa Warnier, Professeure des universités, Université de Lille
Deux entreprises britanniques pionnières ont choisi de ne pas considérer la nature comme un adversaire. Mieux : Faith in Nature, dans le secteur cosmétique, et House of Hackney, dans celui de la décoration d’intérieur, l’ont intégrée dans leur gouvernance. Et, demain, faudra-t-il compter sur l’IA pour représenter la nature ?
Pour renforcer leur responsabilité sociétale et environnementale (RSE), certaines entreprises cherchent à aller au-delà de la soutenabilité de leurs produits et de leurs opérations. L’intégration de la nature dans les dispositifs de gouvernance est la suite logique du mouvement…
Quelques entreprises commencent à jeter les bases de cette innovation juridique. Bien sûr, elles seront certainement suivies par d’autres. Comme ce fut parfois le cas pour vanter les mérites de leurs produits ou services écologiques, certaines entreprises intégreront la nature dans leur gouvernance pour de simples raisons de communication — un « GreenGovWashing » en somme. Ces organisations incluront le vivant dans des instances sans action substantielle ou rôle effectif.
Il est donc primordial de revenir aux cas d’entreprises pionnières pour se nourrir de leur courte, mais intéressante expérience.
Étude de cas de deux entreprises anglaises : Faith in Nature, spécialisée dans les cosmétiques et House of Hackney, dans les décorations murales d’intérieur.
Cette PME anglaise est la première entreprise à donner un siège à la nature dans son conseil d’administration, en faisant évoluer ses statuts en 2022. L’aventure « Nature On The Board » a commencé avec l’aide de deux organisations non lucratives, défenseurs des droits de la nature, Earth Law Centre et Lawyers for Nature, épaulées par le cabinet d’avocats américain Shearman & Sterling.
Avec cette innovation, la nature est légalement représentée au conseil d’administration par deux personnes non salariées de l’entreprise. Présentes pour un mandat de deux ans, elles sont choisies pour leur expertise.
Ces « gardiens de la nature » sont en charge de faire respecter ses droits ; ils doivent assurer aux espèces et aux écosystèmes leurs droits inhérents à exister, à être préservés et à se régénérer. Ces représentants participent aux réunions trimestrielles du conseil et aux réunions impliquant des sujets liés à la nature. Comme les autres administrateurs, ils disposent d’un droit de vote, mais aussi d’autres droits comme l’accès aux informations sur l’entreprise ou encore la possibilité de mettre des questions à l’ordre du jour du conseil. Ils disposent également d’un budget pour développer certains projets.
Comme dans tout conseil, l’influence de la nature passe avant tout par les discussions entre administrateurs. Sa seule présence modifie les comportements et la teneur des discussions. Son influence passe également par des votes formels. Lors de deux votes importants en 2023 sur la question des emballages plastique et de l’utilisation de l’huile de palme, la nature a eu son mot à dire. Elle a remporté un vote pour des pratiques plus éco-responsables. L’entreprise est passée dès 2024 à des emballages en aluminium largement plus faciles à recycler que les plastiques. Certains ingrédients naturels ont également été introduits dans la composition des cosmétiques afin de régénérer les écosystèmes.
House of Hackney intègre la nature dans son conseil d’administration en 2023. La PME nomme un « directeur de la mère Nature et des générations futures ». Là encore, le représentant de la nature assiste aux réunions du conseil et a toute latitude pour engager des discussions avec des membres de l’entreprise. Au-delà d’un représentant au conseil, l’entreprise fait évoluer ses outils de suivi stratégique. En 2024, House of Hackney met en place un compte de résultat pour la nature. Ce dernier identifie ses « coûts réels » en ajoutant les coûts environnementaux et sociaux de son activité.
House of Hackney a analysé ses deux produits phares – les papiers peints et les velours – selon les méthodes de True Price, en y incorporant leurs coûts sociaux et environnementaux. Quel (juste) prix payer au fournisseur ? L’entreprise britannique s’est rendu compte que le prix au mètre carré de ses velours devrait être augmenté de 3,58 $ – du fait de la culture du coton – et de 0,25 $ pour les papiers peints.
Conclusion : elle devrait dépenser 3 % à 5 % de son chiffre d’affaires pour réduire ou compenser son impact environnemental et social, alors qu’elle n’en dépense que 1 % aujourd’hui. Son objectif est désormais d’entamer des actions pour ramener ces coûts d'impact à zéro voire à les rendre négatifs, ce qui serait le signe d’une activité régénérative.
À lire aussi : Patagonia, Norsys : qui est légitime pour parler au nom de la nature dans les entreprises ?
Pour accompagner cette transformation, House of Hackney a lancé en 2025 un emprunt sur une plateforme de crowdfunding afin de racheter les parts des fonds d’investissement présents à son capital. Si elle atteint les deux millions de livres qu’elle vise, la marque reprendra le contrôle de son capital pour développer et approfondir son engagement en faveur de ses nouvelles pratiques.
Faith in Nature et House of Hackney ont ouvert la voie à la mise en place d’une représentation officielle de la nature dans leur gouvernance. Mais elles ont aussi réussi à aller au-delà, en lui donnant un rôle effectif, en la sollicitant, en lui confiant des moyens, ou encore en mettant en place une comptabilité qui adopte le point de vue du vivant. De tels développements ont été possibles grâce aux représentants de la nature et aux autres membres de l’instance de gouvernance.
Abonnez-vous dès aujourd’hui !
Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
La légitimité, la compétence et la présence du ou des porte-paroles de la nature sont centrales. Ils doivent avoir des compétences sur trois domaines : une compréhension de ce qu’est la gouvernance d’une organisation, un dialogue avec les autres membres de l’instance et une connaissance de la nature ou des entités naturelles qu’ils représentent.
La qualité de l’écoute et la considération de la nature par les autres membres de l’instance sont également des facteurs importants. On ne peut espérer que celles et ceux qui prennent la parole au nom de la nature le fassent « contre » le reste des membres de l’instance, qui eux seraient dès lors assignés au point de vue anthropocentré. L’effet serait délétère et contre-productif au projet d’intégrer la nature dans la gouvernance.
À l’instar de ce qui se passe avec les représentants salariés dans les conseils d’administration, les porte-paroles de la nature pourraient devenir une partie constituante de l’organisation et non un adversaire à la performance ou une incongruité de la vie des entreprises au XXIe siècle.
N’oublions pas que le but de l’intégration de la nature dans la gouvernance des entreprises est de progresser vers une perspective moins anthropocentrée. Une IA générative, même si elle est évidemment façonnée par l’être humain, peut assister l’instance de gouvernance. Lorsqu’on demande à des IA génératives de jouer ce rôle, elles mentionnent leur capacité à être « avocat de la nature » et à évaluer les impacts environnementaux de certaines décisions. Bien sûr, l’IA ne prendra la parole que si on l’incite à le faire, et ceci peut être un problème.
Les entreprises comme Faith in Nature ou House of Hackney qui se sont lancées dans l’intégration de la nature dans la gouvernance mentionnent avec clarté qu’elles tâtonnent encore. Il est probable que les configurations observées continuent d’évoluer au cours des prochaines années. La gouvernance des organisations tenant autant à des choix volontaires qu’à des dispositifs de régulation, l’évolution du droit jouera également un rôle prépondérant.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
24.03.2025 à 12:40
David Montens, Professeur de stratégie et de développement durable, IÉSEG School of Management
De plus en plus de voix souhaitent attribuer un siège à la nature dans leurs instances de gouvernance. Mais à qui doit-on la confier ? Et a-t-elle besoin d’un porte-parole ? Exemples de l’entreprise française de services numériques Norsys, pionnière en la matière, et de Patagonia, fabricant de matériels et vêtements de sport, dont le fondateur a cédé les parts en 2022 à « Mère Nature ».
Novembre 2024, l’entreprise de services numériques Norsys choisit d’attribuer un siège à la nature au sein de son conseil d’administration. Inspirées du mouvement des droits de la nature et de l’écologie profonde, ces initiatives visent à reconnaître la nature comme une actrice à part entière, influençant les décisions stratégiques.
« Cette innovation permettra à la nature de siéger au conseil d’administration de l’entreprise. Concrètement, le représentant de la nature y disposera d’un droit de vote et sera consulté sur tout projet stratégique susceptible d’avoir un impact environnemental »,
souligne Thomas Breuzard, directeur de Norsys, entreprise forte de 600 salariés.
Mais cette évolution soulève une question cruciale : qui est légitime pour parler au nom de la nature ? Doit-on confier cette responsabilité aux scientifiques ? aux ONG ? aux communautés autochtones ? à des entités juridiques autonomes ?
Plus encore, la nature a-t-elle réellement besoin d’un porte-parole, ou peut-elle « s’exprimer » par les crises environnementales que nous observons aujourd’hui ?
L’approche des parties prenantes est historiquement anthropocentrée. Elle exclut la nature comme actrice à part entière. Alors pourquoi reconnaître la nature comme une partie prenante ?
La nature exerce un pouvoir coercitif et utilitaire sur les entreprises, notamment par les impacts du changement climatique et des catastrophes naturelles. Elle impose des contraintes physiques et écologiques, influençant directement la durabilité des modèles économiques. Avec la directive européenne CSRD (pour Corporate Sustainability Reporting Directive), les grandes entreprises sont obligées d’évaluer leur matérialité financière – comment les enjeux environnementaux influencent leur performance financière – et leur matérialité d’impact – comment l’entreprise affecte l’environnement. Un changement de paradigme incluant la nature au cœur de leur stratégie.
Abonnez-vous dès aujourd’hui !
Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Si la nature est une partie prenante, alors la question devient : qui peut la représenter et influencer les décisions en son nom ? Qui peut légitimement parler au nom de la nature ?
La gouvernance d’une organisation ne se résume pas uniquement à des règles écrites, comme un organigramme ou un conseil d’administration. Elle est transformée en permanence par la façon dont les gens communiquent au sein de l’organisation. Lorsqu’un conseil d’administration donne un siège à un représentant de la nature, il engage un travail de ventriloquisation ; il prête une voix à une entité muette.
Qui parle au nom de la nature, et comment ?
Les scientifiques offrent une approche rationnelle et mesurable, mais peuvent manquer de vision locale et sociale.
Les organisations non gouvernementales (ONG) disposent d’une légitimité environnementale, mais sont parfois critiquées pour leur dépendance aux financements privés.
Les communautés autochtones possèdent un savoir écologique ancestral, mais leur inclusion reste souvent marginale.
Le 13 mars dernier dans l’entreprise Norsys a eu lieu le tout premier conseil d’administration où siégeait la nature. Elle est représentée par Frantz Gault, sociologue des organisations et auteur de La Nature au travail.
« Concrètement, le siège sera occupé par Frantz Gault. Il disposera d’un droit de vote et d’un droit de veto et sera consulté en amont sur tout projet stratégique susceptible d’avoir un impact environnemental »,
explique Sylvain Breuzard, PDG de Norsys et surtout ancien dirigeant de Greenpeace France.
« C’est important que ce soit une personne extérieure à l’entreprise et donc indépendante qui soit nommée et apporte ses connaissances »,
indique Marine Yzquierdo, avocate et membre de l’ONG Notre Affaire à Tous.
Et la nature a son mot à dire sur des décisions stratégiques comme les acquisitions externes ou les nouveaux clients. Après Frantz Gault, elle sera représentée au sein de toutes les instances de l’entreprise : le conseil éthique, le comité de mission, le comité social et économique. Ces représentants seront réunis au sein d’un Haut Conseil pour la Nature, qui jouera un rôle de coordination au sein du groupe.
L’intégration de la nature dans la gouvernance ne transforme pas seulement les décisions, elle change l’identité même des entreprises. Une organisation se définit par la manière dont elle répond à la question « qui sommes-nous ? » Quand la nature devient une partie prenante, cela entraîne plusieurs effets : une révision des valeurs, un impact sur la culture interne et un repositionnement stratégique vis-à-vis de l’externe.
L’exemple de Patagonia illustre bien ce phénomène. En septembre 2022, son fondateur Yvon Chouinard a annoncé que l’entreprise serait désormais détenue par un fonds (actionnaire) destiné à la protection de la planète. « La Terre est maintenant notre seule actionnaire », écrit-il dans une lettre ouverte. Ce choix stratégique ne se limite pas à un engagement environnemental de façade. Il inscrit la nature comme une partie prenante directe, influençant les décisions financières et opérationnelles de l’entreprise.
À lire aussi : Où donner une place à la nature dans les entreprises ?
La totalité des parts de la société Patagonia passe aux mains de deux nouvelles entités. Il s’agit du Purpose Trust détenant 2 % de la compagnie et l’intégralité des actions avec droit de vote ; elle sera guidée par la famille Chouinard qui élira le conseil d’administration.
Quant à Holdfast Collective, cette association dont le but est de combattre la crise environnementale et de protéger la nature, elle détient 98 % de la société ainsi que l’intégralité des actions sans droit de vote. En outre, chaque dollar non réinvesti dans Patagonia sera distribué sous forme de dividendes pour protéger la planète.
Il ne suffit pas d’inclure de nouveaux acteurs. Il faut les mobiliser et leur donner un pouvoir réel pour challenger les logiques dominantes et instaurer un changement de fond, selon l’approche de la stratégie ouverte. Appliquée à la nature en entreprise, cette approche permet d’aller au-delà d’une représentation figée. Il ne s’agit pas simplement de désigner un porte-parole unique qui incarnerait une vérité absolue sur les intérêts de la nature, mais plutôt de créer un écosystème de voix légitimes. Elles apportent idées, insights et inputs nécessaires à la prise de décision.
L’enjeu central : comment les représentants de la nature peuvent-ils s’appuyer sur une diversité de voix pour jouer pleinement leur rôle ? Un scientifique apportera des données sur l’état des écosystèmes, une ONG pourra traduire les enjeux environnementaux en stratégies concrètes, tandis qu’une communauté locale affectée par une crise écologique partagera une compréhension plus ancrée et immédiate de la situation.
C’est ce que propose Corporate Regeneration en accompagnant actuellement six entreprises wallonnes et bruxelloises en instaurant des conseils régénératifs. Il s’agit la plupart du temps d’une dizaine de personnes : une moitié interne à l’entreprise, souvent en charge de la durabilité, et l’autre externe – sélectionnée pour leur expertise en environnement.
Un point clé : La voix de la nature varie selon celui qui l’incarne. Peut-être que la vraie question n’est pas « qui parle pour la nature ? », mais « qui doit parler pour elle à l’instant-T ? » Cela signifie que la représentation de la nature doit être adaptée au contexte et aux objectifs poursuivis.
L’idée d’accorder un siège à la nature dans les conseils d’administration n’est plus une utopie. Des modèles émergents, intégrant la nature comme une partie prenante stratégique et un acteur organisationnel. Trois pistes pour structurer cette représentation :
Institutionnaliser la représentation de la nature, en s’inspirant des droits de la nature. Des droits ont été donnés à certains écosystèmes comme à la rivière Whanganui en Nouvelle-Zélande, ou encore à l’Amazonie en Équateur en leur conférant le statut de personnalité juridique.
Développer des pratiques de gouvernance hybrides, combinant approches scientifiques, juridiques et écologiques en évitant le monopole d’un seul type de voix en passant par une approche de stratégie ouverte.
Favoriser une transformation culturelle, en ancrant ces changements dans l’identité des entreprises.
Pour transformer la manière dont les entreprises interagissent avec la nature, il faut adopter une diversité de pensées et d’expertises. Selon le profil des gardiens en poste – juristes, scientifiques, artistes – l’approche de « Nature » peut évoluer, rendant ce modèle vivant, adaptatif et inclusif. Cette dynamique vise à instaurer une véritable cohabitation entre le monde naturel et le monde des affaires. Mais sommes-nous prêts à redéfinir notre rapport au monde vivant dans les décisions économiques ? La question n’est plus « Faut-il parler au nom de la nature ? », mais « Comment lui donner une voix légitime et efficace ? »
David Montens ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.03.2025 à 12:39
Xavier Lecocq, Professeur de management stratégique, Université de Lille
Benoît Demil, Professeur de management stratégique, Université de Lille - I-site
Vanessa Warnier, Professeure des universités, Université de Lille
Dans son comité de mission, dans son conseil régénératif ou dans son conseil d’administration, en local ou au siège… La nature a l’embarras du choix pour prendre place dans l’entreprise.
Les évolutions sociétales et les droits de la nature, apparus au Royaume-Uni ou aux États-Unis, lui ont donné une voix. La question concerne désormais la manière d’intégrer au mieux ses porte-paroles dans la vie de l’entreprise.
Les droits de la nature sont aussi appelés parfois droits de la Terre. Ils associent des dispositifs juridiques, issus de la philosophie et du droit des pays occidentaux, dans une perspective biocentrique, et non plus anthropocentrique. Ils supposent de considérer la nature, ou un élément de celle-ci (une mer, une forêt, etc.), comme une personne disposant de droits propres susceptibles d’être défendus.
Dès 2002, le philosophe Thomas Berry mentionnait trois droits fondamentaux du vivant : exister, disposer d’un habitat et jouer son rôle dans ce qu’il appelait « la communauté de la Terre ». Depuis une quinzaine d’années, différentes lois et jurisprudences ont complété les droits de la nature. Progressivement, elle est devenue une partie constituante participant à la gouvernance des projets et des entreprises.
Alors quelles solutions pour les organisations qui souhaitent avancer sur ces pratiques ?
La nature peut être être intégrée dans la raison d’être ou la mission de l’entreprise. A minima, la loi Pacte, de 2019, a modifié l’article 1833 du Code civil pour qu’une entreprise soit « gérée dans son intérêt social, en prenant en considération les enjeux sociaux et environnementaux de son activité ».
Par exemple, le groupe Rocher a décidé de la mentionner explicitement :
« Convaincue, grâce à l’expérience personnelle de monsieur Yves Rocher, que la nature a un impact positif sur le bien-être des personnes et donc sur leur envie d’agir pour la planète, la société a pour mission de reconnecter ses communautés à la nature. La raison d’être s’incarne dans des expériences, des services et des produits qui procurent du bien-être, grâce aux bienfaits de la .ature. »
À lire aussi : Patagonia, Norsys : qui est légitime pour parler au nom de la nature dans les entreprises ?
Qu’il s’agisse d’œuvrer pour les entités naturelles, ou de la mentionner dans les valeurs, l’inscription de la nature dans la mission d’une entreprise peut donner lieu à des innovations en matière de gouvernance. Par exemple : intégrer des critères RSE dans la rémunération des dirigeants. Yvon Chouinard a, quant à lui, confié son entreprise Patagonia et les profits qu’elle réalise à une fondation chargée de protéger la nature. Sa raison d’être à proprement parler.
Il faut distinguer les cas où nature peut contribuer aux décisions stratégiques en siégeant dans une instance consultative, ou dans une instance décisionnaire. Plusieurs entreprises belges ont créé des conseils de régénération « conseils de régénération ». Il s’agit d’instances composées d’une dizaine de personnes issues de l’entreprise et de l’extérieur. Elles interagissent avec le conseil d’administration, mais s’en distinguent en étant consultatives.
Parmi ces entreprises, Realco et ses produits de nettoyage, Maison Dandoy et ses biscuits, NGroup et ses radios – dont Nostalgie et NRJ –, Danone Belux, les pains et pâtisseries du groupe Copains et les bières de la brasserie Dupont. La Maison Dandoy a ainsi revu totalement son approvisionnement en farine et sa relation avec les activités agricoles. Sa farine est issue à 100 % de l’agriculture régénérative.
L’intégration de la nature dans la vie de l’entreprise de la manière la plus ancrée et, potentiellement la plus efficace, consiste à lui donner un siège dans le conseil d’administration. En France, l’entreprise informatique Norsys fait figure de pionnière. Elle a fait entrer la nature dans son conseil d’administration, mais également dans plusieurs organes internes comme le conseil éthique, le comité de mission et le comité social et économique.
La nature peut être invitée autour de la table à l’échelle d’un projet et pas uniquement au sein des organes de gouvernance des organisations… notamment au siège. Il s’agit de représenter la nature de manière ad hoc dans des projets concrets et spécifiques : implantation d’une nouvelle usine, lancement d’une gamme de produits ou mise en place d’une nouvelle politique d’achat et de sourcing.
Abonnez-vous dès aujourd’hui !
Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Cette approche a été déployée au sein du groupe de travail de l’AFNOR « économie regénérative ». L’objectif : définir l’économie régénérative en permettant aux membres du groupe de prendre la parole au nom du vivant, lors des différentes sessions. Dans une telle approche, nul besoin de recourir à des montages juridiques complexes. La voix de la nature n’est pas sanctuarisée, contrairement aux cas où la nature est déjà intégrée dans les organes de gouvernance.
Quel que soit le niveau retenu pour intégrer la nature – dans la raison d’être, dans les instances de gouvernance ou dans des comités de projets ad hoc –, il convient de s’interroger sur la place effective de la nature dans les dispositifs tels qu’ils sont mis en œuvre.
La matérialité de la nature, c’est-à-dire sa présence physique effective, lors des discussions qui lui sont liées, joue un rôle important. Comme l’ont montré Bansal et Knox-Hayes pour le cas des émissions carbone, les processus de décision dans les organisations tendent à comprimer le temps et l’espace. Ils réduisent la prise de conscience quant à la réalité de la nature. Les décideurs ont tendance à sous-estimer l’impact environnemental des décisions de l’organisation sur le temps long et les effets de ces décisions en termes d’échelle lorsqu’il s’agit de l’impact sur la nature.
La décision d’installation d’un nouveau site de production ne se déroule pas de la même manière dans un immeuble vitré de la Défense ou sur le site lui-même – avec ses collines, son cours d’eau, ses élevages et ses habitants. Pour intégrer la nature dans la gouvernance, il faut donc accepter de délocaliser parfois les comités sur les sites naturels ou tout au moins de faire entrer la nature dans ces comités. Les promenades en forêt, les discussions dans un parc donnent une matérialité à cette nature.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.