LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

▸ Les 25 dernières parutions

09.12.2025 à 11:59

Plantes médicinales : valider la tradition, prévenir les risques

François Chassagne, Chargé de recherche en ethnopharmacologie, Institut de recherche pour le développement (IRD)

L’ethnopharmacologie vise à valider scientifiquement les bénéfices thérapeutiques de plantes et d’autres remèdes traditionnels, tout en préservant ces savoirs dans leurs contextes culturels.
Texte intégral (3772 mots)
À la croisée de l’ethnobotanique et de la pharmacologie, l’ethnopharmacologie étudie et valide des remèdes traditionnels aux quatre coins du monde. Ici, un marché de plantes médicinales au Cambodge. François Chassagne, Fourni par l'auteur

En France, dans les territoires d’outre-mer en particulier, mais aussi ailleurs dans le monde, l’ethnopharmacologie doit faire face à plusieurs enjeux. Les laboratoires spécialisés dans cette discipline sont sollicités pour confirmer, ou non, l’intérêt thérapeutique de remèdes, à base de plantes notamment, utilisés dans les traditions. Mais ils doivent mener ce travail en préservant ces savoirs dans leurs contextes culturels.


Saviez-vous que près d’une plante sur dix dans le monde était utilisée à des fins médicinales ? Certaines ont même donné naissance à des médicaments que nous connaissons tous : l’aspirine, dérivé du saule (Salix alba L.), ou la morphine, isolée du pavot à opium (Papaver somniferum L.).

Au fil des siècles, les remèdes traditionnels, consignés dans des textes comme ceux de la médecine traditionnelle chinoise ou ayurvédique, ou transmis oralement, ont permis de soulager une multitude de maux. Ainsi, en Chine, les tiges de l’éphédra (Ephedra sinica Stapf), contenant de l’éphédrine (un puissant décongestionnant), étaient employées contre le rhume, la toux et l’asthme il y a déjà 5 000 ans. En Europe, les feuilles de digitale (Digitalis purpurea L.), d’où est extraite la digoxine (un cardiotonique), servaient dès le Moyen Âge à traiter les œdèmes.

En Amérique du Sud, l’écorce du quinquina (Cinchona pubescens Vahl.), contenant de la quinine (antipaludique), étaient utilisées par des communautés indigènes pour combattre les fièvres. En Inde, les racines de rauvolfia (Rauvolfia serpentina (L.) Benth. ex Kurz) contenant de la réserpine (antihypertenseur), furent même employées par Mahatma Gandhi pour traiter son hypertension.

Aujourd’hui encore, les plantes médicinales restent très utilisées, notamment dans les régions où l’accès aux médicaments conventionnels est limité. Mais une question demeure : sont-elles toutes réellement efficaces ? Leur action va-t-elle au-delà d’un simple effet placebo ? Et peuvent-elles être dangereuses ?

C’est à ces interrogations que répond l’ethnopharmacologie : une science à la croisée de l’ethnobotanique et de la pharmacologie. Elle vise à étudier les remèdes traditionnels pour en comprendre leurs effets, valider leur usage et prévenir les risques. Elle contribue aussi à préserver et valoriser les savoirs médicinaux issus des cultures du monde.

Un patrimoine mondial… encore peu étudié

Ces études sont d’autant plus cruciales que les plantes occupent encore une place centrale dans la vie quotidienne de nombreuses sociétés. En Afrique subsaharienne, environ 60 % de la population a recours à la médecine traditionnelle. En Asie, ce chiffre avoisine les 50 %. Et en Europe, 35 % de la population française déclare avoir utilisé des plantes médicinales ou d’autres types de médecines non conventionnelles dans les douze derniers mois – l’un des taux les plus élevés du continent !

Cette spécificité française s’explique par un faisceau de facteurs : une culture de résistance à l’autorité (face à la rigidité bureaucratique ou au monopole médical), un héritage rural (valorisation des « simples » de nos campagnes et méfiance envers une médecine jugée trop technologique), mais aussi une ouverture au religieux, au spirituel et au « paranormal » (pèlerinages de Lourdes, magnétisme, voyance…).

Ces chiffres ne reflètent pourtant pas toute la richesse de la phytothérapie française (la phytothérapie correspondant littéralement à l’usage thérapeutique des plantes). Dans les territoires d’outre-mer, les savoirs traditionnels sont particulièrement vivants.

Que ce soit en Nouvelle-Calédonie, où se côtoient traditions kanak, polynésienne, wallisienne, chinoise et vietnamienne, ou en Guyane française, avec les médecines créole, amérindienne, hmong ou noir-marron. Au total, les 13 territoires ultramarins apportent une richesse indéniable à la pharmacopée française. Preuve en est : 75 plantes ultramarines utilisées en Guadeloupe, en Guyane française, à la Martinique et à La Réunion ont récemment été intégrées à la pharmacopée nationale, un document officiel recensant les matières premières autorisées pour la fabrication des médicaments. Parmi elles, le gros thym (Coleus amboinicus Lour.) dont les feuilles sont utilisées pour traiter les rhumatismes, les fièvres ou encore l’asthme dans ces quatre territoires.

Ingrédients et remèdes polynésiens pour prévenir le he’a (un trouble associant désordres génito-urinaires et cutanés). François Chassagne, Fourni par l'auteur

Mais cela reste l’arbre qui cache la forêt : sur les quelques 610 plantes inscrites à la pharmacopée française, seules quelques-unes proviennent des territoires ultramarins, alors même que les Antilles, la Guyane française et la Nouvelle-Calédonie comptent chacune environ 600 espèces médicinales recensées par la recherche. Plus largement encore, à l’échelle mondiale, seules 16 % des 28 187 plantes médicinales connues figurent aujourd’hui dans une pharmacopée officielle ou un ouvrage réglementaire. Autrement dit, l’immense majorité de ce patrimoine reste à explorer, comprendre et valoriser.

Étudier, valider, protéger

Dans les pharmacopées officielles, chaque plante fait l’objet d’une monographie : un document scientifique qui rassemble son identité botanique, ses composés bioactifs connus, ses données pharmacologiques et toxicologiques ainsi que les usages traditionnels et établis scientifiquement (indications thérapeutiques, posologies, modes d’administration, précautions d’emploi). En somme, une monographie joue à la fois le rôle de carte d’identité et de notice d’emploi de la plante. Validée par des comités d’experts, elle constitue une référence solide pour les professionnels de santé comme pour les autorités sanitaires.

Lorsqu’une plante n’est pas intégrée dans une pharmacopée, son usage reste donc empirique : on peut l’utiliser depuis des siècles, mais sans données claires sur son efficacité, la sécurité ou les risques d’interactions avec d’autres traitements.

Pour avancer vers la création de monographies et mieux intégrer ces plantes aux systèmes de santé, plusieurs outils sont à notre disposition :

  • des enquêtes ethnobotaniques, pour recenser les savoirs traditionnels et décrire les remèdes utilisés ;

  • des tests pharmacologiques, pour comprendre l’effet biologique des plantes et le lien avec leur usage (ex. : une plante utilisée contre les furoncles peut être testée contre le staphylocoque doré) ;

  • des analyses toxicologiques, pour évaluer l’innocuité des plantes, sur cellules humaines ou organismes vivants ;

  • des analyses phytochimiques, pour identifier les molécules actives, grâce à des techniques comme la chromatographie ou la spectrométrie de masse.

Entretien ethnobotanique sur l’île de Huahine (Polynésie française). François Chassagne, Fourni par l'auteur

Au sein de nos laboratoires PharmaDev à Toulouse (Haute-Garonne) et à Nouméa (Nouvelle-Calédonie), nous combinons ces approches pour mieux comprendre les plantes et les intégrer, à terme, dans les systèmes de soins. Nous étudions des pharmacopées issues de Mayotte, de Nouvelle-Calédonie, de Polynésie française, mais aussi du Bénin, du Pérou, du Cambodge ou du Vanuatu.

Tests antibactériens de plantes dans notre laboratoire de microbiologie à Toulouse. François Chassagne, Fourni par l'auteur

Par exemple, nous avons analysé des remèdes du Pacifique utilisés chez les enfants pour en comprendre les bénéfices thérapeutiques et les risques toxiques. En Nouvelle-Calédonie, les feuilles de niaouli (Melaleuca quinquenervia (Cav.) S.T.Blake) sont couramment utilisées contre les rhumes en automédication. Or, elles contiennent de l’eucalyptol, susceptible de provoquer des convulsions chez les enfants de moins de 36 mois. Il est donc recommandé de ne pas employer ce remède chez les enfants de cet âge et/ou ayant eu des antécédents d’épilepsie ou de convulsions fébriles et, en cas de doute, de se référer à un professionnel de santé (médecin, pharmacien…). D’ailleurs, certains médicaments à base d’huile essentielle de niaouli peuvent, en fonction du dosage, être réservés à l’adulte. C’est précisément pour cela que nous diffusons nos résultats à travers des articles scientifiques, des séminaires et des livrets de vulgarisation, afin que chacun puisse faire un usage éclairé de ces remèdes.

Deux plantes médicinales emblématiques du Pacifique. A : le niaouli (Melaleuca quinquenervia (Cav.) S.T.Blake) en Nouvelle-Calédonie, B : le tiare tahiti (Gardenia tahitensis DC.) en Polynésie française. François Chassagne, Fourni par l'auteur

Médecine traditionnelle et enjeux de développement durable

En Polynésie française, nous étudions la médecine traditionnelle à travers le développement durable. Plusieurs menaces pèsent aujourd’hui sur ces pratiques : la migration des jeunes, qui fragilise la transmission intergénérationnelle des savoirs ; le changement climatique, qui modifie la répartition des plantes ; ou encore les espèces invasives, qui concurrencent et parfois supplantent les espèces locales.

Or, ces savoirs sont essentiels pour assurer un usage sûr et efficace des plantes médicinales. Sortis de leur contexte ou mal interprétés, ils peuvent conduire à une perte d’efficacité, voire à des intoxications.

Un exemple concret est celui du faux-tabac (Heliotropium arboreum), ou tahinu en tahitien, dont les feuilles sont traditionnellement utilisées dans le traitement de la ciguatera, une intoxication alimentaire liée à la consommation de poissons, en Polynésie et ailleurs dans le Pacifique. Des études scientifiques ont confirmé son activité neuroprotectrice et identifié la molécule responsable : l’acide rosmarinique. Mais une réinterprétation erronée de ces résultats a conduit certaines personnes à utiliser l’huile essentielle de romarin. Or, malgré son nom, cette huile ne contient pas d’acide rosmarinique. Résultat : non seulement le traitement est inefficace, mais il peut même devenir toxique, car les huiles essentielles doivent être manipulées avec une grande précaution.

Cet exemple illustre un double enjeu : la nécessité de préserver les savoirs traditionnels dans leur contexte culturel et celle de les valider scientifiquement pour éviter les dérives.

En ce sens, la médecine traditionnelle est indissociable des objectifs de développement durable : elle offre une approche biologique, sociale, psychologique et spirituelle de la santé, elle permet de maintenir les savoirs intergénérationnels, de valoriser la biodiversité locale et de réduire la dépendance aux médicaments importés.

C’est dans cette perspective que notre programme de recherche s’attache à identifier les menaces, proposer des solutions, par exemple en renforçant les liens intergénérationnels ou en intégrant les connaissances sur les plantes dans le système scolaire, et à valider scientifiquement les plantes les plus utilisées.

The Conversation

François Chassagne a reçu des financements de l'ANR (Agence Nationale de la Recherche)

PDF

08.12.2025 à 11:46

Atteindre la neutralité carbone exigera 3 859 milliards d’euros par an jusqu’en 2050

Riadh Manita, Professor of Accounting and Auditing, Neoma Business School

Sabri Boubaker, Professor of Finance, EM Normandie

Comment récolter tout cet argent ? Une étude souligne la nécessité de créer une stabilité institutionnelle pour assurer le développement de la finance verte.
Texte intégral (1537 mots)
La France est précurseur de la finance verte, en ayant créé en 2017 une obligation souveraine verte de sept milliards d’euros sur 22 ans. SummitArtCreations/Shutterstock

Comment récolter cette somme colossale ? Une étude menée auprès de 42 pays souligne que la stabilité institutionnelle permet d’assurer le développement de la finance verte. Ses conclusions sont nettes et sans bavure : les pays avec un cadre réglementaire solide s’en sortent le mieux.


La planète réclame une facture colossale : 3 859 milliards d’euros par an jusqu’en 2050 pour éviter le chaos climatique, selon l’Agence internationale de l’énergie. L’écart reste abyssal entre cette urgence climatique et les capitaux levés pour financer cette transition.

Notre étude couvrant 42 pays entre 2007 et 2023 rappelle une bonne nouvelle : la finance verte se déploie durablement là où les États offrent un cadre clair et cohérent.

Comment, concrètement, fonctionne cette corrélation?

Réduire l’incertitude

Nos résultats montrent que plus un pays adopte des politiques environnementales ambitieuses, plus le volume d’obligations vertes émises sur son territoire augmente.

L’indice utilisé dans cette étude, fondé sur les données de l’Agence internationale de l’énergie, recense l’ensemble des mesures environnementales adoptées dans le monde. Il correspond au nombre total de lois, réglementations et plans d’action environnementaux en vigueur dans chaque pays. Plus ce stock de règles est élevé, plus le cadre climatique national apparaît développé, prévisible et crédible pour les investisseurs.

Ce lien s’explique par un mécanisme simple : un environnement réglementaire clair réduit l’incertitude sur les futures politiques climatiques. Les émetteurs d’obligations vertes savent quelles activités seront financées, tandis que les investisseurs disposent d’un cadre pour évaluer la rentabilité des projets. De facto, la demande d’obligations vertes croît, réduit leur prime de risque, et stimule mécaniquement leur volume d’émission.

L’Europe en pointe

Cette dynamique se vérifie particulièrement en Europe. Selon l’Agence européenne de l’environnement, la part des obligations vertes dans l’ensemble des obligations émises par les entreprises et les États de l’Union européenne est passée d’environ 0,1 % en 2014 à 5,3 % en 2023, puis 6,9 % en 2024.

Dans ce contexte, la taxonomie verte européenne et le reporting obligatoire sur les risques climatiques et les indicateurs ESG – CSRD, SFDR– instaurent un cadre d’investissement harmonisé, facilitant l’allocation de capitaux vers les actifs verts.


À lire aussi : À quoi servent les obligations vertes ?


La France illustre cette dynamique européenne. Elle ouvre la voie dès 2017 avec une obligation verte de sept milliards d’euros sur vingt-deux ans, émise par l’Agence France Trésor. Selon une étude de la Banque de France, les obligations souveraines vertes de la zone euro offrent en moyenne un rendement inférieur de 2,8 points de base (0,028 point de pourcentage) à celui d’obligations souveraines classiques comparables. Cet écart, faible mais régulier, est interprété par la Banque de France comme une « prime verte ». Concrètement, les investisseurs acceptent de gagner un peu moins pour détenir des titres verts.

La Chine rattrape son retard

À ce jour, les gouvernements du monde entier ont adopté environ 13 148 réglementations, cadres et politiques visant à atteindre la neutralité carbone d’ici 2050.

En Chine, les réformes des critères ESG en 2021 et 2022, ainsi que leur alignement avec les standards internationaux, ont placé le pays parmi les tout premiers émetteurs mondiaux d’obligations vertes, selon la Climate Bonds Initiative. En Afrique du Nord, l’Égypte s’est lancée avec une première obligation souveraine verte en 2020, soutenue par la Banque mondiale.

Dans ces économies, un cadre réglementaire stable est également associé, dans nos données, à des maturités moyennes pondérées plus longues pour les obligations vertes. Lorsque le cadre réglementaire se renforce, les obligations vertes présentent en moyenne des échéances de dix à vingt ans, plutôt que de quelques années seulement. L’enjeu : financer des projets de long terme, comme des infrastructures énergétiques ou de transport.

L’Italie, l’Espagne, l’Inde et l’Indonésie vulnérables

L’effet des politiques climatiques sur la finance verte est particulièrement marqué dans les économies « vulnérables sur le plan énergétique ». Dans notre étude, nous avons utilisé deux indicateurs : la part des importations nettes d’énergie dans la consommation nationale et l’intensité énergétique (consommation d’énergie rapportée au PIB).

À titre d’illustration, des pays européens fortement importateurs d’énergie, comme l’Italie ou l’Espagne, et des économies émergentes à forte intensité énergétique, comme l’Inde ou l’Indonésie, présentent ce profil de vulnérabilité.

Nous classons ensuite les pays de notre échantillon selon leur degré de vulnérabilité énergétique à partir de ces deux indicateurs. Lorsque l’on compare l’évolution des émissions d’obligations vertes dans les économies les plus vulnérables à celle observée dans les autres pays de l’échantillon, on constate qu’un même durcissement des politiques climatiques s’y traduit par une augmentation nettement plus rapide du recours à la finance verte.

Réduire la dépendance aux énergies fossiles

En Europe, la crise énergétique de 2022 et le lancement de REPowerEU ont profondément reconfiguré le lien entre politique climatique et sécurité énergétique.

Face à la flambée des prix du gaz, l’Union européenne a accéléré la réduction de sa dépendance aux combustibles fossiles importés. Selon le Conseil de l’Union européenne, la part du gaz russe dans ses importations de gaz est passée de plus de 40 % en 2021 à environ 11 % en 2024 pour le gaz acheminé par gazoducs ; à moins de 19 % si l’on inclut le gaz naturel liquéfié. Dans le même temps, la capacité solaire de l’Union européenne a presque triplé depuis 2019 pour atteindre un peu plus de 300 GW en 2024, et les énergies renouvelables ont fourni près de 47 % de l’électricité européenne.

Ces transformations s’accompagnent d’un effort d’investissement massif. La Commission européenne a décidé de lever jusqu’à 30 % du plan NextGenerationEU sous forme d’« obligations vertes NextGenerationEU », soit un volume potentiel d’environ 225 milliards d’euros. De leur côté, plusieurs États membres ont mis en place des programmes souverains importants : en France, l’encours des obligations assimilables du Trésor vertes (OAT vertes) atteignait environ 70 milliards d’euros fin 2023.

Pour les décideurs, l’enjeu n’est donc pas de multiplier les annonces, mais de fixer un cap crédible dans la durée.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

05.12.2025 à 13:07

Enjeux environnementaux : en quoi l’éducation transforme-t-elle les comportements des jeunes ?

Magali Jaoul-Grammare, Chargée de Recherche CNRS en Economie, Université de Strasbourg

Anne Stenger, Directrice de recherche en économie, Inrae

L’éducation, formelle ou informelle, transmet connaissances et valeurs écologiques, renforçant pensée critique et conscience durable.
Texte intégral (1616 mots)

L’entrée dans le monde étudiant bouleverse les habitudes de vie des jeunes. Cette transition vers l’autonomie est-elle alors propice à l’adoption de comportements respectueux de l’environnement ? Quelques éclairages à partir des derniers résultats d’enquête de l’Observatoire de la vie étudiante.


Au-delà des incitations monétaires, souvent temporaires, l’éducation peut constituer un levier durable en faveur des comportements pro-environnementaux (CPE). Si un niveau d’éducation élevé favorise la compréhension des enjeux écologiques, ses effets sur les CPE restent toutefois variables, voire parfois négatifs. D’autres facteurs interviennent : genre, âge, revenu, milieu social ou style de vie.

Nous nous sommes penchées sur les déterminants des pratiques alimentaires et de mobilité des étudiant·es à partir de l’enquête 2023 « Conditions de vie des étudiants », incluant les deux questions suivantes : « Pour des raisons écologiques, avez-vous changé vos habitudes alimentaires (moins de viande, manger bio…) ? » ; « Pour des raisons écologiques, avez-vous changé vos habitudes de transport (moins de déplacements, autres modes de transports) ? »

Connaissances et émotions, des facteurs de changement

Une personne soucieuse de l’environnement peut réduire sa consommation, privilégier une alimentation végétale, locale ou de saison, et adopter des régimes à faible impact. Dans les transports, elle choisira des modes à faibles émissions ou limitera ses déplacements. Toutefois, la santé, les habitudes, les normes sociales et les contraintes économiques influencent aussi ces choix, où les motivations environnementales se mêlent à des dimensions sociales et éducatives.

Les individus mieux informés adoptent plus facilement des comportements pro-environnementaux. L’éducation, formelle ou informelle, transmet connaissances et valeurs écologiques, renforçant pensée critique et conscience durable. Le milieu social reste déterminant : les foyers aisés accèdent plus aisément aux produits bio ou aux véhicules électriques, tandis que les plus modestes dépendent des transports publics.

Le mode de vie étudiant influe aussi : la transition vers l’autonomie modifie les habitudes et conduit à distinguer différents profils, de l’engagé à l’indifférent, etc. Enfin, le sport diffuse de plus en plus des valeurs écologiques.

Fourni par l'auteur

Les émotions, notamment négatives, constituent un levier important du changement de comportement. L’écoanxiété – mal-être et inquiétude face au réchauffement climatique – influence les comportements, bien que ses effets varient selon les études.

Des diplômés écoanxieux

Depuis 2020, l’enquête « Conditions de vie des étudiants » mesure ce phénomène via une question sur l’inquiétude climatique. En 2023, 87 % des répondants se disent inquiets, surtout les femmes, et cette proportion reste stable malgré l’aggravation des crises. L’écoanxiété diffère également selon le milieu social et scolaire.

Enfin, les conditions de vie influencent aussi les comportements : les étudiants vivant chez leurs parents changent moins, tandis que les difficultés financières favorisent l’adaptation alimentaire mais freinent la mobilité durable.

Fourni par l'auteur

Parmi les étudiants interrogés en 2023, un tiers a modifié à la fois ses habitudes alimentaires et de transport pour des raisons environnementales. Ces changements varient selon le sexe, le milieu social, le niveau d’études et la sensibilité au climat.

Les étudiantes adaptent davantage leur alimentation (18 % contre 9 % des hommes), tandis que les étudiants modifient plus souvent leurs transports (23 % contre 18 %). Les plus diplômés, issus de milieux aisés, écoanxieux ou engagés, changent plus fréquemment leurs comportements : 35 % des étudiants inquiets du climat modifient les deux, contre 7 % des non inquiets.

La participation à des conférences ou à des manifestations, ainsi que la pratique sportive, favorisent les comportements pro-environnementaux : 34 % des sportifs ont changé leurs habitudes, tandis que les effets du tabac ou de l’alcool restent incertains. Les contraintes matérielles jouent aussi : les urbains adaptent davantage leurs transports (21 % contre 15 % en zones rurales) mais moins leur alimentation (14 % contre 21 %). Les étudiants autonomes (38 %) changent plus souvent que ceux vivant chez leurs parents (19 %).

Des freins économiques et géographiques

Les facteurs associés aux changements alimentaires et de transport sont similaires : les femmes, les étudiants sportifs, inquiets du climat ou mieux éduqués sont plus enclins à modifier leurs pratiques. Le niveau d’études reste déterminant : les étudiants de master adoptent plus souvent des comportements durables, étayant le rôle de l’éducation.

Le cadre de vie compte également : la ruralité favorise les changements alimentaires mais freine la mobilité durable, tandis que vivre seul ou en résidence les encourage. Les contraintes financières, en revanche, limitent surtout les changements de transport. Enfin, 34 % des étudiants souhaiteraient changer leur alimentation et 27 % leurs transports sans y parvenir, freinés par leurs conditions économiques ou géographiques : vivre chez ses parents restreint les marges de manœuvre alimentaires, tandis que l’éloignement urbain et le manque de moyens limitent la mobilité durable.

Certaines caractéristiques – milieu social aisé, bon niveau scolaire, engagement environnemental, inquiétude climatique ou pratique sportive – favorisent les comportements pro-environnementaux dans l’alimentation et le transport.

L’enquête « Conditions de vie des étudiants » reste toutefois limitée : elle ne détaille ni les actions concrètes ni la chronologie des changements, rendant difficile l’évaluation des effets leviers ou rebonds. Toutefois l’éducation, formelle ou informelle, demeure un levier central pour encourager les comportements pro-environnementaux, par la sensibilisation, la diffusion de connaissances et la transmission intergénérationnelle.

Le renforcement de l’éducation environnementale, l’accès gratuit à des ateliers ou conférences, surtout dans les zones défavorisées, illustrent cette voie. D’autres leviers peuvent compléter cette action : sport durable, mobilités actives et politiques sociales réduisant les inégalités.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

04.12.2025 à 15:15

Face à la fonte des glaces de l’Antarctique, le niveau de la mer n’augmente pas au même rythme partout

Shaina Sadai, Associate in Earth Science, Five College Consortium

Ambarish Karmalkar, Assistant Professor of Geosciences, University of Rhode Island

Si mers et océans fonctionnaient comme une immense baignoire, l’eau s’élèverait partout de la même façon. Ce n’est pas ce qui se passe, du fait notamment de la gravité et du rôle du manteau terrestre.
Texte intégral (2203 mots)

Si les mers et les océans fonctionnaient comme une immense baignoire, l’eau s'élèverait partout de la même façon. Ce n’est pas ce qui se passe. La fonte des glaces en Antarctique, influencée par le réchauffement climatique, entraîne une élévation inégale du niveau de la mer, notamment du fait de la gravité et du rôle du manteau terrestre.


Quand les calottes polaires fondent, les effets se répercutent dans le monde entier. La fonte de la glace élève le niveau moyen des mers, modifie les courants océaniques et affecte les températures dans des régions très éloignées des pôles. Mais cette fonte n’influence pas le niveau de la mer et les températures de la même manière partout.

Dans une nouvelle étude, notre équipe de scientifiques a examiné comment la fonte des glaces en Antarctique affecte le climat mondial et le niveau de la mer. Nous avons combiné des modèles informatiques de la calotte glaciaire antarctique, de la Terre et du climat global, incluant les processus atmosphériques et océaniques, afin d’explorer les interactions complexes entre la glace en train de fondre et les autres composantes de la Terre.

Comprendre ce qui arrive à la glace de l’Antarctique est essentiel, car elle contient suffisamment d’eau gelée pour élever le niveau moyen des mers d’environ 58 mètres. Lorsque cette glace fond, cela devient un problème existentiel pour les populations et les écosystèmes des communautés insulaires et littorales.

Changements en Antarctique

L’ampleur de la fonte de la calotte glaciaire antarctique dépendra de l’importance du réchauffement de la planète. Réchauffement qui dépend des futures émissions de gaz à effet de serre provenant notamment des véhicules, des centrales électriques et des industries. Des études suggèrent qu’une grande partie de la calotte glaciaire antarctique pourrait subsister si les pays réduisent leurs émissions de gaz à effet de serre conformément à l’objectif de l’accord de Paris de 2015 visant à limiter le réchauffement planétaire à 1,5 °C par rapport à l’ère préindustrielle. Cependant, si les émissions continuent d’augmenter et que l’atmosphère et les océans se réchauffent beaucoup plus, cela pourrait provoquer une fonte importante et des niveaux marins bien plus élevés.

Nos recherches montrent que les fortes émissions présentent des risques non seulement pour la stabilité de la calotte glaciaire de l’Antarctique occidental, qui contribue déjà à l’élévation du niveau de la mer, mais aussi pour la calotte glaciaire de l’Antarctique oriental, beaucoup plus vaste et plus stable. Elles montrent aussi que les régions du monde connaîtront des niveaux différents de montée des eaux à mesure que l’Antarctique fond.

Comprendre l’évolution du niveau de la mer

Si les mers se comportaient comme l’eau dans une baignoire, alors le niveau de l’océan s’élèverait de la même manière partout. Mais ce n’est pas ce qui se passe. Au contraire, de nombreux endroits enregistrent une élévation du niveau de la mer supérieure à la moyenne mondiale, tandis que les zones proches de la calotte glaciaire peuvent même voir le niveau de la mer baisser. La raison principale tient à la gravité.

Les calottes glaciaires sont énormes, et cette masse exerce une forte attraction gravitationnelle qui attire l’eau océanique environnante vers elles, de manière similaire à la façon dont l’attraction gravitationnelle entre la Terre et la Lune influence les marées.

À mesure que la calotte glaciaire diminue, son attraction gravitationnelle sur l’océan diminue, ce qui entraîne une baisse du niveau de la mer dans les régions proches des banquises et une hausse dans les régions plus éloignées. Mais les variations du niveau de la mer ne dépendent pas uniquement de la distance à la calotte glaciaire en train de fondre. Cette perte de glace modifie également la rotation de la planète. L’axe de rotation est attiré vers cette masse de glace disparue, ce qui redistribue à son tour l’eau autour du globe.

Deux facteurs qui peuvent ralentir la fonte

À mesure que la massive calotte glaciaire fond, le manteau terrestre situé en dessous se soulève. Sous le socle rocheux de l’Antarctique se trouve ce manteau, qui s’écoule lentement, un peu comme du sirop d’érable. Plus la calotte glaciaire fond, moins elle exerce de pression sur la Terre solide. Avec ce poids réduit, le socle rocheux peut se soulever. Cela peut éloigner certaines parties de la calotte glaciaire des eaux océaniques réchauffées, ralentissant ainsi le rythme de la fonte. Ce phénomène est plus rapide dans les régions où le manteau s’écoule plus vite, comme sous la calotte glaciaire de l’Antarctique occidental. Cet effet de rebond pourrait contribuer à préserver la calotte glaciaire – à condition que les émissions mondiales de gaz à effet de serre restent faibles.

Un autre facteur susceptible de ralentir la fonte peut sembler contre-intuitif.

Alors que l’eau de fonte antarctique contribue à l’élévation du niveau de la mer, les modèles montrent qu’elle retarde également le réchauffement induit par les gaz à effet de serre. En effet, l’eau glacée provenant de l’Antarctique réduit la température de surface des océans dans l’hémisphère Sud et le Pacifique tropical, emprisonnant la chaleur dans les profondeurs et ralentissant l’augmentation de la température moyenne globale de l’air.

Mais même si la fonte ralentit, le niveau de la mer continue d’augmenter.

Cartographie de nos résultats sur le niveau de la mer

Nous avons combiné des modèles informatiques simulant ces comportements et d’autres caractéristiques de la calotte glaciaire antarctique, du manteau terrestre et du climat pour comprendre ce qui pourrait arriver au niveau de la mer dans le monde à mesure que les températures globales augmentent et que la glace fond.

Par exemple, dans un scénario modéré où le monde réduit ses émissions de gaz à effet de serre, mais pas suffisamment pour maintenir le réchauffement global en dessous de 2 °C d’ici à 2100, nous avons constaté que l’élévation moyenne du niveau de la mer due à la fonte de la glace antarctique serait d’environ dix centimètres d’ici à 2100. En 2200, elle dépasserait un mètre.

Il faut garder à l’esprit qu’il ne s’agit ici que de l’élévation du niveau de la mer causée par la fonte de l’Antarctique. La calotte glaciaire du Groenland et l’expansion thermique de l’eau de mer due au réchauffement des océans contribueront également à l’élévation du niveau de la mer. Les estimations actuelles suggèrent qu’au total, l’élévation moyenne du niveau de la mer – incluant le Groenland et l’expansion thermique – serait comprise entre 30 centimètres et 60 centimètres d’ici à 2100 dans le même scénario.

Deux cartes de la Terre montrant des niveaux de hausse du niveau de la mer différents
Les modèles indiquent la contribution de l’Antarctique à l’élévation du niveau de la mer en 2200, selon un scénario d’émissions moyen (en haut) et élevé (en bas). L’élévation moyenne mondiale du niveau de la mer est en violet. Les zones où le niveau de la mer dépasse la moyenne régionale apparaissent en bleu foncé. Sadai et coll., 2025

Nous montrons également comment l’élévation du niveau de la mer due à l’Antarctique varie à travers le monde. Dans le scénario d’émissions modérées, nous avons ainsi constaté que la hausse la plus importante du niveau de la mer provenant uniquement de la fonte des glaces antarctiques, jusqu’à 1,5 m d’ici à 2200, se produit dans les bassins océaniques Indien, Pacifique et Atlantique occidental – des régions éloignées de l’Antarctique.

Ces régions abritent de nombreuses populations vivant dans des zones côtières basses, notamment les habitants des îles des Caraïbes, comme la Jamaïque, et du Pacifique central, comme les îles Marshall, qui subissent déjà des impacts néfastes liés à la montée des mers.

Dans un scénario d’émissions élevées, nous avons constaté que l’élévation moyenne du niveau de la mer due à la fonte de l’Antarctique serait beaucoup plus importante : environ 30 centimètres en 2100 et près de 3 mètres en 2200.

Dans ce scénario, une large partie du bassin Pacifique au nord de l’équateur, incluant la Micronésie et Palau, ainsi que le centre du bassin Atlantique, connaîtrait la plus forte élévation du niveau de la mer, jusqu’à 4,3 m d’ici à 2200, uniquement en raison de l’Antarctique.

Bien que ces chiffres puissent sembler alarmants, les émissions actuelles et les projections récentes indiquent que ce scénario d’émissions très élevées est peu probable. Cet exercice montre néanmoins les conséquences graves de fortes émissions et souligne l’importance de les réduire.

Nos conclusions

Ces impacts ont des répercussions sur la justice climatique, en particulier pour les nations insulaires qui ont peu contribué au changement climatique mais subissent déjà les effets dévastateurs de l’élévation du niveau de la mer.

De nombreux États insulaires perdent déjà des terres à cause de la montée des eaux et ont été à l’avant-garde des efforts mondiaux pour limiter le réchauffement. Protéger ces pays et d’autres zones côtières nécessitera de réduire les émissions de gaz à effet de serre plus rapidement que ce à quoi les nations s’engagent aujourd’hui.

The Conversation

Shaina Sadai a reçu des financements de la National Science Foundation et de la Hitz Family Foundation.

Ambarish Karmalkar a reçu des financements de la National Science Foundation.

PDF

04.12.2025 à 13:03

L’« effet Lazare », ou quand certains êtres vivants ressurgissent après des millions d’années

Violaine Nicolas Colin, Maitre de conférence en systématique et phylogéographie, Muséum national d’histoire naturelle (MNHN)

L’« effet Lazare » désigne un phénomène bien plus fréquent qu’on ne le pense : la réapparition de certaines espèces, genres ou familles du vivant que l’on croyait éteintes.
Texte intégral (2257 mots)
Les lézards iguanidés ( ici, _G. longicaudatus_) étaient très répandus et diversifiés en Europe durant l’Éocène (entre 56 millions et 33,9 millions d’années). On les pensait totalement disparus du continent après la transition Éocène-Oligocène. Jusqu’à la découverte, en 2012, de spécimens du genre _Geiseltaliellus_ dans le sud de la France. Chris Woodrich, CC BY

Nommé d’après la figure biblique revenue d’entre les morts, l’« effet Lazare » désigne un phénomène bien plus fréquent qu’on ne le pense : la réapparition de certains groupes d’organismes que l’on croyait éteints.


Tout le monde connaît Lazare, ce personnage du Nouveau Testament que Jésus aurait ramené à la vie. C’est de cette image symbolique qu’est né le terme d’« effet Lazare », utilisé aujourd’hui dans différents domaines de la biologie.

En paléontologie et en phylogénie (l’étude des relations évolutives entre les organismes), il désigne un phénomène fascinant : celui de groupes d’organismes – espèces, genres ou familles – qui semblent avoir disparu pendant des millions d’années si l’on se fie à l’ensemble des fossiles découverts à ce jour, avant de réapparaître comme par miracle.

Le concept a été introduit dans les années 1980 par les scientifiques états-uniens Karl Flessa et David Jablonski, puis affiné par la suite. Toutefois, les scientifiques ne sont pas toujours d’accord sur la manière de le définir : certains, comme Jablonski, y voient une simple absence temporaire dans les archives fossiles pendant un intervalle de temps donné, d’autres le réservent aux retours spectaculaires après les grandes crises d’extinction massive.

Pourquoi ces « résurrections » apparentes ?

L’effet Lazare demeure de fait étroitement lié à la qualité du registre fossile, c’est-à-dire à l’ensemble des fossiles découverts à ce jour, qui n’offre qu’une image partielle du passé de la vie. La fossilisation est un processus rare et sélectif : certains organismes se fossilisent mieux (par exemple, ceux dotés de coquilles ou d’os) et certains milieux (comme les fonds marins) favorisent la conservation des restes biologiques. De plus, les roches peuvent être détruites, transformées ou tout simplement jamais explorées. Résultat : de larges pans de l’histoire du vivant nous échappent encore.

L’absence d’un taxon (unité de genre, de famille ou d’espèce) dans le registre fossile pendant des millions d’années peut donc avoir deux explications :

  • une cause « stratigraphique », autrement dit un trou dans les archives. Le taxon a bien survécu, mais nous n’en avons conservé aucune trace ;

  • une cause « biologique » signifiant qu’il s’agit d’un véritable événement évolutif.

Plusieurs scénarios peuvent alors expliquer cette disparition apparente :

→ Le taxon a pu trouver refuge dans des zones isolées, de petite taille ou mal explorées. Après une longue période d’isolement dans ces refuges, le taxon a ensuite envahi de nouveau son territoire originel et est réapparu dans le registre fossile.

→ Il a pu subsister à très faible densité, en dessous du seuil nécessaire pour laisser des traces fossiles. En dessous de ce seuil, la population reste viable, mais nous n’avons tout simplement aucune trace de son existence. Malheureusement, ce seuil varie selon les environnements et les taxons, et il est quasiment impossible à quantifier.

La distinction entre les alternatives stratigraphique et biologique est souvent difficile. L’intensité des fouilles, la qualité de l’identification des fossiles et le niveau taxonomique (espèce, genre, famille…) jouent tous un rôle crucial dans l’interprétation de ces cas. Il faut aussi noter que l’interprétation de l’effet Lazare est une procédure asymétrique, car l’alternative biologique n’est privilégiée que lorsque l’alternative stratigraphique ne peut être documentée. Par conséquent, les techniques analytiques évaluant l’exhaustivité des archives fossiles sont essentielles pour comprendre la signification des taxons Lazare.

Origines de l’effet Lazare mettant en évidence les alternatives stratigraphique et biologique qui soit empêchent la préservation, soit limitent le nombre de restes préservés encore non découverts en raison d’un échec d’échantillonnage. Adapté de Fara (2001). Fourni par l'auteur

Quand la vie joue à cache-cache : quelques exemples

Une chose reste elle certaine, les exemples de taxons Lazare sont bien moins rares qu’on pourrait le penser.

Les lézards iguanidés, par exemple, étaient très répandus et diversifiés en Europe durant l’Éocène (de -56 millions à -33,9 millions d’années). On pensait qu’ils avaient totalement disparu du continent après la transition Éocène-Oligocène. Pourtant, la découverte, en 2012, de spécimens du genre Geiseltaliellus dans le sud de la France a montré qu’ils avaient survécu quelque temps en faible abondance avant de s’éteindre définitivement, probablement à la fin de l’Oligocène, il y a 23 millions d’années.

Autre cas remarquable : le gastéropode du genre Calyptraphorus. Longtemps considéré comme disparu à la fin de l’Éocène, il a refait surface au Pliocène (de -5,3 millions à -2,6 millions d’années) dans des gisements des Philippines (Asie du Sud-Est), prolongeant son existence fossile d’environ 30 millions d’années ! Cette longévité cachée suggère qu’il aurait survécu discrètement dans des zones refuges du Pacifique tropical.

La redécouverte d’espèces vivantes appartenant à des groupes que l’on pensait éteints constitue une expression rare et spectaculaire de l’effet Lazare. Parmi les exemples les plus emblématiques on peut par exemple citer, le cœlacanthe, véritable icône de l’effet Lazare. Ce poisson, que l’on croyait éteint depuis 66 millions d’années, a été redécouvert vivant en 1938 au large de l’Afrique du Sud (Afrique australe).

Un autre cas remarquable est celui de Laonastes, un petit rongeur découvert en 2005 au Laos, en Asie du Sud-Est, sur les étals d’un marché local de viande sauvage. Au départ, les chercheurs pensaient avoir affaire à une nouvelle famille de rongeurs, qu’ils ont appelée Laonastidæ.

Le kanyou (Laonastes aenigmamus) est un rongeur découvert au Laos dans la province de Khammouane. Décrit en 2005 il est le seul représentant vivant de la famille de Diatomyidæ ; famille que l’on pensait disparue depuis plus de 11 millions d’années
Le kanyou ou khan-you (Laonastes aenigmamus) est un rongeur découvert au Laos, dans la province de Khammouane. Décrit en 2005, il est le seul représentant vivant de la famille des Diatomyidæ ; famille que l’on pensait disparue depuis plus de 11 millions d’années. Jean-Pierre Hugot, CC BY

Cette classification reposait sur des analyses génétiques basées sur un nombre limité de gènes et sur la comparaison de sa morphologie avec celle d’espèces actuelles. Mais un véritable bouleversement scientifique est survenu lorsque les scientifiques ont intégré des fossiles dans leurs analyses morphologiques. En comparant en détail le crâne, la mandibule, les dents et le squelette de Laonastes avec des rongeurs fossiles et actuels, ils ont découvert qu’il appartenait en réalité à la famille des Diatomyidæ, que l’on croyait éteinte depuis plus de 11 millions d’années.

Ces analyses ont également révélé que les plus proches parents actuels de cette famille sont les goundis Ctenodactylus gundi. Des études génétiques plus poussées sur les espèces actuelles ont ensuite confirmé ce lien de parenté entre Laonastes et les goundis, et révélé que ces deux lignées auraient divergé il y a environ 44 millions d’années. Laonastes représente donc un exemple frappant de taxon Lazare.

Pourquoi ces découvertes sont-elles si importantes ?

Les taxons Lazare sont ainsi bien plus que des curiosités de la nature. Ils offrent aux scientifiques des clés uniques pour comprendre l’évolution du vivant, la résilience des espèces face aux crises et surtout les limites du registre fossile.

En phylogénie, leur réapparition peut modifier notre compréhension des liens de parenté entre les espèces, des dates de divergence et d’extinction ou encore de la vitesse d’évolution morphologique.

En paléontologie, ils rappellent à quel point le registre fossile est biaisé et incomplet, et combien il faut être prudent avant de déclarer une espèce « disparue ».

Enfin, les taxons Lazare montrent que la vie ne disparaît pas toujours là où on le croit. Parfois, elle se retire simplement dans l’ombre pour ressurgir des millions d’années plus tard, comme un témoin silencieux de la longue histoire de l’évolution.

Parce que dans les usages de nomenclature biologique, seuls les noms de rangs générique et infra-générique (genre, espèce, sous-espèce) se composent en italique, tandis que les noms de familles et au-dessus (famille, sous-famille, ordre, etc.) se composent en romain. Ainsi, Laonastidæ a parfois été perçu comme un nom de genre par confusion et mis en italique à tort, alors que Diatomyidæ est un nom de famille correctement laissé en romain.

The Conversation

Violaine Nicolas Colin a reçu des financements de l'ANR.

PDF

03.12.2025 à 16:52

Mal-être au champ : pourquoi les agriculteurs sont-ils plus à risque de suicide ?

Virginie Le Bris Fontier, enseignante chercheuse en sociologie, Université Bretagne Sud (UBS)

Les pressions économiques jouent un rôle, tout comme le manque d’accès aux soins et une certaine construction masculine du métier qui valorisent le fait de ne pas appeler à l’aide.
Texte intégral (2266 mots)

Les agriculteurs, en particulier les hommes de moins de 64 ans, sont beaucoup plus à risque de suicide que la population générale. Comment expliquer ce phénomène ? Les raisons sont multiples : aucune, à elle seule, n’explique tout. Les pressions économiques jouent un rôle, tout comme le manque d’accès aux soins de santé mentale et une certaine construction du métier au masculin, qui rend encore plus compliqué le fait d’appeler à l’aide.


Derrière les images bucoliques, la réalité du monde agricole reste souvent rude, et parfois tragique. En France, un agriculteur se suicide tous les deux jours. En 2016, 529 exploitants affiliés à la Mutualité sociale agricole (MSA, le régime de protection sociale des agriculteurs) ont mis fin à leurs jours, un chiffre que les spécialistes considèrent comme sous-évalué.

Pourquoi ces hommes et ces femmes, qui nourrissent la société, sont-ils et elles si vulnérables face au risque de suicide ? Les difficultés économiques jouent un rôle, mais n’expliquent pas, à elles seules, un phénomène aussi massif et durable dans le temps : en 2015, la MSA dénombrait 604 suicides parmi ses bénéficiaires, tandis Santé publique France dénombrait près de 300 suicides entre 2010 et 2011.

Dans tous les cas, les agriculteurs âgés de 15 ans à 64 ans ont environ 46 % plus de risques de se suicider que les autres catégories socioprofessionnelles, selon le rapport 2025 de la MSA. Le suicide agricole révèle donc des mécanismes sociaux profonds.

Le suicide agricole, un fait social

Depuis Émile Durkheim (1897), le suicide est compris comme un fait social. Il ne dépend pas seulement de la psychologie individuelle, mais aussi de l’intégration et de la cohésion sociale.

Autrefois concentrés dans les villes, les suicides touchent désormais le monde rural, fragilisé par les transformations du travail agricole, la solitude et l’insuffisance des formes actuelles de solidarités.

Le rapport 2026 de la MSA montre que ce sont les non-salariés agricoles (par exemple, les chefs d’exploitation) qui présentent le surrisque de suicide le plus élevé. Ce surrisque, d’environ 56,7 %, est supérieur à la fois à celui des salariés agricoles (40 %) et à celui de la population générale.

Il touche plus particulièrement les hommes entre 45 ans et 54 ans et les plus de 65 ans, avec des disparités régionales marquées. Les taux de suicide supérieurs à la moyenne nationale se concentrent particulièrement dans les territoires ruraux et semi-ruraux de la France. La MSA identifie plusieurs territoires particulièrement à risque, dont la Bretagne et plus largement l’Armorique, la Dordogne et le Lot-et-Garonne, le Poitou, la Mayenne, l’Orne et la Sarthe, le Limousin, ainsi que les Charentes.

Les facteurs de risque incluent l’âge, le sexe (les hommes étant près de trois fois plus exposés que les femmes), les maladies psychiatriques et un antécédent de tentative de suicide dans les cinq années précédant le passage à l’acte.

Le suicide agricole est donc un symptôme de souffrance d’origine sociale. Le suicide agricole doit être compris non seulement comme une souffrance individuelle, mais aussi comme un phénomène façonné par des facteurs collectifs et structurels. Les régularités observées dans l’exposition au surrisque (âge, sexe, lieu de résidence, secteur d’activité, etc.) montrent qu’il s’agit d’un fait social, dont les causes sont avant tout sociales et contextuelles.

Facteurs de risque de suicide chez les agriculteurs âgés de 15 ans à 64 ans. Rapport charges et produits MSA 2025

Elle ne peut être soulagée uniquement par une aide psychologique. L’analyse des parcours de soins montre qu’un profil majoritaire, qui représente plus des trois quarts des suicides, correspond à des personnes ayant peu recours aux soins dans l’année précédant leur décès. Si les territoires ruraux apparaissent davantage exposés selon la grille de densité de l’Insee, les statistiques révèlent ici qu’il n’existe aucun lien direct entre l’accessibilité aux soins primaires et le suicide.

Ainsi, le surrisque observé dans les zones rurales ne semble pas lié à la densité ou à l’accès aux soins, mais renvoie plutôt à d’autres déterminants sociaux. Agir sur les conditions qui produisent la souffrance est indispensable.


À lire aussi : Pourquoi tant de suicides chez les agriculteurs ?


Une conjonction de causes qui augmente le risque suicidaire

Réduire le suicide des agriculteurs à la crise économique serait une erreur. Crises du lait, de la vache folle ou hausse des coûts peuvent déclencher des passages à l’acte, mais ne constituent pas des causes uniques. Le sociologue Nicolas Deffontaines a montré que chaque situation combine des facteurs économiques, sociaux, symboliques et biographiques.

Chaque parcours est singulier. Certains vivent l’effondrement économique comme une perte d’identité. D’autres subissent la pression familiale ou le regard du voisinage. Les transformations du métier, la dépendance aux marchés mondiaux, la bureaucratisation et la précarisation bouleversent profondément les équilibres de vie. Le suicide agricole n’est pas conjoncturel : c’est un phénomène structurel, révélateur d’un système en mutation et d’une identité professionnelle en souffrance.

Entre 2018 et 2021, la Bretagne a expérimenté un dispositif de reconversion pour les agriculteurs en difficulté. Les témoignages des reconvertis mettent en lumière que perdre son activité, c’est perdre une expertise, un rôle social et un sens à sa vie quotidienne. La reconversion implique une recomposition identitaire difficile, comparable à un deuil : deuil d’une histoire, d’un statut, d’une vocation, parfois même d’un projet de vie. C’est une question que j’explore dans un article à paraître en décembre 2025 dans la revue Paysans et Société, 2025/6, n° 414.


À lire aussi : Ce que la crise agricole révèle des contradictions entre objectifs socio-écologiques et compétitivité


Un métier encore souvent construit au masculin

Le monde agricole reste profondément marqué par une construction genrée du métier. L’homme producteur, fort et silencieux, symbolise le « bon agriculteur ». Courage physique, endurance et dévouement total à l’exploitation définissent ce modèle.

Il relève de la masculinité hégémonique au sens de Raewyn Connell, qui valorise force, maîtrise de soi et distance face à la souffrance. La division sexuée du travail et la transmission patrimoniale renforcent cette identité masculine.

Ces représentations influencent directement la santé mentale des agriculteurs : demander de l’aide, se reposer ou reconnaître sa détresse peuvent être perçus comme une faiblesse ou une atteinte à l’honneur professionnel. La valorisation de l’autonomie, héritée de l’indépendance paysanne, peut ainsi conduire à un déni de vulnérabilité. Les normes de genre produisent une exposition différenciée à la souffrance et au risque suicidaire. Comprendre cette dimension genrée est essentiel pour toute politique de prévention.

Le suicide agricole est donc multifactoriel et ne se comprend qu’en articulant les dimensions économiques, sociales, culturelles et genrées du métier. Il révèle moins des fragilités individuelles que les tensions d’un système professionnel et symbolique en crise.


À lire aussi : Crise agricole : quels défis pour demain ?


Comment prévenir le mal-être agricole ?

Les politiques de prévention actuelles reposent sur plusieurs axes :

  • la sensibilisation et la formation des agriculteurs et des professionnels pour détecter la détresse ;

  • l’accès à l’aide psychologique, via des lignes d’écoute (Agri’écoute, numéro de téléphone unique à disposition es assurés MSA en grande détresse, joignable 24 heures sur 24, sept jours sur sept), des consultations et des accompagnements spécifiques ;

  • la prévention collective, avec réseaux d’entraide, groupes de parole et soutien local pour réduire l’isolement.

Le programme de Prévention du mal-être agricole (PMEA) de la MSA vise à structurer et coordonner ces actions. Il intervient dès les premiers signes de difficulté et mobilise acteurs agricoles, partenaires institutionnels et professionnels de santé.

Les « sentinelles », bénévoles ou professionnels de proximité issus du monde rural, jouent un rôle crucial dans le dispositif. Ce sont eux qui repèrent les signes de détresse, écoutent et orientent les agriculteurs vers les bonnes structures. Leur proximité avec le terrain permet d’intervenir avant la rupture. Cette approche humaine, fondée sur la solidarité et ancrée dans le territoire, constitue un pilier de la santé mentale en milieu agricole.

Mais pour que ces actions soient pleinement efficaces, il est essentiel de prendre en compte les expériences (dont les difficultés) vécues par ces sentinelles, qui ne doivent pas nécessairement être des actifs du secteur agricole. Il peut également s’agir de retraités agricoles ou d’autres acteurs ruraux non agricoles, par exemple maires et secrétaires de commune, ambulanciers, vétérinaires, etc. Il faut ainsi répondre à leur besoin de formation et de soutien. Entre 2023 et 2024, le nombre de sentinelles a augmenté de 29 %.

Une telle approche systémique, organisée autour d’un véritable écosystème de prévention du mal-être agricole (réunissant un réseau d’acteurs de proximité, de professionnels de santé, d’institutions et politiques publiques), constitue une piste majeure pour construire une stratégie de santé mentale en milieu agricole, capable de répondre aux vulnérabilités individuelles tout en agissant sur les facteurs sociaux et collectifs.


À lire aussi : Comprendre le malaise des agriculteurs


The Conversation

Virginie Le Bris Fontier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.12.2025 à 15:58

La transition agroécologique peut-elle vraiment justifier le soutien politique à la méthanisation ?

Renaud Metereau, Socio-Economie Ecologique , Université Paris Cité

La méthanisation peut-elle vraiment contribuer à la fois à la transition énergétique et à la transition agroécologique ?
Texte intégral (2462 mots)
La biométhanisation est souvent présentée comme une solution gagnante à la fois pour la transition énergétique et pour l’agroécologie. Mais est-ce vraiment le cas ? CC BY-NC-SA

La méthanisation agricole se développe en France portée par deux promesses politiques : celle de contribuer à la transition énergétique en produisant du biométhane, d’une part, et celle de participer à la transition agroécologique en faisant évoluer les systèmes agricoles, d’autre part. Mais cette seconde promesse peut-elle vraiment être tenue ?


Le projet en date de programmation pluriannuelle de l’énergie (PPE 3) formule, comme les précédentes, pour la méthanisation un double objectif : promouvoir de concert la transition énergétique et la transition agroécologique.

Pour l’heure, ces promesses servent à justifier une dépense publique d’un milliard d’euros par an pour le rachat du biométhane produit. Sans elle, la filière ne se développerait pas de la même manière, ni quantitativement, ni qualitativement. Les objectifs de production énergétique du projet de PPE sont à la fois très ambitieux (multipliés par quatre entre 2023 et 2030, jusqu’à sept d’ici 2035, selon les scénarios), et annoncés compatibles avec l’agroécologie – voire comme un levier en faveur de son développement.

L’argument d’une convergence entre méthanisation et agroécologie est notamment fondé sur la réduction attendue des pertes d’azote permise par sa meilleure maîtrise et le développement de cultures intermédiaires à vocation énergétique (Cive) s’intercalant entre deux cultures d’hiver (on parle de « Cive d’été », typiquement du maïs) ou juste avant une culture d’été (Cive couvrant le sol en hiver, typiquement un seigle récolté en vert).

Cette allégation agroécologique d’ensemble a pourtant de quoi surprendre, car le développement de la biométahisation a tous les attributs d’une agriculture industrielle.

Face à ces visions contradictoires, nous nous proposons d’évaluer la manière dont cette promesse est remplie. Nous continuons une discussion déjà engagée ici, en adoptant une perspective agroécologique plus large.


À lire aussi : La méthanisation est-elle vraiment un levier pour l’agroécologie ?


L’agroécologie, un changement systémique

Revenons d’abord sur le terme « agroécologie », largement repris et transformé dans différents espaces politiques.

Face aux multiples réappropriations, rappelons qu’elle désigne à la fois :

Cette notion a donc une histoire fondée sur des développements scientifiques. Depuis les années 1980, ces derniers insistent sur son caractère systémique. Il ne s’agit pas seulement de promouvoir une agriculture plus vertueuse selon un critère donné, par exemple la seule réalisation d’économies en énergie ou fertilisants.

L’enjeu est de penser l’agroécosystème comme un ensemble intégré, en s’appuyant sur l’analyse et la compréhension de ses propriétés et de ses fonctionnalités pour concevoir des systèmes productifs réellement soutenables des points de vue écologique et social.

Dans les discours qui promeuvent la méthanisation, trois grands éléments sont présentés comme des leviers de transition agroécologique :

  • les économies en fertilisants azotés achetés qui sont permises par l’usage de digestats, coproduits du processus de méthanisation riches en azote ;

  • la diversification des cultures via l’introduction de Cive ;

  • et l’autonomie renforcée des agriculteur pratiquant la méthanisation, sans que cette autonomie soit précisée, nous y reviendrons.

Ces trois points relèvent en effet d’une démarche agroécologique dans leur acception générique. Ils font toutefois ici l’objet d’une requalification qui en altère fondamentalement la signification.

Des économies d’azote en trompe-l’œil

Commençons par les économies d’engrais azotés souvent mises en avant, procédant de l’épandage des digestats. Il faut d’abord considérer que la méthanisation agricole ne crée pas d’azote ex nihilo. Dans les digestats, celui-ci provient très majoritairement en amont des engrais de synthèse, des déjections animales et, marginalement, des légumineuses.

Ces « économies » d’engrais azotés pour fertiliser les cultures en aval du processus de méthanisation relèvent donc d’un transfert d’azote entre une exploitation tierce et l’unité de méthanisation, via la biomasse contenant de l’azote « incorporé ».


À lire aussi : Comment l’agriculture industrielle bouleverse le cycle de l’azote et compromet l’habitabilité de la terre


Lorsque la source d’azote du digestat est d’origine végétale, cela veut dire qu’on a introduit sur le territoire des cultures spécifiques (les Cive), ce qui signifie une intensification de la production de biomasse puisqu’on produit deux fois plus sur la même surface. Dans ce cas, ce qui est économisé en aval sur le plan économique provient en fait d’une intensification de la production agricole en amont.

Enfin, lorsque la méthanisation est fondée sur la valorisation des déjections animales, la logique est en principe plus propice à une circularité des flux. Pour autant, les contraintes de collecte et de stockage à une échelle suffisante pour alimenter une unité de méthanisation ne sont majoritairement pas compatibles avec des modalités d’élevage agroécologique.

Une diversification sans intérêt écologique

Par ailleurs, la diversification promise via l’introduction des Cive concerne des cultures à rotation courte (seigle, avoine, méteil, maïs).

Pour autant, ces cultures – souvent du maïs – n’ont pas nécessairement d’intérêt écologique fort en elles-mêmes. C’est d’autant moins si elles sont irriguées et fertilisées, comme c’est souvent le cas.

Le risque est que les objectifs de production énergétique affichés ne conduisent à la multiplication et à l’agrandissement des unités de méthanisation, qui vont en retour augmenter la demande de Cive.

Sur ce point, la requalification consiste à passer d’un principe agroécologique de maximisation de la biodiversité et de préservation des services rendus par les écosystèmes, à une simple diversification des cultures intensives.

Une autonomie illusoire

Quant à l’autonomie telle qu’elle est entendue ici, elle découle du complément de revenu par l’agrométhaniseur (voire d’un glissement vers un revenu principal tiré pour les « énergiculteurs ») permis par des tarifs de rachat globalement avantageux. Le raisonnement étant qu’un agrométhaniseur doté d’un revenu plus élevé peut plus facilement mettre en œuvre des pratiques agroécologiques que s’il a le couteau sous la gorge.

Mais le revenu issu de la méthanisation n’induit pas en lui-même l’adoption de systèmes agroécologiques et cet objectif pourrait être mieux atteint par un meilleur ciblage des aides. Le milliard d’euros par an pour le tarif de rachat est à comparer à environ 170 millions d’euros annuels pour l’ensemble des mesures agri-environnementales de la PAC, notoirement sous-dotées.

« L’autonomie » financière tirée de la méthanisation a tout autant de chances de pousser à une maximisation de la production énergétique sous forte contrainte technico-économique pour rembourser les investissements : davantage de maïs irrigué, de déjections concentrées dans des bâtiments. Au risque de renforcer la pression sur les agroécosystèmes et produire des effets opposés à l’autonomie technique et décisionnelle qui est celle de l’agroécologie.

Finalement, l’agrométhaniseur se retrouve dépendant, tout comme l’agriculteur conventionnel, de prestataires techniques et financiers. Son approvisionnement en biomasse devient crucial et induit une pression sur l’ensemble des filières territoriales, qui deviendra critique en cas de rareté les mauvaises années

De nombreux angles morts

La promesse agroécologique de la méthanisation reste toutefois muette sur des points pourtant cruciaux : les paysages, la biodiversité, la sobriété absolue en intrants ; c’est-à-dire, le fait de ne plus dépendre d’intrants azotés de synthèse, à ne pas confondre avec une optimisation de leur usage.

Sur un registre plus sociopolitique, l’autonomie paysanne et décisionnelle des agriculteurs et plus largement, la transformation industrielle des modes de développement auxquels la méthanisation participe, ne sont pas pris en compte.

Pourtant : pas d’agroécologie sans écologie du paysage, sans substitution des intrants de synthèse par des solutions fondées sur la nature, sans végétation semi-naturelle et des animaux extensifs jouant un rôle écologique, sans autonomie financière et technologique des paysans, sans remise en cause des rapports socioécologiques de production.


À lire aussi : Au nom du paysage ? Éoliennes, méthaniseurs… pourquoi les projets renouvelables divisent


Ce qui est absent de la politique actuelle de développement de la méthanisation est fondamentalement l’approche holistique qui caractérise pleinement l’agroécologie. Cette dernière ne peut se résumer à un catalogue de pratiques mises en avant, mais à une démarche globale articulant l’autonomie décisionnelle à une autonomie technique fondée sur une sobriété matérielle d’ensemble et un respect des cycles biologiques et biogéochimiques à l’échelle territoriale.


À lire aussi : Comment l’agriculture industrielle bouleverse le cycle de l’azote et compromet l’habitabilité de la terre


Une nécessaire réorientation politique

Est-ce à dire que la méthanisation est incompatible avec l’agroécologie ? En principe, non, et des exemples dans des pays en développement montrent qu’à petite échelle, elle peut pleinement contribuer à un projet agroécologique, lorsqu’elle valorise une fraction réduite de déchets au service d’une véritable autonomie paysanne low-tech.

Mais le passage à l’échelle, tel qu’envisagé en France et porté par le cadre politique d’ensemble, contredit les fondamentaux de l’agroécologie. Ce n’est pas une question de bonnes ou mauvaises pratiques, c’est une question politique de développement d’une filière à grande échelle, qui induit des rapports de production auxquels l’agroécologie, telle qu’elle se déploie historiquement dans les mouvements paysans à travers le monde, veut précisément proposer des alternatives.

S’il doit y avoir une rencontre entre la méthanisation et l’agroécologie, c’est via des projets opportunistes, économes, à petite échelle, qui prennent en compte le fonctionnement de l’ensemble des agroécosystèmes, n’induisant aucune production supplémentaire dédiée et au service d’usages locaux. Faire l’impasse sur la biodiversité, les paysages et la sobriété, c’est hypothéquer l’avenir. Viser beaucoup trop grand, c’est risquer la faillite d’ensemble de l’ensemble de l’agriculture. Continuer la politique du chiffre agrégeant les TWh, c’est sélectionner davantage des exploitations déterritorialisées, qui ne répondent pas aux enjeux socioécologiques auxquels nous devons faire face.

Et à ceux qui considèrent qu’il faudrait alors peut-être sacrifier l’agroécologie à la souveraineté énergétique, nous répondrons qu’il faut commencer par le commencement : la sobriété énergétique, trop souvent marginalisée par les discours de politique de l’offre. La biomasse industrielle est sans doute une chimère à laquelle il est dangereux de s’accrocher, fût-elle autoproclamée « durable ».


Xavier Poux, agronome et consultant pour le cabinet d'études, de conseils et de recherche dans le domaine des politiques environnementales AScA, expert pour l'IDDRI, a co-écrit cet article

The Conversation

Renaud Metereau a reçu des financements de IdEx Université Paris Cité, ANR-18-IDEX- 0001 (Centre des Politiques de la Terre - projet MethaTransferts)

PDF

30.11.2025 à 20:34

Les forêts du Grand-Est au cinéma : un territoire qui s’enracine à l’écran

Delphine Le Nozach, Maître de conférences en Sciences de l'information et de la communication, Université de Lorraine

Violaine Appel, Enseignant-chercheur en sciences de l'information et de la communication, Université de Lorraine, Université de Lorraine

Nombre de réalisateurs choisissent les forêts du Grand-Est pour leur valeur esthétique, leur caractère méconnu ou pour l’attachement personnel qu’ils entretiennent à ces territoires.
Texte intégral (2031 mots)

Le Grand-Est est l’une des régions les plus boisées de France, avec plus de 30 % de sa surface couverte par des forêts. Au cinéma, il offre une forêt multiple : espace de travail, de mémoire, d’émotions et d’imaginaire.


Peu filmées mais profondément singulières, les forêts du Grand-Est deviennent à l’écran des lieux où se croisent réalités industrielles, ancrages identitaires et puissances narratives. À travers elles, les films révèlent autant un territoire qu’une manière sensible de le regarder.

Dans cette étude (issue des résultats du projet Matercine), nous analysons la manière dont les longs métrages tournés dans cette région investissent les forêts, qu’il s’agisse de témoigner des usages liés au travail du bois, de mobiliser des paysages rares et méconnus pour leur force esthétique, ou encore d’exprimer le lien intime qu’entretiennent certains réalisateurs avec ces lieux. L’ensemble de ces approches permet de comprendre comment la forêt du Grand-Est, bien au-delà du simple décor, devient au cinéma un espace identitaire et narratif essentiel.

La dualité des représentations des forêts du Grand-Est au cinéma

Comme dans d’autres régions françaises, les réalisateurs montrent souvent la forêt comme un espace de travail, lié à l’exploitation du bois. Mais ces usages productifs n’épuisent pas les façons de la représenter : nombre de réalisateurs choisissent ces forêts pour leur valeur esthétique, leur caractère méconnu ou pour l’attachement personnel qu’ils entretiennent à ces territoires.

La forêt du Grand-Est est en effet un espace multifonctionnel où s’entremêlent nature, industrie et culture. Elle structure les activités humaines (coupe du bois, schlittage – la schlitte est un traîneau qui servait, dans les Vosges et en Forêt-Noire, à descendre le bois des montagnes, conduit par un homme sur une voie faite de rondins – transport des grumes, sciage, construction et papeterie) qui façonnent l’économie régionale comme l’imaginaire collectif. Le cinéma reprend cette diversité et l’inscrit au cœur de ses récits. Les Grandes Gueules (Enrico, 1965) en offre un exemple emblématique : tourné dans une véritable scierie vosgienne, le film témoigne des pratiques forestières d’une époque – travail du bois, énergie hydraulique, transport traditionnel. Nos patriotes (Le Bomin, 2017) valorise quant à lui un schlittage filmé avec réalisme, rendu possible grâce à l’implication de spécialistes locaux.

Dans le Mangeur d’âmes (Bustillo, Maury, 2024), scierie et grumes deviennent des éléments dramatiques : décor authentique, matière visuelle dense et espace de tension pour les scènes d’action. L’usage industriel du bois apparaît aussi dans le Torrent (Le Ny, 2022), tourné au sein d’une entreprise vosgienne réelle, ou dans le Couperet (Costa-Gavras, 2005), où une papeterie vosgienne accueille l’intrigue, articulant territoire local et discours social universel.

Plus-value culturelle

Au-delà de ces dimensions productives, les forêts du Grand-Est possèdent une singularité paysagère qui attire des réalisateurs en quête de décors rares. Elles offrent des espaces peu filmés, marqués par des reliefs, des lacs glaciaires, des espaces boisés denses, qui constituent des territoires non substituables. Filmer ces forêts revient alors à révéler un paysage méconnu, à donner à voir un territoire encore invisibilisé. Cette démarche confère une valeur ajoutée au film, mais aussi au lieu : comme l’énonce la géographe Maria Gravari-Barbas, le regard cinématographique peut créer une plus-value culturelle pour des sites auparavant invisibles.

Certains cinéastes revendiquent cette volonté de découverte. Anne Le Ny, réalisatrice du film le Torrent (2022), souligne ainsi l’atmosphère unique des Vosges, qui lui a donné le sentiment d’être « pionnière ». Dans Perdrix (2019), Erwan Le Duc filme longuement les forêts et le lac des Corbeaux, affirmant un territoire « de cinéma » encore peu exploré.

« J’ai trouvé qu’il y avait une atmosphère très particulière dans les Vosges. D’abord, je suis tombée sur des décors magnifiques qui collaient très bien au scénario avec un mystère particulier et puis le plaisir aussi de tourner dans une région qui n’a pas tellement été filmée. On se sent un petit peu pionnière et c’est très excitant. » (Anne Le Ny, interviewée par Sarah Coton, Fun Radio, novembre 2022)

Cette proximité peut être encore plus intime. De nombreux réalisateurs tournent dans des lieux qu’ils connaissent, où ils ont grandi ou qu’ils associent à leur histoire personnelle. Leur rapport au territoire relève ainsi d’un territoire vécu, chargé de mémoire, d’expériences et de relations sociales. La forêt devient alors le support d’une identité, un espace où se superposent réalité et fiction. C’est le cas d’Erwan Le Duc dans Perdrix (2019) ou de Valérie Donzelli pour Main dans la main (2011), qui revendiquent leur attachement aux paysages lorrains de leur enfance.

La forêt, un territoire d’ombres…

Entre clair-obscur, sous-bois inquiétants et clairières lumineuses, les forêts du Grand-Est permettent aux réalisateurs de traduire aussi bien la peur, le mystère ou la clandestinité que la sérénité, l’éveil ou l’accomplissement. Par leur capacité à refléter les états intérieurs des personnages, ces forêts deviennent de véritables outils esthétiques et narratifs, révélant la singularité du territoire.

Une première tonalité, sombre et dramatique, irrigue le cinéma fantastique, policier, de guerre ou d’horreur. La forêt y apparaît comme un espace d’isolement et de menace, qui mêle naturalisme et surnaturel : silhouettes mouvantes, bruits étouffés, climat hostile, jeux d’ombres. Cette atmosphère immersive renforce la tension psychologique, les peurs profondes et le sentiment d’incertitude. La Région accompagne cette dimension à travers le label « Frissons en Grand-Est », premier fonds consacré aux films de genre, soutenu par le Centre national du cinéma et de l'image animée (CNC) et structuré autour de festivals phares, tels que ceux de Gérardmer, de Strasbourg, ou encore Reims Polar et War on Screen. Cette dynamique contribue à positionner le Grand-Est comme terre de frissons, où les paysages forestiers deviennent les complices naturels d’une esthétique noire.

La forêt s’expose dans les récits de guerre, en particulier autour de la thématique de la clandestinité. Lieu de refuge pour les maquisards, elle abrite déplacements secrets, identités dissimulées et tensions de la survie. Dans Nos patriotes (Le Bomin, 2017), la Place d’une autre (Georges, 2021) ou encore Nos résistances (Cogitore, 2011), les réalisateurs choisissent les Vosges ou l’Alsace afin d’ancrer leurs récits dans un territoire historique réel, renforçant le réalisme des actions clandestines. Ces forêts incarnent alors autant une protection qu’une transformation intime, où les personnages quittent leur vie civile pour entrer dans une existence parallèle faite de solidarité et de résistance.

La criminalité trouve aussi dans ces espaces naturels un terrain narratif fertile. Qu’il s’agisse d’un crime intime, comme dans le Torrent (Le Ny, 2022), d’une tension familiale violente, comme dans la Fin du silence (Erzard, 2011), ou d’une atmosphère de légende sombre et de disparitions inexpliquées, comme dans le Mangeur d’âmes (Bustillo, Maury, 2024), la forêt agit comme un personnage à part entière : elle dissimule, révèle, dérègle, structure. Ses reliefs, son climat, son obscurité ou son immensité renforcent la dramaturgie et nourrissent une topographie émotionnelle du secret, du mensonge ou de la menace.

Enfin, la forêt du Grand-Est au cinéma apparaît comme un refuge temporaire et fragile, offrant aux personnages un espace isolé pour se protéger et se reposer. Dans Survivre avec les loups (Belmont, 2007), elle joue ce rôle de protection, tandis que dans Baise-moi (Despentes, 2000), la forêt finale symbolise un havre éphémère pour les deux protagonistes, un moment de calme et de sérénité avant la tragédie, où même la mort semble suspendue par la nature.

… et de lumières

Ces forêts se déploient également comme des espaces lumineux, poétiques et pacifiés. Dans la Dormeuse Duval (Sanchez, 2017), Main dans la main (Donzelli, 2012) ou la Bonne Épouse (Provost, 2020), elles deviennent des territoires d’apaisement, des lieux de beauté et de contemplation qui contrastent avec l’agitation urbaine. Elles éveillent les sens – comme dans les Parfums (Magne, 2019), où la forêt alsacienne est appréhendée par l’olfaction – et accompagnent des récits d’apprentissage, d’amitié ou d’amour. La forêt y assume alors des fonctions symboliques complémentaires : le départ (fuite du quotidien), le passage (transformation, éveil du désir, émancipation) et l’arrivée (réconciliation, apaisement, accomplissement).

Le départ se manifeste comme un besoin de fuir le quotidien ou la contrainte sociale : dans Leurs enfants après eux (signé des frères Boukherma, 2024), les adolescents quittent la grisaille ouvrière pour s’échapper dans les bois, tandis que dans Tous les soleils (Claudel, 2011), le héros rejoint un refuge forestier pour se libérer des pressions familiales et retrouver un peu de silence.

Le passage correspond à l’expérience de transformation et d’émancipation : dans Petite Nature (Theis, 2021), Johnny traverse la forêt pour se rapprocher du monde adulte et s’affirmer, et dans Mon chat et moi… (Maidatchevsky, 2023), Rroû retrouve son instinct et sa liberté en explorant les sous-bois.

Enfin, l’arrivée symbolise l’accomplissement et l’apaisement : dans Perdrix (Le Duc, 2019), Pierre et Juliette atteignent la rive du lac après leurs aventures forestières, exprimant leur amour en toute liberté, et dans Jules et Jim (Truffaut, 1962), les balades en forêt incarnent des instants de joie et de plénitude avant la tragédie. À travers ces récits, la forêt se révèle un espace initiatique, miroir des émotions et catalyseur de la transformation intérieure.

Ainsi les forêts du Grand-Est se révèlent-t-elles un espace filmique pluriel. Elles traversent les récits en incarnant une territorialité cinématographique, où les liens entre les personnages et leur environnement façonnent la narration. À travers elles, le territoire se donne à voir et à ressentir, agissant comme un lieu d’émotions et de symboles, capable d’exprimer les ombres comme les lumières. Cette polysémie participe à la force cinématographique du Grand-Est, dont la richesse narrative repose précisément sur cette capacité à conjuguer frisson, mémoire, liberté et poésie, révélant un territoire à la fois concret et sensible.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

30.11.2025 à 09:38

Peut-on rendre la forêt « nourricière » ? La proposition du jardin-forêt

Jacques Tassin, Chercheur en écologie forestière (HDR), spécialiste des rapports Homme / Nature, Cirad

Michon Geneviève, Institut de recherche pour le développement (IRD)

Caractérisées par leur diversité, leur transformabilité et leur résilience, les forêts comestibles se proposent comme un contre-modèle à la logique agricole dominante.
Texte intégral (2270 mots)

Issu des régions tropicales, le jardin-forêt est un modèle d’agroforesterie qui séduit de plus en plus en Europe pour prendre le contrepied d’un modèle agricole à bout de souffle. Il semble peu envisageable qu’il se substitue à l’agriculture productiviste dominante, mais il ouvre des pistes inspirantes pour promouvoir des pratiques plus respectueuses du vivant.


Les analyses se multiplient aujourd'hui pour dénoncer les externalités négatives (pollution, changement climatique, crise de la biodiversité…) induites par le paradigme économique actuel. Le modèle agricole dominant, en particulier, est pointé du doigt.

En effet, les systèmes agroalimentaires dominants s'avèrent coûteux à bien des égards. Ils substituent à des processus naturels répondant à des fonctions écologiques précieuses des intrants à fort impact environnemental (engrais par exemple), ils uniformisent les modes de culture, ils mettent à disposition du consommateur une alimentation d'une qualité nutritive questionnable, et enfin ils dévitalisent les tissus sociaux ruraux.

À rebours de cette logique productiviste, d'autres formes d'agriculture, parfois très anciennes, suscitent dès lors un regain d'intérêt. C'est le cas du modèle jardin-forêt, qui se développe peu à peu en Europe. Il est une transposition géographique en milieux tempérés de l'agroforesterie des tropiques humides, notamment indonésiennes.

Là-bas, l'agriculture vivrière et une partie de l'agriculture commerciale des petits planteurs sont conduites en pérennisant le modèle forestier traditionnel – fruits, légumes, noix, tubercules, plantes médicinales, matériaux, bois de feu ou de construction y sont produits au sein d'écosystèmes arborés multi-étagés, diversifiés et denses.

Structurés autour des arbres et de leur diversité, les jardins-forêts partagent avec les forêts naturelles des caractéristiques de robustesse, de résilience et de productivité. Multipliant les externalités positives (c'est-à-dire, des effets positifs tant d'ordre écologiques qu'économiques), ce modèle millénaire nourricier représente une voie inspirante qui vaudrait d'être davantage connue et considérée sous nos latitudes.

Il est fondé sur la polyvalence des forêts. Les jardins-forêts montrent que les arbres et les systèmes forestiers, dont les capacités de production, de régulation, de facilitation et de symbiose sont mésestimées, peuvent être bien plus productifs que nous le croyons.


À lire aussi : Pour des forêts à croissance rapide, favorisez les arbres à croissance lente


Des « forêts comestibles » aux antipodes des monocultures

Aussi surnommés « forêts comestibles », les jardins-forêts se caractérisent par une forte densité d'arbres, d'arbustes, mais aussi de lianes et d'herbacées, tous de lumière et d'ombre, et tous d'intérêt alimentaire.

Clairière potagère dans un jardin-forêt à vocation domestique. Fabrice Desjours, Fourni par l'auteur

Ils sont donc multifonctionnels. En témoignent par exemple :

  • leur productivité à l'hectare,

  • l'agencement spatial de leurs éléments constitutifs,

  • leur composition très diversifiée en termes d'espèces,

  • la richesse des mutualismes entre espèces,

  • Leur performance leur dynamisme et leur robustesse en tant que système de production alimentaire.

Ils sont à l'opposé des monocultures, qui sont spatialement et génétiquement homogènes. Celles-ci sont fondées sur la culture d'une seule variété, et souffrent dès lors une vulnérabilité maximale aux aléas. En jardin-forêt, les invasions d'insectes ravageurs ou les dégâts d'intempéries, pour ne citer que ces exemples, sont réduits en raison d'une importante hétérogénéité structurale et d'une faible exposition aux aléas. Des caractéristiques précieuses dans le contexte de dérèglement climatique.

Dans la forêt comestible de Ketelbroek (Pays-Bas), tout semble pousser de façon chaotique, mais il y a un plan. Sabine Aldenhoff/LZ Rhénanie

Ces systèmes nourriciers sont aujourd'hui une réalité éprouvée, y compris en Europe. Aux Pays-Bas par exemple, des jardins-forêts à vocation agricole affirmée existent depuis quinze ans, financés par la politique agricole commune.


À lire aussi : Incendies, sécheresses, ravageurs : les forêts victimes de la monoculture


Une production agricole à hauteur d'humain

Un autre point fort de cette alternative agricole est son échelle à hauteur humaine. En effet, le jardin-forêt envisage le parcellaire cultivé, dans ses dimensions spatiales comme dans les pratiques dont il fait l'objet, autour de la mesure étalon de la personne qui en prend soin.

Les recours à l'observation et au soin, de même que l'accumulation patiente de connaissances pratiques, y sont largement promus. Ils permettent une réactivité accrue et plus adaptée aux aléas, environnementaux mais aussi économiques.

Le « jardinier-forestier » est dès lors convié à se pencher sur son terrain à différentes échelles : du contrôle de la qualité des tissus mycorhiziens (c'est-à-dire, les champignons agissant en symbiose avec les racines) du sol jusqu'à la surveillance de la complémentarité permanente des strates de végétation.

La diversité ne se joue pas qu'à l'échelle d'une forêt comestible, mais aussi à l'échelle d'un territoire. A l'image du bocage, un réseau de jardins-forêts divers est pourvoyeur de services écosystémiques complets. Ils peuvent également s'insérer dans le tissu agricole et compenser une partie des impacts environnementaux néfastes induits par le modèle agricole dominant.

Un seul espace, des productions multiples

Par essence, le jardin-forêt offre une large diversité alimentaire. Pour rappel, seules 30 à 60 espèces végétales tout au plus assurent la base de notre alimentation occidentale, dont quelques espèces seulement de céréales. Une partie de cette alimentation est importée (avocats, ananas ou bananes), alors que 7 000 espèces alimentaires sont cultivables en climat tempéré, sans renfort technique particulier. Le modèle du jardin-forêt s'avère apte à les valoriser.

Les « forêts comestibles » sont en effet des espaces de multiproduction où sur une même parcelle peuvent se déployer quatre types de produits différents :

  • Les aliments « forestibles » dans lesquels ont peut inclure fruits, noix et graines, ressources tuberculeuses amidonnées ou riches en inuline, légumes, feuilles, feuillages, fleurs, champignons, épices, sirop de sève, viande sauvage ou domestique en cas de petit élevage, ou encore produits de la ruche (miel, pollen, propolis) ;

  • les biomatériaux (bois de construction, bambou, osier, gommes, cires, résines, liants, latex, papier, tinctoriales) ;

  • les ressources médicinales provenant de tous les étages végétaux de la forêt comestible ;

  • et enfin les combustibles (bois énergie, copeaux, fagots).


À lire aussi : Pharma, cosmétique… et si les déchets végétaux aidaient à développer l’économie circulaire ?


Une porte vers d'autres imaginaires

Les jardins-forêts ne se limitent pas à la seule production de biens alimentaires et de services environnementaux. Ils offrent également des ressources immatérielles dont nous avions fini par croire qu'elles ne pouvaient être compatibles avec une agriculture performante.

En effet, ces espaces créent aussi les conditions pour d'autres imaginaires. Ils sont le support d'activités diverses (artisanales, éducatives, thérapeutiques, culturelles) favorables au mieux-être. Ces services immatériels peuvent concourir à transformer les zones rurales en espaces plus désirables et plus habitables, voire à les reterritorialiser. La psychologie atteste en outre des bienfaits des arbres sur le bien-être humain.

En France, les jardins-forêts recouvrent environ 2 000 hectares. Peu connus du grand public, des institutions et des pouvoirs publics, ils se heurtent à une vision encore archaïque de la forêt, vue comme aux antipodes de la civilisation, et à une réticence à valoriser des ressources alimentaires parfois rattachées dans les imaginaires aux périodes de famine.

Il leur est également reproché d'inviter à un relâchement des pratiques conventionnelles de contrôle du vivant habituellement exercées en agriculture (taille, fertilisation, contrôle direct des ravageurs…), auxquelles est ici préférée, pour des raisons de durabilité et d'efficience économique, une philosophie de l'accompagnement et de l'amplification des processus écologiques naturels.

S'ils n'ont pas vocation à supplanter les autres systèmes agricoles en place, ils ont toutefois le potentiel de redynamiser et resocialiser les campagnes. De quoi développer de nouvelles activités rurales exigeantes mais porteuses de sens et pourvoyeuses de bien-être. C'est précisément là une demande sociale et une exigence environnementale de plus en plus pressantes.


Fondateur de l’association Forêt gourmande, Fabrice Desjours a contribué à la rédaction de cet article.

The Conversation

Michon Geneviève a reçu des financements de ANR, UE.

Jacques Tassin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

27.11.2025 à 17:07

« Dévendeurs » contre commerçants : comment sortir du dilemme des politiques de soutien à l’économie circulaire ?

Amal Jrad, Chercheuse, Université de Strasbourg

Karine Bouvier, Chercheuse, Université de Strasbourg

Comment les politiques publiques peuvent dépasser le dilemme entre soutien à la transition vers l’économie circulaire et aux intérêts commerçants ?
Texte intégral (2037 mots)

Malgré le succès grandissant du Black Friday, qui se tient ce vendredi 28 novembre et qui vient renforcer la surconsommation à travers des promotions généralisées, les modes de consommation changent peu à peu à l’aune des enjeux écologiques. Mais les politiques publiques peinent souvent à trouver l’équilibre entre soutien à l’économie circulaire et protection des intérêts commerciaux traditionnels. Comment sortir de ce dilemme ?


En novembre 2023, à la veille du Black Friday, l’Agence de la transition écologique (Ademe) lançait une campagne de communication introduisant le concept de « dévendeur ». Concrètement, plusieurs vidéos mettaient en scène un vendeur qui encourageaient un client en quête de conseils sur le modèle à acquérir, à plutôt réparer son bien au lieu d’acheter un nouveau produit neuf.

Dévendeur ponceuse, Ademe/Havas, 15 novembre 2023.

Sur les réseaux sociaux, l’initiative a déclenché une vive polémique et a divisé autant les professionnels que le gouvernement. Au-delà de la controverse, cette situation illustre un défi majeur de notre époque : comment concilier la transition vers l’économie circulaire avec les intérêts économiques traditionnels ?

Pour trouver des réponses, l’Observatoire des futurs de l’EM Strasboug (Université de Strasbourg) a réalisé une étude sur la thématique industrie et économie circulaire à l’horizon 2035. Cette étude s’appuie sur des ateliers participatifs réunissant chercheurs, praticiens et acteurs institutionnels tels qu’Eurométropole, l’Ademe, Initiatives durables, et Grand Est Développement). Nous en livrons quelques résultats.


À lire aussi : Sobriété versus surconsommation : pourquoi les « dévendeurs » de l’Ademe sont polémiques


Un dilemme au cœur des politiques publiques

À l’échelle européenne, l’engagement pour l’économie circulaire s’est considérablement renforcé depuis le lancement du Pacte vert en 2019. Cette volonté s’est traduite par des plans d’action successifs, notamment en mars 2020, ciblant des secteurs spécifiques comme le textile, les plastiques et la construction. La Commission européenne a également proposé en 2022 des mesures pour accélérer cette transition, avec un accent particulier mis sur la durabilité des produits et la responsabilisation des consommateurs.

En France, cette dynamique européenne s’est accompagnée d’initiatives nationales ambitieuses. La loi anti-gaspillage pour une économie circulaire (dite loi Agec) adoptée en 2020 promeut en particulier l’économie de la fonctionnalité et du service via le réemploi et la réparation. Selon une étude de l’Institut national de l’économie circulaire (Inec) et d’Opeo publiée en 2021, 81 % des industriels français interrogés perçoivent l’économie circulaire comme une opportunité.

Pour plus de 85 % d’entre eux, elle permettrait non seulement de développer de nouveaux marchés et de réaliser des économies, mais aussi de relever les défis environnementaux actuels. Cependant, ces orientations se heurtent à un modèle économique encore largement basé sur la vente en volume.


À lire aussi : Consommation sobre : un défi culturel autant qu'économique


Des consommateurs de plus en plus conscients

L’évolution des comportements d’achat témoigne d’ailleurs d’une prise de conscience croissante chez les consommateurs. Les convictions personnelles liées à l’éthique et l’environnement pèsent de plus en plus sur les choix individuels et les consommateurs privilégient désormais le « Made in France » et les produits issus de l’économie circulaire.

Une enquête menée en France par OpinionWay en 2024 montrait ainsi que 42 % des personnes interrogées se disaient prêtes à dépenser plus d’argent pour avoir des produits vestimentaires plus respectueux de l’environnement et socialement responsables.

D’après une étude d’Ipsos, deux vacanciers européens sur trois se déclaraient prêts à modifier leur mode de transport durant l’été 2023 pour réduire leur impact carbone.


À lire aussi : Surconsommation de vêtements : pourquoi la garde-robe des Français déborde


Un soutien public en quête d’équilibre

Face à ces évolutions, les politiques publiques tentent de trouver un équilibre délicat. L’Union européenne (UE) déploie des financements importants pour soutenir cette transition. Le programme Horizon Europe (2021-2027) offre ainsi un budget de 95,5 milliards d’euros, dont une partie significative est destinée à la recherche et l’innovation en économie circulaire.

Toutefois, ces mécanismes de financement européens souffrent de plusieurs lacunes que nous avons identifiées à partir des entretiens d’experts réalisés dans le cadre de l’étude :

  • une communication limitée autour des programmes,
  • un soutien insuffisant aux entreprises déjà engagées dans la circularité,
  • et des budgets parfois davantage orientés vers les études que vers l’accompagnement concret des transformations.

Au niveau national, de nombreuses mesures ont été mises en place, parmi lesquelles :

  • le fonds d’économie circulaire de l’Ademe, renouvelé annuellement,
  • les programmes d’investissement d’avenir successifs, dont le dernier (PIA 5) dispose d’un budget de 54 milliards d’euros,
  • ou le plan France 2030, qui a déjà engagé 21 milliards d’euros avec plus de 1 000 projets répondant à l’objectif « mieux produire ».

Ces dispositifs ne parviennent toutefois pas toujours à répondre aux besoins de l’ensemble des acteurs. Les petites entreprises, en particulier, peinent souvent à accéder aux informations et aux financements, alors même qu’elles sont en général plus avancées dans leurs pratiques circulaires.

C’est plutôt au niveau local qu’émergent les solutions innovantes les plus prometteuses : l’Eurométropole de Strasbourg, par exemple, déploie des actions concrètes : création de réseaux d’acteurs autour de l’économie circulaire, soutien aux structures d’insertion dans le domaine du recyclage, développement de l’écologie industrielle territoriale et promotion du réemploi dans le secteur du bâtiment et travaux publics (BTP).

Ces initiatives montrent qu’il est possible de créer des synergies entre différents acteurs économiques autour de l’économie circulaire.


À lire aussi : Économie circulaire : les consommateurs, acteurs oubliés de la réglementation européenne


Quatre futurs possibles pour réinventer le commerce

Mais la controverse des « dévendeurs » a révélé un besoin plus profond de repenser nos modèles économiques. Comment les politiques de soutien pourraient-elles évoluer face à ce dilemme entre promotion de la sobriété et maintien de l’activité commerciale ? Quatre scénarios se dessinent à l’horizon 2035, chacun proposant une approche différente de création de valeur.

  • Dans un premier scénario, les politiques de soutien resteraient ambivalentes, tentant de satisfaire à la fois les commerçants traditionnels et les acteurs de l’économie circulaire. Cette approche conduirait à des mesures parfois contradictoires : d’un côté, des subventions pour la modernisation des commerces, de l’autre, des campagnes promouvant la sobriété. Les grandes enseignes s’adapteraient en créant des « coins réparation », mais sans remise en cause fondamentale de leur modèle. Les petits commerces, pris entre deux logiques, peineraient à trouver leur place. Le risque est d’aboutir à un soutien fragmenté et inefficace.

  • Le deuxième scénario miserait sur l’innovation pour réconcilier vente et durabilité. Les commerces deviendraient des « hubs circulaires » où la technologie (IA, blockchain) optimiserait la réparation et la revente. Le métier de vendeur évoluerait vers un rôle de « conseiller en usage durable », proposant la solution la plus pertinente : réparation, achat neuf ou reconditionné. Un modèle prometteur, mais qui risque d’exclure les petits commerces faute de moyens d’investissement.

  • Dans une troisième configuration, les politiques se territorialiseraient fortement, avec des aides adaptées aux besoins locaux. Les commerces deviendraient des lieux hybrides de vente, réparation et échange. L’économie de la fonctionnalité s’y développerait naturellement, privilégiant l’usage plutôt que la propriété. Les « dévendeurs » s’intégreraient dans ce maillage territorial, même si cette approche pourrait créer des disparités entre régions.

  • Face à l’urgence climatique, le dernier scénario verrait l’État imposer une transformation radicale et un tantinet autoritaire. Des quotas de réparation et de réemploi seraient imposés aux commerces. La fonction de « dévendeur » deviendrait obligatoire dans les grandes surfaces. Parmi les mesures concrètes, l’Institut national de l’économie circulaire propose déjà une TVA à 5,5 % sur les opérations de réparation et des taux réduits pour les produits reconditionnés et écoconçus.

Dépasser l’opposition entre vendeurs et « dévendeurs »

La résolution du dilemme entre « dévendeurs » et commerçants passera sans doute par une combinaison de ces approches. Les politiques de soutien devront préserver la viabilité économique du commerce tout en accélérant la transition vers la sobriété. Ce qui implique la création de nouveaux métiers autour de la réparation et du réemploi, l’innovation dans les services plutôt que dans la production de biens, un accompagnement fort des pouvoirs publics et une transformation de notre rapport à la consommation.

En définitive, l’enjeu n’est plus tant d’opposer commerce traditionnel et économie circulaire que de réinventer nos modes de production et de consommation. Le concept de « dévendeur » n’est peut-être qu’une première étape vers cette nécessaire mutation de notre économie, qui requiert des politiques de soutien plus inclusives, capables d’accompagner tous les acteurs dans cette transition.


L’article s’appuie sur des entretiens réalisés avec Christophe Barel (chef de projet senior à l’Ademe, le 30 janvier 2024) ; Carmen Colle (entrepreneuse dans le secteur du textile et militante pour un entrepreneuriat responsable, social et solidaire, 14 décembre 2024) ; Pia Imbs (présidente de l’Eurométropole de Strasbourg, 19 décembre 2024) ; Anne Sander (députée européenne, questeur du Parlement européen, 9 février 2024) et Maryline Wilhelm (conseillère déléguée à l’économie circulaire, sociale et solidaire, Ville de Schiltigheim, 19 janvier 2024).

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

27.11.2025 à 17:06

La dinde, histoire d’une domestication

Aurélie Manin, Chargée de recherche en Archéologie, Archéozoologie et Paléogénomique, Centre national de la recherche scientifique (CNRS)

Le dindon est élevé dans le monde entier, mais nos connaissances sur ses interactions à long terme avec les sociétés humaines restent éparses.
Texte intégral (2581 mots)

La dinde constitue un mets de choix sur les tables des fêtes d’Europe et d’Amérique du Nord, que ce soit pour Thanksgiving ou Noël. Son origine et les péripéties qui l’ont menée jusque dans nos cuisines sont toutefois peu connues du grand public.


La période des festivités de fin d’année semble tout indiquée pour revenir sur l’histoire naturelle et culturelle de cet oiseau de basse-cour, qui a fait l’objet d’un ouvrage collectif sorti en juin 2025 aux éditions scientifiques du Muséum national d’histoire naturelle.

La dinde ou le dindon commun, selon que l’on parle de la femelle ou du mâle, appartiennent à l’espèce Meleagris gallopavo que l’on retrouve encore à l’état sauvage sur l’essentiel du territoire des États-Unis, dans le sud du Canada et le nord du Mexique. Les sociétés américaines ont longtemps interagi avec ces oiseaux, essentiellement à travers la chasse. Le plus ancien kit de tatouage retrouvé en contexte archéologique, au Tennessee (États-Unis), daté d’entre 3500 et 1500 ans avant notre ère, était constitué d’os de dindon appointés. Mais ce n’est ni dans cette région ni à cette époque que la domestication du dindon a commencé, c’est-à-dire que le dindon et les humains sont entrés dans une relation de proximité mutualiste conduisant aux oiseaux de basse-cour que l’on connaît aujourd’hui [figure 1].

Figure 1 : Dindon commun sauvage (gauche, photographie de Franck Schulenburg) et domestique (droite, photographie de Wee Hong). CC BY-SA

Une première domestication en Amérique centrale

Jusqu’au début de notre ère, les indices archéologiques d’un rapprochement entre dindons et humains sont, de fait, ténus. C’est en Amérique centrale, au Guatemala, que l’on retrouve la plus ancienne preuve de la gestion et de la manipulation des dindons. Dans cette région tropicale, on ne trouve pas de dindon commun sauvage mais son proche cousin, le dindon ocellé [figure 2]. Or sur le site d’El Mirador, quelques os de dindon commun ont été retrouvés, datés entre 300 avant notre ère et le tout début de notre ère – une identification confirmée par la génétique.

L’analyse des isotopes du strontium contenus dans ces os, spécifiques de l’environnement dans lequel un animal a vécu, ont quant à eux montré que les oiseaux avaient été élevés dans l’environnement local. Il s’agit de la trace la plus ancienne de translocation de l’espèce, son déplacement dans une région dans laquelle elle ne vivrait pas naturellement. Or un tel déplacement, sur des milliers de kilomètres et vers un environnement très différent, nécessite une connaissance fine du dindon et de ses besoins ainsi que des compétences zootechniques certaines. C’est donc l’aboutissement de plusieurs générations d’interactions et de rapprochement dans la région où le dindon commun se trouve naturellement, probablement sur la côte du golfe du Mexique ou dans le centre du Mexique, près de l’actuelle ville de Mexico. Au fil du temps, le nombre de restes de dindon augmente dans les sites archéologiques jusqu’à l’arrivée des Européens au XVIe siècle.

Figure 2 : Dindon ocellé sauvage (photographie Bruno Girin). CC BY-SA

Dans le sud-ouest des États-Unis, à la convergence de l’Utah, du Colorado, du Nouveau-Mexique et de l’Arizona, on sait que les dindons étaient déjà présents il y a environ 10 000 ans, au début de la période holocène mais ils sont particulièrement rares dans les sites archéologiques.

Ce n’est qu’entre le début et 200 de notre ère qu’on voit leurs ossements apparaître régulièrement dans les sites archéologiques, bien qu’en faible proportion. Les traces les plus abondantes de leur présence sont leurs crottes (que l’on appelle coprolithes une fois fossilisées, dans le registre archéologique) retrouvées en particulier dans des structures en briques de terre crue complétées de branches qui servaient probablement à maintenir les dindons en captivité.

Des oiseaux convoités pour leurs plumes

Ces oiseaux appartiennent à une lignée génétique différente de celle des dindons sauvages locaux et l’analyse des isotopes du carbone contenu dans leurs os indique qu’ils ont consommé de grandes quantités de maïs. Ce sont donc des oiseaux captifs, certainement domestiques, mais on retrouve rarement leurs os dans ce que les archéologues étudient le plus, les poubelles des maisons. Ils n’auraient donc pas été mangés, ou assez rarement par rapport aux efforts mis en place pour les garder sur les sites. Les plumes d’oiseaux étaient néanmoins importantes pour ces populations et on retrouve notamment des fragments de plumes de dindon incluses dans le tissage d’une couverture en fibre en yucca. Une seule couverture aurait nécessité plus de 11 000 plumes, soit cinq à dix oiseaux selon la taille des plumes sélectionnées. Les oiseaux maintenus en captivité auraient ainsi pu être plumés régulièrement pour fournir cette matière première.

Au fil du temps, l’usage de dindons domestiques s’étend entre cette région du sud-ouest des États-Unis, le Mexique et l’Amérique centrale, mais les dindons sauvages restent bien présents dans l’environnement. Dans l’est des États-Unis, en revanche, si les restes osseux de dindons peuvent être abondants sur les sites archéologiques, il s’agit d’oiseaux sauvages chassés. C’est une mosaïque d’usage du dindon que les Européens ont ainsi rencontré à leur arrivée sur le continent américain [figure 3].

Figure 3 : Illustration du voyage de JacquesLe Moyne (1562-1565), qui accompagnait l’expédition de Laudonnière en Floride. Des dindons sont figurés sur la droite.

Poules d’Inde

C’est lors du quatrième voyage de Christophe Colomb en Amérique, alors qu’il explore les côtes de l’actuel Honduras, que l’on trouve ce qui peut être la première rencontre entre des Européens et des dindons, en 1502. On ne sait pas exactement comment leur réputation atteint l’Europe, probablement à travers les premières villes européennes construites dans les Antilles, mais en 1511 une lettre est envoyée par la couronne d’Espagne au trésorier en chef des Indes (les Antilles) demandant à ce que chaque bateau revenant vers la péninsule rapporte des « poules d’Inde » (d’où la contraction « dinde » apparue au XVIIe siècle en français), mâle et femelle, en vue de leur élevage.

En 1520, l’évêque d’Hispaniola (île englobant aujourd’hui Haïti et la République dominicaine) offre à Lorenzo Pucci, cardinal à Rome, un couple de dindons.

L’ouvrage publié au Muséum national d’histoire naturelle montre la multiplication des témoignages de la présence du dindon dans l’entourage de l’aristocratie européenne au cours du XVIe siècle. En France, en 1534, on trouve des dindons à Alençon, en Normandie, dans le château de Marguerite d’Angoulême, sœur de François Ier et reine de Navarre.

C’est aussi en 1534 qu’une amusante histoire se déroule en Estonie, où l’évêque de Tartu envoie un dindon en présent au duc Glinski – dindon qu’il avait précédemment reçu d’Allemagne. Mais l’oiseau exotique se répand aussi progressivement dans les basses-cours et sa consommation se généralise.

Entre le XVIe et le XVIIe siècle, il accompagne de nombreuses missions maritimes commerciales, atteignant même le Japon et revenant en Amérique – depuis l’Europe – dans les établissements coloniaux. Il semble toutefois être longtemps resté réservé aux repas de fêtes, et ce n’est qu’au cours du XXe siècle, avec l’essor de l’industrie agroalimentaire et la sélection de races de plus en plus lourdes, que sa viande entre dans la production de nombreux produits transformés. Finalement, l’animal complet, rôti et dressé sur une table à l’occasion de Thanksgiving ou de Noël, conserve la trace de cette longue histoire.

À l’abri du besoin, Norman Rockwell, 1941. « Notre cuisinière l’a faite rôtir, je l’ai peinte, puis nous l’avons mangée. C’est l’une des seules fois où j’aie jamais mangé le modèle. », déclara le peintre avec humour. Wikimedia
The Conversation

Aurélie Manin a reçu des financements des Actions Marie Sklodowska-Curie pour réaliser ce travail.

PDF

27.11.2025 à 11:51

Le climat est-il vraiment seul responsable de l’augmentation du degré d’alcool des vins ?

Léo Mariani, Anthropologue, Maître de conférence Habilité à diriger des recherches, Muséum national d’histoire naturelle (MNHN)

Le changement climatique favorise des vendanges plus précoces, des raisins plus sucrés et des vins donc plus alcoolisés. Il vient en réalité amplifier un modèle plus ancien.
Texte intégral (3408 mots)

La précocité des vendanges que l’on observe depuis quelques années a été favorisée par le changement climatique. Mais la hausse du degré d’alcool dans les vins est aussi le fruit d’une longue tradition qui emprunte à l’histoire, au contexte social et aux progrès techniques, et qui a façonné la définition moderne des appellations d’origine protégée. Autrement dit, le réchauffement du climat et celui des vins, entraîné par lui, ne font qu’exacerber un phénomène ancien. C’est l’occasion d’interroger tout un modèle vitivinicole.


Dans l’actualité du changement climatique, la vitiviniculture a beaucoup occupé les médias à l’été 2025. En Alsace, les vendanges ont débuté un 19 août. Ce record local traduit une tendance de fond : avec le réchauffement des températures, la maturité des raisins est plus précoce et leur sucrosité plus importante. Cela a pour effet de bouleverser les calendriers et d’augmenter le taux d’alcool des vins.

La précocité n’est pas un mal en soi. Le millésime 2025 a pu être ainsi qualifié de « très joli » et de « vraiment apte à la garde » par le président d’une association de viticulteurs alsaciens. Ce qui est problématique en revanche, c’est l’augmentation du degré d’alcool : elle est néfaste pour la santé et contredit l’orientation actuelle du marché, plutôt demandeur de vins légers et fruités. Autrement dit, le public réclame des vins « à boire » et non « à garder », alors que la hausse des températures favorise plutôt les seconds.

Il faudrait préciser pourtant que l’augmentation des niveaux d’alcool dans les vins n’est pas nouvelle. Elle est même décorrélée du changement climatique :

« Les vins se sont réchauffés bien avant le climat »,

me souffle un jour un ami vigneron. Autrement dit, l’augmentation du degré d’alcool dans les vins a suivi un mouvement tendanciel plus profond au cours de l’histoire, dont on va voir qu’il traduit une certaine façon de définir la « qualité du vin ».

Se pose donc la question de savoir qui a « réchauffé » qui le premier ? Le climat en portant à maturité des grappes de raisins plus sucrées ? ou le savoir-faire des viticulteurs, qui a favorisé des vins plus propices à la conservation – et donc plus alcoolisés ? Postulons que le climat ne fait aujourd’hui qu’exacerber un problème qu’il n’a pas créé le premier. En lui faisant porter seul la responsabilité de la hausse de l’alcool dans les vins, on s’empêche de bien définir ce problème.

De plus, on inverse alors le sens des responsabilités : la vitiviniculture, en tant qu’activité agricole émettrice de gaz à effet de serre, participe à l’augmentation des températures – et cela bien avant que le changement climatique ne l’affecte en retour.


À lire aussi : Vin et changement climatique, 8 000 ans d’adaptation


Quand la définition des AOP fait grimper les degrés

Disons-le sans détour, l’instauration des appellations d’origine protégée AOP constitue un moment objectif de la hausse des taux d’alcool dans les vins. Dans certaines appellations du sud-est de la France, où j’ai enquêté, elle est parfois associée à des écarts vertigineux de deux degrés en trois à dix ans.

Il faut dire que les cahiers des charges des AOP comportent un « titre alcoométrique volumique naturel minimum » plus élevé que celui des autres vins : l’alcool est perçu comme un témoin de qualité.

Mais il n’est que le résultat visible d’une organisation beaucoup plus générale : si les AOP « réchauffent » les vins, souvent d’ailleurs bien au-delà des minima imposés par les AOP, c’est parce qu’elles promeuvent un ensemble de pratiques agronomiques et techniques qui font augmenter mécaniquement les niveaux d’alcool.

C’est ce paradigme, qui est associé à l’idée de « vin de garde », dont nous allons expliciter l’origine.

Les « vins de garde » se généralisent sous l’influence de l’État, de la bourgeoisie et de l’industrie

Contrairement à une idée répandue, le modèle incarné par les AOP n’est pas représentatif de l’histoire vitivinicole française en général.

Napoléon III, en voulant développer le commerce du vin avec l’Angleterre, a favorisé l’émergence du standard des vins de garde. Jean Hippolyte Flandrin

Les « vins de garde » n’ont rien d’un canon immuable. Longtemps, la conservation des vins n’a intéressé que certaines élites. C’est l’alignement progressif, en France, des intérêts de l’une d’elles en particulier, la bourgeoisie bordelaise du XIXe siècle, de ceux de l’État et de ceux de l’industrie chimique et pharmaceutique, qui est à l’origine de la vitiviniculture dont nous héritons aujourd’hui.

L’histoire se précipite au milieu du XIXe siècle : Napoléon III signe alors un traité de libre-échange avec l’Angleterre, grande consommatrice de vins, et veut en rationaliser la production. Dans la foulée, son gouvernement sollicite deux scientifiques.

Au premier, Jules Guyot, il commande une enquête sur l’état de la viticulture dans le pays. Au second, Louis Pasteur, il confie un objectif œnologique, car l’exportation intensive de vins ne demande pas seulement que l’on gère plus efficacement la production. Elle exige aussi une plus grande maîtrise de la conservation, qui offre encore trop peu de garanties à l’époque. Pasteur répondra en inventant la pasteurisation, une méthode qui n’a jamais convaincu en œnologie.


À lire aussi : Louis Pasteur : l’empreinte toujours d’actualité d’un révolutionnaire en blouse


Sur le principe, la pasteurisation anticipe toutefois les grandes évolutions techniques du domaine, en particulier le développement du dioxyde de soufre liquide par l’industrie chimique et pharmaceutique de la fin du XIXe siècle. Le dioxyde de soufre (SO2) est un puissant conservateur, un antiseptique et un stabilisant.

Carte des principaux crus de la région bordelaise. DemonDeLuxe/WikiCommons, CC BY-SA

Il va permettre un bond en avant dans la rationalisation de l’industrie et de l’économie du vin au XXe siècle (les fameux sulfites ajoutés pour faciliter la conservation), au côté d’autres innovations techniques, comme le développement des levures chimiques. En cela, il va être aidé par la bourgeoisie française, notamment bordelaise, qui investit alors dans la vigne pour asseoir sa légitimité. C’est ce groupe social qui va le plus bénéficier de la situation, tout en contribuant à la définir. Désormais, le vin peut être stocké.

Cela facilite le développement d’une économie capitaliste rationnelle, incarnée par le modèle des « vins de garde » et des AOP ainsi que par celui des AOC et des « crus ».

Ce qu’il faut pour faire un vin de garde

Bien sûr ce n’est pas, en soi, le fait de pouvoir garder les vins plus longtemps qui a fait augmenter les taux d’alcool. Mais l’horizon esthétique que cette capacité a dessiné.

Un vin qui se garde, c’est en effet un vin qui contient plus de tanins, car ceux-ci facilitent l’épreuve du temps. Or pour obtenir plus de tanins, il faut reculer les vendanges et donc augmenter les niveaux d’alcool, qui participent d’ailleurs aussi à une meilleure conservation.

Les vins de garde sont vieillis en fûts de chêne, ce qui a contribué à en façonner le profil aromatique. Mark Stebnicki/Pexels, CC BY

Ensuite, la garde d’un vin dépend du contenant dans lequel il est élevé. En l’espèce, c’est le chêne, un bois tanique qui a été généralisé (déterminant jusqu’à la plantation des forêts françaises). Il donne aujourd’hui les arômes de vanille aux vins de consommation courante et le « toasté » plus raffiné de leurs cousins haut de gamme.

La garde d’un vin dépend également des choix d’encépagement. En l’espèce, les considérations relatives à la qualité des tanins et/ou à la couleur des jus de raisin ont souvent prévalu sur la prise en compte de la phénologie des cépages (c’est-à-dire, les dates clés où surviennent les événements périodiques du cycle de vie de la vigne).

Grappes de raisin de variété syrah. Hahn Family Wines/WIki Commons, CC BY

Ceci a pu favoriser des techniques de sélection mal adaptées aux conditions climatiques et des variétés qui produisent trop d’alcool lorsqu’elles sont plantées hors de leur région d’origine, par exemple la syrah dans les Côtes du Rhône septentrionales.

En effet, la vigne de syrah résiste très bien à la chaleur et les raisins produisent une très belle couleur, raison pour laquelle ils ont été plantés dans le sud. Mais le résultat est de plus en plus sucré, tanique et coloré : la syrah peut alors écraser les autres cépages dans l’assemblage des côtes-du-rhône.

On pourrait évoquer enfin, et parmi beaucoup d’autres pratiques techniques, les vendanges « en vert », qui consiste à éclaircir la vigne pour éviter une maturation partielle du raisin et s’assurer que la vigne ait davantage d’énergie pour achever celle des grappes restant sur pied. Ceci permet d’augmenter la concentration en arômes (et la finesse des vins de garde), mais aussi celle du sucre dans les raisins (et donc d’alcool dans le produit final).

C’est tout un monde qui s’est donc organisé pour produire des vins de garde, des vins charpentés et taillés pour durer qui ne peuvent donc pas être légers et fruités, comme semblent pourtant le demander les consommateurs contemporains.

« Sans sulfites », un nouveau modèle de vins « à boire »

Ce monde, qui tend à réchauffer les vins et le climat en même temps, n’est pas représentatif de l’histoire vitivinicole française dans son ensemble. Il résulte de la généralisation d’un certain type de rapport économique et esthétique aux vins et à l’environnement.

C’est ce monde dans son entier que le réchauffement climatique devrait donc questionner lorsqu’il oblige, comme aujourd’hui, à ramasser les raisins de plus en plus tôt… Plutôt que l’un ou l’autre de ces aspects seulement.

Comme pistes de réflexion en ce sens, je propose de puiser l’inspiration dans l’univers émergent des vins « sans soufre » (ou sans sulfites) : des vins qui, n’étant plus faits pour être conservés, contiennent moins d’alcool. Ces vins sont de surcroît associés à beaucoup d’inventivité technique tout en étant écologiquement moins délétères, notamment parce qu’ils mobilisent une infrastructure technique bien plus modeste et qu’ils insufflent un esprit d’adaptation plus que de surenchère.

Leur autre atout majeur est de reprendre le fil d’une vitiviniculture populaire que l’histoire moderne a invisibilisée. Ils ne constitueront toutefois pas une nouvelle panacée, mais au moins une piste pour reconnaître et valoriser les vitivinicultures passées et présentes, dans toute leur diversité.


Ce texte a fait l’objet d’une première présentation lors d’un colloque organisé en novembre 2025 par l’Initiative alimentation de Sorbonne Université.

The Conversation

Léo Mariani ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

26.11.2025 à 16:30

Réduire l’usage des pesticides : quand les agriculteurs s’inspirent de leurs pairs

Rose Deperrois, Doctorante en économie, Inrae; Université Grenoble Alpes (UGA)

Adélaïde Fadhuile, Enseignant-Chercheur, Université Grenoble Alpes

Julie Subervie, Economiste de l'environnement

Quand les injonctions perçues comme « venant d’en haut » ont souvent une efficacité limitée, l’inspiration des pairs mérite, elle, d’être développée.
Texte intégral (1771 mots)

S’inspirer de ses semblables et changer ainsi ses habitudes, c’est quelque chose qui s’observe souvent pour tout type de comportement. C’est aussi un levier d’action non négligeable pour réduire les pesticides, quand les injonctions perçues comme « venant d’en haut » font parfois freiner des quatre fers les premiers concernés.


Qu’il s’agisse de se mettre au vélo pour aller travailler, d’arrêter de fumer ou bien de découvrir un nouveau genre musical, nos vies sont ponctuées de changements inspirés par ceux qui nous entourent. Nos habitudes se transforment rarement seules : elles se propagent, s’imitent, s’apprennent. C’est aussi le cas pour les agriculteurs, qui s’inspirent des expériences de leurs proches pour faire évoluer leurs propres pratiques. Ce processus de diffusion des connaissances et d’influence au sein de réseaux de pairs est désigné par le concept d’apprentissage social.

Prendre en compte ces effets de pairs dans la conception de politiques publiques agricoles offre une piste prometteuse pour la promotion de pratiques économes en pesticides, dont les effets néfastes sur la santé et l’environnement ont été largement documentés par la communauté scientifique.

Plusieurs études se sont déjà penchées sur l’importance de l’apprentissage social dans l’évolution des comportements, et notamment des changements de pratiques des agriculteurs. Les économistes Benyishay et Mobarak montrent ainsi que les agriculteurs sont plus susceptibles d’adopter une nouvelle technologie agricole si celle-ci leur est présentée et expliquée par d’autres agriculteurs qui leur ressemblent.

Cette transmission entre pairs est prometteuse au vu de la difficulté à faire changer les pratiques des agriculteurs. Les programmes agro-environnementaux fondés sur des subventions individuelles censées rémunérer l’effort environnemental des exploitants sont souvent perçus comme des normes arbitraires imposées d’en haut par des acteurs déconnectés des enjeux agricoles réels, et se soldent en effet régulièrement par des échecs.

C’est particulièrement vrai pour les pratiques économes en pesticides, qui cristallisent les tensions entre modèle productiviste et modèle durable, rendant leur adoption complexe à généraliser.

Dans ce contexte, notre travail s’est donc interrogé sur la capacité de l’apprentissage social à générer un bénéfice environnemental. Et s’il était un levier efficace pour diminuer l’usage des pesticides ? C’est ce que nous avons pu démontrer, sur la base d’une étude de cas d’un programme agro-environnemental d’un genre nouveau, fondé sur un réseau d’agriculteurs volontaires : le programme DEPHY.

DEPHY, laboratoire d’un changement de modèle

Cette initiative a été lancée en 2010 au sein du plan Écophyto, un dispositif affichant l’objectif ambitieux d’une réduction de 50 % de l’usage des pesticides avant 2018. Le programme Démonstration, Expérimentation et Production de références sur les systèmes économes en PHYtosanitaires (DEPHY) est un réseau de 3 000 exploitations agricoles engagées dans une démarche volontaire de réduction des pesticides. Celles-ci ont pu bénéficier d’une assistance technique gratuite et de conseillers spécialisés pour repenser leurs utilisations de pesticides. Le but ? Proposer des trajectoires concrètes de changements de pratiques, issues de l’expérience des agriculteurs.

DEPHY permet ainsi d’expérimenter, sur plusieurs années, une combinaison de pratiques alternatives, telles qu’une amélioration des rotations des cultures afin de perturber le cycle des ravageurs, l’optimisation de la densité des semis et l’espacement des rangs pour favoriser la bonne santé des plantes, la production de différentes variétés de cultures pour réduire la pression des maladies, mais aussi la sélection de variétés à maturité précoce.

D’autres techniques sont explorées, comme le remplacement des pesticides par des outils mécaniques ou encore l’usage des méthodes de biocontrôle qui placent les mécanismes naturels et les interactions entre espèces comme instruments phares de la protection des cultures.

Le programme repose également sur le partage de connaissances produites par les expérimentations des fermes DEPHY. Lors d’une journée de démonstration, la ferme engagée dans le programme DEPHY accueille d’autres agriculteurs qui peuvent ensuite tester chez eux les méthodes qu’ils ont découvertes lors de leur visite. Au fil du temps, la pratique peut ainsi se répandre dans tout le secteur : c’est l’effet domino du bouche-à-oreille agricole.

Impacts du programme

Si les actions mises en place n’ont pas permis, pour l’instant, la diminution de moitié qui était visée, les résultats de ce programme démontrent néanmoins une certaine efficacité, avec une baisse de 18 % à 38 % de l’usage des pesticides dans les exploitations participantes entre la période précédant l’implantation de DEPHY et la moyenne 2018-2020.

En France, dix cultures concentrent 90 % des usages de pesticides. Notre étude a choisi de se focaliser sur la filière « grandes cultures, polyculture, élevage », qui a vu l’usage de pesticides baisser de 26 % en moyenne au sein des agriculteurs DEPHY. Cette filière représente approximativement 67 % de l’usage des pesticides en France, elle est donc particulièrement stratégique pour examiner la réduction des pesticides au niveau français.

Dans ce contexte, nous avons ainsi tâché d’évaluer les retombées de ce programme en distinguant ses effets chez les agriculteurs directement impliqués et ceux constatés chez les observateurs actifs. Nous avons ainsi voulu répondre à une question cruciale : comment généraliser les pratiques économes en pesticides au-delà du cercle restreint d’agriculteurs DEPHY ?

Les « agriculteurs observateurs » qui ont pu se rendre à des journées de démonstration étaient environ trois fois plus nombreux que les participants.

Résultat du programme DEPHY ou motivation initiale ?

On pourrait cependant rétorquer que les agriculteurs qui ont participé à DEPHY, ou bien qui sont allés observer ce programme étaient tous volontaires : ils étaient donc sans doute déjà intéressés par l’agroécologie et auraient peut-être modifié leurs pratiques de toute manière. Dans ce cas, les performances observées au sein du réseau refléteraient moins l’efficacité du dispositif lui-même que le profil particulier de ses participants.

Afin d’éviter ce biais, nous avons construit des groupes d’exploitations comparables en tous points – taille, type de production, contexte géographique et économique – ne différant que par la proportion de fermes engagées, directement ou indirectement, dans le programme.

L’analyse statistique de ces groupes, fondée sur les enquêtes du Ministère en charge de l’agriculture et de l’alimentation conduites entre 2006 et 2021, montre que les baisses observées dans l’usage des pesticides ne peuvent être attribuées aux seules caractéristiques initiales des agriculteurs, mais traduisent un effet réel de diffusion des pratiques agroécologiques.

Changer les pratiques, une visite à la fois

Au final, les résultats de notre étude mettent en avant l’impact de l’apprentissage social. Ce dernier, qui se manifeste ici par une baisse de l’usage des pesticides chez les agriculteurs observateurs après leur visite dans des exploitations DEPHY, est quantifiable : une augmentation de 1 % de la proportion d’observateurs dans un groupe d’exploitations agricoles réduit ainsi l’usage moyen de pesticides de ce groupe de 0,05 % à 0,07 % entre la période pré-programme (2006-2011) et la période post-programme (2017-2021). En extrapolant, cela signifierait que doubler la proportion d’observateurs (une augmentation de 100 %) dans un groupe reviendrait à réduire de 5 % à 7 % l’usage moyen de pesticides dans ce groupe, simplement en organisant plus de visites.

Avec de tels résultats, le programme DEPHY présente un rapport coûts-bénéfices particulièrement intéressant pour réduire l’usage des pesticides. Augmenter les visites des exploitations participantes au programme DEPHY semble prometteur au vu de la force des résultats obtenus : un coût supplémentaire minime pour une réduction conséquente de l’usage des pesticides. L’apprentissage social apparaît ainsi comme un levier efficace, que les pouvoirs publics gagneraient certainement à déployer plus largement afin d’accompagner un changement plus global de notre modèle agricole.


Solal Courtois-Thobois et Laurent Garnier ont participé à la rédaction de cet article.

_Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Rose Deperrois a reçu un financement de thèse de l'Office Français de la Biodiversité (OFB).

Adélaïde Fadhuile a reçu un financement de l'ANR pour le projet FAST - Faciliter l'Action publique pour Sortir des pesTicides (référence 20-PCPA-0005) et IDEX UGA (référence 15-IDEX-0002).

Julie Subervie a reçu un financement de l'Agence Nationale de la Recherche pour le projet FAST - Faciliter l'Action publique pour Sortir des pesTicides (référence 20-PCPA-0005).

PDF

26.11.2025 à 11:26

Les champignons d’Ötzi, l’homme des glaces du Néolithique

Hubert Voiry, Mycologue, Muséum national d’histoire naturelle (MNHN)

Pourquoi le célèbre homme du Néolithique avait-il dans sa besace des polypores du bouleau et des amadous ? À quoi lui servaient donc ces champignons ?
Texte intégral (1974 mots)
Amadouvier, polypore du bouleau et Ötzi (représentation du musée d’archéologie du Sud-Tyrol, Balzano, en Italie). CC BY

On l’oublie trop souvent mais les champignons ont accompagné l’histoire de l’humanité : médecine, géopolitique, psychologie, architecture, gastronomie, ils s’invitent dans de nombreux champs de nos vie depuis le Néolithique.

Dans cet extrait de son ouvrage Dix champignons qui ont changé la vie des hommes (éditions Actes Sud, 2025), le mycologue Hubert Voiry nous parle des deux champignons retrouvés par les archéologues dans la besace d’Ötzi, l’homme préhistorique découvert fortuitement en 1991 à 3 200 mètres d’altitude, dans les Alpes italiennes. Il tâche de comprendre pourquoi cet homme avait, avec lui des amadous et des polypores du bouleau.


Ötzi portait un petit sac en cuir rempli de matière noire. Dans ce sac, il y avait aussi trois outils en silex et un os en forme de poinçon. Au début, on a pensé que la matière noire était de la résine et que ce sac était une sorte de « kit » de réparation d’outils. Or, la substance, une fois séchée, a montré une teinte virant au brun. L’examen microscopique de cet objet a révélé qu’il s’agissait de la chair d’un champignon, l’amadouvier (Fomes fomentarius). Cette chair brune que l’on trouve sous la croûte (la face supérieure) du champignon avait été travaillée manuellement pour obtenir un produit de consistance fibreuse que l’on appelle l’amadou. Mélangées à cette matière, on a détecté aussi des traces de pyrite. Silex, pyrite et amadou ainsi réunis permettent d’allumer le feu et de le conserver.

Ce n’est pas le témoignage le plus ancien de l’usage de l’amadou pour le feu. Celui-ci a en effet été retrouvé en grande quantité associé à des nodules de pyrite sur le site archéologique de Star Carr en Angleterre qui date de près de 10 000 ans. On a fait les mêmes observations dans les fouilles archéologiques de Maglemose au Danemark, site qui remonte à 8 000 ans. Il existe aussi des témoignages plus récents datant de l’âge du bronze en Suisse, dans les sites préhistoriques d’anciens villages lacustres. L’amadou a donc la propriété de produire et de transporter le feu. Contrairement à une idée reçue, les humains de cette époque ne frappaient pas deux silex l’un contre l’autre pour allumer un feu, car les étincelles résultant de leur percussion sont trop éphémères pour enflammer un combustible. Ils avaient recours essentiellement à deux techniques : celle de la friction avec du bois et celle de la percussion, vraisemblablement utilisée par Ötzi. Dans la première, on dispose un morceau de bois à la verticale d’un autre placé au sol. On frotte le morceau de bois sur l’autre en lui donnant un mouvement de rotation avec les mains. Cela produit de la sciure échauffée qui va donner quelques braises. Ensuite, il faudra les mettre en contact avec des brindilles sèches. Ce procédé n’a pas laissé de traces archéologiques. L’autre méthode consiste à utiliser, comme Ötzi, pyrite, silex et amadou. La percussion d’un morceau de disulfure de fer (pyrite ou marcassite) contre une roche dure comme le silex produit des étincelles. L’amadou au contact de l’étincelle est capable de s’embraser facilement du fait de sa structure fibreuse, et le feu peut couver longtemps, ce qui facilite son transport. Il reste à produire des flammes en mettant par exemple en contact l’amadou incandescent avec des herbes très sèches ou des fibres d’écorce.

Pour faciliter l’embrasement, on a perfectionné la technique. L’amadou est débité en tranches fines qui sont amollies à coups de maillet puis qui sont mises à sécher. Au cours des siècles, des traitements au salpêtre ou aux cendres ont été mis au point pour qu’il s’enflamme plus facilement. Le célèbre mycologue Christiaan Hendrik Persoon en donne la description dans son ouvrage Traité sur les champignons comestibles, contenant l’indication des espèces nuisibles paru en 1818. Il précise que les bûcherons des Vosges avaient une technique moins recommandable pour traiter l’amadou : ils enterraient les tranches du “bolet” et les arrosaient pendant un certain temps avec de l’urine.

À partir de l’âge du fer, les morceaux de disulfure sont remplacés par des briquets, petits objets en acier qui au Moyen Âge avaient une forme de crochet aplati. Actuellement, on peut se procurer, dans le commerce, ce type de briquet appelé aussi briquet à silex et ainsi reproduire les gestes de nos ancêtres en frappant l’acier sur un silex aiguisé. On recueille les étincelles avec un morceau d’amadou ou à défaut avec un morceau de coton carbonisé. Les briquets “à amadou” qui apparaissent vers 1840 ne contiennent curieusement pas d’amadou. Le nom a été repris, mais c’est une mèche de coton trempée dans une solution chimique qui joue le rôle de l’amadou.

De nos jours, l’amadou est encore utilisé de façon traditionnelle pour le transport du feu, comme en Autriche lors du Weihfeuertragen, littéralement “le transport de feu consacré”. Le samedi de Pâques, le prêtre catholique réunit les familles de paroissiens autour d’un feu qu’il bénit au cours d’une cérémonie. Ensuite, les enfants récupèrent les braises à l’aide de bidons métalliques et passent dans les maisons du village apporter le feu béni. Pour faciliter le transport, ils ajoutent aux braises des morceaux d’amadou. En plus d’être le polypore le plus efficace pour la fabrication et le transport du feu, grâce à sa chair, l’amadouvier a aussi des vertus médicinales et artisanales, voire spirituelles. Un peuple de l’île d’Hokkaidō au Japon, les Aïnous, procédait, en cas de maladie ou d’épidémie, à un rituel de fumée autour des habitations. Ils faisaient brûler toute la nuit des fructifications de F. fomentarius pour éloigner les démons. Un rite analogue était pratiqué en Sibérie chez les Khantys et en Amérique du Nord dans des tribus amérindiennes.[…]

Le deuxième champignon retrouvé dans les affaires d’Ötzi est le polypore du bouleau, en latin : Fomitopsis betulina. Il se présentait sous forme de deux fragments enfilés sur une lanière de cuir. L’un de forme sphérique et l’autre de forme conique. Le polypore du bouleau, une fois séché, s’enflamme rapidement mais le feu ne couve pas. Ötzi ne l’a pas probablement pas utilisé pour le transport du feu, d’autant qu’il possédait déjà de l’amadou. Quel usage faisait-il donc des morceaux de ce polypore ?

Cette question a naturellement suscité des débats, dont sont ressorties deux grandes hypothèses. La première a été avancée par l’anthropologue italien Luigi Capasso : il suggère que l’Homme des Glaces était conscient de la présence de ses parasites intestinaux et les combattait avec des doses adaptées de Fomitopsis betulina. Ce champignon, qui est comestible – nous en reparlerons plus loin –, était probablement le seul vermifuge disponible à l’époque. L’autre hypothèse est défendue par la biologiste autrichienne Ursula Peintner : elle a fait le rapprochement avec certaines coutumes d’Amérindiens, rapportées par le biologiste américain Robert Blanchette. Ils possédaient des objets décorés avec des morceaux de forme ronde ou ovale d’Haploporus odorus, polypore à l’odeur très suave. Ces fragments étaient enfilés sur des lacets en cuir puis attachés aux tuniques sacrées ou aux colliers des guérisseurs. Ce polypore était aussi considéré comme ayant des vertus médicinales : on le faisait brûler pour produire une fumée agréable pour les personnes malades. Comme souvent dans les traditions, les aspects spirituel et médical sont mêlés. Concernant l’Homme des Glaces, nous avons bien noté que les bouts de F. betulina étaient enfilés sur une lanière de cuir de façon élaborée. S’il s’était agi d’un simple transport, ils auraient été placés sans perforation dans un récipient. On peut donc penser que les morceaux de F. betulina jouaient un rôle spirituel et médicinal. Robert Blanchette évoque aussi l’importance d’un autre champignon, Fomitopsis officinalis, aux propriétés médicinales pour les Amérindiens et leurs chamanes qui l’appellent “le pain des fantômes”. Les chamanes utilisaient des masques sculptés dans ces polypores pour effectuer des rites destinés à guérir certaines maladies. À leur mort, les masques étaient placés à la tête de la tombe et protégeaient l’esprit des chamanes. En Autriche, des fructifications de polypore du bouleau étaient sculptées pour protéger les animaux de ferme de la malchance. Le fragment conique du polypore d’Ötzi pourrait évoquer une sculpture qui n’aurait pas été très bien conservée. On pourrait donc considérer qu’Ötzi était un chamane qui portait sur lui, comme un talisman, ces deux fragments d’un champignon aux vertus médicinales et spirituelles. Rappelons que les affaires d’Ötzi n’ont pas été pillées, ce qui laisse supposer qu’on ne voulait pas s’approprier ses objets : c’était peut-être un personnage important.

The Conversation

Hubert Voiry est l'auteur de l'ouvrage « 10 champignons qui ont changé la vie des hommes », publié aux éditions Actes Sud dont ce texte est tiré.

PDF

25.11.2025 à 15:46

Combien de CO₂ votre voyage en avion a-t-il vraiment émis ? Comment vérifier les calculs d’empreinte carbone de l’aérien

Finn McFall, KTP Associate, University of Surrey

Xavier Font, Professor of Sustainability Marketing, University of Surrey

De nombreux calculateurs ignorent une large part de l’impact climatique des vols, ou bien s’appuient sur des hypothèses trop simplifiées, ce qui limite la fiabilité de leurs estimations.
Texte intégral (2360 mots)
La plupart des calculateurs d’empreinte carbone de l’aérien livrent des chiffres largement sous-estimés. Vladimir Sukhachev/Shutterstock

D’un outil à l’autre, l’empreinte carbone évaluée pour un vol en avion peut varier considérablement. Cela tient aux hypothèses de calcul, au périmètre exact de celui-ci et à la source des données, qui peuvent être à l’origine de nombreuses incertitudes. Pour un usage éclairé de ces calculateurs, utiles mais approximatifs, par les voyageurs aériens, il est indispensable de mieux en cerner les limites.


Lorsque deux personnes réservent le même vol, elles peuvent penser avoir une empreinte carbone très différente, si elles sont passées par deux calculateurs en ligne différents. En effet, de nombreux calculateurs d’empreinte carbone passent sous silence une large partie de l’impact climatique du transport aérien – ou encore, s’appuient sur des hypothèses trop simplifiées.

Le point sur leurs limites et pourquoi elles sont importantes. Malgré tout, quelques précautions de bon sens peuvent vous aider à évaluer les estimations fournies.

Le CO₂ ne suffit pas

Si un outil en ligne ne rend compte d’un résultat qu’en kilogramme de dioxyde de carbone (CO2), il omet deux autres groupes d’émissions importants.

En effet, l’équivalent CO2 est une unité de mesure qui convertit l’impact des autres gaz à effet de serre, tels que le méthane, en équivalent dioxyde de carbone à l’aide de données scientifiques qui montrent leur potentiel de réchauffement climatique. Si un calculateur n’affiche que le CO2, il sous-estime donc l’empreinte carbone.

Un calculateur qui fait référence à des émissions équivalent CO2 inclut ainsi le CO2 ainsi que les autres émissions de gaz à effet de serre, ce qui le rend plus complet. Les bonnes pratiques citent le chiffre utilisé et renvoient au tableau des métriques utilisées pour le calcul. (par exemple, la valeur retenue pour le potentiel de réchauffement global du gaz considéré, ou PRG, ndlr).

Les impacts non liés au CO2 doivent également être pris en compte. Concrètement, il s’agit de l’effet sur le climat des oxydes d’azote, de la vapeur d’eau et des traînées de condensation émis par les avions. Ceux-ci emprisonnent la chaleur et agissent comme une couverture qui réfléchit la chaleur de la Terre vers le sol. Des recherches montrent que ces effets non liés au CO2 peuvent être comparables, voire supérieurs à ceux du CO2 seul, sur des horizons temporels moyens.

Cela signifie qu’un calcul basé uniquement sur les émissions de CO2 sous-estime l’impact climatique total du transport aérien, car il ne tient pas compte de l’effet des oxydes d’azote, de la vapeur d’eau et des traînées de condensation. L’ampleur des impacts non liés au CO2 varie en fonction de l’altitude, de la latitude, des conditions météorologiques et de l’heure de la journée, mais elle est trop importante pour être ignorée.

Les calculateurs devraient les quantifier de manière plus transparente, quitte à fournir un résultat avec un niveau d’incertitude chiffré. Les meilleurs calculateurs réalisent à la fois un calcul en équivalent CO2, puis prennent en compte les effets non liés au CO2.


À lire aussi : Impact du transport aérien sur le climat : pourquoi il faut refaire les calculs


Les avions ne volent pas vraiment en ligne droite

Une autre source de sous-estimation de l’empreinte carbone de l’aérien est le calcul des distances. De nombreux outils supposent un trajet dit « orthodromique » (c’est-à-dire, la distance la plus courte entre les aéroports de départ et d’arrivée compte tenu de la courbure de la Terre), auquel s’ajoute une petite distance fixe. Or, les vols réels sont influencés par les vents, les tempêtes, la congestion aérienne, les zones militaires à éviter et les fermetures d’espace aérien qui obligent à faire de longs détours. Même les itinéraires réguliers entre une ville A et une ville B peuvent changer quotidiennement en raison de ces variables.

Des études montrent que ces détours peuvent, en moyenne, atteindre un allongement de plus de 7,5 % de la distance totale, même en temps « normal » et sans parler de la situation géopolitique actuelle dans le monde. Or, une distance plus longue implique une consommation de carburant et des émissions plus importantes. Ainsi, si une calculatrice ne tient pas compte des déviations d’itinéraire, elle sous-estimera la consommation de carburant.

En utilisant les données historiques récentes observées sur un itinéraire donné, on peut ajuster ces estimations. De quoi mieux refléter la façon dont cet itinéraire est vraiment parcouru dans la pratique, et non pas dans des conditions idéales.

Quel périmètre les compagnies aériennes doivent-elles prendre en compte ?

Même lorsque la distance et les émissions de gaz à effet de serre sont correctement prises en compte, de nombreux outils éludent d’indiquer clairement le périmètre du calcul et ses limites, sans préciser ce qui est inclus ou exclus. Ainsi, de nombreux outils ne tiennent pas compte des émissions liées à l’extraction des matériaux pour construire les avions et aux activités pétrolières permettant de produire du carburant.

Une empreinte carbone complète et conforme aux normes en vigueur comprendrait les émissions « du puits au réservoir » (well-to-tank, ce qui intègre les étapes d’extraction, de raffinage et de transport du carburant), les services en vol et le cycle de vie des avions et même des aéroports.

fond jaune, avion miniature blanc et cahier blanc avec stylo
Certains calculateurs d’empreinte carbone pour le transport aérien se basent sur des hypothèses de calcul trop généreuses. EamesBot/Shutterstock

La norme internationale ISO 14083 de 2023, qui porte sur la quantification et la déclaration des émissions de gaz à effet de serre provenant des chaînes de transport, établit pourtant des règles communes. Les bons calculateurs s’alignent sur cette norme afin de rendre leur champ d’application explicite et comparable.

Mais les meilleurs calculateurs vont au-delà de ces exigences et couvrent l’ensemble des émissions liées au vol. Si un calcul d’empreinte carbone exclut les émissions en amont ou celles liées aux infrastructures aériennes, on peut s’attendre à ce que le résultat soit inférieur à celui qu’une analyse complète du cycle de vie livrerait.

L’allocation des émissions de l’appareil au passager

Le calcul des émissions par passager consiste à répartir l’impact climatique de l’avion entre les sièges occupés par les passagers et le fret (transport en soute). Or, la classe de cabine et la densité des sièges modifient l’espace disponible par passager. Les sièges en classe affaires ou en première classe peuvent donc avoir un impact par passager plusieurs fois supérieur à celui de la classe économique dans le même avion.

Les coefficients de remplissage (c’est-à-dire, le taux d’occupation d’un avion) modifient également ce calcul. Les passagers d’un avion à moitié plein devraient se voir attribuer deux fois plus d’émissions.

Les bonnes méthodes de calcul devraient utiliser des coefficients de remplissage et les plans de sièges spécifiques à chaque trajet, en fonction de la compagnie aérienne et de la saison, plutôt que des hypothèses globales généralisées.

Bagages en soute et transport de fret

Du point de vue du voyageur, il semble injuste qu’un passager voyageant uniquement avec un bagage à main bénéficie se voit allouer la même empreinte carbone qu’une personne ayant enregistré 30 kg de bagages. De fait, la plupart des calculateurs se basent sur un poids moyen unique pour les bagages. Le calcul est donc surestimé pour les voyageurs légers et sous-estimé pour les voyageurs lourds.

De meilleures approches permettraient aux utilisateurs de déclarer leurs bagages lors du calcul, ou d’appliquer des facteurs spécifiques à leur itinéraire.

De plus, la plupart des vols passagers transportent également du fret en soute. Si un calculateur attribue toutes les émissions de l’avion aux passagers, il surestime les chiffres par passager. Une pratique plus équitable consisterait à répartir les émissions entre les passagers et le fret aérien.

Comment faire mieux ?

Sur la base de récents travaux de recherche évalués par les pairs, voici une liste de contrôle que vous pouvez appliquer à tout calculateur de vol.

La prochaine fois que vous lirez une estimation de l’empreinte carbone de votre vol, demandez-vous si elle est :

  • complète : inclut-elle uniquement le CO2, un équivalent CO2 et les émissions hors CO2 ? Est-elle conforme à la norme ISO 14083 ou supérieure et couvre-t-elle l’ensemble des émissions générées par un passager aérien ?

  • précise : utilise-t-elle des méthodes modernes basées sur des données réelles régulièrement actualisées pour prédire la trajectoire de vol et la consommation de carburant ? Prend-elle en compte toutes les variables, y compris les facteurs de charge de l’appareil et les configurations des sièges à bord ?

  • transparente : les méthodes et les sources de données utilisées sont-elles indiquées avec leurs limites ? Ont-elles fait l’objet d’une évaluation par des pairs ?

  • communiquée efficacement : fournit-elle une ventilation claire des sources d’émissions de votre vol ? Est-elle facile à comprendre et à utiliser pour prendre des décisions ciblées en matière de climat ?

Lorsque les calculateurs cochent toutes ces cases, on peut faire passer le débat de l’examen d’un seul chiffre à l’action sur les principales causes. C’est à cette condition que le calcul de l’empreinte carbone, plutôt que de simples chiffres sur un écran, peut devenir un outil de changement.


À lire aussi : L’insolent succès des jets privés, entre empreinte carbone et controverses


The Conversation

Finn McFall travaille sur un partenariat de transfert de connaissances entre Therme Group et l'université du Surrey, cofinancé par UKRI via Innovate UK.

Xavier Font travaille pour l'université du Surrey. Il fait partie de l'équipe universitaire qui travaille sur un partenariat de transfert de connaissances entre Therme Group et l'université du Surrey, cofinancé par UKRI via Innovate UK.

PDF

25.11.2025 à 15:46

Comment lutter contre le changement climatique sans creuser les inégalités entre Nords et Suds ?

Rihi Yanis, Doctorant en économie politique du développement, Université Paris-Saclay

Une transition peut-elle advenir sans accroitre les inégalités ? Pour répondre à cette question, il faut revenir en arrière et ausculter les différentes dimensions de la justice climatique
Texte intégral (3716 mots)

Alors qu’à Belém, la COP30 a échoué à accélérer la lutte contre le changement climatique, une question demeure, abyssale : peut-on lutter contre le changement climatique sans accroître les inégalités entre populations ? En d’autres termes, peut-on œuvrer à une transition juste ? Pour répondre à cette question, il faut tout à la fois revenir en arrière et ausculter les différentes dimensions de la justice climatique.


Peut-on légitimement demander au Mozambique ou au Sénégal de renoncer à leurs ressources fossiles alors qu’ils remboursent chaque année davantage en dette extérieure qu’ils ne reçoivent d’aide climatique ? Comment construire une transition mondiale juste tandis qu’une partie des pays les plus vulnérables doivent s’endetter pour financer leur propre adaptation ? Et comment imaginer une trajectoire commune alors que les responsabilités historiques liées à l’exploitation des ressources des Suds continuent d’être ignorées ?

Voici quelques-unes des interrogations qui émergent lorsqu’on pense à une réponse globale au changement climatique dans un monde profondément inégal. Elles ont pour toile de fond une tension de plus en plus visible au cœur des politiques climatiques : la transition vers des économies décarbonées peine encore à se déployer sans reproduire les déséquilibres historiques, tant à l’intérieur des pays qu’à l’échelle internationale.

Dans ce contexte, l’idée de « transitions justes » prend de l’ampleur. Elle propose d’articuler l’action climatique autour de principes de justice, d’équité et de responsabilité historique. Pour de nombreux pays, notamment dans les Suds, les récits qui s’y rattachent deviennent un horizon éthique et politique essentiel pour penser les transformations écologiques à partir des réalités locales, des vulnérabilités propres et des capacités d’action inégales.

Des luttes ouvrières à l’agenda climatique mondial

Cette idée d’une transition juste n’est pourtant pas nouvelle. Elle puise ses origines dans les mouvements syndicaux états-uniens des années 1970, au moment où l’écologie politique émerge. À cette époque, Tony Mazzocchi, alors vice-président du syndicat des travailleurs du pétrole, de la chimie et de l’atome (Oil, Chemical and Atomic Workers Union, OCAW) défend un principe simple : les protections environnementales sont nécessaires, certes, mais leurs coûts ne doivent pas être supportés exclusivement par les travailleurs dans les secteurs les plus exposés.

Il propose donc la création du Superfund for Workers, destiné à indemniser les travailleurs affectés par les nouvelles régulations environnementales. Le fonds voit le jour en 1993, puis est rebaptisé Just Transition Fund en 1995, faisant entrer l’expression dans le vocabulaire politique.

Par la suite, dans les années 1990, la Confédération syndicale internationale (CSI) internationalise le concept. En amont de la COP15 de Copenhague (2009), elle mobilise syndicats et ONG pour rappeler que la transition écologique ne peut se faire au détriment des plus vulnérables. La transition juste s’inscrit dès lors au croisement du développement durable et de la lutte contre le changement climatique. Elle vise une reconnaissance claire de la nécessité de garantir la justice sociale dans les processus de transition et les stratégies de résilience climatique.

Mais à mesure qu’il circule entre institutions, gouvernements et organisations internationales, le concept se transforme. Avec son inscription subséquente dans le préambule de l’accord de Paris (2015), il glisse vers des cadres plus technocratiques, au risque de s’éloigner de sa dimension contestataire initiale.

Une même transition pour tous ?

Dans les Nords, les transitions justes sont généralement envisagées comme des mécanismes d’accompagnement social : reconversion professionnelle, soutien aux territoires dépendants des énergies fossiles, garanties sociales. L’enjeu est essentiellement domestique, le concept servant à limiter les effets sociaux de la décarbonation, sans remettre en question les fondements extractivistes et énergivores du modèle économique actuel.

Dans les Suds, la signification tend à être radicalement différente. En Amérique latine, en Afrique ou en Asie du Sud-Est, universitaires, mouvements sociaux et représentants gouvernementaux s’en saississent comme d’un objet de discours critique, parfois explicitement décolonial, pour questionner les règles du jeu global. Ici, les transitions justes incluent les dimensions internationales : les injonctions extérieures, la cohérence des politiques climatiques globales, les impacts socio-économiques transnationaux, les conditionnalités financières et la répartition mondiale des coûts et des opportunités.

Selon cette dynamique, les transitions justes apparaissent alors comme une rupture possible avec le paradigme dominant actuel. Là où depuis les années 1990 le développement durable s’est construit dans des cadres descendants, les propositions issues des Suds s’appuient plutôt sur des démarches ascendantes, portées par des syndicats, des mouvements sociaux ou des collectifs comme la Pan African Climate Justice Alliance ou Climate Strategies. Certaines coalitions comme Just Transition Africa, revendiquent, à titre d’exemple, une réappropriation souveraine des trajectoires de développement, fondée sur les besoins locaux et affranchie des conditionnalités financières internationales.

Ces voix posent, en creux, une interrogation essentielle : à qui profite réellement la transition, et qui en définit les règles ?

Les pays des Suds doivent-ils choisir entre développement et climat ?

Ce débat met également au jour un dilemme d’éthique climatique majeur : comment concilier le droit au développement des pays des Suds avec les contraintes globales de la décarbonation ? Les pays industrialisés ont bâti leur croissance sur l’exploitation massive des ressources naturelles, notamment dans les Suds, au prix d’une importante dette carbone. Les Suds, eux, sont aujourd’hui invités à limiter leur industrialisation, alors même que beaucoup n’ont pas encore atteint des niveaux de développement humain fondamentaux. Une situation inégale qui, encore aujourd’hui, demeure un facteur majeur de sous-développement et d’accroissement des inégalités à l’échelle mondiale.

Cela nous renvoie d’ailleurs au principe des « responsabilités communes mais différenciées », inscrit dans la déclaration de Rio (1992). Mais aussi, plus clairement, au bagage normatif de la notion même de développement. Réduire celui-ci à la seule croissance économique revient en effet à occulter sa dimension sociale, politique et environnementale, et crée des tensions avec d’autres droits essentiels.

Comme le rappelle le philosophe camerounais Thierry Ngosso, un « droit au développement » compris dans une perspective strictement productiviste peut devenir paradoxal dans la mesure où il risque de nuire précisément aux populations qu’il prétend protéger, en sacrifiant leurs conditions de vie ou leur environnement au nom de la croissance.

Or ce sont les groupes les plus pauvres, aux Suds comme aux Nords, qui subissent déjà le plus fortement les impacts du dérèglement climatique. L’enjeu consiste donc à articuler justice sociale et soutenabilité écologique en concevant des trajectoires de développement adaptées à la pluralité de société des Suds, plutôt que de reproduire des modèles hérités et inadaptés.


À lire aussi : Mesurer le bonheur pour mieux penser l’avenir : l’initiative du Bonheur Réunionnais Brut


La finance climatique perpétue-t-elle l’injustice ?

Penser des transitions justes, c’est aussi se pencher sur le financement climatique, qui cristallise une grande partie des tensions internationales. À la COP29, les négociations ont abouti, dans le cadre du New Collective Quantified Goal on Climate Finance à un compromis non contraignant prévoyant de tripler les financements climatiques publics destinés aux pays en développement, pour atteindre 300 milliards de dollars (un peu moins de 260 milliards d’euros) d’ici 2035, par rapport à ceux fixés en 2009.

L’accord prévoit également de mobiliser jusqu’à 1 300 milliards de dollars (soit plus de 1 125 milliards d’euros) par an à la même échéance, en combinant ressources publiques et privées. En outre, l’absence d’engagements fermes, ainsi que l’élusion de la question des modalités d’application et de fonctionnement du Fonds de réponse aux pertes et préjudices (Fund for responding to Loss and Damage), élément pourtant central de la justice climatique, ont suscité de vives critiques, notamment de la part de négociateurs africains et d’organisations de la société civile.

Frise montrant l'évolution du concept de transition juste.
Frise montrant l'évolution du concept de transition juste. Fourni par l'auteur

Mais au-delà des montants, c’est la nature même du financement qui pose problème. La majorité des fonds destinés aux pays en développement prennent la forme de prêts, souvent conditionnés à des projets d'atténuation jugés sur des critères de rentabilité. À l’inverse, l’adaptation, la résilience ou les réparations reçoivent des financements limités.

Cette logique entretient un cercle vicieux : en 2023, les pays en développement ont consacré plus de 1 400 milliards de dollars (soit plus de 1 210 milliards d’euros) au service de leur dette, bien davantage que les fonds reçus pour faire face à la crise climatique. Ainsi, loin de réduire les vulnérabilités, la finance climatique contribue souvent à les renforcer, limitant au passage leur marge de manœuvre pour investir dans des politiques écologiques transformatrices.

Dans la continuité, le Fund for responding to Loss and Damage créé à l’issue de la COP27, et temporairement géré par la Banque mondiale depuis 2024, est lui aussi illustratif de certaines tensions. Peut-on parler de justice climatique lorsque les créanciers, pour la plupart rattachés aux Nords, déterminent les modalités de financement des victimes du changement climatique ? Pour de nombreux acteurs des Suds, ces mécanismes perpétuent ainsi les logiques de dépendance et de domination, donnant lieu à des inégalités reproductives, tout en éludant les questions fondamentales d’équité et de responsabilité.

Penser les transitions à la lumière de quelques principes de justice

Au fil des dernières années, l’idée de transitions justes s’est progressivement élargie. Désormais pensée au pluriel, elle désigne moins un modèle clé en main qu’un ensemble de principes visant à garantir que les politiques climatiques engagent et protègent les personnes et les communautés les plus vulnérables.

Ainsi, mobiliser la notion de justice ne consiste pas à établir une norme singulière de ce que devrait être une « bonne » transition, mais plutôt à ouvrir une grille de lecture critique pour interroger les modalités concrètes du changement : les effets sociaux, économiques, territoriaux et politiques de la transition.

À ce titre, quatre dimensions de la justice permettent d’éclairer la profondeur, ou les limites, des transformations en cours :

  • La justice distributive : elle interroge la répartition équitable des coûts, opportunités et risques liés aux politiques climatiques et à leurs effets. Qui paie, qui bénéfice ? Dans de nombreux cas, les mesures climatiques produisent des impacts très inégaux, renforçant les déséquilibres existants.

  • La justice procédurale : elle concerne la capacité réelle des personnes affectées à participer aux décisions qui les touchent. Qui a voix au chapitre ? Qui décide, et selon quelles règles ? Dans la pratique, les politiques climatiques sont souvent élaborées par des experts ou des institutions éloignées du terrain, laissant de côté les communautés les plus concernées.

  • La justice corrective, restaurative ou réparatrice : elle met l’accent sur la reconnaissance et la réparation des dommages historiques liés au changement climatique et aux modèles de développement à l’origine de la crise écologique. Comment reconnaître et réparer les inégalités issues de l’exploitation, de la pollution, de la dette écologique ou de la dépossession foncière ?

  • La justice de reconnaissance : elle porte sur les formes de domination symbolique et sur la manière dont elles influencent les trajectoires de transition. Quels savoirs, quelles visions du monde sont prises en compte ? Lesquelles sont ignorées, minorées ou rendues invisibles ? Elle vise ainsi à ouvrir la voie à des transformations sociétales réellement inclusives.

Ces dimensions invitent à se pencher sur les conflits de valeurs, les asymétries de pouvoir, et les rapports de domination enracinés dans l’histoire coloniale et postcoloniale du capitalisme. Comme le montre une partie croissante de la recherche issue des Suds, ignorer ces registres de justice revient à passer sous silence les rapports de force qui structurent les transitions, au risque, parfois même, de reproduire des dynamiques extractivistes sous couvert d’écologie.

Plus clairement, appréhender les transitions à l’aune de ces quatre modalités relève moins d’une prescription normative que d’une invitation à questionner les conditions mêmes du changement.

Une transition est-elle possible sans justice ?

Dans les pays des Suds, les transitions justes demeurent largement expérimentales. Si le concept s’est installé dans les discours, il peine encore à se traduire en politiques publiques du fait de certaines réalités structurelles, comme l’informalité des marchés du travail, l’insécurité foncière, la précarité énergétique ou la dépendance aux financements extérieurs.

Des initiatives existent, mais elles rappellent surtout combien la justice reste une condition centrale de toute transformation durable dans l’espace et le temps. Qu’il s’agisse de partenariats Nords-Suds ou de coopérations Sud-Sud, leur réussite dépend moins des montants mobilisés que de leur capacité à renforcer la souveraineté des pays concernés et à inscrire les décisions dans les besoins sociaux et écologiques réels.

En définitive, les transitions justes ouvrent un espace où se confrontent tensions, contradictions et aspiration autour de la justice climatique. D’un côté, elles ont le mérite de mettre au jour les conflits entre impératifs climatiques, justice sociale et rapports de pouvoir internationaux. De l’autre, elles interrogent en profondeur notre conception même du développement, des responsabilités et des éthiques censées orienter les transformations à venir.

Reste alors une question ouverte, celle de savoir si la transition sera un projet réellement collectif, pensé aussi depuis les Suds, ou bien une nouvelle déclinaison des logiques qui ont façonné les inégalités passées ?

The Conversation

Rihi Yanis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

24.11.2025 à 16:30

Peut-on réparer ailleurs la nature détruite ici ? Comment libérer la compensation écologique des influences politiques

Stéphanie Barral, Sociologue de l'économie et chargée de recherches, Inrae

Christine Jez, Ingénieur de recherche, Inrae

L’efficacité des mesures de compensation écologique dépend non seulement de leur conception, mais aussi des influences politiques qui les encadrent et parfois les limitent.
Texte intégral (2055 mots)

La compensation écologique, qui consiste à restaurer des écosystèmes ailleurs pour compenser une perte de biodiversité ici, a le vent en poupe auprès des décideurs. Elle n’a pourtant rien d’une solution miracle : son efficacité réelle reste très débattue dans la communauté scientifique. Surtout, elle dépend de rapport de force où s’opèrent des arbitrages entre développement économique et protection de la nature. Une plus grande prise en compte des sciences sociales permettrait une meilleure appropriation de ces influences qui pèsent sur les politiques environnementales.


Depuis les années 1990, la compensation de la biodiversité s’est imposée à travers le monde comme un outil de politique environnementale. Son principe est de contrebalancer les pertes écologiques causées par les projets d’aménagement. L’idée est simple : lorsqu’un projet de construction ou d’aménagement affecte un écosystème, des mesures de compensation doivent être mises en place pour restaurer ou protéger une zone équivalente ailleurs.

Adoptée dans de nombreux pays, l’efficacité de ce mécanisme est toutefois insuffisante. Derrière cette idée comptable d’un équilibre que l’on pourrait restaurer se cache un processus complexe, soumis à de multiples arbitrages, contraintes techniques et enjeux temporels, comme le révèle une étude que nous avons publiée dans Nature Sustainability.

Dans celle-ci, nous avons mené une revue de publications scientifiques et institutionnelles internationales pour répondre à une question : comment les politiques de compensation de la biodiversité sont-elles conçues et influencées ?

Multiples acteurs, multiples influences

Les études en écologie scientifique postulent généralement que de meilleures connaissances scientifiques conduisent à de meilleures politiques environnementales, mais nous montrons la nécessité de prendre en compte les rapports de force structurels qui les affaiblissent.

En effet, la gouvernance de la compensation de la biodiversité, loin de reposer uniquement sur des données scientifiques et des métriques écologiques, est aussi marquée par les interactions entre différents acteurs – États, entreprises, ONG environnementales, institutions scientifiques et citoyens – qui cherchent à façonner les règles du jeu selon leurs intérêts. Parfois au risque de saper les fondements de ces programmes.

La compensation est souvent présentée comme une solution pragmatique conciliant développement économique et conservation de la nature, mais elle suscite en réalité de nombreux débats.

  • D’un côté, les gouvernements, les institutions internationales et les grandes ONG environnementales (comme l’Union internationale pour la conservation de la nature, UICN) la défendent comme un outil pragmatique permettant de concilier conservation et développement économique.

  • De l’autre, les lobbies industriels et les entreprises cherchent à encadrer ce dispositif de manière à maximiser leur flexibilité et à minimiser leurs coûts.

Les débats ne sont pas seulement techniques, ils touchent à des questions politiques sensibles. Par exemple, la compensation doit-elle être une obligation réglementaire ou un engagement volontaire ? Qui doit en assurer le contrôle ? Peut-elle être confiée à des acteurs privés à travers des marchés de crédits environnementaux ?


À lire aussi : Histoire des crédits carbone : vie et mort d'une fausse bonne idée ?


Mise à l’agenda, élaboration et mise en œuvre

Les auteurs identifient trois grandes étapes à travers lesquelles tous ces acteurs tentent d’orienter les politiques de compensation écologique.

D’abord la mise à l’agenda, qui est le moment où la compensation devient un enjeu de politique publique. Cette phase est marquée par des discussions sur la nécessité de compenser les dommages causés à la biodiversité et sur les méthodes à adopter.

Différents acteurs y participent, notamment les gouvernements, les institutions internationales, les scientifiques et les ONG qui militent pour des mesures de conservation plus strictes. L’implication croissante d’acteurs privés à cette étape s’accompagne, depuis quelques décennies, d’un recours plus affirmé aux mécanismes de marché plutôt que réglementaires.

La deuxième étape est l’élaboration des politiques en elles-mêmes, lorsque la compensation est traduite en lois et en règlements. Des questions cruciales sont débattues, comme le type d’impacts environnementaux à compenser, les obligations imposées aux entreprises ou encore le mode de financement de ces mesures.

C’est aussi un moment où les lobbyistes interviennent pour orienter la réglementation dans un sens plus ou moins contraignant. Aux États-Unis, par exemple, la National Environmental Banking Association a plaidé pour des règles plus cohérentes afin de réduire l’incertitude pour les entreprises. En France, des représentants d’intérêts comme ceux des carrières participent activement aux discussions sous l’égide du ministère de l’écologie.

Les décisions et orientations des politiques de compensation reposent donc à la fois sur des considérations scientifiques (quels sont les écosystèmes à protéger, quels sont les impacts les plus importants, quels sont les meilleurs indicateurs pour piloter les politiques) et la participation de représentants sectoriels. Cela peut conduire à une politisation de l’écologie scientifique au profit d’intérêts particuliers.

Enfin, cette influence intervient aussi au moment de la mise en œuvre sur le terrain. En effet, l’application des politiques de compensation implique une multitude d’interactions entre les acteurs locaux, les entreprises et les agences environnementales. L’interprétation des règles, la définition des critères écologiques et la surveillance des compensations sont autant de points négociés qui influencent les résultats concrets des programmes.

En Australie, une étude montre que la compensation est appliquée différemment selon les États, certains adoptant une approche plus flexible, ce qui peut limiter les résultats écologiques.


À lire aussi : Objectif ZAN : comment tenir les comptes ?


Les limites à une compensation efficace

Malgré son potentiel, la compensation de la biodiversité suscite donc des interrogations sur son efficacité réelle. Nous avons relevé plusieurs points critiques :

  • Le manque de transparence Les négociations sur la mise à l’agenda et sur la mise en œuvre des compensations se déroulent souvent dans des espaces peu accessibles au public, limitant la possibilité de vérifier leur pertinence et leur inscription dans un débat ouvert.

  • Le déséquilibre des pouvoirs Les entreprises et coalitions d’acteurs économiques privés disposent de ressources importantes pour influencer la conception des politiques, ce qui peut entraîner des compromis moins favorables à la biodiversité.

  • La science peut être un objet d’influence Des connaissances écologiques sont mobilisées dans la décision lors de toutes les étapes de la politique publique, y compris dans les contentieux administratifs. Les études peuvent être produites par des acteurs publics, privés ou encore associatifs, et la multiplicité des critères facilite l’instrumentalisation des connaissances au service d’intérêts particuliers.

  • La fragilité des résultats au plan écologique Certaines études montrent que les compensations ne parviennent pas toujours à restaurer les écosystèmes de manière équivalente, ce qui pose la question de leur efficacité à long terme. En France par exemple, une étude sur des sites restaurés a révélé que leur biodiversité restait inférieure à celle des sites naturels d’origine, malgré les efforts de compensation.

  • La définition du périmètre de la compensation C’est un enjeu majeur mais pourtant peu appréhendé dans les études scientifiques. Quels types d’écosystèmes et d’espèces doivent être protégés ? Certains pays, comme les États-Unis, se concentrent sur les espèces menacées, tandis que d’autres, comme la France, intègrent des approches basées sur les habitats. Ces choix ne sont jamais neutres : ils reflètent des arbitrages entre des exigences écologiques et des impératifs économiques qui ne sont pas uniquement guidés par la science et résultent généralement de négociations entre parties prenantes.

Une gouvernance à améliorer

Pour améliorer la gouvernance de la compensation de la biodiversité, nous suggérons plusieurs pistes et plaidons pour une meilleure intégration des sciences sociales dans l’action publique environnementale.

Il convient d’abord de mener davantage d’études comparatives pour évaluer comment les politiques sont mises en place dans différents pays. Cela permettrait de mieux comprendre les stratégies de contournement et d’obstruction dont elles font l’objet.

Pour renforcer l’indépendance des instances de régulation et assurer une plus grande transparence sur les relations entre entreprises, décideurs publics et experts scientifiques, nous appelons également à mieux encadrer l’influence du secteur privé afin de limiter les conflits d’intérêts.

Enfin, nous estimons qu’il est nécessaire de capitaliser sur les savoirs des sciences sociales. Une meilleure circulation de ces derniers renforcerait l’évaluation des politiques environnementales.

En définitive, la compensation de la biodiversité ne peut pas être considérée comme une solution miracle. Elle repose sur des compromis entre développement économique et préservation de la nature, ce qui en fait un domaine où les enjeux politiques et financiers sont omniprésents. Jusqu’à présent, elle n’a pas témoigné de sa capacité à enrayer l’érosion de la biodiversité et les études en écologie attestant ses limites s’accumulent.

Face à cela, les sciences sociales peuvent apporter une meilleure compréhension des stratégies d’influence d’acteurs engagés dans la protection de leurs intérêts particuliers. Elles ne se substitueront pas à un portage politique ambitieux, mais pourront certainement l’accompagner.

The Conversation

Stéphanie Barral a reçu des financements de l'Agence Nationale de la Recherche et de la Fondation Jefferson pour enquêter sur les politiques de compensation écologique.

Christine Jez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

24.11.2025 à 14:01

COP30 : cinq raisons pour lesquelles la conférence sur le climat a manqué à sa promesse d’être un « sommet des peuples »

Simon Chin-Yee, Lecturer in International Development, UCL

Mark Maslin, UCL Professor of Earth System Science and UNU Lead for Climate, Health and Security, UCL

Priti Parikh, Professor of Infrastructure Engineering and International Development, UCL

La COP30, nouveau rendez-vous manqué ? Certaines coalitions d’États ont tenté d’élever l’ambition, mais le texte final n’évoque pas la sortie des énergies fossiles.
Texte intégral (2553 mots)

À Belém, au Brésil, la COP30 devait réconcilier ambitions climatiques et justice sociale. Elle a finalement exposé la fragilité du processus onusien, pris en étau entre le poids des industries fossiles et les frustrations croissantes des pays les plus vulnérables, sur fond d’urgence climatique. Voici cinq raisons qui illustrent en quoi ce grand sommet tient du rendez-vous manqué.


La promesse d’un « sommet des peuples » s’est éteinte avec les feux de la COP30, samedi 22 novembre 2025. Le dernier sommet des Nations unies sur le climat, organisé dans la ville brésilienne de Belém, s’est déroulé dans le contexte géopolitique habituel, avec en prime le chaos suscité par une inondation et un incendie.

Le sommet a été marqué par des manifestations de communautés de peuples autochtones d’une ampleur sans précédent, mais les négociations finales ont, une fois de plus, été dominées par les intérêts des énergies fossiles et les tactiques pour jouer la montre. Après dix ans d’(in)action climatique depuis l’accord de Paris, le Brésil avait promis que la COP30 serait une « COP de mise en œuvre ». Mais le sommet n’a pas tenu ses promesses, alors même que le monde a enregistré un réchauffement climatique de 1,6 °C l’année dernière.

Voici nos cinq observations principales à porter au bilan de la COP30.


À lire aussi : 1,5 °C en plus au thermomètre en 2024 : quelles leçons en tirer ?


Des peuples autochtones présents mais pas assez impliqués

Le sommet se déroulait en Amazonie, ce qui a permis de présenter cette COP climat comme celle vouée aux populations en première ligne face au changement climatique. De fait, plus de 5 000 autochtones y ont participé et ont fait entendre leur voix.

Cependant, seuls 360 d’entre eux ont obtenu un laissez-passer pour la « zone bleue » ; principale zone consacrée aux négociations. Un chiffre à comparer aux 1 600 délégués de l’industrie des combustibles fossiles qui y ont été admis. À l’intérieur des salles de négociation régnait l’approche traditionnelle visant à privilégie la bonne marche des affaires (« business as usual »).

Les groupes autochtones n’avaient que le statut d’observateurs, privés du droit de voter ou d’assister aux réunions à huis clos.

Le choix du lieu, en Amazonie, était un symbole fort, mais qui s’est révélé délicat au plan logistique. Il a coûté des centaines de millions de dollars dans une région où une large partie de la population n’a toujours pas accès aux infrastructures de base.

Une image frappante de ces inégalités pourrait être la suivante : les chambres d’hôtel étant toutes occupées, le gouvernement brésilien a immobilisé deux bateaux de croisière pour les participants aux négociations. Or, ces derniers peuvent générer huit fois plus d’émissions de gaz à effet de serre qu’une nuitée en hôtel cinq étoiles par personne.


À lire aussi : COP après COP, les peuples autochtones sont de plus en plus visibles mais toujours inaudibles


Des manifestations qui ont permis des avancées locales

Mais il s’agissait du deuxième plus grand sommet des Nations unies sur le climat jamais organisé et le premier depuis la COP26 de Glasgow en 2021 à se dérouler dans un pays autorisant de véritables manifestations publiques.

Cela avait son importance. Des manifestations de toutes dimensions ont eu lieu tous les jours pendant les deux semaines de la conférence, notamment une « grande marche populaire » menée par les peuples autochtones le samedi 15 novembre au milieu de la conférence.

Cette pression, bien visible, a permis d’obtenir la reconnaissance de quatre nouveaux territoires autochtones au Brésil. Cela a montré que lorsque la société civile a voix au chapitre, elle peut remporter des victoires, même en dehors des négociations principales.


À lire aussi : Climat : les jeunes manifestants peuvent-ils encore peser sur les négociations pendant les COP ?


L’absence des États-Unis, à la fois un vide et une opportunité

Lors du premier mandat de Donald Trump, après son retrait de l’accord de Paris, en 2016, les États-Unis avaient malgré tout envoyé une équipe réduite de négociateurs. Cette fois-ci, pour la première fois dans l’histoire, les États-Unis n’ont envoyé aucune délégation officielle.

Donald Trump a récemment qualifié le changement climatique de « plus grande escroquerie jamais perpétrée dans le monde ». Depuis son retour au pouvoir, les États-Unis ont ralenti le développement des énergies renouvelables et relancé celui du pétrole et du gaz. Ils ont même contribué à faire échouer, en octobre 2025, les plans visant à mettre en place un cadre de neutralité carbone pour le transport maritime mondial.


À lire aussi : Les États-Unis torpillent la stratégie de décarbonation du transport maritime


Alors que les États-Unis reviennent sur leurs ambitions passées, ils permettent à d’autres pays producteurs de pétrole, comme l’Arabie saoudite, d’ignorer leurs propres engagements climatiques et de tenter de saper ceux des autres.

La Chine a comblé ce vide et est devenue l’une des voix les plus influentes dans la salle. En tant que premier fournisseur mondial de technologies vertes, Pékin a profité de la COP30 pour promouvoir ses industries solaire, éolienne et électrique et courtiser les pays désireux d’investir.

Mais pour de nombreux délégués, l’absence des États-Unis a été un soulagement. Sans la distraction causée par les États-Unis qui tentaient de « mettre le feu aux poudres » comme ils l’avaient fait lors des négociations sur le transport maritime, la conférence a pu se concentrer sur l’essentiel : négocier des textes et des accords pour limiter l’ampleur du réchauffement climatique.


À lire aussi : Empreinte carbone : les trois thermomètres de l’action climatique


Une mise en œuvre non plus sur la scène principale, mais grâce à des accords parallèles

Qu’est-ce qui a été réellement mis en œuvre lors de la COP30 ? Cette année encore, l’action principale s’est traduite par des engagements volontaires de certains États plutôt que par un accord mondial contraignant.

Le pacte de Belém, soutenu par des pays tels que le Japon, l’Inde et le Brésil, engage ses signataires à quadrupler la production et l’utilisation de carburants durables d’ici 2035.

Le Brésil a également lancé un important fonds mondial pour les forêts, avec environ 6 milliards de dollars (environ 5,2 milliards d’euros) déjà promis aux communautés qui œuvrent pour la protection des forêts tropicales. L’Union européenne (UE) a emboîté le pas en s’engageant à verser de nouveaux fonds pour le bassin du Congo, la deuxième plus grande forêt tropicale du monde.

Il s’agit d’étapes utiles, mais elles montrent que les avancées les plus importantes lors des sommets climatiques de l’ONU se produisent désormais souvent en marge plutôt que dans le cadre des négociations principales.

Le résultat des discussions principales de la COP30 – le « paquet politique de Belém » – est faible et ne nous permettra pas d’atteindre l’objectif de l’accord de Paris visant à limiter le réchauffement climatique à 1,5 °C.

Le plus frappant est l’absence des mots « combustibles fossiles » dans le texte final, alors qu’ils occupaient une place centrale dans l’accord de Glasgow sur le climat (en 2021, à la suite de la COP26, ndlr) et dans le consensus des Émirats arabes unis (en 2023, après la COP28, ndlr)… et qu’ils représentent bien sûr la principale cause du changement climatique.


À lire aussi : Les textes des COP parlent-ils vraiment de climat ? Le regard de l’écolinguistique


Le texte du « mutirão » mondial, une occasion manquée

Une avancée potentielle avait toutefois vu le jour dans les salles de négociation : le texte du « mutirão (effort collectif, en tupi-guarani, ndlr) mondial », une feuille de route proposée pour sortir des énergies fossiles. Plus de 80 pays l’ont signé, des membres de l’UE aux États insulaires du Pacifique vulnérables au changement climatique.

Tina Stege, envoyée spéciale pour le climat de l’un de ces États vulnérables, les îles Marshall, a pressé les délégués :

« Soutenons l’idée d’une feuille de route pour les combustibles fossiles, travaillons ensemble et transformons-la en un plan d’action. »

Mais l’opposition de l’Arabie saoudite, de l’Inde et d’autres grands producteurs d’énergies fossiles l’a édulcoré. Les négociations se sont prolongées, aggravées par un incendie qui a reporté les discussions d’une journée.

Lorsque l’accord final a été conclu, les références clés à l’élimination progressive des combustibles fossiles avaient disparu. La Colombie, par exemple, a réagi vivement à l’absence de mention de la transition vers l’abandon des combustibles fossiles dans le texte final. Cela a contraint la présidence de la COP à proposer un réexamen dans six mois en guise de geste d’apaisement.

Ce fut une énorme déception car, au début du sommet, l’élan semblait très fort.


À lire aussi : Comment échapper à la malédiction de la rente fossile ?


Un fossé qui se creuse

Ce sommet sur le climat a donc été une nouvelle fois source de divisions. Le fossé entre les pays producteurs de pétrole (en particulier au Moyen-Orient) et le reste du monde n’a jamais été aussi large.

Le sommet a toutefois eu un aspect positif : il a montré la force des mouvements organisés. Les groupes autochtones et la société civile ont pu faire entendre leur voix, même si leurs revendications n’ont pas été reprises dans le texte final.

Le sommet de l’année prochaine se tiendra en Turquie. Ces sommets annuels sur le climat se déplacent de plus en plus vers des pays autoritaires où les manifestations ne sont pas les bienvenues, voire totalement interdites. Nos dirigeants ne cessent de répéter que le temps presse, mais les négociations elles-mêmes restent enlisées dans un cycle sans fin de reports.

The Conversation

Mark Maslin est vice-recteur adjoint du programme « UCL Climate Crisis Grand Challenge » et directeur fondateur de l'Institut pour l'aviation et l'aéronautique durables de l'UCL. Il a été codirecteur du partenariat de formation doctorale NERC de Londres et est membre du groupe consultatif sur la crise climatique. Il est conseiller auprès de Sheep Included Ltd, Lansons, NetZeroNow et a conseillé le Parlement britannique. Il a reçu des subventions du NERC, de l'EPSRC, de l'ESRC, de la DFG, de la Royal Society, du DIFD, du BEIS, du DECC, du FCO, d'Innovate UK, du Carbon Trust, de l'Agence spatiale britannique, de l'Agence spatiale européenne, de Research England, du Wellcome Trust, du Leverhulme Trust, du CIFF, de Sprint2020 et du British Council. Il a reçu des financements de la BBC, du Lancet, de Laithwaites, de Seventh Generation, de Channel 4, de JLT Re, du WWF, d'Hermes, de CAFOD, de HP, du Royal Institute of Chartered Surveyors, de la John Templeton Foundation, de la Nand & Jeet Khemka Foundation et de la Quadrature Climate Foundation.

La professeur Priti Parikh est directrice de la Bartlett School of Sustainable Construction de l'UCL et vice-doyenne internationale de la Bartlett Faculty of Built Environment. Elle est membre et administratrice de l'Institution of Civil Engineers. Ses recherches sont financées par l'UKRI, la Royal Academy of Engineering, Water Aid, la British Academy, Bboxx Ltd, l'UCL, la Royal Society et le British Council. Son cabinet de conseil a reçu des financements de l'AECOM, du Cambridge Institute for Sustainable Leadership, de Water and Sanitation for the Urban Poor, de l'UNHABITAT, d'Arup, de l'ITAD et de la GTZ.

Simon Chin-Yee ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF
25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌓