06.03.2025 à 11:47
Romuald Caumont, Chef adjoint du service bâtiment de l’Ademe, Ademe (Agence de la transition écologique)
Emerson Cabane, Chef de projet au Service Bâtiment, Ademe (Agence de la transition écologique)
Un décret a fixé en 2019 des objectifs de réduction et une obligation de déclaration des consommations énergétiques au secteur tertiaire. Où en est-on en 2025 ? Un premier bilan a été dressé par l’Ademe.
Lorsque l’on parle de consommation énergétique du tertiaire, on désigne tous les bâtiments non résidentiels : c’est donc un périmètre très large qui englobe aussi bien les locaux des collectivités, que les commerces ou encore les bureaux. En France, cela représente 1 233 milliard de m2 (contre 3 350 milliards de mètres carrés pour le résidentiel) et 249 TWH (dont 37 % de fossiles), soit 16 % de la consommation énergétique totale de la France en 2023 (une proportion qui varie de 15 % à 20 % selon les années).
Jusqu’ici, beaucoup d’efforts avaient été menés sur le résidentiel en matière de rénovation énergétique, très peu sur le tertiaire. Il y a donc un enjeu de taille à améliorer la performance énergétique de ce gros morceau du parc immobilier français.
C’est pourquoi a été mis en place en 2019 le dispositif éco énergie tertiaire (DEET) ou « décret tertiaire », une réglementation visant à mettre en œuvre les objectifs fixés par l’article 175 de la loi ELAN : l’obligation de diminuer la consommation d’énergie des bâtiments tertiaires de 40 % d’ici à 2030, 50 % d’ici à 2040 et 60 % d’ici à 2050 – par rapport à une année de référence choisie entre 2010 et 2019.
Les propriétaires et exploitants installés dans des bâtiments comprenant plus de 1 000 m2 d’activité tertiaire (hors exception comme les lieux de culte ou les constructions provisoires) sont également soumis, depuis 2022, à l’obligation de déclarer leurs consommations sur Operat, une plateforme gérée par l’Agence de la transition écologique (Ademe), afin d’affiner la connaissance des consommations et de suivre leur trajectoire.
Trois ans après la mise en service d’Operat, l’Ademe a dressé un premier bilan qui permet de tirer de premières conclusions.
Abonnez-vous dès aujourd'hui !.
Chaque jeudi, recevez gratuitement notre newsletter thématique « Ici la Terre » pour suivre au plus près les questions environnementales.
Rappelons d’abord que le contexte des dernières années invite à la prudence sur l’interprétation des évolutions observées : d’une part, le Covid et le début de la guerre en Ukraine, en particulier, ont affecté les niveaux de consommation des années 2020, 2021 et 2022.
D’autre part, et même si les assujettis se sont massivement mobilisés, la mise en place d’Operat étant récente, sa prise en main par les acteurs est progressive – et, à ce stade, la non-déclaration n’a pas encore fait l’objet de sanction par l’administration. Sur le milliard de mètres carrés visés par l’obligation, de 600 millions à 650 millions sont effectivement déclarés à ce stade, en outre souvent avec du retard – la déclaration des consommations d’une année doit intervenir au plus tard à la fin septembre de l’année suivante.
Sur l’année la mieux déclarée, 21 % des surfaces concernaient l’enseignement, 17 % les bureaux, 14 % la logistique et 13 % les activités de santé.
Par ailleurs, les données transmises sur Operat constituent désormais une matière nouvelle à exploiter. Néanmoins, la qualité des données recueillies demeure encore inégale. Par exemple, dans le mix énergétique déclaré sur Operat, les énergies de stock (fioul, bois) ne représentent que 3 %, là où l’estimation nationale est évaluée à 17 %.
Un écart qui s’expliquerait par le fait que le relevé de ces consommations, tributaires de livraisons parfois échelonnées à des intervalles plus ou moins fréquents et réguliers, est plus complexe à réaliser pour les déclarants que celui des consommations d’énergies de flux qui font l’objet de facturations mensuelles ou annuelles.
Ces réserves émises, les premières analyses menées par l’Ademe laissent néanmoins entrevoir de premières évolutions, plutôt encourageantes : entre la période de référence (une année choisie par le déclarant entre 2010 et 2019) et 2022, les consommations brutes ont en moyenne baissé de 22 %. Soit la moitié de l’effort à atteindre pour l’échéance 2030.
Notons toutefois que les consommations ne sont pas ajustées au climat, et l’on constate effectivement que les variations observées lui sont très corrélées.
Entre 2020 et 2021, la consommation a augmenté de 7 %, ce qui est notamment lié à la reprise d’activités après le Covid, mais aussi à un climat nettement plus rude.
Entre 2021 et 2022, la consommation a chuté de 6 % (dans un contexte de crise énergétique sur les prix et des approvisionnements) pour atteindre presque le même niveau que l’année 2020. Sur le même intervalle, le climat a été bien plus clément, ce qui a contribué à la baisse des consommations.
Les données Operat permettent en outre d’identifier des disparités géographiques et entre les secteurs.
Du point de vue géographique, la répartition des surfaces déclarées et des consommations énergétiques correspond à celle des principales métropoles françaises et des bassins d’activité sur le territoire national. Les métropoles de Paris, Aix-Marseille, Lyon et Lille concentrent ainsi la majorité des surfaces et des consommations déclarées sur la plateforme. En ce qui concerne l’enseignement et les bureaux, on observe aussi que les zones côtières ont des ratios de consommation globalement plus faibles.
Par ailleurs, la large majorité des déclarations (83 %) concernent les catégories recensant le plus de surfaces (84 %) : enseignement, bureaux, logistique, santé, commerces, sports et hôtels.
Mais certaines activités se révèlent beaucoup plus intenses en énergie : ainsi, les data centers qui ne représentent que 0,1 % de la surface déclarée correspondent pourtant à 2,2 % des consommations et sont la catégorie la plus énergivore. Ils consomment de 2 000 kWh/m2 à 3 000 kWh/m2 par an (contre 100 kWh/m2 à 200 kWh/m2 par an pour un bâtiment classique). Les blanchisseries se distinguent aussi, avec une consommation moyenne proche de 1 000 kWh/m2 par an. Les commerces alimentaires quant à eux oscillent autour de 300 kWh/m2 et 400 kWh/m2 par an.
Entre 2021 et 2022, les premières évolutions observées montrent également que certains secteurs comme la logistique et la santé diminuent leurs consommations unitaires tandis qu’elles ont augmenté pour les hôtels et les commerces non alimentaires.
Il faudra un travail d’analyse plus fin pour expliquer d’où proviennent ces évolutions : quelle est la part du climat, du contexte et des actions de sobriété et d’efficacité énergétique engagées ?
À ce stade, les acteurs s’approprient ce premier travail de déclaration et il ne leur est pas demandé de donner d’éléments sur les efforts qu’ils mènent – seulement la localisation, le type d’activité et les consommations par type d’énergie. Néanmoins, ce premier travail leur permet d’avoir une meilleure connaissance de leur parc, première étape clé pour comprendre quels leviers il est possible d’actionner.
Ces derniers varient énormément selon le type de bâtiments : ainsi, pour un boulanger ou un charcutier, l’enjeu est surtout d’améliorer les process (éclairage, machines, consommation d’eau…). Pour d’autres activités, le concours Cube, qui incite à réaliser des économies d’énergie sans mener de gros travaux, montre qu’il y a des gisements d’économie d’énergie importants lorsque l’on s’intéresse simplement aux dérives de consommation : 15 % en moyenne, et parfois jusqu’à 50 %.
Dans certains cas néanmoins, des actions de rénovation énergétique (sur les bureaux et l’enseignement, par exemple) sont nécessaires sur le bâti et, dans d’autres cas, des mesures de décarbonation. Sobriété, travaux sur le bâti et décarbonation apparaissent donc comme les trois grands piliers.
Aujourd’hui, la démarche de déclaration progresse, mais n’est pas encore acquise, ce qui n’est pas surprenant. En effet, la réglementation est nouvelle, technique et nécessite une montée en compétences pour se familiariser avec les notions réglementaires et la plateforme. Recenser les données attendues, lorsque l’on a aucune compétence en énergie, n’est pas naturel.
En outre, certains détails de la réglementation manquent encore, ce qui n’incite pas forcément tous les acteurs à s’engager dans la démarche : outre l’objectif de réduction en « valeur relative », un autre objectif de consommation énergétique en « valeur absolue » doit être fixé prochainement pour tous les secteurs d’activités – chacun s’orientera vers l’un ou l’autre.
Pour accélérer le processus, un accompagnement est indispensable. Certains assujettis ont déjà recours à des cabinets extérieurs pour réaliser leur déclaration. L’Ademe, avec le soutien de la Direction générale de l’énergie et du climat, porte ainsi un dispositif d’accompagnement, le programme de certificat d’économie d’énergie [« Pacte entreprises »] : sur quatre ans, il entend aider l’ensemble des entreprises du tertiaire en déployant un réseau de conseillers dans les territoires auprès des entreprises.
Une convention de partenariat a également été mise en place avec la Banque publique d’investissements (BPI) pour proposer aux entreprises des diagnostics (décarbonation, adaptation, rénovation du bâtiment), dans le but de faciliter leur passage à l’action.
Par ailleurs, la démarche ACT (pour Accelerate Climate Transition, en anglais) mise en œuvre par l’Ademe permet aux entreprises de diagnostiquer leur stratégie et leurs actions de décarbonation actuelles, et de se fixer des objectifs alignés sur une trajectoire sectorielle.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
06.03.2025 à 11:33
Bruno Peuportier, Directeur de recherche en énergétique, Mines Paris - PSL
Charlotte Roux, Chargée de recherche en écoconception des bâtiments et des quartiers, Mines Paris - PSL
Khaled Khazaal, Doctorant en analyse de cycle de vie des bâtiments, Mines Paris - PSL
Au rythme actuel de la rénovation énergétique, le secteur du logement pourra-t-il se conformer aux objectifs de l’accord de Paris ? Le défi est de taille, mais pas totalement impossible à relever : pour cela, il faudrait que plus de la moitié des logements rénovés, chaque année, puissent prétendre à la classe A de l’étiquette énergie.
Le résidentiel-tertiaire représente 23 % de l’empreinte carbone de la France. Dans ces conditions, il est urgent d’appliquer l’accord de Paris, signé en 2015 pour limiter le réchauffement global à +2 °C – voire +1,5 °C – au secteur du logement.
Un enjeu d’autant plus crucial que le budget 2025 des aides publiques à la rénovation a subi un coup de rabot d’un milliard d’euros par rapport à 2024,
Des habitats exemplaires au plan climatique, qui produisent plus d’énergie qu’ils n’en consomment, existent pourtant déjà. Pourrait-on s’en inspirer pour guider la rénovation énergétique ?
Quelle est l’empreinte carbone actuelle des logements ? Commençons par dresser l’état des lieux : il existe environ 30 millions de résidences principales en France métropolitaine, dont 56 % de maisons individuelles et 44 % d’appartements.
Un diagnostic de performance énergétique (DPE) évalue une étiquette énergie allant de la classe A (la plus performante) à G. Dans les faits :
environ 32 % des logements sont classés au niveau intermédiaire D,
23 % aux niveaux voisins C et E,
10 % en F,
7 % en G,
3 % en B ;
et seulement 2 % en A.
L’étiquette énergie comporte deux indicateurs :
l’un de performance énergétique, exprimé en kilowatt-heure par mètre carré par an,
et l’autre relative à l’impact en termes d’émission de gaz à effet de serre (GES), exprimé en kilogramme équivalent CO2 par mètre carré et par an.
Pour tenir compte du fait que l’étiquette GES d’un logement peut différer de son étiquette énergie, et que les occupants ne chauffent pas forcément la totalité de leur logement toute la journée, les consommations ont été corrigées en utilisant les données de consommations réelles de gaz, d’électricité et de fuel pour le secteur du logement. Même si leur marge d’incertitude est importante, ces étiquettes permettent ainsi d’obtenir un ordre de grandeur de la consommation énergétique du parc de logements.
Pour en calculer leurs émissions de GES, nous avons tenu compte des facteurs d’émissions (quantité de CO2 émise dans l’atmosphère par kilowatt-heure d’énergie consommée) des différentes sources d’énergie utilisées pour le chauffage, l’eau chaude sanitaire et les autres usages. La plupart des logements sont chauffés au gaz ou à l’électricité, mais encore 20 % des maisons utilisent le fioul et 7 % le bois, tandis que le chauffage urbain alimente 10 % des appartements.
Au final, en prenant en compte les importations d’électricité nécessaires en période de pointe correspondant aux journées froides d’hiver, les émissions de GES totales des logements – qui incluent l’ensemble des consommations de chaleur et d’électricité – sont de l’ordre de 60 millions de tonnes équivalent CO2 par an (chiffres de 2022). Soit près d’une tonne par habitant.
À lire aussi : La climatisation et le boom de l’IA vont-ils faire dérailler les engagements climatiques des États ?
Ces émissions de gaz à effet de serre sont-elles compatibles avec l’objectif de l’accord de Paris ? Pour le savoir, il faut revenir au budget carbone évalué par des chercheurs du GIEC, qui correspond aux émissions de carbone supplémentaires permettant d’avoir 50 % de probabilité de limiter le réchauffement à moins de 1,5 °C.
Abonnez-vous dès aujourd'hui !.
Chaque jeudi, recevez gratuitement notre newsletter thématique « Ici la Terre » pour suivre au plus près les questions environnementales.
Début 2023, ce budget global s’élevait à 250 milliards de tonnes équivalent CO2. Si l’on divise ce budget carbone entre les différents pays au prorata de leurs populations respectives, cela équivaut à deux milliards de tonnes pour la France.
Quelle part de ce budget peut être allouée aux logements ? Faisons le calcul à partir des chiffres actuels : le secteur du bâtiment pèse 23 % des émissions de GES de la France, dont les deux tiers concernent les logements – les logements représentent ainsi 15 % de l’empreinte carbone globale du pays. Le budget carbone disponible pour ces derniers se monte alors à 300 millions de tonnes équivalent CO2.
Au rythme actuel des émissions évaluées plus haut, nous aurons donc consommé notre budget en… cinq ans. Certes, les océans et les forêts peuvent absorber une partie des émissions de carbone : on parle de « puits de carbone » naturels. Ces derniers peuvent-ils suffire à compenser nos émissions ?
À lire aussi : Passoires thermiques : les petites copropriétés, oubliées des aides à la rénovation énergétique
Des scientifiques ont évalué un seuil d’émissions de GES compatible avec un réchauffement de 1,5 °C tout en tenant compte de ces puits de carbone. Ce seuil correspond à 0,5 tonne équivalent CO₂ par habitant et par an pour l’ensemble des activités humaines. En considérant que le logement représente 15 % de l’empreinte carbone globale, cela laisse environ 80 kg équivalent CO2 par habitant et par an pour le logement.
Un résultat à comparer au calcul précédent, qui montrait que le logement pèse actuellement environ une tonne équivalent CO2 par an et par habitant… Autrement dit, les puits de carbone ne suffisent pas à compenser l’empreinte carbone actuelle des logements.
Est-il possible de concevoir un logement répondant à cette exigence ? Pour répondre à cette question, nous avons étudié une réalisation exemplaire, construite à Pont-de-Barret (Drôme) par l’ingénieur Olivier Sidler.
La très forte isolation de cette maison annule quasiment les besoins de chauffage, et l’électricité est produite par un système photovoltaïque. L’analyse de cycle de vie que nous avons menée sur ce logement a permis de quantifier les émissions de GES depuis la fabrication des matériaux jusqu’à la fin de vie du bâtiment. La construction fait largement appel à des matériaux biosourcés, dont le bois qui absorbe du CO2 lors de sa production en forêt. Nous avons également considéré que l’électricité provenant du réseau était progressivement décarbonée jusqu’en 2050, conformément à la Stratégie nationale bas carbone (SNBC)
En considérant que cette maison de 106 m2 sera occupée par quatre personnes, le seuil calculé précédemment est respecté. Son coût est d’ailleurs le même que celui de logements sociaux dans la même région : 1 830 euros hors taxes par mètre carré habitable, plus 130 euros par mètre carré habitable pour le système photovoltaïque.
Une bonne nouvelle donc : il est techniquement possible de construire durable.
Mais qu’en est-il des bâtiments existants, donc certains sont anciens ?
Pour avoir une chance de respecter l’accord de Paris, des rénovations globales sont nécessaires afin d’approcher au mieux la performance de la maison présentée ci-dessus.
Cela signifie isoler les murs, plafonds et si possible planchers, mettre en œuvre des doubles ou triples vitrages, des équipements (pompe à chaleur, chaudière bois ou chauffage urbain…) et une ventilation économes.
C’est ce qui a été réalisé par exemple sur l’immeuble ci-contre, rénové en 2010 à Raon-l’Étape (Vosges) pour un coût de 1 116 €/m2.
Dans le programme de rénovation du parc considéré, le principe est de commencer par les bâtiments les moins performants (classés G puis F, etc.). Ce scénario a été simulé sur la durée de 42 ans.
Pourquoi 42 ans ? Il n’est malheureusement pas possible de rénover les 30 millions de logements que compte la France en moins de cinq ans : le nombre de 700 000 rénovations par an est considéré comme la limite supérieure, compte tenu de la capacité et des compétences des entreprises. Ceci conduit à la durée de 42 ans pour rénover l’ensemble du parc.
Ce calcul, même s’il est entaché d’incertitudes liées aux étiquettes énergies et à une modélisation très simplifiée du parc de logements, conduit à plusieurs résultats instructifs de par leurs ordres de grandeur.
Les émissions de GES liées aux travaux de rénovation (fabrication et pose des isolants, dont certains biosourcés, vitrages et équipements performants) sont de l’ordre de 50 millions de tonnes équivalent CO2. Elle entrent donc dans le budget carbone disponible au début 2023. Et à l’issue des 42 ans de travaux pour l’ensemble du parc, un bilan neutre en carbone peut être obtenu.
Cette rénovation est donc possible, mais s’accompagne d’une mauvaise nouvelle, car il faut également prendre en compte les émissions carbone des logements en eux-mêmes – et non pas seulement ceux de leur rénovation –, qui épuisent le budget carbone disponible en sept ans seulement. Le cumul des GES émises en 42 ans est d’environ 900 millions de tonnes équivalent CO2, soit trois fois ce budget.
De plus, tous les logements ne pourront pas être rénovés à ce niveau de performance : il est parfois difficile d’isoler les planchers ou de supprimer des ponts thermiques (interruption d’isolation, par exemple autour d’un plancher). Le coût de telles rénovations peut atteindre plusieurs dizaines de milliers d’euros pour un logement de classe G, ce qui constitue bien entendu un frein, d’où l’importance des aides publiques.
La rénovation du parc a commencé trop tard : au rythme actuel, même un budget carbone à 2 °C de réchauffement sera dépassé.
Il reste toutefois encore un espoir de respecter ce budget : pour cela, il faut rénover 400 000 logements par an selon la classe de performance A. Cela constitue un défi en termes de formation des entreprises et des maîtres d’ouvrage ainsi que d’aides publiques.
Mais il convient de relever ce défi, car nous voyons dès aujourd’hui les conséquences d’un réchauffement de 1,5 °C, atteint en 2024 (mais pas encore sur une moyenne de dix ans). À terme, de nombreux bâtiments ne pourront plus être assurés à cause de risques trop élevés, sans parler de la précarité énergétique qui va croître avec les prix de l’énergie. La sobriété liée aux comportements des habitants est à encourager, mais elle ne suffira pas.
La rénovation permet également de se protéger des vagues de chaleur de plus en plus sévères, car l’isolation thermique protège aussi du chaud. Il ne suffit pas de planter quelques arbres dans les villes, une isolation très performante est nécessaire. L’idée qu’il suffit d’électrifier l’ensemble des usages énergétiques et de relancer le nucléaire est également un leurre, notamment du fait des pics dans la demande générés par le chauffage, qui nécessiteraient un investissement considérable en capacité de production d’électricité.
Il est donc toujours temps de limiter la catastrophe : une rénovation plus performante est possible, et même nécessaire, pour conserver une planète vivable.
Bruno Peuportier a reçu des financements de la Commission européenne, de l’Ademe, de l’ANR et du groupe Vinci pour développer des connaissances sur l’écoconception des bâtiments et des quartiers.
Charlotte Roux a reçu des financements de la Commission européenne, de l’Ademe, de l’ANR et du groupe Vinci pour développer des connaissances sur l’écoconception des bâtiments et des quartiers.
Khaled Khazaal a reçu des financements pour ses travaux de recherche du Lab Recherche Environnement, une chaire de recherche en mécénat financée par Vinci.
05.03.2025 à 15:54
Guillaume Christen, Chercheur associé à l'Université de Strasbourg, docteur en sociologie de l'environnement, Université de Strasbourg
Les enduits de façade utilisés par le secteur du bâtiment contiennent des produits biocides. Utilisés pour empêcher le développement d’algues et de mousse, ils polluent les cours d’eau. Des alternatives existent, mais il n’est pas aisé de faire évoluer les pratiques des peintres en bâtiment, qui appliquent le plus souvent les préconisations des fabricants eux-mêmes. Un projet de recherche européen entre France, Allemagne et Suisse s’est penché sur la question.
Les façades des bâtiments sont rarement « juste » des façades. Elles jouent un rôle social insoupçonné dans l’imaginaire collectif, entre fonction protectrice, image esthétique renvoyée et prolongation de l’habitat intérieur.
En réponse à la première exigence de protection, le secteur du bâtiment a développé des innovations techniques consistant à introduire des biocides dans les couches extérieures (crépis, peinture…) des murs afin de lutter contre le développement des algues, champignons et autres mousses. À la clé, des conséquences non intentionnelles mais problématiques : la diffusion de ces agents dans l’environnement.
Des études en archéologie avaient déjà démontré que la couche protectrice que forme le couvert bactérien (algues et mousses) sur les monuments historiques contredisait les approches interventionnistes qui cherchent à les éliminer, que ce soit par le recours aux biocides, ou au nettoyage systématique.
À lire aussi : Notre-Dame de Paris : une reconstruction réussie, une restauration malmenée et l’environnement oublié ?
Un vaste projet européen de trois ans (2019-2022), auquel j’ai participé, a justement porté sur la pollution aux biocides utilisés dans les enduits de façades dans les eaux souterraines de la région du Rhin supérieur. Cette recherche interdisciplinaire (écotoxicologie, hydrologie, sciences sociales) a été portée par cinq universités de cette région trinationale entre Allemagne, France et Suisse.
Dans ce cadre, il a fallu interroger la ville dans sa dimension socioécologique, entre conception des bâtiments (choix des enduits, pratiques professionnelles…) et effets sanitaires des agents biocides.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
À partir d’une quarantaine d’entretiens conduits auprès des professionnels (peintres en bâtiment, fournisseurs et fabricants des enduits), nos résultats ont permis d’évaluer l’acceptabilité sociale des produits de remplacement aux biocides.
En effet, celles-ci peuvent être des solutions « intelligentes » à base de nanoparticules ou des solutions « low tech ».
Les réponses des professionnels oscillaient ainsi entre deux orientations :
une tendance à l’hyper technicisation qui modernise les produits existants (peinture intelligente à base de nanoparticules),
à l’inverse, des innovations qui amorcent une rupture avec le système de pratiques institué et valorisent des produits dits naturels (peintures minérales, utilisation de la chaux).
Les biocides identifiés dans l’étude sont des molécules de synthèse utilisées comme films protecteurs pour lutter contre les algues, les champignons ou les mousses. Citons par exemple la Terbutryne (algicide), le Diuron (herbicide) et l’Ochtilinone (fongicide), utilisés pour empêcher le développement des espèces végétales et répondre à une demande sociale de façade qui restent propres.
Il est intéressant de remarquer que ces molécules sont également utilisées dans le monde agricole et que certaines sont interdites depuis plusieurs décennies pour l’agriculture, comme le Terbutryne.
Leur utilisation dans le secteur du bâtiment est liée à l’évolution des techniques de construction (par exemple, absence de débord de toit qui protégeait les façades des intempéries) et à l’artificialisation des enduits, avec la fabrication de produits acryliques (dérivés du pétrole).
Le problème, c’est que le maintien des biocides sur la façade n’est pas pérenne. Ces agents sont dégradés sous l’effet des conditions météorologiques puis lessivés par la pluie pour se diffuser au pied des façades, puis dans les eaux souterraines de surface.
Ce processus peut être interprété comme un risque, dans le sens du sociologue Ulrich Beck. Il a pour origine l’innovation technique et reste largement imperceptible. Ce risque n’a pas de limite spatiale et temporelle bien définie. Ces substances chimiques finissent dans les aquifères souterrains et peuvent impacter des milieux éloignés des zones émettrices, d’autant plus que leurs effets peuvent être différés dans le temps.
Par ailleurs, ce risque est susceptible d’en générer une cascade d’autres, dont les conséquences ne sont pas encore clairement identifiées. Notamment en ce qui concerne la dégradation des biocides et leur interaction avec d’autres agents (issus de l’agriculture, des usages domestiques…), dont les effets et la dangerosité restent encore méconnus.
Dès lors, les biocides contenus dans les peintures de façade constituent un réel problème pour les écosystèmes et la santé environnementale compte tenu de leur migration dans les eaux souterraines sous l’effet de la pluie.
Pour faire face à ce problème de manière durable, il faut limiter le recours aux biocides à la source voire s’en passer entièrement. Les pratiques professionnelles des peintres, à l’interface entre l’espace des professionnels (fournisseurs, fabricants, promoteurs…) et celui de la société (habitants des bâtiments, demande sociale des consommateurs), apparaissent comme un maillon essentiel.
Mais la profession de peintre en bâtiment n’est pas homogène. À l’image des oppositions qui structurent le monde agricole entre pratiques conventionnelles et biologiques, le secteur des peintres en bâtiment se caractérise lui aussi par un clivage dans les produits utilisés et leur mode d’application.
Nos entretiens montrent que le type d’enduit utilisé (synthétique ou minéral) permet d’établir une typologie des pratiques qui témoigne d’un rapport différencié à l’identité professionnelle. Celle-ci prend à la fois en compte le lien aux matériaux biosourcés, les relations de dépendance aux fabricants et fournisseurs et plus généralement le rapport à l’autonomie.
On peut ainsi distinguer les peintres dits « conventionnels » (qui utilisent essentiellement des peintures synthétiques avec biocides) et les artisans qui s’orientent vers des matériaux plus naturels comme les enduits minéraux.
Précisons que la profession doit être comprise comme s’insérant dans toute une filière où les fabricants et les fournisseurs d’enduits jouent un rôle prépondérant dans la définition des opérations de chantier. En effet, les fabricants ne commercialisent pas seulement des enduits, mais tout un ensemble de préconisations « clé en main ».
On y retrouve souvent un enduit de réparation, ainsi qu’un fixateur et un produit de finition. Ces chaînes d’opérations sont le plus souvent certifiées par le fabricant. Leur application est susceptible de « protéger » les peintres d’un éventuel litige, notamment dans le cadre de la garantie décennale. Cette prescription devient le plus souvent la norme : il est d’usage que les peintres mobilisent les systèmes complets des constructeurs, en utilisant la même marque pour les différentes chaînes d’opération.
L’organisation de la profession en filière occasionne ainsi une standardisation des pratiques. Dès lors, les peintres bénéficient d’une marge de manœuvre limitée. Face à un risque émergeant comme celui des biocides, la profession est susceptible de surtout suivre les innovations proposées par les réseaux des fabricants-fournisseurs.
Les solutions de remplacement aux biocides s’inscrivent ainsi dans une logique technicienne : les industriels développent des peintures dites « intelligentes » à base de nanoparticules qui permettent la constitution d’un film pour maintenir les façades sèches et « propres ».
Cependant, les solutions techniques basées sur l’encapsulage des biocides ou le recours aux nanoparticules de métal génèrent de nouveaux problèmes encore peu étudiés, comme la diffusion de microplastiques ou de nanoparticules dans l’environnement.
Ceci rejoint la logique décrite par la sociologue autrichienne Marina Fischer-Kowalski, spécialiste de l’écologie sociale, pour qui nos problèmes environnementaux relèvent notamment d’une « colonisation » des processus naturels par la technique : ici, l’artificialisation des enduits de protection.
Loin de remettre en cause ce mouvement, de telles innovations techniques génèrent ainsi de nouveaux risques.
Une minorité de professionnels valorisent les qualités naturelles des peintures minérales (chaux, silicates) comme solution de remplacement aux biocides. Ces enduits minéraux ont pour particularité de favoriser les transferts d’air et d’humidité et de laisser les murs « respirer ». Un artisan nous l’a ainsi expliqué :
« Je fais les réparations avec des enduits à base de chaux, nous on est complètement respirant […] car la chaux est un super régulateur de l’humidité et un antifongique, on ne peut pas faire plus naturel ».
Ce même artisan cite la microporosité des enduits qui aide les échanges, contrairement aux crépis plastifiés :
« Avec les peintures minérales, on a une microporosité à la vapeur d’eau qui avoisine les 2000 grammes au mètre carré. Les peintures minérales sont respirantes, il y a un échange qui se fait. Sur les peintures semi-minérales, on tombe à 1200, ce qui est pas mal, alors imaginez avec les peintures qui plastifient les murs ».
Les crépis ont un effet imperméabilisant avec un risque de moisissures. À l’opposé des enduits minéraux qui, en raison de leurs propriétés respirantes, évitent les effets de verdissement. Outre l’emploi de peintures minérales, d’autres alternatives émergent, comme l’usage de plantes (sous forme d’huiles essentielles) qui contiennent des molécules bioactives aux propriétés antifongiques.
Ces alternatives peuvent se lire comme des « innovations par retrait ». Celles-ci ne reposent pas sur le développement de la performance technologique, mais instaurent un nouveau rapport à la nature. Non seulement on active les potentialités des enduits naturels (respirabilité, protection) mais ceux-ci redeviennent des partenaires avec lesquels un secteur professionnel va pouvoir composer.
Mais ces innovations environnementales reposent, en creux, sur l’innovation sociale. En effet, ce statut d’auxiliaire se heurte à des freins qui témoignent des difficultés à admettre que les matériaux naturels puissent remplacer des enduits synthétiques et fortement technicisés.
Elles seraient pourtant précieuses pour les politiques publiques visant à amorcer une transition vers une ville sans biocide. Elles permettraient de réinscrire son fonctionnement dans des cycles naturels. Renoncer aux biocides favoriserait en effet la prise en compte d’autres enjeux globaux, comme la perspective d’une ville plus perméable, qui gérerait différemment les eaux pluviales (noues, bassins de sédimentation…).
_Nous remercions chaleureusement Jens Lange (Université Albert-Ludwig de Fribourg-Allemagne) le coordinateur du programme Interreg Navebgo. La recherche associe des chercheurs du département d’Hydrologie de l’Université Albert-Ludwig de Fribourg-en-Brisgau (Allemagne), du Groupe de travail sur l’écotoxicologie fonctionnelle aquatique (Université de Coblence-Landau), de l’Institut de chimie durable et de chimie de l’environnement (Université de Leuphana Lüneburg), du Laboratoire Sociétés, Acteurs, Gouvernement en Europe (Université de Strasbourg) ainsi que l’Institut Terre et Environnement de Strasbourg. _
Navebgo a été financé par le programme Interreg V du Rhin-supérieur.
04.03.2025 à 16:24
Hélène Jalin, Doctorante en psychologie au Laboratoire de Psychologie des Pays de la Loire, Nantes Université
C’est un atelier pédagogique de sensibilisation au changement climatique qui jouit d’un succès grandissant. La « Fresque du climat » revendique avoir touché 2 millions de personnes. Mais comment affecte-t-elle ses participants ? Une étude inédite montre que trois mois après y avoir pris part, la grande majorité des personnes n’ont pas tellement changé leur mode de vie.
Peut-être avez-vous déjà participé à un atelier de la « Fresque du climat », en tant que salarié, fonctionnaire, élu ou même simple citoyen ? Si c’est le cas, vous avez rejoint les rangs des près de deux millions de personnes revendiquées sur le site de l’association la Fresque du climat. Le principe en est le suivant : construire une fresque en mettant en lien des cartes intitulées, par exemple, « effet de serre » ou « acidification des océans » pour mieux comprendre le dérèglement climatique et son origine humaine. Les quatre dernières cartes qui clôturent la fresque décrivent les conséquences potentiellement dramatiques du dérèglement climatique : guerres, famines, maladies et déplacements de population.
La deuxième partie de l’atelier permet d’échanger sur les enjeux abordés, en donnant à chaque personne présente des clés pour réduire son empreinte carbone. Cette sensibilisation à grande échelle est une bonne nouvelle pour la planète, mais quel est son impact réel ? Notre équipe, composée de psychologues et de psychologues sociaux, a cherché à répondre à cette question.
Pour y répondre, nous avons suivi 460 participants à l’atelier de la Fresque du climat pendant trois mois et comparé l’évolution de leurs comportements à ceux d’un groupe qui n’y avait pas participé. Les ateliers étaient organisés en entreprises, en collectivités ou dans des grandes écoles.
Nos résultats montrent que 30 % des participants à la fresque ont significativement modifié leurs habitudes un mois après, contre seulement 9 % dans le groupe qui n’y avait pas participé. La sensibilisation apparaît donc efficace, mais seulement pour une minorité de participants. Par ailleurs, les efforts étaient concentrés dans le mois qui suivait l’atelier et disparaissaient ensuite.
Comment expliquer ces résultats ? Il existe probablement de nombreuses raisons qui influencent la motivation à agir, mais, en psychologie, on considère que les émotions sont les principaux moteurs à l’action. Par exemple, la colère pousse les individus à résoudre les injustices qui leur sont faites, la joie les amène à se rapprocher des autres et la peur à fuir le danger ou à le combattre.
Or, les animateurs de la Fresque du climat le savent bien : les mauvaises nouvelles annoncées dans le cadre de l’atelier peuvent générer des émotions difficiles et même, parfois, de véritables chocs psychologiques. Certaines personnes réalisent seulement à cette occasion à quel point la situation climatique est grave. D’ailleurs, les concepteurs de la fresque ont ajouté un temps de partage émotionnel à la version initiale de l’atelier pour permettre aux participants d’exprimer leurs ressentis et, ainsi, repartir moins perturbés.
Or, nos résultats sont formels : d’abord, les personnes les plus écoanxieuses étaient, avant même l’atelier, les plus engagées en faveur de l’environnement. Mais de surcroît, les participants qui ont ressenti un pic d’écoanxiété après l’atelier sont également ceux qui ont consenti le plus d’efforts pour faire évoluer leurs habitudes de vie. L’écoanxiété, trop souvent réduite à un problème de santé mentale, joue donc avant tout un rôle de motivation à l’action en faveur de la transition environnementale.
À lire aussi : L’éco-anxiété : une réponse saine face à la crise climatique
Mais tout n’est pas si simple.
Nous avons également souhaité étudier l’impact de la tonalité émotionnelle de l’atelier sur son efficacité et, pour cela, nous avons testé trois modalités d’animation de la deuxième partie de l’atelier, celle qui consiste à échanger sur les implications et les solutions : la première, qualifiée de « stressante », insistant sur les risques ; la seconde insistant sur les réussites et les progrès déjà accomplis ; et la dernière, qualifiée de « mixte », insistant sur les risques, puis sur les progrès.
Il s’avère que la modalité d’animation la plus efficace pour faire évoluer les participants était celle qui adoptait une tonalité mixte. C’est-à-dire celle dans laquelle les participants étaient confrontés aux mauvaises nouvelles, puis exposés à des informations plus positives : le stress, puis l’espoir. Quant aux efforts consentis par les participants aux ateliers dits « stressants » ils n’étaient pas significativement différents de ceux du groupe n’ayant pas participé à l’atelier.
Des recherches montrent ainsi que lorsque les gens ont le sentiment de perdre le contrôle d’une situation, ils ont tendance à fuir le problème, voire à nier son existence. Désespérer des personnes, les confronter à leur impuissance sans leur donner le moindre espoir, ce n’est pas mobilisateur, ça pousse simplement au déni. Dans la modalité mixte, le fait de donner des bonnes nouvelles en fin d’atelier a permis aux participants de percevoir la situation comme moins incontrôlable et leur a probablement donné envie d’agir pour contribuer aux efforts collectifs.
Malheureusement, les efforts collectifs concédés à l’échelle du globe restant très insuffisants, plus d’un tiers des gens se réfugient dans le climatoscepticisme, et ce chiffre augmente à mesure que la crise climatique devient de plus en plus incontrôlable.
C’est donc un paradoxe dramatique : plus les humains percevront la situation comme désespérée, moins ils auront tendance à agir pour résoudre le problème. D’autres biais interviennent d’ailleurs pour faire de la crise climatique l’une des plus insolubles que l’humanité n’a jamais affrontées.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
Après l’atelier, les participants sont retournés à leurs routines habituelles, souvent sans cadre ou réseau pour soutenir leurs efforts. Or, la littérature en psychologie sociale montre que les changements durables sont plus probables lorsque les individus s’inscrivent dans une dynamique collective ou reçoivent un renforcement social (encouragements, reconnaissance).
Sans cet appui, les nouvelles résolutions perdent rapidement de leur attrait. Par ailleurs, la difficulté à percevoir un impact immédiat des efforts consentis peut entraîner du découragement et un abandon progressif de l’engagement. Suite à la Fresque du climat, la motivation initiale, « extrinsèque », car alimentée par l’effet de groupe, a donc eu tendance à s’affaiblir chez la plupart des participants, à défaut de transformation en une motivation intérieure plus profonde.
À l’heure actuelle, pour réduire efficacement son empreinte carbone, il faut accepter d’agir « sans trop y croire ». La plupart des personnes qui s’engagent dans cette voie le font pour s’aligner avec des valeurs écologiques qui font sens pour elles. Dans ce cadre, les émotions restent le carburant principal de ce passage à l’action.
Les écoanxieux ressentent souvent un mélange d’anxiété face à l’avenir, de colère associée à l’inaction, de tristesse face aux dommages causés au vivant et de culpabilité vis-à-vis des plus vulnérables et des générations futures. C’est cette « potion magique » émotionnelle qui les amène à consentir des efforts parfois très importants et, souvent, à devenir des sources d’inspiration pour beaucoup d’autres.
Mais pour revenir à la Fresque du climat, les résultats de notre recherche soulignent la nécessité de repenser le suivi des participants après l’atelier. Des actions régulières, comme des ateliers de rappel, des objectifs collectifs ou des récompenses pour les progrès réalisés, pourraient consolider l’engagement en faveur de la transition écologique sur le long terme. Le fait de sentir qu’on n’est pas seul à agir et de pouvoir se challenger collectivement sur les efforts consentis pourrait sans doute permettre de prolonger l’impact de l’atelier.
Nous espérons l’avoir démontré : il est également important de remettre les émotions au cœur du dispositif de sensibilisation. C’est difficile, car notre culture fait tout pour les mettre à distance, mais c’est probablement l’enjeu principal de la transition écologique.
Dans le cadre de cette recherche, nous avions d’ailleurs initialement pensé à tester une méthode d’animation de l’atelier qui soit entièrement consacrée à l’accueil des émotions. Notre hypothèse était que cette modalité d’animation serait probablement le plus efficace pour pousser les participants au changement. Malheureusement, ça n’a pas été possible, mais au regard de l’influence de la Fresque du climat dans de nombreuses organisations, il semblerait intéressant de mener une nouvelle étude pour s’en assurer.
Enfin, pour transformer cet élan en véritable moteur de changement, il reste bien évidemment essentiel de compléter les actions de sensibilisation locale par des politiques publiques ambitieuses et des dispositifs d’accompagnement à long terme.
Le fait de sentir que nos actions s’intègrent dans un objectif commun, que les efforts sont concédés à tous les niveaux et par tous, au sein d’un projet de société partagé et qui fasse sens, est primordial. Le poids de la norme sociale reste très puissant et si l’on sent que les autres agissent, il nous semblera logique d’agir également.
Hélène Jalin est membre du Réseau des professionnels de l'Accompagnement Face à l'Urgence Ecologique (RAFUE). www.asso-rafue.com
03.03.2025 à 16:33
Julien Gargani, Enseignant-chercheur, Directeur du Centre d'Alembert, Université Paris-Saclay
La durée du relèvement d’un territoire après une catastrophe naturelle dépend de nombreux facteurs, en particulier de ses fragilités antérieures. Le défi qui attend Mayotte après le passage du cyclone Chido en décembre 2024 est donc de taille.
Le cyclone Chido, qui a touché l’île de Mayotte dans l’océan Indien le 14 décembre 2024, a fait de nombreuses victimes et des dégâts importants. On déplore au moins 39 morts et 5 600 blessés. Les habitations et les infrastructures de l’île ont été partiellement détruites. L’aéroport, l’hôpital, de nombreuses écoles, le réseau électrique, l’accès à l’eau et la circulation sur les routes ont été touchés, déstabilisant profondément l’île.
Outre les dégâts immédiats, ce type de catastrophes a de nombreux effets négatifs secondaires qui se surajoutent durant les mois et les années qui suivent. Ces effets affectent le corps et l’esprit, l’individu et le corps social. Des situations de stress posttraumatiques ont ainsi été observées après l’ouragan Irma.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
Durant les heures et les semaines qui suivent ce genre d’évènements, des coupures d’électricité réduisent la qualité des soins médicaux et augmentent les risques de décès. Les conditions de vie sont significativement détériorées, ce qui peut conduire à de nombreuses pathologies.
L’humidité propre à la saison cyclonique affecte particulièrement la santé des enfants et des personnes à la santé fragile. L’absence d’eau potable et la nourriture en faible quantité et de qualité médiocre favorisent un affaiblissement de l’état général des populations. Pourtant, ce sont ces mêmes personnes dont on attend de reconstruire efficacement tout ce qui a été détruit.
Face à cette catastrophe, la question du temps de la reconstruction se pose. Si cinq ans ont été nécessaires pour rebâtir Notre-Dame de Paris après son incendie, combien en faudra-t-il pour toute une île ? Afin de ne pas ajouter du désespoir à cette situation difficile, certains proposent un calendrier volontariste de deux ans. Le temps de relèvement est un enjeu tant politique qu’organisationnel.
Si le relèvement des territoires après les catastrophes est si long, c’est parce que les impacts négatifs sur la société et l’économie sont multiples. Les difficultés à faire repartir un type d’activité donnée retentissent sur le redémarrage d’autres secteurs, et vice versa. L’imbrication des activités rend la reprise globale plus lente. Par ailleurs, durant la saison cyclonique, les pluies importantes n’aident pas à la reconstruction.
D’un point de vue économique, la baisse d’activité et l’augmentation du chômage qui surviennent après les catastrophes conduisent à un appauvrissement des territoires concernés et favorisent l’accroissement des inégalités.
C’est d’autant plus vrai lorsque ces territoires sont plus pauvres au départ. Or, l’île de Mayotte connaissait déjà une situation économique et sociale complexe, même avant les effets du cyclone. Certes plus riche que les îles voisines, elle souffre néanmoins de très fortes inégalités, qui la rendent plus fragile que des territoires non insulaires. Son PIB par habitant est plus faible que celui de Saint-Martin et Saint-Barthélemy, îles caribéennes, qui avaient été impactées par l’ouragan Irma.
Les possibilités de reprise d’activité de certaines personnes sont aussi conditionnées par le retour à la normale du système éducatif. Or, les élèves ne sont retournés à l’école que plus d’un mois après le cyclone et dans des conditions dégradées, car les établissements scolaires, déjà en nombre insuffisant et dans des conditions insatisfaisantes, se trouvent encore moins nombreux et dans des états encore plus critiques. Des enfants ont été rescolarisés sur l’île de La Réunion, d’autres étudient de chez eux avec leur famille.
Les expériences passées concernant le relèvement après une catastrophe révèlent que la reconstruction du réseau électrique est fondamentale. L’électricité est essentielle pour le fonctionnement du réseau d’eau, pour les télécommunications, pour beaucoup de systèmes de transport (aéroport, feu tricolore, voiture électrique, etc.). L’électricité est nécessaire pour de nombreuses activités sociales et économiques.
De ce fait, la consommation d’électricité est un indicateur efficace pour estimer la reprise d’activité après les cyclones. La coordination de la reprise des activités et l’évaluation du temps de la reprise peuvent être améliorées par l’observation de cet indicateur.
Durant les dernières décennies, le suivi de la production d’électricité a montré que c’était un indicateur pertinent pour les évènements économiques, sanitaires et sociaux. Ainsi, la production et la consommation d’électricité ont permis de caractériser l’effet du Covid-19 sur les activités socioéconomiques à des échelles très larges, de mesurer l’effet des crises financières – comme celle des subprimes – et d’évaluer l’impact du réchauffement climatique sur la production d’électricité dans les milieux insulaires tropicaux.
Malgré l’intérêt d’organiser ce relèvement des territoires après les catastrophes, les retours d’expériences sont relativement peu nombreux et le temps nécessaire à la reconstruction est peu étudié. Après l’urgence, les territoires sont rarement suivis et accompagnés pendant de longues périodes, ce qui limite la connaissance que l’on a de cette phase.
Début janvier, l’électricité a été rétablie chez près de 70 % de clients à Mayotte. Reste à savoir quand les personnes qui n’ont plus ni toit ni réfrigérateur retrouveront-elles des conditions de vie proches de celles qu’elles connaissaient avant la catastrophe. Si la qualité de vie prendra du temps, le rétablissement d’aspects quantitatifs pose également question. Des activités ont disparu, des objets ont été détruits, des personnes manquent à l’appel parce qu’elles ont quitté le territoire.
Une partie de la population s’est réfugiée en dehors de Mayotte, comme à La Réunion par exemple. Les réfugiés « climatiques » de Mayotte, comme précédemment ceux de l’île de Saint-Martin après l’ouragan Irma, ne retourneront peut-être pas tous dans leur ancien lieu d’habitation. Ainsi à Saint-Martin, 20 % de la population a migré hors de l’île dans les mois qui ont suivi l’ouragan Irma en 2017 et environ 10 % d’entre eux ne sont pas revenus durant plusieurs années. Qu’en sera-t-il à Mayotte ?
Le parallèle entre la trajectoire qu’a suivi Saint-Martin peut être utile à anticiper ce qui pourrait se passer à Mayotte. S’il ne faut, en général, que quelques mois pour rétablir le réseau électrique, le temps nécessaire à la reprise globale des activités sera bien plus long, comme le montrent les exemples de Saint-Martin mais aussi de Saint-Barthélemy, qui pourtant connaissaient des situations socioéconomiques plus favorables.
Il est ainsi peu probable que Mayotte connaisse un relèvement plus rapide que Saint-Martin et Saint-Barthélemy, sauf à ce qu’une aide importante et prolongée (supérieure à celle qu’ont reçu Saint-Martin et Saint-Barthélemy) soit fournie.
Les retours d’expériences des ouragans Irma et Maria (2017) à Saint-Martin, à Saint-Barthélemy et à Porto Rico suggèrent que les conséquences dureront des années.
À Saint-Martin, la production électrique a été coupée pendant juste quelques jours, mais il a fallu un peu plus d’un mois pour reconstruire le réseau électrique – et plus de quatre ans pour que la production et la consommation électriques reviennent à leurs niveaux antérieurs.
Une fois la capacité de production et de distribution de l’électricité rétablie, une différence de production subsiste plusieurs années, liée à des activités sociales et économiques restreintes. Durant cette phase de relèvement, les économies d’énergie et la production d’énergie bas carbone doivent bien sûr être encouragées.
Certains secteurs économiques bénéficient d’un surcroît d’activités, comme le secteur de la construction (maçonnerie, génie civil, bureau d’études en géotechnique, architecte). Certaines activités de service public sont aussi susceptibles d’être renforcées sur un territoire où elles étaient sous-dimensionnées. Mais qu’en sera-t-il en période d’économies budgétaires ?
Un scénario potentiel est un exode significatif de population, du fait de conditions de vie dégradées, d’infrastructures collectives endommagées, de stress posttraumatique diffus, d’un sentiment d’insécurité et d’une insécurité croissante, de tensions sociales et politiques plus vives. Ceci sans parler des politiques menées à l’encontre des personnes originaires des autres îles de l’archipel des Comores.
La vulnérabilité des populations augmente de façon importante après les catastrophes et en phase de relèvement. C’est pourquoi de nombreux acteurs jugent cette phase critique trop longue et les soutiens trop faibles. La promesse d’un relèvement rapide est porteuse d’espoir, mais aussi de déception et de colère lorsqu’il ne se réalise pas.
La durée et le déroulement de cette phase sont cruciaux. Certains acteurs considèrent la phase post-catastrophe de relèvement comme une opportunité pour planifier un développement différent. Les tensions sociales qui pourraient émerger, comme à Saint-Martin en décembre 2019, incitent à la prudence.
Difficile de prévoir exactement combien de temps sera nécessaire pour que le relèvement d’un territoire soit complet. Cela dépend de l’état du territoire avant la catastrophe, de la nature de la catastrophe et de l’aide reçue pour se relever.
À Mayotte, des années seront indispensables avant de revenir à des conditions de vie proches de celles antérieures au cyclone Chido, mais nous manquons d’expérience pour prédire le temps précis que cela prendra. Ce qui ne doit pas nous empêcher d’agir.
Plusieurs actions sont possibles pour favoriser un relèvement rapide des territoires affectés par les catastrophes naturelles.
En particulier :
des secours d’urgence réactifs et efficaces pour la population (eau, nourriture, aide médicale et psychologique, logements d’urgence),
la construction ou reconstruction d’infrastructures collectives de qualité et en nombre suffisant,
des aides financières, techniques et humaines pour une reconstruction adaptée du territoire, notamment des aides rapides pour la reconstruction paracyclonique et des aménagements spécifiques,
de la prévention, permettant de réduire les vulnérabilités, et la mise en place de solutions sociales,
le fait de favoriser une production locale, y compris d’énergie bas carbone.
Julien Gargani a reçu des financements de l’ANR pour l’étude du relèvement de Saint-Martin et Saint-Barthélemy après l’ouragan Irma (ANR Relev, 2018-2022).
03.03.2025 à 12:13
Alexandre Rambaud, Maître de conférences en comptabilité - Co-directeur des chaires "Comptabilité Ecologique" et "Double Matérialité", AgroParisTech – Université Paris-Saclay
Une lutte géopolitique feutrée se joue en coulisse, celle de l’adoption de normes comptables de durabilité à l’international. Deux protagonistes s’opposent : l’initiative de l’International Sustainability Standards Board (ISSB), non affilié à un État, et celle de la Corporate Sustainability Reporting Directive (CSRD) de l’Union européenne. Avec la Chine aux aguets.
La comptabilité, langage fondamental des organisations structurant leur gestion et l’analyse de leur performance, façonne dès lors non seulement les entreprises, mais aussi la finance et l’économie. Sa normalisation étendue aux enjeux de durabilité est vue comme cruciale. Plus d’une trentaine de pays adoptent actuellement une telle normalisation.
Deux initiatives constituent le socle des orientations retenues par ces pays : celle de l’Union européenne, via la Corporate Sustainability Reporting Directive (CSRD), et celle de l’organisme américain de droit privé, l’International Sustainability Standards Board (ISSB). Dans ce contexte, la Chaire Double matérialité vient de publier une analyse géopolitique et critique de ces deux avancées normatives. Qui de l'ISSB ou de CSRD s'imposera dans l'évolution de la normalisation comptable à l'international ?
Au moment où la CSRD est en rediscussion au sein de l’Union européenne, avec certaines demandes d’alignement complet sur l’ISSB, il est nécessaire de contribuer à alimenter le débat. Ces questions jugées très techniques sont pourtant déterminantes pour nos économies et… la géopolitique future.
Structurellement, l’initiative de l’ISSB et de l’Union européenne diffère par une vision radicalement opposée de la durabilité. La première repose sur le principe de la « matérialité financière », tandis que la seconde est fondée sur la « double matérialité » (DM). Issu de du terme anglais juridique materiality, « matérialité » signifiant « importance de l’information ».
Pour l’ISSB, la comptabilité durable doit uniquement prendre en compte les impacts de l’environnement – naturel et social – sur la performance financière de l’entreprise. Pour la CSRD et le principe de double matérialité, il s’agit de prendre en compte également les impacts de l’entreprise sur l’environnement. Cette divergence a des implications profondes en termes d’alignement ou non sur des exigences scientifiques écologiques.
Créé en 2021, l’International Sustainability Standards Board (ISSB) est un organisme de droit privé ; la Fondation qui l’abrite relève du droit des États-Unis. Son rôle est d’étendre les normes comptables International Financial Reporting Standards (IFRS) – les principales normes comptables internationales des entreprises depuis les années 1970 – aux enjeux de durabilité. Ces nouvelles normes se nomment donc les IFRS S – S pour Sustainability. L’adoption des IFRS par un État ne conditionne pas l’adoption des IFRS S, mais peut la faciliter.
Les IFRS – financières et durable – sont des normes privées, dont la légitimité repose uniquement sur celle que les acteurs publics ou privés souhaitent leur accorder. La plupart des États dans le monde ont adopté progressivement les IFRS – financières – pour les comptes de certaines de leurs entreprises, notamment cotées. À l’exception notable des États-Unis.
Abonnez-vous dès aujourd’hui !
Que vous soyez dirigeants en quête de stratégies ou salariés qui s’interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts.
Ce refus s’explique en partie par une question de souveraineté. Les États-Unis ne souhaitent pas déléguer leurs propres normes comptables financières à un organisme privé. Une autre raison: les normes comptables devraient servir l’intérêt public d’un État donné. Ce dernier point pose question si elles sont émises par un organisme privé, qui n’est pas non plus une organisation internationale, au sens du droit international.
Votée en 2022, la Corporate Sustainability Reporting Directive (CSRD) est une démarche officielle de l’Union européenne. Elle impose à certaines entreprises de se conformer aux normes européennes de comptabilité durable ou European Sustainability Reporting Standards (ESRS), incluses dans la CSRD. La France a été le premier pays à transposer la CSRD, notamment du fait de sa place prépondérante dans les travaux à l'origine de cette directive.
Nous sommes dans deux registres différents de l’évolution comptable et du débat public afférent : l’un par la « loi » votée démocratiquement – la CSRD –, l’autre – l’ISSB – par la norme privée.
L’Union européenne dispose d’une influence importante dans la diffusion de règles comptables de durabilité à l’international. Elle peut s’appuyer sur le principe d’extra-territorialité de la CSRD, applicable dès 2028. De fait, cette directive aura des effets pour des entreprises de pays tiers. La Securities and Exchange Commission (SEC) aux États-Unis a reconnu, par exemple, que le nombre d’entreprises états-uniennes qui pourraient être concernées par les ESRS n’est pas négligeable. L’Union européenne possède également un atout : 80 % des encours de la finance dite durable se situent au niveau de son territoire. De facto, les investisseurs intéressés par des produits financiers durables ne peuvent contourner réellement l’espace européen.
La scène internationale de cette normalisation est clairement occupée par l’ISSB et l’Union européenne, avec leurs deux approches radicalement différentes de la comptabilité durable et de l’intérêt public. Ces acteurs alimentent une réelle géopolitique de la normalisation comptable de durabilité. La géopolitique de la norme comptable financière a été longuement étudiée. Elle met en évidence les conflits et jeux de pouvoir autour de ces normes structurant le monde de l’entreprise et de la finance. La nouveauté ? L’adapter aux enjeux de la normalisation de durabilité, émergents, mais bien présents.
Une illustration de l’influence européenne est la normalisation comptable de durabilité du Bostwana, une des places financières les plus stables d’Afrique. Ce pays a non seulement retenu le principe de double matérialité en 2024, mais a également pris les ESRS comme guide pour ses propres normes.
À lire aussi : Résilience climatique des entreprises : comment préserver son avantage concurrentiel ?
La Chine, de son côté, a officiellement adopté le principe de la double matérialité en 2024. Elle se rapproche de la position européenne, tout en indiquant s’aligner sur les IFRS S. Cet alignement, qui pourrait sembler opposé à la vision en double matérialité, cache plutôt une adoption de façade, en lien avec l’approche que la Chine a toujours eue des IFRS. La Chine conserve ainsi une attitude complexe vis-à-vis de ces normes. Elle les a acceptées, mais sans jamais réellement intégrer tous leurs principes, notamment celui de la prégnance de la « juste valeur » dans les comptes. Ce dernier correspond schématiquement à un alignement de la comptabilité sur les marchés financiers.
Dans ce contexte, plusieurs blocs géopolitiques semblent émerger et doivent être confirmés.
L’ISSB, acteur non étatique, dispose d’un rôle déterminant, mais non encore stabilisé dans la future cartographie des normes comptables de durabilité internationale. Quant à l’Union européenne, elle dispose d’une influence certaine à l’international. Ses positions alimentent un débat et des prises de position par différents États sur leur propre normalisation. Indépendamment de l’élection de Trump, de leur côté, les États-Unis rejettent massivement ces questions. La Chine se positionne fortement sur ces enjeux, en lien avec sa politique d’investissements verts.
Sont à suivre notamment dans le futur les positions des pays africains, du Canada, tiraillé notamment entre la position des États-Unis et de l’Union européenne, et de l’Asie, en partie dans la sphère d’influence de la Chine.
Alexandre Rambaud est membre du CERCES (Cercle des comptables environnementaux et sociaux). Il codirige les chaires 'Comptabilité Ecologique' (Fondation AgroParisTech) et 'Double Matérialité' (Institut Louis Bachelier).
03.03.2025 à 12:13
Charlotte Disle, Maîtresse de conférences, Université Grenoble Alpes (UGA)
Rémi Janin, Maître de conférences - Reporting financier et extra financier des organisations à Grenoble IAE INP, Université Grenoble Alpes (UGA)
En privilégiant une approche allégée du reporting extrafinancier, la Commission européenne risque de favoriser indirectement l’International Sustainability Standards Board (ISSB). Cet organisme de droit privé entend imposer sa vision centrée sur les investisseurs et… le marché. Une vision pas si apolitique qu’il y paraît ?
La réglementation européenne omnibus entend assouplir certaines obligations du reporting extrafinancier. Conclusion : suppression de la CSRD pour près de 80 % des entreprises concernées, report pour d’autres, report du devoir de vigilance, modification de la taxe carbone aux frontières, etc. Stéphane Séjourné, vice-président exécutif de la Commission européenne, avait évoqué sa possible suppression. Une aubaine pour l’ISSB, grand concurrent de la CSRD. Cet organisme de droit privé juridiquement domicilié au Royaume-uni a pour ambition de définir les nouvelles normes comptables extrafinancières.
Pour l’ISSB, la finance est le principal levier de transformation. En fournissant aux investisseurs des données extrafinancières fiables, ces normes permettraient que les capitaux s’orientent naturellement vers les entreprises les plus performantes en durabilité. Cette vision s’oppose à une autre, celle de la Corporate Sustainability Reporting Directive (CSRD) créée par l’Union européenne. Cette directive cherche à imposer un cadre normatif plus ambitieux, estimant que le marché seul ne suffit pas à intégrer pleinement les enjeux extrafinanciers.
« On compte beaucoup de choses qui comptent, mais on ne compte pas tout ce qui compte » rappelait Emmanuel Faber, ancien président-directeur général de Danone et actuel président de l’International Sustainability Standards Board (ISSB). Alors qui pour compter ce qui compte vraiment ?
Créé en 2021 sous l’égide de la Fondation IFRS – garant du référentiel comptable international –, l’ISSB vise à harmoniser le reporting extrafinancier. Le mandat de la Fondation IFRS est d’« assurer la transparence, la responsabilité et l’efficacité des marchés financiers au niveau international ».
« Ce qui me rend fondamentalement optimiste est le rôle que peuvent jouer les marchés financiers dans la transition que nous devons réussir », rappelle Emmanuel Faber, président de l’International Sustainability Standards Board (ISSB).
Fidèle à cette approche, l’ISSB conçoit la comptabilité comme un outil au service des investisseurs. Il nomme ces nouvelles normes extrafinancières IFRS S – S, pour Sustainability. Pour l’organisme londonien de droit privé,
« on peut raisonnablement s’attendre à ce que ces normes aient une incidence à court, moyen ou long terme sur les flux de trésorerie d’une entreprise, son accès à du financement ou son coût du capital ».
Trois grands principes structurent cette vision :
Faciliter le financement de la transition écologique grâce à des données comparables et standardisées ;
Permettre une meilleure évaluation des risques extrafinanciers, en intégrant ces critères dans les décisions financières ;
Harmoniser les référentiels à l’échelle mondiale, afin de garantir la stabilité des marchés et éviter leur fragmentation.
Il n’est pas toujours simple d’analyser à quel rythme les normes IFRS S se déploient car l’ISSB mêle habilement dans sa communication les pays menant des consultations en vue d’une future adoption et les pays ayant définitivement adopté ses normes. Sur la base du dernier rapport publié par l’ISSB, fin 2024 :
« Trente pays, hors de l’UE, ont choisi d’engager leur processus d’adoption des normes ISSB, plus de la moitié l’a déjà finalisé au cours des derniers mois, les premières mises en œuvre étant pour début 2025. »
Ces 30 pays représentent 57 % du PIB mondial et 50 % des émissions de GHG mondiales.
À l’inverse de l’ISSB qui insiste sur son « caractère apolitique », l’Union européenne a choisi une voie plus ambitieuse. Entrée en vigueur en janvier 2024, la CSRD instaure un cadre contraignant afin de responsabiliser les entreprises au-delà de leurs seuls intérêts financiers. Concrètement, les grandes entreprises doivent intégrer au sein d’une section distincte de leur rapport de gestion des informations en matière de durabilité ou publier en tant que tel un état de durabilité. Son fondement repose sur celui de la double matérialité, qui intègre deux dimensions complémentaires :
La matérialité financière évalue comment les enjeux environnementaux, sociaux et de gouvernance influencent la performance financière de l’entreprise, ses risques et ses opportunités ;
La matérialité d’impact analyse comment l’entreprise affecte la société et l’environnement, indépendamment de son impact financier direct.
En 2026, la CSRD aurait dû concerner 50 000 entreprises dans l’Union européenne. Mais cette ambition est aujourd’hui remise en question avec la directive européenne omnibus. La Commission européenne entend réduire le périmètre de l’obligation, pour le restreindre aux très grandes entreprises de plus de 1 000 salariés. L’obligation ne concernerait plus 50 000 mais 10 000 entreprises européennes.
La normalisation comptable est de facto toujours influencée par des choix politiques et économiques, tel que nous l’enseigne la théorie positive de la comptabilité développée par Watts et Zimmerman. Elle souligne que les entreprises sont exposées à des coûts politiques découlant des réglementations favorisant certaines parties prenantes au détriment d’autres.
À lire aussi : BlackRock : un mastodonte financier au pouvoir d’influence pourtant mesuré
Ces coûts sont d’autant plus susceptibles d’apparaître lorsque les entreprises affichent des bénéfices élevés ou exercent dans des secteurs fortement exposés aux réglementations et aux attentes sociétales. Dans ce contexte, les normes de l’ISSB et de la CSRD offrent deux stratégies distinctes. L’ISSB, en s’appuyant sur le marché, permet aux entreprises de limiter leur exposition aux régulations contraignantes tout en intégrant progressivement les critères extrafinanciers. La CSRD, en imposant un cadre normatif plus ambitieux, accroît la transparence, mais génère aussi des obligations et des coûts supplémentaires pour les entreprises.
Différentes visions pèsent sur le processus de normalisation. Les positions de l’International Organization of Securities Commissions (IOSCO), de l’Autorité française des marchés financiers (AMF) ou des auditeurs sont intéressantes en ce sens.
L’IOSCO, qui regroupe les principaux régulateurs financiers mondiaux, soutient l’ISSB. Elle privilégie une approche fondée sur la matérialité financière et la transparence pour les investisseurs, tout en appelant à éviter des contraintes susceptibles de freiner les flux de capitaux. L’AMF, quant à elle, adopte une position intermédiaire. Elle encourage un cadre inspiré de l’ISSB afin de préserver la compétitivité des entreprises et des marchés financiers, tout en invitant « l’ISSB à s’emparer de la double matérialité dans sa démarche de normalisation ».
Abonnez-vous dès aujourd’hui !
Que vous soyez dirigeants en quête de stratégies ou salariés qui s’interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts.
Par ailleurs, les rapports de durabilité qui découlent de la CSRD doivent être certifiés par des auditeurs. Or, ces derniers, notamment les « Big Four », sont particulièrement impliqués au sein des organisations préparant les textes de la CSRD. Ces acteurs semblent avoir trouvé dans cette directive européenne une opportunité de marché. Une interrogation de plus sur les enjeux de concentration et d’influence dans le développement du marché de l’audit extrafinancier.
Les entreprises dans les secteurs d’activités les plus exposés aux réglementations extrafinancières préfèreraient des normes moins exigeantes… comme celles de l’ISSB. Ainsi, 25 associations européennes de lobbyisme représentant les intérêts des entreprises, dont Business Europe (le Medef européen) ont sollicité publiquement une simplification et un décalage de l’application de la CSRD.
« Nous soutenons fermement le Green Deal européen et sa poursuite, [et] nous savons que les normes européennes en matière de nature, de biodiversité et de climat ne sont pas un problème, mais une partie essentielle de la solution. »
À l’inverse, dans une autre lettre ouverte, plus de 180 organisations de la société civile et une soixantaine de grandes entreprises, dont Décathlon, Ikea, Patagonia, Accor ou encore Nestlé, ont publiquement réaffirmé leur soutien aux réglementations européennes.
Charlotte Disle a bénéficié de financement IDEX (initiative d'excellence) de l'Université Grenoble Alpes.
Rémi Janin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.03.2025 à 17:00
Aurélie Boisnoir, Chercheure en écologie et physiologie des microalgues tropicales, Ifremer
Olivier Gros, Professeur en biologie marine, UMR 7205 ISYEB, responsable de l’équipe « Biologie de la Mangrove », Université des Antilles, Université des Antilles
En Guadeloupe comme en Martinique, les eaux des mangroves se colorent parfois en rose. Des analyses menées par l’Ifremer et l’université des Antilles ont mis en évidence deux familles de bactéries non pathogènes responsables de ce phénomène. Des échouements de sargasses associés à une température et une salinité élevées des eaux pourraient favoriser le développement de ces microorganismes.
Depuis quelques années, certaines mangroves de Martinique et de Guadeloupe se parent d’une robe rose fuchsia du plus bel effet. Aussi surprenants que spectaculaires, ces phénomènes naturels sont largement relayés sur les réseaux sociaux et suscitent de nombreuses interrogations.
Mais qu’appelle-t-on « mangrove » ? La mangrove est un écosystème côtier unique présent dans les régions tropicales et subtropicales. Cet écosystème forestier est caractérisé par plusieurs espèces d’arbres appelés palétuviers qui se répartissent selon un gradient de salinité.
Les palétuviers rouges vivent sur le rivage et sont reconnaissables à leurs longues racines aériennes plongeant dans l’eau de mer (35 g/l de sel). À l’intérieur des terres, on trouvera le palétuvier noir (supportant jusqu’à 70 g/l de sel) et, en arrière-mangrove, le palétuvier blanc vivant dans un milieu où la salinité dépasse rarement 10 g/l de sel.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
Les mangroves assurent plusieurs fonctions écologiques importantes comme la protection des côtes contre l’érosion, la filtration des polluants et des sédiments, ou encore la régulation des cycles biogéochimiques. Bien que ces fonctions soient cruciales pour l’environnement, certains phénomènes comme des échouements massifs de sargasses peuvent provoquer des eaux colorées qui bouleversent ponctuellement l’équilibre de ces zones protégées.
Il faut distinguer deux cas. Le premier consiste en une coloration localisée en de petites tâches sur le sédiment, le second consiste en une coloration totale de l’eau de mer. Les premières colorations roses dans les mangroves des Antilles françaises ont d’abord été observées en 2018 en Guadeloupe dans les mangroves de Baie-Mahault et de Saint-François. Des taches roses visibles sur les sédiments marins apparaissent sporadiquement à proximité des racines des palétuviers.
Les investigations menées par l’université des Antilles ont révélé que ces colorations étaient dues à la présence de bactéries photosynthétiques appelées « bactéries pourpres sulfureuses » appartenant à la famille des Chromatiaceae, la couleur rose étant directement dépendante du pigment photosynthétique produit par ces bactéries.
Puis, plus récemment, des colorations roses de plus grande ampleur ont été observées en Martinique, dans les mangroves du Diamant et de Trinité, et dans une moindre mesure dans celle du Robert. Contrairement à la Guadeloupe où les colorations roses étaient localisées uniquement sur la vase, en Martinique c’est toute la colonne d’eau qui devenait rose. Dans ce cas précis, ce phénomène est appelé « eau colorée ».
Les analyses menées conjointement par l’Ifremer et l’université des Antilles ont montré qu’il s’agissait de populations de bactéries photosynthétiques diverses produisant des pigments photosynthétiques pourpres roses. Ainsi, d’autres bactéries pourpres non sulfureuses, les Rhodobacteraceae, contribuaient-elles aussi au phénomène d’eau colorée rose en Martinique en plus des Chromatiaceae, elles aussi présentes.
Les Chromatiaceae et les Rhodobacteraceae sont des bactéries non pathogènes pour la population humaine qui synthétisent des pigments appartenant au groupe des caroténoïdes qui leur donnent cette couleur caractéristique. Bien qu’elles soient individuellement de petite taille (quelques micromètres de longueur) et invisibles à l’œil nu, ces bactéries peuvent atteindre dans certaines conditions environnementales de si fortes concentrations que leurs pigments deviennent visibles.
L’hypothèse émise concernant la présence de la microalgue Dunaliella salina, responsable des eaux colorées roses en Martinique n’a pas été confirmée par nos investigations.
Pour se développer, les bactéries pourpres ont besoin d’un milieu anoxique, c’est-à-dire dépourvu d’oxygène. Cette absence d’oxygène apparaît généralement après un fort enrichissement en matière organique du milieu, un phénomène appelé « eutrophisation ».
Lors d’un phénomène d’eutrophisation dans un milieu aqueux, des bactéries consommatrices de matière organique trouvent les conditions idéales pour une forte croissance, devenant rapidement la population bactérienne la plus abondante. Ce développement extrêmement rapide s’accompagne d’une forte consommation de l’oxygène dissout dans l’eau, ce qui rend le milieu anoxique, c’est-à-dire sans oxygène disponible.
Il s’ensuit la mort de tous les animaux aquatiques qui n’ont pas pu fuir cet écosystème, et donc une augmentation de la quantité de matière organique disponible. Intervient alors une deuxième population de bactéries qui sont des bactéries vivant en absence d’oxygène et dégradant la matière organique. Ces bactéries appartiennent au groupe des bactéries dites sulfato-réductrices qui ont la particularité de libérer du sulfure d’hydrogène (H2S) lors de leur développement.
Cette seconde population de bactéries va donc se trouver dans des conditions idéales pour un développement extrêmement rapide et va enrichir le milieu en sulfures. Ce nouveau milieu sans oxygène, mais en présence de sulfures et de lumière, va devenir très favorable à une troisième population de bactéries qui sont les bactéries photosynthétiques pourpres. Ces bactéries vont se développer sur toute la colonne d’eau donnant la couleur rose/pourpre caractéristique de ce phénomène.
En Guadeloupe comme en Martinique, l’apport massif en matière organique viendrait de sargasses échouées sur le littoral qui auraient limité les échanges d’oxygène entre la mer et la mangrove. Il est important de souligner que les colorations peuvent survenir quelle que soit la nature de l’apport de matière organique en décomposition.
D’autres paramètres comme une température élevée de l’eau et une forte salinité ont pu exacerber ces colorations, ces deux paramètres ayant un impact sur la solubilité de l’oxygène dans l’eau. En Guadeloupe, les bactéries pourpres sulfureuses ont été observées dans les mangroves présentant des salinités proches de celle de l’eau de mer, c’est-à-dire variant entre 30 g/l et 40 g/l alors qu’en Martinique les salinités mesurées pouvaient être supérieure à 60 g/l.
Ces phénomènes d’eaux colorées roses peuvent être observés pendant plus d’un mois si les conditions environnementales le permettent. Généralement, la coloration s’estompe quand le cordon littoral ne représente plus un obstacle important pour la circulation de l’eau entre la mangrove et la mer, c’est-à-dire après une marée haute où encore après un épisode pluvieux important permettant ainsi à l’eau de la mangrove d’être oxygénée de nouveau.
Cette réoxygénation de l’eau entraîne une diminution rapide des populations de bactéries sulfato-réductrices suivie par les bactéries pourpres, et donc la disparition de la couleur rose de l’eau.
Lors des épisodes d’eaux colorées roses, une odeur d’œuf pourri est perceptible. Cette odeur est certes due à la décomposition de la matière organique échouée sur le cordon littoral mais pas seulement !
En effet, les bactéries anaérobies sulfato-réductrices qui ont été identifiées lors de phénomènes d’eaux roses en Martinique libèrent du sulfure d’hydrogène connu pour dégager aussi cette odeur d’œuf pourri.
Comme les bactéries, les microalgues (algues microscopiques) sont aussi responsables d’eaux colorées. Quand elles sont présentes en fortes concentrations elles provoquent des eaux vertes, rouges ou brunes. La couleur des eaux est alors spécifique aux pigments des espèces de microalgues dominantes qui se développent dans la colonne d’eau.
À lire aussi : Dans les Caraïbes, des microalgues qui engendrent des intoxications alimentaires
Lors de développements importants de microalgues, le milieu peut soit rester oxygéné soit devenir anoxique (dépourvu d’oxygène), ce qui entraîne alors une mortalité massive d’organismes marins. L’Ifremer travaille sur un projet de science participative Phenomer 2.0, qui permettra à la population de signaler dès l’année prochaine les eaux colorées survenant sur le littoral de France hexagonale.
Ce projet permettra d’améliorer les connaissances sur les organismes responsables d’eaux colorées. Dans un contexte d’eutrophisation côtière aux Antilles, une alternative sur un projet comparable pourrait être proposée en Martinique et en Guadeloupe.
Aurélie Boisnoir a reçu des financements de Ifremer et Office De l'eau de Martinique.
Olivier Gros ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.02.2025 à 15:48
Yann Raineau, Chercheur en économie, Inrae
Cécile Aubert, Professeur d’économie, Université de Bordeaux
Marianne Lefebvre, Enseignante et chercheuse en économie, Université d'Angers
Pauline PEDEHOUR, Maître de conférences en Sciences économiques , Université d'Angers
Dans le cadre d’un living lab viticole aquitain, des producteurs, une compagnie d’assurance et un acteur public ont conçu une nouvelle forme d’« assurance verte ». L’objectif : permettre l’expérimentation d’un nouvel outil d’optimisation de la protection phytosanitaire des vignes, par la couverture des pertes potentielles.
De nouvelles technologies sont régulièrement mises au point pour optimiser la performance de l’agriculture, tout en réduisant son impact sur l’environnement. Mais les agriculteurs ne sont pas toujours prêts à prendre le risque de les tester ou de les mettre en œuvre à grande échelle.
Avec le soutien d’une « assurance verte » intervenant en cas de pertes, deux caves coopératives viticoles se sont portées volontaires pour participer à une expérimentation. L’idée ? Tester et améliorer un outil d’optimisation de la protection phytosanitaire proposé par l’Institut technique de la filière (IFV). Résultat : sur quatre années, les fongicides ont été réduits de 30 à 55 %. Cette approche a été permise par une approche living lab adoptée au sein du territoire d’innovation VitiREV.
Des travaux complémentaires, menés cette fois auprès de 412 viticulteurs français, montrent que ce dispositif pourrait en fait intéresser un grand nombre de viticulteurs. À l’heure d’imaginer nos futurs systèmes agricoles et alimentaires, cette initiative allie deux leviers plus que jamais d’actualité : les dispositifs living lab pour faire émerger des solutions nouvelles, et la nécessaire prise en compte du risque vécu par les producteurs au moment de les expérimenter.
Dans la réalisation des transitions attendues par la société, un sujet trop peu évoqué est celui du risque encouru par les agriculteurs au moment d’expérimenter de nouvelles pratiques. En l’absence d’informations fiables, de mauvaises anticipations peuvent freiner la phase d’expérimentation nécessaire avant toute tentative de déploiement. L’utilisation d’un outil d’aide à la décision visant à limiter les produits phytosanitaires en est l’illustration. Supprimer un traitement ou réduire une dose comporte toujours une grande part d’incertitude, avec des conséquences parfois dramatiques sur les récoltes. Une approche globale couplant problématiques agronomiques et financières est nécessaire.
L’ambition de l’initiative aquitaine tient justement à cette approche living lag choisie pour traiter l’enjeu de la réduction des pesticides. Celle-ci consiste à associer une diversité d’acteurs concernés – agriculteurs, chercheurs, mais aussi administrations, associations, entreprises, consommateurs, etc. Ensemble, ils conçoivent et expérimentent des solutions dans les conditions réelles des fermes et de leur territoire. Cette approche a été déterminante pour impliquer d’autres acteurs clés de l’équation : une collectivité (la Région Nouvelle-Aquitaine) et une compagnie d’assurance (Groupama). Car ceux-ci pouvaient soutenir, au moins temporairement, la prise de risque associée à l’adoption d’un outil de réduction des traitements phytosanitaires.
Si les risques climatiques font actuellement l’objet de contrats d’assurance subventionnés dans le cadre de la politique agricole commune (PAC) – l’assurance multirisque climatique –, les pertes de récolte dues aux maladies et nuisibles ne sont, elles, pas assurées. L’utilisation de produits phytosanitaires reste un outil majeur pour se prémunir des risques de maladies et de nuisibles avec des effets secondaires conséquents sur la santé et les écosystèmes.
Au cours des quatre années d’expérimentation, les partenaires ont affiné le « protocole de traitement assurable » à suivre en fonction des prescriptions de l’outil d’aide à la décision testé. Ils ont également affiné les conditions de l’assurance. Avec quels résultats ? Une baisse de 30 à 55 % de fongicides sur les parcelles en expérimentation – 75 hectares en moyenne par an –, par rapport aux autres parcelles suivies en parallèle. Et ce, sur des parcelles conduites en agriculture biologique comme en agriculture conventionnelle.
À lire aussi : L’assurance récolte, un substitut crédible aux pesticides ?
Les pertes de production attribuables aux maladies ont été limitées à moins de 5 % les trois premières années. Ces bons résultats ont incité les coopératives à mettre progressivement davantage d’hectares en jeu, et l’assureur à réduire les cotisations d’assurance. Néanmoins, une des parcelles a connu des pertes importantes au cours de la dernière année ; ce qui a donné lieu à des versements d’indemnités par l’assureur. Cet épisode a rappelé que les recommandations de l’outil étaient très dépendantes de la qualité des données fournies en amont des préconisations : observations des agriculteurs, prédictions météorologiques, etc.
Sur la base de cette initiative, des travaux complémentaires, menés cette fois à l’échelle nationale, ont permis de mesurer l’intérêt des viticulteurs français. L’objectif de cette étude était de mesurer l’impact à grande échelle de ce type de dispositif couplant outil d’aide à la décision et assurance du risque sanitaire.
« Ce dispositif peut être intéressant pour inciter les viticulteurs à baisser les intrants »,
commente un viticulteur enquêté.
Elle montre qu’entre 48 % et 60 % des 412 viticulteurs français interrogés se disent prêts à souscrire à une assurance verte. Une préférence est constatée pour des indemnisations sur la base de l’évaluation des pertes réelles par un expert, plutôt qu’une assurance indicielle. Avec l’assurance indicielle, les pertes sont estimées sur la base d’un indice de pression fongique locale, mesurée par exemple dans des parcelles de vigne témoins proches. L’enjeu reste de réduire les coûts. Cependant, les pertes réelles peuvent être parfois supérieures et parfois inférieures à celles des vignes témoins.
Les viticulteurs interrogés préfèrent également une adhésion individuelle volontaire plutôt que via des fonds mutuels à cotisation obligatoire. Cette dernière approche a pourtant été testée récemment sur des vignobles du Veneto (Italie). Parmi les profils de producteurs les plus intéressés par l’assurance verte se trouvent les agriculteurs en conversion vers l’agriculture biologique. Ce dispositif pourrait donc être un potentiel moyen de soutenir leur conversion et ainsi d’atteindre les objectifs de l’Union européenne de 25 % de surfaces bio pour 2030.
« Il est urgent de prendre conscience de la toxicité des produits phyto et de réduire les quantités utilisées au juste nécessaire. L’image du monde agricole en dépend »,
rappelle un autre viticulteur.
Ces résultats sont encourageants pour imaginer des dispositifs d’accompagnement d’innovations comme celles développées localement par les acteurs de living labs. Concernant l’assurance verte en particulier, si les dépenses publiques se concentraient sur l’augmentation du niveau d’indemnisation que peuvent couvrir les assureurs, elles n’interviendraient alors qu’en cas de pertes réelles. Les dispositifs actuellement en place comme les mesures agroenvironnementales de la politique agricole commune (PAC) génèrent, eux, des dépenses publiques systématiques, indépendamment des pertes réelles.
Cela rend ce nouvel instrument de politique publique particulièrement attractif pour soutenir des pratiques pour lesquelles les agriculteurs ont tendance à surestimer le risque de pertes. Au-delà de l’objectif étudié ici, qui est de sécuriser l’apprentissage vers des itinéraires moins intensifs en produits phytosanitaires, l’instrument peut s’adapter à d’autres pratiques expérimentées dans le cadre du développement de l’agroécologie.
Cet article a été rédigé avec Marc Raynal, ingénieur à l’Institut français de la vigne et du vin (Gironde).
Ces recherches ont bénéficié du soutien de l’Agence nationale de la recherche (projet Vitae) et de la Région Pays de la Loire (projet BEHAVE).
Yann Raineau a reçu des financements dans le cadre des projets VitiREV (Programme d’investissements d’avenir) et VITAE (Programme Prioritaire de Recherche).
Cécile Aubert a reçu des financements de l'ANR dans le cadre des projets VitiREV (Programme d'Investissement d'Avenir) et VITAE (Programme Prioritaire de Recherche) et de la région Nouvelle Aquitaine.
Marianne Lefebvre a reçu des financements de la Région Pays de Loire pour le projet BEHAVE (2022-2024).
Pauline PEDEHOUR ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.02.2025 à 15:40
Charles Claron, Doctorant en économie écologique (CIRED & LATTS), École Nationale des Ponts et Chaussées (ENPC)
Elodie Nguyen-Rabot, Chercheuse, AgroParisTech – Université Paris-Saclay
Harold Levrel, Professeur, économie de l’environnement, Muséum national d’histoire naturelle (MNHN)
Mathilde Salin, Docteure en économie, Université Paris-Saclay
Nicolas Mondolfo, Chercheur, École Normale Supérieure Paris-Saclay – Université Paris-Saclay
Alors que le gouvernement envisage de décaler l’objectif intermédiaire « zéro artificialisation nette » de 2031 à 2034 , une recherche lève le voile sur les coûts, parfois élevés, des opérations de renaturation des sols. Ces données inédites offrent aux décideurs des repères chiffrés pour planifier la transition écologique de leurs territoires.
Face à la multiplication des canicules et inondations, la renaturation des sols s’impose comme un enjeu crucial pour adapter nos villes au changement climatique. Restaurer la fonctionnalité des sols permet en effet de limiter les îlots de chaleur, d’améliorer l’infiltration de l’eau, d’offrir davantage d’espaces verts et de créer des corridors écologiques favorables à la biodiversité.
Le récent règlement européen sur la restauration de la nature en fait d’ailleurs une priorité, en fixant un objectif d’augmentation des espaces verts urbains. En France, cet enjeu s’inscrit dans la stratégie nationale de neutralité écologique visée par l’objectif « zéro artificialisation nette » (ZAN).
Mais combien coûte cette renaturation ? Jusqu’à récemment, les données fiables manquaient. Seul un rapport de France Stratégie (2019) proposait une estimation approximative, basée sur des sources limitées et une méthodologie peu détaillée.
Nous publions un document de travail qui apporte des données inédites, collectées directement auprès des acteurs de la renaturation des sols.
Cela nous conduit à évaluer des coûts de la renaturation allant de 50 à 320 euros par mètre carré pour des sols compactés, imperméabilisés ou construits, et jusqu’à 800 euros par mètre carré pour des sols pollués. Notre étude met aussi en lumière la structure et les facteurs de variabilité de ces coûts.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
Pour décrypter ces coûts, nous avons décomposé la renaturation des sols en une séquence d’étapes pour les évaluer individuellement. À cet effet, nous avons interrogé une cinquantaine d’acteurs de la filière (entreprises, agences publiques, collectivités locales, associations) et analysé une trentaine de rapports techniques et de devis. Au total, 748 estimations de coûts associées à huit étapes différentes ont été recueillies, puis converties en euro par mètre carré.
Ces étapes présentent des coûts différenciés. Les « études préalables » (de 1 à 13 €/m2) et « la gestion et le suivi » (de 1 à 29 €/m2) figurent parmi les moins coûteuses. À l’inverse, la « gestion des déchets et terres excavées » (de 26 à 242 €/m2) et surtout « l’assainissement des sols », correspondant aux actions de dépollution (de 35 à 573 €/m2) représentent les dépenses les plus élevées.
Mais ces statistiques cachent d’importantes variabilités selon les techniques utilisées au sein de chaque étape et selon les spécificités de chaque chantier. Par exemple, la présence de bâtiments mitoyens ou de matériaux comme l’amiante peut considérablement alourdir les coûts de la « démolition du bâti ».
Ces données permettent d’estimer les coûts d’une diversité d’itinéraires techniques de renaturation. Notre étude présente plusieurs scénarios qui dépendent de l’état initial des sols (construit, revêtu, compacté ou pollué) et de leur état final, couvrant un éventail représentatif de typologies d’opérations de renaturation. Par exemple, la végétalisation des cours d’école (appelées « cours oasis ») consiste à passer d’un sol revêtu à un sol végétalisé. Le coût de chaque scénario résulte de l’addition des coûts médians des étapes impliquées.
Dans la majorité des scénarios, les coûts médians varient de 50 à 320 euros par mètre carré et atteignent plus de 800 euros par mètre carré pour des sols initialement pollués. Mais en cas de contaminations lourdes nécessitant des traitements en décharges spécialisées, les coûts peuvent s’élever à plus de 1 100 euros par mètre carré.
Le degré d’ingénierie écologique mobilisée joue également. Une végétalisation à visée esthétique (avec des arbres matures et un entretien régulier) coûte plus cher qu’une restauration écologique ambitieuse, impliquant la recréation d’habitats naturels et un suivi écologique de long terme, elle-même plus onéreuse qu’une restauration partielle.
Cependant, à trajectoire de renaturation similaire, le coût global présente des variabilités importantes. Il dépend des caractéristiques du site (hétérogénéité des sols, niveau de contamination) et des techniques utilisées. La plupart des techniques de renaturation bénéficient d’économies d’échelle : plus la surface renaturée est grande, plus le coût au mètre carré diminue. La temporalité du projet joue évidemment un rôle majeur : un délai court nécessite généralement des ressources importantes entraînant les coûts à la hausse. Enfin, la localisation géographique influence aussi le coût de la main-d’œuvre et des matériaux (comme la terre végétale) ou les frais de gestion des déchets, qui sont tributaires de la proximité des sites de traitement.
À l’avenir, nos estimations pourraient être affinées par des données complémentaires. Pour une vision plus complète, il faudrait également intégrer d’autres composantes directes ou indirectes de la renaturation des sols (planification, maîtrise foncière, expertise juridique, etc.). Il serait en outre pertinent d’analyser les interactions entre les différentes étapes et de quantifier précisément l’influence des facteurs de variabilité des coûts.
Enfin, une étude prospective pourrait examiner comment la multiplication des projets de renaturation affectera les coûts qui pourraient diminuer grâce à des effets d’apprentissage ou augmenter en raison de la raréfaction de la terre végétale ou des sites de stockage des déchets. Ces effets dépendront du développement de nouvelles techniques, comme le réemploi et la valorisation des terres excavées.
Cette base de données de coûts, avec les scénarios de renaturation qu’elle permet de modéliser, est un outil précieux pour de nombreux acteurs de l’aménagement du territoire. Elle aide à estimer les coûts de renaturation d’un site et de les comparer avec ceux de la construction ou de la réhabilitation d’espaces équivalents. Dans le cadre de la planification municipale ou régionale, elle offre des repères pour évaluer les investissements nécessaires à une trajectoire de renaturation ou pour prioriser les zones à renaturer.
Ces résultats constituent également une brique de base pour la recherche et le développement d’outils opérationnels consacrés à la mise en œuvre de l’objectif ZAN. Plusieurs initiatives expérimentales proposent ainsi d’intégrer les coûts de renaturation dans la chaîne de valeur de l’aménagement urbain, comme le « bilan d’opération de transition foncière » ou la « charge foncière verte », portés respectivement par l’Institut de la transition foncière et par l’Établissement public foncier d’Île-de-France.
À l’échelle nationale, ces données pourraient aussi nourrir les réflexions sur une fiscalité liée à l’artificialisation des sols, sur la mise en place de quotas d’artificialisation échangeables ou encore sur l’intégration de la dette écologique que génère l’artificialisation des sols dans différents cadres comptables.
Il convient toutefois de préciser que les données que nous avons recueillies concernent des opérations de renaturation qui ne s’inscrivaient pas dans le cadre réglementaire de la compensation de l’artificialisation, ni dans celui d’une compensation écologique. De telles obligations, qui impliquent une équivalence en nature plus exigeante, pourraient tirer les coûts à la hausse.
Si nos travaux peuvent nourrir les initiatives visant à valoriser la santé des sols dans l’aménagement du territoire, ils montrent aussi le coût élevé de la restauration. Du reste, celle-ci est un processus incertain, long, énergivore et confronté à des contraintes écologiques, sociales et politiques. Tous les sols dégradés ne peuvent pas être renaturés, et ceux qui le sont ne retrouvent jamais pleinement leur état d’origine. Il est donc crucial d’éviter au maximum la détérioration des sols : mieux vaut prévenir que guérir !
Charles Claron a reçu des financements de l'Ecole nationale des Ponts et Chaussées pour la réalisation de ses recherches doctorales.
Elodie Nguyen-Rabot a reçu des financements de la Chaire Comptabilité Écologique pour sa contribution à cette recherche.
Mathilde Salin a reçu des financements de la Banque de France et de l'ANRT pour la réalisation de ses recherches doctorales.
Harold Levrel et Nicolas Mondolfo ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
27.02.2025 à 12:02
Laurence Flori, Directrice de recherche, génétique animale, UMR SELMET, Inrae
Mathieu Gautier, chercheur en génomique statistique et évolutive des populations, Inrae
Tom Druet, Research Director at F.R.S.-FNRS, Université de Liège
François COLAS, Inspecteur de santé publique vétérinaire - retraité
Thierry Micol, Chef de service LPO
L’étude génétique de cette population a permis de répondre à de nombreuses questions : D’où venaient ces vaches ? Comment ont-elles pu survivre et s’établir sur une île a priori hostile ? Mais elle en soulève d’autres. Était-il par exemple nécessaire d’éradiquer ces bovins redevenus sauvages en 2010 ?
Certains espaces naturels préservés accueillent des populations animales étonnantes, capables de s’adapter à des contextes inattendus. Un exemple intriguant en témoigne, celui d’une population de bovins retournés à l’état sauvage (processus appelé féralisation), après avoir été abandonnés sur l’île subantarctique Amsterdam, au sud de l’océan Indien, sur laquelle ils ont vécu en toute autonomie jusqu’en 2010.
Située à 4 440 km au sud-est de Madagascar et comparable en taille à Noirmoutier, cette île est soumise à un climat océanique tempéré, balayée par des vents constants et parfois violents, et exposée à des précipitations fréquentes, notamment l’hiver. Elle est également dépourvue de points d’abreuvement permanents, ce qui la rend à première vue incompatible avec la survie d’un troupeau de bovins. La seule présence humaine y est assurée par la base scientifique Martin-de-Viviès, établie en 1949.
Depuis 2006, l’île Amsterdam fait partie de la réserve naturelle nationale des Terres australes et antarctiques françaises (TAAF), un sanctuaire de biodiversité, inscrit sur la liste du patrimoine mondial de l’Unesco.
À lire aussi : Les îles australes françaises : tristes championnes de vitesse du changement climatique
D’après les documents historiques, quelques bovins y auraient été probablement abandonnés à la fin du XIXe siècle. Contre toute attente, ces animaux ont non seulement survécu mais également prospéré, leur population atteignant près de 2 000 animaux en quelques décennies. Mais d’où provenaient ces animaux, et comment ont-ils pu s’établir sur l’île et s’adapter à un environnement à première vue inhospitalier, en redevenant sauvages ? C’est l’histoire singulière de cette population bovine que nous avons retracée à partir de l’étude du matériel génétique de 18 animaux, extrait d’échantillons prélevés lors de deux campagnes d’étude remontant à 1992 et 2006.
En analysant les différences entre les génomes de ces animaux, nous avons tout d’abord mis en évidence une diminution significative, mais brève de la taille de la population vers la fin du XIXe siècle. Ce résultat réfute l’hypothèse d’une présence plus ancienne de bovins laissés sur l’île par des navigateurs. Il confirme en revanche le scénario historique le plus consensuel, selon lequel cinq ou six bovins auraient été abandonnés sur l’île en 1871 par un fermier, nommé Heurtin, et sa famille, originaires de La Réunion. Partis avec quelques animaux pour s’installer sur l’île, la mettre en culture et entamer une activité d’élevage, ils n’y sont finalement restés que quelques mois. Ils ont été contraints de retourner à La Réunion par les conditions climatiques difficiles, les problèmes d’adaptation et l’isolement, en laissant les bovins derrière eux.
Une poignée d’animaux fondateurs a ainsi été à l’origine de la population, entraînant une forte augmentation de la consanguinité chez leurs descendants. Cette augmentation est souvent associée à une accumulation dans le génome de mutations délétères responsables de dysfonctionnements biologiques et de maladies génétiques. Mais elle peut aussi parfois permettre au contraire leur élimination, un phénomène connu sous le nom de purge. De manière surprenante, nous n’avons observé aucun de ces deux cas de figure. Les 2 000 descendants obtenus en quelques générations semblaient en effet en bonne santé. De plus, notre analyse, qui a mis en évidence une réduction modérée de la diversité génétique, n’a pas détecté d’élimination significative des mutations délétères, mettant d’autant plus en lumière la singularité de cette population.
La caractérisation génétique des animaux a également révélé qu’ils semblaient descendre de deux populations bovines bien distinctes de taurins européens génétiquement proches d’animaux actuels de race jersiaise (env. 75 %) et de zébus originaires de l’océan Indien (env. 25 %). Ces résultats confirment que les bovins introduits sur l’île avaient probablement été sélectionnés par Heurtin parmi les races présentes à l’époque sur l’île de La Réunion, qui comprenaient des animaux proches des jersiais actuels, susceptibles de s’être croisés avec des races locales, notamment des zébus de la région.
Cette spécificité est probablement à l’origine du succès de l’établissement de cette population dans cet environnement inhospitalier. C’est ce que révèlent nos résultats qui mettent en évidence une préadaptation de leurs ancêtres taurins européens aux conditions climatiques de l’île. Les animaux introduits n’ont, semble-t-il, pas été confrontés à un défi bioclimatique important, les conditions climatiques du berceau des bovins jersiais, l’île de Jersey (dans la Manche), étant en effet relativement proches de celles de l’île Amsterdam.
La découverte de leurs origines nous a également permis de réfuter les hypothèses émises par certains scientifiques, selon lesquelles ces bovins auraient vu leur taille diminuer dans ce nouvel environnement pour s’adapter aux ressources limitées de l’île, un phénomène connu sous le nom de nanisme insulaire.
D’après notre étude, les animaux fondateurs de cette population étaient déjà proches d’animaux de petite taille (bovins jersiais et de l’océan Indien comme le zébu de Madagascar). De plus, notre analyse d’un panel de mutations génomiques associées à la taille n’a pas révélé de réduction de stature chez les bovins de l’île Amsterdam en comparaison avec les bovins jersiais et les zébus de Madagascar. Cela suggère la mise en œuvre d’autres mécanismes adaptatifs leur permettant d’optimiser leurs chances de survie dans cet environnement isolé.
C’est ce que corroborent les empreintes laissées par la sélection naturelle détectées dans le génome de ces animaux. Elles contiennent en effet des gènes préférentiellement impliqués dans le fonctionnement du système nerveux qui a sans doute joué un rôle primordial dans l’adaptation de ces bovins à l’environnement inhospitalier de l’île et dans le processus de féralisation.
Ces résultats sont en accord avec les modifications comportementales observées chez les bovins de l’île Amsterdam, qui ont accompagné et contribué à l’augmentation de la population sur l’île et à sa féralisation. Une organisation sociale complexe de la population, similaire à celle des bovidés sauvages, associée à l’apparition d’un comportement farouche chez ces animaux, a en effet été décrite par plusieurs observateurs. Ces derniers ont notamment identifié des groupes structurés de façon matrilinéaire, composés principalement de femelles et de mâles jeunes à subadultes, des groupes séparés géographiquement composés exclusivement de mâles adultes et/ou subadultes, et des groupes mixtes généralement formés au début de la saison de reproduction par l’incorporation de mâles adultes dans les groupes de femelles.
Notre étude a également mis en évidence l’action combinée de plusieurs gènes contrôlant les traits complexes impliqués dans la féralisation, et suggèrent que des mutations déjà présentes dans le génome des animaux fondateurs ont joué un rôle dans l’adaptation rapide (quelques générations) de la population bovine de l’île Amsterdam à la vie sauvage.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
Cette étude de cas unique a révélé des informations précieuses sur plusieurs processus évolutifs. Elle souligne de plus l’importance de préserver l’héritage génétique des populations férales de grands mammifères et soulève des questions éthiques au regard des efforts de conservation à mettre en œuvre.
En effet, en dépit de son intérêt scientifique, la population bovine de l’île Amsterdam a été entièrement abattue de manière précipitée en 2010, année internationale de la biodiversité sauvage (faune et flore naturelles) et domestique, sans qu’aucun échantillon biologique ne soit prélevé à cette occasion.
À lire aussi : Restaurer ou réensauvager la nature ?
Les vaches demeuraient perçues par certains comme une menace majeure pour l’écosystème insulaire (piétinement, surpâturage) et en particulier pour deux espèces endémiques, l’arbuste Phylica arborea et l’albatros d’Amsterdam Diomedea amsterdamensis .
Cette vision a persisté malgré les efforts déployés pour limiter l’impact des bovins sur l’environnement notamment par le contrôle et la réduction du cheptel à environ 1 000 en 1988, puis 500 animaux en 1993, et par la construction de clôtures enfermant les bovins dans une zone d’environ 12 km2, située hors de la zone de présence des albatros d’Amsterdam et des phylicas. Les services écosystémiques rendus par le troupeau tels que le débroussaillement et le maintien d’une zone pare-feu autour de la base scientifique, bien connus de l’administration, n’ont pas davantage été pris en compte.
Ces rôles, jadis essentiel dans la prévention des incendies, sont malheureusement remis au premier plan en ce début d’année par l’incendie déclaré sur l’île.
L’élimination totale de la population a finalement été préférée au maintien d’une partie du troupeau accompagné de mesures de contrôle et/ou d’éradication des espèces qui menaçaient plus directement la faune et la flore endémiques telles que les rongeurs et les chats. Ces mesures ont finalement été mises en œuvre en 2024, quatorze ans plus tard, dans le cadre du projet de restauration des écosystèmes insulaires de l’océan Indien.
La réhabilitation écologique de l’île Amsterdam nécessitait-elle donc l’élimination de cette population ? Il nous semble difficile de répondre de manière définitive. Il nous paraît néanmoins essentiel dans ce contexte, avant toute décision concernant l’avenir des populations exotiques devenues férales, y compris leur éventuelle éradication, de mettre en place une collecte systématique d’échantillons biologiques afin, a minima, de les caractériser génétiquement.
Il convient de rappeler que, dès 2009, quelques voix, parmi lesquelles celles de vétérinaires, d’agronomes et de généticiens des populations (pétition transmise en mai 2009 au préfet des TAAF et communiqué du 10 mars 2010, parfois relayées en ligne et également au Sénat s’étaient déjà élevées pour questionner le bien-fondé et les conditions de cette éradication réalisée sans concertation scientifique large.
À lire aussi : Peut-on « restaurer » la nature ?
Leur intention n’était pas de remettre en question la nécessité de sauvegarder les espèces sauvages endémiques, mais de souligner l’importance écologique et évolutive de cette population bovine singulière (ainsi que d’autres populations de ruminants introduits dans les TAAF). Son sort a été en effet rapidement scellé, sans étude scientifique préalable de son passé démographique et adaptatif, ni aucune prospective sur l’intérêt zootechnique et donc économique qu’aurait pu avoir une telle population. Ces scientifiques tenaient à défendre la biodiversité domestique, souvent mal considérée et donc négligée par rapport à la biodiversité sauvage.
Ainsi, l’origine domestique de cette population bovine férale perçue par la plupart des environnementalistes comme dénuée de valeur patrimoniale, associée à la volonté d’un retour à une nature originelle idéalisée, a pu accélérer les décisions prises par les gestionnaires de la réserve naturelle nationale. Pourtant, ces bovins ne portaient alors aucune atteinte aux albatros d’Amsterdam, espèce emblématique de l’île, qui désormais protégés, n’étaient plus dans l’attente d’une action de sauvegarde urgente.
Laurence Flori a reçu des financements de l'Union Européenne, de France Génomique et d’INRAE.
Mathieu Gautier a reçu des financements de l'INRAE.
Tom Druet a reçu des financements du F.R.S.- FNRS (Fonds National de la Recherche Scientifique).
François COLAS est membre du Conseil national de protection de la nature et membre de l'association Société française d'études et de protection des mammifères. J'ai été chef du district Saint-Paul et Amsterdam (Terres australes et antarctiques françaises) de 09/2005 à 09/2006.
Thierry Micol a passé 18 ans à travailler pour la protection de l'environnement des TAAF où il a débuté sa carrière dans la gestion du troupeau de bovins de l'île Amsterdam. Il est ensuite devenu responsable de service à la Ligue pour la Protection des Oiseaux et il est membre du comité de pilotage du plan national d'action en faveur de l'Albatros d'Amsterdam.
26.02.2025 à 16:42
Michel-Pierre Faucon, Enseignant-chercheur en écologie végétale et agroécologie - Directeur délégué à la recherche à l'Institut Polytechnique UniLaSalle, UniLaSalle
Karine Laval, Directrice recherche et développement, UniLaSalle
Sébastien Laurent-Charvet, Directeur de l'enseignement et des formations, UniLaSalle
Valérie Leroux, Directrice générale déléguée & Directrice du campus de Rouen, UniLaSalle
Avec l’essor de la bioéconomie, qui entend remplacer les produits pétrosourcés par ceux issus de la biomasse, l’agriculture doit évoluer. La formation des ingénieurs agronomes a un rôle important à jouer, comme le montre l’exemple des formations données à l’Institut polytechnique UniLaSalle.
Bioplastiques à base de plantes, biogaz à partir de déchets organiques… les innovations biosourcées participent aujourd’hui à la « dépétrolisation » de l’économie.
Cette évolution impose de réfléchir aux compétences dont les ingénieurs en agronomie et agro-industries ont besoin et de faire évoluer les formations.
Derrière ces nouveaux besoins, il y a le développement de l’économie basée sur le vivant, appelée bioéconomie, dont l’enjeu est de remplacer les matériaux et l’énergie d’origine pétrosourcée par des équivalents issus de la biomasse renouvelable (cultures dédiées ou biodéchets). Celle-ci participe ainsi à la réduction des gaz à effet de serre et donc à la lutte contre le changement climatique.
La bioéconomie est fondée sur une approche plus respectueuse des écosystèmes pour la production de matières alimentaires et non alimentaires, qu’elles soient d’origine agricole, forestière, ou qu’elles proviennent des productions animales. La valorisation de la biomasse y est pensée dans une approche globale, en prenant en compte l’intégralité du cycle de vie des plantes ou des biodéchets.
En effet, pour que la bioéconomie soit vraiment durable, les agroécosystèmes doivent fournir à la fois des services écosystémiques (par exemple en restituant les matières organiques au sol) mais également assurer la production des bioressources dans un contexte d’accélération de changement climatique et de perte de biodiversité.
Puisqu’elle permet de limiter le recours aux produits pétrosourcés, la bioéconomie représente l’un des piliers de la stratégie de la France pour atteindre ses objectifs climatiques. Pour rappel, il s’agit de réduire de 50 % des émissions de gaz à effet de serre en 2030 et d’atteindre la neutralité carbone en 2050.
Le marché qu’elle représente s’élève déjà à 326 milliards d’euros de chiffre d’affaires, soit près de 15 % du PIB et deux millions de salariés en France. La France compte d’ailleurs doubler la masse annuelle de biomasse exploitée hors finalités alimentaires d’ici 2050. L’objectif est de générer de 50 000 à 100 000 nouveaux emplois par année dans ce secteur.
Avec plusieurs enjeux clés pour l’agronomie et ses praticiens :
l’allocation des sols en fonction des usages,
la conception et l’optimisation des procédés de transformation,
l’organisation des filières agricoles,
et le développement de compétences nouvelles.
Cela impose d’anticiper les métiers et les besoins d’expertise et de formation. Ce constat a amené certaines écoles d’ingénieurs à adapter, voire réinventer la formation des ingénieurs en agronomie et agro-industries. C’est notamment le cas à l’Institut polytechnique UniLaSalle.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
Trois grands profils doivent être envisagés, que l’on détaillera ci-dessous.
L’ingénieur agronome se transforme aujourd’hui en ingénieur agroécologue, et intègre de nouvelles compétences en écologie, en zootechnie combinée au bilan de gaz à effet de serre du système d’élevage et en simulation numérique.
L’ingénieur agroécologue cherche à produire et mobiliser de nouvelles biomasses : alimentaire (riche en protéines végétales insuffisamment produites en France et en Europe), non alimentaire, tout cela sous un nouveau régime climatique et tout en préservant les écosystèmes et les ressources naturelles.
Dans la formation d’ingénieur agroécologue, l’accent est ainsi mis sur la non-concurrence entre les cultures alimentaires et non alimentaires dans l’usage des sols, la valorisation de la diversité de fonctions des plantes et de la biodiversité du sol, et plus globalement, des fonctions des sols.
Elle s’appréhende à travers la compréhension des processus sol-plante-atmosphère et l’étude des pratiques agricoles (fertilisation, de travail du sol et de protection de cultures). Concrètement, elle passe également par le prototypage d’outils, l’expérimentation au sein d’un réseau d’essais chez et avec les agriculteurs, et par la simulation numérique.
L’un des rôles de l’ingénieur agroécologue est de penser le recyclage des coproduits agroindustriels et des biodéchets afin de boucler les cycles biogéochimiques du carbone, de l’azote et du phosphore, tout en produisant de l’énergie renouvelable.
La formation de l’ingénieur agroécologue à UniLaSalle intègre ainsi en deuxième et troisième année des activités de recherche-actions qui combinent à la fois l’agroécologie et la bioéconomie. Durant plusieurs mois, les étudiants travaillent avec divers acteurs du territoire (agriculteurs, coopératives, entreprises, collectivités locales…). De quoi appréhender la complexité tant écologique que sociotechnique du sujet, entre hétérogénéité des sols, rotation des cultures, diversité génétique et attentes sociales diverses en fonction des acteurs. Autant d’aspects rarement abordés simultanément dans les modèles conventionnels.
_
Les étudiants examinent par exemple les effets de la diversification des cultures promues par la bioéconomie (association de cultures en simultanée ou en relais, agroforesterie, développement de cultures pérennes, valorisation des infrastructures agroécologiques) sur les agrosystèmes dans des conditions « bas intrants » (c’est-à-dire, avec peu d’apports en énergie fossile et en azote de synthèse).
En collaboration avec les enseignants-chercheurs, ils testent des variétés et leurs mélanges dans différents environnements. Ces deniers sont définis par les facteurs climatiques, les pratiques agricoles (travail du sol intégrant le sans-labour, fertilisation organique…), et les associations de cultures (simultanée pois-avoine ou orge, ou en relais d’orge d’hiver et de soja). L’enjeu est d’adapter les systèmes de culture aux changements climatiques actuels et futurs.
« Rien ne se perd, rien ne se crée, tout se transforme », disait Lavoisier. Cette formule est au cœur du deuxième profil, celui du bioingénieur de la transformation.
Sa tâche est de développer et d’améliorer les matériaux biosourcés et/ou de nouvelles biomolécules pour remplacer les produits pétrosourcés. Il travaille ainsi à développer des procédés efficients au plan écologique (moindre consommation de solvants chimiques, d’énergie et d’eau), moins énergivore, et moins producteurs de déchets tout en minimisant les rejets de polluants et de gaz à effet de serre.
Ceci se joue à deux niveau :
d’une part au sein des écosystèmes en eux-mêmes où la restitution de matière organique améliore la fertilité des sols,
d’autre part à travers les procédés de valorisation de la biomasse, notamment les co-produits des cultures, par exemple via la méthanisation.
L’enjeu est de limiter l’impact environnemental des procédés permettant de produire des énergies, matériaux et autres molécules biosourcées. Ce principe d’optimisation repose sur l’utilisation en cascade, un système vertueux visant à maximiser l’efficacité de la biomasse.
À lire aussi : Les déchets agricoles, solution pour décarboner le secteur du bâtiment et aider les agriculteurs ?
Pour y parvenir, les bioingénieurs de la transformation développent une expertise en génie des procédés et/ou des biotechnologies. Cela requiert une compréhension approfondie des mécanismes physiques et biologiques de la transformation de la biomasse, aussi bien en laboratoire qu’à l’échelle industrielle. De plus, la modélisation et la simulation jouent un rôle croissant dans l’optimisation de ces procédés, rendant ces compétences de plus en plus indispensables.
Les étudiants se forment et s’exercent ainsi aux outils de la modélisation multi-physique et 3D au sein d’un Lab numérique partagé mais également dans des laboratoires physiques (par exemple, des bioréacteurs pour la fermentation, des plates-formes préindustrielles comme une halle technologique alimentaire ou des plateformes de bioprocédés comme l’ozonation par exemple.
Ces innovations peuvent également mobiliser une approche créative, notamment dans le cadre du biomimétisme. L’étude du rumen de la vache peut ainsi inspirer l’amélioration des méthaniseurs, tandis que l’étude de la structure la pomme de pin pour les échangeurs de chaleur permet d’optimiser les échangeurs de chaleur.
L’ingénieur agronome doit enfin prendre en compte l’échelle territoriale pour prendre en compte les défis économiques, climatiques et ceux liés à la biodiversité, dans un contexte d’instabilité géopolitique marqué. Les filières avec lesquelles il travaille peuvent avoir des dimensions variables : circuit court, régional, national…
En ce sens, il doit avoir des compétences en agronomie, mais aussi en sciences sociales. Par exemple, savoir lire les dynamiques humaines entre les différentes parties prenantes des filières (producteurs, stockeurs, transformateurs, consommateurs…), animer des collectifs et concevoir des dispositifs de médiation afin de favoriser la concertation locale. Une connaissance approfondie des méthodes et outils de la sociologie, voire de l’anthropologie, lui sont nécessaires. Il lui faut également maîtriser et anticiper les politiques publiques et réglementaires ainsi que celles concernant l’aménagement du territoire.
Citons un exemple. Les systèmes territorialisés alimentaires, qui prônent une refonte en profondeur des modèles mondialisés et financiarisés de la production alimentaire mondiale, impliquent de prendre en compte cette échelle locale. Ces dimensions humaines sont donc essentielles pour gérer les flux, les échanges et les marchés dans un contexte d’incertitude et s’avèrent complémentaires à la maîtrise scientifique et technique pures.
Par exemple, le développement de nouvelles filières de légumineuses nécessite de définir les besoins alimentaires journaliers en protéines de la population du territoire, l’évolution des régimes et comportements alimentaires, mais également leurs attentes et celles des distributeurs en termes de qualité et de formulation, ainsi que les zones de production, de collecte et stockage et de transformation.
Le regain d’intérêt pour les métiers de l’environnement parmi les jeunes est réel et s’explique par la combinaison de facteurs socio-économiques, politiques, et éthiques. Cependant, la réalité et les opportunités du secteur de la bioéconomie sont souvent méconnues des collégiens et lycéens, voire de leurs enseignants.
Alors que la jeunesse est en recherche de sens, il est urgent que tous les acteurs se mobilisent – représentants des agriculteurs, éducation nationale et enseignement supérieur, instituts de recherche – pour dialoguer avec la société de manière à mieux expliquer la diversité et le potentiel de ces métiers et proposent des formations qui contribuent à façonner les transitions agroécologiques, alimentaires et énergétiques.
Cet article a bénéficié de l’appui de Anne Combaud, Pierre-Yves Bernard, David Houben et Laurent Ouallet, engagés dans la formation des ingénieurs agronomes.
Michel-Pierre Faucon est membre du pôle de compétitivité Bioeconomy For Change. Il a reçu des financements de VIVESCIA, AGCO, KUHN, du conseil régional des Hauts de France et l'ANRT.
Karine Laval, Sébastien Laurent-Charvet et Valérie Leroux ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
25.02.2025 à 16:32
Olivier Genevieve, soutenabilité de filière soft & energy commodities, INSEEC Grande École
Source de débats et de revirements sans fin sur l’utilisation de pesticides, la betterave sucrière fait beaucoup parler d’elle. Mais l’on connaît moins son histoire faite de protectionnisme, de quête d’alternative au sucre de canne et de débouchés rares. Retour sur la folle épopée de la betterave en France.
C’est une culture solidement implantée en France et plus que jamais à la croisée des chemins : celle de la betterave. L’Hexagone est le premier producteur européen et le neuvième producteur mondial, bien loin cependant du Brésil, champion toutes catégories de la production et des exportations de sucre.
Monoculture du nord de la France, elle y fédère environ 24 000 agriculteurs à travers un maillage de coopératives agricoles, représentée par la Confédération générale des planteurs de betteraves (CGB) et, à l’échelle européenne, par la Confédération internationale des betteraviers européens (CIBE).
Particulièrement bien organisés, ces agriculteurs ont été médiatisés ces dernières années pour leur opposition à l’interdiction des néonicotinoïdes en 2018. Ces pesticides notamment toxiques pour les abeilles sont toujours autorisés ailleurs en Europe, et ils pourraient l’être de nouveau en France avec, en janvier 2025, un vote au Sénat en faveur de leur réintroduction.
Mais d’où nous vient donc cette betterave sucrière qui a prodigieusement essaimé dans le nord de la France, et vers quels horizons s’oriente-t-elle ?
La betterave sucrière (à ne pas confondre avec la betterave alimentaire qui est de couleur rouge alors que la sucrière est impropre à la consommation humaine et de chair blanche) est en fait une résultante du blocus continental de Napoléon de 1806 à 1814.
Les autorités impériales ont interdit les importations de sucre anglais. En plus de cela, les îles de Guadeloupe et de Martinique, pourvoyeuses en sucre et jusque-là dans le giron de la France, sont prises en étau entre des possessions britanniques (la Jamaïque) et des possessions portugaises, alliées du Royaume-Uni du côté du Brésil. La découverte en 1747 de la cristallisation possible du sucre de la betterave, par un pharmacien et chimiste allemand (technique améliorée ensuite par des chimistes allemand et français), va alors ouvrir une nouvelle perspective : celle de la production de betteraves sucrières sur le territoire français métropolitain afin de répondre à la consommation grandissante de sucre. La betterave a rendu ainsi la canne obsolète et l’esclavage moins pertinent dans le commerce international.
Indirectement, le fait que les Européens soient passés d’une consommation de sucre provenant de canne à un sucre provenant de betterave a contribué dans les années suivantes à la fin de l’esclavage aux Amériques, car les débouchés traditionnels s’étaient taris.
La betterave a depuis élu domicile dans le nord de la France, où elle est produite en rotation avec le blé et la luzerne. Le climat et les champs plats qu’on y trouve permettent de produire un rendement optimal sur le territoire national. Avec la mécanisation, les engrais chimiques et le remembrement agricole, les rendements ont été démultipliés, faisant de la France un exportateur notamment vers ses anciennes colonies en pleine explosion démographique.
En 2003, la Commission européenne a décidé de réorganiser la production continentale du sucre et de concentrer celle-ci dans des pays plus « compétitifs » (France, Allemagne et Benelux). Et ce, pour deux raisons : d’une part, pour faire baisser le prix du sucre sur un marché européen protégé de la concurrence internationale ; d’autre part, afin de développer le débouché de l’agrocarburant, dont l’E85 ou superéthanol pour la voiture hybride (essence et éthanol).
C’est donc à partir de cette date que Bruxelles a procédé à une concentration de la production de betteraves en Belgique, en Allemagne et en France, faisant ainsi progressivement stopper les productions italienne, espagnole ou finlandaise peu compétitives.
À cela s’est rajoutée en 2006 la condamnation de l’UE par l’Organisation mondiale du commerce (OMC), à la demande d’un groupe de pays réunissant les grands producteurs de sucre de canne (le Brésil, la Thaïlande, l’Australie). Ces derniers considéraient les généreuses subventions accordées aux producteurs de betteraves par l’UE comme « illégales » puisque que portant sur des quantités plus grandes que celles déclarées. L’OMC leur a donné raison et a interdit dès lors ces subventions. Le marché européen s’est donc davantage concentré et s’est ouvert, tout du moins partiellement, au sucre de canne, avec des droits de douane salés et des quotas de sucre dans des accords bilatéraux comme pour l’Inde, par exemple.
La betterave reste depuis un produit sensible lié à une politique protectionniste. Sans celle-ci, la canne à sucre, notamment brésilienne, reste économiquement plus avantageuse que la betterave, qui ne peut faire l’objet que d’une récolte par an.
En France, la betterave occupe donc aujourd’hui environ 400 000 hectares, essentiellement au nord de la Loire.
Pour l’année écoulée, selon la Confédération générale des betteraviers, 17 % des betteraves ont servi à produire de l’éthanol qui, mélangé à 15 % d’énergie fossile (l’essence), produit l’E85, ou superéthanol. Par ailleurs, 30 % des betteraves ont été utilisés pour le sucre alimentaire consommé directement. Le reste de la production est lui orienté vers l’industrie alimentaire (21 % de la consommation du sucre de betteraves pour les boissons et 12 % pour les biscuits) ainsi que par l’industrie pharmaceutique, de manière non négligeable.
La filière betterave est ainsi imbriquée dans plusieurs secteurs qui la rendent stratégique en matière de souveraineté nationale, aussi bien alimentaire qu’énergétique.
Actuellement, 21 sucreries métropolitaines s'occupent de la transformation de betterave en sucre et en éthanol ainsi qu’en gel hydroalcoolique. Elles étaient 25 en 2018, ce qui montre une concentration de l’outil de production mais aussi une capacité de production moindre.
La production actuelle est de 4,2 millions de tonnes de sucre dont la moitié est exportée. Mais les betteraviers français perdent des parts de marché d’année en année face, notamment, au géant brésilien qui importe son sucre en France métropolitaine. Les accords multilatéraux et le futur accord UE-Mercosur accentueront très certainement cette réalité.
Ainsi, si la betterave est l’objet d’une politique protectionniste, cela ne signifie pas pour autant que ses acteurs ne se sentent pas menacés par la concurrence extérieure.
Autre menace qui pèse sur la culture sucrière française : les épidémies de jaunisse avec, comme solution « miracle » privilégiée lors de l’émergence de ce fléau, les enrobages des graines de betterave, c’est-à-dire des semences entourées d’insecticides. Cette invention, d’origine japonaise, utilisée par l’industriel Bayer permettait ainsi à la plante d’avoir autour de la racine un néonicotinoïde accompagnant et protégeant la betterave contre les pucerons et la jaunisse lors de sa pousse. Cette dernière pathologie pouvant avoir des effets redoutables sur les récoltes avec, par exemple, en 2020, une baisse qui a pu atteindre 70 % des rendements et une chute de production de sucre en France de l’ordre de 50 %.
Cependant, sur le long terme, la solution des néonicotinoïdes a pris des allures de cercle vicieux avec, d’un côté, des insecticides qui promettent une efficacité de 100 % et, de l’autre, des insectes qui, en quelques générations, deviennent immunisées à l’agrotoxique, ce qui pousse alors les chimistes à changer les formules, inventer de nouvelles molécules à l’empreinte toxique encore plus importante. À cela se rajoute une migration des insectes vers des zones non traitées, transportant chez le voisin le problème d’invasion des parasites.
Cette solution a finalement été mise à mal en 2018 par l’interdiction européenne d’utiliser des néonicotinoïdes en enrobage de semences. Depuis lors, les betteraviers français n’ont cessé de s’indigner d’une concurrence déloyale, du fait de législations moins contraignantes chez nos voisins et n’hésitent pas à rappeler qu’aujourd’hui, la France est le seul pays européen à avoir banni tous les néonicotinoïdes et que l’acétamipride (un insecticide de la famille des néonicotinoïdes) reste autorisé en Europe, jusqu’en 2033, tout en étant interdite sur les terres agricoles françaises.
L’Ukraine, quant à elle, déverse des tonnes de sucre à bas coûts provenant d’immenses exploitations contrôlées par des capitaux internationaux. À titre indicatif, 29 substances actives (fongicides, insecticides, herbicides) utilisables en Ukraine sur betteraves sont interdites dans l’Union européenne.
Face au désespoir de la filière, Agnès Pannier-Runacher, alors ministre déléguée à l’agriculture, a décidé d’ouvrir les vannes, début avril 2024, en passant de deux à cinq épandages annuellement possibles de movento, un insecticide de chez Bayer. Les trois épandages supplémentaires seront donc autorisés au cas par cas, afin de juguler la jaunisse.
Le betteravier pourra ainsi utiliser cette dérogation en plus du teppeki, autre insecticide, en soutien au contrôle de la jaunisse. Cette mesure est cependant jugée comme indispensable, mais pas suffisante par la profession.
D’autres solutions pourraient aussi être envisagées comme, par exemple, une indemnisation financière des betteraviers. Cependant, cela paraît difficilement envisageable en ces périodes de disette budgétaire. De plus, cela signifierait la fin de la souveraineté alimentaire nationale en approvisionnement en sucre voire la fin de l’espoir d’une relative souveraineté énergétique avec l’éthanol produit à partir de la betterave. Les betteraviers n’auraient plus ces débouchés traditionnels et nouveaux permettant de générer des économies d’échelle, d’une part, et des profits, d’autre part.
La filière s’écroulerait et pourrait avec elle entraîner toute l’industrie sucrière européenne la rendant dépendante d’un sucre ukrainien ou mieux, brésilien.
Parmi les autres pistes pour résoudre le risque de jaunisse réside la « solution » génétique. Outre-Atlantique, aux États-Unis notamment, 100 % des betteraves sont des organismes génétiquement modifiées résistantes à l’herbicide roundup afin de permettre un traitement au glyphosate efficace contre les nuisibles. Reste que le roundup est excessivement nocif pour l’environnement et donc pour l’homme et la société. Monsanto-Bayer croule de ce fait sous les procès qui pourraient bien devenir légion en Europe.
L’intelligence artificielle est également évoquée comme une possible solution, de plus en plus utilisée par les géants de l’agrochimie afin d’inventer de nouvelles molécules actives, d’un côté, et, de l’autre, de fabriquer un outillage agricole intelligent qui ne traiterait que la « mauvaise herbe » ou bien, prochainement, qui désherberait mécaniquement par le biais de capteurs et de bras mécanisés un champ afin de minimiser l’utilisation des agrotoxiques ou de les rendre obsolètes.
À cela s’ajoute l’emploi de drones permettant une vaporisation « ponctuelle » de zones précises, rendant moins onéreuse et plus efficace l’application d’agrotoxiques.
La recherche en agroécologie, elle, mise notamment sur l’utilisation du paillage (couverture végétale sur les cultures) qui minimise les risques d’infestation de pucerons, ou bien sur la mise en place de cultures auxiliaires qui repoussent ces nuisibles.
Olivier GENEVIEVE est membre de sucre ethique. Il a reçu des financements de université internationale terre citoyenne. Il conseille le syndicat agricole sud-americain UTAC.
24.02.2025 à 18:15
Pierre-Éloi Gay, Chercheur en sciences de gestion, ESSEC
Alors que l’Union européenne signait un accord de libre-échange avec les pays du Mercosur, le PDG de Carrefour a, en six jours seulement, effectué un retournement spectaculaire. En soutien aux éleveurs français inquiets, il a d’abord annoncé que ses supermarchés ne vendraient pas de viande brésilienne, puis a vite rétropédalé en formulant des excuses aux éleveurs brésiliens. Une décision perçue comme historique au Brésil, où il y a quelques années encore, l’agrobusiness pliait devant les menaces de boycott des entreprises occidentales. Mais depuis lors, plusieurs facteurs ont changé la donne.
C’est un rétropédalage aussi rapide qu’éloquent. Le 20 novembre dernier, suite aux manifestations d’agriculteurs français inquiets face à l’accord de libre-échange entre l’Union européenne et le Mercosur, Alexandre Bompard, PDG de Carrefour annonçait que, en soutien aux éleveurs français, son groupe s’engageait à ne pas acheter de viande originaire des pays du Mercosur (Argentine, Brésil, Paraguay, Uruguay, Bolivie).
Sa déclaration a immédiatement déclenché une vive colère des syndicats agricoles et de l’agroalimentaire au Brésil. Un pays loin d’être anodin pour Carrefour puisqu’il s’agit de son deuxième marché et qu’il représente plus de 20 % de son chiffre d’affaires (contre 50 % pour la France). Certaines des plus grandes entreprises brésiliennes de la filière bovine ont alors cessé de livrer leur viande aux supermarchés Carrefour locaux tandis que les plus importants syndicats patronaux de l’agrobusiness menaçaient, eux, de ne plus vendre leurs produits au groupe à l’échelle mondiale.
Devant l’ampleur de la polémique, Carrefour a dû faire des excuses officielles dans une lettre remise par l’ambassade de France au gouvernement brésilien, le 26 novembre. Dans cette missive, le groupe se désolait du fait que les déclarations aient pu être comprises comme une critique à l’agriculture brésilienne et réaffirmait son soutien au développement de cette dernière.
Cet épisode soulève une question essentielle : les entreprises privilégieront-elles toujours leur chiffre d’affaires au détriment de la protection des agriculteurs français et du modèle agricole européen ? La réalité est plus nuancée. En effet, cet événement révèle plutôt un changement dans les rapports de force commerciaux entre le Brésil et l’UE, tout en illustrant le recul des préoccupations environnementales dans l’agenda politique et économique mondial.
Car, il y a encore quinze ans, la stratégie du boycott de l’agrobusiness brésilien pouvait être efficace. En la matière, deux épisodes en 2006 et en 2009 ont marqué les esprits.
En 2006, suite à une campagne de l’ONG Greenpeace, les dirigeants de McDonald’s avaient exigé que ses fournisseurs de soja au Brésil garantissent que leurs produits ne soient pas liés à la déforestation en Amazonie. À l’époque, celle-ci avançait à un rythme accéléré (2,9 millions d’hectares en 2004, soit une surface légèrement supérieure à la Bretagne). Cette prise de position de McDonald’s avait alors abouti au moratoire sur le soja par lequel les plus grands négociants agricoles mondiaux se sont engagés à ne pas acheter de soja cultivé sur des terres récemment déforestées en Amazonie.
En 2009, suite à une autre campagne de Greenpeace, Carrefour et d’autres distributeurs étrangers présents au Brésil avaient à leur tour annoncé ne plus acheter de viande issue de la déforestation amazonienne. En 2010, ce fut au tour des principales entreprises brésiliennes de la filière bovine de s’engager légalement à ne pas acheter de viande issue de la déforestation de l’Amazonie. Dans les deux cas, l’agrobusiness brésilien avait alors dû s’adapter aux exigences de leurs entreprises clientes dont la plupart sont étrangères.
Mais en 2024, la dynamique s’est inversée, et c’est l’agrobusiness brésilien qui a fait plier un distributeur européen. La menace était pourtant mineure, car il s’agissait cette fois-ci d’une simple déclaration du PDG qui déplorait la différence de normes sanitaires et environnementales, et non d’un changement concret de sa politique d’achat, l’approvisionnement en viande du Mercosur des supermarchés français de Carrefour étant déjà minime.
Pourtant, l’agrobusiness brésilien a obligé le septième plus important groupe de distribution alimentaire mondial en termes de chiffres d’affaires à revenir sur ses déclarations. Du côté de Carrefour, le risque en matière d’image a sans doute été perçu comme trop important alors que le groupe considère le Brésil comme un réservoir de croissance.
Il s’agit donc avant tout pour le secteur d’une victoire symbolique. Néanmoins, cet épisode a été qualifié d’historique par certains leaders de l’agrobusiness brésilien. Selon eux, c’est le signal que le secteur sait défendre ses intérêts et qu’il a saisi l’opportunité de montrer sa capacité de mobilisation à ses clients et à ses concurrents étrangers.
Pour prendre la mesure de ce retournement, on peut également mentionner la décision des institutions européennes en novembre 2024 de retarder d’un an la réglementation contre l’entrée sur le marché européen de produits issus de la déforestation. Car cette législation a également été combattue férocement par les différents lobbys de l’agrobusiness brésilien qui l’ont qualifiée d’« unilatérale, agressive et irréaliste ».
À ce titre, l’IPA (Instituto Pensar Agro, où les syndicats agricoles et patronaux de l’agrobusiness élaborent leur lobbying politique auprès du Parlement brésilien) a déclaré son soutien à un projet de loi qui imposerait à tout produit entrant au Brésil les normes environnementales brésiliennes. Ce projet de loi vise avant tout à montrer à l’Union européenne que le Brésil est prêt à riposter à toute règle commerciale jugée abusive. C’est une réponse claire à ceux qu’ils accusent de déguiser leur protectionnisme derrière des préoccupations environnementales et sanitaires.
Après les succès des campagnes écologistes de 2006 et de 2009, l’agrobusiness s’est de fait efforcé de propager l’idée que le secteur est responsable et durable, que la législation environnementale brésilienne est une des plus strictes au monde et que les préoccupations des scientifiques sont exagérées. Ces idées sont largement partagées au sein des milieux d’affaires et de la politique brésiliens et sont à la source de la mobilisation contre les déclarations d’Alexandre Bompard.
Au-delà de cet aspect idéologique, le secteur de l’agrobusiness brésilien considère qu’il peut hausser le ton face à l’Union européenne pour deux raisons.
Premièrement, l’Union européenne a perdu son statut de premier client du Brésil au profit de la Chine. Elle ne représente plus que 5 % des achats de viande en volume du Brésil quand la Chine en représente près de la moitié.
Néanmoins, elle représente encore un client majeur de certaines filières avec près de la moitié des exportations brésiliennes de café ou de tourteau de soja, utilisé pour l’alimentation animale et plus rémunérateur que le soja brut exporté par le Brésil vers la Chine.
Deuxièmement, nombreux sont ceux au sein du secteur qui considèrent que l’Europe n’a pas les moyens de sa politique environnementale et que l’effet inflationniste sur les prix de l’alimentaire dissuadera assez vite les décideurs européens.
Le report d’un an (officiellement, uniquement pour des raisons de faisabilité) du réglement européen sur la déforestation donne du crédit à cette thèse. En effet, de nombreux lobbys industriels et agroalimentaires européens ont fait part de leur préoccupation à la Commission européenne en évoquant la déstabilisation de leurs chaînes logistiques et le renchérissement de leurs approvisionnements par une telle mesure.
Entre autres secteurs concernés, la production européenne de viande et de lait serait impossible à maintenir en termes de volume et de prix sans l’importation de protéine végétale pour nourrir les cheptels. Or, le Brésil reste un des premiers fournisseurs de soja pour l’Union européenne et ces importations sont liées à la déforestation.
Après le contexte inflationniste lié à la guerre en Ukraine, les consommateurs européens auraient de fait du mal à accepter une énième augmentation des prix. Cet argument a sûrement pesé dans la décision de la Commission européenne.
La perspective de la signature prochaine de l’accord de libre-échange entre l’Union européenne et le Mercosur a dû être également un élément en faveur de ce report afin de ne pas fâcher le Brésil. Cette fois, ce sont les principaux syndicats industriels (comme ceux de l’agro-industrie) et de la grande distribution (comme Eurocommerce dont fait partie Carrefour) de concert avec les syndicats patronaux de l’agrobusiness brésiliens qui ont pris fait et cause pour la signature de l’accord dans lequel ils voient la perspective de « nouveaux marchés » et la « consolidation » de leurs chaînes d’approvisionnement.
Cet accord est théoriquement censé relancer la croissance européenne en favorisant les exportations vers le Mercosur. Il va également faciliter l’arrivée de produits agricoles brésiliens sur le marché européen. Les quotas de viande prévus ne laissent cependant pas présager de changement radical dans la part des viandes du Mercosur sur la viande consommée en Europe, à court terme. Néanmoins, cet afflux de produits de l’agrobusiness brésilien éloigne toujours plus la perspective d’une sortie du modèle agricole productiviste.
En définitive, la recherche de croissance à tout prix, en Europe comme au Brésil, fait reculer les ambitions environnementales. L’épisode Carrefour illustre en cela un tournant : là où l’agrobusiness brésilien s’adaptait aux exigences des multinationales européennes, il s’affirme désormais comme un acteur influent capable d’infléchir les décisions des grandes entreprises et institutions européennes.
Pierre-Éloi Gay ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.02.2025 à 12:46
Thierry Nadisic, Professeur en Comportement Organisationnel, EM Lyon Business School
Marie Nadisic, Doctorante à l'ENSCI et chercheuse participante au laboratoire litem de l’université Paris Saclay, Université Paris-Saclay
La « main invisible » du marché a besoin de la « main visible » des managers pour sélectionner des innovations durables. Comment peuvent-ils s’inspirer de la sélection naturelle ?
L’innovation, qui consiste en la mise au point de nouveaux produits, services ou processus, est aujourd’hui le moteur du développement de l’entreprise. Mais elle favorise aussi la surexploitation des ressources naturelles, l’extinction de la biodiversité, le réchauffement climatique et la pollution. Dans ce nouveau contexte de l’anthropocène, où nous avons atteint les limites de la planète, des pressions sociétales, réglementaires et commerciales de plus en plus fortes incitent les entreprises à innover autrement. Comment peuvent-elles mettre en place de nouveaux processus d’innovation durables ?
Dans cet article, nous avons croisé une analyse managériale de l’innovation avec des travaux dans la discipline naissante de la bioinspiration, une approche créative fondée sur l’observation des systèmes biologiques. En particulier, nous nous sommes inspirés de la façon dont la sélection naturelle permet l’adaptation des espèces pour repenser la sélection des innovations dans l’entreprise.
Les entreprises les mieux adaptées à leur environnement sont sélectionnées par « la main invisible du marché ». Dans de nombreuses industries, les organisations qui survivent et se développent sont les plus innovantes. Dans le secteur des batteries électriques, l’environnement a ainsi sélectionné des entreprises chinoises comme CATL et BYD. Elles avaient une avance technologique forte, notamment dans les technologies logicielles, alors que l’environnement n’a pas retenu un leader européen moins innovant comme Northvolt qui s’est déclaré en faillite en novembre 2024.
Dans l’entreprise elle-même, le processus d’innovation est réalisé par « la main visible des managers », selon l’expression d’Alfred Chandler. Ceux-ci cherchent à maximiser un objectif de marge sous contrainte d’adaptation à la demande des consommateurs, à la position des concurrents, aux possibilités techniques et aux lois et règlements. Or, on sait depuis le début du XXe siècle que ces innovations ne tiennent pas compte des externalités négatives de leurs décisions, à savoir des conséquences dommageables sur leur environnement.
L’observation de la sélection naturelle peut être source d’inspiration pour repenser les processus d’innovation dans l’entreprise. Dans chaque espèce, des traits nouveaux apparaissent de façon aléatoire chez certains individus. Ceux qui augmentent leurs chances de survie et de reproduction dans leur environnement spécifique seront retenus. Ces nouveaux traits seront transmis par hérédité et façonneront les générations futures.
À lire aussi : Relire Adam Smith aujourd’hui : la « main invisible », une apologie du libéralisme ?
S’inspirer de la sélection naturelle signifie d’abord, pour l’entreprise, de s’engager dans une compréhension en profondeur de son environnement. Par exemple, on a rapidement vu la diminution des émissions de gaz à effet de serre entraînée par l’innovation de la voiture électrique. Mais un travail plus approfondi a permis d’identifier un nouvel enjeu quant à l’extraction des métaux rares nécessaires à sa production. Des cabinets de conseil réalisent par exemple la cartographie des impacts des stratégies des entreprises qu’ils accompagnent. Ils utilisent des données et des outils pour modéliser l’interconnexion entre les activités des entreprises et la nature.
Une façon différente de procéder consiste à développer des scénarios prospectifs afin d’explorer les conséquences de chaque choix d’innovation et de mieux gérer l’incertitude. D’autres cabinets encouragent ainsi les entreprises à tester leurs choix dans des environnements variés, explorant des futurs possibles pour ajuster leurs stratégies en conséquence. Ils peuvent, par exemple, aider leurs clients à adapter leurs services et produits pour tenir compte des nouveaux risques liés aux évènements météorologiques extrêmes et chaotiques.
L’entreprise peut alors mimer la nature pour choisir les critères qui feront l’objet d’un compromis. L’innovation deviendra ainsi acceptable dans toutes les dimensions identifiées.
Cette étape implique d’utiliser des cadres collectifs aptes à représenter la diversité des dimensions pertinentes et à gérer les tensions qui émergent de leur prise en compte. Concrètement, il s’agit de mobiliser des citoyens, des experts, des designers ou des écologues. En multipliant les voix, on comprend mieux comment une innovation affecte des populations spécifiques.
Par exemple, l’industrie biomédicale française coopère de plus en plus avec des associations de défense animale comme GRAAL ou OPAL pour limiter et mieux accompagner l’utilisation des animaux dans les recherches expérimentales. C’est à partir de ces voix plurielles qu’il est possible de choisir les critères et de réaliser les compromis les plus satisfaisants.
Abonnez-vous dès aujourd’hui !
Que vous soyez dirigeants en quête de stratégies ou salariés qui s’interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts.
C’est aussi de cette façon qu’ont procédé des collectivités territoriales accompagnées par des agences de R&D et d’innovation sociale. Elles ont organisé une critique constructive de leurs critères traditionnels de sélection de projets d’innovation grâce à divers acteurs – coopératives, associations, chercheurs, citoyens et représentants d’organisations publiques et privées. Ce processus collectif a permis la construction de nouveaux critères répondant de façon plus pertinente aux ambitions de la collectivité.
C’est sur ce fondement que la région Nouvelle-Aquitaine a mis en place un nouveau fonctionnement pour ses laboratoires mobiles coopératifs. Afin de continuer à être le moteur de nos économies et du développement de nos entreprises, l’innovation doit s’adapter en respectant les limites planétaires et les besoins sociétaux. Ce changement de cap est facilité en particulier grâce à des approches bioinspirées comme celle consistant à mimer la sélection naturelle pour sélectionner les innovations.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
23.02.2025 à 16:47
Rémi Guillem, doctorant en sociologie, CRESPPA-LabTop, Université Paris 8 – Vincennes Saint-Denis
Deux enquêtes scientifiques mettent à jour le profil type de l’agriculteur urbain : un homme, diplômé, ayant créé une entreprise agricole à vocation productive. Derrière cette catégorisation homogène se cachent quatre profils complémentaires : l’entrepreneur, le responsable associatif, le militant et le déclassé. En quoi consistent donc leurs métiers aujourd’hui ?
Pendant le Salon international de l’agriculture 2025, les curieux découvriront peut-être un stand original dans le pavillon quatre. Depuis 2018, l’Association française d’agriculture professionnelle (Afaup) participe, aux côtés de la Mairie de Paris, à la promotion des métiers de l’agriculture urbaine. Dans un contexte où la part des agriculteurs dans la population active ne cesse de décroître, les débouchés professionnels de ces alternatives aux métiers agricoles traditionnels soulèvent plusieurs questionnements : qui sont les travailleurs de l’agriculture urbaine ? En quoi consistent leurs métiers ?
À lire aussi : BD : Pourquoi mettre des fermes dans les villes ?
Dans le cadre d'une thèse en cours sur le développement de l'agriculture urbaine en France et aux États-Unis, nous avons conduit une enquête qualitative auprès de travailleurs du secteur agri-urbain à Paris et à Détroit (Michigan), deux municipalités pionnières en matière de soutien institutionnel à l’agriculture urbaine. Cette recherche a pour objectif de saisir avec finesse leurs trajectoires sociales et les carrières professionnelles afin de mieux comprendre cette tendance.
Depuis les années 2010, de véritables exploitations agricoles telles que Nature urbaine, une ferme high tech de 1,4 hectare sur la toiture du Palais des Congrès de la porte de Versailles ou les deux champignonnières souterraines de Cycloponics sont apparues dans Paris. Ce phénomène est largement international : à Montréal (Québec, Canada), Lufa Farms cultive une superficie totale de 2,7 hectares sur cinq sites. À Détroit, une ferme en sylviculture de 144 hectares a vu le jour en 2013 dans l’est de la ville.
Mais le développement de fermes urbaines de plus en plus entrepreneuriale et technicisées masque en réalité la grande diversité des initiatives agri-urbaines. Elles restent avant tout portées par des acteurs associatifs visant le soutien à des politiques de développement urbain durable. Une étude conduite par l’Afaup, en 2019, auprès de 140 agriculteurs urbains, fait aussi le constat que s’il existe bien un agriculteur urbain « typique ». C’est un homme, diplômé, ayant créé une entreprise agricole à vocation productive, il ne représente en réalité que 43 % des répondants.
Notre enquête fait apparaître quatre profils : les « entrepreneurs », les « responsables associatifs », les « militants écologistes » et les « déclassés ».
Les entrepreneurs correspondent au profil « typique » identifié par l'étude de l’Afaup et représentent un tiers des enquêtés dans notre enquête. Ce sont généralement des hommes jeunes, diplômés, à la tête d’une petite entreprise créée dans les années 2010.
Les militants écologistes représentent un autre tiers du groupe enquêté. Il rassemble des hommes et des femmes diplômés qui ont créé des associations dès les années 2000 pour porter des revendications environnementales. Ils se sont peu à peu professionnalisés dans le secteur agri-urbain.
Le profil des responsables associatifs représente quant à lui un cinquième des enquêtés. Il regroupe plutôt des hommes, cadres, responsables d’associations n’étant pas spécialisées en agriculture urbaine. Ils ont monté des projets agri-urbains en parallèle de leurs projets associatifs principaux, dans le cadre de politiques municipales de soutien aux jardins partagés et aux fermes urbaines.
Le dernier profil rassemble des personnes ayant connu une forme de déclassement social. Ce groupe est en moyenne plus féminisé et plus âgé que les trois autres. Il rassemble des individus qui, à Détroit comme à Paris, se sont reconvertis dans le secteur agri-urbain à la suite d’une rupture biographique, liée à un déménagement ou la perte d’un emploi, par exemple. Les parcours d’entrée vers cette activité s’articulent alors à un certain nombre de missions qui permettent d’approcher la spécificité du métier d’agriculteur urbain.
La notion de « professionnalité » désigne une « capacité issue de l’expérience, qui permet à des professionnels à la fois de respecter les règles du métier […] et de les transgresser afin de s’adapter aux situations ». Elle renvoie à la fois à une série de normes professionnelles et à la capacité des individus à jouer avec cette norme. Dans le cas du métier d’agriculteur urbain, cette notion permet d’appréhender comment celui-ci s’est construit à partir de normes importées de trois autres professions : celles de jardinage, de l’agriculture et du travail social.
Abonnez-vous dès aujourd’hui !
Que vous soyez dirigeants en quête de stratégies ou salariés qui s’interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts.
Ainsi, certains travailleurs appréhendent leur métier comme une hybridation entre les métiers du jardinage et de l’agriculture, comme ce responsable d’une entreprise administrativement liée au monde agricole, mais qui fournit des services de jardinage :
« On est plutôt construits dans l’étiquette paysagiste, mais rattachés à la Mutualité sociale agricole (MSA). » (Responsable d’une ferme urbaine, mars 2023)
De la même manière, certains travailleurs mobilisent le travail agricole ou le jardinage comme un support de travail social en « parlant à travers les salades ».
« Il est plus facile de parler de sa vulnérabilité et de ses émotions dans une conversation qui ne requiert pas de contact visuel direct. » (Salarié de ferme associative, février 2019)
Ces différentes conceptions du métier d’agriculteur urbain peuvent parfois entrer en tension, faisant apparaître des luttes pour la définition du périmètre du métier.
Les fermes urbaines les plus orientées vers la productivité ne représentent en réalité qu’une infime partie des initiatives agri-urbaines. En 2023, elles ne représentaient qu’une trentaine, soit 7 % des 474 structures répertoriées à Paris, selon les données de l’Afaup et de la Mairie de Paris. De surcroît, elles peuvent représenter des contre-modèles, de « fausses bonnes idées », selon ce responsable associatif parisien :
« C’est trop dispendieux en énergie, en plastique ou en matériaux technologiques […] pour produire deux, trois salades, quoi. Voilà ce que je reproche à ces structures qui promeuvent ces fausses bonnes idées. » (Responsable de ferme urbaine associative, mai 2023)
Le cas d’Agricool, start-up agro-urbaine fondée en 2015, qui a levé 25 millions d’euros en 2018 pour son prototype de container high-tech est exemplaire de cette logique, selon cet autre responsable de fermes parisien :
« Je leur ai dit, je ne vois aucun intérêt à ça, vendre des fraises hors saison. Ce n’est pas du tout le sens qu’on veut de ce qu’on veut développer en agriculture urbaine, on veut que les gens retrouvent la saisonnalité des productions. » (Responsable d’une ferme urbaine, mars 2023).
Le plan de développement économique d’Agricool, fondé sur un transfert du prototype dans les Émirats arabes unis, n’a pas su convaincre d’autres investisseurs, l’entreprise a fermé ses portes en 2022.
Le métier d’agriculteur urbain recouvre donc une grande variété de profils : entrepreneuriaux, associatifs, militants, reconvertis professionnels contraints. Il catalyse aussi plusieurs normes issues de métiers fortement structurés tels que les métiers agricoles ou les métiers de l’aménagement paysager. Ces petites différences font ainsi l’objet de débats au sein de ce monde professionnel en construction. Face à une nouvelle vague d’intérêt pour les métiers de l’horticulture et du paysage depuis les années 2020, il reste important de suivre l’évolution de ce secteur qui pourrait attirer de plus en plus de néo-paysans.
J'ai travaillé en qualité de doctorant CIFRE pour une association ayant pour objet de promouvoir l'agriculture urbaine en région parisienne
22.02.2025 à 14:53
Guy Meunier, Chercheur en économie de l'environnement, Inrae
Maxence Gérard, Doctorant, Inrae
Stéphane De Cara, Directeur de recherche, Inrae
Diminuer le bilan carbone de l’élevage, qui mobilise la moitié des surfaces agricoles françaises et représente 60 % des émissions de gaz à effet de serre de l’agriculture, apparaît crucial. Taxe sur la viande, reboiser les prairies… des recherches se sont intéressées aux différentes options possibles.
Avec 20 % des émissions de gaz à effet de serre (GES) françaises, l’agriculture est le deuxième secteur le plus émetteur. La question de son impact sur le climat et des moyens de le réduire revient dans le débat public, à quelques jours de l’ouverture du Salon de l’agriculture.
Ces émissions sont essentiellement composées de méthane (56 %) et de protoxyde d’azote (29 %). Le premier est majoritairement issu de l’élevage de ruminants, notamment du fait de la fermentation entérique. Le second est quant à elles dû à l’utilisation d’azote dont une partie provient des effluents d’élevage (fumier, lisier). Ainsi, l’élevage est responsable d’environ 60 % des émissions agricoles.
Si on s’intéresse à l’occupation des terres, les activités agricoles utilisent un peu plus de la moitié des terres françaises. Là aussi, l’élevage joue un rôle central : plus de la moitié des surfaces agricoles françaises lui sont dédiées sous forme de prairies ou de cultures pour l’alimentation des animaux.
Or les sols et leurs occupations sont cruciaux dans l’atténuation du changement climatique : ils stockent du carbone issu de l’atmosphère dans les sols et la biomasse aérienne.
Favoriser la séquestration et le stockage constitue donc un élément clef pour atteindre la neutralité de GES, mais cela nécessite de modifier les usages des sols.
À lire aussi : Les sols aussi émettent des gaz à effet de serre, et les pratiques agricoles font la différence
La réduction des activités agricoles liées à l’élevage pourrait donc libérer des surfaces importantes. Si elles sont dédiées à la régénération naturelle des écosystèmes – et notamment à du reboisement, les surfaces libérées permettraient de capter et stocker des quantités additionnelles conséquentes de carbone. La notion de coût d’opportunité carbone (COC) fait référence à cette option : il s’agit de tenir compte du potentiel de séquestration additionnel rendu possible par un changement d’usage des sols.
Les différentes occupations des sols ont des impacts variables sur la séquestration du carbone. Ainsi, les terres cultivées stockent moins que les prairies, lesquelles stockent moins que les forêts.
Ce dernier point mérite d’être souligné, car il revient souvent dans les débats sur le bilan GES de l’élevage bovin. Il est vrai que les prairies stockent du carbone. Néanmoins, à un endroit donné, une forêt stockera environ deux fois plus qu’une prairie (à peu près autant dans le sol que dans la biomasse aérienne).
Dans un article scientifique récent, nous avons estimé que le COC d’un kilogramme équivalent carcasse (unité de mesure utilisée pour la viande en gros, qui comprend la viande et les os) de bœuf « moyen » français issu d’élevage allaitant est important : il représenterait 40 % de l’empreinte carbone totale du bœuf. Soit 14 kg CO2eq pour le COC des prairies et 4 kg CO2eq pour le COC des cultures destinées à l’alimentation des animaux, contre 26 kgCO2eq pour les émissions de production (émissions directes et aliments).
Outre la réduction de la production, il existe quelques options techniques pour diminuer les émissions de l’élevage bovin, en particulier une plus grande complémentation de la ration des animaux avec des concentrés, comme le blé ou l’orge. Substituer les concentrés à l’herbe permet de baisser les émissions de production par kilogramme produit pour les raisons suivantes :
Les concentrés sont moins riches en fibres et plus denses en énergie que l’herbe, ils font ainsi chuter les émissions de méthane.
Le taux de croissance des animaux est augmenté, ce qui minimise l’âge à l’abattage et donc les émissions de GES par kilogramme de viande.
Les émissions liées à la production des concentrés sont bien inférieures aux baisses de celles de méthane.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
Par ailleurs, substituer des concentrés à l’herbe induit un plus faible besoin en terres et réduit ainsi le COC par kilogramme de bœuf, malgré la légère hausse de la nécessité de cultures au détriment des prairies. Ce remplacement présente donc un double gain : moins d’émissions de production et moins de terres utilisées par kilogramme produit, donc une séquestration plus importante possible.
Dans une approche standard d’économie publique, la comparaison des coûts et des bénéfices des différentes options aide à identifier la meilleure d’entre elles. Ceci permet de déterminer la meilleure répartition des efforts de réduction entre baisse de la consommation (en tenant compte du désagrément pour les consommateurs) et ajustements techniques en modifiant la ration des animaux (en tenant compte des coûts).
Afin que consommateurs, éleveurs, et propriétaires des terres prennent des décisions alignées avec le bien-être général, il convient de leur faire payer le coût que représentent leurs émissions pour la collectivité et de rétribuer la séquestration de CO2. L’idéal consisterait ainsi à taxer les émissions de GES des agriculteurs tout en rémunérant le captage du CO2 par les prairies et les forêts.
Une telle politique induirait une légère intensification de l’élevage (complémentation avec des concentrés), une réduction de la consommation de viande via une hausse de prix, et une baisse de la surface agricole au profit des écosystèmes naturels, essentiellement des forêts.
Dans les faits, une telle politique semble délicate à mettre en place pour deux raisons.
La première est technique : il serait difficile et coûteux de mesurer et contrôler les flux de CO2, CH4, et N2O dans l’ensemble des exploitations.
La seconde est politique : taxer les émissions impacterait fortement le revenu des éleveurs, déjà faible malgré les larges subventions de la politique agricole commune.
D’autres approches doivent être considérées : taxer la consommation des produits issus de l’élevage, ou réguler l’occupation des terres et diminuer les surfaces dédiées à l’élevage en rachetant des terres agricoles pour en faire des réserves naturelles, comme au Danemark. Le gouvernement danois prévoit ainsi de reboiser 250 000 hectares de terres d’ici à 2045, de mettre en réserve 140 000 hectares de plaines d’ici 2030 et de racheter certaines exploitations agricoles pour réduire les émissions d’azote.
Notre étude montre que le rachat de terres agricoles est plus efficace qu’une taxe sur le bœuf, car elle incite à la fois à restreindre la production bovine et complémenter les animaux avec des concentrés, ce qui permet d’économiser des terres.
Dans l’hypothèse d’une tonne de carbone à 50 euros, la politique de mise en réserve de terres induirait une baisse de la consommation de 14 %, une hausse de prix de 15 % et la mise en réserve de 1,03 million d’hectares, soit 3,6 % de la surface agricole française. Les émissions sur l’ensemble du secteur deviendraient négatives : 3,16 millions de tonnes de CO2eq évitées par an.
Cette politique engendrerait d’importants gains collectifs par rapport à une simple taxe sur la consommation de bœuf grâce à ses effets sur les changements de pratiques agricoles, réduisant l’empreinte carbone du bœuf par kilogramme (-10 %).
En effet, elle ferait moins baisser le niveau de consommation (-14 % contre -18 %), tout en induisant davantage de bénéfices climatiques (-3,16 contre -1,75 MtCO2eq).
Penchons-nous maintenant à une critique récurrente des politiques de réduction des émissions agricoles : leur impact sur la production étrangère et la délocalisation de la pollution. Autrement dit, la contraction de la production domestique risquerait d’être compensée par une progression de la production étrangère. La France ferait venir plus de viande et les gains environnementaux locaux seraient partiellement compensés par des émissions ailleurs.
Cette critique est tout à fait valide, mais la substitution entre production domestique et étrangère n’est pas d’un pour un : baisser d’un kilogramme la production française n’induirait pas une hausse équivalente d’un kilogramme de bœuf importé), et il est possible de neutraliser ces effets à l’aide d’« ajustements aux frontières », dans l’esprit des politiques de lutte contre la déforestation importée. Dans l’idéal, cela consisterait à subventionner les exportations et taxer les importations à hauteur de leurs effets sur les émissions mondiales.
Un tel mécanisme d’ajustement aux frontières peut être difficile à mettre en place, notamment compte tenu de la délégation de la politique commerciale au niveau européen. Dans ce cas, la comparaison de nos différentes options donne l’avantage à une taxe à la consommation. Celle-ci a le mérite d’affecter à la fois la production domestique et les importations, et de limiter les effets indésirables de délocalisation de la pollution.
En considérant la possibilité d’importations de viande, l’écart d’efficacité économique entre la taxe à la consommation et la démarche de rachats de terres tend à diminuer, bien que cette dernière demeure une option attractive associée à un gain social net.
La réduction des émissions de GES agricoles est un enjeu essentiel pour la transition climatique, d’autant plus que l’agriculture est en compétition avec les forêts pour l’usage des sols. Si la mise en place d’une taxe sur les produits de l’élevage demeure difficile à envisager techniquement et politiquement, le développement de réserves naturelles pourrait constituer une voie plus consensuelle.
Outre la question climatique, soyons vigilants aux autres effets d’une telle politique. La création de réserves naturelles favoriserait la restauration d’écosystèmes variés et la protection d’espèces menacées, mais les plantations d’arbres d’une seule essence susceptibles de favoriser le stockage du carbone au détriment de la biodiversité devraient être évitées.
Quant au bien-être animal, la réduction de la consommation va dans le bon sens, mais l’intensification de la phase d’engraissement des animaux par la complémentation avec des concentrés devrait être faite sans compromis sur les conditions de vie des animaux. Une telle transition nécessiterait toutefois une concertation étroite avec les acteurs du secteur agricole pour garantir son acceptabilité et l’efficacité de sa mise en œuvre.
Guy Meunier a reçu des financements de l’Ademe, l’ANR et de la chaire Énergie et Prospérité.
Maxence Gérard a reçu des financements par l'Institut de convergence CLAND et la Chaire Développement Durable de l'école Polytechnique. Il est affilié à la chaire Énergie et Prospérité.
Stéphane De Cara a reçu des financements de l'ANR, de l'Ademe et de la Commission Européenne.
21.02.2025 à 16:13
Eric Nost, Associate Professor of Geography, University of Guelph
Alejandro Paz, Energy and Environment Librarian, Massachusetts Institute of Technology (MIT)
Alors que des informations importantes, notamment sur le changement climatique, disparaissent des sites Internet du gouvernement depuis l’investiture de Donald Trump, la résistance s’organise. Plusieurs groupes travaillent dans l’ombre à préserver outils et données.
Les informations sur Internet semblent être là pour toujours, mais elles ne sont permanentes que dans la mesure où certaines personnes choisissent de les rendre permanentes.
C’est ce que montre la deuxième administration Trump à travers ses efforts pour démanteler les agences scientifiques ainsi que les données et les sites Internet qu’elles utilisent pour communiquer avec le public. Les cibles vont de la santé publique à l’étude de la démographie en passant par les sciences du climat.
Nous sommes respectivement documentaliste de recherche et spécialiste des politiques, et nous appartenons à un réseau appelé Public Environmental Data Partners, une coalition d’organisations à but non lucratif, d’archivistes et de chercheurs. Celles-ci s’appuient, dans leur travail, sur des données fédérales et s’efforcent de faire en sorte que ces données restent à la disposition du public.
Au cours des trois premières semaines du second mandat de Trump, nous avons vu des agences supprimer l’accès à au moins une douzaine d’outils d’analyse du climat et de la justice environnementale. La nouvelle administration a également supprimé des termes comme « changement climatique » ou « résilience » des sites Internet gouvernementaux.
Voici comment nous procédons, au sein de Public Environmental Data Partners, pour que la science du climat, dont dépend le public, soit toujours disponible.
La disponibilité des données et de l’information sur Internet est nécessaire à l’innovation, à la recherche et à la vie quotidienne.
Les observations des satellites de la Nasa sont par exemple utilisées par les climatologues de la Nasa, de même que les relevés météo de la National Oceanic and Atmospheric Administration (NOAA), afin de comprendre les changements climatiques en cours et leurs causes.
D’autres chercheurs utilisent ces sources, ainsi que les données du bureau du recensement des États-Unis (Census Bureau) pour savoir qui est le plus touché par le changement climatique. Chaque jour, des personnes du monde entier se connectent au site Internet de l’Agence de protection de l’environnement (EPA) pour comprendre comment se protéger des risques climatiques et pour savoir ce que le gouvernement fait – ou ne fait pas – pour les aider.
Si les données et les outils utilisés pour comprendre des données complexes sont brusquement retirés du net, le travail des scientifiques, des organisations de la société civile et des fonctionnaires eux-mêmes peut s’arrêter.
La production de données et d’analyses scientifiques par les scientifiques du gouvernement est également cruciale. De nombreux gouvernements gèrent des programmes de protection de l’environnement et de santé publique qui dépendent de la science et des données collectées par les agences fédérales.
En supprimant des informations des sites Internet gouvernementaux, il est également plus difficile pour le public de participer au débat démocratique, en particulier en ce qui concerne l’évolution de la réglementation. Lorsqu’une agence propose d’abroger une loi, par exemple, elle est tenue de demander l’avis du public, qui dépend souvent des sites Internet gouvernementaux eux-mêmes pour trouver des informations relatives à celle-ci…
Lorsque les ressources internet sont modifiées ou mises hors ligne, la méfiance s’installe à l’égard du gouvernement et de la science. Depuis des années, les agences gouvernementales collectent des données sur le climat, effectuent des analyses complexes, fournissent des financements et hébergent des données accessibles au public. Les données fédérales américaines permettent à des personnes du monde entier de mieux comprendre le changement climatique. En les supprimant, on prive tout le monde d’informations importantes sur le monde dans lequel nous vivons.
La première administration Trump a supprimé des informations sur le changement climatique et les politiques climatiques à large échelle sur les sites Internet du gouvernement. Cependant, lors de nos recherches avec l’Environmental Data and Governance Initiative au cours de ces quatre premières années, nous n’avons pas trouvé de preuves que des ensembles de données avaient été définitivement supprimés.
La deuxième administration Trump semble différente, avec des suppressions d’informations plus rapides et plus généralisées.
En réponse à cette deuxième offensive, les groupes impliqués dans Public Environmental Data Partners ont archivé de nombreux jeux de données climatiques que notre communauté a classés par ordre de priorité. Nous les avons mis en ligne dans des dépôts publics, en renseignant où et comment les trouver s’ils disparaissaient des sites gouvernementaux.
Au 13 février 2025, nous n’avions pas encore assisté à la destruction de données scientifiques sur le climat. Nombre de ces programmes de collecte de données, tels que ceux de la NOAA ou le programme de déclaration des gaz à effet de serre de l’EPA, sont exigés par le Congrès. Cependant, l’administration a déjà limité ou supprimé l’accès à de nombreuses données.
Nous avons observé un effort ciblé pour supprimer systématiquement les outils tels que les tableaux de bord qui résument et visualisent les dimensions sociales du changement climatique. Par exemple, le Climate and Economic Justice Screening Tool, qui a cartographié les communautés à faible revenu et autres communautés marginalisées qui devraient subir les plus graves effets du changement climatique, comme des pertes de récoltes et des incendies de forêt. L’outil de cartographie a été mis hors ligne peu après la première série de décrets de Trump.
La plupart des données originales sur lesquelles reposait l’outil de cartographie, comme les prévisions des risques d’incendies de forêt, sont toujours disponibles, mais il est désormais plus difficile de les trouver et d’y accéder. Mais comme l’outil de cartographie a été développé dans le cadre d’un projet open source et que son code source était disponible, nous avons pu le recréer.
Dans certains cas, des pages web entières ont été mises hors ligne. Par exemple, la page du centre du changement climatique du ministère des transports, qui existait depuis 25 ans, n’existe plus. Le lien renvoie simplement les visiteurs vers la page d’accueil du ministère.
D’autres pages existent encore, mais sont difficiles d’accès. Par exemple, l’EPA n’a pas encore supprimé ses pages sur le changement climatique, mais elle a supprimé le terme « changement climatique » de son menu de navigation, ce qui rend ces pages plus difficiles à trouver.
Heureusement, nos partenaires de la End of Term Web Archive ont « capturé » des instantanés de millions de pages web gouvernementales et les ont rendus accessibles via la Wayback Machine d’Internet Archive. Le groupe procède à cette opération après chaque nouvelle administration présidentielle depuis 2008.
Si vous regardez une page web et que vous pensez qu’elle aurait auparavant dû inclure une discussion sur le changement climatique, vous pouvez utiliser l’outil « changements » de la Wayback Machine pour vérifier si le langage a été modifié au fil du temps, ou naviguer vers les instantanés du site de la page datant d’avant l’investiture de Trump
Vous pouvez également retrouver des ensembles de données et des outils archivés sur le climat et la justice environnementale sur le site web des Public Environmental Data Partners. D’autres groupes archivent les données du portail américain Data.gov et les rendent accessibles ailleurs.
Certains chercheurs mettent également en ligne des jeux de données dans des dépôts publics consultables comme OSF, géré par le Center for Open Science.
Si vous craignez que certaines données encore disponibles ne disparaissent, consultez cette checklist des bibliothèques du MIT. Elle indique les étapes à suivre pour contribuer à la sauvegarde des données fédérales.
Ce qui n’est pas clair, c’est de savoir jusqu’où l’administration Trump ira pour supprimer, bloquer ou dissimuler les données et la science du climat, et surtout dans quelle mesure elle y parviendra.
Le juge d’un tribunal fédéral a d’ores et déjà estimé que la suppression par les Centers for Disease Control and Prevention de ressources de santé publique sur lesquelles s’appuient les médecins était préjudiciable et arbitraire. Ces ressources ont été remises en ligne grâce à cette décision.
Nous craignons que d’autres suppressions ne réduisent la compréhension du public sur le changement climatique, laissant les personnes, les communautés et les économies non préparées exposées à des risques plus importants. Si les efforts d’archivage des données peuvent, dans une certaine mesure, endiguer la vague de suppressions, rien ne remplacera les infrastructures de recherche gouvernementales qui produisent et partagent les données sur le climat.
Eric Nost est affilié à l'Environmental Data and Governance Initiative et aux Public Environmental Data Partners.
Alejandro Paz est affilié à l'Environmental Data and Governance Initiative.
21.02.2025 à 12:22
Melis Aras, Postdoctoral Researcher, Centre national de la recherche scientifique (CNRS)
Alors qu’il est désormais autorisé de vendre de la viande cultivée en laboratoire aux États-Unis et à Singapour, en Europe, ce nouvel aliment divise. Si certains pays misent sur son développement, l’Italie a voté une loi l’interdisant. L’Union européenne n’a pas encore statué sur l’absence totale de risque pour le consommateur, mais cela n’empêche pas de voir fleurir les investissements publics ou privés.
Bien-être animal, empreinte carbone, nutrition… Les questionnements au sujet de notre consommation de viande ne manquent pas, et les nouvelles sources de protéines apparaissent de ce fait comme des alternatives de plus en plus scrutées. Parmi elle, la viande cultivée en laboratoire a une place bien particulière.
Produite à partir de cellules animales en prolifération dans un milieu de culture contenant des facteurs hormonaux utilisés pour stimuler le développement cellulaire, elle est l’objet d’une attention croissante dans les politiques agroalimentaires actuelles. Mais de par sa nature même, ce nouvel aliment suscite aussi de nombreuses interrogations quant à la transparence des informations destinées aux consommateurs, ses implications nutritionnelles, son impact environnemental et ses effets sur le bien-être animal.
Dans ce contexte, pourrait-on la voir se développer en Europe ? Tour d’horizon des différents positionnements et des évolutions en la matière sur le continent.
La viande cellulaire a été présentée au grand public pour la première fois en 2013 à Londres avant d’être autorisée à la commercialisation en 2020 à Singapour, pays sans territoire pour pratiquer l’élevage et donc très dépendant des importations pour la viande. Ce sont plus précisément des nuggets de poulets produits in vitro par une start-up américaine qui sont proposés aux Singapouriens.
En 2023, les États-Unis ont emboité le pas avec la mise sur le marché de viande de poulet cultivée en laboratoire par deux entreprises, « Upside Foods » et « Good Meat ».
En Europe, bien que l’Agence britannique de santé animale et végétale (APHA) ait autorisé la commercialisation de viande cellulaire de poulet pour les animaux de compagnie, son développement n’est toujours pas advenu. À la croisée de la liberté économique, de l’innovation technologique et des impératifs de santé publique, la viande cellulaire cristallise de fait de nombreux enjeux juridiques.
D’un côté, la viande cellulaire se présente comme l’une des solutions alternatives aux côtés des insectes et des substituts végétaux pour répondre à la demande croissante en viande conventionnelle.
Elle génère à ce titre des investissements croissants en Europe. L’entreprise néerlandaise « Mosa Meat » domine ce secteur en ébullition avec 40 millions d’euros levés en 2024 pour développer ses processus de production, réduire ses coûts, et se préparer à entrer sur le marché européen.
Plusieurs gouvernements européens, tels que ceux des Pays-Bas, de l’Allemagne, de l’Espagne, du Royaume-Uni et de la Norvège, ont également alloué des fonds publics à la recherche pour soutenir cette innovation.
Cependant, des réticences persistent, telles qu’exprimées par l’Autriche et la Hongrie, en raison des incertitudes entourant ce nouvel aliment, allant même jusqu’à une interdiction de commercialisation votée le 16 novembre 2023 au parlement italien.
Ces États expriment par là des inquiétudes quant à l’impact de ces nouveaux aliments sur l’élevage traditionnel, la viabilité des zones rurales, la durabilité environnementale, la sécurité sanitaire et la transparence pour les consommateurs, plaidant ainsi pour une approche plus globale et concertée à l’échelle européenne. Ce positionnement pourrait aussi s’expliquer par plusieurs facteurs, notamment le poids économique et culturel de l’élevage dans ces pays, ainsi que la volonté de préserver un patrimoine gastronomique et culinaire.
En France, les pouvoirs publics restent eux divisés entre une nécessité de légiférer sur la question et une réticence à embrasser pleinement la technologie de la viande cellulaire, perçue comme une menace pour les méthodes traditionnelles de production alimentaire.
Le rapport d’information de la commission des affaires économiques du Sénat du 5 avril 2023 intitulé « Aliments cellulaires : être vigilant pour mieux encadrer et maîtriser la technologie » avait déjà souligné un manque flagrant d’anticipation de la part des pouvoirs publics français, surtout en comparaison avec les initiatives prises dans d’autres pays.
Un retard se constate en particulier dans l’encadrement réglementaire de la viande cultivée, ainsi que dans l’accompagnement des acteurs économiques face à cette innovation. Pourtant, un débat politique est en construction. À ce jour, trois propositions de loi visent à interdire la production et la commercialisation de la viande cellulaire en France, tandis qu’un article de loi en vigueur depuis le 25 août 2021 en proscrit déjà l’usage dans les services de restauration collective. Une dizaine de questions parlementaires ont également été adressées, principalement au ministère de l’Agriculture et de la Souveraineté alimentaire, afin de clarifier la position de la France sur les aliments cellulaires.
L’ancien premier ministre Gabriel Attal, lors de sa conférence de presse à Matignon le 1er février 2024, appelait lui à une législation européenne claire sur la viande de synthèse tout en la jugeant incompatible avec « notre conception de l’alimentation à la française ».
Mais depuis lors, les perspectives ont évolué. Selon le rapport interministériel de juin 2024 « Prospective pour l’industrie agroalimentaire française à l’horizon 2040 », publié le 12 février 2025, ces nouveaux produits, y compris la viande cellulaire, sont désormais envisagés comme une composante possible de l’offre alimentaire.
Aujourd’hui, donc, si l’UE ne s’est toujours pas décidée sur une réglementation unifiée en matière de viande cellulaire, deux demandes d’autorisation de mise sur le marché ont malgré tout été effectuée. En juin 2024, la société française « Gourmey » a soumis une demande pour son foie gras cultivé, tandis que l’entreprise néerlandaise « Mosa Meat » a annoncé, le 22 janvier, avoir sollicité l’approbation de la Commission européenne pour sa graisse de bœuf cellulaire.
Mais il semble pour l’heure encore difficile de statuer sur l’absence totale de risque pour le consommateur, condition sine qua non à une mise sur le marché.
Autre questionnement auquel il faudrait répondre pour une hypothétique commercialisation de viande cellulaire : celle des informations et étiquetages développés pour répondre aux objectifs de la santé publique. Les termes « viande cellulaire », « viande in vitro », « viande synthétique » ou « viande artificielle » reflètent déjà la diversité des approches sur la nature de ce produit, notamment par rapport à la viande conventionnelle. Certains estiment que la viande cellulaire ne peut être assimilée à la viande conventionnelle, car les informations sur les denrées alimentaires ne doivent pas induire le consommateur en erreur.
À l’inverse, d’autres soutiennent que la viande cellulaire devrait pouvoir utiliser des dénominations carnées, à condition que le qualificatif « à base de cellules » soit clairement indiqué sur l’étiquetage.
L’utilisation du terme « viande » pourrait, en ce sens, entraîner des complications similaires à celles rencontrées avec les boissons végétales, pour lesquelles il est interdit d’utiliser le terme lait.
L’enjeu principal serait alors de garantir une information transparente et non trompeuse, permettant aux consommateurs de faire des choix éclairés, tout en assurant une concurrence loyale.
L’étiquetage de la viande cellulaire soulève également des questions sanitaires, nécessitant l’ajout de mentions spécifiques lors de son autorisation afin de prévenir les risques pour la santé, en particulier ceux touchant les groupes vulnérables. La viande cellulaire peut de fait présenter les mêmes conséquences allergiques que son équivalent d’origine animale, raison pour laquelle la FAO recommande, dans un document de travail de 2022, que l’espèce animale soit clairement indiquée sur l’emballage.
La viande cellulaire suscite aussi des interrogations nutritionnelles, environnementales et éthiques, notamment en ce qui concerne son impact carbone, la comparaison de son apport nutritionnel avec celui de la viande conventionnelle, ainsi que la nécessité éventuelle de recourir encore aux animaux pour la production des cellules musculaires, notamment via les cellules souches.
Les questions concernant l’apport en nutriments et la valeur nutritionnelle de la viande cultivée en laboratoire restent aujourd’hui sans réponse claire. Certaines études suggèrent qu’il serait possible d’ajuster le ratio entre les acides gras saturés et polyinsaturés dans cette protéine pour en faire un produit plus sain, par exemple en remplaçant les graisses saturées par des graisses bénéfiques comme les oméga-3.
Mais d’après le Groupe international d’experts sur les systèmes alimentaires durables, la viande cellulaire pourrait présenter plus de risques que de bénéfices, rendant difficile la justification des affirmations ambitieuses sur les avantages nutritionnels des protéines alternatives.
De la même manière, la prise en compte de la dimension environnementale est insuffisante dans la réglementation actuelle. Il est pourtant crucial de considérer l’impact environnemental de ce nouvel aliment, notamment à la lumière des enjeux liés à la production de viande, tels que le rôle de l’élevage dans les émissions de gaz à effet de serre, la consommation massive d’eau, en particulier pour l’élevage bovin, la pollution de l’eau due à la gestion des effluents, et l’appauvrissement de la biodiversité. Pour l’heure, lorsque l’on réunit tous ces critères, le bénéfice de la viande cellulaire sur l’élevage conventionnel n’apparaît pas comme garantie.
Le respect du bien-être animal reste un des arguments forts en faveur de la viande cellulaire, soutenue par diverses initiatives citoyennes et associations de protection animale.
Mais des animaux restent impliqués dans le processus de production de viande cellulaire, et la question de leur bon traitement reste ouverte.
À ce sujet, l’utilisation de sérum fœtal bovin, contenant des quantités importantes de nutriments essentiels à la formation des cellules, demeure controversée en raison de ses implications éthiques et de celles relatives au respect du bien-être animal.
Par ailleurs, la législation européenne sur le bien-être animal, dont la révision est attendue depuis octobre 2023, demeure toujours à l’ordre du jour, ce qui témoigne de l’importance persistante de cette problématique en Europe et de la nécessité de renforcer les normes pour répondre aux préoccupations sociétales croissantes avant l’introduction de ces nouveaux aliments sur le marché.
Melis Aras est chercheure postdoctorale rattachée au laboratoire Droit et Changement Social (UMR CNRS 6297) de Nantes Université et chercheure associée au laboratoire Sociétés, Acteurs, Gouvernement en Europe (UMR CNRS 7363) de l’Université de Strasbourg. Cette étude est financée par l’Agence Nationale de la Recherche (ANR) dans le cadre du projet ComMEATted 2024-2027 « Committed to the responsible development of meat replacement products and practices: comparing multidimensional barriers and potentials in European countries ». Lauréat de l’appel à propositions FOODRETEC/JPI HDHL 2023, le projet est mené en collaboration entre DCS (Nantes Université), LISST (Université Toulouse - Jean Jaurès), TEAGASC (Irlande), l’Université de Vienne (Autriche), l’Université Babes-Bolyai (Roumanie) et l’Université des Sciences et Technologies (Norvège). Pour en savoir plus : https://dcs.univ-nantes.fr/en/scientific-research/commeatted-project-scientific-research Melis Aras est membre de Société Française pour le Droit de l’Environnement (SFDE). Elle a également bénéficié des financements pour conduire ses recherches dans divers projets (EPICluster Sustainable Energy Transition 2022-2024, EUCOR Seed Money 2021-2022, Interreg V RES-TMO 2019-2021, CIERA 2020-2021).
20.02.2025 à 16:58
Teva Meyer, Maître de conférences en géopolitique et géographie, Université de Haute-Alsace (UHA)
Selon la World Nuclear Association, la demande mondiale d’uranium va quasiment tripler d’ici à 2040. Mais les principaux pays qui abritent cette ressource, en Asie centrale ou en Afrique, avaient levé le pied à la suite de la baisse du cours de l’uranium provoquée par l’accident de Fukushima (2011). Aujourd’hui, tous ne sont pas en mesure de répondre aux nouveaux besoins de productions. D’autres pays pourraient toutefois émerger et l’investissement dans des procédés moins gourmands en uranium sera également nécessaire. Cet article résume les résultats du récent rapport de l’Institut de relations internationales et stratégiques (Iris) sur la géopolitique de l’uranium
Dans le flot des décrets signés par Donald Trump dès son retour à la Maison Blanche, « l’état d’urgence énergétique nationale » vise à intensifier l’extraction d’uranium naturel.
Alors que le plan de développement du nucléaire publié par l’administration Biden nécessite 75 000 tonnes d’uranium par an en 2050, les États-Unis n’en produisaient que 193t en 2023.
Washington est loin d’être seul à anticiper cette augmentation. La World Nuclear Association envisage une croissance de la demande mondiale à 180 000 tonnes par an en 2040 contre 65 650 aujourd’hui. La production est déjà insuffisante. En 2023, 75 % des besoins étaient assurés par l’extraction de minerais, le reste provenant de stocks et du retraitement des combustibles nucléaires. La totalité de cette production sert à l’industrie nucléaire civile, la consommation militaire restant marginale.
La ressource ne manque pourtant pas : les réserves techniquement exploitables suffisent à couvrir les besoins mondiaux jusqu’à la fin du siècle. Tandis que la faiblesse des cours de l’uranium après l’accident de Fukushima avait mené à la fermeture de mines, leur flambée de 24$ à 74$ la livre entre 2020 et 2024 alimente aujourd’hui une ruée vers le minerai. Mais qui pourra y répondre ?
À lire aussi : Imaginaires du nucléaire : le mythe d’un monde affranchi de toutes contraintes naturelles
Avec 37 % de la production mondiale en 2023, le Kazakhstan est la première source d’uranium, devant le Canada (22,6 %) et la Namibie (14 %). Mais à l’été 2024, le groupe minier public Kazatomprom avertissait de son incapacité à augmenter ses extractions, faute d’approvisionnement en acide sulfurique. L’acide est un intrant indispensable à l’extraction de l’uranium par lixiviation in situ (ISL), une méthode qui consiste à injecter une solution dans le sol, pour dissoudre et récupérer par pompage le minerai. Le groupe a lancé la construction d’une usine d’acide, mais elle ne sera opérationnelle qu’en 2026.
Simultanément, le pays consolide son tournant vers la Chine. Fin 2024, les entreprises chinoises du nucléaire CGN et CNNC rachetaient au Russe Rosatom ses parts dans deux mines kazakhes, tout en signant un contrat d’achat d’uranium pour plus de 2,5 milliards de dollars.
Source : Teva Meyer, Frédéric Jeannin, L’approvisionnement en uranium naturel : enjeux de la relance du nucléaire, 2025
Le voisin ouzbek espère suivre ce modèle. En juillet 2022, le président Mirziyoyev signait un décret visant à tripler la production d’ici à 2030 et atteindre 12 000t/an. Le gouvernement a restructuré la filière au sein d’une entreprise publique (Navoiyuran), favorisé la valorisation de co-produits pour baisser les coûts et engagé le rapprochement avec des groupes étrangers, dont le Français Orano. Avec 80 % de sa production d’ici à 2030 déjà vendue, cette stratégie apparaît efficace.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
Le Kazakhstan et l’Ouzbékistan font néanmoins face à un problème commun de transport : historiquement, le principal corridor d’acheminement d’Asie centrale vers l’ouest se faisait par train, via la Russie, jusqu’au port de Saint-Pétersbourg. Bien qu’aucune sanction ne bloque cette voie, Kazatomprom développe la route transcaspienne ouverte en 2018. L’entreprise est poussée à le faire par le groupe canadien Cameco, qui co-exploite des mines avec lui, et anticipe une éventuelle décision du Kremlin de bloquer le passage par son territoire. L’uranium quitte ainsi le Kazakhstan par le port d’Aktaou, traverse la Caspienne pour être chargé sur des trains à Bakou (Azerbaïdjan) avant de rejoindre le port de Poti (Géorgie) en mer Noire.
Mais les ruptures de charge sur cette route, par laquelle passent 65 % des exportations d’uranium kazakh allant vers l’ouest, entraînent des surcoûts importants. Et le passage envisagé par le port de Shanghai tarde, la Chine rechignant à ouvrir une route d’exportation pour un minerai qui ne lui profiterait alors plus.
Le salut ne viendra pas de Namibie. Si les extractions y ont augmenté de 40 % en 2022, la croissance se heurte à la disponibilité en eau. La Namibie traverse une grave sécheresse et la mine d’Husab, plus importante du pays, est le deuxième consommateur après la capitale Windhoek. L’industrie uranifère tient par la production d’une usine de dessalement. Une seconde est en construction par la Chine.
Pékin contrôle en effet déjà l’uranium namibien : le pays possède les deux mines en fonction dans le pays (Husab et Rössing) et détient 25 % d’une troisième, Langer Heinrich, en cours de réouverture. Quant aux tentatives russes d’y ouvrir une mine, elles ont été repoussées par le gouvernement namibien, invoquant la protection des aquifères.
Reste l’inconnu du Niger. Le pays, qui ne produisait déjà plus que 4 % de l’uranium mondial, n’en a plus exporté depuis début 2024, la fermeture de la frontière avec le Bénin après le coup d’État de juillet 2023 ayant bloqué l’acheminement du minerai. La position de la junte vis-à-vis des Occidentaux est dans ce contexte ambivalente : si elle a repris à Orano le contrôle de la mine d’Arlit et retiré son permis d’Imouraren, elle a renouvelé les autorisations d’exploration de groupes états-uniens et australiens.
À l’heure, rien ne confirme que la Russie ait essayé d’accaparer les gisements d’Orano. Les tensions franco-nigériennes ont été largement instrumentalisées par la guerre informationnelle menée par le Kremlin sur le terrain de l’uranium. À l’inverse, le réinvestissement chinois au Niger est plus certain, le groupe CNNC réouvrant en mai 2024 sa mine d’Azelik.
À lire aussi : Industrie nucléaire : le grand jeu géopolitique
Bien que disposant des réserves les plus importantes au monde, la part de l’Australie dans la production d’uranium (8,5 %) a peu de chance de décoller. L’exploitation nécessite en effet l’autorisation des gouvernements fédéraux et régionaux. Or, 11 des 13 projets miniers les plus avancés se trouvent dans des régions prohibant leur exploitation.
À court terme, le Canada est le relais de croissance le plus certain. Le gouvernement fédéral soutient la filière depuis 2022 à coup de crédits d’impôt. La relance par le groupe canadien Cameco des mines de Cigar Lake et de McArthur, et l’annonce par Orano de la réouverture de celle de McLean a permis au Canada de produire plus de 13 000t d’uranium en 2024, contre 3880t en 2020. Le développement de nouvelles mines se heurte toutefois à l’augmentation des coûts de mise en exploitation ainsi qu’aux oppositions des Premières Nations.
De l’autre côté de la frontière, les initiatives de Donald Trump n’auront qu’un effet marginal. En théorie, les mines à l’arrêt et détenant déjà une licence d’exploitation pourraient répondre à 75 % des besoins du pays. Mais leur coût est bien plus élevé que les importations, et les politiques de soutien restent anecdotiques, les élus républicains rechignant à accorder des aides. Ainsi, l’accord visant à créer une réserve d’uranium pour stimuler la production n’a abouti qu’à l’achat de 385t depuis 2021.
À long terme, l’évolution du cours de l’uranium devrait permettre l’arrivée de nouveaux producteurs.
C’est le cas de la Mongolie. Profitant de la stratégie du « troisième voisin » poursuivie par Oulan-Bator pour se désenclaver de Moscou et Pékin, le Français Orano a signé en janvier 2025 un accord d’exploitation pour la mine de Zuuvch-Ovoo. En Tanzanie, le Russe Rosatom, envisage l’ouverture du site de Mkuju River d’ici à 2026.
Enfin, le Brésil s’est lancé depuis 2022 dans un programme de prospection, « le Prouranio ». Brasilia vise à extraire l’uranium des réserves de phosphates en favorisant les liens entre l’industrie nucléaire et les fabricants d’engrais qui utilisent cette ressource.
D’autres explorations, beaucoup moins certaines, sont conduites en Arabie saoudite, au Zimbabwe, en Zambie, au Kirghizistan ou en Égypte.
Face à ces tensions, le développement de nouveaux combustibles, capables de mieux consommer l’uranium, pourrait faire baisser les besoins de 5 %. Mais leur production nécessite d’enrichir l’uranium à des taux plus élevés. Or, l’accès à l’enrichissement est déjà tendu, alors que les Européens et les États-Unis essaient de se séparer de la Russie, qui en contrôle 40 % des capacités mondiales.
Reste la réutilisation des sous-produits de la chaîne du combustible. Les ressources ne manquent pas non plus. La France dispose d’assez d’uranium appauvri, sous-produit de l’enrichissement, pour combler huit années de consommation. En Russie, ces sources secondaires répondent déjà à un tiers des besoins. C’est alors dans les étapes de fabrication et dans l’autorisation administrative nécessaire aux réacteurs pour utiliser ces ressources que se trouvent les blocages.
En somme, que l’on souhaite extraire de l’uranium naturel ou se servir de ces matières déjà disponibles, l’industrie nucléaire ne pourra se passer d’investir, au risque de manquer de combustibles pour alimenter ses ambitions.
Frédéric Jeannin, chercheur à l’Iris, a contribué aux recherches mentionnées dans cet article.
Teva Meyer est chercheur associé à l'Institut de Relations Internationales et Stratégiques (IRIS). Il a reçu des financements de l'European Research Council (ERC) dans le cadre du programme GeoNuFE
20.02.2025 à 16:57
Jérôme Deyris, Économiste, Sciences Po
Davide Romelli, Associate Professor of Economics, Trinity College Dublin
Emanuele Campiglio, Associate Professor at the University of Bologna and Scientist at the RFF-CMCC European Institute on Economics and the Environment., Università di Bologna
Un tiers des discours des banques centrales aborde désormais le thème du changement climatique. Comment ces institutions, traditionnellement focalisées sur l’inflation, en sont-elles arrivées là ? Notre étude – de plus de 35 000 discours de banquiers centraux depuis 1986 – retrace cette transformation et en mesure les effets sur les marchés financiers.
Le changement climatique est devenu un sujet incontournable pour les banques centrales, institutions garantes de la stabilité des prix et de celle du système financier. Réunies depuis 2017 au sein du Network for Greening the Financial System (NGFS), elles mettent en garde contre un double péril. D’un côté, la multiplication des événements climatiques extrêmes menace la solidité du système financier en dévalorisant les actifs exposés, tout en perturbant les chaînes d’approvisionnement et donc les prix. De l’autre, une transition énergétique trop tardive risquerait de déstabiliser des pans entiers de l’économie et de créer des pressions inflationnistes.
À lire aussi : Le défi du verdissement de la politique monétaire des banques centrales
Si ces risques sont maintenant largement reconnus et amplement discutés, plusieurs questions cruciales demeurent en suspens : comment, quand et par quelles institutions ces préoccupations ont-elles émergé ? Quelles dynamiques poussent les banquiers centraux à s’engager sur le terrain climatique ? Et surtout, dans quelle mesure leurs alertes parviennent-elles à influencer les marchés financiers ?
Dans un article récent, nous cherchons à répondre à ces questions. Pour ce faire, nous avons collecté une base de données originale de plus de 35 000 discours de banquiers centraux depuis 1986, collectés auprès de plus de 140 institutions et traduits de plus de trente langues.
Cette collection sans précédent nous permet de documenter de manière systématique l’émergence des préoccupations climatiques chez les banquiers centraux, d’en comprendre les variations entre institutions et d’en mesurer les effets.
Contrairement à un mythe bien ancré, le discours du gouverneur de la Banque d’Angleterre Mark Carney sur la « tragédie des horizons » en septembre 2015 ne constitue pas la première intervention d’un banquier central sur le sujet. David Carse de l’Autorité monétaire de Hongkong alerte, dès novembre 2000, de la triple dimension des risques climatiques pour les banques – risque sur le crédit, risques juridiques et réputationnels. Il souligne également les opportunités de financement de la transition environnementale.
Durant la décennie suivante, le sujet reste néanmoins marginal dans les communications des banques centrales, avec seulement quelques dizaines de discours par an. Ces discours apparaissent principalement en Asie du Sud-Est, mais aussi en Italie ou en Nouvelle-Zélande. Les thématiques abordées sont très diverses.
Certains discours explorent le financement de l’adaptation aux catastrophes climatiques. D’autres interrogent les coûts sociaux de la transition, d’autres encore estiment l’effet d’une taxe carbone sur l’inflation.
Le discours de Mark Carney marque un tournant en 2015. Le gouverneur de la Banque d’Angleterre propose d’aborder le problème du changement climatique comme une affaire de risques financiers. Il rebondit sur l’idée poussée depuis quelques années par des ONG dénonçant l’existence d’une bulle carbone. Cette approche convainc de nombreuses institutions occidentales de l’importance du climat pour leurs missions, d’abord, pour la stabilité financière, mais aussi pour la stabilité des prix.
La création du Network for Greening the Financial System (NGFS) en 2017 accélère cette dynamique. Les questions climatiques deviennent progressivement incontournables dans la communauté des banquiers centraux. Si le retour de l’inflation en 2021 marque un ralentissement de cette progression, le climat reste une préoccupation majeure : sur les trois dernières années, un discours sur trois le mentionne au moins une fois.
Pour autant, tous les discours n’abordent pas le climat de la même façon. Notre modélisation de sujets latents révèle deux façons bien distinctes de communiquer autour du changement climatique. La première adopte une perspective promotionnelle. Dans ces discours, les banquiers centraux mettent l’accent sur les opportunités d’investissement durable, appellent au développement de marchés « verts » et discutent les innovations financières susceptibles d’accélérer la transition bas carbone. Cette approche vise à accompagner le développement de nouveaux instruments et stratégies d’investissement alignés sur les enjeux climatiques.
La seconde approche adopte au contraire une perspective prudentielle, se concentrant sur la prise en compte des risques financiers climatiques. Dans ces discours, les banques centrales appellent à une amélioration de la transparence des institutions financières vis-à-vis de leur exposition à ces risques. Elles réfléchissent également à la manière dont les dynamiques climatiques pourraient mettre en péril la stabilité des prix. Plutôt que de promouvoir le verdissement de la finance pour stabiliser le climat, l’enjeu est davantage d’assurer la stabilité monétaire face aux dynamiques climatiques.
On pourrait penser que l’exposition aux risques climatiques détermine la façon dont les banques centrales communiquent sur le sujet. Les pays vulnérables aux catastrophes naturelles seraient plus enclins à promouvoir activement la finance verte. Les grands émetteurs de CO2 se concentreraient davantage sur la gestion des risques financiers liés à la transition. Une hypothèse séduisante… mais qui ne semble pas vérifiée par nos régressions statistiques. Ni la vulnérabilité aux catastrophes naturelles ni l’empreinte carbone d’un pays n’influencent la fréquence ou la nature des discours de sa banque centrale sur le climat.
Ce sont les caractéristiques institutionnelles des banques centrales qui expliquent le mieux si elles parlent du climat et comment elles le font.
Trois facteurs ressortent particulièrement : le degré d’implication dans la supervision financière, l’étendue des objectifs fixés à la banque centrale, et l’appartenance au Network for Greening the Financial System (NGFS). Plus une banque centrale supervise directement le secteur financier, plus elle tend à communiquer sur le climat, et notamment de façon prudentielle. De même, les banques centrales dotées de mandats plus larges que la seule stabilité des prix parlent plus souvent de changement climatique. Enfin, l’adhésion au NGFS renforce significativement la communication climatique, confirmant l’importance des réseaux de pairs dans l’évolution des pratiques des banques centrales.
Si les discours des banques centrales sont importants, c’est notamment parce qu’ils sont scrutés par les marchés financiers. Ils peuvent entraîner de façon performative une réallocation des investissements en modifiant les anticipations des agents.
Notre analyse du marché américain d’actions montre que lorsque la Réserve fédérale évoque les enjeux climatiques, les entreprises les plus vertes surperforment leurs concurrentes plus polluantes. Cette tendance se vérifie sur un échantillon plus large de 41 pays pour lesquels nous disposons de données financières journalières.
En contrôlant pour les différences entre pays et industries, nous montrons que les jours où une banque centrale communique sur le climat, les entreprises respectueuses de l’environnement voient leur valeur boursière augmenter par rapport à leurs pairs. Cet effet est particulièrement marqué lorsque le discours se concentre sur les risques climatiques. Sans doute parce que cette approche prudentielle fait écho à la protection de leurs investissements ?
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
Les discours climatiques des banques centrales ont donc un impact bien réel sur les flux financiers. Pour autant, cet impact apparaît de courte durée, ne donnant qu’un coup de boost momentané aux entreprises les moins polluantes.
Ce pouvoir d’influence par les paroles ne doit donc pas empêcher les banques centrales d’adapter leurs actions. De nouveaux outils émergent pour accompagner cette transition de façon structurelle : les taux d’intérêts préférentiels pour les prêts verts, l’ajustement des exigences en collatéral pour favoriser les actifs verts ou encore la modification des programmes d’achats d’actifs pour exclure progressivement les entreprises les plus polluantes.
Cet article a été co-rédigé avec Ginevra Scalisi, doctorante à l’Université de Pise.
Davide Romelli is an Associate Professor in the Department of Economics at Trinity College Dublin. He is a Research Affiliate at IM-TCD (International Macro-TCD) and SUERF – The European Money and Finance Forum, a Research Fellow at the BAFFI-CAREFIN Centre at Bocconi University, a Research Associate at the Centre for Economics, Policy and History, and a Chercheur affilié at OFCE-SciencesPo. He also serves as an Associate Editor for the International Journal of Finance & Economics and International Economics and Economic Policy. His research focuses on international finance and macroeconomics, central banking, and financial supervision. Currently, Davide is a member of the CBDC Academic Advisory Group, jointly run by HM Treasury and the Bank of England, and the Monetary Policy Expert Panel of the ECON Committee of the European Parliament. He holds a PhD in Economics from ESSEC Business School and THEMA-University of Cergy-Pontoise.
Emanuele Campiglio a reçu des financements de European Research Council.
Jérôme Deyris ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.02.2025 à 16:56
Alexandre Hobeika, Chercheur en science politique CIRAD, UMR MoISA, Montpellier, Cirad
Le Salon de l’agriculture s’ouvre, samedi 22 février, dans un contexte inédit. Le résultat des élections professionnelles agricoles de 2025 est historique : la Fédération nationale des syndicats d’exploitants agricoles (FNSEA), le principal syndicat agricole, et les Jeunes Agriculteurs (JA), son allié historique, sont défaits dans une vingtaine de chambres agricoles et leur score national est inférieur à 50 %. Si la Coordination rurale progresse de façon inédite, la FNSEA conserve néanmoins des atouts majeurs pour résister. Décryptage.
Depuis la reconnaissance des syndicats agricoles minoritaires par l’État en 1982 et la mise en place d’un scrutin de liste, les départements échappant au syndicalisme FNSEA n’avaient jamais été plus de cinq.
Le système d’attribution des mandats favorisant généreusement le syndicat majoritaire, la FNSEA contrôle toujours 80 % des départements, mais l’écart de voix avec la Coordination rurale (CR) est désormais faible. La Confédération paysanne (CP), arrivée troisième, a quant à elle maintenu ou augmenté ses scores dans presque tous les départements.
Les commentaires fusent pour expliquer ce résultat et prédire l’avenir. La « forteresse agricole », comme la FNSEA est parfois appelée, est-elle en train de s’effondrer ? Est-ce la fin de la cogestion de l’agriculture française entre ce syndicat et le gouvernement ?
Comment comprendre la forte poussée de la CR qui, si ce n’est son ton plus radical et antisystème, affiche des revendications globalement similaires à celles de la FNSEA, notamment le refus des normes environnementales et des distorsions de concurrence ? Sa percée est-elle une déclinaison de la montée du Rassemblement national (RN), parti dont elle se rapproche en rhétorique et en réseaux ?
Pour y voir clair, il convient d’examiner les ressorts de ce scrutin et les rapports de force entre syndicats. La CR est devenue majoritaire dans quinze départements, principalement dans le quart sud-ouest de la France, région d’où sont parties les mobilisations d’agriculteurs en janvier-février 2024.
Ces scores ne peuvent pas s’expliquer par le développement des structures de la CR : ses fédérations départementales sont encore très faibles et comptent peu d’adhérents. Il n’y a pas non plus de lien évident avec les scores électoraux du RN : les départements d’implantation et de progression de la CR ne sont pas des bastions du RN, situés dans le Nord-Est et le pourtour méditerranéen.
Ce vote est donc une traduction du mouvement agricole depuis un an, sur laquelle la CR capitalise. Et peut s’analyser comme un vote protestataire à l’égard de la FNSEA et l’expression d’une insatisfaction générale des agriculteurs quant à leurs revenus et de leur inquiétude quant à la pérennité de leur entreprise.
Ces critiques à l’égard du syndicat majoritaire peuvent s’interpréter, à court terme, à l’aune des orientations prises depuis l’arrivée, en 2023, de son nouveau président, Arnaud Rousseau, grand céréalier et président du groupe agro-industriel Avril. Les revendications portées il y a un an ont pu être perçues comme trop focalisées sur les grandes cultures (usage des pesticides, de l’irrigation) et insuffisantes pour les filières d’élevage, notamment celles du lait et de la viande bovine, qui connaissent des difficultés structurelles.
Si la FNSEA rejette la faute sur l’instabilité politique qui n’aurait pas permis la concrétisation de toutes les mesures négociées, une bonne partie de celles-ci ayant été au moins partiellement concrétisées, peut-être n’étaient-elles pas suffisantes.
Ses propositions pour le projet de loi d’orientation agricole, voté en première lecture par l’Assemblée nationale en 2024, ont aussi pu être perçues comme trop libérales et favorisant les grandes exploitations.
À plus long terme, on observe une tendance à l’effritement de la capacité de la FNSEA à fidéliser les agriculteurs dans toute la France. Sociologiquement, cela s’explique par les évolutions du groupe des agriculteurs les plus en pointe sur les plans économique et technique, socle électoral traditionnel de la FNSEA.
Depuis les réformes de la politique agricole commune (PAC) des années 1992 à 2003, les stratégies technico-économiques de ce groupe se sont diversifiées par rapport au modèle de production standard. Les agriculteurs les plus en pointe se sont lancés dans des productions de qualité, ont adopté des innovations agronomiques (comme le sans-labour) ou commerciales (comme les circuits courts). Cette diversité de styles est difficile à accompagner par la FNSEA, qui s’est longtemps concentrée sur la défense du système conventionnel et a été réticente à soutenir l’agriculture biologique.
Par ailleurs, les services proposés par le syndicat – comme l’aide juridique ou l’appui à la comptabilité – sont de plus en plus concurrencés par ceux d’entreprises agricoles plus spécialisées, dont l’offre attire les agriculteurs de pointe. Ces résultats de la CR peuvent ainsi se lire comme l’expression d’agriculteurs déçus de la FNSEA, qui en critiquent moins l’idéologie que son utilité pour eux.
Qu’attendre comme conséquences ? Tout d’abord, la CR va se retrouver en position de responsabilité dans les territoires où elle est devenue majoritaire. Représenter les agriculteurs dans les chambres agricoles, participer aux commissions de gestion de la politique agricole locale, proposer des solutions pour la loi d’orientation agricole et la future renégociation de la PAC au niveau étatique : ces missions demandent beaucoup de travail et une maîtrise des dossiers techniques qui va nécessairement conduire à une professionnalisation de la CR.
La Coordination rurale devra ainsi développer son registre expert, au détriment de son registre protestataire historique. Tout l’enjeu étant, pour elle, de continuer à se différencier de la FNSEA sur ce terrain, où elle est beaucoup moins armée, et de faire face aux mêmes difficultés.
Plus largement, le défi pour les syndicats minoritaires est de durer sur le long terme. Par le passé, la CR et la CP ont gagné des élections agricoles dans plusieurs départements, comme le Finistère ou le Calvados, mais après quelques mandats, leurs structures locales se sont effondrées. Si des personnalités locales ont pu gagner la confiance des agriculteurs, elles n’ont pas réussi à former la génération suivante de militants, ni à leur transmettre des organisations syndicales robustes et indépendantes.
Si la FNSEA reste majoritaire dans 80 départements – en particulier dans les régions céréalières (Île-de-France, Centre, Nord), les régions de production laitière (Ouest, Est), une partie des départements d’élevage bovin (Massif central, Centre-Est), et le quart sud-est de la France producteur de viticulture, fruits et légumes – elle va devoir tirer les leçons de ces élections qui représentent un sérieux avertissement.
Pour autant, elle jouit toujours de ressources beaucoup plus importantes que les autres syndicats pour s’ajuster et résister à la concurrence, comme elle l’a fait à de nombreuses reprises depuis sa création.
Ses capitaux, ses entreprises de services, ses capacités d’expertise, sa branche jeunes – qui fait fonction d’école de formation –, son nombre d’adhérents, ses réseaux parmi les organisations agricoles et les milieux politiques, sont au moins dix fois supérieurs à ceux des autres syndicats. Le syndicat a donc de quoi ajuster sa ligne politique pour mieux prendre en compte les intérêts de filières ou de territoires fragilisés, si elle le souhaite. Elle a les moyens de développer autrement son offre de services pour les agriculteurs.
La FNSEA dispose également des puissants syndicats spécialisés par produits (céréales et grandes cultures, lait, viande bovine, porc…), financés par des cotisations quasi obligatoires sur les produits. Ne dépendant pas des élections agricoles, ils représentent une grande force d’expertise et de lobbying. Si la FNSEA en était un jour réduite à ces syndicats par produits, elle resterait quand même incontournable.
Il ne faut donc pas s’attendre à un grand soir de la politique agricole française ou à une disparition de la FNSEA. Ces élections stimulent néanmoins le débat et augmentent l’intérêt politique et médiatique pour savoir quelle agriculture est souhaitée dans les prochaines décennies. En tant que telle, c’est sans doute une étape utile pour sortir de la crise actuelle.
Alexandre Hobeika ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.02.2025 à 12:22
Fanny Verrax, Associate professor in Ecological Transition and Social Entrepreneurship, EM Lyon Business School
Pourquoi ne fait-on rien (ou si peu ?) face à l’ampleur des risques environnementaux ? Cette question vous a sûrement traversé l’esprit. Un ouvrage collectif tâche précisément d’y répondre en listant 101 obstacles aux changements nécessaires pour la sauvegarde de notre espèce comme du vivant.
Ces obstacles peuvent être de nature soit neuropsychologique, soit politique, soit sociologique ou bien liés à la constitution des savoirs. Et pour les surmonter, 101 pistes d’action sont proposées. Dans cet extrait du Manuel d’un monde en transition(s) (éditions de l’Aube, 2025), la professeure associée en transition écologique et entrepreunariat social Fanny Verrax nous parle du biais cognitif de « statu quo » et appelle à un changement d’échelle comme de référentiel pour le surmonter.
Le biais de « statu quo » est un biais cognitif de résistance au changement qui, par principe, nous fait percevoir toute situation nouvelle comme présentant plus de risques que d’avantages. Au-delà de « l’aversion du risque », autre biais bien documenté, le biais de « statu quo » traduit également notre préférence collective pour l’inertie et le maintien des habitudes.
Il est intéressant de constater qu’il existe un domaine dans lequel le biais de « statu quo » se manifeste peu : l’innovation technologique, assimilée à un progrès qu’il ne serait pas nécessaire de questionner. En revanche, bon nombre de propositions innovantes de nature sociale, économique ou politique, nécessaires à la transition écologique, se heurtent à ce fameux biais de « statu quo ».
Dans le domaine de la mobilité, par exemple, privilégier les modes doux, ne plus se déplacer seul en voiture (autosolisme), rouler moins vite, partir moins loin en vacances… tous ces changements essentiels se heurtent à l’illusion de l’impossibilité de faire autrement que ce que nous faisons aujourd’hui, à cette idée que ce serait trop compliqué, trop chronophage, trop liberticide. Bref, que la situation actuelle, même si elle n’est pas idéale, représenterait, dans un certain sens, le meilleur des mondes possibles.
Abonnez-vous dès aujourd'hui !.
Chaque jeudi, recevez gratuitement notre newsletter thématique « Ici la Terre » pour suivre au plus près les questions environnementales.
Que faire face à une inertie de principe ? Tout d’abord, il s’agit de reconsidérer le temps long. En 1800, un individu parcourait en moyenne cinq kilomètres par jour, en une heure environ. Aujourd’hui, nous consacrons toujours une heure quotidienne à nos déplacements, mais nous parcourons en moyenne 50 kilomètres par jour. Pourquoi une telle distance, à cette vitesse, avec ce moyen de transport (la voiture individuelle thermique) serait-elle intrinsèquement meilleure ou plus désirable que toutes les autres façons de se déplacer ?
N’y a-t-il pas une forme d’ethnocentrisme et d’arrogance présentiste à penser que notre façon de vivre serait nécessairement plus désirable ? À moins que ce ne soit la vitesse ou la distance en elles-mêmes qui représentent des valeurs intrinsèques ? Que dire alors d’un monde où l’on parcourait en moyenne 100 ou 200 kilomètres par jour ? Serait-il nécessairement meilleur ?
La conscience du temps long, s’appuyant sur des réalités historiques documentées, et une extrapolation des évolutions possibles, permettrait de considérer nos pratiques contemporaines pour ce qu’elles sont : non pas un idéal, mais une pause arbitraire dans une évolution aux multiples détours.
Cette parade est cependant d’autant plus difficile à effectuer que nous nous heurtons collectivement à un décalage du point de référence, élément essentiel de l’amnésie écologique. Le point de référence renvoie à une situation qui est considérée collectivement comme une norme. Prenons un exemple concret : l’évolution des normales saisonnières de Météo France.
Tous les dix ans, l’institution élabore de nouvelles normes météorologiques, calculées sur une période de référence de trente ans. Pour la période allant de 1960 à 1990, les normales s’établissaient à partir d’une température annuelle moyenne de 11,82 °C. Pour la période allant de 1990 à 2020, la température annuelle moyenne passait à 12,97 °C. Dès lors, cette température constitue la nouvelle normale, le nouveau point de référence.
Le concept de décalage du point de référence a été notamment établi par le biologiste Daniel Pauly pour caractériser l’évolution des écosystèmes marins causée par la surpêche, mais qui peut aujourd’hui s’appliquer à de nombreux domaines : le retrait du trait de côte, l’effondrement de la biodiversité, la déforestation, etc.
En effet, les générations successives transforment le monde et le dégradent, mais la mémoire ou l’expérience de ce qui est perdu est rarement transmise, et la nouvelle situation constitue une nouvelle norme. Ainsi, contre le biais de « statu quo », il faut bien sûr interroger le passé et explorer l’avenir afin de resituer nos pratiques actuelles dans un contexte, mais également documenter le présent, pour que les destructions actuelles ne deviennent pas le nouveau point de référence de la génération suivante.
Fanny Verrax est membre du conseil d'administration de l'Institut International d'Impédimentologie (i3), association de droit privé suisse à but non lucratif qui a pour mission d'éclairer les obstacles au changement dans les stratégies et les politiques de transition afin de les dépasser.
20.02.2025 à 12:21
Nataly Botero, Enseignante-chercheure en sciences de l'information et de la communication, Université Paris-Panthéon-Assas
C’est devenu un lieu commun pour parler de tous les ravages liés à l’environnement, à la biodiversité ou au changement climatique : « crise ». Mais ces cinq lettres passent souvent sous silence le temps long des bouleversements actuels, leurs causes, leurs complexités, et réduisent nos réponses possibles.
Crise économique, sanitaire, migratoire, démographique et désormais écologique : nous vivons dans une société « crisophile ». La « crise » devient un prêt-à-penser et un lieu commun. Cette manière d’envisager les difficultés majeures auxquelles sont confrontées nos sociétés demeurent de fait un parti-pris spécifique, mais aussi peut-être problématique.
De fait, la définition même de la crise renvoie à une période critique mais passagère, avec un début et une fin. Or, les bouleversements écologiques qui prennent place actuellement (dérèglements climatiques, destructions de la biodiversité, pollutions généralisées…) se caractérisent par une temporalité longue. Lire les problèmes écologiques actuels dans les termes de la crise peut ainsi constituer une barrière empêchant de voir, à la fois, leurs causes structurelles et leurs conséquences sur le long terme.
Mais alors, pourquoi parle-t-on sans cesse de crise malgré tout ?
Abonnez-vous dès aujourd'hui !.
Chaque jeudi, recevez gratuitement notre newsletter thématique « Ici la Terre » pour suivre au plus près les questions environnementales.
Le succès de cette vision alarmiste de l’écologie semble être corrélé au récit de la résilience qui, en proposant des mécanismes d’adaptation, présente les crises comme dépassables. Faire preuve de résilience permettrait un retour à l’équilibre en conjurant le moment critique.
Retour sur une crise écologique de plus en plus invoquée et simultanément contestée.
Du point de vue étymologique, parler d’une crise permanente ou chronique constitue un contre-sens. Du latin crisis, ce mot a d’abord été utilisé en médecine pour parler de phénomènes pathologiques qui se manifestent de façon intense durant un court laps de temps.
Il désigne alors une période particulièrement grave constituant un point de bascule : guérison ou décès. Ce moment de cristallisation des enjeux devient un appel urgent à la décision, « crise » et « critique » ayant en commun la racine grecque krinein (résoudre, juger). Dans la mesure où parler de crise implique de faire un choix et/ou un passage à l’action, elle comporte une dimension éminemment pragmatique.
La sociologue Natacha Ordioni explique que ce terme a migré de la médecine vers d’autres domaines au cours du XIXe siècle : la crise permet alors de désigner l’état de dysfonctionnement d’un système, devenu incapable d’assurer ses fonctions.
Ce décloisonnement s’est fait à partir d’usages métaphoriques, la métaphore permettant de se figurer l’inconnu à travers du connu en rapprochant deux domaines d’expérience a priori éloignés. C’est grâce à ce glissement sémantique que divers problèmes de société ont commencé à être interprétés dans les termes de la crise : un krach financier aigu mais passager, une baisse ponctuelle de la natalité, un épisode d’intense conflictualité sociale et politique.
En matière d’écologie, s’il est vrai que l’intensité et la gravité des bouleversements actuels ne fait plus débat, c’est dans leur dimension temporaire ou provisoire que l’usage du terme de « crise » semble ne pas permettre une lecture appropriée des phénomènes, bien qu’il se soit généralisé dans les discours médiatiques.
Pour comprendre l’évolution de l’usage de ce mot dans la société, il peut être intéressant de regarder ses occurrences dans la presse écrite depuis une dizaine d’années. C’est à partir de la base des données Europresse, donnant accès à de nombreux médias écrits et en ligne, que nous avons constitué un corpus pour les expressions « crise climatique », « crise écologique », « crise environnementale » et « crise de la biodiversité » à partir des journaux comme le Monde, Libération, le Figaro, la Croix, le Nouvel Obs, le Point, 20 Minutes, Paris Match, Courrier international et l’Humanité.
Remarquons que l’usage privilégié est celui du terme au singulier, ayant pour effet d’oblitérer la pluralité des problèmes qui, bien qu’interconnectés, gardent leurs propres caractéristiques. Cette homogénéisation empêche également de voir les expressions différenciées et localisées des problématiques écologiques. Ainsi amalgamée, la « crise » fait preuve d’une inflation notoire, à partir de 2019-2020 ;
Avant cette date, entre 2014 et 2018, le terme est peu usité et reste stable dans les médias analysés. Alors que « crise climatique » est attestée par une trentaine d’occurrences en 2014, elle grimpe à presque 500 en 2022 et 2023. Ceci ne semble pas pouvoir s’expliquer par la tenue d’évènements annuels donnant lieu à une médiatisation accrue comme les COP. C’est entre 2019 et 2020 que les expressions « crise climatique » et « crise écologique » connaissent une augmentation significative, phénomène qui pourrait trouver ses origines dans une sorte de contamination lexicale due à la crise du Covid-19.
On pourrait voir dans « crise écologique » et « crise environnementale » des équivalents discursifs qui entrent en concurrence, mais force est de constater que la seconde ne rencontre pas le succès de la première : est-elle trop longue et pas assez concise ? Trop lisse et pas assez percutante ? Si tel était le cas, cela pourrait également expliquer le faible usage de « crise de la biodiversité », qui ne recueille que 83 occurrences en dix ans, face à l’expression « effondrement de la biodiversité » (qui la devance largement, avec 303 occurrences).
L’une comme l’autre peuvent être remplacées par « sixième crise d’extinction », mais ce procédé de numérotation pose également problème et biaise la compréhension : il laisse entendre qu’il y a eu plusieurs crises d’extinction en amont et que, en conséquence, nous en sortirons bien indemnes.
Cette croyance est peut-être aussi le symptôme du faible intérêt social, politique et médiatique suscité par la destruction de la biodiversité, également confirmé par les récentes études menées par l’Observatoire des médias sur l’écologie. En analysant des productions audiovisuelles d’information générale, il rappelle que la biodiversité « est en moyenne deux à quatre fois moins abordée que le changement climatique ». Cette attention moindre portée aux enjeux écosystémiques tient aussi peut-être d’une particularité française, comme le postule l’historienne des sciences Valérie Chansigaud dans son ouvrage Les Français et la nature. Pourquoi si peu d’amour ? (2017).
L’usage répété de ces expressions par les médias semble en tout cas produire un paradoxe. D’une part, le terme crise atténue l’importance des destructions de la biodiversité et des chamboulements climatiques contemporains en les présentant comme éphémères, tout en passant sous silence leur vitesse inédite et leur origine anthropique.
D’autre part, le contenu alarmiste du terme cherche à créer une prise de conscience par le choc, comme d’autres expressions à forte charge émotionnelle visant à heurter les esprits (« urgence écologique », « polluants éternels », « catastrophes naturelles »). Mais à force de vouloir choquer et mobiliser par l’émotion, la surenchère discursive risque à la fois d’affaiblir la perception de la gravité des phénomènes et de diminuer la vocation de mise en action des mots.
Le registre alarmiste et anxiogène de la crise peut tantôt déboucher sur une léthargie paralysante, tantôt sur l’urgence d’agir. C’est là qu’intervient le récit de la résilience, compatible avec la vision de la crise comme un événement certes pénible, mais surmontable.
Les années 2000 voient émerger le mouvement des villes en transition, initié par l’auteur et enseignant britannique Rob Hopkins. Dans son Manuel de transition, de la dépendance au pétrole à la résilience locale (2010), il souligne la nécessité de « nouvelles histoires dépeignant de nouvelles possibilités », ces histoires portant sur l’avènement d’une société postcroissance et postcarbone. Le mouvement de transition propose alors des solutions pour concrétiser ce passage.
La France a été sensible à cette vision nouvelle de l’écologie, avec la promulgation de la loi de « transition énergétique pour la croissance verte » en 2016 et de la loi « Climat et résilience », en 2021. Le ministère chargé des questions environnementales a été également renommé en ministère de l’aménagement du territoire et de la transition écologique, dénomination actuellement en vigueur.
La puissance publique s’est progressivement éloignée de l’approche prônée par le développement durable (en vogue dans les années 2000 et 2010) pour se rallier à celle de la transition, dont les maîtres-mots sont « résilience » et « adaptation ».
Cependant, loin de concentrer ses efforts au questionnement ou au renversement des causes à l’origine des crises, la résilience prône l’adaptation à un monde dans lequel les conditions de vie se sont irrémédiablement dégradées. L’avènement des crises et des catastrophes étant présenté comme une fatalité, il s’agit désormais de vivre avec, en se préparant sans cesse au pire.
La résilience agit ainsi comme remède de la crise, en la traitant comme un problème à part entière et non comme le signe de quelque chose d’autre. Ces deux notions semblent ainsi symptomatiques d’une société qui s’est montrée jusque-là incapable d’envisager des processus sur le long terme.
Crise et résilience constituent alors des filtres interprétatifs spécifiques et même des « technologies du consentement », comme l’explique le sociologue Thierry Ribault. Selon lui, s’il n’est pas possible pour tout un chacun d’empêcher la survenue de phénomènes globaux d’une extrême gravité, embrasser le récit de la résilience donne au moins l’impression d’être acteurs de notre propre destinée, de nous « battre » contre un avenir qui ne s’annonce pas très radieux. Les individus comme les États tentent alors de se donner les moyens de s’accommoder aux effets néfastes des crises.
Le caractère alarmiste du mot crise et l’intensité de son usage peuvent alors avoir des effets contre-productifs, en biaisant notre compréhension des enjeux et en affaiblissant notre capacité d’action.
Nataly Botero est membre du comité d'experts de l'Observatoire des Médias sur l’Écologie.
19.02.2025 à 17:32
Murilo Veloso, Enseignant-chercheur en Science du Sol, Unité AGHYLE, Campus de Rouen, UniLaSalle
Anouk Lyver, Doctorante en biologie des sols, UniLaSalle
Coline Deveautour, Enseignante-Chercheuse en Ecologie microbienne des sols, UniLaSalle
Les sols agricoles ont un rôle climatique ambivalent : ils peuvent à la fois constituer des puits de carbone ou au contraire être une source de gaz à effet de serre. Pour comprendre à quelles conditions l’agriculture peut être l’alliée de la transition climatique, il faut s’intéresser à la structure du sol et notamment à la taille des agrégats qui le composent. Les pratiques agricoles, entre labours, semis direct ou couverture de légumineuses entre les cultures, ont leur importance.
L’agriculture est appelée à jouer un rôle clé dans le Pacte vert de l’Union européenne, dont l’ambition est d’atteindre la neutralité carbone à l’horizon 2050. Une question d’autant plus cruciale que le Salon de l’agriculture fait son retour du 22 février au 2 mars 2024.
Il faut dire que les sols agricoles sont ambivalents : ils peuvent à la fois constituer une source de gaz à effet de serre ou, au contraire, des puits qui les piègent dans les sols plutôt que dans l’atmosphère et les empêchent de contribuer au changement climatique.
Alors, meilleurs alliés ou menace souterraine ? Pour le comprendre, il faut s’intéresser à la structure du sol et, plus particulièrement, aux agrégats qui reflètent l’organisation des particules du sol.
En effet, ce qu’il y a sous nos pieds n’est pas un bloc compact, un substrat plein et homogène. Le sol est constitué de particules plus ou moins grosses qui s’assemblent, tout en laissant entre elles des espaces qui se remplissent d’air ou d’eau. Ces morceaux de tailles diverses sont appelés agrégats. Ce sont des ensembles hétérogènes de particules qui adhèrent solidement entre eux, comme le montre la figure ci-dessous.
Ces agrégats constituent des environnements peuplés de micro-organismes. Parmi eux, des microbes qui, du fait de leur activité, produisent notamment des gaz à effet de serre (GES) comme du méthane (CH₄) et du protoxyde d’azote (N₂O).
Pour comprendre d’où viennent les molécules qui vont être transformées par les microbes pour produire des gaz à effet de serre, il faut d’abord rappeler que les végétaux captent le dioxyde de carbone (CO2) dans l’air afin de fabriquer de la matière (feuilles, tiges, bois…). Celle-ci finit, en partie, dans le sol sous forme de résidus de feuilles, de tiges ou de racines mortes.
Ces résidus peuvent selon les cas :
soit être stabilisés dans les agrégats, où ils ne sont pas accessibles aux micro-organismes en raison de la barrière physique formée par les agrégats eux-mêmes autour de la matière organique,
soit servir de nourriture aux micro-organismes, puis être relâché dans l’atmosphère comme gaz à effet de serre.
Les sols peuvent donc se comporter comme des puits de carbone. En piégeant le carbone de la matière organique dans le sol, ils contribuent à réduire la concentration de CO2 dans l’atmosphère.
C’est la balance entre les gaz à effet de serre émis par les sols et ceux piégés par ces derniers qui va donc permettre d’évaluer l’aspect bénéfique ou délétère d’un sol – et par la même occasion, des pratiques agricoles –sur le changement climatique.
À lire aussi : Que sont les « puits de carbone » et comment peuvent-ils contribuer à la neutralité carbone en France ?
Nous avons mené une étude pour comprendre où ces gaz à effet de serre sont formés dans le sol. Concrètement, pour cela, nous avons examiné comment le travail du sol et les couverts végétaux affectaient les agrégats du sol.
Pour ce faire, l’étude s’est appuyée sur des travaux précédents, et notamment une expérience de terrain menée durant près de 30 ans dans le sud du Brésil. Celle-ci comparait des parcelles labourées et non labourées, puis des parcelles bénéficiant d’une couverture de légumineuses pendant les périodes d’interculture à d’autres qui n’en bénéficiaient pas.
Des échantillons de ces sols ont été prélevés et les agrégats du sol séparés en trois classes selon leurs tailles :
les grands macroagrégats (entre 2 et 9,5 mm),
les petits macroagrégats (entre 2 et 0,25 mm) et
les microagrégats (inférieurs à 0,25 mm).
Ensuite, nous avons évalué en laboratoire les émissions de méthane (CH4) et de protoxyde d’azote (N2O) issues de chaque classe d’agrégat du sol pendant six mois ainsi que l’accumulation du carbone organique du sol (COS) afin d’évaluer si celle-ci compensait les émissions ou non.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
Nos résultats montrent que c’est dans les grands macroagrégats, notamment ceux que l’on observait sur les parcelles non labourées et associées avec les couverts de légumineuses, que se déroulait l’activité microbienne la plus intense. C’est dans ces macroagrégats que les émissions de gaz à effet de serre et notamment de protoxyde d’azote – un puissant gaz à effet de serre – étaient les plus élevées.
Le niveau de ces émissions était corrélé aux concentrations de nitrate et de carbone organique dissous dans les macroagrégats, ce qui suggère que le processus responsable de l’émission de protoxyde d’azote est la dénitrification. Ce processus est la conversion du nitrate en protoxyde d’azote par les bactéries hétérotrophes du sol qui ont besoin d’une source de carbone soluble pour réaliser cette conversion.
Toutefois, les émissions de protoxyde d’azote de ces macroagrégats sont totalement compensées par l’accumulation de carbone organique d’une part, et par la fixation du méthane produit par les bactéries d’autre part. Le méthane est ainsi fixé dans le sol grâce à un phénomène d’oxydation appelé méthanotrophie : les bactéries consomment le CH4 au lieu de le produire.
Par conséquent, au niveau global, les macroagrégats de ces échantillons piègent plus de gaz à effet de serre qu’ils n’en libèrent.
Si on se place à l’échelle des parcelles individuelles, ce sont ainsi les échantillons de parcelles n’ayant pas été labourées (semis direct) qui présentaient la balance émission/absorption de gaz à effet de serre la plus intéressante. Pour chaque kilogramme de matière organique accumulée dans le sol grâce aux techniques de semis direct, on observait ainsi la capture de 69,4 mg équivalent CO2eq, contre 57,1 mg pour les parcelles labourées.
La différence entre les deux se joue au niveau des macroagrégats, qui, sans labour, ne sont pas brisés en plus petits agrégats. Il y a alors davantage d’espaces (porosité) entre les gros agrégats, ce qui permet une meilleure oxygénation des interstices et donc une oxydation facilitée du méthane (CH4) ainsi qu’un processus de dénitrification moins important. La présence d’oxygène dans le sol est le principal ennemi des bactéries productrices de méthane et de protoxyde d’azote : il s’agit de bactéries anaérobies qui ont besoin d’un milieu sans oxygène. En conséquence, moins de méthane et de protoxyde d’azote sont émis par ces sols.
Lorsque les microagrégats dominent, au contraire, le bilan carbone est moins intéressant : certes, les émissions de protoxyde d’azote y sont moins importantes, mais la consommation de méthane y est limitée, et l’accumulation de carbone organique moindre. Il y a donc moins de gaz à effet de serre piégés ou éliminés, et la balance est plus défavorable.
L’effet bénéfique du non-labour est encore accentué par la présence de couverts végétaux de légumineuses en interculture, qui augmentent les quantités de matière organique dans le sol et donc la quantité de carbone ainsi stockées.
Chaque kilogramme de matière organique accumulée sous des couverts de légumineuses correspond ainsi au stockage de 74,7 mg équivalent CO2, contre 51,8 mg CO2eq pour les sol avec des couverts sans légumineuses.
Ces résultats montrent qu’augmenter la quantité de matière organique dans le sol grâce aux systèmes sans labour et aux couverts de légumineuses aide à compenser les émissions de gaz à effet de serre des sols. Cela suggère que les macroagrégats du sol peuvent agir comme un puits de carbone atmosphérique.
À lire aussi : Les légumineuses : bonnes pour notre santé et celle de la planète
Alors, le non-labour et le semis direct sont-ils des solutions miracles ? Non, car lorsque les échantillons sont saturés en eau, ceci afin de reproduire les conditions de parcelles inondées du fait des nouveaux risques climatiques, la saturation du sol en eau empêche alors son aération correcte. L’absence d’oxygène empêche alors l’oxydation du méthane et favorise la dénitrification émettrice de protoxyde d’azote. En conséquence, les émissions de gaz à effet de serre sont alors beaucoup plus élevées dans les macroagrégats.
Dans tous les autres cas de figure, les pratiques agricoles qui utilisent le semis direct et la couverture végétale de légumineuses en interculture contribuent à faire de nos sols des puits de carbone grâce à l’accumulation de cet élément dans les macroagrégats qui, par conséquent, favorisent la lutte contre le changement climatique.
Cet article a bénéficié de l’appui de Jean-Marc Pitte, journaliste et médiateur scientifique. Nous le remercions pour son aide dans la vulgarisation de cette réflexion.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.