22.07.2025 à 16:34
Thierry Gauquelin, Professeur émérite, Institut méditerranéen de biodiversité et d’écologie marine et continentale (IMBE), Aix-Marseille Université (AMU)
Alors qu’on ne le trouve que dans une unique vallée au Maroc, le cyprès de l’Atlas est aujourd’hui menacé par l’exploitation humaine et a été durement touché par le séisme qui a frappé le Maroc en septembre 2023. Pourtant, cette espèce, protégée et plantée dans d’autres régions, résiste particulièrement bien au réchauffement climatique.
Le bassin méditerranéen est l’un des 36 points chauds de biodiversité d’importance mondiale en raison de sa grande biodiversité, souvent propre à la région. Il est en effet riche de plus de 300 espèces d’arbres et d’arbustes contre seulement 135 pour l’Europe non méditerranéenne. Parmi ces espèces, un certain nombre sont endémiques, comme le genévrier thurifère, le chêne-liège, plusieurs espèces de sapins mais aussi le remarquable cyprès de l’Atlas.
Décrit dès les années 1920, ce cyprès cantonné dans une seule vallée du Haut Atlas, au Maroc, a intéressé nombre de botanistes, forestiers et écologues, qui ont étudié cette espèce très menacée, mais aussi potentielle réponse au changement climatique.
Le premier à faire mention en 1921 de la présence de ce cyprès dans la vallée de l’oued N’Fiss, dans le Haut Atlas, est le capitaine Charles Watier, inspecteur des eaux et forêts du Sud marocain. Mais c’est en 1950 que Henri Gaussen, botaniste français, qualifie ce conifère de cyprès des Goundafa, l’élève au rang d’espèce et lui donne le nom scientifique de Cupressus atlantica Gaussen.
C’est à l’occasion de son voyage au Maroc en 1948 qu’il a constaté que cet arbre, dont la localisation est très éloignée de celles des autres cyprès méditerranéens, est bien une espèce distincte. En particulier, son feuillage arbore une teinte bleutée et ses cônes, que l’on appelle familièrement des pommes de pin, sont sphériques et petits (entre 18 et 22 mm) alors que ceux du cyprès commun (Cupressus sempervirens), introduit au Maroc, sont beaucoup plus gros (souvent 3,5 cm) et ovoïdes.
Le cyprès de l’Atlas se développe presque uniquement au niveau de la haute vallée du N’Fiss, région caractérisée par un climat lumineux et très contrasté.
On a aujourd’hui une bonne estimation de la superficie couverte par cette espèce dans la vallée du N’Fiss, qui abrite donc la population la plus importante de cyprès de l’Atlas. : environ 2 180 hectares, dont environ 70 % couverts de bosquets à faible densité. Dans les années 1940 et 1950, elle était estimée entre 5 000 et 10 000 hectares. En moins de cent ans, on aurait ainsi perdu de 50 à 80 % de sa surface ! Malgré les imprécisions, ces chiffres sont significatifs d’une régression importante de la population.
Dans ces espaces boisés, la densité des arbres est faible et l’on peut circuler aisément entre eux. Les couronnes des arbres ne se rejoignent jamais et, hormis sous celles-ci, le soleil frappe partout le sol nu.
L’originalité de cette formation est que cohabitent aujourd’hui dans cette vallée de magnifiques cyprès multiséculaires aux troncs tourmentés, des arbres plus jeunes, élancés et en flèche pouvant atteindre plus de 20 mètres de hauteur et des arbres morts dont ne subsistent que les troncs imputrescibles. Ce qui est frappant, et que signalait déjà le botaniste Louis Emberger en 1938 dans son fameux petit livre les Arbres du Maroc et comment les reconnaître, c’est que la majorité des arbres « acquièrent une forme de candélabre, suite à l’amputation de la flèche et à l’accroissement des branches latérales ».
L’allure particulière de ces arbres et la proportion importante d’arbres morts sont avant tout à imputer à l’être humain qui, depuis des siècles, utilise le bois de cyprès pour la construction des habitations et pour le chauffage. Il coupe aussi le feuillage pour nourrir les troupeaux de chèvres qui parcourent la forêt.
En plus de ces mutilations, les arbres rencontrent des difficultés pour se régénérer, en lien avec le surpâturage, toutes les jeunes régénérations des arbres étant systématiquement broutées. La pression anthropique est ainsi une composante fondamentale des paysages de forêt claire de cyprès de l’Atlas.
Cette dégradation des arbres et la régression de la population de cyprès ne sont sans doute pas récentes. La vallée du N’Fiss est le berceau des Almohades, l’une des plus importantes dynasties du Maroc, qui s’est étendue du Maghreb à l’Andalousie, du XIIe au XIIIe siècle. La mosquée de Tinmel, joyau de l’art des Almohades, s’imposait au fond de cette vallée, témoin de la fondation de cette grande dynastie. Et il est fort à parier que c’est du bois local, donc de cyprès, qui a été utilisé à l’origine pour la toiture de cette monumentale construction.
Pourquoi aller chercher bien loin du cèdre, comme certains historiens l’ont suggéré, alors qu’une ressource de qualité, solide et durable, existait localement ? L’étude anatomique de fragments de poutres retrouvées sur le site devrait permettre de confirmer cette hypothèse, les spécialistes différencient facilement le bois de cyprès de celui des autres essences de conifères. Dans tous les cas, il est certain que lors de cette période, le cyprès a subi une forte pression, du fait de l’importance de la cité qui entourait ce site religieux.
On notera enfin, confortant les relations intimes entre le cyprès et les populations locales, les utilisations en médecine traditionnelle : massages du dos avec des feuilles imbibées d’eau ou encore décoction des cônes employée comme antidiarrhéique et antihémorragique.
Le 8 septembre 2023, le Maroc connaît le séisme le plus intense jamais enregistré dans ce pays par les sismologues. Les peuplements de cyprès se situent autour de l’épicentre du séisme. Ce dernier affecte la vallée du N’Fiss et cause d’importants dégâts matériels, détruisant des habitations et des villages et causant surtout le décès de près de 3 000 personnes. Le séisme a également endommagé le patrimoine architectural, et notamment la mosquée de Tinmel, presque entièrement détruite, qui fait, depuis, l’objet de programme de restauration.
Malgré son intensité (6,8), le séisme ne semble pas avoir eu d’effets directs sur les cyprès par déchaussements ou par glissements de terrain, bien que cela soit difficile à apprécier. Ceux-ci ont néanmoins subi des dégâts collatéraux.
Lors du réaménagement de la route principale, des arbres ont été abattus, notamment un des vieux cyprès (plus de 600 ans) qui avait pu être daté par le Pr Mohamed Alifriqui, de l’Université Cadi Ayyad de Marrakech. De plus, des pistes et des dépôts de gravats ont été implantés au sein même des peuplements, à la suite d’une reconstruction rapide, et évidemment légitime, des villages. Cela a cependant maltraité, voire tué, de très vieux cyprès.
Malgré la distribution restreinte de l’espèce et l’importante dégradation qu’elle subit, une forte diversité génétique existe encore dans cette population. Cependant, il existe un risque important de consanguinité et de perte future de biodiversité au sein de cette vallée. Ainsi, C. atlantica est classé par l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO) parmi les 17 espèces forestières mondiales dont le patrimoine génétique s’appauvrit.
Une autre menace est celle du changement climatique qui affecte particulièrement le Maroc et ses essences forestières. Les six années de sécheresse intense que cette région du Maroc a subies n’ont sans doute pas amélioré la situation, même si l’impact sur les cyprès semble moins important que sur les chênes verts, sur les thuyas ou sur les genévriers qui montrent un dépérissement spectaculaire.
Pour toutes ces raisons, l’Union internationale pour la conservation de la nature (UICN) a classé le cyprès de l’Atlas comme étant en danger critique d’extinction. Il faut alors envisager des stratégies à grande échelle afin d’assurer la survie voire la régénération des forêts de cyprès. Cela passe à la fois par la fermeture de certains espaces, afin d’y supprimer le pâturage, et par l’interdiction des prélèvements de bois.
Tout ceci ne sera cependant possible qu’en prévoyant des mesures compensatoires pour les populations locales.
Il est aussi nécessaire de replanter des cyprès, ce qui nécessite la production de plants de qualité, même si les tentatives menées par le Service forestier marocain ont pour le moment obtenu un faible taux de réussite.
Le cyprès de l’Atlas, adapté à des conditions de forte aridité, pourrait d’ailleurs constituer une essence d’avenir pour le Maroc et pour le Maghreb dans son ensemble face au changement climatique. Dans le bassin méditerranéen, le réchauffement provoque en effet une aridification croissante et notamment une augmentation de la période de sécheresse estivale. Henri Gaussen disait déjà en 1952 :
« Je crois que ce cyprès est appelé à rendre de grands services dans les reboisements de pays secs. »
Et pourquoi ne pas penser au cyprès de l’Atlas pour les forêts urbaines ? Un bon moyen de préserver, hors de son aire naturelle, cette espèce menacée.
Conservation, reboisements et utilisation raisonnée nécessitent ainsi des investissements financiers importants. Richard Branson, le célèbre entrepreneur britannique, s’est particulièrement investi dans le développement de la vallée du N’Fiss et est notamment venu au secours de ses habitants à la suite du séisme meurtrier d’il y a deux ans. Si son but est d’améliorer la vie et le futur des habitants de la vallée, espérons qu’il saura aussi s’intéresser à cet écosystème particulier, et que d’autres fonds viendront soutenir les efforts de conservation.
Thierry Gauquelin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.07.2025 à 18:15
Florian Fizaine, Maître de conférences en sciences économiques, Université Savoie Mont Blanc
Guillaume Le Borgne, Maître de conférences en sciences de gestion - En délégation INRAE, Université Savoie Mont Blanc
Plus on connaît le changement climatique et les actions du quotidien les plus émettrices de CO2, moins notre empreinte carbone est importante. C’est ce que confirme une nouvelle étude, qui indique que les connaissances sont un levier individuel et collectif qui peut faire diminuer cette empreinte d’une tonne de CO2 par personne et par an. Mais cela ne suffira pas : la transition écologique doit aussi passer par les infrastructures publiques et l’aménagement du territoire.
Les rapports successifs du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec), mais aussi le traitement de plus en plus massif de l’urgence climatique par les médias témoignent d’une information sur le sujet désormais disponible pour tous. Pourtant, à l’échelle des individus, des États ou même des accords intergouvernementaux comme les COP, les effets de ces rapports semblent bien maigres face aux objectifs fixés et aux risques encourus.
Ce constat interpelle et questionne le rôle des connaissances accumulées et diffusées dans la transition environnementale. Plutôt que de les rejeter d’un bloc, il s’agit de revisiter les formes qu’elles doivent prendre pour permettre l’action.
Est-ce que plus de connaissances sur le réchauffement climatique poussent au changement ? C’est précisément à cette question que nous avons souhaité répondre dans une étude publiée récemment. Ce travail s’appuie sur une enquête portant sur 800 Français interrogés sur leurs croyances relatives au réchauffement climatique, leurs connaissances sur le sujet ainsi que sur leur comportement et leur empreinte carbone grâce au simulateur de l’Agence de la transition écologique (Ademe) « Nos gestes climat ».
Avant tout, précisons ce qu’on appelle connaissances. Si notre outil évalue les connaissances liées au problème (réalité du réchauffement, origine anthropique…), une large part de notre échelle évalue par ailleurs si l’individu sait comment atténuer le problème au travers de ses choix quotidiens – quels postes d’émissions, comme l’alimentation ou les transports, et quelles actions ont le plus d’impact. En effet, une bonne action ne nécessite pas seulement d’identifier le problème, mais de savoir y parer efficacement. Et les Français ont des connaissances très hétérogènes sur ce sujet – constat qui se retrouve au niveau international.
En s’appuyant sur le pourcentage de bonnes réponses à notre questionnaire et en le comparant au niveau autoévalué par l’individu, on observe d’ailleurs que les personnes les plus incompétentes sur le sujet surestiment drastiquement leur niveau de connaissances de plus d’un facteur deux, tandis que les plus compétents sous-estiment légèrement leur niveau de 20 %.
Pour aller au-delà de la simple observation d’une corrélation entre connaissances et empreinte carbone, déjà observée dans d’autres études récentes et confirmée par la nôtre, nous avons regardé comment le niveau de connaissances moyen de l’entourage d’un individu influence ses propres connaissances et contribue par ce biais à réduire son empreinte carbone.
Nous avons montré que le niveau de connaissances influence significativement à la baisse l’empreinte carbone : en moyenne, les personnes ayant 1 % de connaissances en plus ont une empreinte carbone 0,2 % plus faible. Cela s’explique par les causes multifactorielles sous-jacentes à l’empreinte.
Nous observons surtout des résultats très différents selon les postes de l’empreinte carbone. Le transport réagit beaucoup (-0,7 % pour une hausse de 1 % de connaissances), l’alimentation beaucoup moins (-0,17 %) tandis qu’il n’y a pas d’effet observable sur les postes du logement, du numérique et des consommations diverses.
Ces résultats sont encourageants dans la mesure où le transport et l’alimentation représentent près de la moitié de l’empreinte carbone, selon l’Ademe.
L’absence de résultat sur les autres postes peut s’expliquer par différents facteurs. Sur le logement par exemple, les contraintes sont probablement plus pesantes et difficiles à dépasser que sur les autres postes. On change plus facilement de véhicule que de logement et isoler son logement coûte cher et reste souvent associé à un retour sur investissement très long. Le statut d’occupation du logement (monopropriétaire, copropriétaire, locataire…) peut aussi freiner considérablement le changement.
Enfin, concernant les postes restants, il y a fort à parier qu’il existe à la fois une méconnaissance de leur impact, des habitudes liées au statut social ou d’absence d’alternatives. Plusieurs études ont montré que les individus évaluent très mal l’impact associé aux consommations diverses, et que les guides gouvernementaux qui leur sont destinés fournissent peu d’informations à ce sujet.
Comme notre questionnaire ne porte pas sur les connaissances relatives à la totalité des choix du quotidien, il est possible que les individus très renseignés sur l’impact des plus grands postes (logement, transport, alimentation) et qui sont bien évalués dans notre étude ne l’auraient pas nécessairement été sur les autres postes (vêtement, mobilier, électronique…). Par ailleurs, même si un individu sait que réduire son usage numérique ou sa consommation matérielle aurait un effet positif, il peut se sentir isolé ou dévalorisé socialement s’il change de comportement.
Pour finir, le numérique est souvent perçu comme non substituable, omniprésent, et peu modulable par l’individu. Contrairement à l’alimentation ou au transport, il est difficile pour l’individu de percevoir l’intensité carbone de ses usages numériques (streaming, cloud, etc.) ou de les choisir en fonction de cette information.
Notre étude montre que l’on peut atteindre jusqu’à environ une tonne de CO2e/an/habitant en moins grâce à une augmentation drastique des connaissances, ce qui pourrait passer par l’éducation, la formation, la sensibilisation et les médias. C’est déjà bien, mais c’est une petite partie des 6,2 t CO2e/habitant à éviter pour descendre à 2 tonnes par habitant en France, l’objectif établi par l’accord de Paris. Cela rejoint l’idée que les connaissances individuelles ne peuvent pas tout accomplir et que les individus eux-mêmes n’ont pas toutes les clés en main.
Les actions des individus dépendent pour partie des infrastructures publiques et de l’organisation des territoires. Dans ce cadre, seules des décisions prises aux différents échelons de l’État peuvent dénouer certaines contraintes sur le long terme. D’un autre côté, les décideurs politiques ou les entreprises ne s’engageront pas sur des mesures désapprouvées par une large part de la population. Il faut donc rompre le triangle de l’inaction d’une manière ou d’une autre pour entraîner les deux autres versants.
Il ne s’agit pas de dire que les individus sont seuls responsables de la situation, mais d’observer qu’au travers du vote, des choix de consommation et des comportements, les leviers et la rapidité des changements sont probablement plus grands du côté des individus que du côté des entreprises et des États.
Comment alors mobiliser les citoyens au-delà de l’amélioration des connaissances ? Nous ne répondons pas directement à cette question dans notre étude, mais une littérature foisonnante s’intéresse à deux pistes prometteuses.
La bonne nouvelle, c’est qu’il n’est pas toujours nécessaire d’interdire, de subventionner massivement ou de contraindre pour faire évoluer les comportements. Parfois, il suffit d’aider chacun à voir que les autres bougent déjà. Les politiques fondées sur les normes sociales – qu’on appelle souvent nudges – misent sur notre tendance à nous aligner avec ce que font les autres, surtout dans des domaines aussi collectifs que le climat.
Avec un minimum d’investissement public, on peut donc maximiser les effets d’entraînement, pour que le changement ne repose pas seulement sur la bonne volonté individuelle, mais devienne la nouvelle norme locale. Ainsi, en Allemagne, une étude récente montre que lorsque l’un de vos voisins commence à recycler ses bouteilles, vous êtes plus susceptible de le faire aussi. Ce simple effet d’imitation, reposant sur la norme sociale, peut créer des cercles vertueux s’il est combiné à des dispositifs d’aide publique habilement ciblée voir à de l’information.
Ensuite, les émotions – telles que la peur, l’espoir, la honte, la fierté, la colère… – possèdent chacune des fonctions comportementales spécifiques qui, bien mobilisées, peuvent inciter à l’adoption de comportements plus vertueux d’un point de vue environnemental. Des chercheurs ont d’ailleurs proposé un cadre fonctionnel liant chaque émotion à des contextes d’intervention précis et démontré que cela peut compléter efficacement les approches cognitives ou normatives classiques.
Par exemple, la peur peut motiver à éviter des risques environnementaux immédiats si elle est accompagnée de messages sur l’efficacité des actions proposées (et, à l’inverse, peut paralyser en l’absence de tels messages), tandis que l’espoir favorise l’engagement si les individus perçoivent une menace surmontable et leur propre capacité à agir. Par ailleurs, l’écocolère peut amener à un engagement dans l’action plus fort que l’écoanxiété.
Cibler stratégiquement les émotions selon les publics et les objectifs maximise les chances de changements comportementaux. En outre, mobiliser les émotions requiert de convaincre les individus de l’efficacité de leurs actions (et de l’implication des autres), et du caractère surmontable du défi du changement climatique. Ce n’est pas une mince affaire, mais cela reste une question centrale pour la recherche et les acteurs de la lutte contre le changement climatique.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
21.07.2025 à 18:12
Yvonne Ryan, Associate Professor in Environmental Science, University of Limerick
Les vélos électriques ont le vent en poupe : ils rendent les déplacements cyclistes accessibles à tous indépendamment de la condition physique et n’émettent pas de gaz à effet de serre pendant leur utilisation. Oui, mais encore faut-il qu’en fin de vie, ils soient correctement recyclés – et, en particulier, leurs batteries électriques. Ce n’est pas toujours le cas et cela provoque déjà des incidents, sans parler des pollutions qui peuvent en découler.
Les vélos électriques rendent la pratique du vélo plus facile, plus rapide et plus accessible. Ils jouent déjà un rôle important pour réduire l’impact environnemental des transports, en particulier lorsqu’ils remplacent un trajet en voiture individuelle.
Mais lorsqu’on met un vélo électrique au rebut, il faut aussi se débarrasser de sa batterie. Or, ces batteries peuvent être particulièrement dangereuses pour l’environnement et difficiles à éliminer (les filières de recyclage appropriées n’étant pas toujours mobilisées, ndlt). L’essor des vélos électriques s’accompagne donc d’un nouveau problème environnemental : l’augmentation des déchets d’équipements électriques et électroniques (DEE).
Le secteur a besoin d’une réglementation plus stricte pour l’encourager à réduire ses déchets. Il s’agirait notamment d’encourager la conception de vélos plus faciles à réparer ou à recycler et d’établir des normes universelles permettant aux pièces de fonctionner pour différentes marques et différents modèles, de sorte que les composants puissent être réutilisés au lieu d’être jetés.
Malgré tout, les vélos électriques passent souvent entre les mailles du filet législatif. Leur exclusion des produits prioritaires, dans le cadre du règlement de l’UE sur l’écoconception des produits durables, introduit en 2024, est regrettable.
À lire aussi : Peut-on recycler les batteries des véhicules électriques ?
À l’Université de Limerick, en Irlande, des collègues et moi avons mené des recherches sur l’impact environnemental des vélos électriques. Nous nous sommes intéressés à l’ensemble de leur cycle de vie, depuis l’extraction minière des métaux jusqu’à la fabrication, l’utilisation et l’élimination finale des vélos, afin de voir s’il existait des moyens de réduire la quantité de matériaux utilisés.
Nous avons interrogé des détaillants et des personnes travaillant dans le domaine de la gestion des déchets. Ils nous ont fait part de leurs préoccupations concernant la vente en ligne de vélos électriques de moindre qualité, dont les composants deviennent plus facilement défectueux, ce qui conduit à un renouvellement plus fréquent.
En utilisant les données relatives à la flotte de vélos électriques en usage sur notre université, nous avons constaté des problèmes de conception et de compatibilité des composants. Les pneus de vélo, par exemple, sont devenus de plus en plus atypiques et spécialisés.
La fabrication additive, par exemple l’impression 3D, pourrait devenir plus importante pour les détaillants et les réparateurs de vélos, qui pourraient l’utiliser pour imprimer eux-mêmes des écrous, des vis ou même des selles de rechange. Cela pourrait être particulièrement nécessaire dans les États insulaires comme l’Irlande, où il y a souvent des retards dans l’approvisionnement en pièces détachées.
Mais il faut d’abord que les vélos électriques soient d’une qualité suffisante pour pouvoir être réparés. Et pour créer les pièces de rechange, encore faut-il avoir accès aux données nécessaires, c’est-à-dire à des fichiers numériques contenant des dessins précis d’objets tels qu’un pneu ou un guidon de vélo.
De nouveaux modèles d’affaires voient le jour. Certaines entreprises prêtent des vélos électriques à leurs employés, une société de gestion se chargeant de l’entretien et de la réparation.
Il existe également un nombre croissant de services mobiles de réparation de vélos électriques, ainsi que des formations spécialisées à la réparation et la vente au détail de vélos électriques, par l’intermédiaire de plateformes de fabricants tels que Bosch ou Shimano.
Les marques de vélos électriques changent elles aussi progressivement, passant de la vente de vélos à une offre de services évolutifs. Par exemple, le détaillant de vélos électriques Cowboy propose un abonnement à des mécaniciens mobiles, et VanMoof s’associe à des services de réparation agréés. Mais, si ces modèles fonctionnent bien dans les grandes villes, ils ne sont pas forcément adaptés aux zones rurales et aux petites agglomérations.
Il convient toutefois de veiller à ce que les consommateurs ne soient pas désavantagés ou exclus des possibilités de réparation. Aux États-Unis, les fabricants de vélos électriques ont demandé des dérogations aux lois visant à faciliter la réparation des produits, tout en insistant sur le fait que le public ne devrait pas être autorisé à accéder aux données nécessaires pour effectuer les réparations.
En ce qui concerne le traitement des déchets, certaines des innovations qui ont rendu les vélos électriques plus accessibles créent de nouveaux problèmes. Par exemple, les vélos électriques ont évolué pour devenir plus fins et élégants – et, de ce fait, ils sont parfois impossibles à distinguer des vélos ordinaires. Il est donc plus facile pour eux de se retrouver dans des unités de traitement des ordures ménagères (tri, incinération, mise en décharge, etc.) qui ne sont pas équipées pour les déchets électroniques. Si une batterie lithium-ion à l’intérieur d’un vélo électrique est encore chargée et qu’elle est écrasée ou déchiquetée (au cours du tri, par exemple), elle peut déclencher un incendie.
Ce problème est pourtant loin d’être insoluble. La vision par ordinateur et d’autres technologies d’intelligence artificielle pourraient aider à identifier les vélos électriques et les batteries dans les installations de gestion des déchets. Les codes QR apposés sur les cadres des vélos pourraient aussi être utilisés pour fournir des informations sur l’ensemble du cycle de vie du produit, y compris les manuels de réparation et l’historique des services, à l’instar des passeports de produits proposés par l’Union européenne.
La sensibilisation, le choix et l’éducation des consommateurs restent essentiels. S’il appartient aux consommateurs de prendre l’initiative de l’entretien et de la réparation des vélos électriques, les décideurs politiques doivent veiller à ce que ces options soient disponibles et abordables et à ce que les consommateurs les connaissent.
Les détaillants, de leur côté, ont besoin d’aide pour intégrer la réparation et la réutilisation dans leurs modèles commerciaux. Il s’agit notamment de mettre en place des forfaits domicile/lieu de travail pour faciliter l’entretien des vélos électriques. Cela passe aussi par un meilleur accès aux assurances et aux protections juridiques, en particulier pour la vente de vélos électriques remis à neuf. Enfin, il leur faut disposer d’une main-d’œuvre ayant les compétences nécessaires pour réparer ces vélos.
Partout dans le monde, les « vélothèques » (services de prêt ou location de vélos, ndlt) et les programmes « Essayez avant d’acheter » aident les consommateurs à prendre de meilleures décisions, car ils leur permettent de tester un vélo électrique avant de s’engager. L’abandon du modèle de la propriété traditionnelle – en particulier pour les vélos électriques coûteux – pourrait également rendre la mobilité active plus accessible.
Les politiques qui favorisent les ventes, telles que les subventions et les incitations à l’achat de nouveaux vélos, peuvent aller à l’encontre des efforts déployés pour réduire les déchets. Nous avons besoin de davantage de politiques qui favorisent la réparation et la remise à neuf des vélos électriques.
Ce secteur présente un fort potentiel pour limiter notre impact environnemental et améliorer la santé publique. Mais pour que ces avantages se concrétisent, nous devons nous efforcer de les faire durer plus longtemps et de consommer moins de ressources naturelles pour ces derniers.
Yvonne Ryan ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.07.2025 à 15:52
Karen Burga, Cheffe de projet, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
De plus en plus de crèmes solaires se présentent comme « respectueuses » de l’environnement. Est-ce vraiment le cas ? En 2023, une expertise de l’Anses a mis en évidence les risques posés par plusieurs substances chimiques pour le milieu marin, et en particulier pour les récifs coralliens. En cause, des pesticides, des métaux, mais également des filtres UV utilisés dans les crèmes solaires, comme le salicylate de 2-éthylhexyle, l’enzacamène, l’octocrylène, la benzophénone-3 et l’octinoxate.
Toutes sortes de substances chimiques terminent leur vie dans les océans : métaux, pesticides, mais également les molécules servant de filtres UV dans les crèmes solaires. Tous ces polluants peuvent affecter la biodiversité marine et notamment les récifs coralliens, déjà mis à mal par le changement climatique.
Face à ces préoccupations, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) a publié, en 2023, une évaluation, avec l’appui de l’Office français de la biodiversité (OFB). L’enjeu : comprendre les risques posés par la pollution chimique sur la santé des coraux.
L’Agence a ainsi évalué les risques pour une cinquantaine de substances parmi la centaine identifiée comme potentiellement toxique pour les coraux. Les résultats sont préoccupants : la moitié des substances évaluées présentent bien des risques pour les récifs coralliens. Parmi celles-ci, on trouve les filtres UV présents dans les crèmes solaires, des métaux et des pesticides.
Avec une mauvaise nouvelle à la clé : le bilan des substances à risque est très probablement sous-estimé.
Les récifs coralliens constituent des écosystèmes cruciaux pour la planète. Même s’ils couvrent moins de 1 % de la surface des océans, ils abritent plus de 25 % de la biodiversité mondiale, comptant parmi les écosystèmes les plus diversifiés de la planète. Malgré leur importance écologique (et les enjeux économiques qui en découlent), les récifs coralliens déclinent.
D’après les Nations unies, il est estimé que 20 % des récifs coralliens mondiaux ont déjà été détruits. Ces écosystèmes font face à des pressions multiples à toutes les échelles spatiales : du niveau local (du fait par exemple des pollutions, de la surpêche, des aménagements côtiers, etc.) au niveau mondial (notamment à cause du changement climatique).
En termes de pollution marine, les coraux sont exposés à diverses substances chimiques provenant de différences sources, ponctuelles ou diffuses. Ces effets éveillent l’intérêt des chercheurs depuis des décennies. Pour mener leur expertise quant aux risques posés par les substances chimiques sur la santé des coraux, l’Anses et l’OFB se sont ainsi appuyés sur une revue de littérature scientifique réalisée par Patrinat.
Ceci a permis d’identifier une centaine de substances pouvant avoir des effets toxiques sur les espèces coralliennes.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Commençons par les pesticides. Grâce aux données de surveillance des substances chimiques dans l’eau disponibles pour la Guadeloupe, pour la Martinique, pour La Réunion et pour Mayotte, l’Anses a pu évaluer les risques sur ces territoires. Parmi les 21 substances étudiées :
deux pesticides dangereux pour l’environnement marin ont été identifiés, le chlordécone et le chlorpyrifos, surtout en Guadeloupe et Martinique ;
le risque ne peut pas être écarté pour huit autres pesticides : TBT, profénofos, perméthrine, naled, monuron, dichlorvos, cyanures et carbaryl.
S’agissant des métaux, des risques ont été identifiés pour six métaux (zinc, vanadium, manganèse, fer, cobalt et aluminium) sur les 12 étudiés.
En Martinique, les niveaux d’aluminium, de manganèse et de zinc dépassent les niveaux de référence,
pour les autres territoires, il n’est pas possible de déterminer si les concentrations mesurées dans l’eau de ces métaux sont d’origine anthropique ou naturelle.
Ces dernières années, un nouveau type de pollution chimique des récifs coralliens a retenu l’attention du public et des scientifiques : les produits de protection solaire, en particulier les filtres UV.
Il est difficile d’évaluer les risques pour ces substances, faute de données disponibles quant aux concentrations de ces substances dans les eaux des territoires français ultramarins.
Cependant, sur la base des concentrations rapportées dans la littérature scientifique dans d’autres zones marines, l’expertise a pu identifier cinq filtres UV à risque sur les 11 identifiés par la revue systématique. Il s’agit du salicylate de 2-éthylhexyle, de l’enzacamène, de l’octocrylène, de la benzophénone-3 et de l’octinoxate.
Dans ce groupe, l’enzacamene est reconnu comme un perturbateur endocrinien. Et cela non seulement pour la santé humaine, mais aussi pour l’écosystème marin. Les autres substances sont, elles aussi, suspectées d’être des perturbateurs endocriniens. Elles font actuellement l’objet d’évaluations par les États membres de l’Union européenne dans le cadre du règlement Registration, Evaluation, Authorization of Chemicals (REACH).
Concernant l’octocrylène en particulier, la France constitue actuellement un dossier de restriction pour les usages cosmétiques auprès de l’Agence européenne des produits chimiques (ECHA). Ceci tient aux risques identifiés, en particulier pour le milieu aquatique.
Ceci a des implications très claires : les produits solaires contenant des substances identifiées dans cette expertise comme à risque pour les récifs coralliens ne doivent pas prétendre qu’ils sont sans danger pour le milieu marin et qu’ils le respectent.
Une autre leçon de l’expertise tient au nombre de substances chimiques qu’il a été possible d’étudier. Celui-ci est très restreint au regard du nombre de contaminants que l’on peut retrouver dans l’environnement marin.
Cela plaide pour une surveillance accrue des substances chimiques dans le milieu marin des territoires d’outre-mer, en particulier à proximité des récifs coralliens. Il est important de mettre en place ou de renforcer les dispositifs de suivi existants, en particulier dans certains territoires ultramarins.
D’autres groupes de substances présents dans les océans, parmi lesquels les hydrocarbures, les produits pharmaceutiques ou les microplastiques, n’ont pas pu être évalués, par manque de données robustes sur les concentrations retrouvées et leur toxicité pour les coraux. Ainsi, le nombre de substances présentant des risques pour les coraux est très sous-estimé.
Si on veut donner une chance aux récifs coralliens de faire face aux effets du changement climatique, qui seront de plus en plus intenses dans les années à venir, il est essentiel de préserver la qualité de l’eau et d’intensifier la lutte contre les pollutions à toutes les échelles.
Cela passe, par exemple, par une application plus stricte des réglementations liées aux substances chimiques ou encore par le contrôle des rejets vers les océans et par l’amélioration des réseaux d’assainissement des eaux usées.
Cet article s’appuie sur un rapport d’expertise de l’Anses publié en 2023 auquel ont contribué des agents de l’Anses et les experts suivants : C. Calvayrac (Université de Perpignan Via Domitia), J.-L. Gonzalez (Ifremer), C. Minier (Université Le Havre Normandie), A. Togola (BRGM) et P. Vasseur (Université de Lorraine).
Karen Burga ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.07.2025 à 15:48
Steven Sherwood, Professor of Atmospheric Sciences, Climate Change Research Centre, UNSW Sydney
Benoit Meyssignac, Associate Research Scientist in Climate Science, Université de Toulouse
Thorsten Mauritsen, Professor of Climate Science, Stockholm University
L’énergie du rayonnement solaire qui arrive sur Terre est en partie absorbée par son atmosphère, où elle est piégée sous forme de chaleur : c’est l’effet de serre. Mais les modèles climatiques semblent s’être trompés. La chaleur s’accumule désormais deux fois plus vite qu’il y a vingt ans, le double de ce que la théorie prévoyait.
Comment mesurer le changement climatique ? L’une des méthodes consiste à enregistrer la température à différents endroits sur une longue période. Même si cette méthode fonctionne bien, les variations naturelles peuvent rendre plus difficile l’observation de tendances à long terme.
Mais une autre approche peut nous donner une idée très claire de ce qui se passe : il s’agit de suivre la quantité de chaleur qui entre dans l’atmosphère terrestre et la quantité de chaleur qui en sort. Cela revient à dresser le budget énergétique de la Terre, et il est aujourd’hui bel et bien déséquilibré.
Notre étude récente a montré que ce déséquilibre a plus que doublé au cours des vingt dernières années. D’autres chercheurs sont arrivés aux mêmes conclusions. Ce déséquilibre est aujourd’hui beaucoup plus important que ce que les modèles climatiques estimaient.
Au milieu des années 2000, le déséquilibre énergétique était d’environ 0,6 watts par mètre carré (W/m2) en moyenne. Ces dernières années, la moyenne était plus proche de 1,3 W/m2. Cela signifie que la vitesse à laquelle l’énergie s’accumule à la surface de la planète a doublé.
Ces résultats suggèrent que le changement climatique pourrait bien s’accélérer dans les années à venir. Pis, ce déséquilibre inquiétant apparaît alors même que l’incertitude concernant les financements états-uniens d’études du climat menace notre capacité à suivre les flux de chaleur.
Le budget énergétique de la Terre fonctionne un peu comme un compte en banque, où l’énergie sert de monnaie, et peut entrer et sortir. En réduisant les dépenses, on accumule de l’argent sur le compte. La vie sur Terre dépend de l’équilibre entre la chaleur provenant du Soleil et celle qui sort vers l’espace. Cet équilibre est en train de basculer d’un côté.
L’énergie solaire frappe la Terre et la réchauffe. Les gaz à effet de serre qui piègent la chaleur dans l’atmosphère retiennent une partie de cette énergie. Mais la combustion de charbon, de pétrole et de gaz a ajouté plus de deux billions (soit deux mille milliards) de tonnes de CO2 et d’autres gaz à effet de serre dans l’atmosphère. Ces gaz emprisonnent de plus en plus de chaleur, l’empêchant de s’échapper.
Une partie de cette chaleur supplémentaire réchauffe la Terre ou fait fondre les banquises, les glaciers et les nappes glaciaires. Mais cela ne représente qu’une infime partie de l’énergie que reçoit la Terre : 90 % de cette chaleur est absorbée par les océans en raison de leur énorme capacité calorifique.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
La Terre perd naturellement de la chaleur de plusieurs manières. L’une d’entre elles consiste à réfléchir la chaleur entrante sur les nuages, la neige et la glace et à la renvoyer dans l’espace. Notre planète perd aussi une partie de son énergie sous forme de rayonnement infrarouge qui est également émis vers l’espace.
Depuis le début de la civilisation humaine jusqu’à il y a tout juste un siècle, la température moyenne à la surface était d’environ 14 °C. Le déséquilibre énergétique qui s’accumule a maintenant fait grimper les températures moyennes de 1,3 à 1,5 °C.
Les scientifiques suivent le bilan énergétique de deux manières. Tout d’abord, nous pouvons mesurer directement la chaleur provenant du Soleil et retournant dans l’espace, en utilisant des radiomètres, des instruments embarqués sur des satellites de surveillance. Cet ensemble de données et ses prédécesseurs existent depuis la fin des années 1980.
Ensuite, nous pouvons suivre avec précision l’accumulation de chaleur dans les océans et l’atmosphère en effectuant des relevés de température. Des milliers de flotteurs robotisés ont surveillé les températures dans les océans du monde entier depuis les années 1990.
Les deux méthodes montrent que le déséquilibre énergétique a rapidement augmenté. Ce doublement a été un choc, car les modèles climatiques les plus élaborés que nous utilisons ne prévoyaient pas un changement aussi important et aussi rapide. En général, ils prévoient moins de la moitié du changement que nous observons en réalité.
Nous n’expliquons pas encore complètement cette situation. Mais de nouvelles recherches suggèrent qu’un facteur important est à trouver dans les nuages.
Les nuages ont en général un effet de refroidissement. Mais la zone couverte par les nuages blancs très réfléchissants a diminué, tandis que la zone couverte par les nuages épars et moins réfléchissants a augmenté.
On ne sait pas exactement pourquoi les nuages changent. Une explication possible pourrait être les conséquences des efforts fructueux déployés pour réduire la teneur en soufre des carburants utilisés pour le transport maritime depuis 2020, car la combustion de carburants plus sales pourrait avoir eu un effet d’éclaircissement des nuages. Toutefois, l’accélération du déséquilibre du budget énergétique terrestre a commencé avant cette évolution.
Les fluctuations naturelles du système climatique, telles que l’oscillation décennale du Pacifique, pourraient également jouer un rôle. Enfin, et c’est le plus inquiétant, le changement de la nature des nuages pourrait faire partie d’une tendance causée par le réchauffement climatique lui-même : il s’agirait d’une rétroaction positive, qui amplifie le réchauffement.
Ces résultats suggèrent que les températures extrêmement élevées de ces dernières années ne sont pas des cas isolés, mais qu’elles pourraient refléter un renforcement du réchauffement au cours de la prochaine décennie, voire pendant plus longtemps encore. Cela signifie qu’il y aura davantage de risques que les événements climatiques soient plus intenses, qu’il s’agisse de vagues de chaleur caniculaire, de sécheresses ou de pluies extrêmes, ou de vagues de chaleur marine plus intenses et plus durables.
Ce déséquilibre pourrait avoir des conséquences plus graves à long terme. De nouvelles recherches montrent que les seuls modèles climatiques qui s’approchent d’une simulation qui reflète les mesures réelles sont ceux dont la « sensibilité climatique » est plus élevée. Ces modèles prévoient un réchauffement plus important au-delà des prochaines décennies, dans les scénarios où les émissions ne sont pas réduites rapidement. Toutefois, nous ne savons pas encore si d’autres facteurs entrent en jeu. Il est encore trop tôt pour affirmer que nous sommes sur une trajectoire de sensibilité élevée.
Nous connaissons la solution depuis longtemps : arrêter la combustion d’énergies fossiles et supprimer progressivement les activités humaines qui provoquent des émissions, comme la déforestation.
Conserver des données précises sur de longues périodes est essentiel si nous voulons détecter les changements inattendus.
Les satellites, en particulier, constituent notre système d’alerte précoce, car ils nous informent des changements dans les processus de stockage de la chaleur environ une décennie avant les autres méthodes.
Mais les coupes budgétaires et les changements radicaux de priorités aux États-Unis pourraient menacer la surveillance essentielle du climat par satellite.
Steven Sherwood a reçu des financements du Conseil australien de la recherche et de la Mindaroo Foundation.
Benoit Meyssignac a reçu des financements de la Commission européenne, de l'Agence spatiale européenne (ESA) et du CNES.
Thorsten Mauritsen a reçu des financements du Conseil européen de la recherche (ERC), de l'Agence spatiale européenne (ESA), du Conseil suédois de la recherche, de l'Agence spatiale nationale suédoise et du Centre Bolin pour la recherche sur le climat.
16.07.2025 à 17:21
Léo Delpy, Maitre de conférences, Université de Lille
Bruno Boidin, Professeur des universités, Université de Lille
Face aux évènements climatiques extrêmes, les pays du Sud et les organisations internationales déploient des fonds d’urgence et des projets One Health liant santé humaine, animale et environnementale. Mais ces initiatives restent souvent cloisonnées. Comment repenser la protection sociale pour qu’elle s’adapte aux défis climatiques ?
Selon le GIEC, le changement climatique provoque de nombreuses conséquences sur la santé humaine : augmentation de la mortalité liée aux vagues de chaleur, aggravation des crises alimentaires, difficultés accrues d’accès à l’eau, émergence de zoonoses… Le dernier rapport mondial sur la protection sociale de l’Organisation internationale du travail souligne quant à lui un paradoxe : dans les 20 pays les plus vulnérables face au changement climatique, seuls 8,7 % de la population en moyenne bénéficie d’un dispositif de protection sociale.
Pourtant, le lancement depuis les années 2010 de politiques d’extension de la protection sociale et de couverture santé universelle dans les pays à faible revenu promettait de réelles avancées. Le Rwanda, par exemple, est souvent considéré comme une réussite après la mise en place de l’adhésion obligatoire aux mutuelles pour les travailleurs de l’économie informelle (l’ensemble des emplois qui ne sont pas réglementés ou protégés par l’État) et un engagement fort de l’État. Ce type de politique a été initié dans la quasi-totalité des pays d’Afrique subsaharienne, mais le bilan demeure contrasté. Face à ce constat, comment construire une protection sociale non seulement plus étendue mais également adaptée aux conséquences du changement climatique ?
Devant l’intensification généralisée des effets du changement climatique, l’économiste Eloi Laurent indique que le secteur privé ne pourra pas assurer la couverture de ce type de risques, et ce pour plusieurs raisons. D’une part, les sinistres liés au changement climatique ont des impacts variables dont il est difficile d’estimer les conséquences et les coûts associés. De plus, ces sinistres affectent différemment les territoires, si bien que certains ne sont pas rentables pour les compagnies d’assurance, comme les régions côtières.
Eloi Laurent propose dans ce contexte une protection sociale écologique qui adapterait la protection sociale aux risques écologiques. Il s’agit de mutualiser les coûts en lien avec la couverture de ces risques et de lutter contre les inégalités liées au changement climatique.
En Afrique subsaharienne, quelques initiatives vont dans ce sens. L’un des dispositifs emblématiques dans l’extension de la protection sociale face au changement climatique est le programme de protection sociale adaptative au Sahel. Mis en œuvre en 2014 par la Banque mondiale et des gouvernements nationaux, il est encore aujourd’hui déployé dans six pays (Burkina Faso, Mali, Mauritanie, Niger, Sénégal, Tchad).
Ce programme propose d’associer des transferts monétaires ciblés sur des populations fragiles en cas d’évènements climatiques à un dispositif d’alerte précoce. Ce mécanisme se fonde sur des indicateurs régulièrement mis à jour afin d’anticiper la survenue d’une crise, par exemple une sécheresse. Une partie de l’aide est alors débloquée lorsque les indicateurs du système d’alerte (pluviométrie en ce qui concerne les sécheresses) dépassent les seuils fixés.
Cependant, le programme ne permet de couvrir qu’une part relativement réduite des risques nationaux. Au total, selon le rapport annuel de 2024, ce sont près de 1,2 million d’individus qui bénéficient d’un dispositif de réponse aux crises. Cela représente une infime partie des populations et risques dans la région. Par ailleurs, on peut s’interroger sur la durabilité de tels programmes dont le financement est entièrement assuré par des organisations internationales. Au vu du coût actuel du programme (plusieurs dizaines de millions d’euros annuels), il parait difficile de proposer une couverture pérenne à l’ensemble des populations.
L’approche One Health est une conception intégrée considérant comme centrales les interdépendances entre santé humaine, santé animale et santé environnementale. Le groupe d’experts de haut niveau Une seule santé la définit ainsi : « “Une seule santé” (One Health) […] reconnaît que la santé des êtres humains, des animaux domestiques et sauvages, des plantes et de l’environnement au sens large (y compris les écosystèmes) sont étroitement liées et interdépendantes. »
En Afrique, plusieurs initiatives ont été lancées à partir de cette approche, principalement en vue de lutter contre les maladies infectieuses, en particulier les zoonoses. Quelques pays sont considérés comme relativement avancés (Kenya, Tanzanie), ayant mis en place une plate-forme One Health associant les différents acteurs concernés (ministères de la santé, de l’environnement, services vétérinaires…). D’autres pays sont également actifs mais moins avancés (Cameroun, Sénégal…).
Le projet Thiellal au Sénégal est une illustration intéressante de ces initiatives. Dans une région d’élevage et d’agriculture, l’absence de gestion organisée des ordures ménagères exerce un impact considérable sur les communautés d’éleveurs et d’agriculteurs (pollution plastique, chimique, résistance aux antimicrobiens provoquée par les déchets de médicaments…). Le projet Thiellal vise à mobiliser les communautés locales pour agir sur les déterminants de la santé en recourant à une approche One Health.
Plusieurs solutions fondées sur une logique One Health ont ainsi été mises en place. Elles ont consisté à former des acteurs communautaires et professionnels pour la mise en œuvre d’actions adaptées aux contextes locaux (tri des déchets, agroécologie), à sensibiliser les agriculteurs aux risques liés à l’utilisation des produits chimiques et à trouver des solutions alternatives, et enfin à soutenir des décisions à l’échelle communautaire, en plus des acteurs publics locaux et nationaux. Ce projet illustre cependant le fait que les projets One Health n’intègrent généralement pas de dispositifs de protection sociale, et réciproquement.
On constate que les dispositifs de protection sociale adaptative décrits plus haut continuent d’être mis en œuvre de façon indépendante des initiatives One Health. Les premiers sont portés par certains acteurs de l’aide au développement (Banque mondiale, Unicef, Programme alimentaire mondial), les seconds le sont par d’autres institutions (Organisation mondiale de la santé, Organisation mondiale de la santé animale, Organisation des Nations unies pour l’alimentation et l’agriculture, Programme des Nations unies pour l’environnement…). Le cloisonnement des deux types d’actions aboutit à une absence de synergie et une moindre efficacité des deux dispositifs.
En effet, la protection sociale comporte un volet de gestion et d’anticipation des risques qui en l’état n’intègre pas les enseignements de l’approche One Health. Ainsi, pour reprendre l’exemple du projet Thiellal, l’utilisation de pesticides, l’agriculture productiviste et la pollution de l’eau sont aussi des facteurs qui contribuent à accroître le risque de phénomènes climatiques extrêmes. Ces derniers à leur tour mettent gravement en danger les conditions de vie et la santé humaine, car ils créent des désastres environnementaux et réduisent l’accès à l’alimentation (pertes de cheptel et de production agricole). Prendre en compte ces effets semble indispensable à la réussite des dispositifs de protection sociale.
La compréhension des interactions entre santé humaine, santé animale et santé environnementale devrait être systématiquement intégrée aux dispositifs de protection sociale en tant que facteurs de risque mesurable (pour rendre plus fiables les indicateurs d’alerte précoce) mais aussi en tant que leviers d’une amélioration des synergies entre santé et environnement.
Par exemple, l’agroécologie, en réduisant l’usage des pesticides et d’autres produits polluants, assurerait la protection de l’environnement, des animaux, et aurait des effets significatifs sur la santé humaine. Au Bénin, la ferme Songhaï est une illustration de réussite d’un centre de formation et de production agricole fondé sur l’agroécologie. La ferme génère des revenus locaux, produit des denrées alimentaires de qualité sans nuire à l’environnement. D’une certaine façon, cette expérience adopte une approche One Health sans le savoir.
Intégrer cette conception aux systèmes locaux de protection sociale permettrait ainsi d’agir sur deux dimensions. D’une part, recréer des écosystèmes viables sur le plan économique, social et environnemental. D’autre part, assurer les bénéfices de ces écosystèmes pour les populations qui en seraient directement contributrices, tout en étant couvertes par une protection sociale armée contre les risques climatiques.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
15.07.2025 à 17:54
Christiane Denys, Professeure Emerite du Museum, Muséum national d’histoire naturelle (MNHN)
Cet étonnant rongeur d’allure flegmatique, qui peut peser jusqu’à 100 kg en captivité, est devenu en quelques mois la coqueluche des réseaux sociaux. Au point que certains le choisissent même comme animal de compagnie. Mais, derrière cet effet de mode, il convient de s’interroger : ses mœurs ne sont pas du tout adaptées à la vie en appartement, tandis que les activités humaines contribuent bel et bien à la dégradation de son habitat naturel.
Le capybara n’est-il qu’un gros cochon d’Inde placide et affectueux ? Depuis 2020, on assiste sur les réseaux sociaux à une véritable « capybara mania ». Certains animaux vivent même comme des animaux de compagnie, en appartement ou dans des jardins, que ce soit en Chine, au Canada ou en Russie, avec leur lot d’images et de peluches kawai.
Par ailleurs, depuis 2021, les habitants de la ville résidentielle de Nordelta, en Argentine, ont vu leurs pelouses et leurs piscines envahies par un grand nombre de capybaras. Les causes de cette invasion – tout comme de l’engouement récent pour le rongeur – sont mal connues, mais certains l’attribuent au fait que ce quartier ait été construit sur une zone qui constituait jadis leur habitat naturel.
D’une manière générale, on connaît assez mal ce rongeur d’un point de vue scientifique. Qui est celui que Linné appelait « cochon d’eau » en 1766 lors de sa découverte ? Où vit-il à l’état sauvage ? Comment vit-il ? Est-il menacé par les changements planétaires en cours ? Portrait-robot.
Le capybara appartient au genre Hydrochoerus qui comprend actuellement deux espèces : le grand capybara (ou Hydrochoerus hydrochaeris), qui est le plus populaire, et le capybara du Panama (ou Hydrochoerus isthmius) qui serait plus petit, mais qui reste assez mal connu.
Le genre Hydrochoerus appartient à un sous-ordre de rongeurs très anciens ne vivant qu’en Amérique du Sud et caractérisés par une mâchoire de forme particulière, où un muscle de la mâchoire traverse partiellement une structure osseuse sous-orbitaire pour se connecter à l’os du crâne au dessus. On qualifie d’« hystricognathes » les rongeurs ayant cette particularité.
Au sein de ce genre, le capybara est un membre de la famille des Caviidae qui comprend aussi les cochons d’Inde et les lièvres des pampas (les maras).
Cette famille s’est diversifiée il y a environ 18 millions à 14 millions d’années en Amérique du Sud et regroupe actuellement 20 espèces, ce qui en fait une des plus diversifiées d’Amérique du Sud.
Une phylogénie moléculaire place le capybara (Hydrochoerus) comme groupe frère des Kerodon (cobaye des rochers, voir image ci-contre) tandis que le cochon d’Inde (genre Cavia), pour sa part, est un cousin plus éloigné du capybara.
Le grand capybara se rencontre à l’état sauvage depuis l’est des Andes et de la Colombie jusqu’au Brésil, la Bolivie, le Paraguay, l’Argentine, l’Uruguay. Le capybara du Panama, pour sa part, vit à l’est du Panama et l’ouest de la Colombie et au nord-ouest du Venezuela.
C’est le grand capybara que l’on rencontre le plus souvent dans les parcs zoologiques et qui retient l’attention du public en ce moment. De tous les rongeurs, le grand capybara est actuellement le plus gros par sa taille (1 m à 1,3 m) et son poids (35 kg à 65 kg) à l’état sauvage (jusqu’à 100 kg en captivité). Mais à côté de ses ancêtres, c’est un poids plume !
En effet, on estime que ses ancêtres fossiles étaient des capybaras géants. Appelés Phugatherium et Protohydrochoerus, ils ont vécu il y a 4 millions à 2,5 millions d’années en Argentine et en Bolivie. Ces derniers pouvaient mesurer jusqu’à 2 mètres de long et peser de 200 kg à 300 kg, soit la taille d’un tapir selon certains scientifiques – une évaluation ramenée par d’autres à environ 110 kg.
Comparé au cochon d’Inde, le capybara se distingue par sa taille imposante, la présence d’une petite queue, un pelage long mais rêche de couleur brun doré uniforme, la présence d’une petite membrane entre les trois doigts des pattes, qui lui servent de palmes pour nager, et enfin par sa mâchoire, avec de longues dents très hautes (sans racines visibles, on dit qu’elles sont hypsodontes) avec de nombreuses crêtes obliques et une troisième molaire très grande.
Enfin, le museau est haut et tronqué à l’avant, les oreilles petites et rondes et les yeux très en hauteur et en arrière de la tête.
Contrairement au cochon d’Inde sauvage, qui vit dans les prairies sèches et les zones boisées des Andes, le capybara préfère vivre au bord de bord de l’eau dans les zones tropicales et subtropicales de plus basse altitude. Il fréquente les zones forestières et les prairies humides des Llanos du Venezuela ou du Pantanal brésilien. C’est un rongeur subaquatique et végétarien qui aime les herbes, les graines et les végétaux aquatiques.
Son mode de digestion s’apparente à celui des ruminants. Il possède une digestion cæcale et pratique la caecotrophie (c’est-à-dire, l’ingestion de ses crottes pour une meilleure assimilation des fibres, comme chez les lapins.
À l’état sauvage, ils vivent en groupes de 2 à 30 individus dirigés par un mâle dominant qui assure la reproduction auprès des femelles et défend le territoire où le groupe trouve ses ressources alimentaires.
La taille du territoire dépend de la qualité des ressources alimentaires et peut varier de 10 hectares à 200 hectares, avec une densité de peuplement qui peut atteindre jusqu’à 15 individus par hectare.
Les capybaras femelles peuvent avoir deux reproductions par an. Leurs portées comprennent en moyenne de 3 à 5 jeunes, qui naissent après quatre à cinq mois de gestation. La croissance est rapide et les jeunes atteignent la maturité sexuelle entre quatorze et dix-huit mois, pesant autour de 35 kg.
En groupe, ils émettent des vocalisations fortes à l’approche d’un prédateur (jaguar, puma, chacal ou anaconda). Le groupe se réfugie alors dans l’eau, où les individus sont de bons nageurs et plongeurs.
Ces rongeurs peuvent être diurnes ou nocturnes, en fonction des pressions de chasse ou de la saison. Bien que l’espèce vive dans beaucoup d’aires protégées, elle est aujourd’hui chassée pour sa viande et son cuir. Toutefois, il existe aujourd’hui de nombreux élevages qui réduisent la pression sur les populations sauvages.
Les populations sauvages de capybaras ne semblent pas être en diminution et l’espèce n’est pas considérée comme en danger de disparition. Cependant, il semblerait que les fortes diminutions de pluie observées sur son habitat depuis 2020 aient eu un impact.
En effet, la survenue de feux de forêt de plus en plus fréquents et grands – du fait du défrichement des forêts en saison sèche, notamment pour augmenter la surface de pâturage disponible pour le bétail – provoque dans le Pantanal brésilien une mortalité animale importante.
Dans les Llanos vénézuéliens, le défrichement des forêts se poursuit aussi, non seulement pour le développement de l’agriculture et de l’élevage, mais également en raison de l’exploitation des bois précieux et du développement de l’industrie pétrolière. Dans le même temps, la construction de barrages hydroélectriques assèche certaines zones. Tous ces événements contribuent à réduire l’habitat naturel du grand capybara.
Au-delà de ces grandes zones forestières, en Argentine, ces rongeurs sont de plus en plus visibles dans la banlieue de Buenos Aires. Des résidences ont été construites le long du fleuve où ils vivaient, et l’urbanisation de leurs territoires les empêche de s’alimenter normalement. En l’absence de prédateurs, nourris par certains habitants qui, les trouvant mignons, les laissent entrer sur leurs pelouses et dans leurs piscines, ces rongeurs se multiplient facilement.
La plupart des résidents trouvent que le capybara est calme et peu agressif, sauf les mâles vocalisant et se bagarrant pour la domination du troupeau. Les capybaras ont de moins en moins peur de s’approcher des humains, ce qui explique, là encore, pourquoi on les voit de plus en plus – et pourquoi le nombre d’accidents augmente.
Dans le monde, de plus en plus de personnes vont même jusqu’à en adopter, les considérant comme un animal de compagnie docile et apaisant. Il est recommandé de ne choisir que des femelles et il vaut mieux disposer d’un grand plan d’eau à proximité du domicile. En France, il est nécessaire d’avoir un certificat de capacité vétérinaire pour en élever un.
Sur Internet, les vidéos postées par leurs propriétaires montrent des capybaras solitaires se baignant dans les baignoires d’appartements ou promenés seuls en laisse, ce qui s’apparente, à mon avis, à de la maltraitance. Les territoires naturels des capybaras sont grands, leurs besoins d’eau importants et ils vivent en troupeaux dans la nature.
Profitons donc de l’engouement suscité par ce rongeur au mode de vie étonnant pour agir au niveau international contre la dégradation des plus grandes zones humides de la planète. Elles sont aujourd’hui menacées par le changement climatique et par l’augmentation effrénée des activités humaines, qui dégradent l’environnement de façon durable et irréversible. Une mauvaise nouvelle pour le capybara et pour de nombreuses autres espèces.
Christiane Denys ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
14.07.2025 à 18:32
Sylvain Antoniotti, Directeur de Recherche au CNRS en Chimie, Université Côte d’Azur
Cecile Sabourault, Professeur des Universités en Biologie, Université Côte d’Azur
Christophe Den Auwer, Professeur de Chimie, Université Côte d’Azur
Jean-Christophe Martin, Directeur de l’Institut de la Paix et du Développement (IdPD), professeur de droit international et européen, Université Côte d’Azur
Julien Andrieu, professeur de géographie à Université Côte d’Azur, Université Côte d’Azur
Saranne Comel, Université Côte d’Azur
À Nice, le sommet sur l’océan s’est terminé le 13 juin 2025 sur un bilan en demi-teinte. Au-delà des engagements internationaux, l’UNOC-3 a surtout été l’occasion d’un dialogue entre quatre entités différentes mais complémentaires : scientifiques, décideurs, société civile et acteurs financiers. Il convient désormais de transformer l’essai en tenant compte des réalités locales de chaque territoire.
Après New York en 2017 et Lisbonne en 2022, la 3e Conférence des Nations unies sur l’océan (UNOC3) s’est tenue à Nice du 9 au 13 juin. Elle a été le théâtre d’une mobilisation sans précédent des acteurs de l’océan dans l’histoire des conférences multilatérales telles que les COP (Conférences des Parties) onusiennes.
L’océan joue en effet un rôle capital dans les grands équilibres planétaires : il est le pilier de la machine climatique ainsi qu’un précieux vivier de biodiversité.
La dynamique de la conférence a permis d’appeler à l’action internationale pour préserver l’océan, dans un contexte où il n’existe pas de COP dédiée à la Convention des Nations unies sur le droit de la mer (1982). Une absence que le sommet a permis de pallier en proposant un espace multilatéral de gouvernance de l’océan à vocation universelle et transversale, même si l’UNOC ne dispose pas des moyens et leviers d’une COP.
Surtout, cette troisième conférence s’est tenue dans un contexte de défiance croissante de certains États à l’égard du droit international et du multilatéralisme. Réunir la communauté internationale autour des défis contemporains liés à l’océan représentait un premier objectif important – et celui-ci a été atteint.
Le bilan concret du sommet peut apparaître en demi-teinte : l’accord sur la haute mer (aussi appelé accord BBNJ) n’a pas encore obtenu le nombre de 60 ratifications nécessaires à son entrée en vigueur.
Quoi qu’il en soit, celui-ci a été l’occasion d’initier un dialogue concret entre les quatre mondes que sont la sphère scientifique, celle des décideurs, la société civile et enfin les investisseurs. Un essai qu’il convient désormais de transformer en prenant exemple sur les solutions développées localement.
Le premier objectif affiché de l’UNOC-3 a été un demi-succès : il s’agissait de permettre l’entrée en vigueur de l’accord sur la haute mer. Les efforts diplomatiques ont permis d’atteindre 51 ratifications durant la conférence, mais pas le seuil des 60 nécessaires à l’entrée en vigueur de l’accord. L’UNOC-3 aura donc été une étape importante, mais insuffisante. L’objectif est désormais celui d’une entrée en vigueur début 2026.
Malgré tout, la conférence aura permis le lancement d’initiatives politiques significatives tel que l’Appel de Nice, signé par 96 États soutenant une haute ambition pour le traité sur la pollution plastique. Jusqu’ici, les négociations ont buté sur une opposition de vues – équilibrée si l’on considère 193 États membres de l’ONU – qui rendent incertaine l’issue des négociations.
De même, 37 États ont initié une Coalition de haute ambition pour un océan plus silencieux, appelant à lutter contre cette forme de pollution ayant des impacts forts sur la vie marine, de plus en plus documentée : la pollution sonore sous-marine.
Le sommet s’est toutefois distingué par une mobilisation inédite des parties prenantes de l’océan. La zone dédiée à la société civile a accueilli plus de 130 000 visiteurs. Plusieurs événements en amont de l’UNOC3 ont rassemblé une grande diversité d’acteurs internationaux et locaux : scientifiques, représentants de communautés locales, acteurs financiers du secteur privé comme de la philanthropie, organisations de la société civile… Citons par exemple :
le One Ocean Science Congress, qui réunissait plus de 2000 scientifiques du 3 au 6 juin
le Sommet Ocean Rise & Coastal Resilience, auquel assistaient le 7 juin plus de 450 maires ou gouvernements, représentant un territoire d’un milliard d’habitants
le Blue Economy & Finance Forum, les 7 et 8 juin, qui a réuni 8,7 milliards d’euros d’engagements,
et la Journée mondiale de l’Océan (8 juin).
Cette dynamique exceptionnelle a porté la voix de ces acteurs auprès des 175 États membres présents, en appelant à une action transformatrice visant à garantir la bonne santé de l’océan et des communautés qui en dépendent. En effet, le développement et surtout le financement de ces projets au niveau local et régional sont indispensables pour relever ce défi.
La science a d’ailleurs tenu une place toute particulière à l’UNOC3. Outre l’organisation du One Ocean Science Congress, la tenue du premier Forum international des universités marines et le lancement officiel d’une plateforme internationale pour la durabilité des océans (IPOS), la science a fait l’objet de déclarations politiques fortes dès les premiers discours officiels. Elle a aussi donné lieu à des engagements clairs dans la déclaration politique finale (paragraphes 30 c et d), même s’il faudra rester attentif à leur mise en œuvre concrète.
L’UNOC-3 a consolidé un modèle de synergie entre quatre sphères d’acteurs : scientifiques, décideurs publics, société civile et financeurs. Ainsi :
le congrès scientifique One Ocean Science Congress a permis de présenter les derniers diagnostics sur l’état de santé de l’océan – même si la remobilisation de ces messages durant l’UNOC-3 n’a pas été aussi forte qu’elle aurait pu l’être.
La session Ocean Science Diplomacy a rassemblé chercheurs et diplomates autour de l’intégration de la science dans les négociations internationales. L’UNESCO y a souligné l’insuffisance des budgets publics dédiés à la recherche océanographique.
En parallèle, les institutions publiques ont réaffirmé leur volonté d’agir. Par exemple, à travers la coalition Space4Ocean qui vise à améliorer les connaissances sur les océans.
La société civile a porté la voix des communautés littorales de manière périphérique.
Enfin, le Blue Economy & Finance Forum a mobilisé les acteurs financiers publics et privés afin de sortir du sous-financement structurel des actions en faveur de l’océan. Un total de 8,7 milliards d’euros d’investissements a été proposé pour les cinq prochaines années, dont 4,7 milliards d’euros seront mobilisés par des philanthropes et investisseurs privés réunis au sein de l’initiative Philanthropists and Investors for the Ocean. L’action des philanthropes est essentielle pour garantir un accès plus équitable au financement et renforcer les capacités locales.
Cette synergie permet une vision plus commune et partagée des enjeux, à la croisée de l’état des océans, du changement climatique, de la crise de la biodiversité au-delà des seuls milieux marins, et des injustices et inégalités.
Par exemple : la conservation et la restauration des mangroves ont été évoquées de manière transversale par des ministres, scientifiques ou par des fondations philanthropiques comme des solutions à fort impact à la fois pour le climat (séquestration carbone), pour la biodiversité et pour les communautés locales, notamment autochtones, dont le bien-être dépend de l’état de la mangrove.
À la suite de la plus grande conférence jamais organisée sur l’océan, les signaux sont encourageants mais la route encore longue.
Les prochaines échéances seront décisives : il faudra une mobilisation massive pour inclure des mesures contraignantes dans le traité international contre la pollution plastique lors de la reprise des négociations à Genève en août 2025. De même, la poursuite de l’objectif d’entrée en vigueur attendue du traité de la haute mer en janvier 2026 nécessite encore une ratification par au moins neuf États supplémentaires.
Par ailleurs, même si les liens entre océans, climat et biodiversité ont été rappelés tout au long des deux semaines du sommet, et si la décarbonation du transport maritime y a été abordée, l’enjeu des combustibles fossiles n’a pas été traité. Pourtant, les petits États insulaires appellent ouvertement à leur élimination progressive afin de garantir la santé de l’océan.
L’UNOC-3 devra être suivi d’un retour aux réalités locales des territoires. Chaque délégué ayant participé au sommet représente une communauté et un territoire. Ce retour doit se faire avec humilité et lucidité. Il n’existe pas de solution miracle : chaque écosystème territorial littoral doit trouver sa manière de traduire les principes globaux à l’échelle locale.
Les discours sur le soutien à la pêche artisanale et les communautés côtières marginalisées, par exemple, ont été nombreux à l’UNOC-3. Mais de quelle pêche artisanale parle-t-on et que signifie la soutenir ? La défendre face à la pêche industrielle ? Mieux la planifier pour protéger l’environnement ? La sauver de la pollution ? L’accompagner dans l’adaptation au changement climatique ? Répondre à ces questions suppose une compréhension fine des réalités locales.
Les engagements annoncés à l’UNOC3 devront désormais se transformer en actions concrètes et en partage de solutions, notamment pour accompagner l’adaptation des territoires au changement climatique et à l’élévation du niveau de la mer, avec le soutien des communautés se trouvant en première ligne.
Pour atteindre les objectifs annoncés, nous pensons qu’il est nécessaire d’impliquer tous les acteurs – scientifiques, acteurs associatifs, décideurs, entrepreneurs. Les établissements d’enseignement supérieur et de recherche, de par leurs missions fondamentales, devront contribuer plus que jamais à la formation des plus jeunes – les futurs acteurs du changement, à la sensibilisation des décideurs actuels, à la création et la diffusion de connaissances et d’innovations.
De telles ambitions se heurtent trop souvent au cloisonnement de la recherche, aux contingences des politiques scientifiques et à une certaine étanchéité entre les établissements publics de recherche, la société civile et les décideurs. À notre échelle, notre rôle est de repousser ces barrières et d’œuvrer pour une construction scientifique inter et transdisciplinaire pour favoriser les connexions et susciter l’émergence de projets à plusieurs niveaux de complexité. Les recherches doivent aussi être inclusives vis-à-vis des peuples autochtones et des communautés locales pour répondre aux attentes sociétales et co-construire un avenir juste, résilient et désirable pour l’océan et les générations futures.
Sylvain Antoniotti a reçu des financements de l'Agence Nationale de la Recherche.
Cecile Sabourault a reçu des financements de l’Agence nationale de la recherche et de l’Union européenne.
Christophe Den Auwer a reçu des financements du CEA
Jean-Christophe Martin a reçu des financements de l'Agence Nationale de la Recherche.
Julien Andrieu et Saranne Comel ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
12.07.2025 à 17:14
Patrick de Wever, Professeur, géologie, micropaléontologie, Muséum national d’histoire naturelle (MNHN)
Au-delà du sport, le Tour de France donne aussi l’occasion de (re)découvrir nos paysages et parfois leurs bizarreries géologiques. Le XXIe siècle est marqué par un regain de sensibilité à la nature, qui a poussé à la protection de certains sites, sélectionnés parmi de nombreuses possibilités. Mais paradoxalement, certaines aires sont protégées alors qu’elles semblent polluées… par un phénomène naturel ?
Le naturaliste respecte tout ce qui vient de la nature. De cette dernière il exclut généralement l’humain et ses œuvres, tant elles portent atteinte à un équilibre sain. En témoignent les nombreuses traces laissées par le passé industriel de notre pays : certaines sont visibles (bâtiments en ruines…), quand d’autres, plus insidieuses, sont chimiques (sols pollués).
Et pourtant, en France, certaines pollutions et désordres industriels sont aujourd’hui classés… comme des réserves naturelles.
La troisième étape du Tour de France 2025, le 7 juillet dernier, a permis de l’illustrer avec deux exemples : les pelouses métallicoles de Mortagne-du-Nord et la « Mare à Goriaux », deux réserves biologiques du Parc Naturel régional Scarpe-Escaut traversées par la route dans la forêt de Saint-Amand, à une dizaine de kilomètres de son départ. Nous évoquerons aussi un troisième cas dans le Massif central, que les cyclistes parcourront lors de la 10e étape, le lundi 14 juillet 2025.
Éliminer les cicatrices que l’humain a laissées en maltraitant la Terre n’est pas chose aisée et les approches sont aussi variées que les causes sont différentes. Les blessures visuelles se résorbent quand les moyens financiers sont mobilisés. La pollution chimique en revanche requiert, outre des subsides, un bien non achetable : du temps.
Magie de la nature, certaines plantes dites hyperaccumulatrices ont la propriété de prospérer sur des sols qui empoisonneraient la plupart des autres. Elles ne sont pas rares : on en connaît près de 400 espèces. La plupart bioaccumulent un ou deux métaux, mais certaines prélèvent un plus large éventail, en pourcentage variable selon le polluant.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Ces capacités d’extraction par des plantes qui absorbent et concentrent dans leurs parties récoltables (feuilles, tiges) les polluants contenus dans le sol sont utilisées pour la dépollution : on parle de phytoremédiation. Le plus souvent, les végétaux sont récoltés et incinérés : les cendres sont stockées ou valorisées pour récupérer les métaux accumulés.
Mortagne du Nord, commune qui appartient au Parc naturel régional Scarpe-Escaut, en offre un exemple édifiant. Une usine y traitait du zinc, du cadmium, du plomb et quelques terres rares.
Désormais, en lieu et place de l’amoncellement de déchets qui y étaient entreposés, prospèrent de jolis prés. Des pelouses dites « métalicolles » ou « calaminaires » qui entourent un collège en pleine nature.
Le nord de la France est connu pour son absence de relief, comme la plaine de Flandre, vers Dunkerque, ou la région marécageuse de Saint-Amand-les-Eaux. Cette horizontalité est démentie par une dépression, notamment visible sur certaines routes.
Ainsi, à proximité de la terrible « trouée de Wallers-Arenberg », passage célèbre du Paris-Roubaix, une route montre une dépression très nette qui semble évoquer le passage d’une rivière. Or il n’y a pas de rivière. Quelle peut en être l’explication ?
La dépression de la route ci-dessus permet de quantifier l’effondrement topographique. On notera, sur la partie droite de la photo, que la ligne de chemin de fer est restée horizontale car un remblai régulier était effectué. C’est d’ailleurs ce remblai, pris annuellement en charge par les houillères, qui a permis de les rendre responsables de cet effondrement. La gauche de la route, derrière les arbres, est bordée par le terril qui délimite la Mare à Goriaux (gorets en picard), une zone naturelle protégée installée sur un terril plat.
Les bois de la gauche de la route sont ceux de la « Mare à Goriaux », une réserve naturelle créée suite à un affaissement minier en 1916. En effet, il existait là un ancien terril horizontal – avant de prendre leur forme conique avec la mécanisation des apports, les terrils étaient horizontaux car alimentés par des wagonnets poussés par des hommes ou tirés par des chevaux. L’affaissement a formé trois mares, qui ont fini par se réunir en 1930 en un seul plan d’eau, la Mare à Goriaux.
La colonisation des lieux par la flore et la faune, riche et diversifiée, a conduit à décréter ce lieu réserve biologique domaniale de Raismes-St Amand-Wallers en 1982.
La nature rejette du pétrole depuis toujours : on en connaît dans les Caraïbes tant au fond de la mer, où il suinte et est constamment digéré par des bactéries spécialisées, qu’à terre. Il était déjà utilisé par les Amérindiens Olmèques 12 siècles avant notre ère, afin d’imperméabiliser les toitures, étanchéifier les navires, les canalisations, les récipients ou décorer des masques. Dans l’Antiquité Classique, il a servi à étanchéifier les jardins suspendus de Babylone, à enduire l’arche de Noé ou à conserver les momies.
Si le bitume affleurait en surface dans toutes les régions aujourd’hui connues comme étant pétrolifères, de l’Arabie saoudite à l’Iran (alors la Perse) en passant par l’Irak (alors la Mésopotamie), en France, le pétrole est plus rare. Il existe néanmoins un endroit où il coule en surface.
À l’est de Clermont-Ferrand, que traversera le peloton lors de la 10e étape, est visible entre l’autoroute et l’aéroport la « Source de la Poix », un lieu géré par le Conservatoire des espaces naturels. Le bitume qui s’y écoule librement est associé à de l’eau salée, du méthane et des traces d’hydrogène sulfuré, dont l’odeur parfois forte peut évoquer celle d’œufs pourris. Le mélange, qui circule sur une quinzaine de mètres avec un débit extrêmement faible (de l’ordre d’un hectolitre/an), surgit par des fractures dans la roche volcanique, ce qui explique qu’il n’est plus exploité. Dans le passé, il fut utilisé pour calfater (c’est-à-dire, étanchéifier) les embarcations de l’Allier.
Cet hydrocarbure vient des sédiments de Limagne qui se sont déposés dans un grand lac peu profond qui permettait une vie abondante, il y a une trentaine de millions d’années (Oligocène). Celle-ci a évolué avec le temps pour devenir le bitume que l’on trouve aujourd’hui – il ne s’agit pas vraiment de pétrole car il a subi une légère oxydation. N’ayant pas été piégé par une couche ou une structure imperméable, le liquide remonte lentement en surface.
Les suintements de bitumes sont nombreux en Limagne : outre au Puy de la Poix, on en connaît au Puy de Crouël, à la carrière de Gandaillat et à Dallet, à quelques kilomètres, où une mine a été exploitée jusqu’en 1984.
Cette source de bitume a été plus ou moins aménagée au cours des siècles, mais depuis, le site est presque tombé dans l’oubli. Il présente pourtant un joli potentiel pédagogique, d’un point de vue géologique, biologique, environnemental et sociétal.
À lire aussi : La filière pétrolière française que tout le monde avait oubliée
Patrick de Wever ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.07.2025 à 16:09
Patrick de Wever, Professeur, géologie, micropaléontologie, Muséum national d’histoire naturelle (MNHN)
Au-delà du sport, le Tour de France donne aussi l’occasion de (re)découvrir nos paysages et parfois leurs bizarreries géologiques. L’itinéraire de la septième étape du Tour de France 2025 débute à Saint-Malo pour rejoindre Murs-de-Bretagne. Juste après Yffiniac, les cyclistes passeront par Pledran, une commune connue pour son camp de Péran, dont les murs sont… vitrifiés. Explications.
Sur les murs en pierre, les roches sont la plupart du temps maintenues entre elles par un mortier : fait pour consolider la construction, ce dernier est un mélange pâteux constitué de boue, de chaux ou de ciment hydraulique avec de l’eau. L’ensemble, qui durcit en séchant, fait alors office de colle. Les types de mortiers et leurs usages ont varié au cours du temps : on retrouve des traces de leur usage depuis le Néolithique (10 000 ans), mais leur composition se diversifie et se spécialise dès -4000 av. E.C. dans l’Égypte ancienne.
Des constructions ont aussi été établies sans l’usage de mortier : c’est le cas chez les Grecs, qui utilisaient la seule force de gravitation verticale, ou chez les Incas, qui avaient recours à des pierres polygonales mais parfaitement ajustées avec les voisines afin de stabiliser la construction.
Plus rares en revanche sont les constructions dans lesquelles les pierres sont bien collées entre elles, mais sans apport d’un matériau externe : elles sont alors directement transformées et soudées sur place. C’est ce que l’on appelle des murs vitrifiés, que l’on retrouve au fort de Péran, en Bretagne, près duquel s’apprêtent à passer les cyclistes.
Le camp de Péran, dans la commune de Plédran, est identifiable à son enceinte fortifiée, juchée sur les premières hauteurs (160 mètres) qui dominent la baie d’Yffiniac, à 9 km au sud-ouest de Saint-Brieuc, dans les Côtes-d’Armor. Autrefois connu dans la région sous le nom de Pierres Brûlées, ce site a fourni des pièces archéologiques (cuillers, pièces…) depuis 1820-1825. Mais les premières publications les relatant sont celles de Jules Geslin de Bourgogne, en 1846.
Il était supposé que l’endroit avait été un oppidum gaulois, avant d’être transformé en camp romain. Les campagnes de fouilles ont permis de confirmer et de préciser son intuition : on estime que le camp, désormais classé au titre des monuments historiques, date de la culture de la Tène (env. 450 à 25 av. E.C.), apogée de la culture celtique qui prend fin avec la conquête romaine.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Après l’époque gauloise, le lieu a été occupé par les Vikings, dont on a identifié des incursions vers les 9e et Xe siècles, ainsi qu’au XIIIe siècle comme en attestent des carreaux de terre cuite.
De forme elliptique, il couvre environ un hectare (160 mètres sur 140) et comporte cinq structures défensives concentriques.
Ce fort, qui est le mieux conservé de France, a pour spécificité le rempart de pierre vitrifié de l’une de ses cinq structures défensives : les pierres du mur sont soudées parce qu’une partie a fondu à la périphérie des blocs, formant un verre qui a cimenté les roches entre elles. De tels murs, souvent associés à des forts, existent dans tout le Vieux Continent, mais particulièrement en Europe du Nord. En France, on en connaît une vingtaine, de la Bretagne à l’Alsace, avec une concentration notable dans le Limousin, la Creuse et la Loire, tous des pays granitiques.
Ces vitrifications intriguent depuis l’Antiquité. Dès le milieu du XVIIIe siècle un tel mur est signalé dans la cave d’une maison de Sainte-Suzanne, en Mayenne. On s’interroge alors : quel feu fut assez violent pour faire fondre la pierre et ainsi la vitrifier ? Et, ce feu était-il intentionnel ou le fruit d’un accident ? Les seules vitrifications naturelles connues étaient celles liées au volcanisme et, dans une moindre mesure, celles causées par la foudre (les fulgurites) ou les impactites (explosion d’un impacteur dans l’atmosphère, qui n’a pas atteint le sol mais dont l’énergie a fait fondre le sable, tel le célèbre verre libyque utilisé pour confectionner le scarabée du pectoral de Toutankhamon).
Les premiers à proposer une vitrification par combustion sont Auguste Daubrée (1881) puis Alfred Lacroix (1898). En effet, les observations portant sur des granites (riches en silice, donc) révèlent une fusion partielle, plus ou moins avancée à relativement basse température. Si un granite ou un gneiss fondent vers 950 °C en conditions de surface, la présence d’eau permet la fusion à une température moindre (dès 840 °C).
On sait aujourd’hui comment cette vitrification a été obtenue : par la combustion de poutres de bois qui armaient les murs gaulois. En effet, les remparts gaulois qui équipaient les oppidums mais aussi certaines villas (les fermes d’aristocrates), étaient des constructions qui associaient des couches entrecroisées de poutres horizontales comblées de terre avec un parement de « pierres sèches » (sans mortier).
L’incendie des poutres dégageant de l’eau a abaissé le point de fusion du granite qui a formé un verre en refroidissant. En conditions de surface de la Terre, un « granite sec » fond vers 950 °C et un « granite hydraté » dès 840 °C. C’est donc la présence d’eau qui aurait permis cette fusion du granité.
Pour leur très grande majorité, les forts vitrifiés se situent dans des régions granitiques. Il ne s’agit sans doute pas d’un hasard, car la température de fusion des granites est relativement faible en comparaison avec celle des basaltes, qui survient plutôt vers 1450 °C. Le caractère intentionnel, ou accidentel par incendie, reste néanmoins un point débattu.
Patrick de Wever ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.07.2025 à 16:02
Renaud Bécot, Maitre de conférences en histoire contemporaine, Sciences Po Grenoble
L’environnement n’intéresse-t-il que les classes supérieures ? Les travailleurs ont en réalité très vite identifié l’impact de l’industrialisation sur les écosystèmes dont ils dépendent. Mais cette conscience environnementale s’exprime de façon différente en fonction des classes sociales, comme l’explique Renaud Bécot, chercheur en histoire contemporaine et environnementale, dans un chapitre intitulé « Fin du monde, fin du mois, et au-delà ? L’environnementalisme des classes populaires » publié au sein de l’ouvrage collectif La Terre perdue. Une histoire de l’Occident et de la nature XVIIIᵉ-XXIᵉ siècle.
Au milieu des années 1950, Agnès Varda filme une scène ordinaire dans un quartier populaire du littoral méditerranéen. Quelques chats observent le réveil des familles dont les revenus d’existence reposent sur l’extraction des ressources de la mer. Les pêcheurs s’apprêtent à reprendre leur labeur, alors même que les fumées d’une industrie lourde souillent le rivage proche. Ils préparent leurs barques avec discrétion, car les autorités publiques surveillent la capture des poissons potentiellement pollués. Pourtant, « on ne veut pas travailler comme des empoisonneurs ! », s’exclament ces pêcheurs sétois.
Si cette représentation s’inscrit dans une œuvre de fiction (La Pointe courte, 1955), la scène illustre la position singulièrement inconfortable dans laquelle se trouvent les classes populaires contemporaines dans leurs rapports aux environnements. En effet, ces pêcheurs sont bien conscients que leurs revenus, et plus largement leurs conditions de subsistance, dépendent de l’extraction de ressources naturelles (ici halieutiques) – et, par extension, de la nécessité d’assurer la soutenabilité de celles-ci. Leur conscience est d’autant plus nette que l’industrialisation conforte une menace sur ces ressources et sur leur qualité.
Pourtant, malgré cette préoccupation, ces pêcheurs (tout comme les paysans au cours de cette période) sont pris dans l’état de la transition urbaine-industrielle que connaissent les sociétés européennes et américaines depuis le XIXe siècle.
[…]
L’acte d’accusation à l’encontre des classes populaires, supposément indifférentes aux enjeux écologiques, procède du déni des contraintes dans lesquelles se structurent les vies ordinaires au sein des groupes subalternes dans les sociétés occidentales. Face à l’ampleur des transformations urbaines et industrielles depuis le XIXe siècle, les préoccupations populaires pour l’environnement ont pourtant été récurrentes, et bien souvent ancrées dans des enjeux liés à l’organisation de la subsistance et à la protection de la santé.
L’économiste catalan Joan Martinez-Alier distinguait trois principaux courants au sein des mouvements écologistes au début du XXIe siècle. Le premier, parfois qualifié de protectionniste, se caractérise par un culte de la nature sauvage. Son histoire se confond souvent avec les actions menées par des membres de classes aisées en faveur de la mise en réserve d’espaces présentés comme emblématiques, à l’instar d’intellectuels tels que John Muir (1838-1914), fondateur du Sierra Club, qui fut longtemps la principale association environnementale étasunienne.
Le deuxième courant renvoie aux promoteurs de l’écoefficacité ou de la modernisation écologique ; les membres de ce courant témoignent d’une conception technicienne et instrumentale du rapport des sociétés à l’environnement. Il vise à organiser les flux d’énergie et de matière de manière plus efficace et il est souvent associé à des figures scientifiques, à commencer par l’ingénieur forestier Gifford Pinchot (1865-1946).
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Enfin, le troisième courant correspond à l’environnementalisme des pauvres, dont Joan Martinez-Alier analyse que « le ressort principal n’est pas le respect sacré de la nature, mais l’intérêt matériel que représente l’environnement, source et condition de la subsistance ».
Cette catégorie d’environnementalisme des pauvres était d’abord pensée pour étudier les conflits dans les pays non occidentaux. Alier constatait que les motifs de protestation soulevaient des enjeux d’accès aux espaces naturels, de partage des ressources, ou de protection des milieux dont l’équilibre était essentiel pour la survie humaine. Plus qu’un culte de la nature ou une volonté de maximiser le rendement des écosystèmes, Alier observait ce qu’il désigne comme des conflits écologico-distributifs. Dans cette approche, il s’agit de penser une « nature ordinaire » correspondant à la protection d’une biodiversité sans valeur économique ou patrimoniale particulière, mais dont le maintien rend possible la protection de la santé humaine et du vivant. Cette nature ordinaire s’oppose aux initiatives de protection exclusive de sites naturels admirables, ou d’espèces animales emblématiques.
[…]
Au crépuscule du XIXe siècle, dans les manufactures insalubres ou les mines de charbon, des voix s’élèvent pour dénoncer les maux de l’industrialisation. En 1893 puis 1895, ce sont les ouvrières d’usines d’allumettes de Trélazé (Maine-et-Loire), de Pantin et d’Aubervilliers (Seine) qui dénoncent notamment les dégâts sanitaires de leur exposition au phosphore blanc qui provoquent des nécroses maxillaires. Tout comme à Hull (Québec) en 1919, ces grèves d’allumettes rendent visibles les dégâts sanitaires d’une industrialisation à marche forcée. Autour de 1900 encore, l’historienne Judith Rainhorn souligne une convergence entre de rares syndicalistes et des médecins réformateurs, afin de défendre l’interdiction de l’usage de la céruse (ou blanc de plomb) dans la peinture utilisée sur les bâtiments – en France, cette revendication aboutira à l’adoption d’une loi d’interdiction en 1915.
La dénonciation des dommages ouvriers sanitaires et environnementaux de l’industrie se trouve partiellement désamorcée par l’adoption de réglementations encadrant les activités productives dans la plupart des pays industrialisés au début du XXe siècle. En matière de maladies professionnelles, ces lois consacrent le principe de la « réparation forfaitaire des risques du travail ». Ces maux sont présentés comme le revers empoisonné mais inéluctable du progrès. Si les syndicalistes contestèrent initialement cette monétarisation de la santé, la majorité d’entre eux se rallia par défaut à ce qui devint l’un des rares leviers de reconnaissance des maux endurés par les travailleurs.
Pourtant, au cours des années 1960, dans les territoires italiens de la pétrochimie tout comme dans les zones industrielles japonaises, certains groupes ouvriers alimentent une critique de pratiques qu’ils dénoncent comme une manière de « perdre leur vie à la gagner ». Dans une période marquée par une centralité ouvrière (symbolique, politique et sociologique) dans les sociétés occidentales, ces mobilisations réactivent un environnementalisme ouvrier, lequel conjugue un refus de la monétarisation des risques de santé, une volonté de protéger le cadre de vie des classes populaires, tout en énonçant des prescriptions pour une politique du travail plus respectueuse des corps et des environnements.
Dans la typologie proposée par Joan Martinez-Alier, l’environnementalisme des pauvres recouvre également le mouvement se réclamant de la justice environnementale. Celui-ci s’enracine dans l’histoire spécifique des luttes socioécologistes étasuniennes, avant de connaître les résonances dans d’autres aires industrialisées.
Aux États-Unis, deux filiations militantes doivent être soulignées. D’une part, d’anciens militants des droits civiques alimentent une critique des grandes associations environnementales (à commencer par le Sierra Club), accusées de défendre prioritairement une nature « sauvage ». Cette préservation de la wilderness est dénoncée comme un mythe généré par des militants issus de la classe moyenne ou supérieure blanche. D’autre part, une seconde filiation s’inscrit dans la lignée des mobilisations ancrées dans les mondes du travail. Dans les années 1960, de grandes fédérations syndicales étasuniennes exigeaient une réglementation de certaines pollutions industrielles, et parfois une transformation des activités productives, à l’instar du syndicat des travailleurs de l’automobile (l’United Auto Workers). Ce double héritage militant fut à l’origine de grèves intenses, dont celle des éboueurs de Memphis, à laquelle Martin Luther King apporta son soutien lorsqu’il fut assassiné en 1968.
Néanmoins, le mouvement pour la justice environnementale ne s’est désigné comme tel qu’à l’orée des années 1980. Son récit fondateur voudrait qu’il débute lors de la mobilisation des habitants du quartier de Warren County (Caroline du Nord), confrontés au projet d’ouverture d’une décharge de produits toxiques. Ils dénoncent l’inégalité d’exposition aux toxiques dont sont victimes les populations racisées et paupérisées. Leur action se prolonge par l’invention d’un répertoire dans lequel la production de savoirs de santé occupe une fonction toujours plus considérable, comme en témoigne l’enquête d’épidémiologie populaire menée par les habitants de Woburn (en périphérie de Boston), avec le souhait d’éclairer le lien de causalité entre un cluster de leucémies infantiles et leur exposition à des forts taux de plomb, d’arsenic et de chrome. La multiplication des initiatives locales se prolonge dans des coordinations nationales et dans la publication d’études.
En 1987, le chimiste et militant Benjamin Chavis publie un rapport invitant à réfléchir aux processus sociaux de relégation de certaines populations dans des milieux pathogènes comme une forme de « racisme environnemental ». La justice environnementale est peu à peu devenue une grille d’analyse universitaire, consacrée notamment par les travaux du sociologue Robert Bullard au début des années 1990.
Mouvement social, autant que grille d’analyse du social, l’approche par la justice environnementale demeure largement ancrée dans son berceau nord-américain. Des historiens comme Geneviève Massard-Guilbaud et Richard Rodger ont montré la difficulté à transposer en Europe des catégories si liées à l’histoire étasunienne. Pourtant, la plus forte exposition des classes populaires aux toxiques est à l’origine d’une expérience commune de « violence lente » de part et d’autre de l’Atlantique. Proposée par le chercheur Rob Nixon, cette notion vise à désigner le phénomène d’atteintes différées à la santé qui marque les populations vivantes dans les territoires abîmés, ainsi que la difficulté à se mobiliser face aux pollutions dont les effets deviennent perceptibles après plusieurs décennies.
C’est pourtant face à ces violences pernicieuses qui se sont élevées habitants et salariés de nombre d’aires pétrochimiques dans l’Europe, au cours des années 1970. Ces initiatives se prolongent parfois jusqu’à nos jours, comme en témoignent les collectifs militants de Pierre-Bénite, dans le couloir de la chimie (Rhône). Après des conflits particulièrement vifs contre la fabrique d’acroléine entre 1976 et 1978, ce sont aujourd’hui les pollutions rémanentes des perfluorés (ou PFAS) qui sont au cœur des protestations adressées aux industriels de la chimie.
En France, au début du XXIe siècle, un ménage appartenant au décile le plus aisé de la population émet chaque année l’équivalent de 30 à 40 tonnes de dioxyde de carbone, soit au moins deux fois plus qu’un ménage appartenant au décile le plus pauvre (environ 15 tonnes). Pourtant, ce constat n’empêche pas l’éternelle réitération de la stigmatisation des classes populaires.
Contrairement aux parangons de la modernisation écologique, l’ethos des actrices et acteurs d’un environnementalisme populaire se caractérise souvent par une relative modestie dans le récit de leur rapport à une nature ordinaire. Cette attitude est aux antipodes de la mise en spectacle du syndrome du sauveur de la planète. De plus, l’étau de contraintes qui verrouillait le champ des possibles pour les pêcheurs sétois de l’après-guerre dans leur rapport à l’environnement ne s’est pas desserré pour les classes populaires du XXIe siècle. Il n’en reste pas moins que certaines fractions de celles-ci restent porteuses d’un rapport singulier à l’environnement.
Renaud Bécot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.07.2025 à 14:14
Service Environnement, The Conversation France
Pays parmi les plus arides d’Afrique, la Namibie recycle ses eaux usées en eau potable depuis 1968. Pour pallier le manque d’eau, d’autres pays l’ont imité ou songent désormais à le faire, explique Julie Mendret, de l’université de Montpellier.
Les anglophones l’appellent « toilet-to-tap water », soit littéralement l’eau qui retourne au robinet depuis la cuvette des WC. Quoique peu engageante, l’expression permet de poser les enjeux de la réutilisation des eaux usées, une piste sérieuse pour de plus en plus de villes ou de pays autour du monde, de Bangalore à Los Angeles.
En la matière, le pays pionnier reste la Namibie. Sa capitale, Windhoek, est quasi dépourvue de ressources en eau du fait de sa latitude désertique où la rare eau de pluie s’évapore de façon quasi immédiate.
En 1968, la ville, alors sous domination sud-africaine, voyait sa population grandir à un rythme impressionnant. C’est alors qu’elle a commencé à potabiliser ses eaux usées. Aujourd’hui, c’est 30 % des eaux usées qui sont ainsi recyclées, pour un traitement qui dure moins de 10 heures.
Windhoek a mis en place une suite de procédés inédite qui compte aujourd’hui 10 étapes. Il comprend des processus physiques pour permettre de créer des flocs, des amas de matière en suspension que l’on pourra ainsi éliminer, mais aussi des processus chimiques comme l’ozonation, qui permet de dégrader de nombreux micropolluants et d’inactiver bactéries, virus et parasites. D’ultimes étapes de filtration biologique (charbon actif) et physique (ultrafiltration membranaire par exemple) complètent le tout, avec des contrôles qualité doublés d’adjonction de chlore pour la désinfection.
L’usine de traitement des eaux usées de Windboek est devenue une attraction qui accueille des visiteurs venus d’Australie ou des Émirats arabes unis, des pays où cette approche pourrait faire des émules. Et pour cause : cela reste moins énergivore et plus respectueux de l’environnement que le dessalement de l’eau de mer, technique la plus répandue dans le monde. Là où le dessalement nécessite entre 3 et 4 kWh par m3, la potabilisation des eaux usées ne consomme qu’entre 1 et 1,5 kWh par m3, tout en ne produisant pas les sels et polluants rejetés par le dessalement.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
Malgré ces avantages, cette démarche reste peu répandue sur le globe. Plusieurs raisons sont en cause : le coût des infrastructures de traitement d’une part (outre la Namibie, seuls des pays développés ont pu financer de tels projets), et la législation d’autre part. En Europe par exemple, une telle usine ne pourrait être autorisée. Un projet est en cours en Vendée, mais il ne s’agit que de potabilisation indirecte. Reste aussi la barrière mentale liée au fait de boire des eaux usées traitées, qui a fait fermer une usine construite à Los Angeles en 2000 qui avait pourtant coûté 55 millions de dollars.
Pour autant, mieux vaut informer la population en amont, comme à Singapour, où des visites publiques de l’usine et des vidéos du premier ministre de l’époque buvant sereinement l’eau traitée avaient permis de favoriser l’acceptabilité de cette approche.
Cet article est la version courte de celui publié par Julie Mendret (université de Montpellier) en août 2023
10.07.2025 à 10:28
Hugo Vosila, Doctorant en science politique , Sciences Po Bordeaux
À Vannes, le groupe Michelin a mis en place une station d’hydrogène début 2024 pour décarboner le processus industriel de son usine. Mais moins d’un an après le lancement de ce projet, l’industriel a annoncé la fermeture de l’usine. Un exemple des défis que pose la décarbonation dans un contexte encore prégnant de désindustrialisation.
Le 5 novembre 2024, le groupe Michelin annonçait à ses salariés de Cholet et de Vannes l’arrêt de la production des sites à horizon 2026.
« Saignée industrielle » selon la secrétaire générale de la CGT Sophie Binet, la fermeture de l’usine vannetaise du Prat, outre les quelque 299 emplois qu’elle concentrait, met également en péril le devenir de la station d’hydrogène vert HyGO attenante, qui participait à la décarbonation du processus industriel de Michelin pour la fabrication des pneus.
L’annonce de la fermeture de l’industriel – principal consommateur de l’hydrogène (H2) du site – et l’absence d’usages identifiés pour la mobilité interrogent sur le futur de la station, et plus largement sur la pérennité du déploiement des écosystèmes territoriaux basés sur l’hydrogène.
À l’écart des grands axes de transport nationaux, faiblement industrialisée, la Bretagne n’apparaît pas d’emblée comme la région de prédilection pour le développement d’une filière hydrogène. À la fin de la décennie 2010, elle n’échappe pourtant pas à l’engouement d’acteurs territoriaux publics et privés, qui ambitionnent alors de faire émerger des projets sur les territoires. Sans grand succès toutefois : en Ille-et-Vilaine, rares sont les initiatives qui dépassent le stade des études de faisabilité.
Au niveau étatique, un Plan national de déploiement de l’hydrogène voit le jour en 2018, ciblant la décarbonation de l’industrie, de la mobilité lourde et le soutien à l’innovation.
En parallèle, l’Agence de la Transition écologique (Ademe) lance un premier appel à projet « Écosystèmes mobilité hydrogène » en 2018. L’enjeu est d’assurer des boucles production-distribution-usages, d’essayer de cadrer les velléités locales et de faire le tri parmi les projets.
Du côté de la région, la feuille de route hydrogène renouvelable, publiée en 2020, identifie le maritime et les mobilités comme des axes forts du potentiel breton.
Mais les premières réflexions autour d’un écosystème hydrogène à Vannes remontent au début de cette effervescence, à l’écart des futures orientations régionales. Elles visent à décarboner le process de l’un des seuls sites industriels consommateurs d’hydrogène : l’usine Michelin de Vannes.
Implantée dans l’agglomération depuis 1963, cette dernière utilisait de l’H2 gris fossile, issu du vaporeformage de gaz naturel, pour travailler les membranes métalliques des pneumatiques.
Soucieux de réduire l’empreinte carbone de ses sites, le Bibendum s’engage aux côtés d’acteurs de l’énergie dans une stratégie « tout durable ». Si de premiers appels du pied sont lancés par Engie dès 2015 pour verdir le procédé de l’industriel, il faut attendre 2020 et la création de la société HyGO pour que ces aspirations se concrétisent.
Dans les faits, il s’agit d’un petit électrolyseur sur site, alimenté par de l’électricité renouvelable fournie par Engie, capable de produire 270 kilos quotidiens d’hydrogène vert. Si Michelin est identifié comme le principal consommateur (avec uniquement 40 à 70 kg d’H2/jour cependant), la molécule est également avitaillée au sein d’une station de distribution ouverte pour le rechargement des quelques véhicules qui roulent à l’hydrogène dans l’agglomération – moins d’une dizaine.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
À l’heure actuelle, le coût de l’hydrogène vert est toujours prohibitif pour des usages diffus (c’est-à-dire, qui émaneraient de particuliers ou de privés qui s’approvisionneraient en H2 de façon non planifiée). En l’absence d’un marché compétitif, la présence d’un industriel historique comme consommateur rassure et garantit un débouché constant. D’autant que le passage de l’H2 gris à l’H2 vert n’a pas modifié le procédé de production de Michelin.
Catalyseur de la station, l’industriel doit donc amortir la faible rentabilité de la distribution, le temps que les usages mobilité se déploient. Après un délai de quelques années, la station HyGO est finalement inaugurée en janvier 2024.
Moins d’un an plus tard, pourtant, Michelin annonce la fermeture de l’usine. Dans un communiqué de presse, le maire David Robo réagit :
« Ce 5 novembre 2024 […] est une journée noire pour Vannes et un séisme pour le territoire ».
Les raisons invoquées par le PDG Florent Menegaux ? La concurrence chinoise et la hausse de coûts de production du pneumatique en Europe – omettant toutefois de mentionner la rémunération record des actionnaires cette année-là.
Si aucun lien n’est officiellement établi avec le surcoût de l’hydrogène renouvelable consommé depuis peu sur le site, l’annonce est pour le projet HyGO une fâcheuse nouvelle. Les plus optimistes, certes, gagent que la partie mobilité sera amenée à décoller, compensant ainsi la perte commerciale liée à la fermeture de Michelin. Mais à ce stade, les usages mobilité de la station sont extrêmement limités, et ne promettent aucunement un avenir à l’écosystème. Même en couvrant les besoins de l’usine, la consommation d’hydrogène permet au mieux à HyGO d’être sous perfusion, sans rentabiliser les investissements.
Contrairement à Lorient, qui convertit une partie de sa flotte de bus à l’hydrogène renouvelable, l’agglomération de Vannes n’a pas émis le souhait d’utiliser la molécule produite localement pour assurer un débouché stable à la station via ses transports urbains.
Quel avenir pour HyGO ? Certains acteurs souhaiteraient que des aides à la consommation soient promulguées au niveau national pour réduire le prix de l’hydrogène à la pompe.
Mais c’est mal connaître la nouvelle conjoncture étatique de soutien à l’H2. Désormais, finis les appels à projets de l’Ademe qui favorisaient les boucles locales production-usages y compris de mobilité. L’heure est aux économies : la Stratégie nationale hydrogène, actualisée en avril 2025 – ainsi que les futurs appels à projets de l’Ademe – sont moins généreux dans leurs aides aux écosystèmes territoriaux, en particulier les plus petits.
Dans un contexte budgétaire limité, l’accompagnement étatique se resserre sur les usages considérés comme indispensables de l’hydrogène renouvelable, c’est-à-dire la décarbonation de l’industrie, au détriment des usages au lien avec la mobilité, à l’exception de ceux liés à la production de e-carburant pour l’aérien. C’est ironique pour HyGO Vannes, qui perd son atout industriel au moment même où ce dernier est consacré par les pouvoirs publics.
Cette restriction du soutien national à l’hydrogène est concomitante avec un recul critique plus diffus sur les vertus révolutionnaires de cette technologie, symptomatique des trajectoires des processus d’innovation.
Pour l’économiste Pierre Benoît Joly, une des caractéristiques pathologiques de ce qu’il nomme « régime d’économies des promesses techno-scientifiques » serait l’inévitable cycle hype (effet de mode)/hope (espoir)/disappointment (déception), auquel le déploiement de l’hydrogène renouvelable ne semble pas échapper. À l’excitation initiale véhiculée par l’apparition d’une nouvelle technologie succéderait un « creux de désillusion » (où les attentes exagérées se heurtent à la réalité), suivi d’une reprise plus mesurée et restreinte de son développement.
Un membre de l’Ademe Bretagne, avec qui j’ai eu un entretien dans le cadre de mon travail de thèse, a indiqué :
« À dire tout et n’importe quoi sur l’hydrogène, au bout d’un moment, les gens ont perdu espoir. Ils se sont dit non, mais l’hydrogène, c’est nul en fait. Il y a eu ce retour de bâton. Mais l’industrie, ça sera effectivement quelque chose de plus solide, à mon avis, quand ça va partir ».
Mais comment s’en assurer ? À Vannes, c’est précisément l’industriel qui a fait défaut. Projet lancé trop tôt ou surestimation de l’ancrage territorial de Michelin ? Les accompagnateurs de la station côté société d’économie mixte expriment le sentiment d’avoir « essuyé les plâtres » (selon les mots d’un membre de la société d’économie mixte (SEM) Énergies 56) en prenant le risque de se lancer les premiers.
La faute à pas de chance ? Prise isolément, la fermeture de Michelin à Vannes peut paraître anecdotique dans l’économie nationale de l’hydrogène. On l’a vu, l’industriel consommait moins de 70kg/jour d’hydrogène vert. La filière pneumatique battait déjà de l’aile, et la Bretagne, après tout, n’est pas une terre d’industrie.
La pertinence de l’hydrogène pour la décarbonation de l’industrie en France serait davantage à aller chercher du côté de la sidérurgie, de la chimie, ou du raffinage, dans le Nord-Pas-de-Calais, ou en Auvergne-Rhône-Alpes.
À s’y pencher de plus près, pourtant, ces filières n’échappent pas non plus aux menaces de fermeture.
Pour la sidérurgie, le géant ArcelorMittal, avec Genvia, investit certes dans un électrolyseur pour utiliser de l’hydrogène bas-carbone à la place du charbon et décarboner sa production d’acier. Mais il ferme en parallèle ses sites de Denain et de Reims, quelques semaines seulement après l’annonce de Michelin, laissant craindre un prochain plan social à Dunkerque.
Pour la chimie et la production d’engrais, la multinationale Yara s’est associée avec Lhyfe en Normandie pour utiliser de l’hydrogène vert dans sa production d’ammoniac. Mais elle ferme son site de Montoir-de-Bretagne en Loire-Atlantique, déficitaire et non conforme aux normes environnementales.
Citons également le groupe LAT Nitrogen, fournisseur européen d’engrais. Il a bénéficié de subventions publiques – le total de l'enveloppe allouée par le gouvernement à plusieurs consommateurs d'hydrogène s'élevait à 4 milliards d’euros – pour réduire les émissions de ses sites via le développement d’électrolyseurs et la production-consommation d’hydrogène vert. Ce qui ne l'a pas empêché de cesser sa production à Grandpuits, bien qu’engagé auprès de l’État à décarboner le site via un contrat de transition écologique.
Dans la vallée de la chimie, en Isère, Vencorex et par effet domino Arkema, deux firmes consommatrices d’hydrogène dans leurs procédés, sont en voie de liquidation.
Les efforts de l’État en matière de réindustrialisation verte se multiplient pourtant : Loi industrie verte en octobre 2023, France Nation Verte en 2022… Mais quelles contraintes pour les entreprises ? À quoi bon décarboner des industries qui ferment ?
Inséré dans des marchés internationaux, le groupe Michelin peut se permettre de produire moins cher ailleurs, en Asie en l’occurrence. Est-ce la conséquence d’une décennie de politique de l’offre ? Les règles de la concurrence et du marché semblent peu adaptées aux enjeux de souveraineté industrielle et énergétique.
Dans un contexte de renouveau protectionniste exacerbé outre-Atlantique, la problématique des rapports entre stratégies multinationales et ambitions climatiques nationales mérite une actualisation. Planification, nationalisation… expropriation ?
Ce que l’économiste britannique Daniela Gabor nomme le Wall Street Climate Consensus, modèle d’une transition douce par les marchés, qui confie aux fonds d’investissement et aux entreprises privées le soin de s’écologiser, paraît avoir atteint ses limites : délocalisations à bas coût quand la conjoncture économique se dégrade, persistance d’actifs fossiles et d’activités extractives…
À l’opposé, le modèle du « Grand État vert », régulateur et planificateur, pourrait avoir certaines vertus. Sans nécessairement prôner le « léninisme écologique » d’un Andreas Malm, des formes plus poussées d’interventionnisme public, voire de coercition auprès de firmes, pourraient assurer une pérennité à certaines filières émergentes comme l’hydrogène vert.
15 juillet 2025 : Correction d'une erreur sur le montant des subventions allouées à LAT Nitrogen
Hugo Vosila a reçu des financements de l'Agence Nationale de la Recherche (ANR) pour son travail de thèse.
10.07.2025 à 10:28
Loïc Sauvée, Directeur, unité de recherche InTerACT (Beauvais - Rouen), UniLaSalle
Fabiana Fabri, Enseignante-chercheuse, géographie et analyse environnementale, titulaire de la chaire UsinoVerT Usines & Territoires, UniLaSalle
Dans les villes post-industrielles comme Rouen, la cohabitation historique entre ville et industrie est à réinventer. Il s’agit de concilier les enjeux de la relocalisation industrielle, les nouvelles attentes de la société et les exigences de la transition écologique, notamment en termes de végétalisation urbaine.
Les villes contemporaines font face à de nouveaux enjeux, en apparence contradictoires. Il y a d’abord la nécessité de relocaliser la production industrielle près des centres urbains, mais aussi l’importance de reconstruire des espaces verts pour améliorer le bien-être des habitants et maintenir la biodiversité. Enfin, il faut désormais rationaliser le foncier dans l’optique de l’objectif « zéro artificialisation nette ».
Des injonctions paradoxales d’autant plus exacerbées dans le contexte des villes industrielles et post-industrielles, où se pose la question de la place de l’usine dans la ville.
C’est pour explorer ces défis que nous avons mené des recherches interdisciplinaires à l’échelle d’une agglomération concernée par ces défis, Rouen. Nos résultats mettent en avant la notion de « requalification territoriale » et soulignent la condition fondamentale de son succès : que le territoire urbain soit étudié de manière globale, en tenant compte de ses caractéristiques géohistoriques et environnementales. Celles-ci doivent être évaluées, à différentes échelles, à l’aune de différents indicateurs de soutenabilité.
La notion de villes post-industrielles désigne des territoires urbains qui ont connu un fort mouvement de reconversion industrielle, ce qui a transformé l’allocation foncière. Ces territoires industriels en milieu urbain se trouvent par conséquent face à des enjeux complexes, mais présentent aussi un potentiel en matière de durabilité du fait de quatre caractéristiques :
ils sont dotés de nombreuses friches disponibles, mais qui peuvent être polluées ;
de nouvelles industries y émergent, mais ont des besoins fonciers de nature différente ;
la densité urbaine y est forte, avec une imbrication des espaces industriels et des zones d’habitation ;
les populations se montrent défiantes, voire opposées aux activités industrielles, tout en ayant des demandes sociétales fortes, comme la création de zones récréatives (espaces verts) ou d’atténuation des chocs climatiques (lutte contre les îlots de chaleur) ;
Ce contexte spécifique a plusieurs implications pour ces territoires, qui ont chacun leur particularité. En raison de la densité d’occupation des villes européennes et de la concurrence pour le foncier, on ne peut laisser les friches – issues en grande partie de la désindustrialisation – occuper de précieux espaces.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
La requalification de ces lieux doit donc être mise au service de la lutte contre l’étalement urbain. Cela permet de redensifier les activités et de reconstruire la « ville sur la ville ». Mais aussi « l’usine dans la ville », car se pose en parallèle la nécessité de relocaliser notre industrie pour accroître notre souveraineté et réduire notre dépendance externe.
Or, celle-ci doit tenir compte des enjeux d’une transition durable. Ce nouveau développement industriel et territorial, pour être plus vertueux que dans le passé, doit être envisagé dans une perspective de transition durable. Il lui faut aussi intégrer les attentes diverses de la population urbaine (bien-être, environnement sain, emploi et refus des nuisances).
Les acteurs de l’aménagement du territoire, qui se heurtent souvent à la suspicion des habitants vis-à-vis des industriels et des institutions gouvernementales, doivent donc veiller à maintenir équilibrée cette cohabitation historique entre ville et industrie.
Pionnière de la révolution industrielle au XIXᵉ siècle, l’agglomération de Rouen fait partie des villes traversées par ces enjeux.
Elle se distingue par ses plus de 400 friches urbaines. Historiquement implantées à proximité de l’ancienne ville (actuel centre), elles ont été rattrapées par l’expansion urbaine et se trouvent aujourd’hui encastrées dans les territoires habités, près du cœur de l’agglomération.
En nous appuyant sur cet exemple, nous avons identifié trois conditions fondamentales pour requalifier de façon durable ces espaces industriels urbains et y déployer des infrastructures vertes adaptées :
les initiatives doivent tenir compte des spécificités géohistoriques des territoires,
envisager diverses échelles d’analyse,
et être conçues à l’aune d’indicateurs de durabilité qui intègrent la diversité des acteurs impliqués.
La recherche, menée à Rouen, est fondée sur des outils de système d’information géographique (SIG), des outils d’analyse fondée sur plusieurs critères et enfin des outils de modélisation. Elle propose un dispositif pour guider les décideurs de l’aménagement du territoire et les chercheurs dans l’identification et la priorisation des friches susceptibles d’être transformées en infrastructures vertes.
Le modèle propose une approche systématique de prise de décision pour éviter une répartition aléatoire. Il couple les caractéristiques locales des friches urbaines et les demandes environnementales au niveau territorial, par exemple lorsqu’une ancienne zone industrielle se trouve valorisée par un projet d’agriculture urbaine. Cette étape initiale aide à créer différents scénarios de projets de requalification des friches.
Par la suite, il s’agit d’identifier les parties prenantes, les porteurs de projets d’agriculture urbaine et les associations de quartiers afin de les engager dans le processus de décision. Pour cela, l’utilisation des méthodes participatives est essentielle pour répondre à la demande d’information des riverains et faciliter la participation des acteurs territoriaux.
Par exemple, le projet « Le Champ des possibles » a permis d’impliquer les habitants de la zone via une association dans une démarche combinant aspects éducatifs (jardinage) et visites récréatives. L’investissement local a été facilité par un appel d’offres de la ville, de manière à créer une gouvernance partagée.
Forts de ces constats, nous avons pu dans le cas de notre recherche à Rouen, passer au crible d’indicateurs de durabilité un ensemble de projets d’agriculture urbaine implantés depuis les années 2013 à 2018. L’objectif était d’identifier dans quelles conditions ils pourraient s’inscrire dans de la requalification de friches industrielles et participer à une transition durable.
Nous en avons conclu que deux grandes exigences étaient à remplir : d’un côté, s’appuyer sur des indicateurs de soutenabilité (économique, sociale et environnementale), de l’autre garantir que la gouvernance des projets se fasse en lien avec les différents acteurs territoriaux du milieu urbain.
En l’occurrence, de telles opérations de requalification via l’agriculture urbaine de territoires industriels en déshérence ou sous-utilisés ont généré des bénéfices en matière d’éducation à l’environnement et à l’alimentation, d’intégration des populations et de réduction des fractures territoriales. Cela permet également de développer la biodiversité des espaces renaturés.
Les territoires industriels, passés (sous forme de friches) ou présents ont incontestablement leur place dans la ville de demain. Mais celle-ci doit prendre en compte de manière plus contextuelle les enjeux locaux actuels.
L’exemple de Rouen révèle que les liens entre la ville et ses territoires industriels doivent sans cesse se réinventer, mais que la situation contemporaine place les exigences de durabilité au premier plan.
Les opérations de qualification des territoires urbains supposent une planification stratégique et minutieuse. Elle doit s’appuyer sur des processus de décision plus clairs et plus justes qui requièrent, outre les aspects techniques et réglementaires, une logique « bottom up », plus ascendante.
Les démarches de qualification durable des territoires industriels existent et sont suffisamment génériques pour être répliquées dans d’autres milieux urbains. La multiplication d’expériences de ce type en France et dans le monde démontre leur potentiel.
Ce travail est réalisé dans le cadre d’une chaire d’enseignement et de recherche développée depuis 2021 en collaboration entre l’institut Polytechnique UniLaSalle Rouen et le groupe Lubrizol. Site internet de la Chaire : https://chaire-usinovert-unilasalle.fr/
Fabiana Fabri ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.07.2025 à 10:27
Service Environnement, The Conversation France
Pour recevoir régulièrement nos quiz Environement, Abonnez-vous dès aujourd’hui à notre newsletter thématique « Ici la Terre ».
Chaque jeudi, de nouveaux éclairages sur les questions environnementales.
Avant de jouer, n’hésitez pas à prendre quelques minutes pour relire les articles de la semaine écoulée.
Besoin d’un peu d’aide ? Ok, voici quelques indices. Vous pouvez lire (ou relire) :
L’article de Karen Burga (Anses) sur la pollution chimique et ses effets sur les récifs coralliens,
L’article de Christiane Denys (MNHN) sur le capybara, cet étonnant rongeur qui suscite un effet de mode inattendu,
L’article d'Yvonne Ryan (Université de Limerick) qui s’intéresse aux enjeux de recyclage des vélos électriques.
3, 2, 1, à vous de jouer c’est parti !
Service Environnement ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.07.2025 à 10:27
Fabien Bartolotti, Docteur en histoire contemporaine, Aix-Marseille Université (AMU)
Béatrice Mésini, Chargée de recherche au CNRS, géographie et science politique, migrations et statuts de travail en agriculture, Aix-Marseille Université (AMU)
Carole Barthélémy, Maîtresse de conférences en sociologie de l'environnement, Aix-Marseille Université (AMU)
Christelle Gramaglia, Sociologue des sciences de l'environnement, Inrae
Xavier Daumalin, Professeur émérite, Aix-Marseille Université (AMU)
Sous couvert de décarbonation, un projet de réindustrialisation de la zone industrialo-portuaire de Fos-sur-Mer, qui héberge des industries lourdes depuis le XIXe siècle, pourrait voir le jour. Il impliquerait notamment la création d’un « hub » d’hydrogène vert. Mais il n’est pas aussi vertueux au plan environnemental qu’il n’y paraît : il entretient la confusion entre décarbonation et dépollution. Surtout, il n’implique pas assez les populations locales dans la prise de décision.
Depuis plus de 200 ans – une durée sans équivalent dans l’ensemble du bassin méditerranéen – le territoire de Fos-étang de Berre, dans les Bouches-du-Rhône, est confronté aux effets des aménagements industriels et portuaires. Depuis presque aussi longtemps, ses habitants s’inquiètent régulièrement des nuisances et pollutions engendrées. Tout ceci dans le cadre d’un rapport de force inégal impliquant riverains, industriels, pouvoirs publics et experts.
Nouvel épisode en date, un projet de réindustrialisation et de décarbonation. C’est le sujet de la consultation organisée par la Commission nationale du débat public (CNDP) jusqu’au 13 juillet. Dans ce cadre, la zone industrialo-portuaire (ZIP) de Fos-sur-Mer serait transformée façon « Silicon Valley de la transition écologique ».
Un projet qui implique en réalité une nouvelle densification industrielle de la ZIP, et derrière lequel on retrouve beaucoup d’incertitudes et de non-dits.
À lire aussi : Faut-il décarboner des usines qui ferment ? En Bretagne, les mésaventures de Michelin et l’hydrogène vert
Le territoire de Fos – étang de Berre a connu trois grandes phases industrielles depuis le début du XIXᵉ siècle. Chacune d’elles a contribué à créer des emplois et à intégrer ce territoire dans les flux économiques internationaux. Elles ont eu aussi d’importantes répercussions en matière de recompositions démographiques, d’aménagement du territoire mais, elles ont également occasionné des pollutions qui ont marginalisé les activités traditionnelles et mis en danger la santé des ouvriers et des riverains.
Les mobilisations contre la pollution apparaissent dès le début du XIXe siècle, lorsque la production de soude indispensable à la fabrication du savon de Marseille débute : pétitions, manifestations, interpellations des pouvoirs publics, procès, émeutes…
L’État se préoccupe très tôt de la question des pollutions : décret du 15 octobre 1810 pour limiter les odeurs, création de conseils d’hygiène et de salubrité dans les départements (1848), loi du 19 décembre 1917 sur les établissements dangereux, insalubres ou incommodes, lois sur la pollution de l’atmosphère (1961) et de l’eau (1964), création du Secrétariat permanent pour la prévention des pollutions et des risques industriels (S3PI) en 1971…
Des historiens ont cependant démontré que ces dispositions étaient avant tout fondées sur une perception partielle des pollutions et qu’elles imposaient une gestion administrative pilotée par le préfet, plutôt libérale, industrialiste et technophile, généralement favorable aux industriels.
Ces travaux historiques ont souligné le rôle ambivalent dévolu à l’innovation technologique. Elle peut jouer un rôle clé dans la mesure, la compréhension, la dénonciation puis la réduction des pollutions industrielles, mais aussi faciliter leur acceptation. Ceci à cause des discours qui réduisent les enjeux à des aspects techniques véhiculant l’idée que la technologie finira par réparer ce qu’elle a abîmé.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
Le mythe de l’innovation technologique « salvatrice » favorise ainsi la densification industrielle et la perpétuation du mode de croissance à l’origine de la crise climatique et écologique.
À Fos-sur-Mer, l’avenir de la ZIP se joue sous nos yeux. Il y a la volonté d’amorcer une nouvelle phase de croissance fondée sur des secteurs dits « verts ». Après avoir incarné le productivisme pollueur et le centralisme des Trente Glorieuses, le territoire fosséen deviendrait ainsi une vitrine du green business et un hub de la transition énergétique.
L’écologisation des pratiques entrepreneuriales se voit désignée sous une myriade de concepts : écologie industrielle, circulaire, durabilité, etc. De fait, elle reste surtout associée à la décarbonation, c’est-à-dire à la réduction des émissions de CO2.
La dynamique entraîne un retour massif des investissements (12 milliards d’euros), dans la zone. De nouvelles implantations industrielles sont ainsi envisagées à l’horizon 2028-2030 : fabrication de panneaux photovoltaïques (Carbon), d’éoliennes flottantes (Deos), d’hydrogène « vert » (H2V), de fer bas-carbone (Gravithy), d’e-carburants (Neocarb) ou encore de biosolvants (GF Biochemicals).
Les industries lourdes héritées des « Trente Glorieuses » connaissent, quant à elles, une rupture technique. C’est le cas d’ArcelorMittal (ex-SOLMER), qui abandonne son haut-fourneau au profit d’un four à arc électrique pour la production d’acier « vert ».
Mais cet élan industrialiste est loin d’être totalement disruptif. Il réinvestit les logiques mêmes qui, il y a 60 ans, ont présidé à la création de la ZIP.
Les prophéties économiques continuent de véhiculer un culte du progrès, non plus pour « reconstruire ou moderniser » la France, mais pour l’insérer dans les nouveaux marchés du capitalisme climatique. À l’instar du discours des années 1960, qui faisait alors miroiter la création de quelque 200 000 emplois, il est estimé que la décarbonation de la ZIP générera à elle seule 15 000 emplois.
On serait passé de l’aménagement au bulldozer à un processus plus horizontal, participatif et soucieux des aspirations locales. De nouvelles structures de coordination industrielle et de concertation (par exemple PIICTO) ont certes vu le jour. Mais elles n’ont ni permis d’apaiser les inquiétudes des riverains, ni d’amoindrir le rôle de l’État.
Dans sa grande tradition colbertiste, celui-ci garde la mainmise sur le processus décisionnel, la répartition des financements (par exemple à travers le plan d’investissement France 2030) et la diffusion de narratifs tels que le « réarmement industriel » ou la « souveraineté nationale et européenne ».
Il existe surtout une confusion trompeuse entre décarbonation (baisse des émissions de gaz à effet de serre) et dépollution (industries non polluantes).
Cette idée nourrit des imaginaires sociotechniques qui nous projettent dans des futurs confortables et nous laissent penser que nous allons pouvoir continuer à consommer comme avant. La question des externalités négatives, sociales et sanitaires des activités industrielles n’est jamais vraiment discutée. L’administration s’en remet aux lois en vigueur pour encadrer les débordements des nouvelles usines, traitées individuellement, c’est-à-dire, sans bilan global des émissions et rejets associés aux nouveaux hydrocarbures verts, qui viendraient s’ajouter aux pollutions accumulées depuis plusieurs décennies.
Ceci alors même que les pouvoirs publics n’ont pas réussi à juguler l’existant et que l’époque est à l’allègement des contraintes réglementaires pour un « réarmement industriel » et pour une décarbonation, ces définitions étant laissées à la libre définition des entrepreneurs : l’État intervient pour poser un cadre favorable aux investissements sans exercer ses prérogatives en matière de régulation.
La création d’un « hub de la transition énergétique » tel qu’il est envisagé aujourd’hui n’est pas nécessairement une bonne nouvelle pour les riverains. Elle engendrera un phénomène de « dépendance au sentier » (où les trajectoires possibles pour l’avenir seront influencées par les décisions et développements passés), dont il sera difficile de s’extraire par la suite, même s’il s’avère finalement que ce choix n’était pas judicieux.
D’autant plus que des incertitudes – voire des non-dits – pèsent sur le projet.
Notamment en ce qui concerne la production d’hydrogène « vert » par hydrolyse. Il s’agit d’un procédé coûteux, très gourmand en eau et électricité. Rien ne garantit, à l’heure actuelle, que le procédé sera rentable, ni ne permet de prédire quels emplois seront détruits et lesquels seront sauvés.
Les scientifiques qui s’intéressent aux hubs d’hydrogène pointent ainsi deux écueils qui prolongent les problèmes rencontrés lors de l’industrialisation du territoire Fos-étang de Berre dans les années 1970 :
l’impossibilité de mener des tests à petite échelle qui permettraient de maîtriser une technologie avant de la déployer – et de s’assurer de son efficacité sur les plans industriels, économiques et écologiques,
la mise à l’écart des riverains qui devront vivre avec les conséquences de choix technologiques réalisés pour le très long terme – sans bénéfices directs.
Autre incertitude : la maintenance des pipelines qui devront connecter le hub aux sites de stockage et aux usagers. En effet, la spécificité de l’hydrogène, par rapport à d’autres gaz, est sa faible densité. Il nécessite d’être acheminé avec des précautions particulières, parce qu’il corrode l’acier et fuit à la moindre fissure. Il peut ainsi avoir des effets négatifs sur la couche d’ozone.
Comment parer à ces nouveaux risques ? Conscient de ces problèmes, le Département de l’énergie (DoE) américain a provisionné 8 millions de dollars pour les surveiller.
Qu’en est-il de la ZIP de Fos où l’Institut écocitoyen, une association, œuvre depuis 15 ans pour produire les d onnées environnementales et sanitaires manquantes réclamées par les populations ? De fait, les nouveaux projets industriels relèvent de la directive SEVESO qui s’applique aux usines dangereuses. Les riverains sont-ils prêts à voir le plan de prévention des risques technologiques, très contraignant pour l’urbanisme, s’étendre ?
Surtout, la production d’hydrogène repose aussi sur la disponibilité en électricité et en eau, des ressources dont l’accaparement n’est pas assez problématisé.
Pour répondre aux besoins d’électricité, il faudra envisager un raccordement électrique au nucléaire de la vallée du Rhône. Ainsi, la décision de construire une ligne à très haute tension (THT) entre Fos-sur-Mer et Jonquières Saint Vincent, dans le Gard, aggrave la colère de ceux qui pensaient que le zonage des années 1960 suffirait à sanctuariser la Crau et la Camargue. Or, ces lignes font courir aux écosystèmes des risques d’incendie, sans parler des problèmes de maintenance qui peuvent survenir lorsque la température extérieure dépasse 35 °C.
La région est régulièrement en situation de stress hydrique). Pourtant, certains ingénieurs arguent que l’eau ne sera plus un problème lorsque le projet visant à amener par voie souterraine les eaux de turbinage de la centrale hydroélectrique de Saint-Chamas jusqu’à la ZIP de Fos, d’un coût de plusieurs milliards d’euros, aura été réalisé. Ils oublient toutefois, de façon commode, d’évoquer la question des transferts de vulnérabilité qui en découleront : réduction à venir des débits des rivières, sécheresses de plus en plus fortes et fréquentes…
Cette débauche de solutions technologiques est-elle compatible avec les objectifs de transition affichés ? On peut aussi se demander si leur adoption est aussi démocratique que ce que leurs promoteurs voudraient croire.
La Commission nationale du débat public (CNDP) a pu, après hésitation des autorités et grâce à la pression exercée par les riverains mobilisés contre la ligne THT, organiser la consultation. Mais ses conclusions, aussi intéressantes soient-elles, ne seront pas contraignantes. L’expertise scientifique et citoyenne locale, développée depuis quarante ans du fait de la cohabitation subie avec les pollutions, ne sera très certainement pas intégrée au processus de décision. Aux riverains d’accepter ce qu’on leur propose, au nom d’un intérêt général conforme aux visées d’une poignée d’acteurs politico-économiques dominants – au risque d’un conflit social potentiellement dur.
Tout porte à croire, alors que les défis climatiques et écologiques sont majeurs, que ce bégaiement de l’histoire ne permettra pas d’accoucher d’une transition véritablement robuste et juste. Pour cela, il faudrait qu’elle adopte une dimension réflexive et réellement partagée entre tous quant à ses conséquences sociales, économiques, sanitaires et environnementales.
Christelle Gramaglia est membre du Conseil scientifique de l'Institut écocitoyen pour la connaissance des pollutions de Fos (instance consultative)
Xavier Daumalin a reçu des financements de l'ANR
Béatrice Mésini, Carole Barthélémy et Fabien Bartolotti ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
09.07.2025 à 16:18
Axel Gautier, Professeur d'économie, HEC Liège, LCII (Liège Competition and Innovation Institute), Université de Liège
Pour promouvoir le développement du solaire, de nombreux États ont mis en place des politiques incitatives, pour pousser notamment les particuliers à se doter de panneaux solaires. Mais ces subventions peuvent avoir des effets pervers et engendrer des situations inéquitables.
Le gouvernement français a réduit les aides financières dédiées à l’installation de panneaux solaires ainsi que le tarif de rachat de l’électricité produite, spécialement pour les particuliers. L’occasion de scruter les effets de ce type de subventions, à travers l’exemple de la Belgique, que j’ai étudiée.
En 2022, une étude de l’OCDE montrait que si la taxation du carbone est peu populaire, les politiques de soutien aux technologies « vertes » le sont beaucoup plus, tant auprès des citoyens que des politiciens.
Si ces subsides peuvent s’avérer utiles, ils doivent toutefois être conçus en anticipant la réaction des bénéficiaires, or celle-ci est parfois contre-productive. L’exemple des subventions dont jouissent les panneaux solaires et qui ont été globalement très généreuses, interpelle à cet égard : elles ont modifié le comportement des ménages, mais pas toujours dans le sens attendu.
Dans un contexte de transition énergétique, qui implique en particulier une hausse de la production décarbonée et décentralisée d’électricité, les défis sont considérables. Le développement et l’intégration dans le réseau de cette production décentralisée, par les individus et par les communautés d’énergie, requiert un cadre adéquat.
Prenons le cas de la Wallonie, en Belgique. Ici, les propriétaires de panneaux solaires peuvent injecter leur production solaire excédentaire dans le réseau électrique, et la consommer gratuitement plus tard. Ce système, appelé net metering ou compensation, valorise la production solaire au prix de détail, c’est-à-dire que ces citoyens la vendent à un niveau supérieur au prix du marché de gros.
Logiquement, ce phénomène devrait engendrer un plus grand déploiement des panneaux solaires là où l’électricité est la plus chère : notre étude récente fondée sur des données recueillies dans 262 municipalités wallonnes entre 2008 et 2016, montre en effet que des tarifs de distribution élevés incitent davantage à l’installation de panneaux photovoltaïques. Chaque augmentation de 1 centime par kWh dans les tarifs de distribution entraîne une hausse de 8 % des installations par an.
Le système de compensation présente toutefois des limites. S’il favorise la production solaire, il n’encourage pas suffisamment les ménages à l’autoconsommation, c’est-à-dire à consommer au moment où ils produisent, ni à investir dans des systèmes de stockage d’énergie : il leur est plus rentable de la vendre sur le réseau.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Une situation qui peut entraîner des coûts supplémentaires pour les opérateurs de réseau, qui doivent gérer des injections massives d’électricité au moment où la production solaire est abondante. Par ricochet, cela affecte les ménages non équipés de panneaux qui voient les coûts du réseau augmenter.
Ce constat souligne un défi central pour les régulateurs : comment concevoir des incitations financières qui équilibrent promotion des énergies renouvelables et durabilité des infrastructures du réseau ?
Un autre défi majeur se présente, que nous avons également étudié : l’effet rebond des subventions solaires.
En Wallonie, de nombreux ménages bénéficiant de subsides généreux ont surdimensionné leur installation photovoltaïque, produisant plus d’électricité que nécessaire. Ce surplus est disponible gratuitement pour la consommation et très largement consommé par les ménages eux-mêmes, ce qui conduit à une augmentation de la consommation d’électricité de près 35 % chez les ménages suréquipés.
Cet effet rebond va à l’encontre des objectifs initiaux de réduction de la consommation d’énergie. Le principe de compensation incite à la consommation des surplus solaires, car les ménages perçoivent cette électricité comme « gratuite ».
Ainsi des politiques de soutien conçues pour promouvoir les énergies renouvelables peuvent encourager des comportements de surconsommation, diluant les bénéfices environnementaux et pour le climat.
À lire aussi : L'effet rebond : quand la surconsommation annule les efforts de sobriété
Pour aller plus loin, un article récent publié avec des collègues met en lumière une autre problématique : les tensions politiques engendrées par les politiques de soutien aux énergies renouvelables.
En Belgique, la générosité de ces subventions a créé des déséquilibres financiers importants, qui se sont traduits par une progression généralisée des prix de l’électricité et une hausse des factures, principalement pour ceux qui n’avaient pas installé de panneaux. Ce financement a plus tard été partiellement complété par une contribution aux frais de réseaux imposée aux détenteurs de panneaux solaires.
Dans les régions où l’adoption des panneaux solaires a été massive, cette dynamique a eu pour conséquence de nourrir la défiance vis-à-vis des partis au pouvoir. Les ménages non équipés, qui ne bénéficient pas des subventions, ont critiqué les coûts élevés de l’électricité, favorisant ainsi des mouvements politiques « anti establishment ». Malgré leur rôle crucial pour promouvoir les énergies renouvelables, les subventions présentent le risque d’accentuer les divisions sociales lorsque les coûts associés sont perçus comme injustes.
Ce qui pose une question fondamentale pour l’avenir des politiques énergétiques : comment s’assurer que les subventions profitent à tous, sans créer de tensions sociales ou de coûts disproportionnés pour les ménages non bénéficiaires ? Une certitude : les réformes politiques doivent tenir compte de l’impact à long terme des subventions et de leur répartition plus équitable.
En outre, tout le monde n’a pas la capacité d’installer des panneaux solaires sur son toit. Dans ce contexte, l’émergence des communautés d’énergie apparaît comme une alternative intéressante qui permet de faire participer le plus grand nombre à la transition énergétique.
Dans un article récent publié avec des collègues, nous donnons un éclairage sur la possibilité pour des groupes de citoyens, d’entreprises ou d’organisations d’investir ensemble dans des unités de production d’énergie renouvelable (solaire ou éolienne) et d’ensuite partager la production au sein d’une communauté.
Ces communautés permettent une consommation locale de l’énergie produite, réduisant ainsi les coûts sur le réseau. Elles favorisent aussi une répartition plus équitable des bénéfices de la transition énergétique, en permettant à un plus grand nombre de ménages de participer à la production et à la consommation d’énergie renouvelable.
Pour que ces communautés soient viables, il est toutefois nécessaire d’établir des cadres réglementaires adéquats. Cela inclut des systèmes de tarification qui encouragent l’autoconsommation tout en minimisant les impacts négatifs pour les non-membres de la communauté. Nos travaux insistent pour cela sur l’importance d’adapter les incitations financières et les infrastructures.
Nos recherches citées dans cet article mettent en lumière les effets inattendus des politiques de subventions solaires. Si elles ont réussi le pari de dynamiser l’adoption des énergies renouvelables, elles ont aussi provoqué des déséquilibres économiques, techniques (sur le réseau de transport d’électricité) et sociaux qui nécessitent d’être corrigés afin de garantir une transition énergétique réussie.
L’idée d’une production d’énergie plus locale, à travers des communautés énergétiques, pourrait être une réponse plus juste aux défis posés par les subventions individuelles. En réorganisant la production et la consommation d’énergie à l’échelle locale, il serait possible de réduire les tensions sociales, de diminuer les coûts pour les ménages, et d’assurer une meilleure intégration des énergies renouvelables dans les infrastructures existantes.
Pour que cette transition réussisse, toutefois, il est essentiel de repenser les cadres réglementaires actuels, en tenant compte des habitudes de consommation et des effets rebonds qui peuvent émerger avec les nouvelles technologies. Il s’agit de trouver un équilibre entre l’incitation à l’adoption des énergies renouvelables et la durabilité à long terme des systèmes énergétiques.
Il apparaît donc indispensable de réinventer les politiques énergétiques pour s’adapter à la réalité des comportements des consommateurs et aux exigences des infrastructures. Le défi est de taille, mais les solutions proposées, telles que les communautés énergétiques, offrent une voie prometteuse vers une transition énergétique plus équitable et durable.
Ce texte a été écrit en collaboration avec le Dr Arnaud Stiepen, expert en vulgarisation scientifique.
Axel Gautier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.07.2025 à 15:32
Dominique Desclaux, Chercheure en Agronomie et Génétique, Inrae
Un futur cadre réglementaire spécifique aux variétés OGM issues des « nouvelles techniques génomiques » (NTG) est en cours de discussion au sein de l’Union européenne. Le compromis à l’étude diviserait ces variétés en deux catégories, soumises à des contraintes différentes. Des citoyens et des scientifiques alertent sur les risques qu’une telle distinction entraînerait. Ce n’est pas seulement d’agriculture dont il est question, mais de l’assiette des consommateurs européens.
Les semences, premier maillon de notre agriculture, ont été sélectionnées au fil des siècles pour offrir une alimentation sûre, saine et durable. En France, un catalogue officiel réglementé par le ministère de l’agriculture via le Centre technique et permanent de la sélection (CTPS) recense les variétés pouvant être commercialisées dans le pays. Il est décrit comme un outil capable de sécuriser le marché de semences saines, loyales et marchandes, et de renseigner agriculteurs, consommateurs et industriels sur les caractéristiques précises des variétés cultivées.
Ce catalogue pourrait intégrer prochainement de nouvelles variétés, issues des nouvelles techniques génomiques (NTG, plus connu sous l’acronyme anglais NGT).
Classées comme OGM depuis 2018, ces variétés sont pour l’instant interdites de culture dans l’Union européenne et leur importation est autorisée sous condition d’étiquetage. Mais un assouplissement de ces règles est en cours de discussion à Bruxelles.
Pour rappel, il existe divers types de techniques permettant de créer une variété végétale, et notamment d’introduire de nouveaux caractères d’intérêt dans une plante.
Les techniques de sélection conventionnelles consistent à croiser deux variétés d’une espèce végétale pour obtenir une plante présentant les caractéristiques souhaitées. Ce processus peut être accéléré par des substances chimiques ou des rayonnements induisant des mutations.
Les techniques de modification génétique (OGM) établies consistent à modifier le génome d’une plante par transfert de gènes d’origine extérieure (transgénèse).
Les nouvelles techniques génomiques (NGT), elles, recoupent les approches permettant de modifier le génome d’une plante :
par mutagénèse ciblée, qui induit une ou plusieurs mutations spécifiques sans insertion de matériel génétique nouveau ;
par transfert de gènes provenant de la même espèce ou d’une espèce étroitement apparentée, par cisgenèse ou intragénèse ;
ou encore par des techniques permettant l’insertion ou délétion ciblée de fragments d’ADN, par exemple grâce à la technique des « ciseaux » moléculaires (CRISPR-CAS).
Ces NGT sont présentées comme des techniques permettant donc de modifier en des endroits précis le génome pour conférer au végétal des caractéristiques d’intérêt. Par exemple, meilleure résistance à la sécheresse, aux insectes ravageurs et aux maladies, rendement plus élevé, etc.
Elles sont vues comme permettant d’accélérer la création d’une variété par rapport aux techniques conventionnelles.
Ces NGT, apparues après la mise en place de la réglementation sur les OGM de 2001, n’avaient jusqu’alors pas de cadre législatif spécifique.
En 2018, un arrêt de la Cour de justice européenne a soumis les produits issus de ces nouvelles techniques à la réglementation OGM.
Mais sous la pression de plusieurs parties prenantes, le Conseil européen, dans sa décision du 8 novembre 2019 a enjoint la Commission de produire une étude sur le statut des NGT au regard du droit de l’UE.
Le 29 avril 2021, la Commission a rendu son étude et a conclu que la législation actuelle sur les OGM n’était pas adaptée à la réglementation ni des plantes NGT obtenues par mutagenèse ciblée ou cisgénèse, ni des produits (y compris les denrées alimentaires et les aliments pour animaux) qui en sont dérivés. Elle a conclu que cette législation devait s’adapter aux progrès scientifiques et techniques dans ce domaine.
Une proposition législative nouvelle a ainsi été publiée le 5 juillet 2023.
Alors qu'aucune version recueillant une majorité qualifiée n’avait pu être établie sous les dernières présidences (espagnole, belge et hongroise). La présidence polonaise a pu obtenir, via un calendrier très serré, une majorité qualifiée sur un texte de compromis le 14 mars 2025.
La France l’a soutenu en vue de la phase de « trilogue », qui a débuté en mai 2025 et permet d’engager des discussions entre Commission, Conseil et Parlement européen afin d’offrir un cadre réglementaire spécifique aux végétaux issues des NTG. La France a toutefois reconnu qu’il ne répond pas totalement aux enjeux sur les brevets, sur lesquels on reviendra plus bas dans ce texte. Le Danemark qui préside actuellement (juillet à décembre 2025) le conseil européen devrait poursuivre cette phase de trilogue.
La version actuelle du compromis entérine les deux grandes catégories inscrites dans la proposition de loi.
La catégorie 1 (NGT1) englobe les végétaux NGT considérés comme « pouvant apparaître naturellement ou avoir été produits par des techniques conventionnelles ». Ses végétaux ne sont pas considérés comme des OGM, les sacs de semences se voient imposer un étiquetage mais pas le produit final qui parvient au consommateur. Un État ne peut pas refuser de cultiver ou d’importer des NGT de cette catégorie.
La catégorie 2 (NGT2) inclut tous les autres végétaux NGT. Ils sont alors considérés comme des OGM et doivent être étiquetés comme tels. Leur culture peut être interdite par un État sur son territoire. Toute plante rendue « tolérante aux herbicides » par NGT doit être intégrée dans cette catégorie.
Les deux catégories de NGT sont prohibées pour l’agriculture biologique. Les plantes NGT1 ou NGT2 peuvent être brevetées.
L’accord sur le mandat de négociation du Conseil permet à sa présidence d’entamer des discussions avec le Parlement européen sur le texte final du règlement. Le résultat devra être formellement adopté par le Conseil et le Parlement avant que le règlement puisse entrer en vigueur.
La réglementation à l’étude divise, en particulier entre professionnels de la filière et organisations non gouvernementales.
L’Union française des semenciers (UFS), et notamment le Collectif en faveur de l’innovation variétale, s’est ainsi félicitée de la position du conseil de l’Union européenne. Elle a souligné le « retard » de l’Europe sur ces techniques autorisées par « d’autres régions du monde » et ajouté qu’« il en va de notre souveraineté alimentaire dans un contexte international de fortes tensions ».
D’autres organisations, telles les Amis de la Terre Europe, Pollinis ou ECVC (European Coordination Via Campesina), dénoncent cette décision. Elles estiment qu’elle « menace grandement l’avenir de l’agriculture européenne et condamne à l’échec la nécessaire transformation de notre modèle agricole, en renforçant l’emprise de quelques multinationales ».
Plusieurs incertitudes et risques de ce futur cadre réglementaire suscitent l’inquiétude parmi les citoyens, mais également les scientifiques.
Tandis que la première proposition de loi distinguait les NGT1 des NGT2 par le nombre de nucléotides modifiés (inférieur ou égal à 20 nucléotides pour les NGT1 et supérieur à 20 pour les NTG2), ce seuil qui était arbitraire a été supprimé au profit d’un flou tout aussi latent (20 modifications ou 3, selon les propositions du Conseil ou du Parlement).
Qui pourra vraiment statuer sur le fait que les modifications NGT1 pourraient apparaître naturellement ou si elles doivent relever de la catégorie NGT2 ? Même en amont, comment distinguer les plantes NGT1 et les plantes issues de techniques conventionnelles ?
Dans ce compromis, cette différence sera fondée sur la simple déclaration du semencier. En cas de doute ou de litige, les scientifiques s’accordent sur la très grande difficulté – voire l’impossibilité – de détecter la technique à l’origine d’une mutation dans le génome.
En outre, l’état insuffisant des connaissances actuelles sur les régulations génomiques et sur l’épigénétique ne permet pas d’affirmer l’« équivalence » – évoquée par le texte sans la définir – entre une plante NGT1 et une plante issue de technique conventionnelle.
Par ailleurs, le texte de loi indique en préambule que :
« les NGT ont le potentiel de contribuer aux objectifs d’innovation et de durabilité […], à la biodiversité et adaptation au changement climatique, à la sécurité alimentaire mondiale, à la stratégie pour la bioéconomie et à l’autonomie de l’Union ».
Les OGM vantaient les mêmes promesses. Or, leurs résultats ne sont pas à la hauteur : des études ont montré que ces cultures sont marquées par une augmentation des traitements herbicides et insecticides et par un contournement des résistances par les ravageurs.
À l’heure actuelle, les scientifiques ont trop peu de recul sur les NGT. Le référentiel d’évaluation des risques sanitaires et environnementaux est mal adapté à ces nouvelles plantes.
La future législation pose enfin des interrogations en matière de propriété intellectuelle des variétés. Jusqu’ici, la France et l’Europe ont toujours refusé que leur reconnaissance passe par des brevets, privilégiant le certificat d’obtention végétale (COV) qui permettait notamment d’utiliser librement une variété dans un programme de sélection.
Si les brevets sont autorisés sur les plantes NGT1 considérées comme équivalentes à des plantes non modifiées, cela pourrait rouvrir des velléités de brevets sur traits natifs… autrement dit, des brevets sur des fragments d’ADN naturellement présents dans les plantes ou pouvant être obtenus après un simple croisement.
En outre, quid des semences paysannes ou traditionnelles qui contiendraient une séquence génétique « semblable » à celle obtenue par NGT et couverte par un brevet ? Les agriculteurs pourraient-ils être poursuivis pour contrefaçon ?
La concentration du secteur semencier est déjà très forte : en 2018, le marché mondial des semences était partagé entre six multinationales – Monsanto, Bayer, BASF, Syngenta, Dow et DuPont. Depuis, Bayer a racheté Monsanto, Dow et Dupont ont fusionné et donné Corteva, et Syngenta a été rachetée par ChemChina.
La proposition de loi et l’incitation au brevet ne risquent-elles pas d’accélérer cette concentration ? Quelle place pour les artisans semenciers ?
Ce compromis pose encore d’autres questions. Quid de la présence accidentelle de végétaux NGT1 ou NGT2 dans un champ en agriculture biologique ? Sur ce risque mentionné dans le texte de compromis, les États membres sont invités à prendre des mesures pour l’éviter. Mais concrètement, comment feront-ils ?
Enfin, un des problèmes tout aussi majeur est l’information du consommateur. Les NGT1 ne pouvant être refusées par les États et leur traçabilité étant restreinte à un étiquetage des semences, le mangeur européen ne pourra pas savoir si son assiette contient ou non des dérivés des variétés de cette catégorie.
Demain, sans que vous le sachiez, peut-être allez vous ingérer une tomate GABA antistress, une dorade produisant 50 % de muscle en plus, du blé moins générateur d’acrylamide, de l’huile de soja contenant moins de graisses saturées, du maïs waxy, ou encore en dessert une banane résistante à la cercosporiose (maladie des feuilles).
Nous sommes tous concernés par cette réglementation actuellement débattue à Bruxelles. Dans le cadre du projet de recherche européen Divinfood, nous organisons une consultation sur le sujet, à laquelle vous êtes largement invités à participer via ce lien. Cela permettra de faire remonter l’avis des futurs consommateurs de variétés NGT auprès des décideurs de l’Union européenne.
Dominique Desclaux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.07.2025 à 15:32
Alexis Aulagnier, Chercheur postdoctoral, Centre Emile Durkheim, Sciences Po Bordeaux
La loi Duplomb a été adoptée mardi 8 juillet par l’Assemblée nationale. Le texte reprend plusieurs revendications anciennes du syndicat majoritaire agricole, historiquement opposé à l’objectif de réduction de l’utilisation de pesticides. Il est le fruit d’une séquence au cours de laquelle la FNSEA est parvenue à s’appuyer sur la colère des agriculteurs pour imposer certaines de ses demandes.
La période est aux régressions en matière de politiques écologiques. Les reculs se multiplient en ce qui concerne le climat, l’énergie ou encore la biodiversité, comme l’atteste ce récent rapport du réseau Action climat. Comment expliquer ces rétropédalages environnementaux ?
Nous proposons d’analyser le cas des politiques liées aux pesticides, au cœur de l’actualité en raison du vote de la loi « visant à lever les contraintes à l’exercice du métier d’agriculteur », dite Duplomb. Ce texte, soutenu par la ministre de l’Agriculture Annie Genevard, acte notamment la réintroduction temporaire d’un néonicotinoïde interdit depuis 2020, l’acétamipride.
Or ce texte n’est pas un fait isolé : il intervient au terme d’un processus à l’œuvre depuis deux ans, qui a vu des acteurs syndicaux comme la FNSEA réussir à fragiliser des politiques limitant l’usage de ces substances controversées.
Un rappel nécessaire : les pesticides sont encadrés, en France, par deux ensembles de politiques publiques. En amont de leur mise sur le marché, l’efficacité et les risques liés à leur usage sont évalués : c’est le système d’homologation, en place en France depuis près d’un siècle.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Depuis la fin des années 2000, des politiques publiques visent par ailleurs à réduire l’usage de ces substances, dont les impacts apparaissent difficiles à contrôler. En 2008 a été lancé le plan Ecophyto, qui visait initialement à réduire de 50 % la consommation de pesticides.
Une part de la profession agricole, représentée en particulier par le syndicat majoritaire de la Fédération nationale des syndicats d’exploitants agricoles (FNSEA), n’a jamais fait mystère de son opposition à Ecophyto. Pour cette organisation, l’existence même d’une politique de réduction est illégitime, étant entendu que les risques liés aux pesticides sont déjà pris en charge par le système d’homologation.
En janvier et février 2024, le monde agricole a été secoué par un important mouvement de protestation sur l’ensemble du territoire français. Ces manifestations sont parties de la base, avec un mécontentement croissant dans plusieurs territoires à partir de l’automne 2023. Rien n’indique qu’Ecophyto était l’objet prioritaire de revendications au sein des collectifs mobilisés. Les spécialistes des mondes agricoles décrivent un malaise agricole multiforme, mêlant l’excès de normes et d’opérations administratives, un sentiment d’abandon et des préoccupations en matière de rémunération et de partage de la valeur.
En janvier 2024 pourtant, l’échelon national de la FNSEA, face à un exécutif déstabilisé par les mobilisations, a formulé une très large liste de revendications, incluant un « rejet d’Ecophyto ».
La stratégie a été gagnante : la mise en pause du plan a effectivement compté parmi les premières mesures annoncées par le gouvernement. Par la suite, le syndicat a imposé un changement d’indicateur pour ce plan, l’affaiblissant considérablement. Ce faisant, la FNSEA est parvenue à imposer une interprétation bien particulière de la colère des exploitants, instrumentalisant sa prise en charge politique pour contester un plan auquel elle s’opposait de longue date.
Cette séquence confirme la capacité de cette organisation à imposer ses priorités politiques, notamment dans des moments de crise. Les relations entre ce syndicat et les pouvoirs publics ont historiquement été privilégiées, notamment lors de la phase de modernisation de l’agriculture, qui s’est ouverte à la sortie de la Seconde Guerre mondiale. S’est mis en place à l’époque un système dit de « cogestion », dans lequel le ministère de l’Agriculture et les organisations professionnelles agricoles menaient de front l’intensification des productions.
Cette relation de cogestion s’est considérablement affaiblie à partir des crises sanitaires (vache folle, nitrates) et économiques (quotas laitiers) des années 1990, qui ont vu ces politiques modernisatrices être questionnées. Mais à l’heure où l’agriculture est mise face au défi de l’écologisation, ce syndicat continue d’apparaître comme un interlocuteur incontournable pour les pouvoirs publics.
On retrouve cette même dynamique autour de la loi Duplomb, dont le contenu a été fixé en Commission mixte paritaire le 30 juin. Ce texte prévoit notamment la réautorisation temporaire de l’acétamipride, un pesticide utilisé par des agriculteurs dans les productions de betterave et de fruits à coque. Il fait partie de la famille des néonicotinoïdes, dont l’usage a progressivement été proscrit en France, en raison notamment de leurs impacts sur les populations d’insectes.
Au-delà du seul cas de l’acétamipride, la disposition du texte qui permet sa réintroduction apparaît comme particulièrement problématique. Elle inscrit dans la loi la possibilité de déroger temporairement à l’interdiction de pesticides si « les alternatives disponibles à l’utilisation de ces produits sont inexistantes ou manifestement insuffisantes ». Ce texte législatif reprend une logique devenue depuis quelques années un leitmotiv défendu par la FNSEA : « Pas d’interdiction sans solution ».
À première vue, cette demande semble légitime : il apparaît raisonnable de ne pas priver les agriculteurs de substances nécessaires à leurs productions en l’absence d’alternatives clairement identifiées. Mais à y regarder de plus près, conditionner le retrait de pesticides à la disponibilité d’alternatives comporte plusieurs limites.
Premièrement, pour satisfaire à cette logique, il convient de définir ce qui est considéré comme une alternative à un pesticide. Or, les agronomes ont montré que la réduction de l’usage de ces substances peut passer par l’adoption de pratiques alternatives – modification des rythmes de culture ou des assolements, diversification des cultures, entre autres – et pas seulement par l’usage de technologies de substitution. De telles méthodes ou pratiques culturales peuvent facilement être négligées au moment de passer en revue les alternatives identifiées.
Deuxièmement, les solutions alternatives aux pesticides gagnent à être pensées en interaction les unes avec les autres – c’est ce que les agronomes appellent une approche systémique. Les stratégies alternatives de protection des cultures sont d’autant plus efficaces qu’elles sont associées. Or, dans la logique dessinée par la loi Duplomb, les alternatives sont envisagées isolément les unes des autres.
Enfin, le « pas d’interdiction sans solutions » nécessite de définir les paramètres retenus pour décréter qu’une alternative est « équivalente » au pesticide qu’elle est censée remplacer. À ce stade, la loi Duplomb précise qu’une solution alternative doit procurer une « protection des récoltes et des cultures semblable à celle obtenue avec un produit interdit » et être « financièrement acceptable ». Cette définition d’apparent bon sens comporte le risque de disqualifier nombre de solutions, en imposant la comparaison terme à terme de méthodes de protection des cultures très différentes.
Il ne s’agit pas ici de délégitimer la recherche de solutions alternatives aux pesticides, qui est un enjeu essentiel. De multiples projets ont été lancés ces dernières années, en lien avec les filières agricoles, pour identifier et diffuser des stratégies de protection à même de remplacer les pesticides les plus dangereux. Mais conditionner le retrait de substances à la disponibilité d’alternatives présente le risque de maintenir indéfiniment sur le marché des produits chimiques controversés.
Les opposants à la réduction de l’usage des pesticides l’ont bien compris, et ont fait de ce « pas d’interdiction sans solution » un slogan. L’introduction de cette logique dans le droit est une victoire – revendiquée – pour la FNSEA. La loi Duplomb était censée être une réponse législative aux malaises agricoles. Elle comprend en réalité des mesures techniques qui ne concernent qu’un nombre réduit d’exploitants, en particulier ceux qui possèdent les exploitations à l’orientation la plus intensive. Elle néglige une série d’enjeux essentiels : répartition des revenus, règles commerciales, etc. Plus qu’une prise en compte réelle des difficultés du monde agricole, elle apparaît comme un nouveau véhicule de revendications anti-écologistes d’un syndicat toujours majoritaire – mais en recul – et qui ne représente plus qu’une partie d’un monde agricole toujours plus fragmenté.
Une politique prenant en charge le malaise agricole et les enjeux environnementaux devra nécessairement passer par une réflexion de fond sur les modalités de représentation du secteur, notamment la gouvernance des chambres d’agriculture.
Alexis Aulagnier est membre du Comité scientifique et technique (CST) du plan Ecophyo. Le présent article est signé à titre individuel et ne reflète en rien la position du comité.