18.10.2025 à 10:27
Rick Thoman, Alaska Climate Specialist, University of Alaska Fairbanks

Avec la montée des eaux, le dégel du pergélisol et des prévisions tardives, la catastrophe provoquée par le passage de Halong met en lumière les défis d'adaptation à venir pour les communautés isolées d’Alaska.
Les vestiges d’un puissant typhon ont déferlé le 12 octobre 2025 sur le delta du Yukon-Kuskokwim, dans l’ouest de l’Alaska aux États-Unis, soulevant une onde de tempête qui a inondé des villages jusqu’à près de 100 kilomètres à l’intérieur des terres. Selon les autorités, les eaux ont arraché des maisons à leurs fondations et en ont emporté certaines avec leurs occupants. Plus de cinquante personnes ont dû être secourues à Kipnuk et Kwigillingok, des centaines d’habitants ont été déplacés dans la région et au moins une personne a perdu la vie.
Le typhon Halong était un phénomène inhabituel, sans doute alimenté par les températures de surface de l’océan Pacifique, proches de records cet automne. Son passage à cette période de l’année rendra la reconstruction encore plus difficile pour les communautés durement touchées, comme l’explique le météorologue Rick Thoman, de l’Université d’Alaska à Fairbanks.
Les catastrophes en Alaska rural ne ressemblent à aucune autre aux États-Unis, précise-t-il. Alors que les habitants de la côte Est, frappés le même week-end par une tempête ayant inondé le New Jersey et d’autres États, ont pu se rendre dans un magasin de bricolage pour acheter du matériel ou réserver une chambre d’hôtel en cas d’inondation, rien de tout cela n’existe dans les villages autochtones isolés d’Alaska.
Halong était un ex-typhon, semblable à Merbok en 2022, lorsqu’il a atteint le delta. Une semaine plus tôt, il s’agissait encore d’un puissant typhon à l’est du Japon. Le jet stream l’a ensuite entraîné vers le nord-est, un phénomène assez courant, et les modèles météorologiques avaient plutôt bien prévu sa trajectoire jusqu’à la mer de Béring.
Mais à l’approche de l’Alaska, tout a déraillé.
Les prévisions des modèles ont changé, indiquant une tempête se déplaçant plus rapidement, et Halong a suivi une trajectoire très inhabituelle, passant entre l’île Saint-Laurent et la côte du delta du Yukon-Kuskokwim.
Contrairement à Merbok, dont les modèles mondiaux avaient très bien anticipé la trajectoire, celle de Halong — ainsi que son intensité finale — n’étaient pas claires avant que la tempête ne soit à moins de 36 heures des eaux territoriales de l’Alaska. C’était bien trop tard pour organiser des évacuations dans de nombreuses localités.
C’est une question qui fera l’objet de recherches futures, mais voici ce que l’on sait avec certitude : il n’y a eu aucune observation en altitude par ballon météorologique à l’île Saint-Paul, dans la mer de Béring, depuis la fin du mois d’août, ni à Kotzebue depuis février. À Bethel et Cold Bay, les lancements sont limités à un par jour au lieu de deux. À Nome, aucun ballon n’a été envoyé pendant deux jours entiers alors que la tempête se dirigeait vers la mer de Béring.
Est-ce que cela a faussé les prévisions ? On ne le sait pas, faute de données, mais il semble probable que cela ait eu un effet sur la performance des modèles.
Le terrain, dans cette partie ouest de l’Alaska, est très plat, ce qui permet à de fortes tempêtes de faire pénétrer l’océan dans le delta, où l’eau se répand largement.
La plupart des terres se trouvent très près du niveau de la mer, parfois à moins de trois mètres au-dessus de la ligne de marée haute. Le dégel du pergélisol, l’affaissement du sol et la montée du niveau de la mer accentuent encore le risque. Pour de nombreuses personnes, il n’existe littéralement aucun endroit où se réfugier. Même Bethel, la plus grande ville de la région, située à une centaine de kilomètres en amont sur la rivière Kuskokwim, a connu des inondations provoquées par Halong.
Ce sont des communautés très isolées, sans routes menant aux villes. On ne peut y accéder que par bateau ou par avion. Aujourd’hui, de nombreuses personnes s’y retrouvent sans logement, alors que l’hiver approche.
Ces villages sont également de petite taille. Ils ne disposent ni de logements supplémentaires ni des ressources nécessaires pour se relever rapidement. La région se remettait déjà d’importantes inondations survenues à l’été 2024. La tribu de Kipnuk a pu obtenir une aide fédérale pour catastrophe naturelle, mais celle-ci n’a été approuvée qu’au début de janvier 2025.
Les habitants vont devoir prendre des décisions très difficiles. Faut-il quitter la communauté pour l’hiver et espérer reconstruire l’été prochain ?
Il y a sans doute très peu de logements disponibles dans la région, d’autant que les inondations ont été étendues et qu’il existe déjà une pénurie de logements. Les personnes déplacées doivent-elles se rendre à Anchorage ? La vie en ville y est coûteuse. Il n’existe pas de solution simple.
La reconstruction dans des endroits comme Kipnuk est logiquement complexe. On ne peut pas simplement décrocher son téléphone et appeler un entrepreneur local. Presque tous les matériaux doivent être acheminés par barge – du contreplaqué aux clous en passant par les fenêtres – et cela ne se fera pas en hiver. Impossible de transporter quoi que ce soit par camion : il n’y a pas de routes. Les avions ne peuvent transporter que de petites quantités, car les pistes sont courtes et non adaptées aux avions cargo.
La Garde nationale pourrait peut-être aider à acheminer des fournitures par avion. Mais il faut encore disposer de personnes capables d’assurer la construction et les réparations. Tout devient cent fois plus compliqué lorsqu’il s’agit de bâtir dans des communautés isolées. Même si une aide nationale ou fédérale est approuvée, la plupart des maisons ne pourraient être reconstruites qu’à l’été prochain.
Ce sera une autre question à explorer dans de futures recherches, mais la température de surface de la mer dans la majeure partie du Pacifique Nord, que le typhon Halong a traversée avant d’atteindre les îles Aléoutiennes, était bien plus élevée que la normale. Les eaux chaudes alimentent les tempêtes.
Halong a également entraîné avec lui une masse d’air très chaud vers le nord. À l’est de sa trajectoire, le 11 octobre, Unalaska a enregistré 20 °C, un record absolu pour un mois d’octobre à cet endroit.
Rick Thoman a pris sa retraite du service météorologique national (National Weather Service) de la région Alaska en 2018.
16.10.2025 à 15:48
Simon Dufour, Enseignant chercheur, Université Rennes 2
Richard Chevalier, Ingénieur retraité de l'INRAE
Villar Marc, Inrae
On parle ainsi de ripisylves pour décrire la flore qui peuple les rives et de forêts alluviales pour parler des forêts qui jouxtent les cours d’eau (et qui sont souvent des « forêts inondables »). Riches d’une biodiversité précieuse, les ripisylves rendent un grand nombre de services écosystémiques. Tout du moins, lorsque les pressions exercées par les activités humaines ne les ont pas dégradées…
Comment mieux gérer ces milieux fragiles et pourtant protecteurs, notamment face au changement climatique ? Une question à laquelle répond l’ouvrage paru en octobre 2025 aux éditions Quae, librement accessible en ligne. Dans le texte ci-dessous, ses coordinateurs scientifiques expliquent pourquoi et comment protéger ces bijoux méconnus de biodiversité.
Parlez de rivières, de fleuves, de ruisseaux… les images qui viennent à l’esprit sont presque systématiquement des images avec de l’eau, ou au contraire de chenaux à sec.
Pourtant, les cours d’eau ne sont pas que des tuyaux qui transportent de l’eau, ce sont aussi des forêts. En conditions naturelles, une végétation particulière pousse en effet sur leurs berges, à laquelle on donne plusieurs noms : ripisylve, forêt alluviale, boisement riverain, cordon riparien, forêt-galerie, etc.
Ces forêts méritent d’être mieux connues : elles représentent en effet un atout important pour la gestion durable des territoires dans le contexte des changements globaux (changement climatique, déclin de la biodiversité, etc.) que nous vivons.
À lire aussi : « Méandres ou la rivière inventée » : comment refaire monde avec les rivières ?
Quel que soit le nom que l’on donne à ces forêts, cette végétation est particulière, car elle est connectée au cours d’eau.
Lors des inondations par exemple, de l’eau passe du chenal vers la forêt, et avec elle aussi des sédiments, des graines, des nutriments, etc. Il en résulte des conditions écologiques différentes du paysage alentour. Par exemple, la végétation a accès à davantage d’eau et pousse plus vite.
Mais elle doit également s’adapter à la présence de l’eau. Celle-ci peut engorger le substrat pendant plusieurs semaines, et les crues qui peuvent éroder les sédiments – et, par la même occasion, arracher le substrat sur lequel elle pousse.
Les forêts de bord de cours d’eau sont donc des écosystèmes uniques : ni complètement aquatiques ni complètement terrestres, composés d’une végétation particulière avec des espèces adaptées comme les saules, les aulnes, les peupliers, etc.
Non seulement elles abritent des espèces spécifiques, ce qui augmente la biodiversité à l’échelle régionale, mais elles en accueillent aussi une grande quantité sur des surfaces relativement petites. En effet, les conditions sont localement très variables (de très humides à très sèches), ce qui crée des mosaïques d’habitats.
Des observations réalisées sur une trentaine de sites couvrant seulement 7,2km2 le long de l’Adour (dans le sud-ouest de la France, ndlr) recensent ainsi près de 1 500 espèces végétales pour ce seul cours d’eau. Cela représente environ 15 % de la flore vasculaire – un groupe de plantes qui recoupe les angiospermes (ou, plantes à fleurs), les gymnospermes, les monilophytes et les lycophytes – de France métropolitaine, alors que la surface couverte ne représente que 0,0013 % du territoire français.
Le cours d’eau influence donc la végétation des rives, mais les forêts des bords de cours d’eau influencent aussi grandement le fonctionnement de ce dernier en retour.
Les forêts alluviales et les ripisylves ne sont pas seulement des viviers de biodiversité : elles fournissent également des services écosystémiques précieux pour nos sociétés.
Elles participent ainsi aux stratégies d’atténuation face au changement climatique, en stockant du carbone en grande quantité. Du fait des conditions humides, leur croissance et leur biomasse sont parfois aussi importantes que celles des forêts tropicales. En été, elles limitent la hausse de la température de l’eau des petites rivières jusqu’à 5 °C, ce qui est précieux pour la faune aquatique. En outre, elles piègent des sédiments, des nutriments et des substances qui dégradent la qualité physico-chimique des cours d’eau.
Dans certaines conditions, elles contribuent par ailleurs à ralentir la propagation et à réduire l’ampleur des ondes de crues entre l’amont et l’aval des bassins versants.
Au-delà de leur biodiversité végétale propre, elles fournissent des ressources alimentaires, des habitats et des corridors de déplacement à de nombreuses espèces aquatiques, semi-aquatiques et terrestres, telles que les poissons, le castor, les chauves-souris, etc. Elles participent, enfin, à former un paysage agréable, apprécié des différents usagers des cours d’eau (promeneurs, pêcheurs, cyclistes, etc.).
Ces forêts ne sont toutefois pas miraculeuses. La qualité de l’eau dépend également d’autres éléments, comme les pressions sur la biodiversité qui s’exercent dans le bassin versant.
Si la présence de ces forêts est un réel atout, elle n’est pas un blanc-seing qui permettrait de faire l’impasse sur les effets de certaines activités humaines, comme l’artificialisation des sols, l’agriculture intensive, les rejets de stations d’épuration ou le relargage de plastiques, sur la qualité des cours d’eau. Historiquement, les cours d’eau et leurs abords ont en effet souvent concentré ces impacts délétères.
À l’échelle de l’Europe, on estime que seuls 30 % des zones riveraines de cours d’eau sont encore boisées, alors qu’elles pourraient l’être à plus de 95 %.
Ce chiffre cache toutefois une très grande variabilité entre pays : ce taux peut atteindre une moyenne de 50 % en Scandinavie et descendre à 10 % en Angleterre et en Irlande. Dans certaines régions de moyenne montagne ou de déprise rurale, les superficies augmentent, mais à l’échelle continentale, ces milieux continuent de régresser. Entre 2012 et 2018, 9 000 hectares ont disparu chaque année, en Europe. Près de 50 % de ces étendues ont été réaffectées en surfaces bâties, 25 % en parcelles cultivées et 25 % en praires.
Lorsqu’ils existent, ces boisements subissent en outre d’autres pressions : perte de caractère humide du fait des prélèvements en eau et du changement climatique, présence d’espèces exotiques envahissantes, propagation de maladies touchant les arbres comme le phytophthora ou la chalarose, mauvaises pratiques d’entretien, etc.
Résultat : ils sont parmi les habitats semi-naturels européens dans le plus mauvais état de conservation, puisque seulement 5 % sont considérés comme dans un état favorable. Or, il a été démontré que le faible boisement des berges et leur dégradation limitent drastiquement leur qualité écologique et leur capacité à rendre les services écosystémiques mentionnés plus haut.
Reconnaître toute la valeur des forêts des bords de cours d’eau doit amener à définir comme objectifs prioritaires des politiques environnementales trois grandes stratégies :
Mais il ne suffit pas d’énoncer ces grands principes. Leur mise en œuvre concrète et à large échelle peut s’avérer complexe du fait de la coexistence d’enjeux multiples, qui relèvent de plusieurs échelles spatiales et impliquent de nombreux acteurs : inondations, biodiversité, quantité et qualité de l’eau, usages divers, espèces envahissantes, obstacles à l’écoulement, etc.
Heureusement, des solutions existent : plan pluriannuel de gestion, diagnostic et gestion sectorisés, techniques de génie végétal, méthodes et indicateurs de suivi adaptés, outils de conception des actions de restauration ou des mesures de conservation, etc.
Beaucoup reste à faire : la gestion des forêts alluviales et des ripisylves s’appuie parfois plus sur l’habitude ou sur la volonté de « faire propre » que sur l’évaluation factuelle des enjeux. Elle doit aussi être considérée comme suffisamment prioritaire pour que des moyens humains et financiers suffisants lui soient consacrés et que les bonnes pratiques soient plus largement partagées.
Mais c’est une logique payante pour relever les enjeux environnementaux contemporains, notamment en matière de moyens financiers et humains, car ces forêts apportent de nombreux bénéfices alors même qu’elles occupent une superficie réduite et qu’elles ont été très dégradées. À l’interface entre l’eau et la terre, les ripisylves et les forêts alluviales souffrent d’une faible visibilité, aussi bien dans les politiques environnementales que dans le grand public, ce qui constitue un frein à leur prise en compte. Il s’agit donc de travailler à faire (re)connaître leurs valeurs, leurs fonctions et leurs spécificités.
Simon Dufour a reçu des financements des programmes européens COST Action CA 16208 et Horizon 2020.
Richard Chevalier est ingénieur retraité de l’INRAE (UR EFNO), il continue à utiliser cette affiliation pour des valorisations concernant ses activités de recherche antérieures. Il exerce de l’expertise, du conseil, de l’appui technique et de l’enseignement en phytoécologie dans le cadre de son auto-entreprise CHEPHYTEC. Il exerce aussi du conseil et de l’appui technique bénévoles en phytoécologie pour des associations naturalistes : Conservatoire d'espaces naturels Centre-Val de Loire (CEN CVL), Loiret Nature Environnement (LNE) et Cultur’AuxBarres (MLC Nogent-sur-Vernisson)
Marc Villar a reçu des financements principalement du Ministère de l’Agriculture (MASA) et de la Région Centre-Val de Loire pour ses recherches sur le programme national de conservation des ressources génétiques du Peuplier noir.
16.10.2025 à 10:24
Marie Asma Ben-Othmen, Enseignante-chercheuse en Economie de l'environnement & Agroéconomie, Responsable du Master of Science Urban Agriculture & Green Cities, UniLaSalle
Le « bio » : une étiquette clairement identifiable et souvent rassurante. Pourtant, les réalités derrière ce label mondial divergent. Alors que les normes en Europe sont plutôt strictes, elles sont bien plus souples en Amérique du Nord. Dans les pays émergents, ce sont les contrôles qui sont inégaux. Autant d’éléments à même d’affecter la confiance accordée au bio par les consommateurs. Comment s’y retrouver ? L’idéal serait d’harmoniser les règles d’un pays à l’autre. Petit tour d’horizon.
Le « bio » est un label mondial qui peut s’appliquer à des produits venus d’Europe, de Chine ou d’Amérique du Sud. Il n’a pourtant rien d’universel. Derrière l’étiquette rassurante, on ne retrouvera pas les mêmes normes en fonction des pays de production.
Par exemple, alors que l’Europe impose des règles plutôt strictes, les États-Unis se montrent beaucoup plus souples. Dans certains pays émergents, comme le Brésil, ce sont les contrôles qui sont souvent moins sévères. Nous vous proposons ici un bref tour d’horizon, qui vous permettra, nous l’espérons, de mieux orienter vos choix de consommation.
À lire aussi : Une agriculture 100% bio en France est-elle possible ?
En France, la consommation de produits biologiques a connu une croissance fulgurante. En 2023, après vingt années de progression continue, ce marché a été multiplié par 13 par rapport à son niveau initial.
Cette tendance s’explique par le fait que les consommateurs perçoivent le bio comme un produit plus naturel, notamment en raison de l’absence de traitements pesticides autorisés. La production bio doit respecter un cahier des charges plus attentif à l’environnement, ce qui favorise la confiance des consommateurs dans un contexte de plus en plus marqué par la défiance alimentaire.
Ce label demeure toutefois une construction réglementaire qui dépend fortement du contexte national. Cette dynamique positive se heurte aujourd’hui à des évolutions législatives à même de la fragiliser. La loi Duplomb, adoptée le 8 juillet 2025, illustre combien les choix politiques peuvent ébranler la confiance accordée à l’agriculture en réintroduisant la question des pesticides au cœur du débat. Cette loi propose en effet des dérogations à l’interdiction d’utiliser des produits phytopharmaceutiques contenant des néonicotinoïdes.
Même si elle loi ne concerne pas directement les producteurs biologiques, elle risque d’avoir des effets indirects sur le secteur. En réintroduisant des dérogations à l’usage de substances controversées, elle ravive la défiance du public envers l’agriculture conventionnelle. Dans ce contexte, les filières bio pourraient apparaître comme une valeur refuge pour les consommateurs, renforçant leur rôle de repère de confiance dans un paysage agricole fragilisé.
L’Union européenne (UE) a établi une réglementation stricte pour l’agriculture biologique dès 1991. Au-delà de la question des pesticides, qui se pose, comme on l’a vu plus haut, plus intensément en France, celle des organismes génétiquement modifiés (OGM) offre également une clé de lecture intéressante à l’échelle européenne.
En effet, le label bio européen interdit totalement le recours à OGM dans les produits labélisés bio, à toutes les étapes de sa chaîne de production. Cela signifie qu’il est interdit d’utiliser des semences OGM pour les cultures bio, pas d’alimentation animale issue des OGM pour l’élevage bio et pas d’ingrédients issus des OGM pour les produits transformés bio.
En outre, le cahier des charges européen du bio impose des pratiques agricoles strictes en limitant le recours aux intrants de synthèse. Ceci inclut les engrais azotés, les pesticides, les herbicides et les fongicides de synthèse. Seuls certains intrants naturels ou minéraux sont autorisés, à l’instar du fumier, compost et engrais verts. Ceci reflète la philosophie du bio, basée sur la prévention des maladies et des déséquilibres agronomiques, par le maintien de la fertilité des sols, la biodiversité et les équilibres écologiques.
En France, le label français AB s’appuie ainsi sur le règlement européen, tout en ajoutant quelques exigences propres, comme un contrôle plus rigoureux de la traçabilité et du lien au sol.
Si les deux labels restent alignés sur les grands principes, le bio français se distingue par une mise en œuvre généralement plus stricte, héritée d’une longue tradition d’agriculture biologique militante.
Le bio en Europe se heurte aussi à un certain nombre d’enjeux actuels, notamment agronomiques. Il s’agit par exemple du besoin de renforcer la recherche sur les alternatives aux pesticides et autres intrants de synthèse, comme le biocontrôle, une sélection variétale adaptée et la gestion écologique des sols.
Enfin, force est de constater que l’UE a fait du bio un pilier de sa stratégie « de la ferme à la table » (« From Farm to Fork »). Celle-ci a pour objectif d’atteindre 25 % de la surface agricole utile (SAU) européenne en bio d’ici 2030.
Afin de garantir la fiabilité du label, l’UE a mis en place un système de contrôle centralisé et harmonisé de supervision des chaînes de valeur alimentaires. Celles-ci englobent les producteurs, les transformateurs, jusqu’aux distributeurs. Ces contrôles reposent sur des règles précises définies par le règlement européen 2018/848.
De son côté, le consommateur retrouvera les différents labels de certification bio, tels que le label européen EU Organic, le label national AB en France ou encore le Bio-Siegel en Allemagne. Même si tous ces labels reposent sur la même base réglementaire européenne, leurs modalités d’application (par exemple, le type de suivi) peuvent varier légèrement d’un pays à un autre. Chaque pays peut en outre y ajouter des exigences supplémentaires. Par exemple, la France impose une fréquence de contrôle plus élevée, tandis que l’Allemagne insiste sur la transparence des filières.
En Amérique du Nord, l’approche du bio est plus souple que celle de l’Union européenne. Aux États-Unis, le label USDA Organic, créé en 2002, définit les standards nationaux de la production biologique. Il se caractérise par une certaine souplesse par rapport aux standards européens, notamment en ce qui concerne l’usage des intrants, puisque certains produits chimiques d’origine synthétique sont tolérés s’ils sont jugés nécessaires et sans alternatives viables. Ceux-ci incluent, par exemple, certains désinfectants pour bâtiments d’élevage et traitements antiparasitaires dans la conduite de l’élevage.
Le Canada, de son côté, a mis en place sa réglementation nationale des produits biologiques – le Canada Organic Regime – plus tardivement que les États-Unis. Ce système est équivalent à celui des États-Unis, dans la mesure où un accord bilatéral de reconnaissance mutuelle permet la vente des produits bio canadiens aux États-Unis et vice versa.
Les deux systèmes présentent ainsi de nombreuses similitudes, notamment en ce qui concerne la liste des substances autorisées et leur flexibilité d’usage. Cependant, ils divergent du modèle européen sur plusieurs points.
Tout d’abord, alors que l’UE applique une tolérance quasi nulle vis-à-vis des OGM, les États-Unis et le Canada tolèrent, de façon implicite, la présence accidentelle de traces d’OGM dans les produits bio. En effet, selon le règlement de l’USDA Organic, l’utilisation volontaire d’OGM est strictement interdite, mais une contamination involontaire n’entraîne pas automatiquement la perte de la certification si elle est jugée indépendante du producteur. Le Canada adopte une position légèrement plus stricte, imposant des contrôles renforcés et une tolérance plus faible.
Cette différence a suscité des controverses au moment de l’accord de reconnaissance mutuelle, certains consommateurs et producteurs canadiens craignant de voir arriver sur leur marché des produits bio américains jugés moins exigeants sur la question des OGM. Celles-ci concernaient également les conditions d’élevage. En effet, alors qu’en Europe les densités animales sont strictement limitées et que les sorties en plein air sont très encadrées, en Amérique du Nord, certains systèmes de production biologique peuvent être beaucoup plus intensifs, menant à de véritables fermes industrielles biologiques, ce qui entraîne une perte de proximité avec l’idéal originel du bio.
Enfin, un autre contraste concerne les productions hors sol. Aux États-Unis, les fermes hydroponiques – qui cultivent les plantes hors sol – peuvent être certifiées USDA Organic, à condition que les intrants utilisés figurent sur la liste autorisée. En revanche, en Europe, l’hydroponie est exclue car elle ne respecte pas le lien au sol, considéré au cœur de la philosophie agroécologique.
À lire aussi : « Les mots de la science » : A comme agroécologie
Dans les pays émergents, la question du bio se pose différemment. En effet, celle-ci dépend fortement des dispositifs et des critères mis en place par ces pays pour en garantir la crédibilité. À titre d’exemple, en Inde, au Brésil ou en Chine, les labels bio nationaux sont assez récents (la plupart ont été mis en place entre 2000 et 2010) et moins contraignants que leurs équivalents européens.
Alors que, dans l’UE, les contrôles sont effectués par des organismes certificateurs tiers accrédités et indépendants, au Brésil, les producteurs peuvent être certifiés via un système participatif de garantie (SPG), qui repose sur l’auto-évaluation collective des agriculteurs. En conséquence, ces labels peinent à construire une véritable confiance auprès des consommateurs.
Par ailleurs, dans de nombreux cas, les certifications biologiques sont avant tout conçues pour répondre aux standards des marchés internationaux afin de faciliter l’exportation vers l’UE ou l’Amérique du Nord, plutôt que pour structurer un marché intérieur. C’est, par exemple, le cas en Inde.
Cette situation laisse souvent les consommateurs locaux avec une offre limitée et parfois peu fiable. Dans ce contexte, les organismes privés de certification internationaux, comme Ecocert, Control Union ou BioInspecta occupent une place croissante. Ils améliorent la reconnaissance de ces produits, mais renforcent une forme de dépendance vis-à-vis de standards extérieurs, ce qui soulève des enjeux de souveraineté alimentaire mais aussi de justice sociale dans ces pays.
L’absence de reconnaissance universelle mutuelle entre les différents systèmes de certification biologique engendre de la confusion chez les consommateurs. Il crée également de fortes contraintes pour les producteurs.
En pratique, un agriculteur qui souhaiterait exporter une partie de sa production doit souvent obtenir plusieurs certifications distinctes. Par exemple, un producteur mexicain doit ainsi être certifié à la fois USDA Organic pour accéder au marché américain et EU Organic pour pénétrer le marché européen.
Cette multiplication des démarches alourdit les coûts et la complexité administrative pour les producteurs, tout en renforçant les inégalités d’accès aux marchés internationaux.
Du côté des consommateurs, l’usage généralisé du terme « bio » peut donner l’illusion d’une norme universelle, alors qu’il recouvre en réalité des cahiers des charges très différents selon les pays. Cette situation entretient une certaine ambiguïté et peut induire en erreur, en masquant les disparités de pratiques agricoles et de niveaux d’exigence derrière un label apparemment commun.
Pour s’y retrouver dans la jungle du « bio », il faut donc aller au-delà du simple logo affiché sur l’emballage et s’informer sur la provenance réelle du produit et sur le cahier des charges du label précis qui le certifie.
Il est aussi essentiel de garder à l’esprit que bio ne signifie pas automatiquement « local » ni « petit producteur ». Certains produits certifiés biologiques proviennent de filières industrielles mondialisées.
Enfin, le consommateur peut jouer un rôle actif de « citoyen alimentaire », pour encourager davantage de transparence et de traçabilité, s’il favorise les circuits de distribution qui donnent accès à une information claire et détaillée sur l’origine et les modes de production. Il soutient alors une alimentation plus démocratique et responsable. C’est précisément cette implication citoyenne dans le système alimentaire qui peut favoriser l’essor d’une culture de l’alimentation locale et durable, fondée sur la confiance, l’attachement au territoire et la coopération entre producteurs et consommateurs.
Pour que le bio livre son plein potentiel en termes de transformation agroécologique des systèmes alimentaires mondiaux, peut-être faudrait-il, demain, envisager une harmonisation internationale du bio. C’est à cette condition qu’on pourra en faire un véritable langage commun pour les consommateurs, qui signifie réellement la même chose d’un pays à l’autre.
Marie Asma Ben-Othmen ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
14.10.2025 à 15:46
Antoine Doré, Sociologue des sciences, techniques et politiques environnementales et agricoles., Inrae
Alors que les appels à renouer avec le sauvage se multiplient, la place du loup est devenue une question éminemment politique. Comment cohabiter avec le grand prédateur, et que cela signifie-t-il à tous les niveaux ? Dans « Politiques du loup. Faire de la sociologie avec des animaux », à paraître le 15 octobre 2025 aux Presses universitaires de France, le sociologue Antoine Doré (Inrae) revient sur la complexité de notre rapport au vivant, constitué d’un écheveau de liens complexes formés historiquement et socialement. Nous reproduisons ci-dessous un extrait de son introduction.
Plusieurs dizaines d’années après leur disparition, les loups sont de retour dans des contrées d’Europe et d’Amérique du Nord desquelles ils avaient été éradiqués. Au milieu des frénésies de la modernité, des raffuts du monde industriel et du grand saccage des milieux de vie, une espèce réapparaît : moment suspendu… entre espoir fragile et modeste soulagement devant les manifestations d’une nature qui reprend ses droits.
Dans le quotidien des champs, au milieu des frémissements du bétail et du fourmillement des vies pastorales, surgit une bête : instants de stupeur… profonde incompréhension et montées de colère face aux signes de délitement d’un monde familier dans lequel on ne se reconnaît plus.
Les réactions contrastées suscitées par le retour du prédateur ont quelques points communs. Elles témoignent d’une attention à l’habitabilité des lieux, que les prédateurs viennent tantôt enrichir, tantôt dégrader, selon les points de vue. Elles rappellent également à quel point les conditions d’existence de tout un chacun sont intimement intriquées avec la présence des autres. Non seulement avec la présence des autres humains, mais également avec celle des animaux qui peuplent les endroits où l’on vit.
Parce que se situer dans le monde revient à tisser des relations avec un ensemble d’entités matérielles et symboliques. Certaines, auxquelles sont reconnues des capacités à éprouver subjectivement les choses, occupent une position particulière. Car elles habitent le monde. Elles en ont une expérience. Vivre avec elles, c’est donc cohabiter. Les façons d’être au monde sont ainsi étroitement liées aux entités non humaines (notion mise à l’honneur en sciences sociales par la théorie de l’acteur-réseau, issue des Science and Technology Studies, selon laquelle la société ne se réduit pas aux humains), en particulier aux animaux.
À lire aussi : Comprendre la diversité des émotions suscitées par le loup en France
Bien sûr, ces derniers ne tiennent pas une place équivalente dans la vie de tous. Un nombre croissant de personnes vivent des animaux sans vivre avec. Ceux-ci s’apparentent alors à ce que le sociologue André Micoud appelle du vivant-matière : des organismes désingularisés, souvent invisibles de leurs principaux usagers finaux, confinés dans des ateliers de productions intensives et des laboratoires de recherche.
Dans la taxonomie proposée par ce sociologue, le vivant-matière s’oppose au vivant-personne, qui désigne au contraire des animaux dotés d’identités singulières, façonnées par des attachements affectifs et des relations bienveillantes. Là où A. Micoud identifie deux pôles d’un continuum en tension, l’anthropologue Charles Stépanoff distingue pour sa part « deux formes originales de traitement des animaux [qui] se sont […] généralisées à une époque récente » : l’animal-matière et l’animal-enfant. Mais plus que des réalités empiriques « pures », ces deux figures s’apparentent davantage à des avatars de la pensée des modernes.
Les loups ont ceci de particulier et d’intéressant qu’ils surgissent dans les interstices de cette modernité occidentale, là où des personnes partagent leur vie avec des animaux selon des modalités bien différentes. Ici, les brebis tiennent une place irréductible à une simple fonction de production. Les relations aux chiens – de conduite ou de protection des troupeaux, de chasse, etc. – ne se résument pas à des rapports familiers. S’ils mangent et s’ils dorment parfois aux côtés des humains, ils partagent également avec eux le travail.
Et puis il y a les animaux que l’on chasse, ceux que l’on observe, ceux que l’on protège et dont on prend soin sans pour autant les apprivoiser. Se situer par rapport à ces bêtes relève d’enjeux complexes. Cela engage des rapports hétérogènes à l’environnement. Cela instaure également des positions différenciées dans l’espace social.
Car autour de ces animaux s’établissent des relations entre les habitants des territoires. Et les crises provoquées par les loups naissent bien souvent d’une perturbation de l’équilibre des attachements entre les habitants humains et non humains de ces territoires recolonisés par le prédateur. S’y écharper à propos des loups, c’est toujours aussi se disputer sur la relation qui convient à tout un cortège d’autres animaux.
Isabelle Arpin l’a bien montré dans une enquête sur la place de la faune sauvage dans la vie des gens de la Vanoise (Parc national situé dans le département de la Savoie, ndlr). Quand la sociologue amorce son enquête, les loups n’y ont pas réapparu. En écoutant les gens parler des animaux et en observant les activités qui les relient à ces derniers, elle distingue deux mondes :
d’un côté, celui des éleveurs, des chasseurs de chamois et d’une première génération de garde-moniteurs du parc national ;
de l’autre, celui des naturalistes, des protecteurs de la nature, d’une nouvelle génération de garde-moniteurs et autres agents du parc national.
Le premier, composé principalement des « gens d’ici », est resserré dans l’espace et le temps. Les récits qui y circulent décrivent avec précision la vie quotidienne dans ces lieux, une vie partagée avec la faune, structurée autour de l’opposition entre le sauvage et le domestique. On y accorde une attention particulière à l’abondance et à la rareté des espèces, aux craintes et à la distance que les animaux conservent à l’égard des humains.
Les bouquetins y sont par exemple considérés comme suspects et de peu d’intérêt. Ils sont nombreux et peu craintifs, ce qui les apparente alors anormalement à des animaux domestiques. Les mouflons, au contraire, restent plutôt rares et éloignés des humains. Ils sont ainsi mieux appréciés en tant qu’authentiques animaux sauvages.
Le second monde, composé surtout des « gens d’ailleurs », est plus vaste et diffus. On y traverse des époques reculées, des espaces lointains, entre des récits de voyage naturaliste à l’étranger et un intérêt pour la longue histoire des espèces sauvages. L’opposition du naturel et de l’artificiel y prédomine, mettant en jeu l’appréciation du caractère autonome et autochtone des animaux. Les bouquetins y sont appréciés en tant qu’animaux naturels, car indigènes aux lieux, tandis que les mouflons au contraire y sont moins bien considérés du fait de leur origine anthropique, l’espèce ayant été introduite au XIXe siècle, puis dans les années 1950.
On découvre, au fil des récits et des pratiques des habitants de la Vanoise, le rôle de quelques animaux dans la construction, la naturalisation ou la subversion d’oppositions structurantes entre les « gens d’ici » et les « gens d’ailleurs », mais aussi entre les femmes et les hommes, entre les générations ou encore entre les « profanes » aux savoirs empiriques ancrés dans l’expérience vécue et les « experts » dont les connaissances de terrain s’appuient aussi sur des savoirs livresques ou institutionnalisés.
À lire aussi : Comment le tourisme et les loisirs de plein air ont modifié notre rapport aux animaux sauvages
Avant que les loups ne reviennent en Haute-Maurienne (Savoie) à l’automne 1997, quelques années après leur découverte dans le Mercantour (Alpes-Maritimes), les membres de ces deux mondes coexistent de manière relativement stable et pacifique. Ils parviennent à s’éviter en se partageant les animaux.
Les naturalistes s’attachent par exemple davantage aux bouquetins et les chasseurs aux chamois. L’accès aux animaux est également distribué dans le temps et l’espace, à travers la mise en place de périodes de chasse ou la définition de zones réglementées instituant une partition géographique des activités qui gravitent autour d’eux.
La coexistence n’est pas toujours facile cependant. Les catégories qui façonnent ces mondes s’avèrent parfois instables. Ces mondes réussissent toutefois à ménager des compromis face à l’émergence de nouveaux problèmes liés à la réapparition ou à l’augmentation des effectifs d’espèces comme les grands herbivores, les lynx, les grands rapaces ou encore les sangliers.
C’est alors que les loups surgissent et viennent bouleverser ce modus vivendi. Un sentiment de vulnérabilité plus brutal et plus insoutenable gagne en particulier les éleveurs et bergers confrontés aux attaques de leurs troupeaux, tandis que la protection des loups est identifiée par certains naturalistes comme un combat capital pour la préservation de la nature en général. Dès lors, ainsi que le souligne I. Arpin :
« La crise éclate parce que la venue des loups exaspère les tensions accumulées et met fin à un équilibre fragile entre les deux mondes. »
De nouveaux liens se créent entre des mondes qui doivent désormais composer ensemble. Les oppositions sauvage/domestique et naturel/artificiel sont brouillées : les loups deviennent l’archétype du sauvage pour les « gens d’ailleurs » et le comble de l’artifice pour les « gens d’ici » dont une majorité considère qu’ils ont été réintroduits secrètement par des « écologistes ». À l’arrivée du prédateur, les mondes globalement structurés se dissipent pour prendre la forme de réseaux conflictuels :
« L’ordre […] cède la place au désordre, les certitudes aux incertitudes, les savoir-faire maîtrisés aux improvisations. »
Si les études en sciences sociales ont bien documenté les turbulences locales provoquées par la présence des loups – lesquelles poussent à inventer des manières d’habiter les territoires –, on sait encore peu de choses de leur étonnante propagation politique.
Alors qu’avec nombre d’animaux, la cohabitation reste une affaire d’ajustements circonscrits aux bêtes et aux personnes directement engagées dans la situation, on est dans le cas des loups face à des négociations d’un type très différent. Les bouleversements locaux débordent des territoires concernés et affectent finalement une large part de la population nationale soucieuse du sort réservé aux loups ou aux moutons, aux éleveurs, aux mouflons, aux chasseurs, etc. Les destinées d’une multiplicité d’humains et de non-humains se trouvent inextricablement reliées à celle des loups, mais dans des sens très divers et antagonistes. De sorte que les modes de régulation locale des conflits, qui s’inventaient autour des problèmes liés par exemple aux sangliers, aux marmottes, ou aux bouquetins, apparaissent inappropriés pour faire face à l’ampleur de la crise engendrée par les loups.
Les réseaux constitués des humains et des non-humains directement affectés par le retour des loups ne parviennent plus à s’articuler. La définition des modalités de prise en charge des conséquences heureuses ou malheureuses liées à ces nouveaux venus fait l’objet d’une multitude de questions.
Ces questions circulent des territoires ruraux confrontés à la présence de ces prédateurs jusque dans les grands médias nationaux, au Parlement, ou encore dans les tribunaux : qui sont-ils ? D’où viennent-ils ? Combien sont-ils ? Comment les protéger ? Comment s’en protéger ? Que valent-ils ? Que coûtent-ils et à qui ? Comment les accueillir ? Comment s’en prémunir ?
Aucun compromis local ni aucune solution scientifique, technique, juridique ou administrative ne permet de répondre de manière satisfaisante aux problèmes qui se posent.
Les acteurs désorientés – les protecteurs comme les détracteurs du prédateur – se mobilisent alors pour chercher le soutien d’alliés extérieurs susceptibles de les aider à constituer une force de résolution de la crise qu’ils traversent et qui affecte ce à quoi ils tiennent. Dans les pays où les loups réapparaissent, l’annonce publique de leur retour fait grand bruit. L’événement s’impose comme un problème public sur lequel les habitants de toute la nation sont invités à s’exprimer. En France, le retour des loups donne lieu par exemple à un sondage Sofres commandé par le ministère de l’environnement en mai 1995 : 79 % des personnes interrogées s’y déclarent favorables.
Les réseaux locaux, qui se sont substitués aux mondes articulés, s’étendent au-delà de celles et ceux qui sont immédiatement concernés par le retour des loups. Ils forment ainsi des publics, c’est-à-dire des groupes d’individus qui, sans être directement affectés par la présence du prédateur, s’en trouvent pourtant sérieusement concernés (selon la définition du « public » forgée par John Dewey :
La présence des loups s’affirme alors comme une question plus politique que jamais. C’est à l’étude de ces formes intrigantes de propagation politique des loups que ce livre est consacré.
À lire aussi : Malgré les plans loup successifs, une cohabitation toujours délicate dans les Alpes du Sud
Antoine Doré ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
12.10.2025 à 08:59
Alice Mirailler, Ph.D. Candidate, Laboratoire de Mécanique des Contacts et des Structures LaMCoS, INSA Lyon – Université de Lyon
Ana-Maria Trunfio-Sfarghiu, Chercheuse, INSA Lyon – Université de Lyon
Alors que la 50e édition du salon EquipAuto, salon international des pros de l’automobile, s’ouvre à Paris ce 14 octobre, penchons-nous sur l’autre problème de pollution, grandissant, posé par toutes les voitures, même électriques : les émissions hors échappement, dues à l’usure des freins, des pneus et de la chaussée. La question est indépendante de l’enjeu de réduire les émissions à l’échappement des voitures neuves, qui ont déjà fortement diminué du fait des progrès techniques. Une norme européenne, qui doit entrer en vigueur en 2026, entend les réduire, mais sa mise en œuvre pourrait ne pas livrer les effets escomptés.
Au 1er janvier 2024, le parc routier français était constitué de 39,3 millions de voitures particulières, de 6,5 millions de véhicules utilitaires légers (VUL), de 625 000 poids lourds et de 94 000 autobus et autocars en circulation.
Dans les contextes de forte densité du trafic, les émissions polluantes liées au transport routier restent un enjeu majeur de santé publique. En France, les véhicules particuliers sont à l’origine de plus de la moitié des émissions de gaz à effet de serre du secteur des transports. En 2019, ils représentaient 26 % des émissions nationales d’oxyde d’azote (NOx), un polluant irritant pour les voies respiratoires, et 22 % des émissions nationales de CO2.
Si les émissions à l’échappement, dues à la combustion dans les moteurs, ont été progressivement réduites grâce aux normes antipollution successives, une attention croissante est désormais portée aux émissions dites hors échappement, issues notamment de l’usure des freins, des pneus et de la chaussée.
La future norme Euro 7, qui entrera en vigueur à partir de 2026, marque une étape importante en intégrant pour la première fois ces sources de pollution non négligeables… sans pour autant résoudre tous les problèmes.
Au cours des dernières années, des recherches scientifiques et industrielles ont permis d’importantes diminutions des émissions à l’échappement des véhicules récents, essence ou diesel. Cela résulte de l’allègement des véhicules, de la réduction de la consommation des moteurs thermiques et de l’installation des filtres à particules (FAP) pour limiter les émissions issues de la combustion du carburant.
Ce qui pèse désormais davantage dans l’empreinte environnementale des voitures, ce sont les émissions hors échappement. Elles regroupent les particules provenant de l’abrasion des freins et des pneus ainsi que de la remise en suspension des poussières sur la chaussée au passage des véhicules.
Si elles ne représentaient que 16 % des particules avec un diamètre inférieur à 10 micromètres (μm) (PM10) totales émises par le transport routier en 1990, cette part a atteint 71 % en 2022. Pour les particules avec un diamètre inférieur à 2,5 μm, ce chiffre est passé de 9 % en 1990 à 57 % en 2022.
Or, les réduire constitue un défi : la sécurité routière dépend justement de l’adhérence des pneus et de l’efficacité du freinage – deux sources inévitables de particules.
Lorsque les particules émises par les véhicules sont inhalées, elles se déposent dans différentes régions du système pulmonaire en fonction de leur taille. Les plus dangereuses pour la santé sont les PM1, c’est-à-dire les particules dont le diamètre est inférieur à 1 micromètre, car elles peuvent pénétrer profondément jusqu’aux alvéoles pulmonaires.
Plusieurs études ont démontré que les particules engendrées par le freinage sont des PM1 (de diamètre inférieur à 1 micromètre), voire des particules ultrafines dans le cas des poids lourds (inférieures à 100 nanomètres) et, par conséquent, capables d’atteindre ces alvéoles.
Peu d’études toutefois se sont penchées sur la toxicité des particules non issues de l’échappement sur le système pulmonaire. Pour pallier ce manque, un dispositif innovant a été développé par des scientifiques afin de collecter ces particules pendant deux heures directement dans une solution biologique.
Conçu initialement sous forme de sac à dos pour permettre la collecte en différents points de la ville de Lyon (Rhône), ce système a ensuite été adapté sur un véhicule afin de réaliser des prélèvements en conditions réelles de circulation.
Les premiers résultats suggèrent que les particules de freinage de taille inférieure à 1 micromètre (principalement composées de fer, de cuivre, de baryum et d’antimoine) pourraient présenter un risque sanitaire notable. Leur petite taille leur permet d’interagir avec le surfactant pulmonaire (c’est-à-dire, la matière tensioactive sécrétée dans les poumons) ainsi qu’avec les macrophages alvéolaires. Cette interaction pourrait induire, sur le long terme, une altération progressive de la fonction pulmonaire.
Il est possible qu’une exposition répétée à de faibles doses puisse favoriser le développement de pathologies chroniques, telles que la fibrose pulmonaire, par un processus lent d’accumulation et de réponse inflammatoire persistante.
Les émissions hors échappement seront intégrées pour la première fois dans la future norme Euro 7, ce qui constitue une avancée significative vers une évaluation plus complète et rigoureuse des sources de pollution atmosphérique liées aux véhicules.
La norme Euro 7 entrera en vigueur en novembre 2026 pour les voitures et les véhicules utilitaires légers. Pour tous les types de véhicules, la limite maximale des émissions de particules PM10 (de diamètre inférieur à 10 micromètres) serait fixée à 7 mg/km à partir de 2026 et à 3 mg/km à partir de 2035.
L’établissement de cette nouvelle norme soulève cependant une difficulté fondamentale d’ordre physique. Comme évoqué précédemment, des travaux ont démontré que les particules émises lors du freinage sont majoritairement des PM1, avec des tailles inférieures à 1 micromètre. Elles ne tombent donc pas sous le coup de cette réglementation.
De plus, ces particules présentent une masse extrêmement faible, souvent négligeable, ce qui rend les limites actuelles exprimées en milligramme par kilomètre (mg/km) peu adaptées pour quantifier précisément les émissions. Il serait donc pertinent que la réglementation évolue vers une prise en compte fondée sur le nombre de particules émises par kilomètre, afin de mieux refléter la réalité et les impacts potentiels de ces émissions ultrafines.
Les avancées scientifiques et technologiques dans la compréhension et dans la maîtrise des émissions liées au freinage progressent encore à un rythme souvent jugé insuffisant face aux exigences réglementaires et aux impératifs économiques du secteur automobile. En conséquence, les constructeurs proposent actuellement des solutions dont l’efficacité et les impacts restent encore partiellement évalués, parmi lesquelles :
le freinage électromagnétique : il réduit l’usure et les émissions en freinage normal, mais les freins mécaniques restent sollicités lors des freinages d’urgence, engendrant des émissions importantes ;
les filtres à particules à la source : ils peuvent limiter la dispersion des poussières, mais leur impact sur le contact frictionnel entre plaquette et disque – et donc, sur la sécurité – nécessite une validation rigoureuse ;
la modification des matériaux des plaquettes : elle peut réduire leur usure mais également augmenter la production de nanoparticules, dont les effets sanitaires restent mal connus et font l’objet de recherches en cours.
Selon une analyse publiée par le Centre interprofessionnel technique d'études de la pollution atmosphérique (Citepa), les véhicules électriques émettent un peu moins de particules liées à l’usure des freins grâce au freinage régénératif (c’est-à-dire, s’appuyant sur un système de récupération d’énergie).
Cependant, leur masse plus importante entraîne une augmentation des émissions de particules provenant de l’abrasion des pneus et de la chaussée. Ces deux effets tendent à s’équilibrer, de sorte que les émissions totales de particules des véhicules électriques à grande autonomie sont comparables à celles des véhicules thermiques récents, qui émettent désormais très peu de particules à l’échappement.
Les véhicules électriques soulèvent, par ailleurs, d’importantes interrogations concernant la disponibilité des ressources nécessaires à la fabrication des batteries et concernant les enjeux environnementaux et techniques liés à leur recyclage.
Dès lors, la sobriété apparaît comme l’une des voies les plus cohérentes : réduire nos déplacements lorsque cela est possible et amorcer la transition d’une société centrée sur la consommation vers un modèle plus respectueux de l’environnement.
Ana-Maria TRUNFIO-SFARGHIU a reçu des financements de CNRS et Ministère de la recherche publique (financements liées à la thèse d'Alice Mirailler, son salaire et un petit accompagnement) + chaires INSA Lyon avec VOLVO et MICHELIN
Alice Mirailler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 10:23
Marie-France Dignac, Directrice de recherches sur la biologie des sols, INRAE, Inrae
Jean-François Ghiglione, Directeur de recherche, Ecotoxicologue, Centre national de la recherche scientifique (CNRS)
Issus à 99 % du pétrole, les plastiques alimentent la crise écologique et climatique tout au long de leur cycle de vie. Derrière l’image trop familière des déchets qui polluent les rivières puis les océans, la production et le recyclage des plastiques sont aussi source d’émissions considérables de gaz à effet de serre, de quoi compromettre les efforts mondiaux de réduction des émissions. Surtout, les plastiques, un débouché du pétrole, entretiennent la dépendance de l’économie aux énergies fossiles. Le risque serait qu’ils deviennent la planche de salut des industriels de la pétrochimie à l’occasion de la COP30 sur le climat, qui se déroulera du 10 au 21 novembre 2025, à Belem, au Brésil.
À partir du 10 novembre 2025, la COP30 sur le climat réunira les États membres de l’Organisation des Nations unies (ONU) au cœur de la forêt amazonienne, au Brésil. Il s’agit d’un rendez-vous majeur du multilatéralisme, où l’on espère que les ambitions régulièrement formulées par les États vont enfin se concrétiser.
Le contexte international n’est pas forcément au beau fixe pour cela. Face à des pays qui nient la science, ou qui se soucient peu de l’environnement et de la santé humaine et refusent de comprendre que leurs propres économies en paieront le prix à long terme, les pays engagés dans la transition vers une économie moins polluante et moins dépendante des énergies fossiles peinent à se faire entendre. Les négociations en vue d’un traité contre la pollution plastique, qui n'ont toujours pas abouti à un texte, en fournissent un exemple éloquent.
Les preuves scientifiques sont pourtant très claires quant aux impacts de la production de plastiques sur la perte de biodiversité et la pollution à l’échelle planétaire. D’autant plus que ces impacts sont en réalité bien plus larges : les plastiques impactent la santé humaine et exacerbent le dépassement de toutes les autres limites planétaires. En cela, ils aggravent la crise écologique et climatique déjà en cours.
À lire aussi : Jusqu’à quand pourrons-nous dépasser les limites planétaires ?
L’impact climatique du secteur de la pétrochimie est moins souvent mis en avant que celui des secteurs de l’énergie et des transports, plus proches des consommateurs. Il fait pourtant figure d’éléphant dans la pièce : entre 4 et 8 % de la production de pétrole est aujourd’hui utilisée pour fabriquer des produits plastique. Près de 99 % de ces produits sont fabriqués à partir de pétrole.
Depuis l’extraction et le transport des combustibles fossiles, jusqu’à la fabrication, l’utilisation et l’élimination des plastiques, ces matériaux génèrent des émissions qui contribuent au réchauffement climatique. Les plastiques sont ainsi directement responsables de 3,5 % des émissions globales de gaz à effet de serre, dont la plupart sont générées lors de leur production.
Le recyclage des plastiques, souvent mis en avant par ces industriels, n’a rien d’une solution miracle. Toutes les technologies de traitement des déchets plastiques sont émettrices de gaz à effet de serre :
leur incinération libère le carbone qui les constitue sous forme de CO2,
leur mise en décharge entraîne des émissions de méthane (Bauer et coll., 2022)
de façon générale, recycler les plastiques nécessite de grandes quantités d’énergie.
Dans un scénario de statu quo, si la production et l’utilisation de plastiques continuent d’augmenter au rythme actuel (soit un doublement de la quantité de plastiques produits tous les 20 ans), les émissions de gaz à effet de serre provenant des plastiques pourraient représenter de 10 à 13 % du budget carbone total (c’est-à-dire, la quantité de gaz à effet de serre que l’on peut encore se permettre d’émettre tout en restant sous la barre d’une hausse de +1,5 °C à l’horizon 2050).
Et encore, les chiffres qui précèdent ne tiennent pas compte du fait que les plastiques participent directement à la mondialisation de l’économie. Ils permettent de transporter les biens et denrées sur de très longues distances et de ce fait favorisent une économie basée sur une production loin des zones de consommation, fortement émettrice de gaz à effet de serre.
La pollution plastique se retrouve dans les rivières, les océans ou sur terre, sous différentes tailles (macro, micro ou nanoplastiques), et peut persister pendant des siècles. Selon l’OCDE, environ 22 % des déchets plastiques finissent dans l’environnement, dont une grande partie dans l’océan, nuisant à la vie marine.
Les aliments, l’eau et l’air sont ainsi contaminés et les microplastiques finissent, à travers la chaîne alimentaire, également dans notre corps. Les preuves scientifiques de l’impact des plastiques sur la santé humaine sont de plus en plus solides.
Mais ce n’est pas tout. Les plastiques agissent également indirectement sur le réchauffement climatique. En effet, les débris plastiques en mer modifient les cycles du carbone et des nutriments. En agissant sur les processus microbiens, ils diminuent la productivité en nutriments à la surface de l’océan. Résultat : les « pompes à carbone » de l’océan, qui ont permis de piéger environ 31 % des émissions anthropiques de CO2 entre 1994 et 2007, fonctionnent moins bien.
Par ailleurs, une méta-analyse récente a montré que la présence de microplastiques dans l’eau ou dans les sols pourrait diminuer la photosynthèse, et donc limiter la production de biomasse carbonée. Avec des impacts sur la sécurité alimentaire, mais aussi sur les puits de carbone naturels et le climat.
À lire aussi : Que sont les « puits de carbone » et comment peuvent-ils contribuer à la neutralité carbone en France ?
Reconnaissant tous ces dangers des plastiques pour la santé humaine et la santé de l’environnement, un comité intergouvernemental de négociation (CIN) a été créé en mars 2022 afin d’élaborer un instrument international juridiquement contraignant pour mettre fin à la pollution plastique dans tous les environnements. Et ceci, en tenant compte de l’ensemble du cycle de vie des plastiques.
La deuxième partie de la cinquième réunion de ce comité (CIN-5.2) s’est tenue à Genève, du 5 au 14 août 2025. Les négociations étaient basées sur le projet de texte du président du CIN proposé à la fin de la première partie du CIN-5 à Busan, en 2024.
Plusieurs éléments de ce projet de texte peuvent avoir une réelle efficacité pour mettre fin à la pollution plastique. Il s’agit notamment :
de réduire la production de plastique (article 6),
d’interdire les produits plastique et les substances chimiques dangereuses pour les humains ou pour l’environnement (article 3),
de concevoir des produits en plastique moins polluants (article 5),
de limiter les fuites vers l’environnement (article 7)
et enfin de protéger la santé humaine (article 19).
Mais de nombreux pays font pression pour que ces mesures soient rejetées : les mêmes désaccords politiques qui avaient bloqué les négociations précédentes se sont reproduits à Genève.
Presque tous les plastiques sont fabriqués à partir de combustibles fossiles, c’est pourquoi les pays qui refusent de prendre des mesures ambitieuses – notamment l’Arabie saoudite, la Russie et l’Iran – sont essentiellement des pays producteurs de pétrole ou dotés d’industries pétrochimiques puissantes.
Les intérêts économiques en jeu sont donc importants. Ce groupe de pays partage les mêmes idées – nommé pour cela le « like-minded group » – et refuse d’inclure de tels objectifs. Ils privilégient un accord visant à gérer les déchets, sans réduire leur production.
À lire aussi : Comment échapper à la malédiction de la rente fossile ?
Mais ce faisant, ils dénigrent tous les modèles scientifiques sur l’évolution de la pollution plastique, qui montrent qu’il est nécessaire de réduire la quantité de plastique produite chaque année afin de réduire la pollution par les plastiques tout au long de leur cycle de vie. On a également pu noter la forte présence des lobbies des entreprises pétrolières et des fabricants de plastiques, qui ne cesse d’augmenter au fil des négociations.
Le manque de consensus à la fin des négociations du CIN-5.2 peut être vu comme un échec des négociations.
Toutefois, le rejet massif du texte faible proposé le 13 août a aussi montré qu’une grande majorité de pays ne sont pas prêts à accepter un traité vidé de sa substance.
De nombreux pays ont souligné que ce texte ne permettrait pas d’atteindre les objectifs pourtant fixés dans le mandat à l’origine de ces négociations, et ont appelé à des mesures ambitieuses en accord avec la science, notamment une réduction de la production de plastique et une régulation des produits et substances chimiques dangereux, pour protéger la santé humaine et de l’environnement. La majorité des pays s’est aussi déclarée favorable à la poursuite des discussions.
Le multilatéralisme a montré à Genève la capacité des pays à construire une coalition forte et ambitieuse, rassemblant près de 120 pays (les 75 pays de la Coalition de haute ambition (HAC) et leurs alliés) et basant ses positions sur les faits scientifiques.
Espérons que ces avancées se concrétisent avec la poursuite des discussions sur le traité contre la pollution plastique, et qu’elles soient prises en compte dans les négociations climatiques lors de la COP30. La production de plastique ne doit pas menacer les efforts réalisés par les États pour limiter le recours aux énergies fossiles dans les autres secteurs.
Comme il a été reconnu lors des dernières COP sur le climat, notamment la COP28 en 2023, le monde doit s’organiser pour sortir progressivement des énergies fossiles.
D’importants efforts de recherche ont été consacrés à cette transition dans les secteurs de l’énergie et des transports, qui utilisent la majeure partie des ressources fossiles pour produire de la chaleur, de l’électricité et des carburants. Les énergies renouvelables remplacent ainsi peu à peu les produits pétroliers dans le mix électrique, ainsi que dans le secteur des transports.
D’autres secteurs, par exemple l’industrie lourde, doivent se réinventer : en effet, ils sont davantage dépendants aux produits pétroliers dans leurs processus industriels mêmes.
À cet égard, la pétrochimie souffre d’un problème de fond : elle contribue à maintenir à un niveau élevé la demande en pétrole, qui constitue un intrant de ses procédés industriels. Les produits pétrochimiques devraient ainsi représenter plus d’un tiers de la croissance de la demande mondiale de pétrole d’ici 2030, et près de la moitié de celle-ci d’ici 2050.
Les plastiques ne doivent pas devenir le radeau de secours de l’industrie pétrolière. En plus de contribuer aux émissions globales de gaz à effet de serre, ils détruisent les sols, empoisonnent les eaux et nuisent aux organismes vivants, y compris les humains. Sur les sept milliards de tonnes de déchets plastiques générés dans le monde depuis l’invention de ce matériau, moins de 10 % ont été recyclés, et cinq milliards de tonnes se sont accumulés dans la nature.
Les industriels de la pétrochimie, de l’extraction des énergies fossiles et leurs alliés cherchent une fois de plus à déplacer le problème : la production de plastiques pose un problème sanitaire, écologique, et climatique majeur. Réduire la production de plastiques constitue un levier incontournable pour maîtriser leurs impacts sur la planète.
Marie-France Dignac a reçu des financements de l'Agence de la Transition Ecologique (ADEME) et de l'Agence Nationale de la Recherche (ANR).
Jean-François Ghiglione a reçu des financements de l'Agence nationale de la recherche (ANR), de l'ADEME, de l'OFB et de l'Agence de l'eau
09.10.2025 à 10:23
Mathieu Baudrin,, Sociologue sciences et des technologies, Direction Sciences sociales, économie et société, Anses, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
Baptiste Monsaingeon, Maître de conférence en sociologie, Université de Reims Champagne-Ardenne (URCA)
Bernadette Bensaude-Vincent, Philosophe, Université Paris 1 Panthéon-Sorbonne
Des serres agricoles aux bouteilles d’eau, en passant par la recette du pain de mie, le plastique a transformé en profondeur toute l’industrie agroalimentaire. Face au problème grandissant de la pollution plastique, on peut s’inspirer, à travers l’approche des « métabolismes urbains », de ce qui était fait au début du XXe siècle.
La production massive de plastiques est devenue un marqueur de la seconde moitié du XXe siècle, souvent dénommée « l’âge des plastiques ». Leur introduction dans les chaînes de valeur de l’agroalimentaire date des années 1930. Elle procédait de deux dynamiques.
La première est l’essor de l’industrie pétrolière et de l’automobile : les plastiques étant un co-produit du craquage du pétrole, les compagnies pétrochimiques recherchent activement à étendre le marché des plastiques, qui se prêtent à tous les usages comme leur nom l’indique.
La seconde est l’intensification de l’agriculture, au lendemain de la Deuxième Guerre mondiale, pour faire face à une démographie galopante.
Le recours aux matières plastiques, progressif mais massif, a profondément modifié les pratiques alimentaires et agricoles, sans parler des aliments eux-mêmes.
Aujourd’hui, les impacts sanitaires et environnementaux des plastiques, en particulier sous leur forme micro et nanoparticulaires, sont avérés. La gestion (dont notamment le recyclage) des déchets plastiques n’est pas la seule en cause : c’est bien l’existence même des plastiques qui est en jeu.
Mais les mesures de réduction ou d’interdiction de l’usage de matières plastiques dans l’industrie agroalimentaire, du champ jusqu’au domicile des consommateurs, ne sauraient être appliquées sans une réflexion globale sur les pratiques actuelles de production, de distribution et de consommation des denrées alimentaires.
L’emballage des aliments fut le premier et reste le principal usage des plastiques dans l’agroalimentaire. Il correspond à un moment historique de changement dans la façon de stocker et de transporter les aliments, notamment grâce à la réfrigération.
C’est également un moment de reconfiguration des circuits de distribution avec le développement des supermarchés. Les plastiques deviennent alors incontournables et contribuent à structurer le marché alimentaire mondial tel que nous le connaissons aujourd’hui.
En effet, les emballages permettent d’allonger la durée de conservation des aliments et, surtout, facilitent la consommation nomade d’aliments et de boissons.
Si la bouteille en verre a permis la marchandisation de l’eau en lui attribuant une marque et des qualités, c’est bien l’invention de la bouteille d’eau en polyethylene terephthalate (PET) qui, à la fin des années 1970, a répandu son usage à l’échelle mondiale.
Les plastiques modifient jusqu’aux aliments eux-mêmes. C’est le cas du pain de mie commercialisé en sachets plastiques. Dès 1937, la firme Dupont lance un projet de recherche et développement (R&D) qui débouche sur l’ajout de « mycoban », un antifongique, à la farine utilisée pour réduire le risque de moisissure.
Les plastiques ont donc profondément changé nos manières de manger et même la nature de ce que l’on mange. Ils ont favorisé les aliments transformés par une foule d’intermédiaires et contribué à creuser le fossé entre les producteurs et les consommateurs de viande ou poisson conditionnés, surgelés, ou emballés.
En amont des supermarchés, les pratiques agricoles ont, à leur tour, été transformées par les plastiques. D’abord introduits dans les années 1950 comme substituts au verre dans les serres horticoles, ils se sont généralisés depuis les années 1970 pour les cultures maraîchères sous tunnels et l’ensilage du foin.
En Europe, l’expansion des plastiques a été facilitée par la politique agricole commune (PAC). Lancée en 1962 par la Communauté économique européenne (CEE), celle-ci était au départ destinée à encourager l’agriculture intensive et productiviste.
Or, les tunnels de plastique permettent justement de cultiver et de produire des fruits ou légumes dans des terrains peu propices et d’étendre les saisons de production. Depuis, les surfaces recouvertes par des serres ou tunnels en plastique en Espagne et en France n’ont cessé d’augmenter.
Mais cette plastification de certaines cultures s’accompagne aussi de mutations socioprofessionnelles. Dans les vastes plaines recouvertes de tunnels plastifiés abritant des cultures de fraises (ou autres) à haute valeur ajoutée, on fait appel à une main-d’œuvre souvent étrangère, saisonnière et bon marché. Celle-ci travaille dans des conditions difficiles.
Les plastiques ont ainsi envahi les pratiques de production et les circuits de distribution des denrées alimentaires. Le mot « agriplastique » témoigne de l’enchevêtrement d’éléments humains, économiques et techniques, dont la dynamique tend à se renforcer avec le temps. Cela aboutit, après plusieurs décennies, à ce que nous pourrions qualifier de verrou sociotechnique.
Que faire pour se libérer de cette omniprésence des plastiques dans l’agroalimentaire ? Les plastiques étant constitutifs des chaînes de valeurs décrites, il serait naïf de penser qu’on pourrait conserver cette organisation marchande tout en éliminant les matières plastiques.
Ce constat ne doit pas pour autant pousser les décideurs à l’inaction. Il invite plutôt à une réflexion d’envergure sur une possible réorganisation des chaînes de valeur agroalimentaires. Afin d’initier cette réflexion, nous proposons de revenir sur quelques leçons de l’histoire.
Au début du XXe siècle, l’économie des flux de denrées alimentaires entre populations rurales et urbaines fonctionnait en boucles quasi fermées. Les matières rejetées par les uns étaient utilisées, par exemple sous forme d’engrais, par les autres.
Dans ce contexte, la notion même de déchets n’existe pas encore, puisque rien n’est ni mis au rebut ni traité comme déchet ultime (c’est-à-dire, un déchet qui ne peut plus être traité davantage dans les conditions technicoéconomiques du moment).
Les fèces humaines sont alors vues comme des engrais agricoles, les chiffons peuvent devenir du papier, les carcasses d’animaux de travail sont réutilisées pour fabriquer des colles et autres produits du quotidien.
À lire aussi : L’histoire peu connue du compost en France : de la chasse à l’engrais à la chasse au déchet
La rupture de ces « métabolismes urbains », tels que décrits par Sabine Barles, correspond historiquement à l’avènement de la chimie de synthèse. Se met alors en place un complexe industriel qui produit à la fois des engrais, des produits phytopharmaceutiques et des plastiques, trois catégories de produits constitutifs des chaînes de valeurs agricoles actuelles.
Il n’est certes ni envisageable – ni même souhaitable – de reproduire à l’identique les métabolismes urbains du début du XXe siècle. Ils reposaient largement sur la mobilisation d’une main-d’œuvre nombreuse sous-payée vivant dans la misère, par exemple les chiffonniers.
En revanche, on peut retenir l’idée d’une approche systémique, globale et métabolique au lieu de se contenter de chercher un matériau de substitution aux plastiques qui soulèvera, à son tour, des difficultés similaires. Il s’agit donc de repenser, avec les acteurs concernés, l’ensemble des filières agroalimentaires pour viser la sobriété plastique.
Cet article s’appuie sur le rapport d’expertise « Plastiques utilisés en agriculture et pour l'alimentation » Inrae/CNRS, publié en mai 2025.
Baptiste Monsaingeon a reçu des financements de l'ANR pour divers projets de recherche publique liés aux déchets et aux plastiques.
Bernadette Bensaude-Vincent et Mathieu Baudrin, ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
08.10.2025 à 16:28
Alexis Giauque, Maitre de conférences en simulation numérique pour les énergies renouvelables, Centrale Lyon
Chaque année, l’industrie rejette une partie de la chaleur nécessaire à l’ensemble de ses procédés. Cette énergie perdue s’appelle « chaleur fatale ». Les solutions pour récupérer cette chaleur sont aujourd’hui encore trop limitées. De nouveaux dispositifs, utilisant des pompes à chaleurs et des fluides « supercritiques », sont en développement.
Fours de cimenterie, séchage du papier, agroalimentaire… les quantités de chaleur perdues aujourd’hui dans des procédés industriels sont significatives. Il faut bien évidemment tout mettre en œuvre pour les réduire en optimisant les procédés et en ajustant au plus proche la production à la demande. Mais aucun processus physique ne peut atteindre un rendement parfait, et si rien n’était fait pour récupérer cette chaleur résiduelle, l’équivalent de sept mégatonnes de pétrole serait brûlé pour rien, émettant aussi 28 mégatonnes de CO2, soit 6 % des émissions totales de CO2 en France.
Les méthodes de récupération de la chaleur perdue (ou fatale) visent aujourd’hui principalement des gisements à haute température (supérieure à 100 °C), ou nécessitent l’existence d’un réseau de chaleur à proximité (un ensemble de tuyaux capables d’amener la chaleur sur de courtes distances vers des logements ou des bâtiments publics par exemple).
Pour mieux valoriser cette chaleur générée dans les usines, qui représenterait au total un réservoir d’environ 110 térawattheures par an en France, d’autres solutions sont actuellement à l’étude.
Pour mieux comprendre les enjeux, prenons un exemple concret, celui d’une cimenterie. Une tonne de ciment nécessite 3 000 mégajoules de chaleur : seuls 40 % sont absorbés par les réactions chimiques entre l’argile et le calcaire, et une partie des 60 % restants peut être directement réutilisée pour préchauffer les matériaux. Mais on estime entre 300 et 1 000 mégajoules par tonne la chaleur perdue dans l’atmosphère. Sachant qu’une cimenterie peut produire environ 1 500 tonnes de ciment par jour, cela revient à brûler entre 12 et 37 tonnes d’essence par jour pour rien.
Ce problème est bien plus large que les cimenteries : on trouve l’agroalimentaire en tête, puis la chimie-plastique, la production de papier et de carton, la sidérurgie et la fabrication de matériaux non métalliques (ciment, verre, tuile ou brique). Tous domaines industriels confondus, les fours et séchoirs représentent 60 % de l’énergie consommée par l’industrie en France.
Point noir supplémentaire, une bonne part (60 %) de l’énergie utilisée dans l’industrie est obtenue par la combustion de matières fossiles, ce qui émet du CO2 dans l’atmosphère et explique pourquoi l’industrie est encore responsable d’environ 17 % des émissions de gaz à effet de serre de la France. L’objectif est de réduire ces émissions de 35 % d’ici 2030 et de 81 % d’ici 2050 par rapport à 2015.
À lire aussi : Avenir énergétique de la France : le texte du gouvernement est-il à la hauteur des enjeux ?
La chaleur fatale émise au cours d’un procédé industriel est d’autant plus simple à réutiliser ou à recycler que la température du flux thermique est élevée. Cela est si fondamental que les ingénieurs et chercheurs ont l’habitude de distinguer la chaleur fatale « basse température » ou « basse qualité », à moins de 100 °C (56 térawatts-heures par an) et celle dite « haute température » ou « haute qualité » au-delà de 100 °C (53 térawatts-heures par an).
Heureusement, des solutions existent pour recycler la chaleur fatale.
L’idéal est d’intégrer le flux de chaleur fatale directement dans le processus industriel qui en est à l’origine : dans l’industrie du ciment par exemple, la chaleur en sortie du four peut être introduite dans le précalcinateur situé en bas de la tour de préchauffage, qui a pour fonction principale de « précuire » le cru avant son entrée dans le four.
Si la chaleur fatale est à température relativement faible (inférieure à 100 °C), elle peut être réutilisée directement sur le site industriel pour alimenter d’autres procédés ou pour chauffer les locaux — la proximité limite les pertes de chaleur dans les tuyaux. On peut aussi insérer cette chaleur dans un réseau urbain ou dans le réseau d’un autre industriel à proximité.
Autre option : produire de l’électricité à partir de la chaleur perdue, grâce à l’utilisation de cycles thermodynamiques de Rankine organiques. En pratique ceci fonctionne pour des sources de chaleur fatale à assez haute température (supérieure à 200 °C) car le rendement est limité : par exemple, dans le cas d’une température de sortie d’usine à 200 °C et d’un refroidissement à l’atmosphère (20 °C), le rendement maximal est de 38 %.
Enfin, on peut utiliser des pompes à chaleur pour remonter le niveau de température du flux de chaleur fatale, et permettre ainsi son exploitation directe au sein du processus industriel. Cette option est prometteuse car le gisement de chaleur fatale basse température représente 51 % du gisement global.
Les pompes à chaleur domestiques sont de mieux en mieux connues des particuliers, mais celles que nous devons utiliser et développer pour récupérer la chaleur fatale dans les usines sont plus difficiles à mettre en œuvre.
Les pompes à chaleur (ou « PAC ») permettent de remonter la température selon un principe qui peut paraître paradoxal : il s’agit de prendre de la chaleur à la source froide pour la donner à la source chaude, s’opposant ainsi au sens naturel du transfert d’énergie.
Il faut forcer le transfert inverse en ajoutant du « travail » dans le cycle thermodynamique (le travail est en somme, une forme d’énergie, et c’est pour cela que les pompes à chaleur domestiques ont une prise électrique). Elles captent la plupart de l’énergie utilisée sous forme de calories (chaleur) et dépensent un peu d’électricité.
À lire aussi : La géothermie, plus écologique et économe que la climatisation classique pour rafraîchir
Le transfert depuis la source froide vers la source chaude se fait en quatre étapes principales, explicitées ci-dessous :
Dans notre cas, le fluide est du « CO2 supercritique » (le CO2, à haute température et haute pression, se comporte à la fois comme un liquide et comme un gaz : il peut diffuser à travers les solides comme un gaz et peut dissoudre des matériaux comme un liquide). La source froide, dont on souhaite extraire la chaleur, est le flux de chaleur fatale issu du procédé industriel (à Tfroide=100 °C) ; la « source » chaude, ou cible, quant à elle est à une température bien plus élevée (la cible dans notre projet est Tchaude=200 °C).
La seule dépense énergétique dans ce cycle est celle nécessaire à assurer le fonctionnement du compresseur permettant la circulation du fluide – dans notre cas, du CO2 supercritique – le point clé est que l’énergie dépensée est environ cinq fois plus faible que l’énergie transmise de la source froide à la source chaude.
On peut ainsi « upcycler » la chaleur, mais toute la chaleur ne peut pas être récupérée. Dans notre cycle par exemple, on rejette un flux de chaleur à une température légèrement supérieure à 30 °C. Il n’est cependant pas simple de quantifier la chaleur résiduelle parce qu’elle dépend de la température environnante : si on est en plein été et que la température de l’atmosphère est à 30 °C alors on a pour ainsi dire récupéré toute la chaleur car le flux de sortie est quasiment à l’équilibre avec l’atmosphère… en hiver, ce serait moins le cas.
Nos pompes à chaleur utilisent du CO2 dans le domaine supercritique car cela offre plusieurs avantages : par exemple, l’augmentation de la capacité calorifique améliore le transfert de chaleur lors de l’échange avec la source froide, la viscosité faible limite les pertes par frottement dans les turbomachines (compresseurs/turbines), et il n’y a pas de gouttes (interfaces liquide/gaz) qui risqueraient d’endommager les pièces métalliques dans les turbomachines.
Le cycle que nous venons de décrire (cycle Brayton inverse du CO2 supercritique) est au cœur du projet REVCO₂.
Mais notre collaboration cherche à ajouter à ce système de recyclage de la chaleur un système de stockage à haute température (T~600 °C), ce qui permettrait de générer de l’électricité à partir de cette chaleur de « haute qualité ».
Notre espoir est que les industriels pourront choisir, en fonction de leur besoin à chaque instant, soit de consommer un peu d’électricité pour obtenir de la chaleur utilisable dans leur procédé industriel, soit d’utiliser la chaleur stockée à 600 °C pour produire de l’électricité (la chaleur fatale seule ne le permettrait pas avec un rendement décent) et la revendre. Le prix de l’électricité à l’achat et à la revente sur le marché européen apparaît donc comme un nouveau paramètre pour la récupération de la chaleur fatale. Nos optimisations incluront donc une dimension économique, essentielle pour l’appropriation par les industriels de nouvelles solutions technologiques.
Pour produire un système optimisé, dans le projet REVCO2, nous mettrons en œuvre des expériences détaillées pour les échangeurs de chaleur et le système de stockage et des outils de simulation haute-fidélité qui reproduiront séparément le comportement de chacun des éléments du système complet (turbomachines, échangeurs et systèmes de stockage de chaleur). Grâce aux données collectées, un jumeau numérique du système complet sera réalisé et permettra de tester les stratégies d’utilisation optimale d’un point de vue technico-économique.
Le projet REVCO2 — Développement et optimisation d’un cycle de Brayton au CO₂ supercritique REVersible pour la récupération de chaleur fatale du PEPR (programme et équipements prioritaires de recherche) SPLEEN, soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Alexis Giauque a reçu des financements de l'ANR dans le cadre du projet PEPR-SPLEEN REVCO2 (2025-2030)
08.10.2025 à 16:27
Tanguy Phulpin, Maitre de Conférence, en gestion de l'énergie électrique, CentraleSupélec – Université Paris-Saclay
Florentin Salomez, Chargé de Recherche en électronique de puissance, Centre national de la recherche scientifique (CNRS)
Hugo Helbling, Maitre de Conférences en Génie Electrique, Université Claude Bernard Lyon 1
Jean-christophe Crebier, Directeur de recherche CNRS, Grenoble INP - UGA
Marina Labalette, Cheffe de projet, IRT Saint Exupéry
Murielle Fayolle-Lecocq, Ingénieure sur l'impact environnemental des composants de puissance, Commissariat à l’énergie atomique et aux énergies alternatives (CEA)
Pierre Lefranc, Maître de conférences en électronique de puissance, Grenoble INP - UGA
C’est l’une des clés de voûte invisibles – mais omniprésentes – de la transition énergétique : l’électronique de puissance, qui convertit l’électricité sous une forme exploitable par toute la diversité d’équipements électriques et électroniques. C’est elle qui permet de recharger son smartphone, d’allumer une pompe à chaleur, ou encore d’injecter l’électricité éolienne et solaire dans le réseau. Mais, avec la multiplicité des usages, nous faisons aujourd'hui face à des problèmes de soutenabilité. Quid de tous ces composants, difficiles à réparer, à réutiliser et à recycler ? Peut-on limiter les impacts environnementaux liés à la technologie et à nos besoins croissants en énergie ?
L’un des leviers de la transition énergétique et de la décarbonation de l’économie  est l’électrification de nos usages. Les véhicules électriques, par exemple, émettent pendant leur utilisation moins de polluants et de gaz à effet de serre (GES) que leurs équivalents à moteurs thermiques.
L’électricité n’est toutefois pas une source d’énergie en tant que telle, mais un vecteur d’énergie, comme l’énergie chimique contenue par les hydrocarbures, qui est libérée lors de leur combustion. Contrairement à celle-ci toutefois, il s’agit d’une forme d’énergie qu’on retrouve peu à l’état naturel (hormis peut-être lors des orages).
Un des enjeux clés est donc de produire l’électricité à partir de sources décarbonés : aujourd’hui encore, près de 60 % de l’électricité mondiale est produite à partir d’énergies fossiles. Mais ce n’est pas là le seul défi de la transition. Pour électrifier l’économie, il faut aussi déployer massivement les usages (par exemple la mobilité électrique) et renforcer la résilience du réseau électrique.
Ceci repose sur des technologies de pointe. Parmi ces technologies, l’électronique de puissance, qui permet de convertir l’électricité sous une forme exploitable par les différents appareils, joue un rôle clé qu’il convient de décrire, tant à travers son fonctionnement qu’à travers les enjeux énergétiques et écologiques qui lui sont associés.
L’électronique de puissance, mal et peu connue du grand public, est pourtant omniprésente dans notre quotidien. Il s’agit des dispositifs électroniques utilisés pour convertir l’énergie électrique, à tous les niveaux de la chaîne : par exemple sur les lignes électriques pour les changements de tension, pour le chargement des véhicules électriques, sans oublier les chargeurs de nos téléphones mobiles et ordinateurs portables.
Pour les chargeurs, l’électronique de puissance permet de transformer le courant alternatif (AC) du réseau électrique en courant électrique continu pour alimenter les batteries. Elle permet également la réalisation d'onduleurs pour l’opération inverse : la transformation de courant continu en courant alternatif.
Les applications des onduleurs sont très nombreuses : ils permettent d’intégrer les sources renouvelables (photovoltaïque, éolien…) sur le réseau électrique. Ils sont également essentiels au chargement des véhicules électriques, au fonctionnement des pompes à chaleur et des climatiseurs, des produits électroménagers tels que les réfrigérateurs, les machines à laver, etc.
En réalité, la quasi-totalité des équipements électriques comprennent un, voire souvent plusieurs convertisseurs d’électronique de puissance, et cela à toutes gammes de puissances électriques :
pour les plus faibles puissances, de l’ordre de quelques dizaines de watts (W) pour charger un smartphone par exemple,
pour les puissances intermédiaires, de l’ordre de quelques dizaines de kW pour recharger un véhicule électrique ou injecter sur le réseau la production de panneaux solaires photovoltaïques,
jusqu’à celles de plusieurs mégawatts (MW), par exemple pour convertir en électricité l’énergie générée par une éolienne, ou pour alimenter les moteurs d’un TGV ou alimenter un data center.
La diversité des applications et des niveaux de puissance requis a conduit à développer une très grande diversité de produits d’électronique de puissance, optimisés pour chaque contexte.
Traditionnellement, ces enjeux de recherche et développement (R&D) concernent l’amélioration du rendement énergétique (pour limiter les pertes et augmenter les performances), l’augmentation de la densité de puissance (afin de réduire le poids et le volume des appareils), ou encore l’amélioration de leur fiabilité et de leur durée de vie. Mais avec l’explosion des usages électriques, l’électronique de puissance fait désormais face à des enjeux environnementaux et sociaux.
En effet, l’approvisionnement en matières premières critiques est sous le coup de tensions géopolitiques, tandis que leur extraction peut être source de pollutions et de dégradation des écosystèmes naturels.
Les efforts investis pour décarboner la société ne doivent néanmoins pas être considérés uniquement à travers les seules émissions de GES. Pour prévenir et limiter les transferts d’impacts (lorsque la diminution d’un impact environnemental sur une étape du cycle de vie d’un produit implique des effets négatifs sur un autre impact ou une autre étape), il faut tenir compte des autres indicateurs environnementaux, telles la disponibilité des ressources critiques ou encore la dégradation de la biodiversité.
À lire aussi : La flexibilité électrique, ou comment décaler nos usages pour optimiser la charge du réseau
On l’a vu, l’électronique de puissance recoupe une large gamme d’applications et de puissances. De ce fait, elle est constituée d’une grande diversité de matériaux et de composants : on retrouve ainsi dans les composants constituants les convertisseurs de base plus de 70 matériaux différents.
Par exemple, du silicium pour les composants semi-conducteurs, des matériaux ferreux ou alliages à base de néodyme ou nickel pour les composants magnétiques, de l’aluminium ou tantale pour les condensateurs, des époxys ou polyamides non dégradables pour les circuits imprimés (PCB) ou encore des larges pièces en aluminium faisant office de radiateurs (pour évacuer de la chaleur produite par la conversion électrique). Certains de ces matériaux sont considérés comme des matériaux critiques et/ou stratégiques, associés à de forts enjeux environnementaux, économiques, sociaux voire géopolitiques.
Le problème tient aussi à leur recyclabilité : spécialisés pour un usage donné, les produits d’électronique de puissance peuvent être plus difficiles à réparer et souvent jetés en fin de vie. L’électronique de puissance contribue ainsi à l’augmentation de la quantité de déchets électroniques à gérer dans le monde, avec quelque 62 millions de tonnes atteintes en 2022. À l’heure actuelle, moins de 20 % sont collectés et traités.
La gestion des déchets issus de l’électronique de puissance, en fin de vie, constitue ainsi un problème qui se surajoute aux tensions d’approvisionnement en matières premières critiques et à l’impact environnemental de leur extraction. Pour les minimiser, il faut agir à toutes les étapes du cycle de vie, en particulier leur conception et leur fin de vie.
La communauté des experts techniques du domaine travaille ainsi à l’amélioration de la soutenabilité des équipements électroniques, et en particulier les convertisseurs.
En particulier, le groupe de travail Convertisseurs électroniques de puissance plus soutenables (CEPPS) du groupement de recherche Systèmes d’énergie électrique dans leurs dimensions sociétales (SEEDS) du CNRS, dont nous faisons partie, s’interroge sur les possibles transferts d’impacts d’une électrification massive sans repenser nos usages et nos besoins.
En effet, l’électrification engendre la production de toujours plus d’appareils électriques pour répondre à la croissance permanente des besoins énergétiques de notre société. Ce constat devrait nous inciter, en premier lieu, à modérer ces besoins en misant davantage sur la sobriété énergétique.
Une autre question, plus délicate pour cette industrie, tient à sa quête effrénée de la performance et de la miniaturisation. Ne faudrait-il pas plutôt changer les priorités de la conception ? Par exemple, en visant l'allongement de la durée de vie ou la mise en œuvre de pratiques plus circulaires, qui permettent notamment de favoriser le recyclage ? Ce dernier point peut passer par une amélioration de la réparabilité, de l'aptitude au désassemblage et par une homogénéisation des composants et des matériaux utilisés dans les appareils.
Les experts techniques en électronique de puissance que nous sommes le reconnaissent : notre communauté ne pourra résoudre tous les problèmes évoqués précédemment. C’est pourquoi nous pensons qu’il est important d’interroger les choix de société : modèles de consommation bien sûr, mais également des choix technologiques. Or, ces derniers sont réalisés par une seule partie des acteurs de la filière, alors qu’il faudrait inclure non seulement les ingénieurs, les fabricants et les législateurs, mais également les consommateurs, sans oublier d’adopter le regard des sciences humaines et sociales.
Cela implique aussi de mieux former le grand public aux systèmes énergétiques et notamment électriques. Celui-ci doit s’approprier pleinement tant leur fonctionnement scientifique et technique que les grands défis qui y sont associés.
À lire aussi : Comment rendre l’électronique plus soutenable ?
Jean-christophe Crebier a reçu des financements publics de l'ANR et de l'Europe en lien direct avec le sujet via les projets VIVAE, EECONE et ARCHIMEDES.
Pierre Lefranc a reçu des financements de l'ANR pour le projet VIVAE portant sur l'éco-conception en électronique de puissance.
Florentin Salomez, Hugo Helbling, Marina Labalette, Murielle Fayolle-Lecocq et Tanguy Phulpin ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
07.10.2025 à 16:23
Andrea Rangel Guevara, Postdoctoral researcher, Université Savoie Mont Blanc
Pour décarboner efficacement le secteur des transports, il faut que les ménages les plus modestes soient accompagnés. Mais qui sont les précaires en transport ?
En France, le secteur du transport produit un tiers des émissions de gaz à effet de serre (GES), dont 60 % proviennent du transport routier. Afin d’atteindre la neutralité carbone d’ici 2050, revoir nos usages de la voiture est donc indispensable. Pour cela, différentes mesures ont déjà été mises en place ces dernières années. Néanmoins, elles ne sont pas facilement acceptées étant donné leurs effets potentiellement inégaux sur la population si aucun mécanisme de redistribution n’est conçu et déployé.
En voici trois exemples :
La mise en place de zones à faibles émissions (ZFE) dans 43 villes françaises où ne pourraient donc plus circuler les voitures les plus polluantes bien que le sujet soit actuellement débattu après un vote en faveur de sa suppression à l’Assemblée nationale en juin 2025.
L’établissement du système européen d’échange de quotas d’émission 2 (ETS2) à partir de 2027, axé sur les émissions de carburants provenant principalement des transports et des bâtiments. Ce qui inciterait les entreprises à respecter des limites en termes de pollution et/ou à revoir leur processus de production pour devenir plus propre.
Pour que cette transition ne se fasse pas au détriment des plus précaires, l’ETS2 s’accompagne également de la création du Fonds social pour le climat, un fonds doté de plus de 86 milliards de financements pour lutter contre la précarité en transport et la précarité énergétique ») dans les pays de l’UE à partir de 2026.
Des recommandations détaillées pour la lutte contre la précarité en transports et le développement d’une mobilité équitable et durable ont été publiées récemment par la Commission Européenne. De plus, un nouveau Transport Poverty Hub a été créé pour améliorer l’identification des zones vulnérables.
À l’échelle de l’UE, des nouvelles recherches révèlent qu’entre 20 % et 28 % des habitants des pays membres sont des précaires en transport. De même, en 2022, il y avait près de 10 % de citoyens en précarité énergetique. Selon Eurostat.), les deux plus grosses catégories de dépenses des ménages sont le logement et le transport.
En France, plus d’un quart du budget des ménages était consacré au logement et 13,6 % au transport en 2022. En Allemagne, ces postes de dépense sont quasiment similaires. Dans ce contexte, l’accompagnement des ménages les plus vulnérables devient nécessaire pour une transition environnementale plus juste et acceptable.
On sait aussi aujourd’hui que les mesures pour la transition peuvent faire d’une pierre deux coups : être à la fois progressives et plus acceptables si elles sont accompagnées, par exemple, des mécanismes de redistribution et si les citoyens sont informés de la mise en place de ces derniers.
Mais qui faudrait-il accompagner pour cette transition des transports ?
C’est la question à laquelle j’ai tâché de répondre dans une étude sur le cas de l’Allemagne. Si la précarité en transport peut être liée au revenu et au niveau de vie elle dépend aussi d’autres critères : le lieu de vie et d’emploi, l’accès (ou le manque d’accès) aux transports publics et privés, la dépendance à la voiture privée, le coût des transports, les habitudes en termes de mobilité…
Lorsqu’on prend en compte tous ces paramètres, quatre catégories apparaissent :
Les ménages indépendants qui représentent près de la moitié de la population. Ce sont les ménages vivant en centre-ville, ils ne dépendent pas de l’utilisation de la voiture individuelle pour se déplacer car ils ont accès à d’autres modes de transport. Ils ont les besoins de déplacement (en termes de distance) les plus faibles de l’échantillon. Ce seraient par exemple les personnes qui habitent dans des villes du quart d’heure.
Les ménages suffisants (sufficient en anglais) qui représentent environ 34 % de la population. Ce sont les ménages qui, en règle générale, habitent le plus loin du centre-ville et qui se déplacent le plus. Cependant, leurs revenus plus élevés leur permettent de faire face et de ne pas trop subir des chocs potentiels des prix des transports.
Les ménages dépendants de la voiture : qui représentent environ 16 % de la population. Leur principale contrainte provient de leur localisation (la plupart sont en périphérie ou en milieu rural), ce qui se traduit par un faible degré d’accès aux autres modes de transport et une forte distance à parcourir. La plupart d’entre eux (98 %) déclarent n’avoir pas d’autre option que la voiture pour leurs déplacements. Ces ménages sont également surexposés aux changements soudains des prix des transports privés (par exemple, via l’inflation ou des politiques publiques sans mécanisme de redistribution).
Les ménages précaires en transport, soit la traduction du terme anglais transport poor : qui représentent environ 2 % de la population. Ce sont les ménages qui sont les plus contraints en termes de ressources financières. Ils sont également contraints par leur localisation, qui est similaire aux « dépendants » de la voiture. En outre, plus de la moitié de ces ménages ne possèdent pas de voiture privée et dépend donc des transports en commun. L’interaction entre ces trois caractéristiques fait que ce sont eux qui passent le plus de temps dans les transports publics.
En moyenne, ils doivent parcourir 12 kilomètres (aller simple) pour les déplacements nécessaires (faire leurs courses, emmener les enfants à l’école, aller au travail, etc.). Ils parcourent la même distance que les « dépendants », soit environ 1400 kilomètres par mois (tous type de voyage compris), mais 89 % de ces kilomètres sont faits en transport public. Ils consacrent environ 23 heures chaque mois aux déplacements nécessaires contre 14 heures pour les « dépendants » et 10 heures/mois pour les « indépendants ».
À noter que ceux qui possèdent une voiture, étant déjà limités en termes de revenus, sont surexposés aux changements des prix des transports privés.
Ces différences entre les classes peuvent nous aider à comprendre les leviers potentiels pour l’amélioration de la mobilité. Un des facteurs de précarité qui apparaît est géographique : l’endroit où habitent les citoyens au regard des besoins de chaque ménage en termes de déplacement (distances à parcourir, temps de trajet, etc.) De plus, la localisation des ménages a un impact sur l’accès à des transports en commun.
Cette dernière dimension est également un levier potentiel, par exemple, pour améliorer la mobilité des ménages dépendants de la voiture. Dans le cadre de cette étude, 77 % de l’échantillon n’était pas satisfait de l’offre de transport en commun entre leur lieu de vie et travail/étude. Selon une publication récente, les infrastructures actuelles sont particulièrement adaptées à la voiture et incitent les citoyens à prendre ce moyen de transport. Des investissements d’infrastructure et des incitations vers d’autres modes de transport seraient donc des solutions envisageables et nécessaires).
Des études similaires ont été menées au sujet du territoire français et ont obtenu des résultats étroitement liés, soulignant les inégalités sous-jacentes à prendre en compte lors de la mise en place des politiques publiques pour la transition du secteur des transports. Par exemple, l’économiste Audrey Berry et ses collègues] soulignent la pertinence des interactions entre différentes dimensions (localisation, revenu, options de transport) qui peuvent avoir un impact sur la mobilité des ménages.
Les résultats de l’Enquête Nationale sur les Mobilités de personnes 2019 confirment également la corrélation entre le fait de vivre dans des zones moins denses (rurales) et l’utilisation plus régulière de la voiture individuelle : environ 80 % des déplacements en voiture individuelle sont effectués en zone rurale, contre seulement 33 % dans la région parisienne qui dispose d’une offre plus importante de modes de transport public. L’accès aux transports alternatifs pour les milieux ruraux et les périphéries serait donc un des leviers clés pour la transition.
De plus, en France, des inégalités existent concernant l’accès à des véhicules moins polluants. Les plus pauvres possèdent des voitures polluantes. Lors du déploiement de politiques publiques pour la transition, ce levier serait clé pour diminuer les effets négatifs sur les populations vulnérables.
Récemment, l’économiste Lola Blandin identifiait elle les profils vulnérables suite à la mise en place d’une ZFE à Grenoble. Y apparaissaient également comme facteurs clés les contraintes financières, les infrastructures de transport disponibles et les horaires de travail. En outre, l’introduction de ZFE peut avoir des effets négatifs sur l’accessibilité à l’emploi pour les ménages les plus modestes
Andrea Rangel Guevara a reçu des financements de l'Agence nationale de la recherche (ANR). Le projet ciblé 3 ANR-22-EXSS-0004 bénéficie d'un financement du gouvernement français.
06.10.2025 à 16:28
Maia David, Professeure et chercheuse en économie de l’environnement, AgroParisTech – Université Paris-Saclay
Basak Bayramoglu, Directrice de recherche INRAE, Directrice adjointe de l'unité PSAE
Carmen Cantuarias-Villessuzanne, Chercheuse associée, Université Paris-Saclay; École Supérieure des Professions Immobilières
Laetitia Tuffery, Maîtresse de conférences en économie, Université de Nîmes

Face à la multiplication des vagues de chaleur, les villes doivent se réinventer. La végétalisation fait partie de la palette de solutions possibles, mais se heurte à une difficulté : pour cela, il faut souvent réduire l’espace alloué à d’autres usages, comme la circulation ou le stationnement automobile. Une étude récente, menée à Lyon (Rhône), suggère que les citadins sont prêts à soutenir de telles mesures… à condition que son impact reste limité et que ses bénéfices concrets soient perceptibles.
La France a de nouveau subi pendant l’été 2025 une canicule parmi les plus intenses jamais enregistrées. Le mois de juin 2025 a ainsi été le plus chaud jamais mesuré en Europe de l’Ouest. À cette occasion, plusieurs villes ont franchi la barre des 40 °C, comme Bordeaux (41,6 °C), Toulouse (41,5 °C), Angoulême (42,3 °C) ou Nîmes (41,8 °C).
L’intensification des vagues de chaleur, tant en termes de fréquence que de durée, contribue à rendre les espaces urbains de plus en plus difficiles à vivre. En cause, l’effet d’îlot de chaleur urbain (ICU) : l’asphalte et le béton, par exemple, stockent la chaleur, et le peu de végétation limite le rafraîchissement nocturne par évapotranspitation.
Face à ces extrêmes devenus la norme, les villes doivent se réinventer et créer des « îlots de fraîcheur urbains », des zones refuges où les températures sont plus clémentes.
Plusieurs approches peuvent être envisagées.
Elles peuvent s’appuyer sur des changements de comportement des citadins, comme l’aération nocturne des logements, l’adaptation des horaires de travail ou encore la réduction des activités extérieures en période de forte chaleur.
Elles peuvent aussi reposer sur des aménagements techniques et architecturaux, tels que la construction de bâtiments bioclimatiques, l’utilisation de revêtements à fort albédo ou l’irrigation ponctuelle des espaces extérieurs.
Une troisième voie, enfin, réside dans l’accroissement de la végétation urbaine, largement documentée dans la littérature scientifique comme facteur de rafraîchissement.
Il existe toutefois une limite structurelle. Les grandes villes disposent rarement de la place suffisante pour, à la fois, planter des arbres, désimperméabiliser les sols et verdir les rues sans devoir transformer les usages de l’espace public et réduire l’espace alloué à d’autres usages.
La végétalisation bouscule notamment la place de la voiture, comme nous avons pu le démontrer dans une recherche publiée dans la revue Land Economics.
À lire aussi : Paris est une des pires villes européennes en temps de canicule. Comment changer cela ?
Les bénéfices de la nature en ville sont nombreux et documentés : îlots de fraîcheur, amélioration de la qualité de l’air, infiltration des eaux pluviales, accueil de la biodiversité, atténuation du bruit, sans oublier les impacts positifs sur la santé mentale et le lien social.
Un seul arbre peut abaisser de plusieurs degrés la température ambiante, et attirer des espèces parfois rares en milieu urbain. Par exemple, une simulation réalisée par Météo France estime que l’ajout de 300 hectares de végétation à Paris permettrait d’abaisser la température de 0,5 à 1 °C lors d’un épisode de canicule.
Plus concrètement, à Aubervilliers (Seine-Saint-Denis), une commune située au nord de Paris, la transformation d’un parking en îlot de fraîcheur grâce à la plantation de 72 arbres a réduit la température ressentie de 3,1 °C en moyenne.
Mais cette végétalisation nécessite de l’espace, alors même que l’espace urbain est précisément limité et fait l’objet de multiples usages concurrents. À Paris, la piétonnisation des berges de Seine ou la transformation de la rue de Rivoli ont par exemple suscité de vifs débats.
À Bordeaux (Gironde), Lyon (Rhône) ou Grenoble (Isère), les créations de trames vertes entraînent également des réactions contrastées selon les quartiers et les profils d’usagers. Des conflits d’usage, entre automobilistes, cyclistes, piétons et riverains sont au cœur des tensions liées à ces projets.
À Lyon comme ailleurs, les nouveaux aménagements urbains (place publique, rond-point, voie sur berge, réseau de transport, etc.) intègrent de plus en plus de végétation. Les abords des nouvelles lignes de tramways ont été repensés pour accueillir arbres, pelouses ou bandes fleuries.
Ces projets transformateurs s’inscrivent dans des politiques environnementales ambitieuses, comme le plan Canopée de la métropole et répondent à une demande citoyenne croissante pour un cadre de vie plus sain.
Mais ils se font souvent au détriment d’autres usages : voies de circulation rétrécies, suppression de places de stationnement, ralentissements logistiques, coûts de mise en œuvre et d’entretien.
Ces arbitrages posent la question de l’usage de l’espace public, et de l’acceptabilité sociale des projets de végétalisation urbaine.
Pour mieux comprendre comment les habitants opèrent ces arbitrages, nous avons, dans le cadre de notre étude, évalué la demande sociale de végétalisation urbaine de la part des habitants de la métropole du Grand Lyon.
Dans une enquête basée sur ce qu’on appelle la méthode d’expérience de choix, 500 répondants représentatifs de la population de la métropole ont été confrontés à plusieurs scénarios de verdissement des abords du tramway sur leur territoire.
Chaque scénario comportait, à des niveaux variables, quatre paramètres clés :
Cette étude a permis d’estimer un « consentement à payer » moyen des répondants pour différentes caractéristiques de la végétalisation en ville. Ce type d’outil est précieux pour orienter les politiques publiques, car il révèle les préférences citoyennes pour des biens et des services comme les services écologiques qui n’ont pas de prix de marché.
Résultats : les citoyens prêts à faire des compromis… à certaines conditions.
En moyenne, les habitants interrogés se montrent ainsi favorables à la végétalisation. Ils sont prêts à payer 2,66 € par mois (en termes de hausse des taxes locales) pour chaque degré de baisse des températures et 0,49 € pour chaque point de biodiversité gagné (1 % d’oiseaux en plus). Ils sont favorables aux scénarios qui améliorent la biodiversité et le rafraîchissement de l’air tout en réduisant l’espace consacré aux voitures de manière minimale.
Cependant, ils sont nettement opposés aux scénarios qui réduisent plus fortement l’espace routier sans bénéfice environnemental suffisant.
Nos analyses montrent également une forte hétérogénéité entre répondants : les habitants du centre-ville, probablement déjà confrontés à plusieurs restrictions de circulation, sont plus critiques ainsi que les ménages les plus favorisés et les usagers quotidiens de la voiture.
À l’inverse, les personnes avec enfants ou consommant des produits issus de l’agriculture biologique – ce dernier étant un indicateur de la sensibilité à l’environnement – expriment un soutien accru aux projets de végétalisation urbaine.
À lire aussi : Réduire la place de la voiture en ville est-il aussi impopulaire qu’on le pense ?
Face à l’urgence climatique, les villes doivent se doter de politiques de végétalisation ambitieuses. Mais ces solutions doivent aussi être socialement acceptables.
Notre étude montre que la majorité des habitants de Lyon seraient prêts à contribuer au financement d’un projet de végétalisation urbaine dès lors qu’il ne réduit que modérément l’espace disponible pour l’automobile. Une solution qui n’occuperait pas trop d’espace, comme la végétalisation verticale, serait donc pertinente.
Pour les décideurs locaux, il convient donc de mettre en place des projets de végétalisation prioritairement dans les communes déficitaires en arbres. Comme souligné par les résultats de notre étude, l’acceptabilité de ces projets suppose d’impliquer les citoyens dès leur conception et de mesurer régulièrement leur impact. C’est à ce prix que les villes du futur pourront être à la fois plus vertes, plus vivables, et plus justes.
À lire aussi : Les arbres en ville : pourquoi il n’y a pas que le nombre qui compte
Maia David a reçu des financements du Ministère de la Transition Écologique et de l'Agence de l'Environnement et de la Maîtrise de l'Energie (ADEME) dans le cadre du Programme ITTECOP.
Basak Bayramoglu, est co-coordinatrice du projet SEMEUR et a reçu des financements de Ministère de la Transition Écologique (MTE) dans le cadre du Programme ITTECOP. Basak Bayramoglu est membre de la Chaire Énergie et Prospérité, sous l'égide de La Fondation du Risque.
Carmen Cantuarias est co-coordinatrice du projet SEMEUR et a reçu des financements de Ministère de la Transition Écologique (MTE) dans le cadre du Programme ITTECOP. Elle a travaillé au CGDD (MTE) en tant que chargée de mission sur les instruments économiques pour la biodiversité.
Laetitia Tuffery a reçu des financements du Ministère de la Transition Écologique (MTE) et de l'Agence de l’Environnement et de la Maîtrise de l’Énergie (ADEME) dans le cadre du Programme ITTECOP.
06.10.2025 à 16:22
Steven Chown, Director, Securing Antarctica's Environmental Future and Professor of Biological Sciences, Monash University

Alors que les pôles fondent à un rythme accéléré, certains chercheurs misent sur la géo-ingénierie pour ralentir la catastrophe : rideaux sous-marins, microbilles de verre ou fertilisation des océans. Mais une récente étude montre que ces solutions spectaculaires sont inefficaces, coûteuses et dangereuses – et qu’elles risquent surtout de détourner l’attention de l’urgence à réduire nos émissions de gaz à effet de serre.
Notre planète continue de se réchauffer en raison des émissions de gaz à effet de serre liées aux activités humaines. Les régions polaires sont particulièrement vulnérables à ce réchauffement. L’étendue de la banquise diminue déjà dans l’Arctique comme dans l’Antarctique. Les calottes glaciaires du Groenland et de l’Antarctique fondent, et des changements brutaux sont en cours dans les deux environnements polaires.
Ces changements ont de profondes conséquences pour nos sociétés, qu’il s’agisse de la montée du niveau de la mer, de l’évolution de la circulation océanique ou de la multiplication des phénomènes climatiques extrêmes. Ils entraînent aussi de lourdes conséquences pour les écosystèmes, notamment pour les ours polaires et les manchots empereurs, devenus des symboles des effets du changement climatique.
Le moyen le plus efficace pour atténuer ces changements et réduire le risque d’impacts généralisés est de diminuer les émissions de gaz à effet de serre. Pourtant, la décarbonation progresse lentement, et les projections actuelles indiquent une augmentation de la température d’environ 3 °C d’ici à 2100.
Aussi, certains scientifiques et ingénieurs, conscients des changements attendus et de l’importance des régions polaires pour la santé de la planète, ont-ils proposé de développer des approches technologiques, appelées géo-ingénierie, afin d’atténuer les effets sur l’Arctique et l’Antarctique.
Dans une étude publiée récemment dans Frontiers in Science, mes collègues et moi avons évalué cinq des concepts de géo-ingénierie les plus avancés envisagés pour les régions polaires. Nous en avons conclu qu’aucun d’entre eux ne devrait être utilisé dans les prochaines décennies. Ils sont extrêmement peu susceptibles d’atténuer les effets du réchauffement climatique dans les régions polaires et risquent de provoquer de graves conséquences indésirables.
La géo-ingénierie recouvre un large éventail d’idées visant à modifier délibérément, à grande échelle, le climat de la Terre. Les deux grandes catégories
consistent soit à retirer du dioxyde de carbone de l’atmosphère, soit à augmenter la quantité de lumière solaire renvoyée vers l’espace (une approche connue sous le nom de « modification du rayonnement solaire »).
Pour les régions polaires, les cinq concepts actuellement les plus avancés sont :
1. L’injection d’aérosols stratosphériques. Cette technique de modification du rayonnement solaire consiste à introduire dans la stratosphère de fines particules (comme le dioxyde de soufre ou le dioxyde de titane) afin de réfléchir la lumière du soleil vers l’espace. L’idée est ici d’appliquer ce principe spécifiquement aux pôles.
2. Les rideaux sous-marins. Ces structures flexibles et flottantes, ancrées au plancher océanique entre 700 et 1 000 m de profondeur et s’élevant sur 150 à 500 m, visent à empêcher l’eau chaude de l’océan d’atteindre et de faire fondre les plates-formes de glace (prolongements flottants qui ralentissent l’écoulement de la glace du Groenland et de l’Antarctique vers l’océan) ainsi que les lignes d’ancrage des calottes (là où se rencontrent terre, glace et océan).
3. Gestion de la banquise. Deux pistes sont explorées : d’une part, la dispersion de microbilles de verre sur la glace de mer arctique fraîche pour la rendre plus réfléchissante et prolonger sa durée de vie ; d’autre part, le pompage d’eau de mer à la surface de la banquise, où elle gèle pour l’épaissir, ou dans l’air pour produire de la neige, grâce à des pompes éoliennes.
4. Ralentir l’écoulement de la calotte glaciaire. Cette approche cible les « courants glaciaires » du Groenland et de l’Antarctique, de véritables rivières de glace s’écoulant rapidement vers la mer et contribuant à l’élévation du niveau marin. L’eau présente à leur base agit comme un lubrifiant. L’idée est de pomper cette eau afin d’accroître la friction et de ralentir leur progression. Le concept semble particulièrement pertinent pour l’Antarctique, où la fonte se joue davantage à la base de la calotte qu’à sa surface.
5. La fertilisation des océans. Elle consiste à ajouter des nutriments, comme du fer, dans les océans polaires afin de stimuler la croissance du phytoplancton. Ces organismes microscopiques absorbent le dioxyde de carbone atmosphérique, qui se retrouve stocké dans les profondeurs marines lorsqu’ils meurent et coulent.
Dans nos travaux, nous avons évalué chacun de ces concepts selon six critères : ampleur de la mise en œuvre, faisabilité, coûts financiers, efficacité, risques environnementaux et enjeux de gouvernance. Ce cadre fournit une méthode objective pour examiner les avantages et limites de chaque approche.
Aucun des projets de géo-ingénierie polaire ne s’est avéré viable dans les décennies à venir. Tous se heurtent à de multiples obstacles.
Ainsi, couvrir 10 % de l’océan Arctique de pompes destinées à projeter de l’eau de mer pour la geler exigerait l’installation d’un million de pompes par an sur dix ans. Les coûts estimés pour les rideaux marins (un milliard de dollars US par kilomètre) sous-estiment, de six à vingt-cinq fois, ceux de projets d’ampleur comparable dans des environnements plus simples, comme la barrière de la Tamise à Londres.
Un projet visant à répandre des microbilles de verre sur la glace a d’ailleurs été abandonné en raison des risques environnementaux. Et lors de leur dernière réunion, la majorité des Parties consultatives du Traité sur l’Antarctique ont réaffirmé leur opposition à toute expérimentation de géo-ingénierie dans la région.
Ces propositions nourrissent de faux espoirs face aux conséquences dramatiques du changement climatique, sans réduire rapidement les émissions de gaz à effet de serre. Elles risquent d’alimenter la complaisance face à l’urgence d’atteindre la neutralité carbone d’ici à 2050, voire d’être instrumentalisées par des acteurs puissants pour justifier la poursuite des émissions.
La crise climatique est une crise. Compte tenu du temps disponible, les efforts doivent se concentrer sur la décarbonation, dont les bénéfices peuvent être obtenus à court terme.
Steven Chown ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
05.10.2025 à 08:31
Guy Richard, Directeur de l'expertise scientifique collective, de la prospective et des études à l'Institut national de la recherche pour l'agriculture, l'alimentation et l'environnement (INRAE), Inrae
Alexandre Gohin, Directeur de recherche, INRAE, Inrae
Anne Laperche, Professeure en génétique et amélioration des plantes, Institut Agro Rennes-Angers
Bernard Bodson, Docteur en sciences agronomiques, Professeur honoraire, Gembloux Agro-Bio Tech, Université de Liège
Christophe David, Associate Dean, Senior scientist, Institut supérieur d'agriculture Rhône-Alpes
Eugénie Hebrard, Directrice de recherche, Institut de recherche pour le développement (IRD)
Marianne Sellam, Directrice scientifique et technique, Acta
Philippe Reignault, Directeur de la santé des végétaux, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
Virginie Ravigné, Chercheuse en écologie des communautés microbiennes et virales, Cirad

Voici quatre ans que des scientifiques testent et étudient les alternatives aux néonicotinoïdes pour les cultures de betteraves. Les pistes de solutions sont nombreuses et complémentaires.
Le 1er septembre 2018, la France interdisait l’usage agricole des néonicotinoïdes (NNI), insecticides qui agissent sur le système nerveux des insectes. Ces molécules, reconnues comme une des causes du déclin des colonies d’abeilles et de la biodiversité, ont été utilisées à partir des années 1990 pour contrôler les pucerons qui infestent des cultures, comme la betterave sucrière.
Présents dans les enrobages des semences, différents NNI ont pu se répandre dans les plantes et dans le sol où ils pouvaient atteindre les organismes du sol, y compris les semences des cultures suivantes et des graines de plantes productrices de pollen et de nectar, qui peuvent ensuite être visitées par les pollinisateurs.
L’interdiction des NNI a entraîné en 2020 une baisse moyenne de rendement de 28 % sur l’ensemble de la surface cultivée en betterave sucrière française, due à la jaunisse virale propagée par de fortes populations de pucerons.
Les professionnels agricoles se sont alors mobilisés pour :
obtenir une dérogation d’utilisation des NNI soumis à l’avis annuel d’un conseil de surveillance réunissant des parlementaires, dérogation qui sera elle-même interdite en 2023 suite à un arrêt de la Cour de justice européenne ;
soutenir et accélérer la recherche d’alternatives aux NNI sur betterave.
Depuis 2021, le ministère en charge de l’agriculture soutient un programme national de recherche et d’innovation (PNRI) initialement doté de 7,2 millions d’euros sur trois ans – et reconduit depuis – pour explorer des solutions opérationnelles à court terme. Le programme est copiloté par l’Institut national de la recherche sur l’agriculture, l’alimentation et l’environnement (Inrae) et par l’Institut technique de la betterave (ITB). Il s’appuie sur un comité de pilotage composé de représentants de la filière et sur un conseil scientifique rassemblant plusieurs instituts et présidé par l’Inrae.
En tant que membres de ce conseil scientifique, nous souhaitons faire un état des lieux du PNRI quatre années après sa mise en place, à l’heure où une dérogation à l’utilisation de l’acétamipride (NNI en application par pulvérisation sur les feuilles des plantes) a été proposée, provoquant de nombreuses réactions dans le monde agricole et auprès des citoyens.
Le PNRI a soutenu 25 projets de recherche portés par des scientifiques d’origine diverse : recherche publique, enseignement supérieur, enseignement agricole, instituts techniques, sucreries, entreprises semencières et de biocontrôle, assureurs.
Plusieurs projets impliquaient directement des agriculteurs pour des expérimentations en plein champ. Le PNRI a ainsi permis de mieux comprendre et de prévoir le développement de la maladie, de tester différents moyens agronomiques pour la gérer et d’étudier les conditions de leur déploiement.
Mais pour comprendre quelles sont aujourd’hui les pistes de solutions retenues pour lutter contre la jaunisse sans NNI, commençons par regarder en quoi consiste cette maladie.
La jaunisse de la betterave est provoquée par quatre virus de plantes, parfois en multi-infection (le Beet Yellow Virus, ou BYV, étant le virus le plus dommageable). Ces virus sont transmis aux plantes par des insectes vecteurs, principalement le puceron vert du pêcher (Myzus persicae), mais aussi par le puceron noir de la fève (Aphis fabae), lorsque ces pucerons piquent les plantes pour se nourrir de leur sève.
Le virus provoque alors une altération de la photosynthèse et du transfert des sucres depuis les feuilles vers les racines : la plante jaunit et perd de sa capacité à accumuler du sucre dans sa racine.
Les virus ne peuvent cependant pas être transmis à la descendance des pucerons porteurs. C’est seulement en piquant une plante déjà infectée que le puceron se charge en virus et qu’il pourra alors le transmettre à d’autres plantes de betterave. Le contrôle des réservoirs de virus apparaît donc comme un élément important de prévention et de gestion de la maladie.
La culture de la betterave constitue le principal réservoir de virus de la jaunisse via :
les repousses des plantes de betterave laissées dans les parcelles suite à la récolte, ou au bord des parcelles à la suite du stockage temporaire des racines tubérisées avant leur transport à la sucrerie ;
des plantes destinées à la production de semences, qui passent l’hiver dans des parcelles semées à l’automne et récoltées l’été suivant.
Dans les deux cas, la présence continue de betterave permet aux pucerons de se charger en virus tout au long de l’année. La prévention consiste à enfouir ou à détruire les repousses et à séparer géographiquement (d’un kilomètre au minimum) les parcelles destinées à la production de semences et celles destinées à la production de sucre. La proximité des deux types de parcelles de betterave est probablement à l’origine de symptômes viraux particulièrement marqués dans les régions Centre et Île-de-France.
Contrairement au virus de la jaunisse, les pucerons ont de multiples plantes hôtes (colza, moutarde…). Ayant un stade ailé, leurs distances de déplacement atteignent plusieurs dizaines, voire centaines, de kilomètres.
Ces deux éléments compromettent le contrôle de leur dissémination. En revanche, il est possible de prévoir les dates d’arrivée des vols de pucerons à partir des données de température hivernale avec des modèles en voie d’amélioration. Par ailleurs, la présence de plantes dites compagnes entre les rangs de betterave (avoine, orge notamment) perturbe le repérage des plantes de betterave par les pucerons.
La diffusion de composés organiques volatils dans l’atmosphère ou la présence de certaines espèces végétales non-hôtes détournent également les pucerons de ces parcelles (graminées) ou les attirent en dehors (crucifères). L’efficacité moyenne de ces deux techniques a été évaluée à 50 % sur les populations de pucerons et à 40 % pour les symptômes de jaunisse. Les plantes compagnes sont à détruire au bon moment pour éviter toute concurrence avec la betterave elle-même et ne pas occasionner une diminution du rendement.
L’apport d’insectes prédateurs (chrysopes, syrphes) des pucerons et la présence de couverts végétaux qui leur sont favorables (bandes enherbées, haies) sont des moyens de réduire les populations de pucerons.
Leur efficacité est très variable, de 0 à 68 % selon les parcelles, probablement en lien avec des conditions climatiques plus ou moins favorables à la survie et au développement des auxiliaires.
Se contenter de favoriser les prédateurs ne permet pas de contrôler le développement des pucerons. Cette technique doit de fait être associée à d’autres moyens de lutte.
L’apport d’insecticides de synthèse reste possible avec deux matières actives actuellement autorisées, le flonicamide et le spirotétramate, relativement spécifiques des pucerons et efficaces. Ces insecticides ont une durée maximale d’action de deux semaines, ce qui peut nécessiter plusieurs passages selon la succession des vols de pucerons. Des produits insecticides naturels ont été testés, avec des résultats décevants et très variables au champ, excepté pour un champignon entomopathogène (Lecanicilium muscarium) avec une efficacité de 0 à 41 %.
Réduire la sensibilité des plantes au virus de la jaunisse est une autre voie d’action. Des variations de sensibilité à la maladie ont été mesurées pour les variétés actuelles et pour des populations de plantes utilisées dans les programmes de sélection des futures variétés. Cela laisse présager de futures variétés plus ou moins résistantes avec des potentiels de production variables, ce qui à terme permettra de mieux ajuster le choix des variétés au contexte épidémiologique.
Le stade de développement de la plante est également un facteur de sensibilité au virus, dont les dommages sont plus importants sur les jeunes stades. Il faut donc chercher à semer le plus tôt possible pour éviter des dates usuelles d’arrivée des pucerons.
On sait aussi que la quantité d’azote dans la plante joue sur l’attractivité de la plante : elle est plus élevée quand la teneur en azote de la plante est forte. Une réduction de la fertilisation azotée précoce reste ainsi une possibilité à explorer. Des stimulateurs de défenses naturelles des plantes ont également été testés, sans efficacité avérée en plein champ.
Divers leviers sont dès lors combinables pour lutter contre la jaunisse à l’échelle de la parcelle : choix de la variété, gestion de la fertilisation azotée, apport de stimulateurs de défense des plantes, semis de plantes compagnes dans les interrangs, semis de plantes abritant les prédateurs des pucerons, repoussant ou attirant les pucerons, apport de prédateurs ou de parasitoïdes des pucerons, apport d’insecticides, d’origine naturelle ou de synthèse.
À l’échelle du bassin de production, on peut jouer sur la destruction des repousses de betterave de l’année précédente, l’organisation spatiale des parcelles de betterave à production de semences ou de sucre.
Plusieurs combinaisons ont été testées dans des parcelles d’agriculteurs qui se sont engagés pour mettre en œuvre de nouvelles pratiques moyennant une indemnisation. Les essais se poursuivent pour mieux évaluer l’efficacité et le coût des pratiques. On peut dire aujourd’hui qu’il n’existe pas une alternative aux NNI aussi efficace lorsqu’elle est appliquée seule, mais un ensemble d’alternatives à combiner pour une efficacité maximale de l’ordre de 70 % sur les pucerons et de 50 % sur la maladie. Ces évaluations restent cependant difficiles à réaliser dans des contextes d’infestation relativement faibles depuis l’année 2020.
Hormis l’année 2020, le rendement moyen de la surface agricole française en betterave a été peu affecté par la jaunisse virale. Cela tient probablement à plusieurs facteurs : les caractéristiques climatiques des années 2019, 2023 et 2024, jugées peu favorables au développement des pucerons (2021 et 2022 ont bénéficié de la dérogation NNI), l’utilisation des deux insecticides de synthèse, les actions de prévention vis-à-vis des réservoirs de virus mises en place depuis 2024.
Même si le PNRI n’a pas totalement atteint son objectif de déployer, dès 2024, des solutions opérationnelles, il faut souligner la qualité des recherches menées pour comprendre la maladie, l’ampleur et l’opérationnalité des résultats obtenus. Des alternatives à l’utilisation systématique d’insecticides chimiques existent, plus compliquées, plus coûteuses à déployer et moins efficaces que la pulvérisation foliaire d’un NNI, mais elles ne portent pas atteinte à la santé de l’environnement ni à la santé humaine.
Compte tenu de ces résultats, il nous semble tout à fait envisageable de promouvoir les alternatives aux NNI, mais en actant que les agriculteurs ne peuvent pas être les seuls à supporter le surcoût et le risque associés. Deux approches, à combiner, sont à développer :
d’une part, un mécanisme assurantiel pourrait être mis en place pour permettre aux agriculteurs de faire face aux années de forte infestation. Un des projets du PNRI a démontré sa faisabilité, et ce d’autant plus que cette situation n’a été observée qu’en 2020 (soit une année sur quatre) ;
d’autre part, un mécanisme de répartition du coût sur l’ensemble de la chaîne producteur-transformateur-distributeur-consommateur et non pas sur les seuls agriculteurs dans l’esprit des lois Egalim 1 et 2 pour l’amélioration de l’équilibre des relations commerciales dans le secteur agricole et alimentaire.
À cela, il faut ajouter un mécanisme de non-concurrence intraeuropéenne ou internationale.
Le PNRI apparaît donc comme un programme pluridisciplinaire avec des acteurs divers qui a permis de mettre au point et de définir des modalités de déploiement d’alternatives aux NNI. Ce programme bénéficie d’une prolongation pour aller au bout de l’évaluation de ces alternatives. On voit ici le rôle essentiel joué par les décisions politiques pour donner un signal crédible aux parties prenantes d’un système leur permettant ainsi de se mobiliser pour trouver des solutions.
Guy Richard est président du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière. Il préside également le conseil d’orientation scientifique et technique du réseau des instituts techniques agricoles (COST ACTA).
Alexandre Gohin est membre du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière
Anne Laperche est membre du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière
Bernard Bodson est membre du conseil scientifique et de suivi du Programme national de recherche et d'innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière. Il est président du Conseil scientifique d'ARVALIS.
Christophe David est membre du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière. Il est président du conseil scientifique de Terres Inovia.
Eugénie Hebrard est membre du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière.
Marianne SELLAM est membre du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière. Elle est également trésorière de l'association "Biocontrôle et Biostimulation pour l'Agroécologie".
Philippe Reignault est membre du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière.
Virginie Ravigné est membre du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière.