LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE Une Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

27.10.2025 à 15:53

Stars d’Internet, les orchidées à visage de singe sont au bord de l’extinction

Diogo Veríssimo, Research Fellow in Conservation Marketing, University of Oxford

Amy Hinsley, Senior Research Fellow, Oxford Martin Programme on the Wildlife Trade, University of Oxford

Luis Baquero, Researcher, Orchid Ecology, Universidad de las Américas (Ecuador)

Devenues virales grâce à leurs fleurs qui semblent sourire ou grimacer, les orchidées Dracula sont aujourd’hui menacées dans leur habitat naturel en Colombie et en Équateur.
Texte intégral (2137 mots)
Tels les pandas dans le règne animal, les orchidées à visage de singe fascinent par leurs traits autant qu’elles inquiètent par leur extrême vulnérabilité. cotosa/Shutterstock

Derrière leur apparence singulière, qui leur vaut une célébrité mondiale sur les réseaux sociaux, les orchidées Dracula – surnommées « orchidées à visage de singe » – sont en réalité au bord de l’extinction. Une évaluation internationale dresse un constat alarmant, mais des pistes existent pour inverser la tendance.


Elles ressemblent à de minuscules singes surgissant de la brume. Connues des scientifiques sous le nom de Dracula, ces « orchidées à visage de singe » sont devenues de véritables célébrités sur Internet. Des millions de personnes ont partagé leurs photos, fascinées par ces fleurs qui semblent tour à tour sourire, froncer les sourcils ou grimacer. Mais derrière ce charme viral se cache une réalité bien plus sombre : la plupart de ces espèces sont aujourd’hui au bord de l’extinction.

Une nouvelle évaluation mondiale a, pour la première fois, révélé l’état de conservation de toutes les orchidées Dracula connues. Le constat est alarmant : sur 133 espèces étudiées, près de 7 sur 10 sont menacées de disparaître.

Beaucoup ne subsistent que dans de minuscules fragments de forêt, parfois dans un ou deux sites seulement. Certaines ne sont connues qu’à travers des plants cultivés. Leurs populations sauvages ont peut-être déjà disparu. Ces orchidées poussent principalement dans les forêts de nuages andines de Colombie et d’Équateur, parmi les écosystèmes les plus riches en biodiversité mais aussi les plus menacés de la planète. Leur survie dépend de conditions fraîches et humides, à moyenne et haute altitude, où une brume constante enveloppe les arbres.

Malheureusement, ces mêmes versants sont aujourd’hui rapidement défrichés pour faire place à des pâturages bovins, à des cultures comme l’avocat, ainsi qu’à l’extension des routes et de projets miniers, des activités qui menacent directement plusieurs espèces de Dracula (comme la Dracula terborchii). À mesure que les forêts se réduisent et se fragmentent, ces orchidées perdent les microclimats – les conditions précises de température, de lumière et d’humidité – dont dépend leur survie.

Un autre danger provient de la fascination que suscitent ces plantes rares et charismatiques. Les orchidées sont prisées pour leurs fleurs depuis des siècles. Le commerce européen a débuté au XIXe siècle, quand la « fièvre des orchidées » a enflammé de riches collectionneurs et provoqué une explosion des prélèvements dans les zones tropicales.

Aujourd’hui, cette fascination perdure, alimentée par Internet. De nombreux passionnés et producteurs professionnels échangent des plants cultivés de manière responsable, mais certains recherchent encore des orchidées sauvages – et les espèces de Dracula n’y échappent pas. Pour une plante dont les populations ne comptent parfois que quelques dizaines d’individus, une seule expédition de collecte peut s’avérer désastreuse.

Faire de leur popularité un moyen de protection

Dans le nord-ouest des Andes équatoriennes, une zone baptisée « Reserva Drácula » abrite l’une des plus fortes concentrations mondiales de ces orchidées. La réserve accueille au moins dix espèces de Dracula, dont cinq qui n’existent nulle part ailleurs sur Terre. Mais les menaces se rapprochent. La déforestation liée à l’agriculture, l’exploitation minière illégale et même la présence de groupes armés mettent désormais en danger le personnel de la réserve ainsi que les communautés environnantes.

Les défenseurs locaux de l’environnement de la Fundación EcoMinga, qui gèrent cette zone, décrivent la situation comme « urgente ». Parmi leurs propositions figurent un renforcement de la surveillance effectué par la communauté, le soutien à une agriculture durable et le développement de l’écotourisme, afin de générer des revenus grâce à la protection – plutôt qu’à la destruction – de la forêt.

Orchidée Dracula
Orchidée Dracula. Leela Mei/Shutterstock

Quand on observe ces fleurs de près, il est facile de comprendre la fascination qu’elles exercent. Leur nom, Dracula, ne fait pas référence au personnage de vampire mais vient du latin « petit dragon », en raison de leurs longs sépales en forme de crocs, ces structures qui ressemblent à des pétales et protègent la fleur en développement.

Leur apparence étrange stupéfia les botanistes du XIXe siècle, qui crurent d’abord à une supercherie. Plus tard, à mesure que de nouvelles espèces étaient découvertes, on remarqua que beaucoup ressemblaient à de minuscules primates, d’où leur surnom d’« orchidées à visage de singe ». On les compare parfois aux pandas du monde des orchidées : charismatiques, immédiatement reconnaissables, mais aussi gravement menacées.

La nouvelle évaluation a été menée par une équipe de botanistes de Colombie et d’Équateur, en collaboration avec plusieurs organisations internationales, dont l’Université d’Oxford et le Groupe de spécialistes des orchidées de la Commission de survie des espèces de l’Union internationale pour la conservation de la nature (UICN). Elle comble enfin une lacune importante.

Elle s’appuie sur des données d’herbiers (échantillons de plantes séchées collectés par des botanistes), sur des observations de terrain et sur l’expertise locale, afin de cartographier l’aire de répartition de chaque espèce et d’estimer l’état des forêts restantes. Les résultats confirment ce que de nombreux spécialistes soupçonnaient depuis longtemps : les espèces de Dracula sont en grand danger.

Une forêt de nuage
Les orchidées Dracula poussent dans les forêts de nuage d’Amérique centrale. Ondrej Prosicky/Shutterstock

Malgré ce constat sombre, il existe des raisons d’espérer. La « Reserva Drácula » et d’autres zones protégées constituent des refuges essentiels, offrant un abri non seulement aux orchidées mais aussi aux grenouilles, aux singes et à une multitude d’autres espèces. Des organisations locales y collaborent avec les communautés pour promouvoir une agriculture durable, développer l’écotourisme et récompenser les efforts de protection grâce à des paiements pour services écosystémiques. Des initiatives modestes au regard de l’ampleur du défi, mais qui prouvent qu’il existe des solutions, à condition que le monde s’y intéresse.

Il existe aussi une occasion de transformer cette popularité en protection. La même notoriété en ligne qui alimente la demande pour ces orchidées pourrait contribuer à financer leur conservation. Si les publications virales sur ces « fleurs souriantes » s’accompagnaient d’informations sur leur origine et sur la menace qui pèse sur elles, elles pourraient aider à faire évoluer les comportements et rappeler la nécessité d’éviter les prélèvements excessifs.

De la même manière que le panda est devenu un symbole de la protection de la faune, les orchidées à visage de singe pourraient incarner la conservation des plantes, rappelant que la biodiversité ne se limite pas aux animaux. Le fait que les générations futures puissent encore croiser ces visages dans la forêt – et pas seulement sur leurs fils d’actualité – dépend désormais de nos actions.

The Conversation

Ce travail a été mené par une équipe réunissant Cristina Lopez-Gallego, Santiago Mesa Arango, Sebastian Vieira et Nicolás Peláez-Restrepo en Colombie, ainsi que Luis Baquero et Marco Monteros en Équateur. Diogo Veríssimo reçoit un financement du « UK Government Illegal Wildlife Trade Challenge Fund ». Il est affilié au Groupe de spécialistes des orchidées de la Commission de survie des espèces de l’UICN.

Amy Hinsley reçoit un financement de la Darwin Initiative du gouvernement britannique, ainsi que des fonds de la Commission de survie des espèces de l’UICN (SSC) et du programme de petites subventions EDGE de la SSC, ainsi que du zoo d’Indianapolis pour ses travaux sur les Dracula. Elle est coprésidente du Groupe de spécialistes des orchidées de la Commission de survie des espèces de l’UICN.

Luis Baquero ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

23.10.2025 à 11:11

La Bretagne, un futur refuge climatique ?

Louis Amiot, Docteur en géographie, Université Rennes 2

Déménager en Bretagne pour éviter de trop subir les ravages du changement climatique, est-ce vraiment une bonne idée ?
Texte intégral (2393 mots)
La Bretagne n’est pas épargnée par le changement climatique, qui y provoque des problèmes de sécheresses de plus en plus inquiétants. Capture d’écran de Météo France/Martin Cígler/Maëlick, CC BY

Déménager pour éviter de trop subir les aléas du changement climatique, nous sommes nombreux à y avoir songé un jour. La région de prédilection à laquelle nous pensons alors est souvent la Bretagne. Mais est-ce vraiment une bonne idée ?

Allons-nous tous finir en Bretagne ? Cette question, sans doute assez improbable il y a encore dix ans, est désormais une interrogation sérieuse que posent divers médias nationaux et qui s’immisce dans les esprits. Car à l’heure du changement climatique, la Bretagne, souvent considérée comme une région où « il pleut tout le temps » et où l’on a « des étés pourris » se transforme en un refuge possible face au mercure qui n’en finit pas de grimper.

En effet, d’après un récent sondage, environ un Français sur trois est prêt à déménager face au changement climatique. La Bretagne est la région de migration privilégiée pour cela en plus d’être déjà la plus attractive pour les retraités. Mais s’installer en Bretagne pour échapper au changement climatique, est-ce vraiment une bonne idée ?

La réalité n’est pas si simple, d’abord parce que la région n’a pas un climat uniforme, notamment lorsque l’on compare Rennes (Ille-et-Vilaine) et Brest (Finistère), par exemple. La Bretagne est aussi loin d’être préservée du changement climatique. Elle est particulièrement vulnérable au risque de sécheresse, ce qui peut poser des problèmes dans la gestion de l’eau. Ses habitants sont d’ailleurs les Français les plus pessimistes face au changement climatique, selon le même sondage. Seule différence, eux n’ont pas tellement de perspective de déménagement pour apaiser leurs inquiétudes.

Des climats bretons

La Bretagne est généralement classée comme un climat océanique (été frais, hiver doux et pluies régulières toute l’année). Mais en détail, il existe de grandes différences entre l’est et l’ouest de la région. Il n’y a par exemple qu’un degré d’écart en moyenne entre Rennes et Brest à l’année, mais à Brest les hivers sont plus doux et les étés plus frais qu’à Rennes. La pluviométrie est, elle, presque deux fois plus importante à Brest (1220 mm) qu’à Rennes (690 mm). Cette différence est plus marquante à l’échelle saisonnière : en hiver, il y a trois fois plus de pluie à Brest qu’à Rennes, tandis qu’en été, l’écart est moins conséquent.

Cumul de précipitations et de températures moyennes mensuelles à Rennes (Ille-et-Vilaine) et à Brest (Finistère), sur la période 1991-2020. Fourni par l'auteur

Il existe ainsi plusieurs climats bretons qui ont été cartographiés afin de différencier le littoral nord et sud de la Bretagne, l’est et l’ouest et l’intérieur de la région. De manière générale, les côtes bretonnes sont moins exposées aux risques climatiques tels que les extrêmes thermiques (chaleur et gel) et pluviométriques (sécheresses et fortes pluies). Le sud de la Bretagne est aussi plus chaud et sec que le nord.

Une région qui subit le changement climatique

Mais, partout en Bretagne, le changement climatique se fait sentir, avec une hausse de la température moyenne annuelle de l’ordre de 0,9 °C à 1,1 °C entre la période 1951-1980 et la période 1991-2020. Cela est certes moins prononcé qu’à échelle de la France (+1,5 °C), mais reste supérieur au réchauffement mondial (+0,7 °C entre ces mêmes périodes).

À l’horizon 2050, la température devrait encore augmenter d’au moins 1 °C et de 1,5 °C à 3 °C en fin de siècle. Dans le scénario pessimiste, en fin de siècle, la température moyenne de Brest pourrait être équivalente à l’actuelle température de Bordeaux et celle de Rennes à la température de Marseille. Dans le même temps, les quantités de pluie devraient rester similaires sur l’année avec des pluies davantage concentrées en hiver et moins importantes en été. Les risques et aléas climatiques liés au réchauffement sont eux aussi déjà notables et devraient s’intensifier.

Prenons l’exemple du risque de forte chaleur en regardant les journées à plus de 30 °C, qui sont un des marqueurs du changement climatique. Il existe une forte différence est/ouest concernant le risque actuel avec en moyenne 8 jours en Ille-et-Vilaine contre seulement 1 à 2 jours dans le Finistère. D’ici 2050, le nombre moyen de jours très chauds devrait plus que doubler. En fin de siècle, les fortes chaleurs sont encore plus présentes et concernent en moyenne 20 jours par an sur la région. Ce chiffre varie de moins de 10 sur le littoral nord à plus de 30 jours au sud de Rennes (soit autant qu’à Toulouse en moyenne).

Dans l’ensemble, seul le littoral nord se retrouve relativement préservé de ce risque de fortes chaleurs même si celui-ci augmente.

Cartographie du nombre de jours très chaud par an (température maximale supérieure à 30 °C) avec la situation actuelle observée et la situation future projetée dans le scénario pessimiste
Cartographie du nombre de jours très chaud par an (température maximale supérieure à 30 °C) avec la situation actuelle observée et la situation future projetée dans le scénario pessimiste. Fourni par l'auteur

La Bretagne face au défi de l’eau

Le changement climatique affecte aussi l’intensité et la fréquence des sécheresses. Or, cela peut paraître paradoxal, mais la Bretagne est très vulnérable face à ce risque. En effet, plus de 75 % de l’eau potable dépend des réserves superficielles (rivières, lacs, étangs) contre seulement 36 % pour l’échelle du territoire.

La Bretagne se retrouve ainsi extrêmement dépendante des conditions météorologiques. Si d’ordinaire, celles-ci sont plutôt humides avec une bonne répartition des pluies au cours de l’année, certaines années sont marquées par des longues périodes sans pluies menant à des sécheresses.

Par exemple, en 2022, la région a subi une sécheresse historique : au cours du mois d’août, toute la région était pour la première fois en état de crise sécheresse du fait de pluviométrie très faible et de fortes chaleurs. Cela a engendré de fortes pressions sur l’île de Groix (Morbihan), il y a eu des menaces de coupure d’eau à Saint-Malo (Ille-et-Vilaine) comme dans le département des Côtes-d’Armor où la préfecture a indiqué un « risque sérieux de rupture de l’alimentation en eau potable se dessine pour les dernières semaines d’octobre ». La région a finalement été sauvée de la pénurie par des pluies bienvenues au cours du mois de septembre. Mais cette situation a révélé la fragilité de la Bretagne dans ces périodes climatiques exceptionnelles.

De plus, une récente étude a démontré que ces sécheresses extrêmes sont amenées à être de plus en plus présentes. D’ici 2050, environ un été sur cinq serait au moins aussi chaud et sec que celui de 2022, en fin de siècle cela représente un été sur deux. Dans ce contexte, la région risque d’être confrontée à des problèmes grandissants d’accès à l’eau alors que le nombre d’habitants devrait augmenter d’au moins 250 000 d’ici 2050.

Cette tendance démographique risque ainsi d’aggraver le partage d’une ressource qui se fait de plus en plus précieuse. L’enjeu est donc de garantir un accès à l’eau dans un futur climatique plus sec et chaud, particulièrement autour de Rennes et dans le littoral sud-breton.

Le risque d’une maladaptation

Dès lors, si s’installer en Bretagne peut sembler de prime abord une bonne idée face au changement climatique, il s’agit plutôt d’une forme de maladaptation. En effet, un accroissement massif de la population bretonne peut amplifier les impacts négatifs du changement climatique, principalement lié au risque de sécheresse et mener à une crise de l’eau. La région n’est donc pas un refuge climatique optimal à terme. Au-delà des enjeux liés au manque d’eau, la Bretagne doit aussi faire face à la hausse du niveau de la mer dont les 1 700 kilomètres de littoraux sont directement concernés.

Enfin, le changement climatique n’est qu’une problématique au milieu d’une crise environnementale globale (pollutions, extinction de la biodiversité, acidification de l’océan…). Par exemple, la Bretagne est en première ligne face à la pollution aux nitrates qui peut affecter la qualité de l’eau et les plages avec les algues vertes.

La crise climatique doit donc être traitée collectivement d’une part pour réduire l’intensité de celui-ci en diminuant les émissions de gaz à effet de serre et d’autre part en préparant les territoires à faire face aux changements climatiques. Il faut adapter les territoires au climat de demain pour qu’ils restent des lieux de vie agréables plutôt que de miser sur des migrations vers d’autres régions à priori moins exposés au changement climatique.

The Conversation

Louis Amiot a reçu des financements dans le cadre des programmes CLIMATVEG (financé par l'ADEME et les régions Bretagne et Pays de la Loire et piloté par Vegepolys Valley) et FERMADAPT (financé par l'ADEME et les régions Bretagne et Pays de la Loire et piloté par Valorial).

PDF

22.10.2025 à 17:52

Parler de « vivant » plutôt que de « nature » : effet de mode ou tournant politique ?

Virginie Arantes, Postdoctoral Researcher - Projet Chine CoREF, CNRS/EHESS (CECMC), Université Libre de Bruxelles (ULB)

Eric Fabri, Chercheur postdoctoral en théorie politique, Université Libre de Bruxelles (ULB)

Krystel Wanneau, Chercheuse postdoctorale - Projet ANR "SciOUTPOST", CNRS/CREDA - UMR 7227, Centre national de la recherche scientifique (CNRS)

Le terme s’est imposé en librairie comme en politique. Il apparaît souvent comme un synonyme de « nature ». Mais que signifie ce « vivant » dont on se réclame de plus en plus ?
Texte intégral (3634 mots)

Le terme s’est imposé en librairie, en politique. Il est aussi de plus en plus repris par des institutions. Il apparaît souvent comme un synonyme de « nature ». Mais que signifie ce « vivant » dont on se réclame de plus en plus ? Les autrices et auteur de Rendre le vivant politique (éditions de l’Université de Bruxelles, 2025) sondent le succès nouveau de ce mot.


C’est un terme que l’on entend de plus en plus : « vivant ». Mais d’où vient-il ? que décrit-il ? et pourquoi est-il de plus en plus invoqué ?

Une rapide recherche du terme « vivant » dans Google Ngram Viewer, qui recense la fréquence des mots usités dans les livres numérisés sur Google Books, permet déjà de repérer deux moments où son usage explose : dans les années 1980 et aujourd’hui.

Mis en ligne par Google en décembre 2010, Ngram Viewer permet de visualiser la fréquence de suites de mots dans les livres numérisés sur Google Books. L’outil s’appuie sur plus de 5 millions d’ouvrages, soit environ 4 % des livres jamais publiés, et dont la très grande majorité est postérieure à 1800. L’interprétation des visualisations appelle à la précaution, mais cette courbe sert ici seulement à poser des questions au sujet de ce succès du « vivant » dans la production éditoriale. Capture d'écran Google Ngram Viewer

Le pic des années 1980 peut sans doute s’expliquer par la montée en puissance du discours sur la biodiversité qui n’est plus confinée au registre scientifique. Mais comment expliquer le regain actuel ? Serait-il la manifestation d’un moment politique qui voit le « vivant » devenir un nouvel imaginaire structurant et un horizon de lutte ? Dans les librairies, la tendance est en tout cas nette. Le succès d’ouvrages comme Manières d’être vivant (Baptiste Morizot, 2020), Exploiter les vivants (Paul Guillibert, 2023) ou le Moment du vivant (sous la direction d’Arnaud François et de Frédéric Worms, 2016) témoigne d’une quête de sens et d’un désir de rupture avec une vision instrumentale de la nature.

Mais le mot ne circule pas qu’en rayon : il s’invite de plus en plus dans les slogans militants et partisans. En Belgique, le parti Écolo s’interroge : « Qui va protéger le vivant, qui va protéger ma santé ? », tandis qu’en France, le parti antispéciste Révolution écologique pour le vivant (REV) a été créé en 2018. On retrouve aussi ce terme dans le vocabulaire des politiques publiques, dans les mouvements sociaux, dans les dictionnaires d’écologie politique et jusque dans le langage éducatif.

Dans cette perspective, les défenseurs du vivant appellent à « faire corps » avec les écosystèmes. Ils proposent de repartir des milieux partagés à toutes les échelles – de la mare à l’océan – et de tenir compte de leurs liens, de la goutte d’eau à l’atmosphère.

« Anthropocène », « zone critique » : d’autres termes qui émergent en même temps que celui de « vivant ».

  • Ce déplacement de regard trouve un écho dans l’histoire récente des sciences. Il n’est pas anodin que la notion controversée d’anthropocène, apparue au début des années 2000 dans un colloque de géologues, résonne aujourd’hui dans les luttes pour le vivant. De même, il n’est pas plus surprenant que l’Institut de physique du globe de Paris (IPGP), fondé en 1921 pour étudier les forces telluriques et les champs magnétiques, s’intéresse désormais à la zone critique – cette fine couche où se nouent les interactions entre vie, sol et atmosphère. Chez Bruno Latour, cette zone prend une dimension philosophique : elle devient le lieu d’où penser le « nouveau régime climatique ».

Dans un contexte où les sociétés peinent à répondre à la crise environnementale – et où une partie du débat public rejette même l’écologie –, le terme « vivant » propose de décentrer le regard. Il invite à le déplacer, à voir dans la nature et les êtres qui la peuplent non pas des ressources à dominer, mais des existences avec lesquelles apprendre à cohabiter.

Pourquoi ce retour du vivant ?

Le « vivant » permet ainsi de dire ce que la « nature » ne permet pas.

Contrairement à « nature », souvent pensée comme un décor extérieur ou une ressource à exploiter, le « vivant » inclut les humains dans une communauté élargie avec les animaux, les végétaux et les écosystèmes, et s’interroge sur l’ensemble plutôt que sur telle ou telle partie. Il insiste sur les relations, sur les interdépendances et sur la fragilité des milieux que nous habitons. Cette nuance explique son succès croissant : il offre un langage qui relie la crise écologique à nos existences concrètes, à nos corps, à nos manières d’habiter le monde sans nous en couper. Il comble les lacunes des analyses trop focalisées sur la partie et qui perdent de vue le tout. Et c’est précisément parce qu’il nous attache à notre être sensible qu’il ouvre un espace de luttes, d’appropriations et d’expérimentations politiques.

Sa signification varie selon les contextes. En français, il évoque des dynamiques d’interdépendance entre humains et non-humains. En anglais (life, living beings, vital), il est souvent ramené aux Life Sciences, c’est-à-dire l’ensemble des sciences de la vie (biologie, médecine, génétique, agronomie, écologie scientifique), à une approche plus fonctionnelle et technique. En Amérique latine, le « vivant » prend une tournure institutionnelle : la Constitution de l’Équateur reconnaît ainsi la Pachamama (la Terre-Mère) comme sujet de droit – une manière de traduire dans le langage juridique des visions du monde autochtones, fondées sur l’harmonie entre les êtres humains et la nature. Le préambule du texte évoque d’ailleurs la volonté de « construire une nouvelle forme de coexistence publique, dans la diversité et en harmonie avec la nature, afin de parvenir au buen vivir, le sumak kawsay », c’est-à-dire le bien vivre ou la vie en plénitude.

Dans d’autres contextes, notamment occidentaux, la gestion écologique reste trop souvent marquée par des logiques de contrôle, de « maîtrise » de la nature et de ses risques, voire d’exclusion, comme le souligne la chercheuse en sciences politiques Krystel Wanneau lorsqu’elle analyse les dispositifs de « solutions fondées sur la nature » promus par les Nations unies. Elle prend ici comme exemple les problèmes d’inondation dans le nord de la France et aux Pays-Bas pour illustrer l’attrait de ces solutions redonnant de la place à la nature en s’inspirant des services offerts par les écosystèmes.

Dès le XIIe siècle, les Flamands ont ainsi mis en place les wateringues, des dispositifs de canaux pour contenir les inondations et gagner des terres agricoles sur la mer. Aujourd’hui, ces approches conciliant activités humaines et préservation écologique se multiplient, mais elles restent marquées par des tensions entre logiques administratives, agricoles, urbaines et écologiques pouvant reconduire des rapports de pouvoir inégaux entre politiques nationales et initiatives locales, comme dans le Nord-Pas-de-Calais. Partout dans le monde, ces approches de gestion des risques « avec » le vivant séduisent sur le papier, mais leur concrétisation se heurte à des conflits dont la résolution appelle de véritables débats démocratiques.

« Dunkerque veut aller plus loin et met en place un partenariat avec les agriculteurs des sections de son territoire pour les amener à ne pas évacuer l’eau systématiquement, mais à refaire des zones humides moins drainées, en contrepartie du paiement de leurs rôles par la communauté urbaine », explique le chercheur Bernard Barraqué dans son article « Les wateringues hier et aujourd’hui, en France et aux Pays-Bas » (2025). CC BY

Pas étonnant donc qu’en parallèle, des alternatives démocratiques émergent. Le mouvement des villes en transition, lancé par l’enseignant britannique Rob Hopkins, promeut des modes de vie collectifs résilients, où « prendre soin du vivant » devient un mot d’ordre local. En France, les Soulèvements de la Terre, ou encore les mobilisations écologistes radicales étudiées par le politiste Luc Sémal, montrent que le vivant peut devenir un outil de mobilisation et de critique.

Parallèlement, certaines collectivités locales expérimentent des Parlements du vivant (dans l’agglomération Dracénie Provence Verdon [Var]) ou des micro-Parlements des vivants (à La Rochelle [Charente-Maritime], à Paris) pour faire participer les écosystèmes dans les décisions publiques afin de dépasser les oppositions modernes entre humain et non-humain, raison et émotion, corps et esprit. Ce changement reflète une tentative de réinventer notre rapport au monde, en mobilisant des savoirs sensibles longtemps marginalisés.

Mais cette prise de conscience ne suffit pas. Comme le montrent les historiens de l’environnement, l’anthropocène n’est pas qu’un moment de réveil écologique : c’est aussi le produit de trajectoires politiques et économiques anciennes, qui vont de l’industrialisation et de l’exploitation coloniale aux logiques extractives et financières contemporaines. Penser le vivant exige donc plus qu’un changement de regard. Il faut transformer les priorités, les institutions, les formes de pouvoir. Les chercheurs en théorie politique Marc-Antoine Sabaté et Emmanuel Charreau insistent : ce n’est pas parce qu’on parle du vivant qu’on agit en conséquence. Il ne suffit pas d’ouvrir les yeux, encore faut-il changer les cadres hérités de ces histoires longues. Avoir conscience du réchauffement climatique ne produit pas une action immédiate, mais plutôt l’inverse.

Ces tensions deviennent de plus en plus visibles en Europe. En Belgique, la Cour constitutionnelle a suspendu le report de l’interdiction des diesels Euro 5 à Bruxelles, mobilisant le droit à la santé et à un environnement sain. En France, le Conseil d’État a condamné l’État pour inaction climatique (affaire Grande-Synthe, dans le Nord), confirmant que seule la contrainte juridique oblige à agir.

Mais la crise des gilets jaunes rappelle que protéger le climat sans corriger les inégalités sociales peut générer de nouvelles fractures. Comme le note le chercheur en théorie politique Éric Fabri, reconnaître le vivant sans transformer les logiques propriétaires revient à reproduire les mêmes asymétries de pouvoir et, en fait, à reconduire le paradigme de la nature (ontologie naturaliste) dont la propriété est une expression juridique. L’histoire des idées est ici utile pour révéler à quel point la vision d’une nature dont l’humain est maître et possesseur est intimement liée à l’idéologie propriétaire. Ne pas la remettre en question, c’est ainsi accepter de continuer à porter les œillères modernes qui font de la nature un ensemble de ressources à s’approprier.

Le vivant bat en brèche cette représentation et invite à penser un rapport au monde qui ne soit pas hiérarchique, unilatéral ni fondé sur la domination.

Une révolution intellectuelle ou un discours récupéré ?

À mesure que le vivant devient un objet de débat, une question devient centrale : assiste-t-on à une transformation en profondeur de nos institutions, ou à une récupération d’un langage critique vidé de sa portée subversive ?

Comme le souligne le professeur en philosophie Philippe Caumières, parler du vivant n’a de sens que si cela s’accompagne d’un véritable renouveau de l’activité politique autonome. Or, aujourd’hui, deux dynamiques coexistent – et parfois s’opposent frontalement. D’un côté, on observe des tentatives sincères pour repenser notre rapport au vivant, à travers le droit, la politique, ou de nouvelles formes de gouvernance écologique. Mais en parallèle, le vivant devient aussi un outil de langage pour des logiques plus anciennes. États et entreprises invoquent la protection du vivant pour légitimer des politiques de contrôle, de marchandisation ou de surveillance.

C’est particulièrement visible en Chine : derrière la bannière de la « civilisation écologique », le Parti communiste chinois promet de réconcilier développement et environnement. Dans les faits, la conservation d’espèces emblématiques comme le panda ou la mise en place de parcs nationaux servent à renforcer le contrôle territorial, à limiter l’accès aux ressources ou à encadrer les populations locales, comme l’analyse la chercheuse en science politique Virginie Arantes, spécialiste de la Chine. Le vivant y devient un capital écologique et symbolique, mais aussi un instrument de gouvernement.

Ceci soulève une question centrale : le vivant remet-il en cause la distinction entre nature et culture, ou la redéfinit-il selon de nouvelles logiques ? Même lorsqu’on parle de vivant, les dynamiques d’exploitation et de pouvoir demeurent. Quel rôle peuvent jouer les humains dans ces conflits d’intérêts interespèces ? Peuvent-ils être arbitres sans imposer leurs propres normes comme seul étalon ? Cette tension traverse également les débats philosophiques. Bruno Latour appelait ainsi à reconstruire nos attachements au vivant et à reconnaître la pluralité des êtres avec lesquels nous cohabitons. Mais des penseurs, comme Frédéric Lordon ou Andreas Malm, rappellent que toute réflexion écologique qui oublie les rapports de classe et la dynamique du capitalisme risque de manquer sa cible. Penser le vivant, oui – mais sans perdre de vue les structures sociales et économiques qui façonnent les conditions de vie et le travail.

Le vivant n’est pas un mot magique. C’est un champ de lutte. Ce qui se joue, c’est la fabrication d’une frontière entre humain et nature, et la difficulté – voire l’impossibilité – d’entretenir avec celle-ci un rapport autre qu’extractiviste. Et la manière dont nous habitons le vivant, le nommons, le protégeons ou l’exploitons en dit long sur le monde que nous sommes en train de construire.

À mesure que le vivant devient un enjeu central, il peut ouvrir des voies nouvelles – ou servir à reconduire des logiques anciennes de domination.

Le défi est triple :

  • Transformer les prises de conscience en actions concrètes.
  • Mobiliser les savoirs permettant de réordonner les priorités politiques.
  • Questionner les formes d’appropriation du vivant, qu’elles soient économiques, juridiques ou politiques.

Plutôt qu’un consensus, le vivant est aujourd’hui une question. Il nous force à choisir : que préserver, pour quels mondes à venir, avec qui et pour qui ?


Cet article est inspiré de l'ouvrage Rendre le vivant politique, dirigé par Virginie Arantes, Éric Fabri et Krystel Wanneau, paru en 2025 aux éditions de l’Université de Bruxelles et consultable en ligne.

The Conversation

Virginie Arantes a bénéficié de financements du Fonds de la Recherche Scientifique – FNRS (Belgique) et du CNRS dans le cadre de son postdoctorat au sein du projet Chine CoREF. Ces soutiens n’ont exercé aucune influence sur les résultats ou les conclusions de sa recherche.

Eric Fabri a reçu des financements du Fonds National de la Recherche Scientifique FRS-FNRS pour financer ses recherches postdoctorales. Ces financements n'engendrent cependant aucun contrainte quant aux résultats des recherches menées.

Wanneau Krystel a reçu des financements de l'Agence nationale de recherche (ANR) dans le cadre de son postdoctorat au sein du projet ANR "SciOUTPOST". Ces financements n'exercent aucune influence sur les résultats ou les conclusions de sa recherche.

PDF

22.10.2025 à 17:28

Le potentiel oxydant : un nouvel indice pour mesurer la pollution atmosphérique

Cécile Tassel, Doctorante en géochimie de l'atmosphère, Université Grenoble Alpes (UGA)

Gaëlle Uzu, Géochimiste de l’atmosphère, Institut de recherche pour le développement (IRD)

Une étude d’ampleur inédite utilise un nouvel indicateur pour mieux évaluer les ravages des particules fines sur la santé : le potentiel oxydant.
Texte intégral (1885 mots)

Elle est à l’origine de 7 % des décès en France. La pollution atmosphérique est un fléau invisible, mais bien réel. Et pour s’attaquer à ce problème, il faut d’abord le mesurer.

C’est le travail de Cécile Tassel, doctorante à l’Université Grenoble-Alpes, et Gaëlle Uzu, directrice de recherche à l’Institut de recherche pour le développement (IRD). Ces géochimistes de l’atmosphère sont à l’origine d’une étude inédite tout juste parue dans la revue« Nature ». Elles y présentent un indicateur pour mesurer les dommages causés par les particules fines jusqu’ici peu utilisé : le potentiel oxydant.. En réunissant des données issues de 43 sites répartis dans toute l’Europe, les chercheuses ont constitué la base de données la plus complète jamais réalisée sur le sujet.


The Conversation : Jusqu’ici, les particules fines et la pollution atmosphérique étaient avant tout mesurées en fonction de leur diamètre et de leur concentration massique, avec les PM10 (masse cumulée de toutes les particules inférieures à 10 micromètres [µm]) et les PM2,5 (particules inférieures à 2,5 µm). Quelles sont les limites de ces mesures ?

Gaëlle Uzu et Cécile Tassel : Effectivement. En 1996, en France, la loi sur l’air et l’utilisation rationnelle de l’énergie (dite loi Laure) a rendu obligatoire la mesure des particules fines, et l’indicateur réglementaire de référence a depuis lors été la concentration massique des particules en fonction de leur diamètre. La France était à l’époque pionnière, et l’UE s’est beaucoup inspirée de cette loi pour élaborer la directive européenne. Ces données sont bien sûr capitales, car nos poumons sont censés ne voir entrer et sortir que des flux de gaz lors de la respiration. Mais ces particules fines, de par leur taille, peuvent entrer dans les poumons et perturber le fonctionnement de ces organes. La taille est donc bien sûr très importante, comme la fréquence répétée d’exposition à ces particules.

Mais ces indicateurs ne nous disent pas tout. Car il y a des particules d’origine naturelle (celles des embruns marins, des volcans, des forêts, avec les végétaux qui émettent des polyols), et d’autres d’origine humaine, émises notamment par le trafic routier.

Donc si on regarde seulement la concentration massique, on peut trouver qu’un bord de mer a la même concentration de particules fines que Grenoble (Isère), une ville notoirement polluée en hiver en raison de sa position géographique de fond de vallée. Seulement, en bord de mer, ces particules seront essentiellement du sel, du magnésium qui auront plutôt un effet hydratant bénéfique sur nos poumons, tandis qu’en ville, ce sera plutôt des microgrammes (μg) émis par le trafic routier, qui n’auront pas du tout le même effet.

Pour avoir donc plus d’informations sur les caractéristiques physiques et chimiques des particules et leur dangerosité pour la santé, nous avons utilisé un autre indicateur : le potentiel oxydant.

Cet indicateur permet de mesurer le stress oxydatif dans les poumons. Ce stress est un mécanisme biologique qui signale un déséquilibre entre la quantité d’antioxydants, qui nous protègent, et les espèces réactives de l’oxygène, qui peuvent être libérées ou générées dans les poumons à la suite de l’inhalation de particules atmosphériques. En cas d’excès, un stress oxydatif croissant peut survenir, induire une inflammation des cellules pulmonaires et la mort de celles-ci. Il s’agit d’un mécanisme biologique clé dans l’apparition de maladies cardiovasculaires et respiratoires, qui font partie des premières causes de mortalité en France aujourd’hui.

Pour mieux comprendre et lutter contre ce fléau, nous avons donc réuni 11 500 mesures de potentiel oxydant issues de 43 sites répartis en Europe.

Du côté des institutions, ce nouvel indicateur a été recommandé dans la nouvelle directive européenne sur la qualité de l’air, fin 2024.

À vous écouter, tout cela paraît limpide. Pourquoi alors cet indicateur est-il si peu utilisé ?

G. U. et C. T. : Déjà, c’est un indicateur relativement récent. Il a d’abord été utilisé dans des travaux de chimistes japonais et américains au début des années 2000, mais leurs études sont restées confidentielles pendant des années. Il faut en fait attendre 2015 pour que des liens soient faits entre, d’un côté, la santé humaine et, de l’autre, les sources de pollution. À partir de là, on a pu intégrer cet indicateur dans des études épidémiologiques un peu plus larges. On a également pu modéliser les sources au niveau européen.

Comme ces mesures sont relativement nouvelles, il n’existe pas encore de protocole standardisé pour mesurer le stress oxydatif, donc les résultats ne sont pas toujours comparables d’une étude à l’autre. Pour avoir cependant une comparaison à grande échelle, nous avons réalisé nos 11 500 mesures en provenance de toute l’Europe avec le même protocole.

Concernant les antioxydants que l’on mesure, sur lequel il n’y a pas toujours non plus de consensus, nous avons décidé de réaliser deux types de test qui sont représentatifs de deux grandes familles d’antioxydants pulmonaires, et qui sont également les plus utilisés à ce jour dans la recherche.

Enfin, il n’existe pas encore d’appareil automatisé de mesure du potentiel oxydant en temps réel. Par ailleurs, modéliser cet indicateur est très coûteux en calcul.

Si l’on regarde maintenant du côté des sources de stress oxydatif, que constate-t-on ?

G. U. et C. T. : Les deux principales sources de stress oxydatif sont le trafic routier et le chauffage au bois. Pour le chauffage au bois, il est facile à détecter car, quand on brûle du bois, on brûle de la cellulose. Or, quand la cellulose brûle, elle crée des molécules de levoglucosan, et on ne connaît pas d’autres sources que la combustion du bois ou du charbon de bois qui en émettent. Donc quand on constate cette présence, on sait que c’est lié au chauffage au bois. Cela arrive généralement entre octobre et mars. Il arrive très rarement qu’on en mesure en été, et ce sera alors sans doute plutôt dû à des barbecues, mais cela reste très négligeable. Le stress oxydatif lié au trafic routier est lui présent en continu, avec bien sûr des pics lors des vacances scolaires par exemple, ou en fonction des jours de la semaine.

Avec toutes ces mesures d’ampleur inédite à l’échelle d’un continent, quels constats avez-vous pu faire qui étaient impossibles avec la seule mesure de la taille et de la concentration des particules fines ?

G. U. et C. T. : On a par exemple vu que les niveaux à Athènes (Grèce), où le préleveur est installé en face de l’Acropole, dans une zone plutôt boisée avait une concentration massique à peu près équivalente à celle d’une école de zone périurbaine d’une vallée alpine. Mais le potentiel oxydant est beaucoup plus élevé dans cette zone périurbaine du fait de sa topographie notamment, dans une vallée.

On a pu aussi constater que certains pics de concentration n’étaient pas tellement dus à des émissions locales, mais plutôt à des phénomènes météorologiques, comme des épisodes de poussières sahariennes. En tant que tel, le potentiel oxydant d’un microgramme de poussière du Sahara n’est pas très élevé, c’est plutôt l’accumulation qui est néfaste. Nos poumons ne sont pas faits pour recevoir de grandes quantités de poussières de sable par mètre cube d’air inhalé pendant plusieurs jours, ça les irrite.

Enfin, de façon plus globale, nous observons des niveaux de potentiel oxydant beaucoup plus élevés dans les sites de trafic proches des grandes voies routières que dans des sites ruraux ou même urbains. Ces différences ne sont pas aussi marquées lorsqu’on mesure seulement la concentration massique.

Mais la bonne nouvelle, c’est que l’on peut jouer sur les deux sources d’émissions principales à savoir le chauffage au bois non performant et le trafic routier. Nos simulations montrent qu’une réduction d’au moins 15 % des émissions de chacune de ces deux sources permet d’abaisser les niveaux urbains moyens de potentiel oxydant au niveau de ceux observés dans les zones urbaines les moins polluées.

Après cette publication d’ampleur inédite, quelles sont les prochaines étapes pour mieux comprendre le stress oxydatif et pour lutter contre la pollution atmosphérique ?

G. U. et C. T. : En publiant notre étude, nous avons proposé des valeurs cibles de potentiel oxydant à atteindre pour l’Europe et mis à disposition de tous notre base de données avec le code qui nous a permis de faire nos simulations de baisse des émissions. Elles peuvent donc désormais être répliquées à des niveaux plus locaux, pour fixer certains objectifs, réfléchir aux stratégies à mettre en place.

Plusieurs études tâchent également de modéliser spatialement le potentiel oxydant, mais c’est un volet de recherche toujours en cours. Des prototypes de mesures en ligne du potentiel oxydant sont aussi développés dans plusieurs laboratoires, dont l’Institut des géosciences de l’environnement (Isère), mais leur sensibilité ne dépasse pas encore les mesures en laboratoire.

The Conversation

Cécile Tassel est membre de l'Institut des Géosciences de l'Environnement (IGE) et de l'Institut pour l'Avancée des Biosciences (IAB). Sa thèse est financée sur les projets IDEX Université Grenoble Alpes (UGA) MOBIL'AIR/ACME.

Gaëlle Uzu a reçu des financements de l'Agence Nationale de la Recherche, de l'Europe, de l'Université Grenoble Alpes, et de sa fondation, d'Actis-FR et de l'Ademe.

PDF

21.10.2025 à 15:02

Pourquoi les limaces sont si difficiles à contrôler dans les champs et les jardins

Sergei Petrovskii, Professor of Applied Mathematics , University of Leicester

Keith Walters, Professor of Invertebrate Biology and Pest Management, Harper Adams University

Natalia Petrovskaya, Associate Professor in Applied Mathematics, University of Birmingham

Véritable cauchemar du jardinier ou de l’agriculteur, les limaces sont aussi très mystérieuses. Pour aider à minimiser les ravages qu’elles provoquent des scientifiques ont étudié leurs déplacements.
Texte intégral (1762 mots)
En 2024, la succession d’un hiver doux et de temps pluvieux a entraîné des dépenses inédites en produits antilimaces. Lisa-S/Shutterstock

Véritable cauchemar du jardinier ou de l’agriculteur, les limaces sont aussi très mystérieuses. Pour aider à minimiser les ravages qu’elles provoquent, des scientifiques ont étudié leurs déplacements.


Presque tous ceux qui ont un jardin savent à quel point les limaces peuvent être nuisibles. Elles demeurent aussi l’un des ravageurs les plus destructeurs pour certaines cultures. Des études montrent ainsi que les rendements de céréales comme le blé, sont considérablement réduits par leur présence. Sur 46 parcelles de céréales à paille, étudiées en Bourgogne-Franche-Comté en 2024, la moitié présentait des signes de ravages provoqués par les limaces à la fin de l’automne.

Mais des recherches récentes sur les déplacements des limaces pourraient aider les agriculteurs à mettre en place des stratégies de prévention contre ces nuisibles qui leur coûtent cher.

Au Royaume-Uni, un rapport publié en 2014 par l’Agriculture and Horticulture Development Board estimait ainsi que les limaces généraient des dépenses allant jusqu’à 100 millions de livres sterling par an, en l’absence de mesures de contrôle efficaces. En France les achats de produits antilimaces ont explosé de 320 % entre 2023 et 2024 pour atteindre 21 millions d’euros, du fait de conditions météorologiques de plus en plus clémentes pour les limaces.

Du côté du consommateur, les limaces agissent également aussi comme un repoussoir : on aime en général pas trop en trouver une dans sa salade.

Gagner sa vie en cultivant des aliments est déjà laborieux en raison de la pénurie de main-d’œuvre, de la hausse des coûts, du changement climatique et d’autres défis. Les fléaux provoqués par les limaces s’ajoutent à tout cela, car il reste difficile de mettre au point des solutions abordables et fiables pour lutter contre ces nuisibles.

Il existe certes des pesticides, mais plusieurs aspects du comportement des limaces font que leur efficacité est aléatoire. Par exemple, la plupart des produits ne ciblent que les limaces actives à la surface ou très près de celle-ci. Or, une grande partie de leur population se trouve à différentes profondeurs dans le sol. En effet, elles se déplacent dans le sol en fonction des conditions météorologiques, des caractéristiques du sol et de plusieurs autres facteurs.

Lorsque les conditions météorologiques sont difficiles, elles peuvent devenir moins actives, rester plus profondément enfouies dans le sol, se cacher dans des endroits dissimulés ou difficiles d’accès, sous des pierres ou dans une végétation dense telle que des touffes d’herbe. Cela donne la fausse impression qu’elles ont disparu, alors qu’elles peuvent réapparaître rapidement et en nombre dès que le temps s’améliore.

Certains pesticides chimiques tels que le métaldéhyde sont également à utiliser avec grande précautions et soumis à une réglementation très stricte en raison de leurs effets néfastes sur l’environnement, en particulier sur les rivières et les lacs.

Plusieurs animaux peuvent eux faire office d’agents de biocontrôle. Certains nématodes, semblent par exemple efficaces, mais les agriculteurs les jugent trop coûteux pour être commercialement viables. Les nématodes sont des créatures microscopiques également connues sous le nom de vers ronds, et certaines espèces peuvent effectivement infecter et tuer des mollusques tels que les limaces. Ils constituent toutefois une bonne option pour les jardiniers, qui ont généralement besoin d’en appliquer beaucoup moins car ils ont un espace plus petit à protéger.

Suivi des groupes de limaces

Pour les agriculteurs, une piste de solution alternative apparaît dans des recherches montrant que la répartition des limaces dans un champ cultivable est inégale. Des études sur les limaces dans les principales cultures, notamment le blé et le colza, ainsi que dans les cultures de couverture et les champs laissés en jachère, ont déjà remarqué qu’on retrouve un grand nombre de limaces dans certaines zones qui étaient collées à d’autres secteurs où les limaces étaient en revanche peu nombreuses. Notre article de 2020 a confirmé cela dans tous les champs cultivés que nous avons étudiés.

De fait, la répartition spatiale des animaux dans leur environnement naturel est rarement uniforme. On pourrait s’attendre à ce que les animaux se rassemblent dans les zones où la densité alimentaire est plus élevée. Mais dans de nombreux cas, les animaux forment des « parcelles » même dans des environnements où les ressources alimentaires sont réparties de manière uniforme. Les chercheurs ne savent pas exactement pourquoi.

Si l’on parvient à prédire les zones à forte densité de limaces, les agriculteurs pourraient dès lors concentrer les pesticides et les nématodes dans ces zones, ce qui serait plus abordable et meilleur pour l’environnement. Une autre étude réalisée en 2020 a montré que cela pourrait aider les agriculteurs à réduire leur utilisation de pesticides d’environ 50 %.

Deux limaces glissant sur une terrasse
Les limaces peuvent être un véritable casse-tête pour les agriculteurs et les jardiniers. Foxxy63/Shutterstock

Cependant, cela n’est possible que si l’emplacement des zones à forte densité de limaces ne change pas beaucoup. Jusqu’à récemment, les informations sur la formation et la pérennité des zones de limaces étaient rares. Notre étude de 2022 a toutefois révélé que des zones stables de concentration de limaces apparaissaient dans toutes les cultures que nous avons étudiées. Ces parcelles se formaient toujours aux mêmes endroits tout au long de la saison de croissance des végétaux et cultures.

Dans le cadre d’un précédent projet de recherche, nous avons équipé des limaces de balises radio afin de suivre leurs déplacements dans les champs. Cette étude a révélé que les limaces présentaient un comportement collectif, ce qui signifie qu’elles circulent différemment lorsqu’elles se déplacent en groupe. Les changements sont subtils. Leur vitesse moyenne et le zigzaguement de base de leurs trajectoires ne changent pas beaucoup. Cependant, en y regardant de plus près, on constate qu’elles effectuent des virages plus serrés et que chaque limace développe une légère préférence dans le sens de ses virages. Elles ont également tendance à se reposer davantage lorsqu’elles sont ensemble.

Nous avons utilisé les données des balises radio pour créer un modèle numérique des populations de limaces que nous avons étudiées. Cela nous a permis d’examiner des facteurs qui seraient difficiles, voire impossibles, à étudier sur le terrain.

Que vous aimiez ou détestiez les limaces, nous devons les comprendre afin d’aider les agriculteurs à produire notre alimentation à tous.

The Conversation

Keith Walters bénéficie actuellement d'un financement de recherche de la part d'Innovate UK. Par le passé, il a reçu des subventions de recherche du gouvernement britannique, de conseils de recherche, d'organismes de prélèvement industriels et de diverses autres sources.

Natalia Petrovskaya et Sergei Petrovskii ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

20.10.2025 à 16:21

Le tilapia, un poisson dont le succès pose question, des Caraïbes au Pacifique

Samson Jean Marie, Doctorant en anthropologie et géographie, Ingénieur agronome, Institut de recherche pour le développement (IRD)

Entre promesse de résilience alimentaire et menaces écologiques silencieuses, le tilapia cristallise aujourd’hui les grands enjeux du développement de l’élevage de poissons.
Texte intégral (2076 mots)
Originaire d’Afrique et du sud-ouest de l’Asie, le tilapia est aujourd'hui présent dans 135 pays. Rafael Medina/Flickr, CC BY

Entre promesse de résilience alimentaire et menaces écologiques silencieuses, le tilapia cristallise aujourd’hui les grands enjeux du développement de l’élevage de poissons dans les territoires insulaires. En Haïti par exemple, où il s’est largement développé, le tilapia est présenté comme une solution prometteuse pour renforcer la sécurité alimentaire. Toutefois, cette expansion, souvent promue sans garde-fous écologiques solides, soulève de vives préoccupations environnementales, notamment autour de la gestion de l’eau douce et des risques liés à la diffusion incontrôlée du tilapia dans les milieux naturels.


C’est un poisson que l’on retrouve aujourd’hui sur des îles du monde entier. On l’appelle tilapia, mais derrière ce nom vernaculaire se trouve en réalité un ensemble de cichlidés, des poissons tropicaux d’eau douce, principalement des genres Oreochromis, Tilapia et Sarotherodon, indigènes d’Afrique et du sud-ouest de l’Asie. L’élevage du tilapia est aujourd’hui pratiqué dans plus de 135 pays, de la Chine et de l’Indonésie, dans le Pacifique, au Brésil, au Mexique et à Haïti. Cet engouement s’explique par sa capacité à croître rapidement (atteignant 400 ou 500 grammes en cinq à huit mois en étang), à se nourrir de ressources variées et à s’adapter à des milieux divers, autant d’atouts qui facilitent son élevage par rapport à bien d’autres espèces de poissons d’eau douce.

Importé d’Afrique dans les années 1950, le tilapia (Oreochromis mossambicus) a été largement diffusé à travers Haïti, notamment à partir des années 1980, avec l’appui de l'Organisation pour l’alimentation et l’agriculture (FAO) et du ministère de l’agriculture, des ressources naturelles et du développement rural, au point de devenir l’un des poissons d’élevage les plus utilisés dans les projets d’aquaculture rurale.

Aujourd’hui, Haïti dispose ainsi de plusieurs initiatives aquacoles d’envergure variable, allant des stations expérimentales aux exploitations privées commerciales comme Taïno Aqua Ferme sur le lac Azuéi. Toutefois, malgré ces efforts, la pisciculture demeure marginale : moins de 4 % des agriculteurs haïtiens y sont engagés, et la consommation annuelle de poisson (4,5 kg/an) reste inférieure à la moyenne caribéenne.

Parmi les freins récurrents figurent l’accès irrégulier aux jeunes poissons et aux aliments (coûts, importations), les contraintes d’eau et d’énergie, l’accompagnement technique limité, l’insécurité et des chaînes du froid et d’écoulement insuffisantes, soit autant d’obstacles qui fragilisent les modèles économiques des petites exploitations.

Malgré ce bilan pour le moins mitigé, certains, à l’instar de l’ancien ministre de l’agriculture Patrix Sévère, ont continué de nourrir l’ambition « de voir tous les plans d’eau du pays peuplés de tilapia ». En voulant « passer de la parole aux actes », l’actuel ministre de l’agriculture Vernet Joseph promettait en août 2024 d’introduire dans quatre plans d’eau du pays (le lac de Péligre, l’étang Bois Neuf, le lac Azuei et l’étang de Miragoâne), trois millions de jeunes tilapias ».

L’opération, selon lui, devait permettre, en deux mois, la production « de 25 tonnes de poissons ». Aujourd’hui, cependant, le projet est suspendu à la suite d’un avis consultatif initial de Caribaea Initiative (organisation consacrée à la recherche et la conservation de la biodiversité caribéenne) soulignant les risques écologiques, notamment pour les espèces de poissons endémiques de l’étang de Miragroâne. Aucune décision officielle n’a encore été actée quant à la poursuite ou non du projet, lequel resterait également conditionné à la mobilisation de financements, « selon un cadre du ministère de l’agriculture ».

Des expériences contrastées en contexte insulaire : l’exemple de Santo (Vanuatu)

À plus de 13 000 kilomètres de là, dans le sud de l’île de Santo au Vanuatu (archipel du Pacifique Sud), une expérience parallèle fortuite permet cependant de tirer des leçons précieuses. En avril 2020, le cyclone Harold a frappé de plein fouet cette île volcanique, provoquant le débordement de nombreux bassins piscicoles artisanaux. Des milliers de tilapias se sont ainsi échappés et ont colonisé les cours d’eau naturels, entraînant une transformation brutale des écosystèmes aquatiques. Les résultats préliminaires des enquêtes menées dans le cadre d’une thèse, conduite au sein du projet « Climat du Pacifique Sud, savoirs locaux et stratégies d’adaptation » (Clipssa), auprès d’une centaine d’usagers de cinq cours d’eau de l’île, révèlent que 87 % des personnes interrogées déclarent avoir constaté une diminution, voire une disparition, de nombreuses espèces de poissons et de crustacés autochtones depuis l’introduction involontaire du tilapia.

« Il y avait des crevettes, des poissons noirs [black fish], des anguilles […]. Maintenant, il n’y a presque plus que du tilapia », témoigne ainsi une habitante du sud-ouest de l’île.

« On ne pêche plus comme avant. Le tilapia est partout, il mange les œufs des autres poissons et tous ceux qu’ils trouvent », ajoute un pêcheur sur la côte est de l’île.

Les études menées par des chercheurs chinois et thaïlandais rapportent que l’introduction de deux espèces de tilapia dans leurs pays respectifs a également entraîné une réduction significative de la biodiversité des poissons natifs. Ces résultats sont corroborés par les données du Global Invasive Species Database, qui soulignent que le tilapia figure parmi les 100 espèces envahissantes les plus problématiques au monde.

Toutefois, il convient de nuancer ce constat. Une introduction maîtrisée de tilapia dans un écosystème ne conduit pas systématiquement à des effets négatifs. Les recherches du biologiste kenyan Edwine Yongo au sujet de la Chine et de Daykin Harohau aux îles Salomon montrent que, dans certaines conditions, l’élevage de cette espèce peut contribuer au contrôle des algues nuisibles, grâce à son régime alimentaire et à ses activités de fouissage des sédiments. Ce processus contrôlé peut ainsi améliorer la qualité de l’eau, tout en soutenant la sécurité alimentaire locale, notamment dans les contextes insulaires ou ruraux.

En somme, c’est donc moins l’espèce en elle-même que les modalités de son introduction et de son suivi qui déterminent si elle devient un facteur de dégradation écologique ou, au contraire, un levier de régulation et de sécurité alimentaire.

Quelles leçons pour Haïti ?

L’expérience de Vanuatu, tout comme les travaux menés en Chine et aux îles Salomon, offre ainsi à Haïti une précieuse grille de lecture pour penser l’avenir de l’élevage du tilapia sur son territoire. Si ce poisson peut devenir un levier de sécurité alimentaire, sa prolifération incontrôlée pourrait également menacer les écosystèmes aquatiques déjà fragiles et nuire à la biodiversité locale. Introduire massivement un poisson « pour nourrir la population locale » sans tenir compte de ces équilibres pourrait donc s’avérer contre-productif, en concurrençant les espèces locales, en perturbant les chaînes alimentaires et, in fine, en fragilisant les moyens d’existence de nombreux ménages. Son introduction dans le lac Miragoâne en Haïti pourrait par exemple entraîner un désastre écologique et conduire à l’extinction de tout un groupe d’espèces de petits poissons du genre Limia, endémiques de ce plan d’eau et que l’on ne trouve donc nulle part ailleurs en Haïti ou dans le monde.

Des exemples d’élevages circulaires ou multitrophiques, c’est-à-dire associant plusieurs niveaux de la chaîne alimentaire (poissons, mollusques filtreurs, algues) afin de recycler les nutriments, menés en Chine, au Sénégal ou d’autres types de projets pilotes en Haïti (comme Taïno Aqua Ferme, Caribean Harvest), montrent qu’il est possible de développer une aquaculture durable, à condition de :

  • maîtriser l’élevage en bassins clos ou cages flottantes sécurisées, de préférence dans des lacs artificiels, afin d’éviter tout risque pour les grands lacs naturels comme le lac Miragoâne, qui abrite une communauté de poissons endémiques ;

  • recourir à des espèces adaptées. Le rapport rédigé par Gilles, Celestin et Belot (2021) à la demande de l’Institut de recherche pour le développement (IRD) propose un modèle plus durable, adapté aux spécificités haïtiennes : l’élevage du tilapia ouest-africain Sarotherodon melanotheron, une espèce qui se nourrit surtout de débris organiques et d’algues en décomposition et qui tolère de fortes variations de salinité ;

  • valoriser les sous-produits agricoles (son de riz de l’Artibonite, pelures de banane-plantain, tourteaux d’arachide, drêche de sorgho séchée) et limiter la dépendance à des aliments importés ;

  • renforcer la formation technique des éleveurs pour garantir le bon fonctionnement des systèmes d’élevage ;

  • protéger les installations d’élevage contre les évènements météorologiques et climatiques extrêmes.

Poisson miracle pour certains, espèce à risque pour d’autres, le tilapia incarne à lui seul les dilemmes du développement aquacole en Haïti. Tirer les leçons des expériences internationales, notamment celles de Santo au Vanuatu, c’est comprendre qu’une expansion sans garde-fous écologiques pourrait transformer une solution alimentaire en problème écologique. L’avenir de la pisciculture haïtienne ne se jouerait pas seulement dans les bassins : il dépendra aussi de choix politiques éclairés, de modèles durables, et d’une écoute attentive des écosystèmes comme des communautés locales.

The Conversation

Samson Jean Marie ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

18.10.2025 à 10:27

Tempête record en Alaska : comment le passage de l’ex-typhon Halong a pris tout le monde de court

Rick Thoman, Alaska Climate Specialist, University of Alaska Fairbanks

L’ex-typhon Halong a frappé de plein fouet l’ouest de l’Alaska, inondant des villages isolés et révélant la vulnérabilité de cette région face au réchauffement climatique.
Texte intégral (2545 mots)
Un hélicoptère de la Garde côtière survole des maisons inondées à Kipnuk, en Alaska, le 12 octobre 2025. U.S. Coast Guard

Avec la montée des eaux, le dégel du pergélisol et des prévisions tardives, la catastrophe provoquée par le passage de Halong met en lumière les défis d'adaptation à venir pour les communautés isolées d’Alaska.


Les vestiges d’un puissant typhon ont déferlé le 12 octobre 2025 sur le delta du Yukon-Kuskokwim, dans l’ouest de l’Alaska aux États-Unis, soulevant une onde de tempête qui a inondé des villages jusqu’à près de 100 kilomètres à l’intérieur des terres. Selon les autorités, les eaux ont arraché des maisons à leurs fondations et en ont emporté certaines avec leurs occupants. Plus de cinquante personnes ont dû être secourues à Kipnuk et Kwigillingok, des centaines d’habitants ont été déplacés dans la région et au moins une personne a perdu la vie.

Le typhon Halong était un phénomène inhabituel, sans doute alimenté par les températures de surface de l’océan Pacifique, proches de records cet automne. Son passage à cette période de l’année rendra la reconstruction encore plus difficile pour les communautés durement touchées, comme l’explique le météorologue Rick Thoman, de l’Université d’Alaska à Fairbanks.

Les catastrophes en Alaska rural ne ressemblent à aucune autre aux États-Unis, précise-t-il. Alors que les habitants de la côte Est, frappés le même week-end par une tempête ayant inondé le New Jersey et d’autres États, ont pu se rendre dans un magasin de bricolage pour acheter du matériel ou réserver une chambre d’hôtel en cas d’inondation, rien de tout cela n’existe dans les villages autochtones isolés d’Alaska.

Zones inondées en Alaska
La montée des eaux et les vents violents provoqués par l’ex-typhon Halong ont arraché des maisons à leurs fondations et en ont fait dériver certaines. U.S. Coast Guard via AP

Qu’est-ce qui rendait cette tempête inhabituelle ?

Halong était un ex-typhon, semblable à Merbok en 2022, lorsqu’il a atteint le delta. Une semaine plus tôt, il s’agissait encore d’un puissant typhon à l’est du Japon. Le jet stream l’a ensuite entraîné vers le nord-est, un phénomène assez courant, et les modèles météorologiques avaient plutôt bien prévu sa trajectoire jusqu’à la mer de Béring.

Mais à l’approche de l’Alaska, tout a déraillé.

Les prévisions des modèles ont changé, indiquant une tempête se déplaçant plus rapidement, et Halong a suivi une trajectoire très inhabituelle, passant entre l’île Saint-Laurent et la côte du delta du Yukon-Kuskokwim.

Carte de suivi du typhon.
Trajectoire de l’ex-typhon Halong, montrant sa remontée vers le delta du Yukon-Kuskokwim, en Alaska. Rick Thoman

Contrairement à Merbok, dont les modèles mondiaux avaient très bien anticipé la trajectoire, celle de Halong — ainsi que son intensité finale — n’étaient pas claires avant que la tempête ne soit à moins de 36 heures des eaux territoriales de l’Alaska. C’était bien trop tard pour organiser des évacuations dans de nombreuses localités.

La perte des données du programme de ballons météorologiques, suspendu en 2025, a-t-elle affecté les prévisions ?

C’est une question qui fera l’objet de recherches futures, mais voici ce que l’on sait avec certitude : il n’y a eu aucune observation en altitude par ballon météorologique à l’île Saint-Paul, dans la mer de Béring, depuis la fin du mois d’août, ni à Kotzebue depuis février. À Bethel et Cold Bay, les lancements sont limités à un par jour au lieu de deux. À Nome, aucun ballon n’a été envoyé pendant deux jours entiers alors que la tempête se dirigeait vers la mer de Béring.

Est-ce que cela a faussé les prévisions ? On ne le sait pas, faute de données, mais il semble probable que cela ait eu un effet sur la performance des modèles.

Pourquoi la région du delta est-elle si vulnérable face à une tempête comme Halong ?

Le terrain, dans cette partie ouest de l’Alaska, est très plat, ce qui permet à de fortes tempêtes de faire pénétrer l’océan dans le delta, où l’eau se répand largement.

La plupart des terres se trouvent très près du niveau de la mer, parfois à moins de trois mètres au-dessus de la ligne de marée haute. Le dégel du pergélisol, l’affaissement du sol et la montée du niveau de la mer accentuent encore le risque. Pour de nombreuses personnes, il n’existe littéralement aucun endroit où se réfugier. Même Bethel, la plus grande ville de la région, située à une centaine de kilomètres en amont sur la rivière Kuskokwim, a connu des inondations provoquées par Halong.

Ce sont des communautés très isolées, sans routes menant aux villes. On ne peut y accéder que par bateau ou par avion. Aujourd’hui, de nombreuses personnes s’y retrouvent sans logement, alors que l’hiver approche.

Des habitants autochtones de Kipnuk évoquent les défis posés par la disparition du pergélisol et le changement climatique dans leur village. Alaska Institute for Justice.

Ces villages sont également de petite taille. Ils ne disposent ni de logements supplémentaires ni des ressources nécessaires pour se relever rapidement. La région se remettait déjà d’importantes inondations survenues à l’été 2024. La tribu de Kipnuk a pu obtenir une aide fédérale pour catastrophe naturelle, mais celle-ci n’a été approuvée qu’au début de janvier 2025.

À quoi ces communautés sont-elles confrontées pour la reconstruction ?

Les habitants vont devoir prendre des décisions très difficiles. Faut-il quitter la communauté pour l’hiver et espérer reconstruire l’été prochain ?

Il y a sans doute très peu de logements disponibles dans la région, d’autant que les inondations ont été étendues et qu’il existe déjà une pénurie de logements. Les personnes déplacées doivent-elles se rendre à Anchorage ? La vie en ville y est coûteuse. Il n’existe pas de solution simple.

La reconstruction dans des endroits comme Kipnuk est logiquement complexe. On ne peut pas simplement décrocher son téléphone et appeler un entrepreneur local. Presque tous les matériaux doivent être acheminés par barge – du contreplaqué aux clous en passant par les fenêtres – et cela ne se fera pas en hiver. Impossible de transporter quoi que ce soit par camion : il n’y a pas de routes. Les avions ne peuvent transporter que de petites quantités, car les pistes sont courtes et non adaptées aux avions cargo.

La Garde nationale pourrait peut-être aider à acheminer des fournitures par avion. Mais il faut encore disposer de personnes capables d’assurer la construction et les réparations. Tout devient cent fois plus compliqué lorsqu’il s’agit de bâtir dans des communautés isolées. Même si une aide nationale ou fédérale est approuvée, la plupart des maisons ne pourraient être reconstruites qu’à l’été prochain.

Le changement climatique joue-t-il un rôle dans ce type de tempêtes ?

Ce sera une autre question à explorer dans de futures recherches, mais la température de surface de la mer dans la majeure partie du Pacifique Nord, que le typhon Halong a traversée avant d’atteindre les îles Aléoutiennes, était bien plus élevée que la normale. Les eaux chaudes alimentent les tempêtes.

Carte animée montrant les températures des eaux de surface dans le Pacifique Nord.
Une comparaison des températures quotidiennes de surface de la mer montre à quel point une grande partie du Pacifique Nord était anormalement chaude avant et pendant le passage du typhon Halong. NOAA Coral Reef Watch

Halong a également entraîné avec lui une masse d’air très chaud vers le nord. À l’est de sa trajectoire, le 11 octobre, Unalaska a enregistré 20 °C, un record absolu pour un mois d’octobre à cet endroit.

The Conversation

Rick Thoman a pris sa retraite du service météorologique national (National Weather Service) de la région Alaska en 2018.

PDF

16.10.2025 à 15:48

La rivière qui cache la forêt ? L’importance de protéger les ripisylves, précieuses face aux changements globaux

Simon Dufour, Enseignant chercheur, Université Rennes 2

Richard Chevalier, Ingénieur retraité de l'INRAE

Villar Marc, Inrae

Les forêts qui bordent les cours d’eau sont des écosystèmes précieux qui rendent de nombreux services à la société. Il est indispensable de mieux les connaître et de mieux les protéger.
Texte intégral (3514 mots)

On parle ainsi de ripisylves pour décrire la flore qui peuple les rives et de forêts alluviales pour parler des forêts qui jouxtent les cours d’eau (et qui sont souvent des « forêts inondables »). Riches d’une biodiversité précieuse, les ripisylves rendent un grand nombre de services écosystémiques. Tout du moins, lorsque les pressions exercées par les activités humaines ne les ont pas dégradées…

Comment mieux gérer ces milieux fragiles et pourtant protecteurs, notamment face au changement climatique ? Une question à laquelle répond l’ouvrage paru en octobre 2025 aux éditions Quae, librement accessible en ligne. Dans le texte ci-dessous, ses coordinateurs scientifiques expliquent pourquoi et comment protéger ces bijoux méconnus de biodiversité.


Ripisylves et forêts alluviales, ouvrage coordonné par Marc Villar, Richard Chevalier et Simon Dufour. Éditions Quae (2025)

Parlez de rivières, de fleuves, de ruisseaux… les images qui viennent à l’esprit sont presque systématiquement des images avec de l’eau, ou au contraire de chenaux à sec.

Pourtant, les cours d’eau ne sont pas que des tuyaux qui transportent de l’eau, ce sont aussi des forêts. En conditions naturelles, une végétation particulière pousse en effet sur leurs berges, à laquelle on donne plusieurs noms : ripisylve, forêt alluviale, boisement riverain, cordon riparien, forêt-galerie, etc.

Ces forêts méritent d’être mieux connues : elles représentent en effet un atout important pour la gestion durable des territoires dans le contexte des changements globaux (changement climatique, déclin de la biodiversité, etc.) que nous vivons.


À lire aussi : « Méandres ou la rivière inventée » : comment refaire monde avec les rivières ?


Une forêt pas comme les autres

Quel que soit le nom que l’on donne à ces forêts, cette végétation est particulière, car elle est connectée au cours d’eau.

Lors des inondations par exemple, de l’eau passe du chenal vers la forêt, et avec elle aussi des sédiments, des graines, des nutriments, etc. Il en résulte des conditions écologiques différentes du paysage alentour. Par exemple, la végétation a accès à davantage d’eau et pousse plus vite.

Mais elle doit également s’adapter à la présence de l’eau. Celle-ci peut engorger le substrat pendant plusieurs semaines, et les crues qui peuvent éroder les sédiments – et, par la même occasion, arracher le substrat sur lequel elle pousse.

Les forêts de bord de cours d’eau sont donc des écosystèmes uniques : ni complètement aquatiques ni complètement terrestres, composés d’une végétation particulière avec des espèces adaptées comme les saules, les aulnes, les peupliers, etc.

Un saule pleureur sur l’Ognon en Franche-Comté. Arnaud 25/WikiCommons, CC BY-SA

Non seulement elles abritent des espèces spécifiques, ce qui augmente la biodiversité à l’échelle régionale, mais elles en accueillent aussi une grande quantité sur des surfaces relativement petites. En effet, les conditions sont localement très variables (de très humides à très sèches), ce qui crée des mosaïques d’habitats.

Des observations réalisées sur une trentaine de sites couvrant seulement 7,2km2 le long de l’Adour (dans le sud-ouest de la France, ndlr) recensent ainsi près de 1 500 espèces végétales pour ce seul cours d’eau. Cela représente environ 15 % de la flore vasculaire – un groupe de plantes qui recoupe les angiospermes (ou, plantes à fleurs), les gymnospermes, les monilophytes et les lycophytes – de France métropolitaine, alors que la surface couverte ne représente que 0,0013 % du territoire français.

Le cours d’eau influence donc la végétation des rives, mais les forêts des bords de cours d’eau influencent aussi grandement le fonctionnement de ce dernier en retour.

De multiples services rendus à la société

Les forêts alluviales et les ripisylves ne sont pas seulement des viviers de biodiversité : elles fournissent également des services écosystémiques précieux pour nos sociétés.

Elles participent ainsi aux stratégies d’atténuation face au changement climatique, en stockant du carbone en grande quantité. Du fait des conditions humides, leur croissance et leur biomasse sont parfois aussi importantes que celles des forêts tropicales. En été, elles limitent la hausse de la température de l’eau des petites rivières jusqu’à 5 °C, ce qui est précieux pour la faune aquatique. En outre, elles piègent des sédiments, des nutriments et des substances qui dégradent la qualité physico-chimique des cours d’eau.

Dans certaines conditions, elles contribuent par ailleurs à ralentir la propagation et à réduire l’ampleur des ondes de crues entre l’amont et l’aval des bassins versants.

https://commons.wikimedia.org/wiki/File:CastoridaeCastorfiber1.jpg
Les ripisylves sont appréciées de nombreuses espèces, comme le castor, mais également des promeneurs. Nasser Halaweh/Wikimédia, CC BY-SA

Au-delà de leur biodiversité végétale propre, elles fournissent des ressources alimentaires, des habitats et des corridors de déplacement à de nombreuses espèces aquatiques, semi-aquatiques et terrestres, telles que les poissons, le castor, les chauves-souris, etc. Elles participent, enfin, à former un paysage agréable, apprécié des différents usagers des cours d’eau (promeneurs, pêcheurs, cyclistes, etc.).

Ces forêts ne sont toutefois pas miraculeuses. La qualité de l’eau dépend également d’autres éléments, comme les pressions sur la biodiversité qui s’exercent dans le bassin versant.

Si la présence de ces forêts est un réel atout, elle n’est pas un blanc-seing qui permettrait de faire l’impasse sur les effets de certaines activités humaines, comme l’artificialisation des sols, l’agriculture intensive, les rejets de stations d’épuration ou le relargage de plastiques, sur la qualité des cours d’eau. Historiquement, les cours d’eau et leurs abords ont en effet souvent concentré ces impacts délétères.

Un joyau sous pression

À l’échelle de l’Europe, on estime que seuls 30 % des zones riveraines de cours d’eau sont encore boisées, alors qu’elles pourraient l’être à plus de 95 %.

Ce chiffre cache toutefois une très grande variabilité entre pays : ce taux peut atteindre une moyenne de 50 % en Scandinavie et descendre à 10 % en Angleterre et en Irlande. Dans certaines régions de moyenne montagne ou de déprise rurale, les superficies augmentent, mais à l’échelle continentale, ces milieux continuent de régresser. Entre 2012 et 2018, 9 000 hectares ont disparu chaque année, en Europe. Près de 50 % de ces étendues ont été réaffectées en surfaces bâties, 25 % en parcelles cultivées et 25 % en praires.

Une ripisylve sous pression (route, autoroute, voie ferrée, gravière, usine, carrière, habitations, etc.), la vallée l’Arc au niveau de Saint-Jean-de-Maurienne (Savoie). Marc Villar, Fourni par l'auteur

Lorsqu’ils existent, ces boisements subissent en outre d’autres pressions : perte de caractère humide du fait des prélèvements en eau et du changement climatique, présence d’espèces exotiques envahissantes, propagation de maladies touchant les arbres comme le phytophthora ou la chalarose, mauvaises pratiques d’entretien, etc.

Résultat : ils sont parmi les habitats semi-naturels européens dans le plus mauvais état de conservation, puisque seulement 5 % sont considérés comme dans un état favorable. Or, il a été démontré que le faible boisement des berges et leur dégradation limitent drastiquement leur qualité écologique et leur capacité à rendre les services écosystémiques mentionnés plus haut.

Dépasser la volonté de « faire propre »

Reconnaître toute la valeur des forêts des bords de cours d’eau doit amener à définir comme objectifs prioritaires des politiques environnementales trois grandes stratégies :

  • conserver l’existant,
  • restaurer ce qui est dégradé,
  • et améliorer les pratiques quotidiennes de gestion.
Vidéo de sensibilisation à la préservation des ripisylves destinée aux élus et aux propriétaires riverains.

Mais il ne suffit pas d’énoncer ces grands principes. Leur mise en œuvre concrète et à large échelle peut s’avérer complexe du fait de la coexistence d’enjeux multiples, qui relèvent de plusieurs échelles spatiales et impliquent de nombreux acteurs : inondations, biodiversité, quantité et qualité de l’eau, usages divers, espèces envahissantes, obstacles à l’écoulement, etc.

Grande plaine inondable boisée par une large forêt alluviale dans le bassin de l’Èbre en Espagne. Patricia Rodríguez-González, CC BY-NC-SA

Heureusement, des solutions existent : plan pluriannuel de gestion, diagnostic et gestion sectorisés, techniques de génie végétal, méthodes et indicateurs de suivi adaptés, outils de conception des actions de restauration ou des mesures de conservation, etc.

Beaucoup reste à faire : la gestion des forêts alluviales et des ripisylves s’appuie parfois plus sur l’habitude ou sur la volonté de « faire propre » que sur l’évaluation factuelle des enjeux. Elle doit aussi être considérée comme suffisamment prioritaire pour que des moyens humains et financiers suffisants lui soient consacrés et que les bonnes pratiques soient plus largement partagées.

Mais c’est une logique payante pour relever les enjeux environnementaux contemporains, notamment en matière de moyens financiers et humains, car ces forêts apportent de nombreux bénéfices alors même qu’elles occupent une superficie réduite et qu’elles ont été très dégradées. À l’interface entre l’eau et la terre, les ripisylves et les forêts alluviales souffrent d’une faible visibilité, aussi bien dans les politiques environnementales que dans le grand public, ce qui constitue un frein à leur prise en compte. Il s’agit donc de travailler à faire (re)connaître leurs valeurs, leurs fonctions et leurs spécificités.

The Conversation

Simon Dufour a reçu des financements des programmes européens COST Action CA 16208 et Horizon 2020.

Richard Chevalier est ingénieur retraité de l’INRAE (UR EFNO), il continue à utiliser cette affiliation pour des valorisations concernant ses activités de recherche antérieures. Il exerce de l’expertise, du conseil, de l’appui technique et de l’enseignement en phytoécologie dans le cadre de son auto-entreprise CHEPHYTEC. Il exerce aussi du conseil et de l’appui technique bénévoles en phytoécologie pour des associations naturalistes : Conservatoire d'espaces naturels Centre-Val de Loire (CEN CVL), Loiret Nature Environnement (LNE) et Cultur’AuxBarres (MLC Nogent-sur-Vernisson)

Marc Villar a reçu des financements principalement du Ministère de l’Agriculture (MASA) et de la Région Centre-Val de Loire pour ses recherches sur le programme national de conservation des ressources génétiques du Peuplier noir.

PDF

16.10.2025 à 10:24

Pourquoi les labels « bio » ne se valent pas d’un pays à l’autre

Marie Asma Ben-Othmen, Enseignante-chercheuse en Economie de l'environnement & Agroéconomie, Responsable du Master of Science Urban Agriculture & Green Cities, UniLaSalle

Les règles du label « bio » varient selon les pays : les normes européennes sont, par exemple, plus strictes qu’en Amérique du Nord. Tour d’horizon.
Texte intégral (3060 mots)

Le « bio » : une étiquette clairement identifiable et souvent rassurante. Pourtant, les réalités derrière ce label mondial divergent. Alors que les normes en Europe sont plutôt strictes, elles sont bien plus souples en Amérique du Nord. Dans les pays émergents, ce sont les contrôles qui sont inégaux. Autant d’éléments à même d’affecter la confiance accordée au bio par les consommateurs. Comment s’y retrouver ? L’idéal serait d’harmoniser les règles d’un pays à l’autre. Petit tour d’horizon.


Le « bio » est un label mondial qui peut s’appliquer à des produits venus d’Europe, de Chine ou d’Amérique du Sud. Il n’a pourtant rien d’universel. Derrière l’étiquette rassurante, on ne retrouvera pas les mêmes normes en fonction des pays de production.

Par exemple, alors que l’Europe impose des règles plutôt strictes, les États-Unis se montrent beaucoup plus souples. Dans certains pays émergents, comme le Brésil, ce sont les contrôles qui sont souvent moins sévères. Nous vous proposons ici un bref tour d’horizon, qui vous permettra, nous l’espérons, de mieux orienter vos choix de consommation.


À lire aussi : Une agriculture 100% bio en France est-elle possible ?


L’absence de pesticides derrière le succès du bio français

En France, la consommation de produits biologiques a connu une croissance fulgurante. En 2023, après vingt années de progression continue, ce marché a été multiplié par 13 par rapport à son niveau initial.

Cette tendance s’explique par le fait que les consommateurs perçoivent le bio comme un produit plus naturel, notamment en raison de l’absence de traitements pesticides autorisés. La production bio doit respecter un cahier des charges plus attentif à l’environnement, ce qui favorise la confiance des consommateurs dans un contexte de plus en plus marqué par la défiance alimentaire.

Ce label demeure toutefois une construction réglementaire qui dépend fortement du contexte national. Cette dynamique positive se heurte aujourd’hui à des évolutions législatives à même de la fragiliser. La loi Duplomb, adoptée le 8 juillet 2025, illustre combien les choix politiques peuvent ébranler la confiance accordée à l’agriculture en réintroduisant la question des pesticides au cœur du débat. Cette loi propose en effet des dérogations à l’interdiction d’utiliser des produits phytopharmaceutiques contenant des néonicotinoïdes.

Même si elle loi ne concerne pas directement les producteurs biologiques, elle risque d’avoir des effets indirects sur le secteur. En réintroduisant des dérogations à l’usage de substances controversées, elle ravive la défiance du public envers l’agriculture conventionnelle. Dans ce contexte, les filières bio pourraient apparaître comme une valeur refuge pour les consommateurs, renforçant leur rôle de repère de confiance dans un paysage agricole fragilisé.

Dans l’Union européenne, un label bio garanti sans OGM

L’Union européenne (UE) a établi une réglementation stricte pour l’agriculture biologique dès 1991. Au-delà de la question des pesticides, qui se pose, comme on l’a vu plus haut, plus intensément en France, celle des organismes génétiquement modifiés (OGM) offre également une clé de lecture intéressante à l’échelle européenne.

En effet, le label bio européen interdit totalement le recours à OGM dans les produits labélisés bio, à toutes les étapes de sa chaîne de production. Cela signifie qu’il est interdit d’utiliser des semences OGM pour les cultures bio, pas d’alimentation animale issue des OGM pour l’élevage bio et pas d’ingrédients issus des OGM pour les produits transformés bio.

En outre, le cahier des charges européen du bio impose des pratiques agricoles strictes en limitant le recours aux intrants de synthèse. Ceci inclut les engrais azotés, les pesticides, les herbicides et les fongicides de synthèse. Seuls certains intrants naturels ou minéraux sont autorisés, à l’instar du fumier, compost et engrais verts. Ceci reflète la philosophie du bio, basée sur la prévention des maladies et des déséquilibres agronomiques, par le maintien de la fertilité des sols, la biodiversité et les équilibres écologiques.

Logos français et européen relatifs à l’agriculture biologique. JJ Georges, CC BY-SA

En France, le label français AB s’appuie ainsi sur le règlement européen, tout en ajoutant quelques exigences propres, comme un contrôle plus rigoureux de la traçabilité et du lien au sol.

Si les deux labels restent alignés sur les grands principes, le bio français se distingue par une mise en œuvre généralement plus stricte, héritée d’une longue tradition d’agriculture biologique militante.

Le bio en Europe se heurte aussi à un certain nombre d’enjeux actuels, notamment agronomiques. Il s’agit par exemple du besoin de renforcer la recherche sur les alternatives aux pesticides et autres intrants de synthèse, comme le biocontrôle, une sélection variétale adaptée et la gestion écologique des sols.

Enfin, force est de constater que l’UE a fait du bio un pilier de sa stratégie « de la ferme à la table » (« From Farm to Fork »). Celle-ci a pour objectif d’atteindre 25 % de la surface agricole utile (SAU) européenne en bio d’ici 2030.

Afin de garantir la fiabilité du label, l’UE a mis en place un système de contrôle centralisé et harmonisé de supervision des chaînes de valeur alimentaires. Celles-ci englobent les producteurs, les transformateurs, jusqu’aux distributeurs. Ces contrôles reposent sur des règles précises définies par le règlement européen 2018/848.

De son côté, le consommateur retrouvera les différents labels de certification bio, tels que le label européen EU Organic, le label national AB en France ou encore le Bio-Siegel en Allemagne. Même si tous ces labels reposent sur la même base réglementaire européenne, leurs modalités d’application (par exemple, le type de suivi) peuvent varier légèrement d’un pays à un autre. Chaque pays peut en outre y ajouter des exigences supplémentaires. Par exemple, la France impose une fréquence de contrôle plus élevée, tandis que l’Allemagne insiste sur la transparence des filières.

Une labélisation plus souple en Amérique du Nord

En Amérique du Nord, l’approche du bio est plus souple que celle de l’Union européenne. Aux États-Unis, le label USDA Organic, créé en 2002, définit les standards nationaux de la production biologique. Il se caractérise par une certaine souplesse par rapport aux standards européens, notamment en ce qui concerne l’usage des intrants, puisque certains produits chimiques d’origine synthétique sont tolérés s’ils sont jugés nécessaires et sans alternatives viables. Ceux-ci incluent, par exemple, certains désinfectants pour bâtiments d’élevage et traitements antiparasitaires dans la conduite de l’élevage.

Le Canada, de son côté, a mis en place sa réglementation nationale des produits biologiques – le Canada Organic Regime – plus tardivement que les États-Unis. Ce système est équivalent à celui des États-Unis, dans la mesure où un accord bilatéral de reconnaissance mutuelle permet la vente des produits bio canadiens aux États-Unis et vice versa.

Les deux systèmes présentent ainsi de nombreuses similitudes, notamment en ce qui concerne la liste des substances autorisées et leur flexibilité d’usage. Cependant, ils divergent du modèle européen sur plusieurs points.

Tout d’abord, alors que l’UE applique une tolérance quasi nulle vis-à-vis des OGM, les États-Unis et le Canada tolèrent, de façon implicite, la présence accidentelle de traces d’OGM dans les produits bio. En effet, selon le règlement de l’USDA Organic, l’utilisation volontaire d’OGM est strictement interdite, mais une contamination involontaire n’entraîne pas automatiquement la perte de la certification si elle est jugée indépendante du producteur. Le Canada adopte une position légèrement plus stricte, imposant des contrôles renforcés et une tolérance plus faible.

Cette différence a suscité des controverses au moment de l’accord de reconnaissance mutuelle, certains consommateurs et producteurs canadiens craignant de voir arriver sur leur marché des produits bio américains jugés moins exigeants sur la question des OGM. Celles-ci concernaient également les conditions d’élevage. En effet, alors qu’en Europe les densités animales sont strictement limitées et que les sorties en plein air sont très encadrées, en Amérique du Nord, certains systèmes de production biologique peuvent être beaucoup plus intensifs, menant à de véritables fermes industrielles biologiques, ce qui entraîne une perte de proximité avec l’idéal originel du bio.

Enfin, un autre contraste concerne les productions hors sol. Aux États-Unis, les fermes hydroponiques – qui cultivent les plantes hors sol – peuvent être certifiées USDA Organic, à condition que les intrants utilisés figurent sur la liste autorisée. En revanche, en Europe, l’hydroponie est exclue car elle ne respecte pas le lien au sol, considéré au cœur de la philosophie agroécologique.


À lire aussi : « Les mots de la science » : A comme agroécologie


Dans les pays émergents, du bio mais selon quels critères ?

Dans les pays émergents, la question du bio se pose différemment. En effet, celle-ci dépend fortement des dispositifs et des critères mis en place par ces pays pour en garantir la crédibilité. À titre d’exemple, en Inde, au Brésil ou en Chine, les labels bio nationaux sont assez récents (la plupart ont été mis en place entre 2000 et 2010) et moins contraignants que leurs équivalents européens.

Alors que, dans l’UE, les contrôles sont effectués par des organismes certificateurs tiers accrédités et indépendants, au Brésil, les producteurs peuvent être certifiés via un système participatif de garantie (SPG), qui repose sur l’auto-évaluation collective des agriculteurs. En conséquence, ces labels peinent à construire une véritable confiance auprès des consommateurs.

Par ailleurs, dans de nombreux cas, les certifications biologiques sont avant tout conçues pour répondre aux standards des marchés internationaux afin de faciliter l’exportation vers l’UE ou l’Amérique du Nord, plutôt que pour structurer un marché intérieur. C’est, par exemple, le cas en Inde.

Cette situation laisse souvent les consommateurs locaux avec une offre limitée et parfois peu fiable. Dans ce contexte, les organismes privés de certification internationaux, comme Ecocert, Control Union ou BioInspecta occupent une place croissante. Ils améliorent la reconnaissance de ces produits, mais renforcent une forme de dépendance vis-à-vis de standards extérieurs, ce qui soulève des enjeux de souveraineté alimentaire mais aussi de justice sociale dans ces pays.

Le bio, un label global… mais éclaté

L’absence de reconnaissance universelle mutuelle entre les différents systèmes de certification biologique engendre de la confusion chez les consommateurs. Il crée également de fortes contraintes pour les producteurs.

En pratique, un agriculteur qui souhaiterait exporter une partie de sa production doit souvent obtenir plusieurs certifications distinctes. Par exemple, un producteur mexicain doit ainsi être certifié à la fois USDA Organic pour accéder au marché américain et EU Organic pour pénétrer le marché européen.

Cette multiplication des démarches alourdit les coûts et la complexité administrative pour les producteurs, tout en renforçant les inégalités d’accès aux marchés internationaux.

Du côté des consommateurs, l’usage généralisé du terme « bio » peut donner l’illusion d’une norme universelle, alors qu’il recouvre en réalité des cahiers des charges très différents selon les pays. Cette situation entretient une certaine ambiguïté et peut induire en erreur, en masquant les disparités de pratiques agricoles et de niveaux d’exigence derrière un label apparemment commun.

Comment s’y retrouver en tant que consommateur ?

Pour s’y retrouver dans la jungle du « bio », il faut donc aller au-delà du simple logo affiché sur l’emballage et s’informer sur la provenance réelle du produit et sur le cahier des charges du label précis qui le certifie.

Il est aussi essentiel de garder à l’esprit que bio ne signifie pas automatiquement « local » ni « petit producteur ». Certains produits certifiés biologiques proviennent de filières industrielles mondialisées.

Enfin, le consommateur peut jouer un rôle actif de « citoyen alimentaire », pour encourager davantage de transparence et de traçabilité, s’il favorise les circuits de distribution qui donnent accès à une information claire et détaillée sur l’origine et les modes de production. Il soutient alors une alimentation plus démocratique et responsable. C’est précisément cette implication citoyenne dans le système alimentaire qui peut favoriser l’essor d’une culture de l’alimentation locale et durable, fondée sur la confiance, l’attachement au territoire et la coopération entre producteurs et consommateurs.

Pour que le bio livre son plein potentiel en termes de transformation agroécologique des systèmes alimentaires mondiaux, peut-être faudrait-il, demain, envisager une harmonisation internationale du bio. C’est à cette condition qu’on pourra en faire un véritable langage commun pour les consommateurs, qui signifie réellement la même chose d’un pays à l’autre.

The Conversation

Marie Asma Ben-Othmen ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

14.10.2025 à 15:46

Retour du loup : sociologie d’un grand remue-ménage

Antoine Doré, Sociologue des sciences, techniques et politiques environnementales et agricoles., Inrae

Le loup est bien plus qu’un grand prédateur : il met à nu les ressorts politiques, sociaux et historiques de notre rapport au vivant.
Texte intégral (3255 mots)

Alors que les appels à renouer avec le sauvage se multiplient, la place du loup est devenue une question éminemment politique. Comment cohabiter avec le grand prédateur, et que cela signifie-t-il à tous les niveaux ? Dans « Politiques du loup. Faire de la sociologie avec des animaux », à paraître le 15 octobre 2025 aux Presses universitaires de France, le sociologue Antoine Doré (Inrae) revient sur la complexité de notre rapport au vivant, constitué d’un écheveau de liens complexes formés historiquement et socialement. Nous reproduisons ci-dessous un extrait de son introduction.


Plusieurs dizaines d’années après leur disparition, les loups sont de retour dans des contrées d’Europe et d’Amérique du Nord desquelles ils avaient été éradiqués. Au milieu des frénésies de la modernité, des raffuts du monde industriel et du grand saccage des milieux de vie, une espèce réapparaît : moment suspendu… entre espoir fragile et modeste soulagement devant les manifestations d’une nature qui reprend ses droits.

Dans le quotidien des champs, au milieu des frémissements du bétail et du fourmillement des vies pastorales, surgit une bête : instants de stupeur… profonde incompréhension et montées de colère face aux signes de délitement d’un monde familier dans lequel on ne se reconnaît plus.

Les réactions contrastées suscitées par le retour du prédateur ont quelques points communs. Elles témoignent d’une attention à l’habitabilité des lieux, que les prédateurs viennent tantôt enrichir, tantôt dégrader, selon les points de vue. Elles rappellent également à quel point les conditions d’existence de tout un chacun sont intimement intriquées avec la présence des autres. Non seulement avec la présence des autres humains, mais également avec celle des animaux qui peuplent les endroits où l’on vit.

Parce que se situer dans le monde revient à tisser des relations avec un ensemble d’entités matérielles et symboliques. Certaines, auxquelles sont reconnues des capacités à éprouver subjectivement les choses, occupent une position particulière. Car elles habitent le monde. Elles en ont une expérience. Vivre avec elles, c’est donc cohabiter. Les façons d’être au monde sont ainsi étroitement liées aux entités non humaines (notion mise à l’honneur en sciences sociales par la théorie de l’acteur-réseau, issue des Science and Technology Studies, selon laquelle la société ne se réduit pas aux humains), en particulier aux animaux.


À lire aussi : Comprendre la diversité des émotions suscitées par le loup en France


Vivant-matière, Vivant-personne et vivants sauvages

Bien sûr, ces derniers ne tiennent pas une place équivalente dans la vie de tous. Un nombre croissant de personnes vivent des animaux sans vivre avec. Ceux-ci s’apparentent alors à ce que le sociologue André Micoud appelle du vivant-matière : des organismes désingularisés, souvent invisibles de leurs principaux usagers finaux, confinés dans des ateliers de productions intensives et des laboratoires de recherche.

Dans la taxonomie proposée par ce sociologue, le vivant-matière s’oppose au vivant-personne, qui désigne au contraire des animaux dotés d’identités singulières, façonnées par des attachements affectifs et des relations bienveillantes. Là où A. Micoud identifie deux pôles d’un continuum en tension, l’anthropologue Charles Stépanoff distingue pour sa part « deux formes originales de traitement des animaux [qui] se sont […] généralisées à une époque récente » : l’animal-matière et l’animal-enfant. Mais plus que des réalités empiriques « pures », ces deux figures s’apparentent davantage à des avatars de la pensée des modernes.

Les loups ont ceci de particulier et d’intéressant qu’ils surgissent dans les interstices de cette modernité occidentale, là où des personnes partagent leur vie avec des animaux selon des modalités bien différentes. Ici, les brebis tiennent une place irréductible à une simple fonction de production. Les relations aux chiens – de conduite ou de protection des troupeaux, de chasse, etc. – ne se résument pas à des rapports familiers. S’ils mangent et s’ils dorment parfois aux côtés des humains, ils partagent également avec eux le travail.

Et puis il y a les animaux que l’on chasse, ceux que l’on observe, ceux que l’on protège et dont on prend soin sans pour autant les apprivoiser. Se situer par rapport à ces bêtes relève d’enjeux complexes. Cela engage des rapports hétérogènes à l’environnement. Cela instaure également des positions différenciées dans l’espace social.

Car autour de ces animaux s’établissent des relations entre les habitants des territoires. Et les crises provoquées par les loups naissent bien souvent d’une perturbation de l’équilibre des attachements entre les habitants humains et non humains de ces territoires recolonisés par le prédateur. S’y écharper à propos des loups, c’est toujours aussi se disputer sur la relation qui convient à tout un cortège d’autres animaux.

Une multitude de perceptions sociales

Isabelle Arpin l’a bien montré dans une enquête sur la place de la faune sauvage dans la vie des gens de la Vanoise (Parc national situé dans le département de la Savoie, ndlr). Quand la sociologue amorce son enquête, les loups n’y ont pas réapparu. En écoutant les gens parler des animaux et en observant les activités qui les relient à ces derniers, elle distingue deux mondes :

  • d’un côté, celui des éleveurs, des chasseurs de chamois et d’une première génération de garde-moniteurs du parc national ;

  • de l’autre, celui des naturalistes, des protecteurs de la nature, d’une nouvelle génération de garde-moniteurs et autres agents du parc national.

Le premier, composé principalement des « gens d’ici », est resserré dans l’espace et le temps. Les récits qui y circulent décrivent avec précision la vie quotidienne dans ces lieux, une vie partagée avec la faune, structurée autour de l’opposition entre le sauvage et le domestique. On y accorde une attention particulière à l’abondance et à la rareté des espèces, aux craintes et à la distance que les animaux conservent à l’égard des humains.

Les bouquetins y sont par exemple considérés comme suspects et de peu d’intérêt. Ils sont nombreux et peu craintifs, ce qui les apparente alors anormalement à des animaux domestiques. Les mouflons, au contraire, restent plutôt rares et éloignés des humains. Ils sont ainsi mieux appréciés en tant qu’authentiques animaux sauvages.

Les bouquetins (ici, en Vanoise) sont souvent considérés comme inintéressants par les habitants locaux du fait de leur nombre élevé et de leur nature peu craintive. Mais les visiteurs, au contraire, les apprécient pour leur caractère indigène. Ibex73/WikiCommons, CC BY-SA

Le second monde, composé surtout des « gens d’ailleurs », est plus vaste et diffus. On y traverse des époques reculées, des espaces lointains, entre des récits de voyage naturaliste à l’étranger et un intérêt pour la longue histoire des espèces sauvages. L’opposition du naturel et de l’artificiel y prédomine, mettant en jeu l’appréciation du caractère autonome et autochtone des animaux. Les bouquetins y sont appréciés en tant qu’animaux naturels, car indigènes aux lieux, tandis que les mouflons au contraire y sont moins bien considérés du fait de leur origine anthropique, l’espèce ayant été introduite au XIXe siècle, puis dans les années 1950.

On découvre, au fil des récits et des pratiques des habitants de la Vanoise, le rôle de quelques animaux dans la construction, la naturalisation ou la subversion d’oppositions structurantes entre les « gens d’ici » et les « gens d’ailleurs », mais aussi entre les femmes et les hommes, entre les générations ou encore entre les « profanes » aux savoirs empiriques ancrés dans l’expérience vécue et les « experts » dont les connaissances de terrain s’appuient aussi sur des savoirs livresques ou institutionnalisés.


À lire aussi : Comment le tourisme et les loisirs de plein air ont modifié notre rapport aux animaux sauvages


Un équilibre fragile bousculé

Avant que les loups ne reviennent en Haute-Maurienne (Savoie) à l’automne 1997, quelques années après leur découverte dans le Mercantour (Alpes-Maritimes), les membres de ces deux mondes coexistent de manière relativement stable et pacifique. Ils parviennent à s’éviter en se partageant les animaux.

Les naturalistes s’attachent par exemple davantage aux bouquetins et les chasseurs aux chamois. L’accès aux animaux est également distribué dans le temps et l’espace, à travers la mise en place de périodes de chasse ou la définition de zones réglementées instituant une partition géographique des activités qui gravitent autour d’eux.

La coexistence n’est pas toujours facile cependant. Les catégories qui façonnent ces mondes s’avèrent parfois instables. Ces mondes réussissent toutefois à ménager des compromis face à l’émergence de nouveaux problèmes liés à la réapparition ou à l’augmentation des effectifs d’espèces comme les grands herbivores, les lynx, les grands rapaces ou encore les sangliers.

Jusqu’au retour du loup, l’attention se porte plutôt sur d’autres espèces, comme les grands herbivores, les lynx, les grands rapaces (ici, un gypaète barbu) ou les sangliers. Noël Reynolds/Wikicommons, CC BY-SA

C’est alors que les loups surgissent et viennent bouleverser ce modus vivendi. Un sentiment de vulnérabilité plus brutal et plus insoutenable gagne en particulier les éleveurs et bergers confrontés aux attaques de leurs troupeaux, tandis que la protection des loups est identifiée par certains naturalistes comme un combat capital pour la préservation de la nature en général. Dès lors, ainsi que le souligne I. Arpin :

« La crise éclate parce que la venue des loups exaspère les tensions accumulées et met fin à un équilibre fragile entre les deux mondes. »

De nouveaux liens se créent entre des mondes qui doivent désormais composer ensemble. Les oppositions sauvage/domestique et naturel/artificiel sont brouillées : les loups deviennent l’archétype du sauvage pour les « gens d’ailleurs » et le comble de l’artifice pour les « gens d’ici » dont une majorité considère qu’ils ont été réintroduits secrètement par des « écologistes ». À l’arrivée du prédateur, les mondes globalement structurés se dissipent pour prendre la forme de réseaux conflictuels :

« L’ordre […] cède la place au désordre, les certitudes aux incertitudes, les savoir-faire maîtrisés aux improvisations. »

La propagation politique des loups

Si les études en sciences sociales ont bien documenté les turbulences locales provoquées par la présence des loups – lesquelles poussent à inventer des manières d’habiter les territoires –, on sait encore peu de choses de leur étonnante propagation politique.

Alors qu’avec nombre d’animaux, la cohabitation reste une affaire d’ajustements circonscrits aux bêtes et aux personnes directement engagées dans la situation, on est dans le cas des loups face à des négociations d’un type très différent. Les bouleversements locaux débordent des territoires concernés et affectent finalement une large part de la population nationale soucieuse du sort réservé aux loups ou aux moutons, aux éleveurs, aux mouflons, aux chasseurs, etc. Les destinées d’une multiplicité d’humains et de non-humains se trouvent inextricablement reliées à celle des loups, mais dans des sens très divers et antagonistes. De sorte que les modes de régulation locale des conflits, qui s’inventaient autour des problèmes liés par exemple aux sangliers, aux marmottes, ou aux bouquetins, apparaissent inappropriés pour faire face à l’ampleur de la crise engendrée par les loups.

Les réseaux constitués des humains et des non-humains directement affectés par le retour des loups ne parviennent plus à s’articuler. La définition des modalités de prise en charge des conséquences heureuses ou malheureuses liées à ces nouveaux venus fait l’objet d’une multitude de questions.

Ces questions circulent des territoires ruraux confrontés à la présence de ces prédateurs jusque dans les grands médias nationaux, au Parlement, ou encore dans les tribunaux : qui sont-ils ? D’où viennent-ils ? Combien sont-ils ? Comment les protéger ? Comment s’en protéger ? Que valent-ils ? Que coûtent-ils et à qui ? Comment les accueillir ? Comment s’en prémunir ?

Aucun compromis local ni aucune solution scientifique, technique, juridique ou administrative ne permet de répondre de manière satisfaisante aux problèmes qui se posent.

Les acteurs désorientés – les protecteurs comme les détracteurs du prédateur – se mobilisent alors pour chercher le soutien d’alliés extérieurs susceptibles de les aider à constituer une force de résolution de la crise qu’ils traversent et qui affecte ce à quoi ils tiennent. Dans les pays où les loups réapparaissent, l’annonce publique de leur retour fait grand bruit. L’événement s’impose comme un problème public sur lequel les habitants de toute la nation sont invités à s’exprimer. En France, le retour des loups donne lieu par exemple à un sondage Sofres commandé par le ministère de l’environnement en mai 1995 : 79 % des personnes interrogées s’y déclarent favorables.

Les réseaux locaux, qui se sont substitués aux mondes articulés, s’étendent au-delà de celles et ceux qui sont immédiatement concernés par le retour des loups. Ils forment ainsi des publics, c’est-à-dire des groupes d’individus qui, sans être directement affectés par la présence du prédateur, s’en trouvent pourtant sérieusement concernés (selon la définition du « public » forgée par John Dewey :

La présence des loups s’affirme alors comme une question plus politique que jamais. C’est à l’étude de ces formes intrigantes de propagation politique des loups que ce livre est consacré.


À lire aussi : Malgré les plans loup successifs, une cohabitation toujours délicate dans les Alpes du Sud


The Conversation

Antoine Doré ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

12.10.2025 à 08:59

Freinage et particules fines : une pollution routière oubliée des évolutions réglementaires ?

Alice Mirailler, Ph.D. Candidate, Laboratoire de Mécanique des Contacts et des Structures LaMCoS, INSA Lyon – Université de Lyon

Ana-Maria Trunfio-Sfarghiu, Chercheuse, INSA Lyon – Université de Lyon

Usure des pneus, des freins et même de la chaussée sont des sources de pollution souvent ignorées. Cette pollution concerne aussi les voitures électriques.
Texte intégral (2369 mots)

Alors que la 50e édition du salon EquipAuto, salon international des pros de l’automobile, s’ouvre à Paris ce 14 octobre, penchons-nous sur l’autre problème de pollution, grandissant, posé par toutes les voitures, même électriques : les émissions hors échappement, dues à l’usure des freins, des pneus et de la chaussée. La question est indépendante de l’enjeu de réduire les émissions à l’échappement des voitures neuves, qui ont déjà fortement diminué du fait des progrès techniques. Une norme européenne, qui doit entrer en vigueur en 2026, entend les réduire, mais sa mise en œuvre pourrait ne pas livrer les effets escomptés.


Au 1er janvier 2024, le parc routier français était constitué de 39,3 millions de voitures particulières, de 6,5 millions de véhicules utilitaires légers (VUL), de 625 000 poids lourds et de 94 000 autobus et autocars en circulation.

Dans les contextes de forte densité du trafic, les émissions polluantes liées au transport routier restent un enjeu majeur de santé publique. En France, les véhicules particuliers sont à l’origine de plus de la moitié des émissions de gaz à effet de serre du secteur des transports. En 2019, ils représentaient 26 % des émissions nationales d’oxyde d’azote (NOx), un polluant irritant pour les voies respiratoires, et 22 % des émissions nationales de CO2.

Si les émissions à l’échappement, dues à la combustion dans les moteurs, ont été progressivement réduites grâce aux normes antipollution successives, une attention croissante est désormais portée aux émissions dites hors échappement, issues notamment de l’usure des freins, des pneus et de la chaussée.

La future norme Euro 7, qui entrera en vigueur à partir de 2026, marque une étape importante en intégrant pour la première fois ces sources de pollution non négligeables… sans pour autant résoudre tous les problèmes.

Émissions hors échappement : de quoi parle-t-on ?

Au cours des dernières années, des recherches scientifiques et industrielles ont permis d’importantes diminutions des émissions à l’échappement des véhicules récents, essence ou diesel. Cela résulte de l’allègement des véhicules, de la réduction de la consommation des moteurs thermiques et de l’installation des filtres à particules (FAP) pour limiter les émissions issues de la combustion du carburant.

Ce qui pèse désormais davantage dans l’empreinte environnementale des voitures, ce sont les émissions hors échappement. Elles regroupent les particules provenant de l’abrasion des freins et des pneus ainsi que de la remise en suspension des poussières sur la chaussée au passage des véhicules.

Si elles ne représentaient que 16 % des particules avec un diamètre inférieur à 10 micromètres (μm) (PM10) totales émises par le transport routier en 1990, cette part a atteint 71 % en 2022. Pour les particules avec un diamètre inférieur à 2,5 μm, ce chiffre est passé de 9 % en 1990 à 57 % en 2022.

Or, les réduire constitue un défi : la sécurité routière dépend justement de l’adhérence des pneus et de l’efficacité du freinage – deux sources inévitables de particules.

Quel impact sur notre santé ?

Lorsque les particules émises par les véhicules sont inhalées, elles se déposent dans différentes régions du système pulmonaire en fonction de leur taille. Les plus dangereuses pour la santé sont les PM1, c’est-à-dire les particules dont le diamètre est inférieur à 1 micromètre, car elles peuvent pénétrer profondément jusqu’aux alvéoles pulmonaires.

Plusieurs études ont démontré que les particules engendrées par le freinage sont des PM1 (de diamètre inférieur à 1 micromètre), voire des particules ultrafines dans le cas des poids lourds (inférieures à 100 nanomètres) et, par conséquent, capables d’atteindre ces alvéoles.

Système de collecte via un sac à dos. Ana-Maria Trunfio-Sfarghiu/Alice Mirailler, Fourni par l'auteur

Peu d’études toutefois se sont penchées sur la toxicité des particules non issues de l’échappement sur le système pulmonaire. Pour pallier ce manque, un dispositif innovant a été développé par des scientifiques afin de collecter ces particules pendant deux heures directement dans une solution biologique.

Conçu initialement sous forme de sac à dos pour permettre la collecte en différents points de la ville de Lyon (Rhône), ce système a ensuite été adapté sur un véhicule afin de réaliser des prélèvements en conditions réelles de circulation.

Les premiers résultats suggèrent que les particules de freinage de taille inférieure à 1 micromètre (principalement composées de fer, de cuivre, de baryum et d’antimoine) pourraient présenter un risque sanitaire notable. Leur petite taille leur permet d’interagir avec le surfactant pulmonaire (c’est-à-dire, la matière tensioactive sécrétée dans les poumons) ainsi qu’avec les macrophages alvéolaires. Cette interaction pourrait induire, sur le long terme, une altération progressive de la fonction pulmonaire.

Véhicule équipé d’un système de collecte. Ana-Maria Trunfio-Sfarghiu/Mayeul Bièche, Fourni par l'auteur

Il est possible qu’une exposition répétée à de faibles doses puisse favoriser le développement de pathologies chroniques, telles que la fibrose pulmonaire, par un processus lent d’accumulation et de réponse inflammatoire persistante.

La norme Euro 7, une réponse appropriée ?

Les émissions hors échappement seront intégrées pour la première fois dans la future norme Euro 7, ce qui constitue une avancée significative vers une évaluation plus complète et rigoureuse des sources de pollution atmosphérique liées aux véhicules.

La norme Euro 7 entrera en vigueur en novembre 2026 pour les voitures et les véhicules utilitaires légers. Pour tous les types de véhicules, la limite maximale des émissions de particules PM10 (de diamètre inférieur à 10 micromètres) serait fixée à 7 mg/km à partir de 2026 et à 3 mg/km à partir de 2035.

L’établissement de cette nouvelle norme soulève cependant une difficulté fondamentale d’ordre physique. Comme évoqué précédemment, des travaux ont démontré que les particules émises lors du freinage sont majoritairement des PM1, avec des tailles inférieures à 1 micromètre. Elles ne tombent donc pas sous le coup de cette réglementation.

De plus, ces particules présentent une masse extrêmement faible, souvent négligeable, ce qui rend les limites actuelles exprimées en milligramme par kilomètre (mg/km) peu adaptées pour quantifier précisément les émissions. Il serait donc pertinent que la réglementation évolue vers une prise en compte fondée sur le nombre de particules émises par kilomètre, afin de mieux refléter la réalité et les impacts potentiels de ces émissions ultrafines.

Les avancées scientifiques et technologiques dans la compréhension et dans la maîtrise des émissions liées au freinage progressent encore à un rythme souvent jugé insuffisant face aux exigences réglementaires et aux impératifs économiques du secteur automobile. En conséquence, les constructeurs proposent actuellement des solutions dont l’efficacité et les impacts restent encore partiellement évalués, parmi lesquelles :

le freinage électromagnétique : il réduit l’usure et les émissions en freinage normal, mais les freins mécaniques restent sollicités lors des freinages d’urgence, engendrant des émissions importantes ;

les filtres à particules à la source : ils peuvent limiter la dispersion des poussières, mais leur impact sur le contact frictionnel entre plaquette et disque – et donc, sur la sécurité – nécessite une validation rigoureuse ;

la modification des matériaux des plaquettes : elle peut réduire leur usure mais également augmenter la production de nanoparticules, dont les effets sanitaires restent mal connus et font l’objet de recherches en cours.

La mobilité électrique, pas forcément une panacée

Selon une analyse publiée par le Centre interprofessionnel technique d'études de la pollution atmosphérique (Citepa), les véhicules électriques émettent un peu moins de particules liées à l’usure des freins grâce au freinage régénératif (c’est-à-dire, s’appuyant sur un système de récupération d’énergie).

Cependant, leur masse plus importante entraîne une augmentation des émissions de particules provenant de l’abrasion des pneus et de la chaussée. Ces deux effets tendent à s’équilibrer, de sorte que les émissions totales de particules des véhicules électriques à grande autonomie sont comparables à celles des véhicules thermiques récents, qui émettent désormais très peu de particules à l’échappement.

Les véhicules électriques soulèvent, par ailleurs, d’importantes interrogations concernant la disponibilité des ressources nécessaires à la fabrication des batteries et concernant les enjeux environnementaux et techniques liés à leur recyclage.

Dès lors, la sobriété apparaît comme l’une des voies les plus cohérentes : réduire nos déplacements lorsque cela est possible et amorcer la transition d’une société centrée sur la consommation vers un modèle plus respectueux de l’environnement.

The Conversation

Ana-Maria TRUNFIO-SFARGHIU a reçu des financements de CNRS et Ministère de la recherche publique (financements liées à la thèse d'Alice Mirailler, son salaire et un petit accompagnement) + chaires INSA Lyon avec VOLVO et MICHELIN

Alice Mirailler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

09.10.2025 à 10:23

COP30 : Comment éviter que le plastique ne devienne le canot de sauvetage de l’industrie pétrolière ?

Marie-France Dignac, Directrice de recherches sur la biologie des sols, INRAE, Inrae

Jean-François Ghiglione, Directeur de recherche, Ecotoxicologue, Centre national de la recherche scientifique (CNRS)

Recyclage ou pas, le plastique reste un piège : il émet des gaz à effet de serre et renforce notre dépendance au pétrole. Un enjeu clé de la COP30 qui se tiendra au Brésil en novembre.
Texte intégral (2997 mots)

Issus à 99 % du pétrole, les plastiques alimentent la crise écologique et climatique tout au long de leur cycle de vie. Derrière l’image trop familière des déchets qui polluent les rivières puis les océans, la production et le recyclage des plastiques sont aussi source d’émissions considérables de gaz à effet de serre, de quoi compromettre les efforts mondiaux de réduction des émissions. Surtout, les plastiques, un débouché du pétrole, entretiennent la dépendance de l’économie aux énergies fossiles. Le risque serait qu’ils deviennent la planche de salut des industriels de la pétrochimie à l’occasion de la COP30 sur le climat, qui se déroulera du 10 au 21 novembre 2025, à Belem, au Brésil.


À partir du 10 novembre 2025, la COP30 sur le climat réunira les États membres de l’Organisation des Nations unies (ONU) au cœur de la forêt amazonienne, au Brésil. Il s’agit d’un rendez-vous majeur du multilatéralisme, où l’on espère que les ambitions régulièrement formulées par les États vont enfin se concrétiser.

Le contexte international n’est pas forcément au beau fixe pour cela. Face à des pays qui nient la science, ou qui se soucient peu de l’environnement et de la santé humaine et refusent de comprendre que leurs propres économies en paieront le prix à long terme, les pays engagés dans la transition vers une économie moins polluante et moins dépendante des énergies fossiles peinent à se faire entendre. Les négociations en vue d’un traité contre la pollution plastique, qui n'ont toujours pas abouti à un texte, en fournissent un exemple éloquent.

Les preuves scientifiques sont pourtant très claires quant aux impacts de la production de plastiques sur la perte de biodiversité et la pollution à l’échelle planétaire. D’autant plus que ces impacts sont en réalité bien plus larges : les plastiques impactent la santé humaine et exacerbent le dépassement de toutes les autres limites planétaires. En cela, ils aggravent la crise écologique et climatique déjà en cours.


À lire aussi : Jusqu’à quand pourrons-nous dépasser les limites planétaires ?


Pas de plastique sans pétrole

L’impact climatique du secteur de la pétrochimie est moins souvent mis en avant que celui des secteurs de l’énergie et des transports, plus proches des consommateurs. Il fait pourtant figure d’éléphant dans la pièce : entre 4 et 8 % de la production de pétrole est aujourd’hui utilisée pour fabriquer des produits plastique. Près de 99 % de ces produits sont fabriqués à partir de pétrole.

Depuis l’extraction et le transport des combustibles fossiles, jusqu’à la fabrication, l’utilisation et l’élimination des plastiques, ces matériaux génèrent des émissions qui contribuent au réchauffement climatique. Les plastiques sont ainsi directement responsables de 3,5 % des émissions globales de gaz à effet de serre, dont la plupart sont générées lors de leur production.

Le recyclage des plastiques, souvent mis en avant par ces industriels, n’a rien d’une solution miracle. Toutes les technologies de traitement des déchets plastiques sont émettrices de gaz à effet de serre :

Dans un scénario de statu quo, si la production et l’utilisation de plastiques continuent d’augmenter au rythme actuel (soit un doublement de la quantité de plastiques produits tous les 20 ans), les émissions de gaz à effet de serre provenant des plastiques pourraient représenter de 10 à 13 % du budget carbone total (c’est-à-dire, la quantité de gaz à effet de serre que l’on peut encore se permettre d’émettre tout en restant sous la barre d’une hausse de +1,5 °C à l’horizon 2050).

Des impacts indirects à large échelle

Et encore, les chiffres qui précèdent ne tiennent pas compte du fait que les plastiques participent directement à la mondialisation de l’économie. Ils permettent de transporter les biens et denrées sur de très longues distances et de ce fait favorisent une économie basée sur une production loin des zones de consommation, fortement émettrice de gaz à effet de serre.

La pollution plastique se retrouve dans les rivières, les océans ou sur terre, sous différentes tailles (macro, micro ou nanoplastiques), et peut persister pendant des siècles. Selon l’OCDE, environ 22 % des déchets plastiques finissent dans l’environnement, dont une grande partie dans l’océan, nuisant à la vie marine.

Les aliments, l’eau et l’air sont ainsi contaminés et les microplastiques finissent, à travers la chaîne alimentaire, également dans notre corps. Les preuves scientifiques de l’impact des plastiques sur la santé humaine sont de plus en plus solides.

Mais ce n’est pas tout. Les plastiques agissent également indirectement sur le réchauffement climatique. En effet, les débris plastiques en mer modifient les cycles du carbone et des nutriments. En agissant sur les processus microbiens, ils diminuent la productivité en nutriments à la surface de l’océan. Résultat : les « pompes à carbone » de l’océan, qui ont permis de piéger environ 31 % des émissions anthropiques de CO2 entre 1994 et 2007, fonctionnent moins bien.

Par ailleurs, une méta-analyse récente a montré que la présence de microplastiques dans l’eau ou dans les sols pourrait diminuer la photosynthèse, et donc limiter la production de biomasse carbonée. Avec des impacts sur la sécurité alimentaire, mais aussi sur les puits de carbone naturels et le climat.


À lire aussi : Que sont les « puits de carbone » et comment peuvent-ils contribuer à la neutralité carbone en France ?


Les leçons du traité contre la pollution plastique

Reconnaissant tous ces dangers des plastiques pour la santé humaine et la santé de l’environnement, un comité intergouvernemental de négociation (CIN) a été créé en mars 2022 afin d’élaborer un instrument international juridiquement contraignant pour mettre fin à la pollution plastique dans tous les environnements. Et ceci, en tenant compte de l’ensemble du cycle de vie des plastiques.

La deuxième partie de la cinquième réunion de ce comité (CIN-5.2) s’est tenue à Genève, du 5 au 14 août 2025. Les négociations étaient basées sur le projet de texte du président du CIN proposé à la fin de la première partie du CIN-5 à Busan, en 2024.

À l’occasion de la reprise des négociations en vue d’un traité contre la pollution plastique, à Genève, en août 2025, une installation artistique de Benjamin Von Wong (Le Fardeau du penseur) pour sensibiliser au problème du plastique a envahi la place des Nations où trône l’emblématique Broken Chair. Florian Fussstetter/UNEP, CC BY-NC-ND

Plusieurs éléments de ce projet de texte peuvent avoir une réelle efficacité pour mettre fin à la pollution plastique. Il s’agit notamment :

  • de réduire la production de plastique (article 6),

  • d’interdire les produits plastique et les substances chimiques dangereuses pour les humains ou pour l’environnement (article 3),

  • de concevoir des produits en plastique moins polluants (article 5),

  • de limiter les fuites vers l’environnement (article 7)

  • et enfin de protéger la santé humaine (article 19).

Mais de nombreux pays font pression pour que ces mesures soient rejetées : les mêmes désaccords politiques qui avaient bloqué les négociations précédentes se sont reproduits à Genève.

Une coalition de pays qui ont tout intérêt à ne pas réduire la production de pétrole

Presque tous les plastiques sont fabriqués à partir de combustibles fossiles, c’est pourquoi les pays qui refusent de prendre des mesures ambitieuses – notamment l’Arabie saoudite, la Russie et l’Iran – sont essentiellement des pays producteurs de pétrole ou dotés d’industries pétrochimiques puissantes.

Les intérêts économiques en jeu sont donc importants. Ce groupe de pays partage les mêmes idées – nommé pour cela le « like-minded group » – et refuse d’inclure de tels objectifs. Ils privilégient un accord visant à gérer les déchets, sans réduire leur production.


À lire aussi : Comment échapper à la malédiction de la rente fossile ?


Mais ce faisant, ils dénigrent tous les modèles scientifiques sur l’évolution de la pollution plastique, qui montrent qu’il est nécessaire de réduire la quantité de plastique produite chaque année afin de réduire la pollution par les plastiques tout au long de leur cycle de vie. On a également pu noter la forte présence des lobbies des entreprises pétrolières et des fabricants de plastiques, qui ne cesse d’augmenter au fil des négociations.

Le manque de consensus à la fin des négociations du CIN-5.2 peut être vu comme un échec des négociations.

Toutefois, le rejet massif du texte faible proposé le 13 août a aussi montré qu’une grande majorité de pays ne sont pas prêts à accepter un traité vidé de sa substance.

De nombreux pays ont souligné que ce texte ne permettrait pas d’atteindre les objectifs pourtant fixés dans le mandat à l’origine de ces négociations, et ont appelé à des mesures ambitieuses en accord avec la science, notamment une réduction de la production de plastique et une régulation des produits et substances chimiques dangereux, pour protéger la santé humaine et de l’environnement. La majorité des pays s’est aussi déclarée favorable à la poursuite des discussions.

Le multilatéralisme a montré à Genève la capacité des pays à construire une coalition forte et ambitieuse, rassemblant près de 120 pays (les 75 pays de la Coalition de haute ambition (HAC) et leurs alliés) et basant ses positions sur les faits scientifiques.

Acter l’abandon des énergies fossiles décidé lors des dernières COP

Espérons que ces avancées se concrétisent avec la poursuite des discussions sur le traité contre la pollution plastique, et qu’elles soient prises en compte dans les négociations climatiques lors de la COP30. La production de plastique ne doit pas menacer les efforts réalisés par les États pour limiter le recours aux énergies fossiles dans les autres secteurs.

Comme il a été reconnu lors des dernières COP sur le climat, notamment la COP28 en 2023, le monde doit s’organiser pour sortir progressivement des énergies fossiles.

D’importants efforts de recherche ont été consacrés à cette transition dans les secteurs de l’énergie et des transports, qui utilisent la majeure partie des ressources fossiles pour produire de la chaleur, de l’électricité et des carburants. Les énergies renouvelables remplacent ainsi peu à peu les produits pétroliers dans le mix électrique, ainsi que dans le secteur des transports.

D’autres secteurs, par exemple l’industrie lourde, doivent se réinventer : en effet, ils sont davantage dépendants aux produits pétroliers dans leurs processus industriels mêmes.

À cet égard, la pétrochimie souffre d’un problème de fond : elle contribue à maintenir à un niveau élevé la demande en pétrole, qui constitue un intrant de ses procédés industriels. Les produits pétrochimiques devraient ainsi représenter plus d’un tiers de la croissance de la demande mondiale de pétrole d’ici 2030, et près de la moitié de celle-ci d’ici 2050.

Les plastiques ne doivent pas devenir le radeau de secours de l’industrie pétrolière. En plus de contribuer aux émissions globales de gaz à effet de serre, ils détruisent les sols, empoisonnent les eaux et nuisent aux organismes vivants, y compris les humains. Sur les sept milliards de tonnes de déchets plastiques générés dans le monde depuis l’invention de ce matériau, moins de 10 % ont été recyclés, et cinq milliards de tonnes se sont accumulés dans la nature.

Les industriels de la pétrochimie, de l’extraction des énergies fossiles et leurs alliés cherchent une fois de plus à déplacer le problème : la production de plastiques pose un problème sanitaire, écologique, et climatique majeur. Réduire la production de plastiques constitue un levier incontournable pour maîtriser leurs impacts sur la planète.

The Conversation

Marie-France Dignac a reçu des financements de l'Agence de la Transition Ecologique (ADEME) et de l'Agence Nationale de la Recherche (ANR).

Jean-François Ghiglione a reçu des financements de l'Agence nationale de la recherche (ANR), de l'ADEME, de l'OFB et de l'Agence de l'eau

PDF

09.10.2025 à 10:23

Comment le plastique est devenu incontournable dans l’industrie agroalimentaire

Mathieu Baudrin,, Sociologue sciences et des technologies, Direction Sciences sociales, économie et société, Anses, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)

Baptiste Monsaingeon, Maître de conférence en sociologie, Université de Reims Champagne-Ardenne (URCA)

Bernadette Bensaude-Vincent, Philosophe, Université Paris 1 Panthéon-Sorbonne

Des serres aux emballages, le plastique a façonné l’industrie agroalimentaire. Pour en sortir, il est intéressant de se pencher sur les leçons du début du XXᵉ siècle.
Texte intégral (1631 mots)

Des serres agricoles aux bouteilles d’eau, en passant par la recette du pain de mie, le plastique a transformé en profondeur toute l’industrie agroalimentaire. Face au problème grandissant de la pollution plastique, on peut s’inspirer, à travers l’approche des « métabolismes urbains », de ce qui était fait au début du XXe siècle.


La production massive de plastiques est devenue un marqueur de la seconde moitié du XXe siècle, souvent dénommée « l’âge des plastiques ». Leur introduction dans les chaînes de valeur de l’agroalimentaire date des années 1930. Elle procédait de deux dynamiques.

  • La première est l’essor de l’industrie pétrolière et de l’automobile : les plastiques étant un co-produit du craquage du pétrole, les compagnies pétrochimiques recherchent activement à étendre le marché des plastiques, qui se prêtent à tous les usages comme leur nom l’indique.

  • La seconde est l’intensification de l’agriculture, au lendemain de la Deuxième Guerre mondiale, pour faire face à une démographie galopante.

Le recours aux matières plastiques, progressif mais massif, a profondément modifié les pratiques alimentaires et agricoles, sans parler des aliments eux-mêmes.

Aujourd’hui, les impacts sanitaires et environnementaux des plastiques, en particulier sous leur forme micro et nanoparticulaires, sont avérés. La gestion (dont notamment le recyclage) des déchets plastiques n’est pas la seule en cause : c’est bien l’existence même des plastiques qui est en jeu.

Mais les mesures de réduction ou d’interdiction de l’usage de matières plastiques dans l’industrie agroalimentaire, du champ jusqu’au domicile des consommateurs, ne sauraient être appliquées sans une réflexion globale sur les pratiques actuelles de production, de distribution et de consommation des denrées alimentaires.

Un antifongique ajouté au pain de mie pour lui éviter de moisir dans son emballage

L’emballage des aliments fut le premier et reste le principal usage des plastiques dans l’agroalimentaire. Il correspond à un moment historique de changement dans la façon de stocker et de transporter les aliments, notamment grâce à la réfrigération.

C’est également un moment de reconfiguration des circuits de distribution avec le développement des supermarchés. Les plastiques deviennent alors incontournables et contribuent à structurer le marché alimentaire mondial tel que nous le connaissons aujourd’hui.

En effet, les emballages permettent d’allonger la durée de conservation des aliments et, surtout, facilitent la consommation nomade d’aliments et de boissons.

Si la bouteille en verre a permis la marchandisation de l’eau en lui attribuant une marque et des qualités, c’est bien l’invention de la bouteille d’eau en polyethylene terephthalate (PET) qui, à la fin des années 1970, a répandu son usage à l’échelle mondiale.

Les plastiques modifient jusqu’aux aliments eux-mêmes. C’est le cas du pain de mie commercialisé en sachets plastiques. Dès 1937, la firme Dupont lance un projet de recherche et développement (R&D) qui débouche sur l’ajout de « mycoban », un antifongique, à la farine utilisée pour réduire le risque de moisissure.

Les plastiques ont donc profondément changé nos manières de manger et même la nature de ce que l’on mange. Ils ont favorisé les aliments transformés par une foule d’intermédiaires et contribué à creuser le fossé entre les producteurs et les consommateurs de viande ou poisson conditionnés, surgelés, ou emballés.

Comment sortir de l’« agriplastique » ?

En amont des supermarchés, les pratiques agricoles ont, à leur tour, été transformées par les plastiques. D’abord introduits dans les années 1950 comme substituts au verre dans les serres horticoles, ils se sont généralisés depuis les années 1970 pour les cultures maraîchères sous tunnels et l’ensilage du foin.

En Europe, l’expansion des plastiques a été facilitée par la politique agricole commune (PAC). Lancée en 1962 par la Communauté économique européenne (CEE), celle-ci était au départ destinée à encourager l’agriculture intensive et productiviste.

Or, les tunnels de plastique permettent justement de cultiver et de produire des fruits ou légumes dans des terrains peu propices et d’étendre les saisons de production. Depuis, les surfaces recouvertes par des serres ou tunnels en plastique en Espagne et en France n’ont cessé d’augmenter.

Mais cette plastification de certaines cultures s’accompagne aussi de mutations socioprofessionnelles. Dans les vastes plaines recouvertes de tunnels plastifiés abritant des cultures de fraises (ou autres) à haute valeur ajoutée, on fait appel à une main-d’œuvre souvent étrangère, saisonnière et bon marché. Celle-ci travaille dans des conditions difficiles.

Les plastiques ont ainsi envahi les pratiques de production et les circuits de distribution des denrées alimentaires. Le mot « agriplastique » témoigne de l’enchevêtrement d’éléments humains, économiques et techniques, dont la dynamique tend à se renforcer avec le temps. Cela aboutit, après plusieurs décennies, à ce que nous pourrions qualifier de verrou sociotechnique.

Que faire pour se libérer de cette omniprésence des plastiques dans l’agroalimentaire ? Les plastiques étant constitutifs des chaînes de valeurs décrites, il serait naïf de penser qu’on pourrait conserver cette organisation marchande tout en éliminant les matières plastiques.

Ce constat ne doit pas pour autant pousser les décideurs à l’inaction. Il invite plutôt à une réflexion d’envergure sur une possible réorganisation des chaînes de valeur agroalimentaires. Afin d’initier cette réflexion, nous proposons de revenir sur quelques leçons de l’histoire.

Le plastique et l’invention du déchet

Au début du XXe siècle, l’économie des flux de denrées alimentaires entre populations rurales et urbaines fonctionnait en boucles quasi fermées. Les matières rejetées par les uns étaient utilisées, par exemple sous forme d’engrais, par les autres.

Dans ce contexte, la notion même de déchets n’existe pas encore, puisque rien n’est ni mis au rebut ni traité comme déchet ultime (c’est-à-dire, un déchet qui ne peut plus être traité davantage dans les conditions technicoéconomiques du moment).

Les fèces humaines sont alors vues comme des engrais agricoles, les chiffons peuvent devenir du papier, les carcasses d’animaux de travail sont réutilisées pour fabriquer des colles et autres produits du quotidien.


À lire aussi : L’histoire peu connue du compost en France : de la chasse à l’engrais à la chasse au déchet


La rupture de ces « métabolismes urbains », tels que décrits par Sabine Barles, correspond historiquement à l’avènement de la chimie de synthèse. Se met alors en place un complexe industriel qui produit à la fois des engrais, des produits phytopharmaceutiques et des plastiques, trois catégories de produits constitutifs des chaînes de valeurs agricoles actuelles.

Il n’est certes ni envisageable – ni même souhaitable – de reproduire à l’identique les métabolismes urbains du début du XXe siècle. Ils reposaient largement sur la mobilisation d’une main-d’œuvre nombreuse sous-payée vivant dans la misère, par exemple les chiffonniers.

En revanche, on peut retenir l’idée d’une approche systémique, globale et métabolique au lieu de se contenter de chercher un matériau de substitution aux plastiques qui soulèvera, à son tour, des difficultés similaires. Il s’agit donc de repenser, avec les acteurs concernés, l’ensemble des filières agroalimentaires pour viser la sobriété plastique.


Cet article s’appuie sur le rapport d’expertise « Plastiques utilisés en agriculture et pour l'alimentation » Inrae/CNRS, publié en mai 2025.

The Conversation

Baptiste Monsaingeon a reçu des financements de l'ANR pour divers projets de recherche publique liés aux déchets et aux plastiques.

Bernadette Bensaude-Vincent et Mathieu Baudrin, ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

08.10.2025 à 16:28

Comment recycler la chaleur perdue dans les usines ?

Alexis Giauque, Maitre de conférences en simulation numérique pour les énergies renouvelables, Centrale Lyon

L’industrie rejette une partie de la chaleur nécessaire à l’ensemble de ses procédés. On peut « upcycler » une partie de cette chaleur, et des projets visent même à la stocker, ou à l’utiliser pour générer de l’électricité.
Texte intégral (2368 mots)

Chaque année, l’industrie rejette une partie de la chaleur nécessaire à l’ensemble de ses procédés. Cette énergie perdue s’appelle « chaleur fatale ». Les solutions pour récupérer cette chaleur sont aujourd’hui encore trop limitées. De nouveaux dispositifs, utilisant des pompes à chaleurs et des fluides « supercritiques », sont en développement.


Fours de cimenterie, séchage du papier, agroalimentaire… les quantités de chaleur perdues aujourd’hui dans des procédés industriels sont significatives. Il faut bien évidemment tout mettre en œuvre pour les réduire en optimisant les procédés et en ajustant au plus proche la production à la demande. Mais aucun processus physique ne peut atteindre un rendement parfait, et si rien n’était fait pour récupérer cette chaleur résiduelle, l’équivalent de sept mégatonnes de pétrole serait brûlé pour rien, émettant aussi 28 mégatonnes de CO2, soit 6 % des émissions totales de CO2 en France.

Les méthodes de récupération de la chaleur perdue (ou fatale) visent aujourd’hui principalement des gisements à haute température (supérieure à 100 °C), ou nécessitent l’existence d’un réseau de chaleur à proximité (un ensemble de tuyaux capables d’amener la chaleur sur de courtes distances vers des logements ou des bâtiments publics par exemple).

Pour mieux valoriser cette chaleur générée dans les usines, qui représenterait au total un réservoir d’environ 110 térawattheures par an en France, d’autres solutions sont actuellement à l’étude.

La chaleur fatale : une énergie thermique émise par toutes les industries sous de nombreuses formes

Pour mieux comprendre les enjeux, prenons un exemple concret, celui d’une cimenterie. Une tonne de ciment nécessite 3 000 mégajoules de chaleur : seuls 40 % sont absorbés par les réactions chimiques entre l’argile et le calcaire, et une partie des 60 % restants peut être directement réutilisée pour préchauffer les matériaux. Mais on estime entre 300 et 1 000 mégajoules par tonne la chaleur perdue dans l’atmosphère. Sachant qu’une cimenterie peut produire environ 1 500 tonnes de ciment par jour, cela revient à brûler entre 12 et 37 tonnes d’essence par jour pour rien.

Ce problème est bien plus large que les cimenteries : on trouve l’agroalimentaire en tête, puis la chimie-plastique, la production de papier et de carton, la sidérurgie et la fabrication de matériaux non métalliques (ciment, verre, tuile ou brique). Tous domaines industriels confondus, les fours et séchoirs représentent 60 % de l’énergie consommée par l’industrie en France.

Point noir supplémentaire, une bonne part (60 %) de l’énergie utilisée dans l’industrie est obtenue par la combustion de matières fossiles, ce qui émet du CO2 dans l’atmosphère et explique pourquoi l’industrie est encore responsable d’environ 17 % des émissions de gaz à effet de serre de la France. L’objectif est de réduire ces émissions de 35 % d’ici 2030 et de 81 % d’ici 2050 par rapport à 2015.


À lire aussi : Avenir énergétique de la France : le texte du gouvernement est-il à la hauteur des enjeux ?


La chaleur fatale émise au cours d’un procédé industriel est d’autant plus simple à réutiliser ou à recycler que la température du flux thermique est élevée. Cela est si fondamental que les ingénieurs et chercheurs ont l’habitude de distinguer la chaleur fatale « basse température » ou « basse qualité », à moins de 100 °C (56 térawatts-heures par an) et celle dite « haute température » ou « haute qualité » au-delà de 100 °C (53 térawatts-heures par an).

Comment recycler la chaleur fatale ?

Heureusement, des solutions existent pour recycler la chaleur fatale.

L’idéal est d’intégrer le flux de chaleur fatale directement dans le processus industriel qui en est à l’origine : dans l’industrie du ciment par exemple, la chaleur en sortie du four peut être introduite dans le précalcinateur situé en bas de la tour de préchauffage, qui a pour fonction principale de « précuire » le cru avant son entrée dans le four.

Si la chaleur fatale est à température relativement faible (inférieure à 100 °C), elle peut être réutilisée directement sur le site industriel pour alimenter d’autres procédés ou pour chauffer les locaux — la proximité limite les pertes de chaleur dans les tuyaux. On peut aussi insérer cette chaleur dans un réseau urbain ou dans le réseau d’un autre industriel à proximité.

Autre option : produire de l’électricité à partir de la chaleur perdue, grâce à l’utilisation de cycles thermodynamiques de Rankine organiques. En pratique ceci fonctionne pour des sources de chaleur fatale à assez haute température (supérieure à 200 °C) car le rendement est limité : par exemple, dans le cas d’une température de sortie d’usine à 200 °C et d’un refroidissement à l’atmosphère (20 °C), le rendement maximal est de 38 %.

Enfin, on peut utiliser des pompes à chaleur pour remonter le niveau de température du flux de chaleur fatale, et permettre ainsi son exploitation directe au sein du processus industriel. Cette option est prometteuse car le gisement de chaleur fatale basse température représente 51 % du gisement global.

Les pompes à chaleur domestiques sont de mieux en mieux connues des particuliers, mais celles que nous devons utiliser et développer pour récupérer la chaleur fatale dans les usines sont plus difficiles à mettre en œuvre.

Les pompes à chaleur : une solution pour la valorisation du gisement « basse température » de chaleur fatale

Les pompes à chaleur (ou « PAC ») permettent de remonter la température selon un principe qui peut paraître paradoxal : il s’agit de prendre de la chaleur à la source froide pour la donner à la source chaude, s’opposant ainsi au sens naturel du transfert d’énergie.

Il faut forcer le transfert inverse en ajoutant du « travail » dans le cycle thermodynamique (le travail est en somme, une forme d’énergie, et c’est pour cela que les pompes à chaleur domestiques ont une prise électrique). Elles captent la plupart de l’énergie utilisée sous forme de calories (chaleur) et dépensent un peu d’électricité.


À lire aussi : La géothermie, plus écologique et économe que la climatisation classique pour rafraîchir


Le transfert depuis la source froide vers la source chaude se fait en quatre étapes principales, explicitées ci-dessous :

schéma
Le cycle thermodynamique (Brayton inverse) utilisé par les pompes à chaleur haute température qui utilisent du CO₂ supercritique pour la valorisation de chaleur fatale. Alexis Giauque, Fourni par l'auteur

Dans notre cas, le fluide est du « CO2 supercritique » (le CO2, à haute température et haute pression, se comporte à la fois comme un liquide et comme un gaz : il peut diffuser à travers les solides comme un gaz et peut dissoudre des matériaux comme un liquide). La source froide, dont on souhaite extraire la chaleur, est le flux de chaleur fatale issu du procédé industriel (à Tfroide=100 °C) ; la « source » chaude, ou cible, quant à elle est à une température bien plus élevée (la cible dans notre projet est Tchaude=200 °C).

La seule dépense énergétique dans ce cycle est celle nécessaire à assurer le fonctionnement du compresseur permettant la circulation du fluide – dans notre cas, du CO2 supercritique – le point clé est que l’énergie dépensée est environ cinq fois plus faible que l’énergie transmise de la source froide à la source chaude.

On peut ainsi « upcycler » la chaleur, mais toute la chaleur ne peut pas être récupérée. Dans notre cycle par exemple, on rejette un flux de chaleur à une température légèrement supérieure à 30 °C. Il n’est cependant pas simple de quantifier la chaleur résiduelle parce qu’elle dépend de la température environnante : si on est en plein été et que la température de l’atmosphère est à 30 °C alors on a pour ainsi dire récupéré toute la chaleur car le flux de sortie est quasiment à l’équilibre avec l’atmosphère… en hiver, ce serait moins le cas.

Nos pompes à chaleur utilisent du CO2 dans le domaine supercritique car cela offre plusieurs avantages : par exemple, l’augmentation de la capacité calorifique améliore le transfert de chaleur lors de l’échange avec la source froide, la viscosité faible limite les pertes par frottement dans les turbomachines (compresseurs/turbines), et il n’y a pas de gouttes (interfaces liquide/gaz) qui risqueraient d’endommager les pièces métalliques dans les turbomachines.

La recherche scientifique au service de la décarbonation de l’industrie

Le cycle que nous venons de décrire (cycle Brayton inverse du CO2 supercritique) est au cœur du projet REVCO₂.

Mais notre collaboration cherche à ajouter à ce système de recyclage de la chaleur un système de stockage à haute température (T~600 °C), ce qui permettrait de générer de l’électricité à partir de cette chaleur de « haute qualité ».

Notre espoir est que les industriels pourront choisir, en fonction de leur besoin à chaque instant, soit de consommer un peu d’électricité pour obtenir de la chaleur utilisable dans leur procédé industriel, soit d’utiliser la chaleur stockée à 600 °C pour produire de l’électricité (la chaleur fatale seule ne le permettrait pas avec un rendement décent) et la revendre. Le prix de l’électricité à l’achat et à la revente sur le marché européen apparaît donc comme un nouveau paramètre pour la récupération de la chaleur fatale. Nos optimisations incluront donc une dimension économique, essentielle pour l’appropriation par les industriels de nouvelles solutions technologiques.

Pour produire un système optimisé, dans le projet REVCO2, nous mettrons en œuvre des expériences détaillées pour les échangeurs de chaleur et le système de stockage et des outils de simulation haute-fidélité qui reproduiront séparément le comportement de chacun des éléments du système complet (turbomachines, échangeurs et systèmes de stockage de chaleur). Grâce aux données collectées, un jumeau numérique du système complet sera réalisé et permettra de tester les stratégies d’utilisation optimale d’un point de vue technico-économique.


Le projet REVCO2 — Développement et optimisation d’un cycle de Brayton au CO₂ supercritique REVersible pour la récupération de chaleur fatale du PEPR (programme et équipements prioritaires de recherche) SPLEEN, soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Alexis Giauque a reçu des financements de l'ANR dans le cadre du projet PEPR-SPLEEN REVCO2 (2025-2030)

PDF

08.10.2025 à 16:27

L’électronique de puissance : méconnue mais omniprésente et source de toujours plus de déchets électroniques

Tanguy Phulpin, Maitre de Conférence, en gestion de l'énergie électrique, CentraleSupélec – Université Paris-Saclay

Florentin Salomez, Chargé de Recherche en électronique de puissance, Centre national de la recherche scientifique (CNRS)

Hugo Helbling, Maitre de Conférences en Génie Electrique, Université Claude Bernard Lyon 1

Jean-christophe Crebier, Directeur de recherche CNRS, Grenoble INP - UGA

Marina Labalette, Cheffe de projet, IRT Saint Exupéry

Murielle Fayolle-Lecocq, Ingénieure sur l'impact environnemental des composants de puissance, Commissariat à l’énergie atomique et aux énergies alternatives (CEA)

Pierre Lefranc, Maître de conférences en électronique de puissance, Grenoble INP - UGA

L’électronique de puissance est une brique indispensable de la transition énergétique. Mais avec la multiplication des usages vient l’enjeu des fins de vie des composants, difficiles à recycler.
Texte intégral (2471 mots)

C’est l’une des clés de voûte invisibles – mais omniprésentes – de la transition énergétique : l’électronique de puissance, qui convertit l’électricité sous une forme exploitable par toute la diversité d’équipements électriques et électroniques. C’est elle qui permet de recharger son smartphone, d’allumer une pompe à chaleur, ou encore d’injecter l’électricité éolienne et solaire dans le réseau. Mais, avec la multiplicité des usages, nous faisons aujourd'hui face à des problèmes de soutenabilité. Quid de tous ces composants, difficiles à réparer, à réutiliser et à recycler ? Peut-on limiter les impacts environnementaux liés à la technologie et à nos besoins croissants en énergie ?


L’un des leviers de la transition énergétique et de la décarbonation de l’économie&nbsp est l’électrification de nos usages. Les véhicules électriques, par exemple, émettent pendant leur utilisation moins de polluants et de gaz à effet de serre (GES) que leurs équivalents à moteurs thermiques.

L’électricité n’est toutefois pas une source d’énergie en tant que telle, mais un vecteur d’énergie, comme l’énergie chimique contenue par les hydrocarbures, qui est libérée lors de leur combustion. Contrairement à celle-ci toutefois, il s’agit d’une forme d’énergie qu’on retrouve peu à l’état naturel (hormis peut-être lors des orages).

Un des enjeux clés est donc de produire l’électricité à partir de sources décarbonés : aujourd’hui encore, près de 60 % de l’électricité mondiale est produite à partir d’énergies fossiles. Mais ce n’est pas là le seul défi de la transition. Pour électrifier l’économie, il faut aussi déployer massivement les usages (par exemple la mobilité électrique) et renforcer la résilience du réseau électrique.

Ceci repose sur des technologies de pointe. Parmi ces technologies, l’électronique de puissance, qui permet de convertir l’électricité sous une forme exploitable par les différents appareils, joue un rôle clé qu’il convient de décrire, tant à travers son fonctionnement qu’à travers les enjeux énergétiques et écologiques qui lui sont associés.

L’électronique de puissance, maillon clé de la transition

L’électronique de puissance, mal et peu connue du grand public, est pourtant omniprésente dans notre quotidien. Il s’agit des dispositifs électroniques utilisés pour convertir l’énergie électrique, à tous les niveaux de la chaîne : par exemple sur les lignes électriques pour les changements de tension, pour le chargement des véhicules électriques, sans oublier les chargeurs de nos téléphones mobiles et ordinateurs portables.

Diversité des applications (en termes de puissance et de taille) utilisant de l’électronique de puissance. Fourni par l'auteur

Pour les chargeurs, l’électronique de puissance permet de transformer le courant alternatif (AC) du réseau électrique en courant électrique continu pour alimenter les batteries. Elle permet également la réalisation d'onduleurs pour l’opération inverse : la transformation de courant continu en courant alternatif.

Les applications des onduleurs sont très nombreuses : ils permettent d’intégrer les sources renouvelables (photovoltaïque, éolien…) sur le réseau électrique. Ils sont également essentiels au chargement des véhicules électriques, au fonctionnement des pompes à chaleur et des climatiseurs, des produits électroménagers tels que les réfrigérateurs, les machines à laver, etc.

En réalité, la quasi-totalité des équipements électriques comprennent un, voire souvent plusieurs convertisseurs d’électronique de puissance, et cela à toutes gammes de puissances électriques :

  • pour les plus faibles puissances, de l’ordre de quelques dizaines de watts (W) pour charger un smartphone par exemple,

  • pour les puissances intermédiaires, de l’ordre de quelques dizaines de kW pour recharger un véhicule électrique ou injecter sur le réseau la production de panneaux solaires photovoltaïques,

  • jusqu’à celles de plusieurs mégawatts (MW), par exemple pour convertir en électricité l’énergie générée par une éolienne, ou pour alimenter les moteurs d’un TGV ou alimenter un data center.

La diversité des applications et des niveaux de puissance requis a conduit à développer une très grande diversité de produits d’électronique de puissance, optimisés pour chaque contexte.

Traditionnellement, ces enjeux de recherche et développement (R&D) concernent l’amélioration du rendement énergétique (pour limiter les pertes et augmenter les performances), l’augmentation de la densité de puissance (afin de réduire le poids et le volume des appareils), ou encore l’amélioration de leur fiabilité et de leur durée de vie. Mais avec l’explosion des usages électriques, l’électronique de puissance fait désormais face à des enjeux environnementaux et sociaux.

En effet, l’approvisionnement en matières premières critiques est sous le coup de tensions géopolitiques, tandis que leur extraction peut être source de pollutions et de dégradation des écosystèmes naturels.

Les efforts investis pour décarboner la société ne doivent néanmoins pas être considérés uniquement à travers les seules émissions de GES. Pour prévenir et limiter les transferts d’impacts (lorsque la diminution d’un impact environnemental sur une étape du cycle de vie d’un produit implique des effets négatifs sur un autre impact ou une autre étape), il faut tenir compte des autres indicateurs environnementaux, telles la disponibilité des ressources critiques ou encore la dégradation de la biodiversité.


À lire aussi : La flexibilité électrique, ou comment décaler nos usages pour optimiser la charge du réseau


Des matériaux difficiles à réparer et à recycler

On l’a vu, l’électronique de puissance recoupe une large gamme d’applications et de puissances. De ce fait, elle est constituée d’une grande diversité de matériaux et de composants : on retrouve ainsi dans les composants constituants les convertisseurs de base plus de 70 matériaux différents.

Composition typique des éléments d’électronique de puissance. En vert, on retrouve les matériaux les plus recyclables, jusqu’au noir pour les éléments les moins recyclables. Thèse de Boubakr Rahmani, Fourni par l'auteur

Par exemple, du silicium pour les composants semi-conducteurs, des matériaux ferreux ou alliages à base de néodyme ou nickel pour les composants magnétiques, de l’aluminium ou tantale pour les condensateurs, des époxys ou polyamides non dégradables pour les circuits imprimés (PCB) ou encore des larges pièces en aluminium faisant office de radiateurs (pour évacuer de la chaleur produite par la conversion électrique). Certains de ces matériaux sont considérés comme des matériaux critiques et/ou stratégiques, associés à de forts enjeux environnementaux, économiques, sociaux voire géopolitiques.

Le problème tient aussi à leur recyclabilité : spécialisés pour un usage donné, les produits d’électronique de puissance peuvent être plus difficiles à réparer et souvent jetés en fin de vie. L’électronique de puissance contribue ainsi à l’augmentation de la quantité de déchets électroniques à gérer dans le monde, avec quelque 62 millions de tonnes atteintes en 2022. À l’heure actuelle, moins de 20 % sont collectés et traités.

La gestion des déchets issus de l’électronique de puissance, en fin de vie, constitue ainsi un problème qui se surajoute aux tensions d’approvisionnement en matières premières critiques et à l’impact environnemental de leur extraction. Pour les minimiser, il faut agir à toutes les étapes du cycle de vie, en particulier leur conception et leur fin de vie.

Rendre l’électronique de puissance plus soutenable

La communauté des experts techniques du domaine travaille ainsi à l’amélioration de la soutenabilité des équipements électroniques, et en particulier les convertisseurs.

En particulier, le groupe de travail Convertisseurs électroniques de puissance plus soutenables (CEPPS) du groupement de recherche Systèmes d’énergie électrique dans leurs dimensions sociétales (SEEDS) du CNRS, dont nous faisons partie, s’interroge sur les possibles transferts d’impacts d’une électrification massive sans repenser nos usages et nos besoins.

En effet, l’électrification engendre la production de toujours plus d’appareils électriques pour répondre à la croissance permanente des besoins énergétiques de notre société. Ce constat devrait nous inciter, en premier lieu, à modérer ces besoins en misant davantage sur la sobriété énergétique.

Une autre question, plus délicate pour cette industrie, tient à sa quête effrénée de la performance et de la miniaturisation. Ne faudrait-il pas plutôt changer les priorités de la conception ? Par exemple, en visant l'allongement de la durée de vie ou la mise en œuvre de pratiques plus circulaires, qui permettent notamment de favoriser le recyclage ? Ce dernier point peut passer par une amélioration de la réparabilité, de l'aptitude au désassemblage et par une homogénéisation des composants et des matériaux utilisés dans les appareils.

Les experts techniques en électronique de puissance que nous sommes le reconnaissent : notre communauté ne pourra résoudre tous les problèmes évoqués précédemment. C’est pourquoi nous pensons qu’il est important d’interroger les choix de société : modèles de consommation bien sûr, mais également des choix technologiques. Or, ces derniers sont réalisés par une seule partie des acteurs de la filière, alors qu’il faudrait inclure non seulement les ingénieurs, les fabricants et les législateurs, mais également les consommateurs, sans oublier d’adopter le regard des sciences humaines et sociales.

Cela implique aussi de mieux former le grand public aux systèmes énergétiques et notamment électriques. Celui-ci doit s’approprier pleinement tant leur fonctionnement scientifique et technique que les grands défis qui y sont associés.


À lire aussi : Comment rendre l’électronique plus soutenable ?


The Conversation

Jean-christophe Crebier a reçu des financements publics de l'ANR et de l'Europe en lien direct avec le sujet via les projets VIVAE, EECONE et ARCHIMEDES.

Pierre Lefranc a reçu des financements de l'ANR pour le projet VIVAE portant sur l'éco-conception en électronique de puissance.

Florentin Salomez, Hugo Helbling, Marina Labalette, Murielle Fayolle-Lecocq et Tanguy Phulpin ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

07.10.2025 à 16:23

Qui sont les précaires en transport ?

Andrea Rangel Guevara, Postdoctoral researcher, Université Savoie Mont Blanc

Pour décarboner efficacement le secteur des transports, il faut que les plus précaires soient accompagnés. Mais qui sont les précaires en transport ?
Texte intégral (2414 mots)

Pour décarboner efficacement le secteur des transports, il faut que les ménages les plus modestes soient accompagnés. Mais qui sont les précaires en transport ?


En France, le secteur du transport produit un tiers des émissions de gaz à effet de serre (GES), dont 60 % proviennent du transport routier. Afin d’atteindre la neutralité carbone d’ici 2050, revoir nos usages de la voiture est donc indispensable. Pour cela, différentes mesures ont déjà été mises en place ces dernières années. Néanmoins, elles ne sont pas facilement acceptées étant donné leurs effets potentiellement inégaux sur la population si aucun mécanisme de redistribution n’est conçu et déployé.

En voici trois exemples :

  • La mise en place de zones à faibles émissions (ZFE) dans 43 villes françaises où ne pourraient donc plus circuler les voitures les plus polluantes bien que le sujet soit actuellement débattu après un vote en faveur de sa suppression à l’Assemblée nationale en juin 2025.

  • L’établissement du système européen d’échange de quotas d’émission 2 (ETS2) à partir de 2027, axé sur les émissions de carburants provenant principalement des transports et des bâtiments. Ce qui inciterait les entreprises à respecter des limites en termes de pollution et/ou à revoir leur processus de production pour devenir plus propre.

Comment fonctionne le système d’échanges de quotas d’émissions de Co2 en Europe.
  • L’interdiction de vendre des voitures neuves polluantes à partir de 2035 dans toute l’Union européenne (UE), ce qui obligerait les ménages à repenser leurs habitudes de transport, leur localisation et/ou à se tourner vers des options de transport plus propres.

La lutte contre la pauvreté en transports dans l’UE

Pour que cette transition ne se fasse pas au détriment des plus précaires, l’ETS2 s’accompagne également de la création du Fonds social pour le climat, un fonds doté de plus de 86 milliards de financements pour lutter contre la précarité en transport et la précarité énergétique ») dans les pays de l’UE à partir de 2026.

Des recommandations détaillées pour la lutte contre la précarité en transports et le développement d’une mobilité équitable et durable ont été publiées récemment par la Commission Européenne. De plus, un nouveau Transport Poverty Hub a été créé pour améliorer l’identification des zones vulnérables.

Que sont la précarité en transport et la précarité énergétique ?

  • La précarité en transport est définie comme l’incapacité ou la difficulté pour les individus et pour les ménages à faire face aux coûts des transports privés ou publics, ou par leur manque d’accès (ou leur accès limité) aux transports nécessaires pour accéder aux activités et aux services socioéconomiques essentiels, compte tenu du contexte national et spatial.
  • La précarité énergétique désigne une situation dans laquelle les ménages ne sont pas en mesure d’accéder aux services énergétiques essentiels.

À l’échelle de l’UE, des nouvelles recherches révèlent qu’entre 20 % et 28 % des habitants des pays membres sont des précaires en transport. De même, en 2022, il y avait près de 10 % de citoyens en précarité énergetique. Selon Eurostat.), les deux plus grosses catégories de dépenses des ménages sont le logement et le transport.

En France, plus d’un quart du budget des ménages était consacré au logement et 13,6 % au transport en 2022. En Allemagne, ces postes de dépense sont quasiment similaires. Dans ce contexte, l’accompagnement des ménages les plus vulnérables devient nécessaire pour une transition environnementale plus juste et acceptable.

On sait aussi aujourd’hui que les mesures pour la transition peuvent faire d’une pierre deux coups : être à la fois progressives et plus acceptables si elles sont accompagnées, par exemple, des mécanismes de redistribution et si les citoyens sont informés de la mise en place de ces derniers.

Mais qui faudrait-il accompagner pour cette transition des transports ?

Une échelle de précarité en transport

C’est la question à laquelle j’ai tâché de répondre dans une étude sur le cas de l’Allemagne. Si la précarité en transport peut être liée au revenu et au niveau de vie elle dépend aussi d’autres critères : le lieu de vie et d’emploi, l’accès (ou le manque d’accès) aux transports publics et privés, la dépendance à la voiture privée, le coût des transports, les habitudes en termes de mobilité…

Lorsqu’on prend en compte tous ces paramètres, quatre catégories apparaissent :

  1. Les ménages indépendants qui représentent près de la moitié de la population. Ce sont les ménages vivant en centre-ville, ils ne dépendent pas de l’utilisation de la voiture individuelle pour se déplacer car ils ont accès à d’autres modes de transport. Ils ont les besoins de déplacement (en termes de distance) les plus faibles de l’échantillon. Ce seraient par exemple les personnes qui habitent dans des villes du quart d’heure.

  2. Les ménages suffisants (sufficient en anglais) qui représentent environ 34 % de la population. Ce sont les ménages qui, en règle générale, habitent le plus loin du centre-ville et qui se déplacent le plus. Cependant, leurs revenus plus élevés leur permettent de faire face et de ne pas trop subir des chocs potentiels des prix des transports.

  3. Les ménages dépendants de la voiture : qui représentent environ 16 % de la population. Leur principale contrainte provient de leur localisation (la plupart sont en périphérie ou en milieu rural), ce qui se traduit par un faible degré d’accès aux autres modes de transport et une forte distance à parcourir. La plupart d’entre eux (98 %) déclarent n’avoir pas d’autre option que la voiture pour leurs déplacements. Ces ménages sont également surexposés aux changements soudains des prix des transports privés (par exemple, via l’inflation ou des politiques publiques sans mécanisme de redistribution).

  4. Les ménages précaires en transport, soit la traduction du terme anglais transport poor : qui représentent environ 2 % de la population. Ce sont les ménages qui sont les plus contraints en termes de ressources financières. Ils sont également contraints par leur localisation, qui est similaire aux « dépendants » de la voiture. En outre, plus de la moitié de ces ménages ne possèdent pas de voiture privée et dépend donc des transports en commun. L’interaction entre ces trois caractéristiques fait que ce sont eux qui passent le plus de temps dans les transports publics.

En moyenne, ils doivent parcourir 12 kilomètres (aller simple) pour les déplacements nécessaires (faire leurs courses, emmener les enfants à l’école, aller au travail, etc.). Ils parcourent la même distance que les « dépendants », soit environ 1400 kilomètres par mois (tous type de voyage compris), mais 89 % de ces kilomètres sont faits en transport public. Ils consacrent environ 23 heures chaque mois aux déplacements nécessaires contre 14 heures pour les « dépendants » et 10 heures/mois pour les « indépendants ».

À noter que ceux qui possèdent une voiture, étant déjà limités en termes de revenus, sont surexposés aux changements des prix des transports privés.

Ces différences entre les classes peuvent nous aider à comprendre les leviers potentiels pour l’amélioration de la mobilité. Un des facteurs de précarité qui apparaît est géographique : l’endroit où habitent les citoyens au regard des besoins de chaque ménage en termes de déplacement (distances à parcourir, temps de trajet, etc.) De plus, la localisation des ménages a un impact sur l’accès à des transports en commun.

Cette dernière dimension est également un levier potentiel, par exemple, pour améliorer la mobilité des ménages dépendants de la voiture. Dans le cadre de cette étude, 77 % de l’échantillon n’était pas satisfait de l’offre de transport en commun entre leur lieu de vie et travail/étude. Selon une publication récente, les infrastructures actuelles sont particulièrement adaptées à la voiture et incitent les citoyens à prendre ce moyen de transport. Des investissements d’infrastructure et des incitations vers d’autres modes de transport seraient donc des solutions envisageables et nécessaires).

Des pistes pour le cas français : faire face aux inégalités subjacentes

Des études similaires ont été menées au sujet du territoire français et ont obtenu des résultats étroitement liés, soulignant les inégalités sous-jacentes à prendre en compte lors de la mise en place des politiques publiques pour la transition du secteur des transports. Par exemple, l’économiste Audrey Berry et ses collègues] soulignent la pertinence des interactions entre différentes dimensions (localisation, revenu, options de transport) qui peuvent avoir un impact sur la mobilité des ménages.

Les résultats de l’Enquête Nationale sur les Mobilités de personnes 2019 confirment également la corrélation entre le fait de vivre dans des zones moins denses (rurales) et l’utilisation plus régulière de la voiture individuelle : environ 80 % des déplacements en voiture individuelle sont effectués en zone rurale, contre seulement 33 % dans la région parisienne qui dispose d’une offre plus importante de modes de transport public. L’accès aux transports alternatifs pour les milieux ruraux et les périphéries serait donc un des leviers clés pour la transition.

De plus, en France, des inégalités existent concernant l’accès à des véhicules moins polluants. Les plus pauvres possèdent des voitures polluantes. Lors du déploiement de politiques publiques pour la transition, ce levier serait clé pour diminuer les effets négatifs sur les populations vulnérables.

Récemment, l’économiste Lola Blandin identifiait elle les profils vulnérables suite à la mise en place d’une ZFE à Grenoble. Y apparaissaient également comme facteurs clés les contraintes financières, les infrastructures de transport disponibles et les horaires de travail. En outre, l’introduction de ZFE peut avoir des effets négatifs sur l’accessibilité à l’emploi pour les ménages les plus modestes

Pourcentage des voitures par Crit’Air selon le niveau de revenu des ménages en 2023. Graphique adapté de « Le parc automobile des ménages en 2023 : moins de voitures pour les plus modestes, plus souvent anciennes et diesel ». Sources des données : SDES, Rsvero ; Insee, Fidéli, Fourni par l'auteur
The Conversation

Andrea Rangel Guevara a reçu des financements de l'Agence nationale de la recherche (ANR). Le projet ciblé 3 ANR-22-EXSS-0004 bénéficie d'un financement du gouvernement français.

PDF

06.10.2025 à 16:28

Les citadins sont-ils prêts à réduire la place de la voiture pour végétaliser la ville ?

Maia David, Professeure et chercheuse en économie de l’environnement, AgroParisTech – Université Paris-Saclay

Basak Bayramoglu, Directrice de recherche INRAE, Directrice adjointe de l'unité PSAE

Carmen Cantuarias-Villessuzanne, Chercheuse associée, Université Paris-Saclay; École Supérieure des Professions Immobilières

Laetitia Tuffery, Maîtresse de conférences en économie, Université de Nîmes

Face aux canicules, la végétalisation des villes s’impose. Mais verdir l’espace public revient souvent à rogner sur la place de la voiture, ce qui peut être source de conflits.
Texte intégral (3152 mots)
Pour végétaliser les villes, il faut trouver de l’espace et donc en prendre à la voiture. Et c’est là que, parfois, les choses coincent… Source : Métropole de Lyon, Fourni par l'auteur

Face à la multiplication des vagues de chaleur, les villes doivent se réinventer. La végétalisation fait partie de la palette de solutions possibles, mais se heurte à une difficulté : pour cela, il faut souvent réduire l’espace alloué à d’autres usages, comme la circulation ou le stationnement automobile. Une étude récente, menée à Lyon (Rhône), suggère que les citadins sont prêts à soutenir de telles mesures… à condition que son impact reste limité et que ses bénéfices concrets soient perceptibles.


La France a de nouveau subi pendant l’été 2025 une canicule parmi les plus intenses jamais enregistrées. Le mois de juin 2025 a ainsi été le plus chaud jamais mesuré en Europe de l’Ouest. À cette occasion, plusieurs villes ont franchi la barre des 40 °C, comme Bordeaux (41,6 °C), Toulouse (41,5 °C), Angoulême (42,3 °C) ou Nîmes (41,8 °C).

L’intensification des vagues de chaleur, tant en termes de fréquence que de durée, contribue à rendre les espaces urbains de plus en plus difficiles à vivre. En cause, l’effet d’îlot de chaleur urbain (ICU) : l’asphalte et le béton, par exemple, stockent la chaleur, et le peu de végétation limite le rafraîchissement nocturne par évapotranspitation.

Face à ces extrêmes devenus la norme, les villes doivent se réinventer et créer des « îlots de fraîcheur urbains », des zones refuges où les températures sont plus clémentes.

Plusieurs approches peuvent être envisagées.

  • Elles peuvent s’appuyer sur des changements de comportement des citadins, comme l’aération nocturne des logements, l’adaptation des horaires de travail ou encore la réduction des activités extérieures en période de forte chaleur.

  • Elles peuvent aussi reposer sur des aménagements techniques et architecturaux, tels que la construction de bâtiments bioclimatiques, l’utilisation de revêtements à fort albédo ou l’irrigation ponctuelle des espaces extérieurs.

  • Une troisième voie, enfin, réside dans l’accroissement de la végétation urbaine, largement documentée dans la littérature scientifique comme facteur de rafraîchissement.

Il existe toutefois une limite structurelle. Les grandes villes disposent rarement de la place suffisante pour, à la fois, planter des arbres, désimperméabiliser les sols et verdir les rues sans devoir transformer les usages de l’espace public et réduire l’espace alloué à d’autres usages.

La végétalisation bouscule notamment la place de la voiture, comme nous avons pu le démontrer dans une recherche publiée dans la revue Land Economics.


À lire aussi : Paris est une des pires villes européennes en temps de canicule. Comment changer cela ?


Le vert urbain, entre bénéfices et zones de friction

Les bénéfices de la nature en ville sont nombreux et documentés : îlots de fraîcheur, amélioration de la qualité de l’air, infiltration des eaux pluviales, accueil de la biodiversité, atténuation du bruit, sans oublier les impacts positifs sur la santé mentale et le lien social.

Un seul arbre peut abaisser de plusieurs degrés la température ambiante, et attirer des espèces parfois rares en milieu urbain. Par exemple, une simulation réalisée par Météo France estime que l’ajout de 300 hectares de végétation à Paris permettrait d’abaisser la température de 0,5 à 1 °C lors d’un épisode de canicule.

Plus concrètement, à Aubervilliers (Seine-Saint-Denis), une commune située au nord de Paris, la transformation d’un parking en îlot de fraîcheur grâce à la plantation de 72 arbres a réduit la température ressentie de 3,1 °C en moyenne.

Mais cette végétalisation nécessite de l’espace, alors même que l’espace urbain est précisément limité et fait l’objet de multiples usages concurrents. À Paris, la piétonnisation des berges de Seine ou la transformation de la rue de Rivoli ont par exemple suscité de vifs débats.

À Bordeaux (Gironde), Lyon (Rhône) ou Grenoble (Isère), les créations de trames vertes entraînent également des réactions contrastées selon les quartiers et les profils d’usagers. Des conflits d’usage, entre automobilistes, cyclistes, piétons et riverains sont au cœur des tensions liées à ces projets.

À Lyon comme ailleurs, les nouveaux aménagements urbains (place publique, rond-point, voie sur berge, réseau de transport, etc.) intègrent de plus en plus de végétation. Les abords des nouvelles lignes de tramways ont été repensés pour accueillir arbres, pelouses ou bandes fleuries.

Perspective de la rue Mérieux à Lyon (7ᵉ) dans la végétalisation du tramway T10. Ilex Paysage & Urbanisme et SYTRAL Mobilités en tant que maître d’ouvrage du projet T10, Fourni par l'auteur

Ces projets transformateurs s’inscrivent dans des politiques environnementales ambitieuses, comme le plan Canopée de la métropole et répondent à une demande citoyenne croissante pour un cadre de vie plus sain.

Mais ils se font souvent au détriment d’autres usages : voies de circulation rétrécies, suppression de places de stationnement, ralentissements logistiques, coûts de mise en œuvre et d’entretien.

Ces arbitrages posent la question de l’usage de l’espace public, et de l’acceptabilité sociale des projets de végétalisation urbaine.

Des citoyens prêts à faire des compromis… à certaines conditions

Scénario correspondant à la situation actuelle : pas de végétalisation supplémentaire et pas d’impact sur les voies de circulation automobile. Semeur/Métropole de Lyon/Hind Nait-Barka, Fourni par l'auteur

Pour mieux comprendre comment les habitants opèrent ces arbitrages, nous avons, dans le cadre de notre étude, évalué la demande sociale de végétalisation urbaine de la part des habitants de la métropole du Grand Lyon.

Dans une enquête basée sur ce qu’on appelle la méthode d’expérience de choix, 500 répondants représentatifs de la population de la métropole ont été confrontés à plusieurs scénarios de verdissement des abords du tramway sur leur territoire.

Scénario correspondant à une légère végétalisation sans impact sur les voies de circulation automobile. Semeur/Métropole de Lyon/Hind Nait-Barka, Fourni par l'auteur

Chaque scénario comportait, à des niveaux variables, quatre paramètres clés :

  • réduction des températures lors des canicules,
  • augmentation de la biodiversité (mesurée par l’abondance d’oiseaux),
  • réduction de l’espace pour la circulation et le stationnement,
  • enfin, une hausse de la fiscalité locale.
Scénario correspondant à une végétalisation accrue réduisant légèrement la place allouée à la circulation automobile. Semeur/Métropole de Lyon/Hind Nait-Barka, Fourni par l'auteur

Cette étude a permis d’estimer un « consentement à payer » moyen des répondants pour différentes caractéristiques de la végétalisation en ville. Ce type d’outil est précieux pour orienter les politiques publiques, car il révèle les préférences citoyennes pour des biens et des services comme les services écologiques qui n’ont pas de prix de marché.

Résultats : les citoyens prêts à faire des compromis… à certaines conditions.

En moyenne, les habitants interrogés se montrent ainsi favorables à la végétalisation. Ils sont prêts à payer 2,66 € par mois (en termes de hausse des taxes locales) pour chaque degré de baisse des températures et 0,49 € pour chaque point de biodiversité gagné (1 % d’oiseaux en plus). Ils sont favorables aux scénarios qui améliorent la biodiversité et le rafraîchissement de l’air tout en réduisant l’espace consacré aux voitures de manière minimale.

Cependant, ils sont nettement opposés aux scénarios qui réduisent plus fortement l’espace routier sans bénéfice environnemental suffisant.

Nos analyses montrent également une forte hétérogénéité entre répondants : les habitants du centre-ville, probablement déjà confrontés à plusieurs restrictions de circulation, sont plus critiques ainsi que les ménages les plus favorisés et les usagers quotidiens de la voiture.

À l’inverse, les personnes avec enfants ou consommant des produits issus de l’agriculture biologique – ce dernier étant un indicateur de la sensibilité à l’environnement – expriment un soutien accru aux projets de végétalisation urbaine.


À lire aussi : Réduire la place de la voiture en ville est-il aussi impopulaire qu’on le pense ?


Végétaliser avec les citoyens, pas contre eux

Face à l’urgence climatique, les villes doivent se doter de politiques de végétalisation ambitieuses. Mais ces solutions doivent aussi être socialement acceptables.

Notre étude montre que la majorité des habitants de Lyon seraient prêts à contribuer au financement d’un projet de végétalisation urbaine dès lors qu’il ne réduit que modérément l’espace disponible pour l’automobile. Une solution qui n’occuperait pas trop d’espace, comme la végétalisation verticale, serait donc pertinente.

Pour les décideurs locaux, il convient donc de mettre en place des projets de végétalisation prioritairement dans les communes déficitaires en arbres. Comme souligné par les résultats de notre étude, l’acceptabilité de ces projets suppose d’impliquer les citoyens dès leur conception et de mesurer régulièrement leur impact. C’est à ce prix que les villes du futur pourront être à la fois plus vertes, plus vivables, et plus justes.


À lire aussi : Les arbres en ville : pourquoi il n’y a pas que le nombre qui compte


The Conversation

Maia David a reçu des financements du Ministère de la Transition Écologique et de l'Agence de l'Environnement et de la Maîtrise de l'Energie (ADEME) dans le cadre du Programme ITTECOP.

Basak Bayramoglu, est co-coordinatrice du projet SEMEUR et a reçu des financements de Ministère de la Transition Écologique (MTE) dans le cadre du Programme ITTECOP. Basak Bayramoglu est membre de la Chaire Énergie et Prospérité, sous l'égide de La Fondation du Risque.

Carmen Cantuarias est co-coordinatrice du projet SEMEUR et a reçu des financements de Ministère de la Transition Écologique (MTE) dans le cadre du Programme ITTECOP. Elle a travaillé au CGDD (MTE) en tant que chargée de mission sur les instruments économiques pour la biodiversité.

Laetitia Tuffery a reçu des financements du Ministère de la Transition Écologique (MTE) et de l'Agence de l’Environnement et de la Maîtrise de l’Énergie (ADEME) dans le cadre du Programme ITTECOP.

PDF

06.10.2025 à 16:22

Pour sauver les pôles, les projets de géo-ingénierie sont voués à l’échec

Steven Chown, Director, Securing Antarctica's Environmental Future and Professor of Biological Sciences, Monash University

Des projets de géo-ingénierie émergent pour tenter de sauver la glace polaire : rideaux sous-marins, pompes à neige, fertilisation des océans… Mais une nouvelle étude montre que ces solutions ne sont que des mirages.
Texte intégral (2059 mots)
Le moyen le plus efficace de réduire le risque d’impacts généralisés du réchauffement climatique sur les pôles reste de diminuer les émissions de gaz à effet de serre. Derek Oyen/Unsplash

Alors que les pôles fondent à un rythme accéléré, certains chercheurs misent sur la géo-ingénierie pour ralentir la catastrophe : rideaux sous-marins, microbilles de verre ou fertilisation des océans. Mais une récente étude montre que ces solutions spectaculaires sont inefficaces, coûteuses et dangereuses – et qu’elles risquent surtout de détourner l’attention de l’urgence à réduire nos émissions de gaz à effet de serre.


Notre planète continue de se réchauffer en raison des émissions de gaz à effet de serre liées aux activités humaines. Les régions polaires sont particulièrement vulnérables à ce réchauffement. L’étendue de la banquise diminue déjà dans l’Arctique comme dans l’Antarctique. Les calottes glaciaires du Groenland et de l’Antarctique fondent, et des changements brutaux sont en cours dans les deux environnements polaires.

Ces changements ont de profondes conséquences pour nos sociétés, qu’il s’agisse de la montée du niveau de la mer, de l’évolution de la circulation océanique ou de la multiplication des phénomènes climatiques extrêmes. Ils entraînent aussi de lourdes conséquences pour les écosystèmes, notamment pour les ours polaires et les manchots empereurs, devenus des symboles des effets du changement climatique.

Le moyen le plus efficace pour atténuer ces changements et réduire le risque d’impacts généralisés est de diminuer les émissions de gaz à effet de serre. Pourtant, la décarbonation progresse lentement, et les projections actuelles indiquent une augmentation de la température d’environ 3 °C d’ici à 2100.

Aussi, certains scientifiques et ingénieurs, conscients des changements attendus et de l’importance des régions polaires pour la santé de la planète, ont-ils proposé de développer des approches technologiques, appelées géo-ingénierie, afin d’atténuer les effets sur l’Arctique et l’Antarctique.

Dans une étude publiée récemment dans Frontiers in Science, mes collègues et moi avons évalué cinq des concepts de géo-ingénierie les plus avancés envisagés pour les régions polaires. Nous en avons conclu qu’aucun d’entre eux ne devrait être utilisé dans les prochaines décennies. Ils sont extrêmement peu susceptibles d’atténuer les effets du réchauffement climatique dans les régions polaires et risquent de provoquer de graves conséquences indésirables.

Qu’est-ce que la géo-ingénierie polaire ?

La géo-ingénierie recouvre un large éventail d’idées visant à modifier délibérément, à grande échelle, le climat de la Terre. Les deux grandes catégories

consistent soit à retirer du dioxyde de carbone de l’atmosphère, soit à augmenter la quantité de lumière solaire renvoyée vers l’espace (une approche connue sous le nom de « modification du rayonnement solaire »).

Pour les régions polaires, les cinq concepts actuellement les plus avancés sont :

1. L’injection d’aérosols stratosphériques. Cette technique de modification du rayonnement solaire consiste à introduire dans la stratosphère de fines particules (comme le dioxyde de soufre ou le dioxyde de titane) afin de réfléchir la lumière du soleil vers l’espace. L’idée est ici d’appliquer ce principe spécifiquement aux pôles.

2. Les rideaux sous-marins. Ces structures flexibles et flottantes, ancrées au plancher océanique entre 700 et 1 000 m de profondeur et s’élevant sur 150 à 500 m, visent à empêcher l’eau chaude de l’océan d’atteindre et de faire fondre les plates-formes de glace (prolongements flottants qui ralentissent l’écoulement de la glace du Groenland et de l’Antarctique vers l’océan) ainsi que les lignes d’ancrage des calottes (là où se rencontrent terre, glace et océan).

Un schéma montrant un grand rideau dans la mer, dressé contre un mur de glace
Les sous-rideaux marins sont des structures flexibles et flottantes, ancrées au fond de la mer entre 700 mètres et 1 000 mètres de profondeur et s’élevant de 150 mètres à 500 mètres. Frontiers

3. Gestion de la banquise. Deux pistes sont explorées : d’une part, la dispersion de microbilles de verre sur la glace de mer arctique fraîche pour la rendre plus réfléchissante et prolonger sa durée de vie ; d’autre part, le pompage d’eau de mer à la surface de la banquise, où elle gèle pour l’épaissir, ou dans l’air pour produire de la neige, grâce à des pompes éoliennes.

4. Ralentir l’écoulement de la calotte glaciaire. Cette approche cible les « courants glaciaires » du Groenland et de l’Antarctique, de véritables rivières de glace s’écoulant rapidement vers la mer et contribuant à l’élévation du niveau marin. L’eau présente à leur base agit comme un lubrifiant. L’idée est de pomper cette eau afin d’accroître la friction et de ralentir leur progression. Le concept semble particulièrement pertinent pour l’Antarctique, où la fonte se joue davantage à la base de la calotte qu’à sa surface.

5. La fertilisation des océans. Elle consiste à ajouter des nutriments, comme du fer, dans les océans polaires afin de stimuler la croissance du phytoplancton. Ces organismes microscopiques absorbent le dioxyde de carbone atmosphérique, qui se retrouve stocké dans les profondeurs marines lorsqu’ils meurent et coulent.

Un schéma montrant des nutriments ajoutés à l’océan pour favoriser la croissance du phytoplancton
Un schéma montrant des nutriments ajoutés à l’océan pour favoriser la croissance du phytoplancton. Frontiers

Le risque des faux espoirs

Dans nos travaux, nous avons évalué chacun de ces concepts selon six critères : ampleur de la mise en œuvre, faisabilité, coûts financiers, efficacité, risques environnementaux et enjeux de gouvernance. Ce cadre fournit une méthode objective pour examiner les avantages et limites de chaque approche.

Aucun des projets de géo-ingénierie polaire ne s’est avéré viable dans les décennies à venir. Tous se heurtent à de multiples obstacles.

Ainsi, couvrir 10 % de l’océan Arctique de pompes destinées à projeter de l’eau de mer pour la geler exigerait l’installation d’un million de pompes par an sur dix ans. Les coûts estimés pour les rideaux marins (un milliard de dollars US par kilomètre) sous-estiment, de six à vingt-cinq fois, ceux de projets d’ampleur comparable dans des environnements plus simples, comme la barrière de la Tamise à Londres.

Un projet visant à répandre des microbilles de verre sur la glace a d’ailleurs été abandonné en raison des risques environnementaux. Et lors de leur dernière réunion, la majorité des Parties consultatives du Traité sur l’Antarctique ont réaffirmé leur opposition à toute expérimentation de géo-ingénierie dans la région.

Ces propositions nourrissent de faux espoirs face aux conséquences dramatiques du changement climatique, sans réduire rapidement les émissions de gaz à effet de serre. Elles risquent d’alimenter la complaisance face à l’urgence d’atteindre la neutralité carbone d’ici à 2050, voire d’être instrumentalisées par des acteurs puissants pour justifier la poursuite des émissions.

La crise climatique est une crise. Compte tenu du temps disponible, les efforts doivent se concentrer sur la décarbonation, dont les bénéfices peuvent être obtenus à court terme.

The Conversation

Steven Chown ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

05.10.2025 à 08:31

Alternatives aux néonicotinoïdes en culture de betterave : les avancées de la recherche

Guy Richard, Directeur de l'expertise scientifique collective, de la prospective et des études à l'Institut national de la recherche pour l'agriculture, l'alimentation et l'environnement (INRAE), Inrae

Alexandre Gohin, Directeur de recherche, INRAE, Inrae

Anne Laperche, Professeure en génétique et amélioration des plantes, Institut Agro Rennes-Angers

Bernard Bodson, Docteur en sciences agronomiques, Professeur honoraire, Gembloux Agro-Bio Tech, Université de Liège

Christophe David, Associate Dean, Senior scientist, Institut supérieur d'agriculture Rhône-Alpes

Eugénie Hebrard, Directrice de recherche, Institut de recherche pour le développement (IRD)

Marianne Sellam, Directrice scientifique et technique, Acta

Philippe Reignault, Directeur de la santé des végétaux, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)

Virginie Ravigné, Chercheuse en écologie des communautés microbiennes et virales, Cirad

Voici 4 ans que des scientifiques testent et étudient les alternatives aux néonicotinoïdes pour les cultures de betteraves. Les pistes de solutions sont nombreuses et complémentaires.
Texte intégral (2814 mots)
Récolte de betteraves sucrières en Normandie. stanze/Flickr, CC BY

Voici quatre ans que des scientifiques testent et étudient les alternatives aux néonicotinoïdes pour les cultures de betteraves. Les pistes de solutions sont nombreuses et complémentaires.


Le 1er septembre 2018, la France interdisait l’usage agricole des néonicotinoïdes (NNI), insecticides qui agissent sur le système nerveux des insectes. Ces molécules, reconnues comme une des causes du déclin des colonies d’abeilles et de la biodiversité, ont été utilisées à partir des années 1990 pour contrôler les pucerons qui infestent des cultures, comme la betterave sucrière.

Présents dans les enrobages des semences, différents NNI ont pu se répandre dans les plantes et dans le sol où ils pouvaient atteindre les organismes du sol, y compris les semences des cultures suivantes et des graines de plantes productrices de pollen et de nectar, qui peuvent ensuite être visitées par les pollinisateurs.

L’interdiction des NNI a entraîné en 2020 une baisse moyenne de rendement de 28 % sur l’ensemble de la surface cultivée en betterave sucrière française, due à la jaunisse virale propagée par de fortes populations de pucerons.

Les professionnels agricoles se sont alors mobilisés pour :

  • obtenir une dérogation d’utilisation des NNI soumis à l’avis annuel d’un conseil de surveillance réunissant des parlementaires, dérogation qui sera elle-même interdite en 2023 suite à un arrêt de la Cour de justice européenne ;

  • soutenir et accélérer la recherche d’alternatives aux NNI sur betterave.

Depuis 2021, le ministère en charge de l’agriculture soutient un programme national de recherche et d’innovation (PNRI) initialement doté de 7,2 millions d’euros sur trois ans – et reconduit depuis – pour explorer des solutions opérationnelles à court terme. Le programme est copiloté par l’Institut national de la recherche sur l’agriculture, l’alimentation et l’environnement (Inrae) et par l’Institut technique de la betterave (ITB). Il s’appuie sur un comité de pilotage composé de représentants de la filière et sur un conseil scientifique rassemblant plusieurs instituts et présidé par l’Inrae.

En tant que membres de ce conseil scientifique, nous souhaitons faire un état des lieux du PNRI quatre années après sa mise en place, à l’heure où une dérogation à l’utilisation de l’acétamipride (NNI en application par pulvérisation sur les feuilles des plantes) a été proposée, provoquant de nombreuses réactions dans le monde agricole et auprès des citoyens.

Le PNRI a soutenu 25 projets de recherche portés par des scientifiques d’origine diverse : recherche publique, enseignement supérieur, enseignement agricole, instituts techniques, sucreries, entreprises semencières et de biocontrôle, assureurs.

Plusieurs projets impliquaient directement des agriculteurs pour des expérimentations en plein champ. Le PNRI a ainsi permis de mieux comprendre et de prévoir le développement de la maladie, de tester différents moyens agronomiques pour la gérer et d’étudier les conditions de leur déploiement.

Mais pour comprendre quelles sont aujourd’hui les pistes de solutions retenues pour lutter contre la jaunisse sans NNI, commençons par regarder en quoi consiste cette maladie.

La maladie de la jaunisse

La jaunisse de la betterave est provoquée par quatre virus de plantes, parfois en multi-infection (le Beet Yellow Virus, ou BYV, étant le virus le plus dommageable). Ces virus sont transmis aux plantes par des insectes vecteurs, principalement le puceron vert du pêcher (Myzus persicae), mais aussi par le puceron noir de la fève (Aphis fabae), lorsque ces pucerons piquent les plantes pour se nourrir de leur sève.

Le virus provoque alors une altération de la photosynthèse et du transfert des sucres depuis les feuilles vers les racines : la plante jaunit et perd de sa capacité à accumuler du sucre dans sa racine.

Les virus ne peuvent cependant pas être transmis à la descendance des pucerons porteurs. C’est seulement en piquant une plante déjà infectée que le puceron se charge en virus et qu’il pourra alors le transmettre à d’autres plantes de betterave. Le contrôle des réservoirs de virus apparaît donc comme un élément important de prévention et de gestion de la maladie.

Le contrôle des réservoirs de virus

La culture de la betterave constitue le principal réservoir de virus de la jaunisse via :

  • les repousses des plantes de betterave laissées dans les parcelles suite à la récolte, ou au bord des parcelles à la suite du stockage temporaire des racines tubérisées avant leur transport à la sucrerie ;

  • des plantes destinées à la production de semences, qui passent l’hiver dans des parcelles semées à l’automne et récoltées l’été suivant.

Dans les deux cas, la présence continue de betterave permet aux pucerons de se charger en virus tout au long de l’année. La prévention consiste à enfouir ou à détruire les repousses et à séparer géographiquement (d’un kilomètre au minimum) les parcelles destinées à la production de semences et celles destinées à la production de sucre. La proximité des deux types de parcelles de betterave est probablement à l’origine de symptômes viraux particulièrement marqués dans les régions Centre et Île-de-France.

La perturbation du déplacement des pucerons

Contrairement au virus de la jaunisse, les pucerons ont de multiples plantes hôtes (colza, moutarde…). Ayant un stade ailé, leurs distances de déplacement atteignent plusieurs dizaines, voire centaines, de kilomètres.

Ces deux éléments compromettent le contrôle de leur dissémination. En revanche, il est possible de prévoir les dates d’arrivée des vols de pucerons à partir des données de température hivernale avec des modèles en voie d’amélioration. Par ailleurs, la présence de plantes dites compagnes entre les rangs de betterave (avoine, orge notamment) perturbe le repérage des plantes de betterave par les pucerons.

La diffusion de composés organiques volatils dans l’atmosphère ou la présence de certaines espèces végétales non-hôtes détournent également les pucerons de ces parcelles (graminées) ou les attirent en dehors (crucifères). L’efficacité moyenne de ces deux techniques a été évaluée à 50 % sur les populations de pucerons et à 40 % pour les symptômes de jaunisse. Les plantes compagnes sont à détruire au bon moment pour éviter toute concurrence avec la betterave elle-même et ne pas occasionner une diminution du rendement.

La destruction des pucerons

L’apport d’insectes prédateurs (chrysopes, syrphes) des pucerons et la présence de couverts végétaux qui leur sont favorables (bandes enherbées, haies) sont des moyens de réduire les populations de pucerons.

Leur efficacité est très variable, de 0 à 68 % selon les parcelles, probablement en lien avec des conditions climatiques plus ou moins favorables à la survie et au développement des auxiliaires.

Se contenter de favoriser les prédateurs ne permet pas de contrôler le développement des pucerons. Cette technique doit de fait être associée à d’autres moyens de lutte.

L’apport d’insecticides de synthèse reste possible avec deux matières actives actuellement autorisées, le flonicamide et le spirotétramate, relativement spécifiques des pucerons et efficaces. Ces insecticides ont une durée maximale d’action de deux semaines, ce qui peut nécessiter plusieurs passages selon la succession des vols de pucerons. Des produits insecticides naturels ont été testés, avec des résultats décevants et très variables au champ, excepté pour un champignon entomopathogène (Lecanicilium muscarium) avec une efficacité de 0 à 41 %.

Vers des variétés moins sensibles au virus

Réduire la sensibilité des plantes au virus de la jaunisse est une autre voie d’action. Des variations de sensibilité à la maladie ont été mesurées pour les variétés actuelles et pour des populations de plantes utilisées dans les programmes de sélection des futures variétés. Cela laisse présager de futures variétés plus ou moins résistantes avec des potentiels de production variables, ce qui à terme permettra de mieux ajuster le choix des variétés au contexte épidémiologique.

Le stade de développement de la plante est également un facteur de sensibilité au virus, dont les dommages sont plus importants sur les jeunes stades. Il faut donc chercher à semer le plus tôt possible pour éviter des dates usuelles d’arrivée des pucerons.

On sait aussi que la quantité d’azote dans la plante joue sur l’attractivité de la plante : elle est plus élevée quand la teneur en azote de la plante est forte. Une réduction de la fertilisation azotée précoce reste ainsi une possibilité à explorer. Des stimulateurs de défenses naturelles des plantes ont également été testés, sans efficacité avérée en plein champ.

La combinaison des moyens de lutte

Divers leviers sont dès lors combinables pour lutter contre la jaunisse à l’échelle de la parcelle : choix de la variété, gestion de la fertilisation azotée, apport de stimulateurs de défense des plantes, semis de plantes compagnes dans les interrangs, semis de plantes abritant les prédateurs des pucerons, repoussant ou attirant les pucerons, apport de prédateurs ou de parasitoïdes des pucerons, apport d’insecticides, d’origine naturelle ou de synthèse.

À l’échelle du bassin de production, on peut jouer sur la destruction des repousses de betterave de l’année précédente, l’organisation spatiale des parcelles de betterave à production de semences ou de sucre.

Plusieurs combinaisons ont été testées dans des parcelles d’agriculteurs qui se sont engagés pour mettre en œuvre de nouvelles pratiques moyennant une indemnisation. Les essais se poursuivent pour mieux évaluer l’efficacité et le coût des pratiques. On peut dire aujourd’hui qu’il n’existe pas une alternative aux NNI aussi efficace lorsqu’elle est appliquée seule, mais un ensemble d’alternatives à combiner pour une efficacité maximale de l’ordre de 70 % sur les pucerons et de 50 % sur la maladie. Ces évaluations restent cependant difficiles à réaliser dans des contextes d’infestation relativement faibles depuis l’année 2020.

Le bilan du programme PNRI

Hormis l’année 2020, le rendement moyen de la surface agricole française en betterave a été peu affecté par la jaunisse virale. Cela tient probablement à plusieurs facteurs : les caractéristiques climatiques des années 2019, 2023 et 2024, jugées peu favorables au développement des pucerons (2021 et 2022 ont bénéficié de la dérogation NNI), l’utilisation des deux insecticides de synthèse, les actions de prévention vis-à-vis des réservoirs de virus mises en place depuis 2024.

Même si le PNRI n’a pas totalement atteint son objectif de déployer, dès 2024, des solutions opérationnelles, il faut souligner la qualité des recherches menées pour comprendre la maladie, l’ampleur et l’opérationnalité des résultats obtenus. Des alternatives à l’utilisation systématique d’insecticides chimiques existent, plus compliquées, plus coûteuses à déployer et moins efficaces que la pulvérisation foliaire d’un NNI, mais elles ne portent pas atteinte à la santé de l’environnement ni à la santé humaine.

Compte tenu de ces résultats, il nous semble tout à fait envisageable de promouvoir les alternatives aux NNI, mais en actant que les agriculteurs ne peuvent pas être les seuls à supporter le surcoût et le risque associés. Deux approches, à combiner, sont à développer :

  • d’une part, un mécanisme assurantiel pourrait être mis en place pour permettre aux agriculteurs de faire face aux années de forte infestation. Un des projets du PNRI a démontré sa faisabilité, et ce d’autant plus que cette situation n’a été observée qu’en 2020 (soit une année sur quatre) ;

  • d’autre part, un mécanisme de répartition du coût sur l’ensemble de la chaîne producteur-transformateur-distributeur-consommateur et non pas sur les seuls agriculteurs dans l’esprit des lois Egalim 1 et 2 pour l’amélioration de l’équilibre des relations commerciales dans le secteur agricole et alimentaire.

À cela, il faut ajouter un mécanisme de non-concurrence intraeuropéenne ou internationale.

Le PNRI apparaît donc comme un programme pluridisciplinaire avec des acteurs divers qui a permis de mettre au point et de définir des modalités de déploiement d’alternatives aux NNI. Ce programme bénéficie d’une prolongation pour aller au bout de l’évaluation de ces alternatives. On voit ici le rôle essentiel joué par les décisions politiques pour donner un signal crédible aux parties prenantes d’un système leur permettant ainsi de se mobiliser pour trouver des solutions.

The Conversation

Guy Richard est président du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière. Il préside également le conseil d’orientation scientifique et technique du réseau des instituts techniques agricoles (COST ACTA).

Alexandre Gohin est membre du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière

Anne Laperche est membre du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière

Bernard Bodson est membre du conseil scientifique et de suivi du Programme national de recherche et d'innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière. Il est président du Conseil scientifique d'ARVALIS.

Christophe David est membre du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière. Il est président du conseil scientifique de Terres Inovia.

Eugénie Hebrard est membre du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière.

Marianne SELLAM est membre du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière. Elle est également trésorière de l'association "Biocontrôle et Biostimulation pour l'Agroécologie".

Philippe Reignault est membre du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière.

Virginie Ravigné est membre du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière.

PDF
25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
🌓