LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

24.04.2025 à 17:49

Vaches à lait, vaches à viande : ce qu’il faudrait changer pour notre santé et notre environnement

Michel Duru, Directeur de recherche, UMR AGIR (Agroécologie, innovations et territoires), Inrae

Changer l’alimentation des vaches, privilégier certaines races plus que d’autres, consommer moins de bœuf mais manger des viandes plus diverses… Les marges de progression sont nombreuses.
Texte intégral (2297 mots)

Changer l’alimentation des vaches, privilégier certaines races plus que d’autres, revaloriser le pâturage, consommer moins de bœuf, mais manger des viandes plus diverses… Les marges de progression sont nombreuses.


Depuis quelques années, les excès de consommation de viande sont montrés du doigt du fait de leurs impacts sur la santé et l’environnement. Dans une moindre mesure, c’est aussi le cas des produits laitiers comme les fromages. Pour faire face à ces enjeux environnementaux et sanitaires, mais aussi pour accroître notre souveraineté alimentaire, que nous disent les études scientifiques ? Comment peuvent-elles nous aider à réorganiser l’élevage pour le rendre plus durable, du champ jusqu’à l’assiette ?

Réduire notre consommation pour la planète et notre santé

Commençons par un état des lieux, en France, notre apport en protéines provient pour deux tiers des produits animaux et pour un tiers des produits végétaux. Il est en moyenne excédentaire d’au moins 20 % par rapport aux recommandations. Les bovins fournissent enfin la moitié de notre consommation de protéines animales sous forme de viandes et de laitages, le reste provenant surtout des porcs et volailles et très secondairement des brebis et chèvres.

Les recherches convergent vers une réduction nécessaire de moitié en moyenne de la consommation de viande, principalement du fait de l’augmentation de risques de cancers. Nous devrions également, d’après l’état des connaissances scientifiques, réduire notre consommation de produits laitiers mais dans une moindre mesure.

Ces réductions sont aussi encouragées par l’actuel plan national nutrition santé. Il est maintenant montré par des études épidémiologiques et des modélisations que de tels changements dans la composition de notre assiette auraient des effets bénéfiques sur notre santé (réduction du risque de maladies chroniques). Cela permettrait aussi de réduire l’impact environnemental de notre alimentation avec moins d’émissions de gaz à effet de serre, de méthane notamment qui constitue 40 % des émissions de l’agriculture, mais aussi moins de nitrates dans l’eau et d’ammoniac dans l’air.

Remplacer une partie des protéines animales par des protéines végétales, des légumineuses (lentilles, pois chiche…), rendrait aussi notre alimentation plus riche en fibres dont nous manquons cruellement. En outre, consommer plus de légumineuses permettrait de diversifier les productions végétales, un levier clef pour l’agroécologie.

Réduire notre consommation de viande ne semble de plus pas aberrant d’un point de vue historique, car celle-ci a été multipliée par deux en un siècle (passant de 42 kg par an et par habitant en 1920 à 85 kg en 2020), et elle a augmenté de plus de 50 % depuis les années 1950.

Diversifier notre consommation

Par ailleurs, notre façon de manger de la viande a changé : aujourd’hui, plus de la moitié de la viande de bovin consommée est sous forme de burger ou de viande hachée, souvent dans des plats préparés, qui sont considérés comme des « bas morceaux ». Or ces produits sont majoritairement issus de races de vaches laitières (Holstein) en fin de carrière dont le prix est attractif. Ce mode de consommation est donc défavorable aux filières de races de vaches à viandes (Blonde d’Aquitaine, Charolaise, Limousine).

Le succès des steaks hachés et des burgers à bas prix est même tel que l’on se retrouve à importer l’équivalent 30 % de notre consommation de viande de bovin. Il en résulte d’une part une baisse de souveraineté alimentaire et d’autre part un déclassement des pièces nobles des races à viande, fragilisant ainsi les élevages de race à viande. Pour faire face à ces dérives, il serait plus judicieux de consommer moins de viande, mais tous les types de viande à l’échelle d’une année.

Modifier les pratiques d’élevage pour la santé et l’environnement

Si l’on regarde maintenant du côté des protéines contenues dans la viande bovine et les produits laitiers, une autre marge de progression est aussi possible. Elle concerne l’alimentation des animaux et son impact sur la composition des produits que nous consommons.

Les produits animaux fournissent des protéines de qualité car ils sont équilibrés en acides aminés. Ils contiennent aussi des acides gras poly-insaturés, indispensables à notre santé dont notre alimentation est très déficitaire. C’est le cas des oméga-3 dont le rôle anti-inflammatoire réduit le risque des maladies chroniques : diabète, cancers, maladies cardio-vasculaires…

Cependant, la composition du lait et de la viande en oméga-3 sont très dépendantes du mode d’alimentation des animaux. Une alimentation à l’herbe (pâturage, ensilage, foin) permet d’environ doubler la teneur du lait en oméga-3, en comparaison d’une alimentation de type maïs-soja, et permet ainsi de réduire significativement notre déficit en ce nutriment.

Le lait et la viande issus d’animaux nourris à l’herbe contribuent donc à une alimentation anti-inflammatoire. Cependant en France, seulement 1/3 du lait est issu d’une alimentation à l’herbe, qu’il s’agisse de pâturage, de foin ou d’ensilage d’herbe. L’élevage bio se distingue sur ce point car l’alimentation à l’herbe est privilégiée pour des raisons économiques. Mais cette différence de composition des produits reste encore mal connue du consommateur, qui pourra également privilégier le lait le moins cher, issu d’un élevage où les vaches ne pâturent pas ou peu.

Les prairies présentent en outre l’atout d’avoir des stocks de carbone importants dans les sols, si bien que les retourner pour les transformer en terres agricoles comme cela a été souvent fait correspond à une déforestation. Faire paître des vaches est donc un moyen de conserver les prairies. D’autre part, lorsqu’elles sont bien réparties dans les paysages, les prairies jouent un rôle d’infrastructure écologique permettant de réduire les pesticides. Lorsqu’elles sont en rotation avec les cultures (prairies temporaires avec légumineuses), elles permettent également de réduire le recours aux engrais azotés de synthèse.

Bien que les prairies constituent à l'origine la base de l’alimentation des vaches, en particulier pour les races à viande, leur contribution n’a cessé de baisser au cours des cinquante dernières années ; car l’apport de céréales (maïs ensilage, blé), et d’oléoprotéagineux (soja) dans leur alimentation était le moyen le plus facile d’augmenter la production par animal et par hectare. Cependant, les vaches et leurs descendances utilisent 3,7 millions d’hectares de terres arables dédiés à la production de ces céréales et de ce soja qu’il conviendrait d’utiliser à d’autres fins.

Des vaches qui pâturent plus permettraient également d’agir sur une des principales pollutions de l’élevage : les pertes importantes d’azote et de phosphore dans l’environnement du fait d’importations massives de protéines (soja) et d’une trop forte concentration géographique des élevages (par exemple en Bretagne).

Si, à l’échelle locale, on imagine que des éleveurs échangent le fumier riche en azote et en phosphore avec des agriculteurs qui pourraient eux, leur donner en retour les ratés de cultures pour nourrir les animaux, tout le monde pourrait être gagnant. Les agriculteurs auraient ainsi accès à des apports en azote et phosphore nécessaires à la croissance des cultures et pourraient ainsi réduire l’utilisation d’engrais, les agriculteurs eux, bénéficieraient d’une source d’alimentation à faible coût et locale pour leur bête.

Réorganiser les filières, du champ à l’assiette

Une autre évolution qui permettrait à l’élevage d’être plus durable concerne le changement de type de races bovines que l’on trouve en France. Il y a aujourd’hui 3,5 millions de vaches à viande contre 3,3 millions de vaches laitières. Or les recommandations pour la santé portent bien plus sur la réduction de la consommation de viande que de produits laitiers.

De même, on sait que la viande issue des troupeaux laitiers (vaches laitières de réformes) est bien moins impactante que celle issue de troupeaux à viande puisqu’à l’échelle de la carrière de la vache, les émissions de gaz à effet de serre sont réparties entre le lait et la viande.

Cela montre l’intérêt de favoriser des races mixtes produisant du lait et de la viande (comme la race normande) ou de croiser une race à viande (Angus) avec une race laitière. La viande devient alors un co-produit du lait permettant de satisfaire nos besoins.

Mais une telle orientation est bloquée par le choix fait en France où, lors de l’abandon des quotas laitiers, de nombreux troupeaux laitiers ont été convertis en troupeaux à viande (dit allaitants) avec des races spécialisées. Il en résulte un élevage spécialisé uniquement pour la viande, devenu très vulnérable : des races lourdes, coûteuses à entretenir et à nourrir et dont une partie de veaux mâles est engraissée en taurillons, une viande jeune, peu prisée par le consommateur français. La plupart de nos voisins de l’UE ont eux bien moins de vaches allaitantes et font de la viande à partir du troupeau laitier (veaux, génisses, vaches de réforme), donc à moindre coût en gaz à effet de serre et en euros.

Construire un nouveau pacte sociétal

Toutes ces données montrent la nécessité de fortes évolutions dans notre système alimentaire. En agriculture, il s’agit d’aller vers des races mixtes produisant du lait et de la viande, et de plus laisser pâturer les vaches pour valoriser les atouts des prairies qui représentent 40 % de la surface agricole. De manière concomitante, il faudrait aussi réduire significativement notre consommation de viande en privilégiant la diversité des pièces de viande, et un peu aussi celle de produits laitiers.

Ces orientations sont nécessaires pour relever trois grands défis : celui de notre santé, de notre environnement, mais aussi de notre souveraineté alimentaire. Elles permettraient en effet d’une part de réduire les importations de soja, mais aussi de viande qui résultent entre autres d’une faible baisse de consommation en comparaison d’une forte diminution de la production, et d’autre part d’allouer les terres arables libérées à des cultures stratégiques comme les légumes et légumineuses que nous ne consommons pas suffisamment et que nous importons massivement.

Pour construire ce pacte sociétal, il importe :

  • de sensibiliser tous les acteurs aux coûts cachés de l’alimentation : excès de la consommation de viande, présence de trop d’élevages sans lien au sol du fait d’une faible autonomie protéique.

  • de s’appuyer sur des évaluations multi-critères à même de prendre en compte les impacts négatifs de l’élevage tout autant que les services environnementaux fournis principalement par les prairies. Ceci nécessite aussi une meilleure rémunération des éleveurs par le citoyen et le consommateur pour la valeur santé des produits et les services environnementaux fournis. Mais pour cela, il faudrait s’assurer de la traçabilité des produits issus de ces élevages vertueux.

The Conversation

Michel Duru est membre des conseils scientifiques de Bleu Blanc Coeur et de Pour une Agriculture Du Vivant.

24.04.2025 à 12:34

Près d’un tiers des champignons recensés sont menacés d’extinction

Coline Deveautour, Enseignante-Chercheuse en Ecologie microbienne des sols, UniLaSalle

Les champignons ne sont ni des plantes ni des animaux, mais ils sont aussi menacés. Cette réalité reste difficile à évaluer avec précision, car les champignons demeurent, à bien des égards, très énigmatiques.
Texte intégral (2822 mots)
Quelques-uns des champignons présents en France, considérés comme en danger par la liste rouge des espèces menacées. De gauche à droite : bolet rubis (_Chalciporus rubinus_), lactaire des saules réticulés (_Lactarius salicis-reticulatae_), bolet des sables (_Gyroporus ammophilus_), bolet de plomb (_Imperator torosus_), tricholome brûlant (_Tricholoma aestuans_), bolet rose pastel (_Rubroboletus pulchrotinctus_). Wikicommons, CC BY

Combien de champignons sont menacés d’extinction ? Pour répondre à cette question il faut vite en poser plusieurs autres : combien y a-t-il d’espèces de champignons en tout ? Qu’est-ce qu’un champignon, au juste ?

Et de découvrir, au passage, le monde aussi mystérieux que fascinant de ce règne ni végétal ni animal.


Les champignons sont partout et pourtant si mal connus. Ce ne sont ni des plantes ni des animaux. Ainsi, à côté du règne végétal et du règne animal, ils forment leur propre règne qui abrite une grande richesse d’espèces et de formes de vie. Ils jouent un rôle fondamental dans le fonctionnement des écosystèmes et pour l’être humain. Beaucoup de champignons participent par exemple à la décomposition de la matière organique, qui permet le recyclage de la matière en rendant les nutriments à nouveau accessibles aux plantes.

Un grand nombre d’entre eux s’associent également à des plantes en échangeant directement des nutriments pour un bénéfice mutuel. D’autres sont comestibles ou sont utilisés pour la production de boissons et d’aliments grâce à la fermentation. Certains ont même la capacité d’extraire des polluants du sol par un processus que l’on nomme bioremédiation ou mycoremédiation.

La diversité est reine dans le règne des champignons. Wikimedia, CC BY

Dire combien d’espèces de champignons existent est une tâche difficile, car une grande partie n’est pas visible à l’œil nue. Beaucoup ne sont pas cultivables en laboratoire, ce qui rend encore plus complexe leur identification et description. Aujourd’hui, on connaît 155 000 espèces, mais certaines études estiment cependant qu’entre 2 millions et 4 millions d’espèces de champignons restent encore à découvrir et à identifier.

Un champignon, c’est quoi ?

Mais un champignon, qu’est-ce que c’est au juste ? Vaste question ! Le mot « champignon » est en fait souvent associé à l’image de la structure sortant du sol, avec son pied et son chapeau, ou accolée à un arbre, en forme d’oreille. Cependant, la majorité des espèces fongiques ne produisent pas ce type de structures. Chez les espèces qui en sont dotées, cette partie du champignon contient les spores sexuées. Son nom savant est le « sporophore ». En anglais, cette distinction apparaît, puisqu’il existe deux mots distincts : « mushroom », qui décrit les sporophores, soit donc cette partie présente sur certains champignons, et « fungus » qui décrit toutes les espèces appartenant à la classe Fungi.

Le reste du corps du champignon est rarement visible et il est bien particulier. C’est un réseau microscopique formé d’hyphes. Ces hyphes sont des cellules très allongées qui forment des sortes de tunnels de quelques microns de diamètre. Leur ensemble ramifié, nommé « mycélium », se développe dans le substrat sur lequel il pousse (dans le sol, sur le bois, sur les feuilles mortes…) pour y chercher et en extraire des nutriments.

Un champignon est donc un organisme unicellulaire (comme les levures) ou pluricellulaire qui se caractérise par une paroi cellulaire contenant de la chitine et des cellules reproductives (qu’on appelle spores) non mobiles.

Ce n’est pas une plante pour de nombreuses raisons : les champignons ne font pas de photosynthèse et n’ont pas de sève. La paroi cellulaire des plantes est composée de cellulose, et non de chitine.


Visuel d'illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu.

Abonnez-vous dès aujourd'hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


S’intéresser aux champignons, c’est entrer dans l’infiniment petit mais aussi l’infiniment grand. Ainsi, à la fin des années 1980, des scientifiques découvraient en Oregon (nord-ouest des États-Unis) un spécimen d’Armillaria gallica vieux de près de 2 500 ans dont le mycélium s’étend sur plus de 37 hectares.

Diversité morphologique de plusieurs champignons marins. Wikimedia, CC BY

Une liste rouge qui s’allonge

Pour savoir maintenant combien de champignons sont menacés, il faut regarder du côté de la liste rouge de l’UICN (Union internationale pour la conservation de la nature). C’est l’inventaire le plus complet, répertoriant les espèces et leur état de conservation. Sa première édition est publiée en 1964. Elle ne comporte alors que des mammifères et des oiseaux rares.

Concernant les champignons en France, il faudra attendre 2024 pour que le premier inventaire des champignons menacés soit publié par le comité français de l’UICN.

Le 27 mars dernier, la liste rouge mondiale a, elle, été actualisée pour inclure le statut de 1 300 espèces de champignons. Nous sommes loin des 155 000 espèces connues, mais les premières évaluations restent préoccupantes avec 411 espèces de champignons menacées d’extinction, soit près d’un tiers des espèces recensées.

Bien que ce nombre soit important, il est primordial de rappeler que, dû au manque d’informations, les espèces qu’on a estimées les plus vulnérables ont été répertoriées en premier afin de faciliter le développement de projets de conservation.

Certaines de ces espèces sont rares, et n’ont été détectées que dans des zones géographiques très restreintes. En France hexagonale et en Corse, la liste rouge s’étend à 79 espèces qui sont menacées et 39 espèces sous le statut de « quasi menacées ». Cette liste inclut des lichens, dont Buellia asterella, classée en danger critique, qui n’a pas été repérée sur le territoire depuis 1960. On retrouve aussi des champignons décomposeurs, comme c’est le cas de Laccariopsis mediterranea qui pousse dans les dunes côtières de la Méditerranée et dont les populations sont en fort déclin (d’approximativement 30 %, ces trente dernières années).

Des espèces forment des relations symbiotiques avec les plantes : les plantes fournissent des sucres issus de la photosynthèse, tandis que les champignons apportent des nutriments provenant du sol. Ces espèces sont aussi menacées ; par exemple, Cortinarius prasinocyaneus, champignon associé au chêne et au charme. En France, il est uniquement répertorié sur cinq sites.

Des menaces bien identifiées, les répercussions beaucoup moins

Si le monde des champignons reste à beaucoup d’égards mal connu, tout comme le nombre exact d’espèces vulnérables, une chose reste quant à elle certaine : les menaces qui pèsent sur ces espèces sont bien identifiées. On trouve le changement dans l’utilisation des terres, notamment avec la destruction d’habitats et la déforestation, les pollutions liées à l’urbanisation et à l’agriculture (fertilisation déraisonnée et pesticides). Le changement climatique s’additionne maintenant aux autres menaces qui pèsent sur les champignons.

Leur perte pourrait entraîner des modifications dans le fonctionnement des écosystèmes. De nombreux champignons participent à la décomposition, un processus important dans le cycle des nutriments. Dans le cas des espèces qui forment des relations symbiotiques avec les plantes, ces associations peuvent être très spécifiques avec des champignons ne pouvant s’associer qu’avec une ou deux espèces d’arbres. C’est le cas de Geomorium gamundiae, en Argentine et de Destuntzia rubra, en Chine et au Japon, des espèces en danger critique d’extinction à cause de la déforestation menaçant leur plante hôte.

Mais l’inverse pourrait également se produire : si le champignon était menacé, cela entraînerait des conséquences néfastes pour leur hôte.

La conservation des champignons : encore du chemin à faire

Contrairement à la faune et à la flore, il n’existe pas de plan de conservation pour les espèces fongiques.

Les connaissances sur ces organismes étant trop limitées pour qu’ils fassent partis des lois environnementales quand celles-ci ont émergé, ils ont été les grands oubliés des projets de conservation. Actuellement, le seul rempart de protection pour ces espèces est la protection et la conservation des habitats, par des directives tel que le réseau Natura 2000 dans l’Union européenne.

Des initiatives existent cependant pour promouvoir la recherche, la connaissance et l’inclusion des champignons dans la législation. De par leur ubiquité et leurs rôles dans l’écosystème, les champignons forment un règne tout aussi important que les plantes ou les animaux.

Il est donc primordial de les prendre en compte pour protéger les écosystèmes en intégrant la faune, la flore… et la fonge.

The Conversation

Coline Deveautour ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.04.2025 à 16:23

Stocker les grains en consommant moins d’énergie : et si le passé éclairait le futur ?

Anna Valduriez, Cheffe de projet de recherche participative: stockage de denrées alimentaires (pour le futur, à partir de méthodes ancestrales), Inrae

Dominique Desclaux, Chercheure en Agronomie et Génétique, Inrae

Jean-Michel Savoie, chercheur, Inrae

Marie-Françoise Samson, Chercheuse en biochimie alimentaire, Inrae

Maxime Guillaume, chercheur, Institut national de recherches archéologiques préventives (INRAP)

Tanguy Wibaut, chercheur, Institut national de recherches archéologiques préventives (INRAP)

Les menaces climatiques et géopolitiques invitent à repenser le stockage des grains et denrées de demain, en réexaminant notamment les techniques du passé.
Texte intégral (2438 mots)
Dès le Néolithique, l’humanité a pratiqué le stockage souterrain et en grenier, et ce, de manière individuelle ou collective. Marc Wieland/Unsplash, CC BY-SA

Les menaces climatiques et géopolitiques invitent à repenser le stockage des grains et autres denrées de demain, en réexaminant notamment les techniques du passé. Du stockage souterrain au silo en passant par le grenier, les pratiques qui ont existé en région méditerranéenne, du Néolithique à nos jours, peuvent nous éclairer sur la façon d’envisager le stockage des aliments à l’avenir.


Pourquoi stocker ? Qu’il s’agisse de denrées alimentaires, de données, ou d’énergie, la réponse est la même, « pour conserver de manière organisée, sécurisée, accessible ». Pour certains, stockage rime avec sécurisation, pour d’autres, avec spéculation. Dans tous les cas, lorsqu’il requiert des conditions particulières de température et d’hygrométrie, le stockage est énergivore.

Dans le cas des aliments, il est recommandé de les stocker à faible température pour limiter la prolifération de bactéries et autres microorganismes. Ainsi, la consommation électrique moyenne d’un réfrigérateur domestique (300 à 500 kWh/an) représente le quart des dépenses en énergie des ménages. Et si c’est le cas pour les ingrédients que nous conservons à la maison, les besoins à grande échelle du côté des producteurs sont d’autant plus importants.

Ici, c’est du stockage des grains (céréales et oléoprotéagineux), qui constituent la base de notre alimentation, dont il est question. Le stockage en région méditerranéenne, du Néolithique à nos jours, peut-il nous éclairer sur la façon d’envisager le stockage du futur ?

Le stockage, une pratique issue du Néolithique

Dès le Néolithique, l’humanité a pratiqué le stockage souterrain et en grenier, et ce, de manière individuelle ou collective. Cette méthode reste active ponctuellement dans certaines régions du monde, comme au Soudan, ou encore au Maroc et en Tunisie.

Schéma en coupe d’un silo souterrain expérimental en cours d’utilisation sur le site de l’Inrae à Alenya (Pyrénées-Orientales). Projet SilArchaeoBio, ANR-21-CE27-0013. DAO C. Dominguez, Fourni par l'auteur

En France, malgré quelques variations liées aux périodes et zones géographiques, ces silos enterrés ont généralement été creusés sous forme d’ampoule à la taille variable, que les archéologues de l’Inrap retrouvent régulièrement, notamment sur les sites médiévaux de Thuir (Pyrénées-Orientales), de Pennautier et de Montréal (Aude).

Silo souterrain expérimental, vu du dessus, en cours de fermeture. Trois capteurs sont immergés dans le grain pour contrôler à terme l’évolution de la température et de l’hygrométrie. Tanguy Wibaut, Fourni par l'auteur

C’est vers la fin du Moyen Âge que le stockage souterrain est délaissé en France au profit du grenier à grains. Les explications à cette évolution restent de l’ordre de l’hypothèse : l’une d’elles tient à une centralisation du pouvoir nécessitant un contrôle des quantités de blé et autres céréales que ne permet pas le silo enterré.

C’est seulement au XIXe siècle que la curiosité pour la méthode du stockage souterrain réapparaît et fait l’objet de nouvelles études par les agronomes.

Cet élan a toutefois été freiné par le contexte de la Première Guerre mondiale. Au début des années 1930, la crise de surproduction du blé donne naissance aux coopératives et au système de marché de négoce pour réguler la production.

Une partie des récoltes de blé est ainsi livrée aux centres de stockage coopératifs par les producteurs afin d’assurer l’échelonnage des ventes et la stabilisation du marché. Ce sont les premiers grands silos industriels, qui se développent surtout dans les années 1950.

Des silos de plus en plus sophistiqués

Désormais, les grains sont majoritairement apportés après récolte à des organismes stockeurs, mais on estime en France que 53 % des agriculteurs stockent également à la ferme.

Le stockage devant garantir une bonne conservation du grain, température et humidité sont contrôlées dans les silos : ce contrôle passe le plus souvent par la ventilation, mais aussi par refroidissement forcé afin d’éviter la prolifération d’insectes et de moisissures. Des insecticides autorisés sont souvent appliqués dès la réception des récoltes et un gazage des grains à la phosphine (PH3) est parfois pratiqué, sous conditions très sécurisées, pour prévenir les invasions d’insectes.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


En béton ou en métal, cylindriques ou rectangulaires, les silos visibles dans le Midi de la France varient en taille et en capacité : d’une hauteur de 25 à 30 mètres, ils peuvent accueillir de 200 à 12 000 tonnes par cellule.

Le plus haut silo du monde, Swissmill, est situé à Zurich : de 118 mètres de haut, il peut abriter 40 000 tonnes de blé. Plus les silos sont massifs, plus les besoins énergétiques pour assurer leur remplissage et leur ventilation sont conséquents… Ce que la hausse des températures n’arrange pas, engendrant un besoin en ventilation quasi continu. Une consommation d’énergie qui vient se surajouter aux impacts environnementaux liés au transport des céréales au long de la chaîne de production.

Certains agriculteurs s’équipent de silos à la ferme, mais nombreux sont ceux qui stockent dans des « big bag », sacs souples de grande contenance (de 500 kg à 2 tonnes) généralement en polypropylène. Sont également développés des « big bag Nox », hermétiques à double couche, qui créent une barrière physique empêchant l’entrée de ravageurs : en parallèle, l’injection de CO2 tue ceux déjà présents en les privant d’oxygène. Dans la même idée, on retrouve les silos hermétiques, qui n’ont connu qu’un faible développement en France en raison de leur coût.

Ces techniques utilisent les mêmes principes de stockage en atmosphère modifiée que ceux qui prévalaient pour les silos souterrains médiévaux.

Le stockage au défi des crises à venir

Changements climatiques, conflits politiques, crises de l’énergie et pandémies menacent la sécurité alimentaire, non seulement en matière de production, mais également de stockage. Ce dernier, s’il est défaillant, est en outre une source importante de gaspillage et de perte de denrées.

C’est de ce constat que découlent les recherches menées par le collectif LocaStock. Différents acteurs y expérimentent ensemble et développent une réflexion prospective autour de la question du stockage des grains et autres aliments.

Ainsi des archéologues tentent de retrouver les techniques de conservation au sein de silos rendus hermétiques. Des producteurs de céréales biologiques testent la pratique du stockage souterrain. En parallèle, des généticiens et agronomes fournissent la diversité génétique, et des pathologistes et biochimistes analysent la qualité sanitaire, nutritionnelle et organoleptique des grains stockés une fois qu’ils sont récupérés après plusieurs mois passés sous terre. Enfin, une régie de quartier défavorisé intéressée par le stockage de denrées alimentaires ainsi qu’un chef de projet facilitant les liens sciences-société sont également associés pour que les enjeux ne soient pas abordés que d’un point de vue uniquement technique.

Ce travail du projet LocaStock vise à imaginer et à expérimenter un stockage résilient des productions agricoles et alimentaires dans des conditions propres, saines, loyales, économes, sans impact sur l’environnement et adaptées au contexte actuel, ainsi qu’à définir dans quelle mesure les techniques ancestrales peuvent contribuer à apporter des réponses aux enjeux du présent et du futur.


Johan Friry de la régie de quartier Garros Services et Axel Wurtz du Biocivam de l’Aude ont contribué à la rédaction de cet article.

Pour participer à cette recherche de solutions résilientes de stockage et de préservation des produits agricoles et des aliments, de la ferme à la table, vous pouvez partager vos expériences et idées utopiques ou dystopiques à l’adresse locastock@mailo.com.

The Conversation

Anna Valduriez a reçu des financements de ANR pour ses recherches dans le projet LocaStock (ANR-2023-SSAI-0018).

Dominique Desclaux a reçu des financements de l'ANR SAPS pour ses recherches dans le projet Locastock .

Jean-Michel Savoie a reçu des financements de l'ANR pour un projet de recherches multidisciplinaire sur la conservation des grains de céréales dans des silos souterrains (SilArchaeoBio, ANR-21-CE27-0013) et pour le projet de Sciences Avec et Pour la Société LocaStock (ANR-2023-SSAI-0018)..

Marie-Françoise Samson a reçu des financements de l'ANR SAPS pour ses recherches dans le projet LocaStock.

Maxime Guillaume a reçu des financements de l'ANR pour un projet de recherches multidisciplinaire sur la conservation des grains de céréales dans des silos souterrains (SilArchaeoBio, ANR-21-CE27-0013) et pour le projet de Sciences Avec et Pour la Société LocaStock (ANR-2023-SSAI-0018).

Tanguy Wibaut a reçu des financements de l'ANR pour un projet de recherches multidisciplinaire sur la conservation des grains de céréales dans des silos souterrains (SilArchaeoBio, ANR-21-CE27-0013) et pour le projet de Sciences Avec et Pour la Société LocaStock (ANR-2023-SSAI-0018)..

22.04.2025 à 17:25

La technique de l’insecte stérile, alternative aux pesticides pour l’agriculture française ?

Simon Fellous, Directeur de recherche en écologie et agriculture, Inrae

Tasnime Adamjy, Doctorante en sociologie, Inrae

La technique de l’insecte stérile, qui permet de limiter la reproduction des insectes ravageurs, est envisagée en France. Peut-elle se substituer aux pesticides ?
Texte intégral (2679 mots)
Une mouche _Drosophila suzukii_ en train de pondre sur une cerise. Fourni par l'auteur

Par quoi remplacer les pesticides sans bouleverser la production agricole conventionnelle ? La technique de l’insecte stérile, qui permet de limiter la reproduction des insectes ravageurs, est envisagée en France. Mais elle ne saurait se substituer aux insecticides, dans la mesure où elle implique de revoir en profondeur le système de production et d’impliquer tous les acteurs de la filière.


« Pas d’interdiction de pesticide sans solution » : ce principe, mis en avant par certains syndicats agricoles, demande qu’aucun pesticide ne soit interdit en l’absence « d’une solution » alternative « économiquement viable ». L’objectif est de réduire le recours aux pesticides sans bouleverser la production agricole conventionnelle.

Toutefois, cet élément de langage, qui a l’apparence du bon sens, masque l’impossibilité de déployer les solutions alternatives sans reconception des systèmes agricoles.

La technique de l’insecte stérile (TIS), une des « solutions » aujourd’hui à l’étude, en est un cas d’école. Elle figure justement dans une proposition de loi visant à lever les contraintes environnementales pour les agriculteurs qui doit être examinée prochainement à l’Assemblée nationale.


À lire aussi : L’agriculture française à la croisée des chemins


Une méthode de contraception pour insectes

Cette technique repose sur la libération en grand nombre d’insectes mâles, élevés en captivité puis stérilisés par rayons ionisants (par exemple rayons X). Ces mâles s’accouplent avec les femelles sauvages de l’espèce ciblée, qui produisent ainsi des œufs non viables.

Lucilie bouchère (Cochliomyia hominivorax).

Depuis ses premiers pas en Amérique du Nord pour contrôler la Lucilie bouchère (Cochliomyia_hominivorax) dans les années 1950, cette technique été utilisée en agriculture dans de nombreux pays et sur diverses mouches, papillons ou coléoptères.

La TIS fait l’objet de recherche et développement en France métropolitaine, mais également à La Réunion et à l’étranger pour contrôler les moustiques, notamment les Aedes, vecteurs de maladies telles la dengue ou du chikungunya.

Les usages agricoles, en France hexagonale, concerneraient en premier lieu la mouche Drosophila suzukii, responsables de dégâts sur la cerise et les fruits rouges, la mouche méditerranéenne Ceratitis capitata et le carpocapse, à l’origine du proverbial « ver dans la pomme ».

Bien plus qu’une affaire de producteurs et de parcelles agricoles

Une des caractéristiques de la TIS est qu’elle est souvent déployée à large échelle. En Espagne, c’est toute la région de Valence qui reçoit chaque semaine plusieurs millions de mouches méditerranéennes stériles lâchées par avion.

Le programme, financé par le gouvernement régional, coûte huit millions d’euros par an et protège une industrie fruitière dont le chiffre d’affaires se situe aux alentours de 10 milliards d’euros annuels. Un tel programme, déployé à large échelle, implique de nombreux acteurs. La protection des cultures ne concerne plus seulement les agriculteurs mais également les habitants des territoires.

En France, le développement de la TIS s’est nourri de la collaboration entre les milieux scientifiques et les parties prenantes (organisations agricoles, ONG environnementales, industriels et représentants de l’État).


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


La question des effets non intentionnels de la TIS a très vite été posée au cours de ces discussions et a permis de lancer des programmes de recherche, toujours en cours aujourd’hui. Ces travaux sont d’autant plus importants que les risques environnementaux de la TIS sont encore mal documentés.

Les risques de la TIS pour l’environnement

La France est, peu ou prou, le premier pays à interroger formellement les possibles effets néfastes de la TIS sur l’environnement. L’absence actuelle de données, malgré l’ancienneté de la technique, peut s’expliquer par des a priori positifs sur son innocuité en raison de sa grande spécificité. Comme les mâles stériles ne s’accouplent généralement qu’avec les femelles de leur espèce, on attend peu d’effets sur les écosystèmes, contrairement aux insecticides qui sont toxiques pour de nombreuses espèces différentes.

Des moustiques prêts à être relâchés au Brésil pour lutter contre la dengue. Dean Calma/IAEA, CC BY-SA

Reste un paradoxe : les insectes relâchés ne sont jamais tous stériles à 100 %. Il arrive qu’une reproduction résiduelle soit possible avec des insectes sauvages. Il est donc préférable d’élever, de stériliser et de relâcher une population locale d’insectes, afin d’éviter d’introduire dans la population d’insectes à contrôler des gènes provenant d’une autre localité.

Enfin, les insectes stériles, relâchés en masse, peuvent transmettre leur microbiote aux insectes sauvages, notamment lors des accouplements. Cette possibilité est peu inquiétante, car les microbiotes des insectes d’élevage n’ont pas de raison d’être dangereux pour les humains ou pour l’environnement. Aucun effet néfaste notable sur l’environnement n’a été rapporté parmi les dizaines de programmes de TIS déployés dans monde.

Toutefois, le suivi postintroduction est important. Cela permet d’assurer la transparence vis-à-vis des différents acteurs et de pouvoir interrompre les lâchers en cas de doute.

Une alternative aux pesticides, mais pas dans les mêmes conditions

Comme pour l’immense majorité des leviers agroécologiques de gestion des insectes et maladies des plantes, la TIS seule ne pourra pas remplacer les pesticides chimiques. En effet, si les insecticides sont si simples à utiliser, c’est bien parce qu’ils tuent les insectes sans discrimination.

De ce fait, les enjeux sociaux et organisationnels autour de la TIS appliquée à la protection des cultures méritent toute notre attention. En effet, les leviers agroécologiques de biocontrôle, comme la TIS ou les insectes auxiliaires, n’ont d’effets que sur une partie du cycle de vie des insectes visés. Leur efficacité dépend donc aussi des conditions locales et des autres leviers éventuels mobilisés par les agriculteurs.

Une attention particulière aux organismes à contrôler (par exemple, au travers de suivis par piégeage dans et autour des parcelles agricoles) et une adaptation des pratiques mobilisées en fonction de ce suivi sont quelques-unes des clés du succès d’une production agricole sans insecticides.

Pour être opérationnelles, ces « solutions » doivent donc être combinées entre elles. Il s’agit d’une réalité assez éloignée du concept de substitution implicite dans la phrase « pas d’interdiction sans solution ». Définir ces combinaisons de leviers amène, dans la pratique, à reconcevoir les stratégies de production et de protection des cultures dans leur totalité.

Cette reconception ne peut se faire sans l’implication active des professionnels. Agriculteurs, paysans et autres professionnels du monde agricole sont les seuls à connaître les réalités et contraintes pratiques du terrain. Les acteurs de la R&D, de leur côté, peuvent accompagner et soutenir ces travaux de reconception, par exemple au travers d’apports méthodologiques.

D’autant plus que les insectes sont mobiles et n’ont que faire des limites cadastrales. De ce fait, la TIS est souvent déployée à des échelles très supérieures à celles des parcelles agricoles. La participation des riverains et d’autres utilisateurs des territoires est alors essentielle.

La collaboration avec les producteurs s’avère souvent bénéfique pour tous. L’exemple du programme de biocontrôle du carpocapse de la pomme mené au Canada en fournit un exemple éloquent.

Dans ce cadre, les riverains qui ont participé au suivi des populations d’insectes responsables des pertes agricoles ont co-financé le programme de TIS. Ils en ont retiré le bénéfice d’une exposition réduite aux pesticides, argument mis en avant dans leur offre touristique. Cet exemple montre que les alternatives aux pesticides ne sont pas seulement une affaire de scientifiques et/ou d’agriculteurs : de nombreux autres acteurs sont concernés et peuvent contribuer à leur élaboration.


À lire aussi : Le biocontrôle pour remplacer les pesticides : de la difficulté de changer les usages


Vers une TIS « à la française » ?

Comme l’ont montré les travaux de la chercheuse Aura Parmentier-Cajaiba, la question des formes organisationnelles est incontournable lorsqu’il s’agit de concevoir des alternatives aux pesticides. C’est en particulier vrai pour la TIS, qui est avant tout une méthode développée par des scientifiques.

Or, la façon dont sont conçus et financés les programmes menés par les organismes de R&D reste encore limitée par une conception linéaire de l’innovation. Ainsi, les connaissances sont transférées à des entreprises ou start-ups sans que des formes organisationnelles alternatives ne soient envisagées – et, encore moins, construites en collaboration avec les parties prenantes.

Ceci constitue une limite directe à l’adaptation des « solutions » aux réalités des territoires et filières concernés. Un modèle français pourrait s’inspirer de l’exemple du programme canadien exposé précédemment. La collaboration avec les riverains et les producteurs de pommes s’y joue sur le terrain et avec des incitations économiques. Une gouvernance partagée, entre agriculteurs et acteurs des territoires, avec l’appui d’industriels de la production d’insectes et de leur diffusion serait ainsi une piste prometteuse.

Cela montre aussi l’importance d’intégrer la concertation à l’approche « pas d’interdiction de pesticide sans solution ». En effet, il est impossible de substituer un seul levier agroécologique à une molécule chimique, car cela impose de revoir les systèmes agricoles et d’impliquer tous leurs acteurs.

Parallèlement, il apparaît irresponsable de développer des « solutions » sans réfléchir à leurs effets non intentionnels. Les risques que comportent les différentes méthodes doivent être étudiés et explicités par les scientifiques. À cet égard, une mise en débat citoyenne pour définir les modalités de déploiement des alternatives aux pesticides et orienter les transformations de l’agriculture semble incontournable.

The Conversation

Simon Fellous a reçu des financements de ANR, OFB, Région Occitane, Europe. Simon Fellous travaille avec les acteurs agricoles dans les territoires ou la TIS pourrait etre déployée. Il a travaillé avec Clelia Oliva, aujourd'hui à la tête de l'entreprise Terratis.

Tasnime Adamjy a reçu des financements de l'INRAE et de la Région Occitanie.

21.04.2025 à 19:33

Recycler les déchets plastiques et le CO₂ en nouveaux matériaux : une piste sérieuse pour le climat ?

Olivier Coulembier, Chercheur, Université de Mons

Un projet de recherche ambitionne de transformer les déchets plastiques en nouveaux matériaux pour la construction, tout en retirant du CO₂ de l’atmosphère.
Texte intégral (1887 mots)

Un projet de recherche ambitionne de transformer les déchets plastiques en nouveaux matériaux innovants à l’aide de réactions chimiques permettant de retirer du CO2 de l’atmosphère. État des lieux d’une piste encore jeune, mais déjà prometteuse.


Le plastique suscite de fréquents débats : pollution marine, recyclage… Omniprésents dans l’économie mondiale, leur production, leur utilisation et leur élimination représentent environ 4,5 % des émissions mondiales de gaz à effet de serre (GES), sans parler de leurs impacts sur la biodiversité marine.

Les appels à réduire leur usage se multiplient, mais une question persiste : les alternatives aux plastiques permettent-elles de réduire les émissions de GES au niveau global ? Un sac en papier, par exemple, bien qu’il semble plus écologique qu’un sac en plastique, peut engendrer jusqu’à trois fois plus d’émissions de GES sur l’ensemble de son cycle de vie. En parallèle du problème de plastique, les émissions de CO₂ continuent de croître au niveau mondial.

Et s’il était possible de faire d’une pierre deux coups, en valorisant à la fois les déchets plastiques et le CO2 pour les transformer en produits utiles, par exemple des matériaux de construction ? C’est l’objectif du programme de recherche Pluco (pour Plastic Waste Upcycling by CO₂ Valorization).

L’enjeu : concevoir de nouveaux matériaux piégeant du CO2 à partir de déchets plastiques, tout en s’assurant que ce CO2 soit très peu relâché à l’échelle humaine. On estime à 100 000 ans le temps pour que le CO2 incorporé à des matériaux de construction soit réémis dans l’atmosphère. Lorsqu’il est réutilisé pour l’industrie chimie ou pharmaceutique, ce délai est d’environ 10 ans, et même de seulement un an pour la production de carburant à partir de CO2, selon les estimations de l’Agence internationale de l’énergie.

Le recyclage des plastiques reste insuffisant

Le recyclage des plastiques repose aujourd’hui majoritairement sur des procédés mécaniques (tri, broyage, lavage). Ces derniers présentent plusieurs limites majeures :

  • Qualité dégradée : les plastiques recyclés perdent souvent jusqu’à 50 % de leurs propriétés mécaniques (souplesse, rigidité, propriétés barrières notamment au gaz…), ce qui limite leur réutilisation. Une bouteille d’eau gazeuse recyclée ne permettant pas de retenir le gaz carbonique ne présenterait que peu d’intérêt.

  • Coûts élevés : ces procédés sont énergivores, avec un coût moyen de recyclage avoisinant 400 à 500 euros par tonne.

  • Émissions de CO2 : environ deux kilogrammes de CO2 sont émis pour chaque kilogramme de plastique recyclé mécaniquement, du fait de l’énergie utilisée pour le tri mécanique.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Bien que ces techniques permettent une réduction partielle des émissions, elles restent loin d’être idéales. À l’inverse, le recyclage chimique, notamment par solvolyse – c’est-à-dire, par dissolution à l’aide d’un solvant –, ouvre la voie à des économies substantielles pouvant atteindre 65 à 75 % de réduction des émissions de CO₂.

Des solvants verts pour transformer les plastiques ?

La solvolyse est une technique de traitement qui permet de décomposer les plastiques inertes comme les polyoléfines (un des types de polymères plastiques les plus courants) pour les transformer en matériaux fonctionnels. Par exemple, le PET, utilisé dans des produits courants comme les bouteilles plastiques et les fibres textiles, peut être recyclé par solvolyse pour produire de l’éthylène glycol. Bien connu pour son rôle d’antigel dans les radiateurs de voiture, il peut également être réutilisé dans la production de nouveaux produits en PET, contribuant ainsi à la réduction des déchets plastiques et à la réutilisation de matériaux.

Selon ce procédé, une tonne de plastique traité peut produire jusqu’à 800 kg de matières premières réutilisables, tout en économisant trois à six tonnes de CO₂ par rapport aux procédés traditionnels.

Autre axe d’amélioration en dehors des procédés eux-mêmes : le remplacement des catalyseurs métalliques par des catalyseurs organiques afin de les rendre plus respectueux de l’environnement sans recourir aux métaux lourds utilisés dans les catalyseurs traditionnels.

La toxicité potentielle des catalyseurs métalliques pose en effet problème, notamment en ce qui concerne l’utilisation de métaux lourds comme le palladium, le platine ou le nickel. Ces métaux peuvent entraîner des risques pour la santé et l’environnement, notamment en cas de contamination des sols ou des eaux. Des études montrent que leur accumulation dans les écosystèmes peut avoir des effets délétères sur la biodiversité et les chaînes alimentaires.

C’est justement cette voie que nous explorons dans nos recherches, en valorisant le CO2 comme une véritable brique de construction chimique.

Le CO₂, une ressource chimique sous-exploitée

L’une des voies que nous explorons est la transformation du CO2 en produits carbonatés. Ces derniers trouvent des applications industrielles variées comme les batteries, les plastiques biodégradables ou encore les revêtements. Cette approche représente une alternative durable aux produits dérivés du pétrole, et permet de convertir pas moins de 500 kg de CO2 par tonne de dérivés carbonatés produits.

Notre approche consiste à tirer parti des catalyseurs organiques pour permettre à ces réactions de survenir dans des conditions plus simples et à des températures plus modérées. Nous travaillons également sur l’ajout de CO2 dans des plastiques recyclés pour produire de nouveaux matériaux utiles, par exemple dans le domaine de la construction.

Ces deux approches combinées – revalorisation du CO2 et des plastiques – ouvrent ainsi la voie à des applications industrielles variées dans les secteurs de l’emballage, de la construction et même de la santé. L’objectif de Pluco est de démontrer la faisabilité de ces procédés à l’échelle industrielle et leur intérêt tant économique qu’en matière de durabilité.

Vers un recyclage plus décentralisé

Aujourd’hui, le recyclage des plastiques repose sur un nombre limité d’usines centralisées, comme en Belgique où seules quelques infrastructures traitent l’ensemble des déchets plastiques du pays. Pourtant, les déchets plastiques et les émissions de CO2 sont un problème global, présent dans toutes les régions du globe.

Grâce à sa flexibilité et à son efficacité, la technologie que nous développons avec Pluco pourrait favoriser un recyclage plus décentralisé. Plutôt que de concentrer le traitement des déchets sur quelques sites industriels, il deviendrait envisageable de mettre en place des unités de transformation locales, installées directement là où les déchets sont produits.

Par exemple, des lignes d’extrusion réactive – système qui permet de transformer des plastiques à des températures plus basses que celles utilisées dans les procédés de recyclage classique – pourraient être déployées dans divers contextes industriels et géographiques, réduisant ainsi le besoin de transport des déchets et maximisant l’impact environnemental positif du procédé.

Ce procédé est une technologie bien connue, facile à mettre en œuvre et localisable partout dans le monde. En travaillant à des températures où les plastiques deviennent suffisamment souples pour être transformés sans fondre complètement, il permet de modifier les propriétés du plastique tout en préservant sa structure. Cela permet notamment d’intégrer dans leur structure des molécules ayant été préparées par catalyse organique directement à partir de CO2. De quoi créer de nouveaux matériaux tout en facilitant le recyclage de manière plus économe en énergie.

Au-delà de l’aspect écologique, cette approche pourrait aussi générer de nouvelles opportunités économiques en termes d’économie circulaire, en permettant à des acteurs locaux d’exploiter ces technologies et de créer de la valeur à partir de ressources considérées jusqu’ici comme des polluants.

Le programme Pluco ouvre donc la voie vers un recyclage à empreinte carbone nulle, voire négative. Cette approche unique, qui transforme deux menaces environnementales en ressources précieuses, démontre que la chimie verte peut jouer un rôle central dans la transition écologique. Il ne s’agit pas seulement de recycler mieux, mais de redéfinir les bases mêmes du recyclage pour un impact positif et durable sur la planète.


Créé en 2007 pour accélérer et partager les connaissances scientifiques sur les grands enjeux sociétaux, le Fonds Axa pour la Recherche a soutenu près de 700 projets dans le monde entier, menés par des chercheurs originaires de 38 pays. Pour en savoir plus, consultez le site Axa Research Fund ou suivez-nous sur X @AXAResearchFund.

The Conversation

Olivier Coulembier a reçu des financements du Fonds National de la Recherche Scientifique (F.R.S.-FNRS), notamment à travers des projets PDR, MIS et EOS. Il a également bénéficié de financements européens via H2020 et M-ERA.NET, ainsi que du soutien de la Chaire de Recherche AXA.

19.04.2025 à 15:56

Pourquoi le prix de votre chocolat préféré va continuer d’augmenter

Narcisa Pricope, Professor of Geography and Land Systems Science and Associate Vice President for Research, Mississippi State University

L’aridité se propage silencieusement dans de nombreuses régions productrices de cacao. Comment éviter que le chocolat ne devienne un produit de luxe ?
Texte intégral (3231 mots)
Les prix du chocolat ont grimpé en flèche dans un contexte de sécheresse intense en Afrique. Rimma Bondarenko/Shutterstock

Pâques s’accompagne de chocolat (que l’on soit croyant ou non). Une tradition qui pourrait vite devenir un luxe. Avec le réchauffement climatique, son prix ne cesse d’augmenter. En cause : l’aridité qui se propage silencieusement dans de nombreuses régions productrices de cacao. Heureusement, des solutions existent.


Le nord-est du Brésil, l’une des principales régions productrices de cacao au monde, est aux prises avec une aridité croissante –, un assèchement lent mais implacable des terres. Le cacao est fabriqué à partir des fèves du cacaoyer, petit arbre à feuille prospérant dans les climats humides. La culture est en difficulté dans ces régions desséchées, tout comme les agriculteurs qui la cultivent.

Ce n’est pas seulement l’histoire du Brésil. En Afrique de l’Ouest, où 70 % du cacao mondial est cultivé, ainsi qu’en Amérique et en Asie du Sud-Est, les variations des niveaux d’humidité menacent l’équilibre délicat nécessaire à la production. Ces régions, abritant écosystèmes dynamiques et greniers à blé mondiaux, sont en première ligne de la progression lente mais implacable de l’aridité.

Causes de l’aridité

Au cours des trente dernières années, plus des trois quarts des surfaces la Terre est devenue plus sèche. Un rapport récent que j’ai aidé à coordonner pour la Convention des Nations unies sur la lutte contre la désertification a révélé que les terres arides couvrent maintenant 41 % des terres mondiales. Cette superficie s’est étendue de près de 4,3 millions de kilomètres carrés au cours de ces trois décennies – plus de huit fois la taille de la France.

Cette sécheresse rampante n’est pas seulement un phénomène climatique. Il s’agit d’une transformation à long terme qui peut être irréversible… avec des conséquences dévastatrices pour les écosystèmes, l’agriculture et les moyens de subsistance dans le monde entier.

Un agriculteur colombien tient une cabosse de cacao qui contient les ingrédients clés du chocolat
Un agriculteur colombien tient une cabosse de cacao, qui contient les ingrédients clés du chocolat. 2017CIAT/NeilPalmer, CC BY-NC-SA

L’aridité, bien que souvent considérée comme un phénomène purement climatique, est le résultat d’une interaction complexe entre des facteurs anthropiques – dus à l’existence et à la présence d’humains. Il s’agit notamment des émissions de gaz à effet de serre, des pratiques d’utilisation des terres et de la dégradation des ressources naturelles critiques, telles que les sols et la biodiversité.

Ces forces interconnectées ont accéléré la transformation de paysages autrefois productifs en régions de plus en plus arides.

Changement climatique

Le changement climatique d’origine humaine est le principal moteur de l’aridité croissante.

Les émissions de gaz à effet de serre augmentent les températures mondiales, notamment en raison de la combustion de combustibles fossiles et de la déforestation. La hausse des températures, à son tour, provoque l’évaporation de l’humidité à un rythme plus rapide. Cette évaporation accrue réduit l’humidité du sol et des plantes, ce qui exacerbe la pénurie d’eau, même dans les régions où les précipitations sont modérées.

Les graphiques montrent la sécheresse de ces dernières années et l’augmentation des populations dans les zones arides
Le nombre de personnes vivant dans les régions arides a augmenté sur chaque continent au cours des dernières années – 1971-2020. UNCCD

L’aridité a commencé à s’accélérer à l’échelle mondiale dans les années 1950, et le monde a connu un changement prononcé au cours des trois dernières décennies.

Ce processus est particulièrement marqué dans les régions déjà sujettes à la sécheresse, telles que la région du Sahel en Afrique et la Méditerranée. Dans ces régions, la réduction des précipitations – combinée à l’augmentation de l’évaporation – crée une boucle de rétroaction : les sols plus secs absorbent moins de chaleur, laissant l’atmosphère plus chaude et intensifiant les conditions arides.

Utilisation non durable des terres

L’aridité est également influencée par la façon dont les gens utilisent et gèrent les terres.

Les pratiques agricoles non durables, le surpâturage et la déforestation dépouillent les sols de leur couverture végétale protectrice, les rendant vulnérables à l’érosion. Les techniques d’agriculture industrielle privilégient souvent les rendements à court terme, plutôt que la durabilité à long terme, en appauvrissant les nutriments et la matière organique essentiels pour des sols sains.

Une femme tient des légumes dans ses mains, dans un champ sec et peu peuplé
L’aridité peut affecter la production de nombreuses cultures. De grandes parties du Tchad, que l’on voit ici, ont des terres en voie d’assèchement. United Nations Chad, CC BY-NC-SA

Au nord-est du Brésil, la déforestation perturbe les cycles locaux de l’eau et expose les sols à la dégradation. Sans végétation pour l’ancrer, la couche arable – essentielle à la croissance des plantes – est emportée par les pluies ou est emportée par les vents, emportant avec elle des nutriments vitaux.

Ces changements créent un cercle vicieux : les sols dégradés retiennent également moins d’eau et entraînent plus de ruissellement, ce qui réduit la capacité de récupération des terres.

Lien entre le sol et la biodiversité

Le sol, souvent négligé dans les discussions sur la résilience climatique, joue un rôle essentiel dans l’atténuation de l’aridité.

Les sols sains agissent comme des réservoirs, stockant l’eau et les nutriments dont les plantes dépendent. Ils soutiennent également la biodiversité souterraine et aérienne. Une seule cuillère à café de sol contient des milliards de micro-organismes qui aident à recycler les nutriments et à maintenir l’équilibre écologique.

À mesure que les sols se dégradent sous l’effet de l’aridité et de la mauvaise gestion, cette biodiversité diminue. Les communautés microbiennes, essentielles au cycle des nutriments et à la santé des plantes, déclinent. Lorsque les sols se compactent et perdent de la matière organique, la capacité de la terre à retenir l’eau diminue, ce qui la rend encore plus susceptible de se dessécher.

La perte de santé des sols crée des effets en cascade qui sapent les écosystèmes, la productivité agricole et la sécurité alimentaire.

Crises de sécurité alimentaire imminentes

Le cacao n’est qu’une des cultures touchées par l’empiètement de l’aridité croissante.

D’autres zones agricoles clés, y compris les greniers à blé du monde, sont également à risque. En Méditerranée, au Sahel africain et dans certaines parties de l’Ouest américain, l’aridité mine déjà l’agriculture et la biodiversité.

D’ici 2100, jusqu’à 5 milliards de personnes pourraient vivre dans les zones arides, soit près du double de la population actuelle de ces zones. Les raisons : la croissance démographique et l’expansion des zones arides à mesure que la planète se réchauffe. Cela exerce une pression immense sur les systèmes alimentaires. Elle peut également accélérer les migrations, car la baisse de la productivité agricole, la pénurie d’eau et l’aggravation des conditions de vie obligent les populations rurales à se déplacer à la recherche d’opportunités.

Une carte montre de vastes zones sèches dans l’ouest des États-Unis, en Afrique, en Australie, en Asie et dans certaines parties de l’Amérique du Sud
Une carte montre l’aridité moyenne de 1981 à 2010. UNCCD

Les écosystèmes sont mis à rude épreuve par la diminution des ressources en eau. La faune migre ou meurt, et les espèces végétales adaptées à des conditions plus humides ne peuvent pas survivre. Les prairies délicates du Sahel, par exemple, cèdent rapidement la place aux arbustes du désert.

À l’échelle mondiale, les pertes économiques liées à l’aridification sont vertigineuses. En Afrique, l’aridité croissante a contribué à une baisse de 12 % du produit intérieur brut de 1990 à 2015. Les tempêtes de sable et de poussière, les incendies de forêt et la pénurie d’eau pèsent davantage sur les gouvernements, exacerbant la pauvreté et les crises sanitaires dans les régions les plus touchées.

La voie à suivre

L’aridité n’est pas une fatalité et ses effets ne sont totalement irréversibles. Mais des efforts mondiaux coordonnés sont essentiels pour freiner sa progression.

Les pays peuvent travailler ensemble à la restauration des terres dégradées en protégeant et en restaurant les écosystèmes, en améliorant la santé des sols et en encourageant les méthodes agricoles durables.

Les communautés peuvent gérer l’eau plus efficacement grâce à la collecte des eaux de pluie et à des systèmes d’irrigation avancés qui optimisent l’utilisation de l’eau. Les gouvernements peuvent réduire les facteurs du changement climatique en investissant dans les énergies renouvelables.

La poursuite de la collaboration internationale, y compris avec les entreprises, peut aider à partager les technologies pour rendre ces actions plus efficaces et disponibles dans le monde entier.

Pendant que vous savourez du chocolat en cette fête de Pâques, souvenez-vous des écosystèmes fragiles qui se cachent derrière. Au début de l’année 2025, le prix du cacao était proche de son plus haut niveau historique, en partie à cause des conditions sèches en Afrique.

En l’absence d’une action urgente pour lutter contre l’aridité, ce scénario pourrait devenir plus courant, et le cacao – et les concoctions sucrées qui en découlent – pourrait bien devenir un luxe rare.

The Conversation

Narcisa Pricope est membre de l'interface science-politique de la Convention des Nations unies sur la lutte contre la désertification (UNCCD), qui s'efforce de traduire les résultats et les évaluations scientifiques en recommandations pertinentes pour les politiques, notamment en collaborant avec différents groupes et organismes scientifiques.

17.04.2025 à 16:29

Le changement climatique suffit-il à expliquer la surchauffe de l’océan Atlantique Nord en 2023 ?

Guinaldo Thibault, Research scientist, Météo France

Aurélien Liné, Climatologue, Toulouse INP

Christophe Cassou, Climatologue, chargé de recherche CNRS au laboratoire « sciences de l’univers », Cerfacs

Jean-Baptiste Sallée, Océanographe, Sorbonne Université

Les températures records observées à la surface de l’Atlantique Nord en 2023 témoignaient-elles d’un emballement du changement climatique ? Une étude a répondu à cette question.
Texte intégral (2571 mots)

Les températures records observées à la surface de l’Atlantique Nord en 2023 ont fait couler beaucoup d’encre. Témoignent-elles réellement, comme on a alors pu le lire, d’un emballement du changement climatique ? Dans une récente étude, quatre chercheurs français répondent à cette question.


L’océan Atlantique Nord est bien plus qu’une vaste étendue d’eau entre l’Europe et l’Amérique. Cet océan est composé d’une région tropicale propice au développement des cyclones tropicaux et d’une région de moyennes latitudes, jouant un rôle crucial dans la régulation du climat européen et mondial.

  • En hiver, il conditionne la trajectoire des tempêtes qui traversent l’Europe et influence la douceur ou la rigueur des saisons froides.

  • En été, il module la fréquence des vagues de chaleur et influence l’humidité disponible dans l’atmosphère, jouant sur les épisodes de sécheresse ou les précipitations extrêmes.

La circulation méridienne de retournement de l’Atlantique (AMOC) se comporte comme un gigantesque tapis roulant océanique qui distribue la chaleur à travers les océans de planète. © Jonathan Baker (Met Office) and co-authors, CC BY 4.0; Continued Atlantic overturning circulation even under climate extremes

Il est également un acteur central du système climatique global via la circulation méridienne de retournement de l’Atlantique (AMOC), un gigantesque tapis roulant océanique qui régule la répartition de chaleur sur la planète en transportant l’excédent de chaleur des tropiques vers les hautes latitudes.

Cette zone océanique fait partie des régions connaissant les tendances de réchauffement les plus marquées depuis 1991, avec un maximum observé entre les latitudes de 10°N et de 40°N.

Depuis mai 2023, cette région océanique a connu des températures de surface jamais enregistrées auparavant. Ce phénomène a suscité de nombreuses interrogations : s’agissait-il d’un simple accident climatique ? D’un signal inquiétant d’une accélération du réchauffement global ? Les modèles climatiques nous permettent-ils de comprendre un tel événement ou sommes-nous entrés dans un nouveau régime climatique qui nous demanderait de reconsidérer la fiabilité de nos projections climatiques ?

Dans une étude récemment publiée, nous avons voulu apporter une réponse de fond à ces interrogations. À partir d’une analyse détaillée d’observations et de modèles climatiques, nous montrons que l’année 2023 a été une année exceptionnelle, mais malgré tout plausible dans le cadre du changement climatique actuel.

Autrement dit, cet extrême de température de surface de l’Atlantique Nord s’inscrit dans un cadre physique bien compris, qui aurait été impossible sans changement climatique.


À lire aussi : Les océans surchauffent, voici ce que cela signifie pour l’humain et les écosystèmes du monde entier


2023 : une année record, mais pas un mystère

Au cours des dernières années, l’Atlantique Nord a régulièrement établi de nouveaux records de température de surface. Les précédents records datant de 2022 ont surpassé ceux de 2021 et 2020. Cette tendance récurrente témoigne de la manifestation évidente du réchauffement de l’océan, une conséquence directe du réchauffement global causé par les activités humaines.

L’Atlantique Nord a battu plusieurs records de température en 2023. Dès le mois de mars 2023, la température de surface de la mer (TSM) de l’Atlantique Nord a commencé à dépasser les moyennes historiques, atteignant +0,74 °C d’anomalie par rapport à la période de référence 1991-2020. En juillet 2023, celle-ci atteignait +1,23 °C.

C’est surtout la brutalité de ce réchauffement qui a intrigué, avec une hausse record entre les mois de mai 2023 et de juin 2023 qui a conduit à des événements extrêmes. Notamment des vagues de chaleur marines particulièrement intenses dans le golfe de Gascogne, la mer Celtique et la mer du Nord, où les températures ont été jusqu’à 5 °C supérieures à la normale.

Des interactions cruciales entre l’océan et l’atmosphère

Nous avons analysé les conditions atmosphériques de la période mai-juin 2023. Celles-ci représentent une phase extrême de variabilité naturelle atmosphérique, avec une configuration propice à une réduction record des alizés sur la bande tropicale et un blocage anticyclonique persistant sur les îles Britanniques.

Ces événements combinés ont abouti à un excédent de chaleur à la surface de l’océan sur une région en forme de fer à cheval à l’échelle du bassin.

Concrètement, la situation à grande échelle a d’abord été marquée par un affaiblissement des vents d’ouest aux moyennes latitudes. En 2023, la circulation atmosphérique a été marquée par une phase négative de l’oscillation Nord-Atlantique (NAO), une situation où les vents d’ouest aux moyennes latitudes sont plus faibles que d’habitude.

Cet affaiblissement a eu plusieurs effets sur l’océan Atlantique Nord :

  • Moins de mélange vertical : sans les vents habituels, la surface de l’océan est moins brassée avec les eaux plus froides en profondeur.

  • Moins d’évaporation : un vent plus faible limite la perte de chaleur par évaporation, ce qui accentue le réchauffement.

Une autre conséquence de la réduction des alizés a été la réduction de la couverture nuageuse sur l’Atlantique Nord. Moins de nuages signifie plus de rayonnement solaire atteignant directement la surface de l’océan, renforçant encore le réchauffement.

En juin 2023, la configuration météorologique aux latitudes moyennes a basculé vers un régime de blocage atlantique, c’est-à-dire un mode de variabilité atmosphérique où un anticyclone se retrouve bloqué et devient persistant sur les îles Britanniques.

Cela génère un dôme de chaleur dans la partie nord-est du bassin atlantique.

Ce phénomène a empêché les échanges atmosphériques qui permettent habituellement de réguler les températures, le brassage océanique vertical, et a contribué à maintenir des températures de surface élevées sur une longue période.

La stratification océanique, un amplificateur clé

Pour comprendre cet épisode extrême, un élément essentiel est la stratification océanique. En effet, l’océan est composé de plusieurs couches, la surface étant chauffée par le soleil tandis que les couches profondes restent plus froides et se réchauffent à un rythme plus lent. Normalement, des échanges verticaux permettent à la chaleur de se dissiper vers le fond, évitant ainsi une surchauffe trop rapide de la surface.

Or, avec le réchauffement climatique, les couches supérieures de l’Atlantique Nord accumulent de plus en plus de chaleur. Cette accumulation rend l’océan plus stratifié, c’est-à-dire que le mélange des eaux chaudes de surface avec les couches plus profondes est plus difficile.

En 2023, en réponse au changement climatique d’origine humaine, la stratification était à un niveau record en Atlantique Nord, rendant la surface océanique particulièrement sensible aux conditions atmosphériques. Plus de stratification signifie que la chaleur piégée en surface y reste plus longtemps, amplifiant l’impact des forçages atmosphériques.

Une analogie, pour comprendre, serait de songer à un couvercle placé sur une casserole afin que l’eau chauffe plus vite. Ici, les échanges avec les couches plus profondes et froides sont bloqués, et comme on observe un apport d’énergie important depuis l’atmosphère, cette énergie reste en surface. Son impact est amplifié, car elle se concentre dans les couches de surface.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Concrètement, l’Atlantique Nord s’est donc retrouvé préconditionné par le changement climatique dans une situation où la configuration atmosphérique particulière décrite plus haut – une période de vents plus faibles et d’augmentation du rayonnement solaire – s’est traduite par un réchauffement rapide et intense de la surface océanique.

Un événement imprévisible pour les modèles ?

Devant l’ampleur de l’événement, plusieurs questions se sont posées : les modèles climatiques sont-ils capables de simuler de tels extrêmes ? Sommes-nous limités dans notre capacité à modéliser et prévoir ces événements pour définir au mieux nos stratégies d’adaptation ?

Les simulations issues des modèles climatiques internationaux (qui participant aux exercices de projection climatiques utilisés notamment par le Giec) montrent que oui, cet événement était bien possible et même attendu, mais seulement dans un contexte de réchauffement climatique d’origine anthropique.

Selon ces modèles, un réchauffement de cette ampleur a une période de retour d’environ 10 ans sur l’ensemble de l’Atlantique Nord, ce qui signifie que dans le climat actuel, un tel événement a environ 10 % de chances de se produire chaque année.

La configuration régionale particulière de 2023 (le fameux « fer à cheval ») est en revanche plus rare, avec une période de retour de l’ordre de 100 ans.

Autrement dit, 2023 est un événement rare, mais pas impossible. Cette conclusion est essentielle : il n’y a pas eu d’emballement climatique ou d’accélération inattendue. Nous restons dans le cadre d’une variabilité climatique amplifiée par le réchauffement global, conforme aux projections des modèles climatiques.

D’autres hypothèses avaient été formulées en 2023. En 2020, une importante régulation internationale a permis de drastiquement réduire la pollution des navires, assurant ainsi une nette amélioration de la qualité de l’air. Une telle réduction de la pollution a toutefois eu un effet réchauffant à court terme sur le climat, car cette pollution est constituée d’aérosols ayant un « effet parasol » limitant la quantité de chaleur atteignant la surface des océans.

De nombreuses questions ont été posées sur la possible contribution de cette régulation internationale sur le développement de l’événement extrême de chaleur de 2023. Dans cette étude, nous n’avons pas directement analysé l’effet de cette mesure et de la forte réduction en aérosols soufrés, mais nous avons toutefois montré que les modèles climatiques sont capables de reproduire l’événement extrême de 2023 sans devoir prendre en compte cette réduction drastique de l’émission d’aérosols.

Si cet effet a pu contribuer légèrement au réchauffement en réduisant la quantité de particules réfléchissant le rayonnement solaire, il ne semble pas en être la cause principale.

Un extrême prévisible dans un monde plus chaud

L’année 2023 restera une année record pour l’Atlantique Nord, mais elle ne marque pas un changement de paradigme. Cet événement s’inscrit dans un cadre physique compris et anticipé par les modèles climatiques. L’événement de 2023 s’explique avant tout par la variabilité naturelle des conditions atmosphériques qui a joué le rôle d’étincelle, et qui a mis le feu aux poudres. En l’occurrence, à un océan très stratifié par le changement climatique d’origine humaine.

Ce cas illustre aussi l’importance d’une communication scientifique rigoureuse :

  • il faut éviter les effets d’annonces catastrophistes qui pourraient laisser croire à une rupture soudaine du climat ou un emballement,

  • il faut toutefois reconnaître l’ampleur du changement en cours et l’impact grandissant du réchauffement climatique sur les événements extrêmes,

  • enfin, il est nécessaire de construire des scénarios d’adaptation et d’atténuation cohérents dans leur prise en compte des événements extrêmes, seuls ou combinés les uns aux autres.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

17.04.2025 à 12:53

Les premières images d’un calamar colossal dans les fonds marins prises par des scientifiques

Kat Bolstad, Associate Professor of Environmental Science, Auckland University of Technology

Les premières images attestées d’un calamar colossal juvénile dans son habitat naturel montrent un animal délicat et gracieux, aux antipodes du cliché de « monstre », trop répandu.
Texte intégral (1383 mots)

Les premières images attestées d’un calamar colossal juvénile dans son habitat naturel montrent un animal délicat et gracieux, aux antipodes du cliché de « monstre », trop répandu.


Le calamar colossal (Mesonychoteuthis hamiltoni) est une espèce qui a été décrite pour la première fois en 1925 à partir de restes de spécimens trouvés dans l’estomac d’un cachalot pêché à des fins commerciales. Un siècle plus tard, une expédition a permis de capturer les premières images attestées de cette espèce dans son habitat naturel. Elle nous montre un spécimen juvénile de 30 centimètres, à une profondeur de 600 mètres, près des îles Sandwich du Sud, à mi-chemin entre l’Argentine et l’Antarctique.

Une fois adultes, les calamars colossaux peuvent cependant atteindre jusqu’à sept mètres et peser jusqu’à 500 kilogrammes, ce qui en fait les invertébrés les plus lourds de la planète. Mais l’on sait encore très peu de choses sur leur cycle de vie.

Première observation d’un calamar colossal juvénile dans son environnement naturel. Crédit : Schmidt Ocean Institute.

Ces images inédites d’un jeune calamar colossal dans une colonne d’eau sont le fruit d’un heureux hasard, comme c’est souvent le cas dans l’étude de ces calamars d’eau profonde.

Elles sont apparues lors de la diffusion en direct d’un véhicule télécommandé dans le cadre de l’expédition de la Schmidt Ocean Institute et d’Ocean Census, partie à la recherche de nouvelles espèces et de nouveaux habitats en eaux profondes dans l’Atlantique sud, principalement sur les fonds marins.

Ceux qui étaient derrière l’écran ont alors eu la chance de voir un calamar colossal vivant dans son habitat en eaux profondes, bien que son identité n’ait été confirmée qu’ultérieurement, lorsque des images en haute définition ont pu être visionnées.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Jusque-là, notre meilleure source d’information sur les calamars colossaux était les baleines et les oiseaux marins car ils sont bien plus doués que nous pour les trouver.

De fait, il faut avoir en tête que les calamars colossaux, qui vivent dans un immense environnement sombre et tridimensionnel, nous évitent sans doute activement, ce qui explique en partie pourquoi nous venons seulement de filmer cette espèce dans son habitat naturel.

Car la plupart de nos équipements d’exploration des grands fonds sont volumineux, bruyants et utilisent des lumières vives lorsque nous essayons de filmer ces animaux. Or, le calamar colossal peut, lui, détecter et éviter jusqu’aux cachalots en plongée, qui produisent probablement un signal lumineux puissant lorsqu’ils descendent dans les eaux profondes et dérangent les animaux bioluminescents, comme notre colosse des abysses.

Les calamars les plus habiles à esquiver ces prédateurs ont pu se reproduire et transmettre leurs gènes depuis des millions d’années. Leur population actuelle est donc constituée d’animaux dotés d’une grande acuité visuelle, qui évitent probablement la lumière et sont capables de détecter un signal lumineux à plusieurs mètres de distance.

La beauté délicate de ces animaux des grands fonds

Le calamar colossal fait partie de la famille des calamars de verre (Cranchiidae), un nom qui fait référence à la transparence de la plupart des espèces. L’océan Antarctique compte trois espèces connues de calamars de verre, mais il peut être difficile de les distinguer sur des images vidéos.

Des chercheurs de l’organisation Kolossal, dont l’objectif était de filmer le calamar colossal, ont ainsi pu observer en 2023 un calamar de verre de taille similaire lors de leur quatrième mission en Antarctique. Mais comme les éléments caractéristiques permettant d’identifier un calamar colossal – des crochets à l’extrémité des deux longs tentacules et au milieu de chacun des huit bras plus courts – n’étaient pas clairement visibles, son identité exacte n’a donc pas été confirmée.

Cependant, sur les dernières images produites par l’Institut Schmidt de l’océan, les crochets du milieu du bras sont visibles sur le jeune spécimen immortalisé par les images. Celui-ci ressemble malgré tout beaucoup aux autres calamars de verre. En grandissant cependant, on suppose que les calamars colossaux perdent probablement leur apparence transparente et deviennent une anomalie au sein de la famille.

Si l’idée paradoxale d’un « petit calamar colossal » en amusera plus d’un, ces images mettent également en évidence la grâce méconnue de nombreux animaux des grands fonds, aux antipodes des préjugés que l’on peut avoir trop souvent sur les supposés monstres des profondeurs et les contenus en ligne racoleurs sur ces derniers qui seraient une simple « matière à cauchemars ».

Ce calamar colossal ressemble plutôt à une délicate sculpture de verre, avec des nageoires d’une musculature si fine qu’elles sont à peine visibles. Ses yeux iridescents brillent et ses bras gracieux s’étendent en éventail à partir de la tête.

À l’âge adulte, le calamar colossal peut certes être un prédateur redoutable, avec ses bras robustes et sa panoplie de crochets acérés, capable de s’attaquer à des poissons de deux mètres de long. Mais la première observation attestée que nous avons de ce calamar dans les profondeurs de la mer nous donne surtout matière à s’émerveiller en voyant cet animal élégant, qui prospère dans un environnement où l’homme a besoin de tant de technologie, ne serait-ce que pour le voir à distance.

Plus étrange que la science-fiction

Jusqu’à récemment, peu de gens pouvaient participer à l’exploration des grands fonds marins. Aujourd’hui, toute personne disposant d’une connexion Internet peut être derrière l’écran pendant que nous explorons ces habitats et observons ces animaux pour la première fois.

On ne saurait trop insister sur l’importance des grands fonds marins. Ils abritent des centaines de milliers d’espèces non découvertes, c’est probablement là que la vie sur Terre est apparue et ils représentent 95 % de l’espace vital disponible sur notre planète.

On y trouve des animaux plus splendides et plus étranges que nos imaginations les plus créatives en matière de science-fiction. Des calamars qui, au début de leur vie, ressemblent à de petites ampoules électriques avant de devenir de véritables géants ; des colonies d’individus où chacun contribue au succès du groupe ; des animaux dont les mâles (souvent parasites) sont exceptionnellement plus petits que les femelles.

Cette première observation attestée d’un calamar colossal peut en cela nous inspirer en nous rappelant tout ce qu’il nous reste à apprendre.


L’expédition qui a filmé le calamar colossal est le fruit d’une collaboration entre l’Institut Schmidt de l’océan, la Nippon Foundation-NEKTON Ocean Census et GoSouth (un projet commun entre l’université de Plymouth, le GEOMAR Helmholtz Centre for Ocean Research et le British Antarctic Survey).


The Conversation

Kat Bolstad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.04.2025 à 11:52

La réalité diverse du vélo à la campagne, derrière les clichés de grands sportifs ou de néo-ruraux militants

Alice Peycheraud, Doctorante en géographie, Université Lumière Lyon 2

Jadis omniprésent dans la ruralité, le vélo hors la ville a du mal à s'implanter dans nos imaginaires. Qui sont donc les cyclistes des routes de campagne ? Pas seulement des sportifs ou néo-ruraux.
Texte intégral (3151 mots)
Le vélo était omniprésent dans les villages jusque dans les années 1970. Pxhere, CC BY

Jadis omniprésent dans la ruralité, le vélo hors la ville a du mal à s’implanter dans nos imaginaires. Qui sont donc les cyclistes des routes de campagne ? Pas seulement des sportifs ou des néo-ruraux montre une nouvelle recherche, qui pointe également le fort potentiel cyclable de nos campagnes.


Mais qui sont donc les cyclistes s’aventurant sur les routes de campagne ? Les forçats du Tour de France, évidemment ! Et les touristes, de plus en plus nombreux à sillonner les véloroutes. Ces images s’imposent instantanément. Mais lorsque l’on pense aux déplacements du quotidien, l’imaginaire se grippe.

Y a-t-il seulement des cyclistes « de tous les jours » dans le rural, en dehors de stakhanovistes de la petite reine ou de militants convaincus ?

Une pratique rurale longtemps en perte de vitesse

Pédaler dans les territoires ruraux n’est certes pas une évidence. Le vélo était pourtant omniprésent dans les villages jusque dans les années 1970. Depuis, sa présence n’a fait que s’étioler. S’il est difficile d’obtenir des données aussi précises que pour les métropoles, les chiffres généraux sur la fréquentation vélo tendent à montrer que la dynamique peine à s’inverser.

Alors qu’en ville, le vélo, pratique et rapide, représente un avantage comparatif vis-à-vis de la voiture, les contraintes rencontrées dans les territoires ruraux semblent barrer la voie à la bicyclette.

Le territoire y est en effet organisé par et pour la voiture : non seulement les ruraux parcourent au quotidien des distances deux fois plus importantes qu’en ville, mais les routes comme l’urbanisme des bourgs sont pensés pour l’automobile. De fait, 80 % des déplacements s’y effectuent en voiture.

Les ruraux sont ainsi pris en étau par un modèle fondé sur l’automobile, à la fois préjudiciable écologiquement et excluant socialement, mais nécessaire pour pouvoir habiter ces territoires.

Près de la moitié des trajets font moins de 5 km

Pourtant, il existe un potentiel cyclable dans le rural, où près de la moitié des trajets concernent des distances de moins de 5 km. De fait, les observations et la soixantaine d’entretiens menés dans trois territoires ruraux, le Puy-de-Dôme, la Saône-et-Loire et l’Ardèche, dans le cadre de ma thèse de géographie, montrent qu’il y a bel et bien des cyclistes dans le rural, utilisant leur vélo pour aller au travail, faire les courses ou tout autre activité du quotidien.

Croisés sur les marchés, dans les cafés ou dans des associations pro-vélo, les profils rencontrés sont variés : autant d’hommes que de femmes, des retraités, des cadres comme des employés. Se pencher sur leurs pratiques et sur leurs engagements, c’est aussi s’intéresser à la complexité des territoires ruraux qu’ils parcourent et aux nouvelles façons d’habiter ces espaces, au-delà des images d’Épinal.


Visuel d'illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu.

Abonnez-vous dès aujourd'hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


Au-delà des seuls sportifs, des manières de rendre le vélo envisageable pour le plus grand nombre

L’émergence du vélo électrique (dont le nom complet demeure « vélo à assistance électrique », dit VAE) a grandement contribué à rendre les déplacements cyclistes envisageables par le plus grand nombre, tempérant les distances et les reliefs parfois prononcés. Dans des espaces ruraux souvent concernés par le vieillissement de la population, le déploiement de cette technologie n’a rien d’anodin. Le vélo électrique est d’ailleurs particulièrement valorisé par les retraités actifs.

Fabrice (65 ans, retraité, Saône-et-Loire) a ainsi fait coïncider son passage à la retraite avec l’achat d’un vélo électrique et repris une pratique cycliste abandonnée depuis l’adolescence. Le vélo électrique, en modulant les efforts, permet aussi à un public plus jeune d’effectuer plus régulièrement des trajets jugés exigeants. Cet outil ne peut toutefois pas porter à lui seul l’espoir d’un développement du vélo dans le rural. D’abord, parce qu’il reste coûteux ; ensuite, parce qu’il faut le penser en regard du contexte de pratique.

La sécurité et le manque d’aménagement sont souvent les premiers arguments opposés à la pratique du vélo à la campagne.

De fait, certaines routes départementales s’avèrent inhospitalières pour la plupart des cyclistes. Pourtant limiter le rural à ce réseau de « grandes routes » serait oblitérer sa richesse en routes secondaires et en chemins agricoles. Ceux-ci représentent un vivier d’alternatives, ne nécessitant pas toujours d’aménagement supplémentaire, si ce n’est un effort de jalonnement et d’information de la part des collectivités.

Cela peut passer par l’indication d’un itinéraire conseillé par un panneau, ou par une carte des itinéraires, parfois assortie des temps estimés pour les trajets, comme cela a été fait dans le Clunisois. La connaissance des itinéraires alternatifs permet d’envisager le rural au-delà du seul prisme automobile.

Les cyclistes valorisent d’ailleurs le sentiment de découverte lié à cette façon différente de s’approprier leur territoire.

Se déplacer à vélo dans le rural, ce n’est pas que faire de longues distances

Au gré des stratégies mises en place par chaque cycliste, différentes stratégies se dessinent. Une part des cyclistes, souvent des hommes jeunes ayant une pratique sportive par ailleurs, affrontent de longues distances et les routes passantes sans trop d’appréhension. Mais la majorité des cyclistes rencontrés, dont les profils sont variés, roule en utilisant le réseau secondaire, évitant les situations anxiogènes, sur des distances plus courtes. Ce sont ces pratiques qui gagnent le plus à être accompagnées par des politiques publiques.

Le vélo de Jeanne, septuagénaire, attaché sans trop de précaution devant un café du bourg auvergnat où elle réside depuis toujours
Le vélo de Jeanne, septuagénaire, attaché sans trop de précaution devant un café du bourg auvergnat où elle réside depuis toujours. Peycheraud, 2022, Fourni par l'auteur

Enfin, une dernière partie des enquêtés cantonne sa pratique du vélo aux centres-bourgs, n’investissant quasiment jamais l’espace interurbain. Les petites centralités constituent un maillage essentiel de l’espace rural, polarisant les services de proximité. Se déploient en leur sein de nombreux déplacements, facilement effectués à vélo. Or, ces mobilités cyclistes, loin d’être rares, sont parfois banalisées par les cyclistes eux-mêmes.

Pourtant, elles participent à nourrir les sociabilités locales particulièrement valorisées par les habitants de ces territoires. Jeanne, septuagénaire et secrétaire de mairie à la retraite, rencontrée dans un petit bourg auvergnat, expliquait ainsi qu’elle habitait là « depuis toujours », se déplaçant invariablement à vélo, et que tout le monde la connaissait ainsi. Si le fait de pouvoir s’arrêter et discuter est le propre des déplacements cyclistes en général, dans les espaces ruraux, cela nourrit également un idéal de « vie villageoise ».

Pédaler dans le rural, c’est donc aussi investir la proximité, tant spatiale que sociale.

Choisir le vélo contre la voiture… mais aussi par plaisir

La mobilité ne se définit pas seulement par ses dimensions matérielles et fonctionnelles : elle est toujours porteuse de sens et de valeurs. Dans les discours, trois justifications reviennent très régulièrement pour expliquer le choix du vélo : il est économique, écologique et bon pour la santé. Pour Madeleine (60 ans, fonctionnaire territoriale, Puy-de-Dôme),

« C’est le côté économique, et aussi écologique. Je regarde les deux. Je n’ai pas plus de priorités sur l’un ou sur l’autre. »

Nathanaël (42 ans, ouvrier intérimaire, Puy-de-Dôme) explique que « vendredi, je suis venu avec le vélo. C’est qu’en faire, me permet de ne plus avoir mal au genou ». Certes ces raisons se retrouvent aussi chez les cyclistes urbains. Toutefois, dans le rural, elles s’expriment tout particulièrement en référence à l’omniprésence de la voiture et à son poids dans les modes de vie.

Prendre le vélo, c’est aussi faire le choix d’échapper à la norme automobile, chère et polluante, dominante dans ces territoires. Néanmoins, rares sont les cyclistes ruraux à ne pas avoir de voiture, souvent perçue comme une nécessité. Le vélo doit ainsi trouver sa place dans des organisations quotidiennes plus ou moins remaniées. Pour certains, le vélo n’est qu’une mobilité adjuvante, seulement utilisé lorsque les conditions sont jugées favorables : une météo clémente, un temps disponible suffisant… D’autres engagent une réflexion plus radicale sur leur mode de vie, choisissant de « ralentir » et de réduire le nombre de leurs déplacements pour les effectuer essentiellement en vélo.

Limiter les raisons de faire du vélo à ces justifications rationalisées serait toutefois oublier que le plaisir constitue une motivation centrale.

On roule aussi et surtout pour soi. Bien sûr, cette dimension affective du vélo n’est pas l’apanage des ruraux. Néanmoins, l’environnement rural colore tout particulièrement la pratique : la relation à la nature et aux paysages est largement plébiscitée par les cyclistes rencontrés. L’une évoquera les biches croisées de bon matin, l’autre le plaisir de passer par des chemins habituellement réservés aux vététistes. Le vélo du quotidien dans le rural incarne parfaitement la porosité grandissante entre les loisirs et les activités « utilitaires » qui caractérise la société contemporaine.

Le vélo à la campagne n’est pas qu’une pratique importée de la ville

Si certains territoires continuent de perdre des habitants, le rural a globalement renoué avec l’attractivité résidentielle. Il serait tentant de voir dans cette dynamique démographique le vecteur de développement du vélo du quotidien dans le rural. Des néo-ruraux fraîchement arrivés importeraient ainsi leurs habitudes acquises en ville, où l’on assiste à un retour des déplacements cyclistes. Ce type de profil existe, mais n’épuise pas la diversité des trajectoires des cyclistes rencontrés. Quelques nuances méritent ainsi d’être évoquées.

D’une part, jusque dans les années 1990, on pratiquait davantage le vélo dans les territoires ruraux qu’en ville. Certains cyclistes, la cinquantaine passée et ayant toujours habité le rural, ont ainsi connu une pratique ininterrompue tout au long de leur vie et roulent parfois encore avec des vélos dotés eux-mêmes d’une certaine longévité (photo 2).

Yann, 71 ans, vient faire réparer son vieux Peugeot, lors d’un atelier de réparation itinérant. Peycheraud, 2022, Fourni par l'auteur

D’autre part, les parcours des cyclistes croisés amènent à considérer la complexité des liens qui s’établissent entre pratiques urbaines et rurales du vélo. Les trajectoires résidentielles ne sont pas linéaires et se composent souvent d’allers-retours entre ville et campagne, ce qui colore la pratique.

Mariette, retraitée de 65 ans, a par exemple grandi et appris à pédaler dans un village de Saône-et-Loire. L’acquisition d’une voiture lui fait arrêter le vélo. Elle ne le reprendra que vingt ans plus tard, arrivée à Grenoble, motivée par la dynamique cyclable de la ville. À la retraite, elle retourne dans son village d’enfance mais continue le vélo, électrique cette fois, poussée par la rencontre avec d’autres cyclistes locaux.

Souvent le passage en ville, les socialisations qui s’y jouent, marquent un jalon pour la pratique du quotidien. Mais il s’inscrit dans un ensemble d’autres temps d’apprentissage et de rencontres. Le prisme du vélo permet donc d’insister sur les circulations qui s’établissent entre urbain et rural, plutôt que sur leur opposition tranchée.

Il existe de multiples façons de se déplacer à vélo dans le rural, des plus banalisées aux plus engagées, en fonction des stratégies et des motivations de chacun. Elles s’inscrivent toutefois dans une organisation globale de la ruralité et des mobilités qui la constituent. L’accompagnement de ces pratiques repose donc sur la prise en compte de leur diversité, ainsi que sur une réflexion collective des transitions possibles et souhaitables dans ces territoires.

The Conversation

Alice Peycheraud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.04.2025 à 17:13

L’Île-de-France pourrait-elle être autonome sur le plan alimentaire ?

Agnès Lelièvre, Maître de conférences en agronomie, AgroParisTech – Université Paris-Saclay

Christine Aubry, Fondatrice de l’équipe de recherche INRAE « Agricultures urbaines », UMR Sadapt, AgroParisTech – Université Paris-Saclay

Clotilde Saurine, Animatrice de réseau sur le sujet de l'alimentation, AgroParisTech – Université Paris-Saclay

Doudja Saïdi-Kabeche, Enseignante-Chercheuse en siences de Gestion, AgroParisTech – Université Paris-Saclay

Fanny Provent, Ingénieure agronome

Seuls 2 % des produits alimentaires consommés en Île-de-France sont locaux. Une réalité qui interpelle quand on sait que la région est par ailleurs une terre agricole qui exporte, par exemple, ses céréales.
Texte intégral (3464 mots)
Culture maraîchère en Île-de-France. Fourni par l'auteur

Seulement 2 % des produits alimentaires consommés en Île-de-France sont locaux. Une réalité qui interpelle quand on sait que la région est par ailleurs une terre agricole qui exporte par exemple ses céréales. Pourrait-on dès lors remédier à cette situation ?


L’Île-de-France, région la plus riche du pays, concentre 30 % du PIB et une forte proportion de diplômés, tout en jouissant d’une réputation internationale. Cependant, elle est presque totalement dépendante de l’extérieur pour son alimentation, avec seulement 2 % des produits alimentaires provenant de la région selon une étude de 2017 et 5 à 7 jours d’autonomie en cas de crise.

Ces chiffres posent à la fois des questions de sécurité, de souveraineté et d’autosuffisance, et interrogent l’ensemble du système alimentaire, de la production à la consommation.

Du champ jusqu’à l’assiette, comment peut-on l’expliquer et comment, surtout, pourrait-on rendre l’Île-de-France plus autonome sur le plan alimentaire ?

Production francilienne.
Production francilienne. Fourni par l'auteur

Une autonomie alimentaire francilienne très faible

Commençons par un paradoxe : en Île-de-France, la production de céréales est très excédentaire par rapport aux besoins régionaux (3,2 millions de tonnes de blé en 2019, selon FranceAgriMer, qui, transformées en farine, représentent plus du double de la consommation de farine des 12 millions de Franciliens. Pourtant, le bassin de consommation importe de la farine, car une forte proportion de ce blé est exportée (70-80 %). Une étude précise le détail des 1,6 million de tonnes de nourriture venant de province qui entrent en Île-de-France chaque année : principalement des fruits et légumes, de l’épicerie, des boissons sans alcool et des produits laitiers. Elle nous permet également d’apprendre que les produits animaux, eux, ne satisfont qu’à peine 2 % de la consommation et que la production de fruits et légumes, correspond à moins de 10 % de la consommation régionale.

Pourtant, la région était maraîchère au moins jusqu’au début du XXe siècle. En 1895, l’Île-de-France était autonome, à près de 95 %, en fruits et légumes et, en 1960, on comptait encore plus de 20 000 ha de légumes diversifiés dans la région (environ 2 000 ha aujourd’hui).

Sur la partie la plus urbanisée, seuls 0,6 % des aliments consommés sont produits aujourd’hui dans la Métropole du Grand Paris (MGP), qui inclut Paris et 130 communes environnantes, et au moins 30 % des aliments consommés à Paris proviennent de l’international. Ce constat une fois posé, est-il envisageable aujourd’hui d’améliorer l’autonomie alimentaire de la Région ?

Production francilienne.
Production francilienne. Fourni par l'auteur

Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


L’agriculture urbaine, une voie d’autonomisation ?

L’agriculture urbaine est parfois présentée comme un moyen de conquérir de nouveaux terrains productifs en ville pour produire localement, en particulier des fruits et légumes. Cependant, les travaux de l’agroécologue Baptiste Grard montrent qu’en mettant en production la totalité des 80 hectares de toits cultivables à Paris, on fournirait au maximum 10 % des fruits et légumes consommés par les Parisiens.

De plus, la portance de ces toits et d’autres contraintes peuvent limiter la surface réellement cultivable. Malgré un soutien fort de la Mairie, la surface en production intramuros n’est passée que de 11 ha en 2014 à 31 ha en 2020.

Pour rendre l’Île-de-France plus autonome sur le plan alimentaire, il faudrait donc encourager les collectivités à utiliser davantage d’aliments issus de l’agriculture périurbaine.

Culture maraichère en Île-de-France. Fourni par l'auteur

La restauration collective : une voie d’autonomisation alimentaire et d’évolution de l’agriculture locale ?

Celle-ci paraît particulièrement bien indiquée pour alimenter la restauration collective, notamment publique (écoles, crèches, collèges, lycées, hôpitaux publics, Ehpad publics, prisons), qui représente en Île-de-France près de 650 millions de repas annuels servis, dont plus de 50 % en secteur scolaire. Elle constitue donc une source majeure d’influence sur l’alimentation des habitants et peut devenir un levier pour l’évolution de l’agriculture de proximité vers des formes plus durables, encouragées en cela par la loi Égalim.

Le périurbain francilien, en Seine-et-Marne, Yvelines, Val-d’Oise et Essonne, participe de plus en plus à cette dynamique. On voit en effet croître le nombre d’exploitations diversifiant leurs productions vers des légumineuses et légumes de plein champ à destination de la restauration collective, notamment en production biologique, avec l’influence notable de la Coop bio d’Île-de-France,créée en 2014.

Il s’agit pour l’essentiel de céréaliers diversifiés ou de maraîchers d’assez grande taille (au moins une dizaine d’hectares) sur des espèces spécifiques (salades, carottes, pommes de terre…). Les plus petites exploitations maraîchères (moins de 5 ha), très diversifiées en légumes, dont beaucoup se sont installées ces dix dernières années avec un fort soutien des collectivités locales, sont moins orientées vers ce débouché, qui exige d’importants volumes à un prix relativement bas et induit beaucoup de contraintes de référencement pour les producteurs, d’où l’intérêt de formes mutualisées de commercialisation.

C’est ainsi que certaines collectivités préfèrent passer directement en régie agricole pour leur restauration collective à l’image de Mouans-Sartoux (Alpes-Maritimes) dans la Région Paca, ou de Moissy-Cramayel (Seine-et-Marne) ou Villejuif (Val-de-Marne) en Île-de-France. La régie agricole est une ferme municipale dont le foncier appartient à la Ville et dont le personnel est salarié municipal.

Ce rôle structurant de la restauration collective a permis, en 2023, de lancer l’association AgriParis Seine, élargissant la notion de « local » à 250 km autour de Paris et visant à structurer des filières d’agriculture durable par l’achat public, en parcourant la Seine, du Havre jusqu’au nord de l’Yonne, le fleuve servant de voie majeure d’approvisionnement à terme. Dans le même temps, le schéma directeur de la Région Île-de-France envisage d’autres logiques, avec un projet de ceinture maraîchère autour de Paris.

Des formes d’agricultures urbaines inclusives et utiles pour des publics précaires

Soutenant, à travers la restauration collective, l’agriculture francilienne, les collectivités espèrent aussi lutter avec elle contre le fléau de la précarité alimentaire, qui s’est accrue ces dernières années : l’Agence nouvelle des solidarités actives la chiffre aujourd’hui dans une fourchette de 12 à 20 % de la population, avec de fortes disparités intrarégionales sur le nombre d’habitants touchés et l’intensité de cette précarité, qui va de pair avec une forte prévalence des maladies de la nutrition (diabète, obésité). L’agriculture urbaine (intra et périurbaine) peut-elle jouer des rôles intéressants pour mieux alimenter des personnes en précarité ?

Les jardins collectifs (familiaux, partagés, au bas d’immeuble), plus de 1 300 en Île-de-France en 2019, y contribuent directement par une autoproduction alimentaire, variable mais qui peut être non négligeable selon la taille des jardins et l’implication des jardiniers : elle pouvait représenter, en 2019, en jardins familiaux, plus de 1 500 € d’économie par an sur les achats de fruits et légumes d’une famille, et probablement plus aujourd’hui étant donné l’inflation. Avec l’augmentation de la pauvreté et la demande accrue de jardins collectifs depuis la crise Covid, il serait nécessaire de mener une étude sur les rôles quantitatifs et économiques, dans les territoires franciliens, des diverses formes de jardinage collectif.

En périurbain, les jardins d’insertion, dont ceux du réseau Cocagne, revendiquent plus de 140 000 paniers solidaires par an au niveau national. En Essonne, les jardins du Limon fournissent, eux, 550 paniers solidaires par semaine.

Le réseau des Amap d’Île-de-France (elles sont 290 en 2023) propose aussi, depuis 2021, des paniers solidaires ou des livraisons de surplus à des épiceries ou restaurants solidaires. Forme de solidarité éthique de base, cette fourniture reste cependant très confidentielle en termes quantitatifs.

De plus, la production d’aliments n’est pas tout, il faut pouvoir et savoir cuisiner les produits, ce qui n’est pas toujours possible (par absence d’équipements) lorsqu’on vit en hôtel social, en hébergement d’urgence ou dans d’autres logements précaires. C’est pour faciliter l’intégration de ces produits frais dans l’alimentation de publics en difficulté que des structures associatives combinent jardinage et transformation alimentaire.

L’importance de la démocratie alimentaire

À l’instar de la dynamique observée partout en France, se mettent en place en Île-de-France, des initiatives pour favoriser l’accessibilité à des produits de qualité pour toutes, s’appuyant sur des principes de « démocratie alimentaire » : expérimentations de caisse alimentaire locale, transferts monétaires « fléchés » vers des produits durables (Vit’Alim par Action contre la faim et le Conseil départemental de Seine-Saint-Denis), comités locaux pour l’alimentation et la santé (PTCE Pays de France)…

C’est un enjeu sérieux que de structurer l’analyse des retours d’expériences à en tirer, car de cela dépend la capacité de diffuser des modèles alternatifs proposés pour transformer le système alimentaire de façon pérenne. Le projet Territoire zéro précarité alimentaire (TZPA) (terme proposé par le Labo de l’ESS), mené par le réseau Agricultures urbaines et précarité alimentaire de la chaire Agricultures urbaines (Aupa), vise précisément à évaluer les impacts de plusieurs de ces initiatives sur la « sécurité alimentaire durable » dans les territoires concernés.

Il reste capital de pouvoir mieux évaluer scientifiquement, du point de vue de la lutte contre la précarité alimentaire, ces diverses initiatives, des Amapm aux régies agricoles, ce à quoi travaille la chaire Agricultures urbaines (AgroParis Tech).

En Île-de-France, l’autonomie alimentaire reste faible en raison des orientations actuelles des systèmes de production et des marchés. Devenir plus autonome implique non seulement une production locale accrue, mais aussi la transformation et la distribution régionales des produits. La restauration collective et la lutte contre la précarité alimentaire sont deux leviers essentiels, souvent imbriqués ensemble : les collectivités signalent souvent que la restauration collective scolaire représente déjà une forme de lutte contre la précarité alimentaire des enfants, si toutefois les cantines scolaires sont bien accessibles à tous.

Ces deux sujets sont impactés par les politiques publiques et souvent limités par un manque de coordination et de moyens. Un meilleur soutien financier et une évaluation rigoureuse des initiatives locales pourraient inspirer des politiques publiques plus efficaces et durables. Là, la recherche en lien étroit avec les acteurs politiques et de terrain est fortement convoquée. Il va sans dire qu’elle aussi manque aujourd’hui de moyens pour cela.

The Conversation

Agnès Lelièvre a reçu des financements de l'Union Européenne à travers sa participation à des projets JPI Urban Europe, Horizon 2020 et Horizon Europe

Christine Aubry, Clotilde Saurine, Doudja Saïdi-Kabeche et Fanny Provent ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

15.04.2025 à 17:34

Fin de l’ARENH : comment l’électricité nucléaire française a basculé dans le marché

Thomas Reverdy, Professeur des Universités en sociologie, Grenoble INP - UGA

Cette particularité du marché français de l’électricité, introduite en 2010 suite à l’intégration de la France aux marchés européens de l’énergie, doit prendre fin courant 2025.
Texte intégral (2684 mots)

L’Accès régulé à l’électricité nucléaire historique (ARENH), particularité du marché français de l’électricité introduite en 2010 suite à l’intégration de la France aux marchés européens de l’énergie, doit prendre fin courant 2025. Retour sur l’histoire d’un dispositif controversé, mais trop souvent mal compris.


Le 31 décembre 2025, prendra fin une disposition spécifique au marché français de l’électricité, l’Accès régulé au nucléaire historique (ARENH). Cette disposition, mise en place en 2011, permettait aux fournisseurs concurrents de EDF d’accéder à un volume total d’électricité nucléaire de 100 TWh à un prix fixe de 42 euros par mégawatt-heure (MWh).

Régulièrement présentée par ses détracteurs soit comme une injonction autoritaire des autorités européennes, soit comme une spoliation d’EDF, les objectifs et les modalités de cette disposition sont souvent mal connus et incompris. Revenons sur l’histoire de ce dispositif.

Aux origines de l’ARENH

L’intégration de la France aux marchés de l’énergie européens après leur libéralisation a entraîné une hausse des prix à partir de 2004. Les clients industriels français se sont fortement mobilisés pour être protégés de cette hausse, suite à quoi l’État a mis en place un nouveau tarif réglementé pour les entreprises en 2006. La même logique a prévalu lors de l’ouverture des marchés pour les particuliers en 2007, l’État a décidé de maintenir un tarif réglementé calculé sur la base des coûts de production.

Or, la hausse des prix sur les marchés de gros a produit un effet de « ciseau tarifaire ». Il empêchait les fournisseurs alternatifs, qui achetaient l’électricité sur le marché de gros, de se développer. En effet, ces derniers n’avaient pas la capacité de rivaliser avec le tarif réglementé et les offres de EDF, fondés sur les coûts plus compétitifs du nucléaire historique.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Ainsi, la volonté politique de protéger les entreprises et les consommateurs par le tarif a alors entraîné un blocage de l’ouverture à la concurrence. L’ARENH a été créé dans ce contexte : il permettait de respecter l’engagement européen de développer la concurrence, tout en permettant de restituer aux consommateurs français l’avantage économique du nucléaire historique.

Un mécanisme utile, mais progressivement fragilisé

Le choix du mécanisme a été motivé par un souci de continuité avec les équilibres économiques qui existaient avant la libéralisation. Il a effectivement permis aux consommateurs français de bénéficier de l’avantage économique du nucléaire existant, tout en leur évitant d’être exposés aux variations du prix de marché de gros européen, quels que soient l’offre tarifaire et le fournisseur. La distribution du volume ARENH aux fournisseurs alternatifs est très encadrée en amont et en aval, pour éviter qu’ils tirent un bénéfice immédiat en revendant l’électricité sur le marché de gros. Elle ouvre à des règlements financiers en cas d’écart avec les besoins du portefeuille de clients.

Néanmoins, le mécanisme a rencontré plusieurs configurations inattendues qui l’ont fragilisé. En 2015, le prix du marché de gros européen, en baisse, est passé en dessous du prix fixé pour l’ARENH. Dans cette situation, l’ARENH a perdu de son intérêt pour les fournisseurs alternatifs.

Cette alternative a révélé le caractère asymétrique du dispositif : il ne garantit pas la couverture des coûts d’EDF en cas de baisse des prix de marché en dessous du tarif de l’ARENH. En novembre 2016, des fluctuations des prix des contrats à terme, ont permis aux fournisseurs alternatifs de réaliser des arbitrages financiers impliquant l’ARENH.

Cette période de prix bas sur les marchés de gros a aussi permis aux fournisseurs alternatifs de développer leurs parts de marché, qu’ils ont conservées quand les prix ont remonté à partir de 2018.

En 2019, le volume de 100 TWh prévu par la loi ne permettait pas de couvrir tous les besoins en nucléaire des fournisseurs alternatifs (130 TWh). Un écrêtement de l’ARENH a alors été mis en place. Ce rationnement a eu pour effet de renchérir les coûts d’approvisionnement des fournisseurs alternatifs, dans la mesure où une partie de l’électricité d’origine nucléaire de EDF devait être achetée au prix du marché de gros pour compléter le volume d’ARENH manquant.

Ces derniers ont dû ajuster leurs contrats de fourniture en conséquence. La Commission de régulation de l’énergie (CRE) a augmenté en 2019 les tarifs réglementés de l’électricité pour refléter ces nouveaux coûts d’approvisionnement, pour que le tarif réglementé reste « contestable » (qu’il puisse être concurrencé) par les fournisseurs alternatifs. Un des effets de l’écrêtement est de revaloriser l’énergie nucléaire, dont une partie est désormais vendue par EDF au niveau du prix de marché, supérieur au tarif de l’ARENH.

Un avantage pour EDF face à la concurrence

La loi énergie-climat de 2019 prévoyait une augmentation du volume d’ARENH à 150 MWh de façon à mettre fin à l’écrêtement. En parallèle, il était envisagé d’augmenter son prix de façon à suivre la hausse des coûts du parc nucléaire. Le projet HERCULE de restructuration de l’entreprise, initié pour améliorer la valorisation financière de l’entreprise, était aussi une opportunité pour repenser le mécanisme ARENH et le rendre symétrique, garantissant à EDF un niveau de revenu minimal en cas de baisse des prix.

Or le projet HERCULE a été abandonné face à la mobilisation syndicale car il portait atteinte à la cohérence de l’entreprise. Les modifications de l’ARENH ont été aussi abandonnées à cette occasion. Constatant que le prix de marché de gros suivait une tendance à la hausse, EDF avait plus à gagner à ce que l’ARENH ne soit pas modifié : elle pouvait gagner davantage grâce à l’écrêtement qu’avec une hypothétique réévaluation du prix de l’ARENH.

C’est donc avec un dispositif déséquilibré et asymétrique que le secteur électrique français a abordé la crise européenne de l’énergie en 2022. Du fait de la hausse des prix du gaz, une hausse des prix des contrats d’électricité à terme pour l’année 2022 a été observée dès le début de l’automne 2021.

Le gouvernement a alors décidé de mettre en place un bouclier tarifaire pour éviter que cette hausse n’affecte trop les consommateurs finaux – et éviter une crise politique dans un contexte préélectoral.

De la crise énergétique à l’« ARENH+ »

Pour réduire les surcoûts pour l’État et pour protéger les entreprises, il a aussi envisagé d’augmenter le volume d’ARENH pour répondre à une demande de 160 TWh. Réduire l’écrêtement de l’ARENH, permet de réduire l’achat d’électricité sur le marché de gros, ce qui réduit d’autant les factures de tous les clients, et donc le coût du bouclier tarifaire. Les négociations avec EDF ont retardé la décision.

Un « ARENH+ » a finalement été acté par le gouvernement en janvier 2022 pour la période de mars à décembre 2022. Au final, cette réduction d’écrêtement de l’ARENH a bien eu l’effet recherché par l’État, qui était de réduire le niveau des factures pour l’ensemble des consommateurs.

Néanmoins, compte tenu de son déploiement tardif, cette extension de l’ARENH à hauteur de 20 TWh supplémentaires a obligé EDF à racheter l’électricité nécessaire au prix de marché pour la revendre à un prix de 46 euros par MWh. Pour EDF, le coût direct était d’environ 4 milliards d’euros.

Un contexte critique pour le nucléaire d’EDF

Cette extension de l’ARENH est intervenue dans un contexte critique pour EDF. De nombreuses centrales nucléaires étaient indisponibles. La maintenance des centrales nucléaires a été retardée par la crise du Covid-19, la détection de problèmes inédits de corrosion sous contrainte ayant entraîné l’arrêt de nombreux réacteurs.

S’ajoute à cela la sécheresse des étés 2021 et 2022, qui a réduit les réserves d’eau dans les barrages et la production d’électricité d’origine hydroélectrique et nucléaire. Au cours de l’année 2022, EDF a dû importer de l’électricité aux pays européens voisins à des prix extrêmement élevés.

A l’automne 2022, le mécanisme de formation des prix sur le marché de gros européen s’est trouvé au cœur des débats en Europe et en France : il était question de limiter son influence sur la facture du consommateur. Paradoxalement, en France, le débat s’est alors focalisé sur l’ARENH. La commission d’enquête parlementaire « visant à établir les raisons de la perte de souveraineté et d’indépendance énergétique de la France » a alors été l’occasion, pour les anciens dirigeants d’EDF, de condamner l’ARENH, accusé d’avoir appauvri EDF et d’être responsable de la dépendance énergétique de la France.

L’extension de l’ARENH n’a pas été renouvelée pour 2023 et 2024, même si la demande d’ARENH est restée élevée, s’élevant alors à 148 TWh. De ce fait, les clients français ont acheté, directement ou indirectement, une large partie de l’électricité nucléaire de EDF au prix de marché de gros européen, exceptionnellement élevé. Ces deux années se sont donc avérées très profitables pour EDF, dont la disponibilité des centrales nucléaires s’est améliorée.

Un nouveau mécanisme qui expose davantage les acteurs aux aléas du prix de marché

Dans l’intervalle, le ministère de la transition a travaillé au remplacement de l’ARENH par un autre mécanisme symétrique. L’idée était de transposer au nucléaire historique les « contrats pour différence (CFD) symétriques », utilisés en Europe pour les énergies renouvelables.

Ce mécanisme devait permettre de garantir un complément de prix par rapport au marché de l’électricité, sécurisant ainsi la rémunération du producteur. Inversement, si le prix du marché augmente, l’État récupère l’écart, qu’il peut redistribuer aux consommateurs.

En parallèle, EDF a défendu un autre mécanisme, qui consistait à supprimer l’ARENH et à taxer les profits d’EDF quand ils dépassent un certain niveau. Bruno Le Maire a officialisé, en novembre 2023, l’arbitrage en faveur de ce second mécanisme, désormais validé dans le cadre de la Loi de Finance 2025.

L’électricité nucléaire sera donc vendue sur le marché et l’État pourra taxer EDF à hauteur de 50 % si les prix de marché dépassent un premier seuil calculé à partir des coûts complets de EDF – avec une marge non encore fixée – puis d’écrêter ses revenus en cas dépassement d’un second seuil. Les revenus issus de ce prélèvement devraient alors être redistribués de façon équitable entre les consommateurs.

Au-delà des incertitudes liées à la définition des seuils et des modalités de redistribution, le nouveau mécanisme valorise l’énergie nucléaire au prix de marché. EDF reste exposée au marché, mais conserve la possibilité de bénéficier des rentes générées par le nucléaire historique, pour financer ses investissements, en particulier dans le nucléaire futur. La préférence d’EDF pour ce second mécanisme tient aussi au fait qu’il permet d’accroître l’autonomie stratégique de l’entreprise tout en préservant sa cohésion organisationnelle.

Les clients industriels, les associations de consommateurs soulignent à l’inverse qu’il conforte l’entreprise dans sa position dominante et les prive d’une sécurité économique. Le mécanisme redistributif proposé risque d’introduire d’importantes inégalités dues à la diversité des formes d’approvisionnement. Ces consommateurs anticipent aussi des hausses des prix en janvier 2026, qui pourraient mettre en danger la dynamique d’électrification, clef de voûte de la décarbonation.

Ainsi, l’ARENH a joué un rôle essentiel dans la stabilité des prix de l’électricité pendant 15 ans, y compris pendant la crise énergétique, même si l’écrêtement en a limité les effets protecteurs. Sa complexité, ses fragilités techniques, et son statut ambivalent ont été autant de faiblesses mises en valeur dans le débat public pour affaiblir sa légitimité. L’abandon de l’ARENH a pour effet d’accroître la place du marché dans la formation du prix, et donc d’accroître les incertitudes économiques pour l’ensemble des acteurs.


L’auteur remercie Ilyas Hanine pour sa relecture.

The Conversation

Thomas Reverdy n’a pas reçu de financement de recherche en relation avec le thème de cet article. Par ailleurs, il a reçu des financements de l’État, de l’Ademe et de producteurs d’énergie pour diverses recherches sur les politiques énergétiques et le pilotage de projet.

14.04.2025 à 12:27

La face cachée du vrac

Fanny Reniou, Maître de conférences HDR, Université de Rennes 1 - Université de Rennes

Elisa Robert-Monnot, Maître de conférences HDR, CY Cergy Paris Université

Sarah Lasri, Maître de Conférences, Responsable du Master 2 Distribution et Relation Client, Université Paris Dauphine – PSL

La vente de produits sans emballage peut devenir antiécologique et générer du gaspillage. Sans étiquette, les dates de péremption des produits s’oublient sans compter que jamais autant de contenants n’ont été achetés.
Texte intégral (1987 mots)
Les consommateurs de vrac de plus de 50 ans et CSP+ constituent 70 % de la clientèle de ce mode d’achat. DCStudio/Shutterstock

De façon contre-intuitive, la vente de produits sans emballage peut devenir antiécologique et générer du gaspillage. Sans étiquette, les dates de péremption des produits prennent le risque d’être oubliées. Sans éducation culinaire, les consommateurs sont livrés à eux-mêmes pour cuisiner. Sans compter qu’avec la mode de l’emballage sur mesure, jamais autant de contenants n’ont été achetés. Une priorité : accompagner les consommateurs.


Le modèle de distribution en vrac fait parler de lui ces derniers temps avec l’entrée dans les supermarchés de marques très connues, comme la Vache qui rit. Cet exemple est l’illustration des multiples nouveautés que les acteurs du vrac cherchent à insérer dans cet univers pour lui donner de l’ampleur et le démocratiser. Le modèle du vrac, un moyen simple pour consommer durablement ?

Il est décrit comme une pratique de consommation avec un moindre impact sur l’environnement, car il s’agit d’une vente de produits sans emballage, sans plastique, sans déchets superflus, mais dans des contenants réutilisables. Dans ce mode de distribution, on assiste à la disparition de l’emballage prédéterminé par l’industriel.

Distributeurs et consommateurs doivent donc assumer eux-mêmes la tâche d’emballer le produit et assurer la continuité des multiples fonctions, logistiques et marketing, que l’emballage remplit habituellement. N’étant pas habitués à ce nouveau rôle, les acteurs du vrac peuvent faire des erreurs ou bien agir à l’opposé des bénéfices écologiques a priori attendus pour ce type de pratique.

Contrairement aux discours habituellement plutôt positifs sur le vrac, notre recherche met également en avant les effets pervers et néfastes du vrac. Quand les acteurs du vrac doivent se « débrouiller » pour assurer cette tâche nouvelle de l’emballage des produits, le vrac rime-t-il toujours avec l’écologie ?

Assurer l’emballage autrement

L’emballage joue un rôle clé. Il assure en effet de multiples fonctions, essentielles pour rendre possibles la distribution et la consommation des produits :

  • Des fonctions logistiques de préservation, de protection et de stockage du produit. L’emballage peut permettre de limiter les chocs et les pertes, notamment lors du transport.

  • Des fonctions marketing de reconnaissance de la catégorie de produit ou de la marque. Elles s’illustrent par un choix de couleur spécifique ou une forme particulière, pour créer de l’attractivité en rayon. L’emballage assure également, du point de vue marketing, une fonction de positionnement en véhiculant visuellement un niveau de gamme particulier, mais aussi d’information, l’emballage servant de support pour communiquer un certain nombre d’éléments : composition, date limite de consommation, etc.

  • Des fonctions environnementales, liées au fait de limiter la taille de l’emballage et privilégiant certains types de matériaux, en particulier, recyclés et recyclables.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Dans la vente en vrac, ce sont les consommateurs et les distributeurs qui doivent remplir, à leur manière, ces différentes fonctions. Ils peuvent donc y accorder plus ou moins d’importance, en en privilégiant certaines par rapport à d’autres. Dans la mesure où l’industriel ne propose plus d’emballage prédéterminé pour ses produits, consommateurs et distributeurs doivent s’approprier cette tâche de manière conjointe.

Assimilation ou accommodation

Pour étudier la manière dont les consommateurs et les distributeurs s’approprient les fonctions de l’emballage, alors même que celui-ci n’est plus fourni par les industriels, nous avons utilisé une diversité de données : 54 entretiens avec des responsables de magasin et de rayon vrac, et des consommateurs, 190 posts sur le réseau social Instagram et 428 photos prises au domicile des individus et en magasin.

Notre étude montre qu’il existe deux modes d’appropriation des fonctions de l’emballage :

  • par assimilation : quand les individus trouvent des moyens pour imiter les emballages typiques et leurs attributs ;

  • ou par accommodation : quand ils imaginent de nouveaux emballages et nouvelles manières de faire.

Femme remplissant son contenant de lessive
Le vrac peut conduire à des problèmes d’hygiène si les consommateurs réutilisent un emballage en en changeant l’usage. GaldricPS/Shutterstock

Certains consommateurs réutilisent les emballages industriels, tels que les boîtes d’œufs et les bidons de lessive, car ils ont fait leurs preuves en matière de praticité. D’un autre côté, les emballages deviennent le reflet de l’identité de leurs propriétaires. Certains sont bricolés, d’autres sont choisis avec soin, en privilégiant certains matériaux, comme le wax, par exemple, un tissu populaire en Afrique de l’Ouest, utilisé pour les sachets réutilisables.

Quand l’emballage disparaît, les informations utiles disparaissent

L’appropriation des fonctions de l’emballage n’est pas toujours chose facile. Il existe une « face cachée » du vrac, avec des effets néfastes sur la santé, l’environnement ou l’exclusion sociale. Le vrac peut conduire par exemple à des problèmes d’hygiène ou de mésinformation, si les consommateurs n’étiquettent pas correctement leurs bocaux ou réutilisent un emballage pour un autre usage. Par exemple, utiliser une bouteille de jus de fruits en verre pour stocker de la lessive liquide peut être dangereux si tous les membres du foyer ne sont pas au courant de ce qu’elle contient.

Le vrac peut également être excluant pour des personnes moins éduquées sur le plan culinaire (les consommateurs de vrac de plus de 50 ans et CSP + constituent 70 % de la clientèle de ce mode d’achat). Quand l’emballage disparaît, les informations utiles disparaissent. Certains consommateurs en ont réellement besoin pour reconnaître, stocker et savoir comment cuisiner le produit. Dans ce cas le produit peut finalement finir à la poubelle !

Nous montrons également toute l’ambivalence de la fonction environnementale du vrac – l’idée initiale de cette pratique étant de réduire la quantité de déchets d’emballage – puisqu’elle n’est pas toujours satisfaite. Les consommateurs sont nombreux à acheter beaucoup de contenants et tout ce qui va avec pour les customiser – étiquettes et stylos pour faire du lettering, etc.

La priorité de certains consommateurs n’est pas tant de réutiliser d’anciens emballages, mais plutôt d’en acheter de nouveaux… fabriqués à l’autre bout du monde ! Il en résulte donc un gaspillage massif, au total opposé des finalités initiales du vrac.

Des consommateurs pas suffisamment accompagnés

Après une période de forte croissance, le vrac a connu une période difficile lors de la pandémie de Covid-19, conduisant à la fermeture de nombreux magasins spécialisés, selon le premier baromètre du vrac et du réemploi. En grande distribution, certaines enseignes ont investi pour rendre le rayon vrac attractif. Mais faute d’accompagnement, les consommateurs ne sont pas parvenus à se l’approprier. Le rayon du vrac est devenu un rayon parmi d’autres.

Il semble que les choses s’améliorent et les innovations se multiplient. 58 % des adhérents du réseau Vrac et réemploi notent une hausse de la fréquentation journalière sur janvier-mai 2023 par rapport à 2022. Les distributeurs doivent s’adapter à l’évolution de la réglementation.

Cette dernière stipule qu’à l’horizon 2030, les magasins de plus de 400 m2 devront consacrer 20 % de leur surface de vente de produits de grande consommation à la vente en vrac. La vente en vrac a d’ailleurs fait son entrée officielle dans la réglementation française avec la Loi relative à la lutte contre le gaspillage et à l’économie circulaire, parue au JORF no 0035, le 11 février 2020.

Dans ce contexte, il est plus que nécessaire et urgent d’accompagner les acteurs du vrac pour qu’ils s’approprient correctement la pratique.

The Conversation

Fanny Reniou et Elisa Robert-Monnot ont reçu des financements de Biocoop, dans le cadre d'un partenariat recherche.

Elisa Robert-Monnot a reçu des financements de Biocoop dans le cadre d'une collaboration de recherche

Sarah Lasri ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2025 à 13:05

La flexibilité électrique, ou comment décaler nos usages pour optimiser la charge du réseau

Etienne Latimier, Ingénieur énergies renouvelables électriques et réseaux F/H, Ademe (Agence de la transition écologique)

La hausse à venir de notre consommation électrique ainsi que le développement des énergies renouvelables impliquent d’optimiser davantage l’équilibre entre offre et demande.
Texte intégral (1407 mots)

La « flexibilité électrique », c’est-à-dire la capacité à ajuster production, distribution et consommation sur le réseau électrique pour répondre aux fluctuations de la demande, n’est pas un enjeu nouveau. Ce concept revêt une importance nouvelle face à l’impératif de décarbonation de l’économie. Cela permet par exemple d’éviter que la charge de tous les véhicules électriques au même moment de la journée ne mette en péril la stabilité du réseau.


Les débats sur l’énergie en France voient monter en puissance, depuis quelques mois, la notion de flexibilité électrique. De plus en plus d’entreprises françaises développent des outils dédiés à mieux piloter la demande en électricité.

Comprendre pourquoi cette notion, pourtant ancienne, prend aujourd’hui une ampleur nouvelle, implique d’observer les deux grandes tendances qui dessinent l’avenir du système énergétique français : la décarbonation et le déploiement des énergies renouvelables.

D’un côté, la France poursuit son effort de décarbonation de l’économie dans le but d’atteindre au plus vite ses objectifs de réduction des émissions de gaz à effet de serre. La Stratégie nationale bas carbone (SNBC) vise la neutralité carbone à l’horizon 2050. Cet enjeu requiert d’électrifier un maximum d’usages qui utilisaient des énergies thermiques. En premier lieu la mobilité, en encourageant le passage des véhicules thermiques aux électriques, mais aussi l’industrie, qui s’appuie encore beaucoup sur les fossiles à des fins de production de chaleur, et enfin le chauffage, pour lequel le gaz concerne encore 15 millions de foyers en France.

Malgré des mesures d’efficacité énergétique permises par la rénovation et des gains de rendement menés en parallèle, les nouveaux usages liés à la décarbonation commencent à engendrer une progression globale de la consommation électrique du pays.

De l’autre côté, pour répondre à ces besoins, la France incite au développement rapide des énergies renouvelables, avantageuses sur les plans économique et environnemental.

La Programmation pluriannuelle de l’énergie (PPE), actuellement en consultation, table sur une évolution de la part des énergies renouvelables dans le mix de production électrique française qui passerait de 25 % en 2022 à 45 % environ en 2050.

Piloter l’offre et la demande

Ces énergies se caractérisent par une production plus variable. En ce qui concerne le photovoltaïque et l’éolien, ils ne produisent d’électricité que lorsqu’il y a du soleil ou du vent. L’électricité étant difficile à stocker, la marge de manœuvre pour répondre à cette variabilité temporelle consiste à agir sur l’offre et la demande.

Jusqu’ici, c’est surtout par l’offre que le pilotage s’opérait, en s’appuyant le volume de production nucléaire et en réalisant simplement un petit ajustement à l’aide des tarifs heures pleines/heures creuses. Désormais, l’enjeu est de piloter l’offre différemment et d’actionner davantage le levier de la demande.

D’où l’utilité de la flexibilité électrique, par lequel le consommateur jouera un rôle plus important par ses pratiques de consommation.

Décaler nos usages

Comme évoqué précédemment, la seule alternative à la flexibilité électrique est le stockage de l’électricité. Or cette méthode est moins vertueuse. Elle présente un coût économique élevé même si le prix des batteries a diminué. En effet leur production engendre, par la pollution qu’elle génère, un coût environnemental peu cohérent avec la démarche de décarbonation menée en parallèle. Sans parler des risques à venir en matière d’approvisionnement, certains des métaux intégrés aux batteries étant considérés comme critiques.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Privilégier la flexibilité la majorité du temps – et garder la possibilité du stockage pour pallier les variations de production intersaisonnières – apparaît donc comme l’option la plus pertinente. L’idée est d’adapter la consommation à l’offre, en évitant de faire transiter l’électricité par des intermédiaires de stockage. Concrètement, cela consiste à viser, lors du suivi, un équilibre constant entre l’offre et la demande, en incitant les usagers à consommer davantage lorsque la production est importante. En particulier, dans le cas du solaire, en pleine journée.

En effet, la production solaire atteint aujourd’hui en France un niveau significatif en journée, même en hiver. Celle-ci est même supérieure à nos besoins au milieu de certaines journées d’été. Le surplus est, dans la mesure du possible, envoyé à l’étranger, mais cela ne suffit pas toujours pour l’utiliser dans sa totalité. Pour résoudre ce problème, la flexibilité électrique consiste à développer la logique des heures pleines heures creuses, en créant d’autres périodes tarifaires qui intègrent de nouvelles heures creuses en cœur de journée. C’est ce que la Commission de régulation de l’énergie commence à mettre en place.

Il s’agit par exemple d’inciter les consommateurs à décaler la recharge du million de véhicules électriques déjà en circulation en France – 18 millions attendus en 2035 – pendant les périodes de production solaire. Dans l’édition 2023 de son bilan prévisionnel, RTE estime que la consommation annuelle des véhicules électriques s’élèvera en 2035 à 35 TWH, contre 1,3 TWh en 2023. Il faudra donc éviter que toutes les voitures se retrouvent à charger en même temps au retour de la journée de travail.

Inciter le consommateur à décaler ses consommations

Encourager de tels comportements implique une incitation économique qui peut passer par des offres de fourniture électrique. Tout comme le tarif heures pleines/heures creuses qui existe déjà, mais dont les horaires vont être petit à petit modifiés.

D’autres offres plus dynamiques, proposant des plages horaires plus précises encore, différenciées au sein de la semaine, de la journée et de l’année, commencent aussi à émerger. L’offre EDF Tempo, par exemple, permet de payer plus cher son électricité pendant une période qui concerne les heures pleines de 20 journées rouges dans l’année, tandis que le reste du temps est plus avantageux financièrement.

La flexibilité électrique existe depuis les années 1980 mais elle peine encore à se développer. En effet, les citoyens sont davantage sensibles à la maîtrise de leur consommation. Les deux sont pourtant complémentaires : il s’agit non seulement de consommer moins mais aussi mieux. Pour cela, il est crucial de rendre ce type d’offres disponibles et surtout le plus lisibles possible pour les consommateurs en montrant leur facilité d’utilisation, même si certaines resteront orientées vers un public plus averti que d’autres.

Pour le consommateur cela implique de prendre certaines habitudes, mais ce décalage partiel de nos usages – lorsque c’est possible – ne concerne pas l’année entière. Surtout, il permet de contribuer à éviter le gaspillage d’électricité tout en réalisant des économies.

The Conversation

Etienne Latimier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

10.04.2025 à 12:25

Ces citoyens qui mesurent la radioactivité de leur environnement

Christian Simon, Maitre de conférence, HDR, Sorbonne Université

Jean-Marc Bertho, Expert en radioprotection, ASNR

Le projet de sciences participatives OpenRadiation a permis le partage de plus de 850 000 mesures citoyennes de la radioactivité et se développe surtout à des fins pédagogiques.
Texte intégral (3596 mots)
Le détecteur de radioactivité Openradiation J.F. Bottolier-Depois/ASNR, Fourni par l'auteur

Après Tchernobyl et Fukushima, les mesures citoyennes de la radioactivité ont pris leur essor, pour permettre aux populations d’évaluer leurs propres risques, et pour éventuellement fournir des données en temps réel dans les situations d’accident nucléaire ou radiologique. En France, le projet de sciences participatives OpenRadiation a, lui, permis quelque 850 000 mesures citoyennes en huit ans d’existence, et se développe essentiellement à des fins pédagogiques.


Voilà maintenant huit ans que des personnes de tous âges et de toute profession ont commencé à mesurer eux-mêmes la radioactivité dans leur environnement. Ils utilisent pour cela un outil de sciences participatives, nommé OpenRadiation, utilisable par tout un chacun, sans compétences particulières. Mais pourquoi avoir lancé un tel projet ? Comment est construit le système OpenRadiation ? Quels sont les buts de ces mesures de radioactivité ? Retour sur un projet qui mêle transparence, pédagogie et éducation.

La radioactivité est présente partout dans notre environnement, qu’elle soit naturelle ou d’origine humaine. En France, la radioactivité dans l’environnement est très surveillée avec plus de 300 000 mesures par an dans tous les compartiments de l’environnement : eau air, sols, végétaux et animaux, réalisées par les exploitants d’installation nucléaires, par l’autorité de sûreté nucléaire et de radioprotection et par des associations. Cette surveillance est réalisée à l’aide de différents appareils, généralement complexes et coûteux, et donc peu accessibles aux citoyens. Bien que tous les résultats soient rendus accessibles à tout le monde, en particulier au travers du site du réseau national de mesures de la radioactivité), certaines personnes peuvent souhaiter réaliser des mesures par eux-mêmes.

Après Tchernobyl et Fukushima, l’essor des mesures citoyennes

Les premières actions de mesure citoyenne de la radioactivité ont été réalisées au milieu des années 90 dans le cadre des programmes de recherche européens développés en Biélorussie, à la suite de l’accident de Tchernobyl. L’objectif était alors de permettre aux habitants de s'approprier les enjeux de radioprotection, c’est-à-dire la compréhension et le choix des actions qui permettent à chacun de se protéger des effets de la radioactivité dans une situation post-accidentelle où la radioactivité est présente partout dans l’environnement.

La perte de confiance de la population japonaise dans le discours des autorités à la suite de l’accident de Fukushima en 2011 a également accéléré le développement de la mesure citoyenne de la radioactivité. De nombreuses associations locales ont développé, avec l’aide d’universitaires, des détecteurs de radioactivité permettant de réaliser des mesures et le partage des résultats via des sites Internet de cartographie, par exemple le projet Safecast.

Ces mesures de radioactivité dans l’environnement par les citoyens présentent deux avantages. D’une part, elles permettent à chacun d’évaluer ses propres risques et de ce fait retrouver une certaine confiance dans les conditions de vie quotidienne. D’autre part, elles peuvent fournir des données en temps réel dans les situations d’accident nucléaire ou radiologique.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le Projet OpenRadiation

L’idée du projet OpenRadiation a vu le jour en France en 2013, soit deux ans après l’accident de Fukushima, en tenant compte du retour d’expérience de cet accident qui a démontré l’importance de la mesure citoyenne pour l’accompagnement de la population. Ce projet permet également d’accompagner la demande de personnes souhaitant s’investir dans la mesure de radioactivité ambiante, en particulier les habitants des environs des installations nucléaires.

Un consortium a été créé, afin de réunir les compétences nécessaires en mesure des rayonnements ionisants (l’institut de radioprotection et de sûreté nucléaire (IRSN)), en design et création d’objets connectés (Le Fablab de Sorbonne Universités), en éducation aux sciences (Planète Sciences) et aux risques (L’Institut de formation aux risques majeurs (l’IFFORME)). L’Association nationale des comités et commissions locales d’information (l’ANCCLI), qui regroupe les commissions locales d’information existant autour de toutes les installations nucléaires françaises, a ensuite rejoint le consortium en 2019.

Ce consortium a développé les trois composants du système OpenRadiation

  • Un détecteur de radioactivité. Il doit être compact, facilement utilisable, et donner des résultats de mesure fiables. La technologie retenue est celle d’un tube à gaz (un tube Geiger-Müller dont le principe a été inventé en 1913 et mis au point en 1928), robuste et fiable. Cependant, la technologie développée ne permet de mesurer que les rayonnements gamma et X. Le détecteur ne permet donc pas de mesurer directement des éléments radioactifs comme le radon ou l’uranium. Ces détecteurs sont disponibles à l’achat ou au prêt en nous contactant par mail à l’adresse openradiation@gmail.com.

  • Une application pour smartphone, qui va permettre de piloter le détecteur par liaison Bluetooth et de publier les résultats de mesure sur un site Internet. Cette application permet d’utiliser certaines fonctionnalités du téléphone, comme la localisation GPS, la date et l’heure, afin de compléter les métadonnées associées à chaque mesure sans pour autant complexifier le détecteur.

  • Un site Internet (openradiation.org) avec une carte interactive, qui va permettre la publication des résultats de mesure et les métadonnées associées. Le site Internet permet également les échanges entre contributeurs, le dépôt de commentaires sur les mesures, la publication d’informations (liste des détecteurs compatibles, mode d’emploi, méthodes de réalisation des mesures de radioactivité, mais aussi ce que les détecteurs ne peuvent pas mesurer) et le suivi de projets spécifiques.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Un projet en open source

Après une période de réflexion et de tests, le projet OpenRadiation a vu officiellement le jour en 2017. L’ensemble du système OpenRadiation est volontairement en open source (sous licence CC By 4.0) ce qui signifie que toute personne peut obtenir les codes sources des applications, du site et de la carte interactive et les utiliser pour ses propres besoins. Ainsi, certains contributeurs ont pu modifier l’application sur smartphone pour créer des balises fixes de mesure de la radioactivité avec un envoi automatique des résultats de mesure sur la carte OpenRadiation.

De même, l’ensemble des résultats de mesure est en open data, ce qui signifie que tout ou partie de la base de données peut être téléchargée et analysée par toute personne qui le souhaite. Ainsi, une étude a été menée en Biélorussie, dans un village à proximité de la zone interdite en utilisant OpenRadiation. Des détecteurs ont été confiés à un groupe de 17 lycéens afin qu’ils puissent mesurer la radioactivité dans leur environnement, avec une grande liberté d’action.

Ils ont ainsi réalisé plus de 650 mesures en un mois, essentiellement dans leur village de Komaryn et aux environs. Les résultats ont permis de montrer que les niveaux d’exposition aux rayonnements ionisants sont en moyenne comparables à ceux observés dans d’autres parties du monde, mais qu’il existe des « points chauds », c’est-à-dire des lieux où la radioactivité a tendance à se concentrer. Il s’agit en particulier des lieux où du bois a été brûlé, la cendre ayant la propriété de concentrer la radioactivité contenue dans le bois.

Des lycées biélorusses utilisant les outils développés par OpenRadiation
Des lycées biélorusses utilisant les outils développés par Openradiation. JM Bertho/ASNR, Fourni par l'auteur

Comment garantir la fiabilité des résultats ?

La question de la fiabilité des résultats de mesure publiés est souvent posée. La réponse à cette interrogation couvre deux aspects différents, la fiabilité technique du résultat de mesure d’une part et la publication de résultats plus élevés qu’attendus d’autre part.

La fiabilité technique des détecteurs a été testée en laboratoire en utilisant des sources radioactives de calibration. Des tests sur le terrain ont également permis de comparer les résultats du détecteur OpenRadiation avec ceux de détecteurs professionnels. Ce type de comparaison a été réalisée à plusieurs occasions et a montré que les résultats obtenus avec les détecteurs OpenRadiation sont satisfaisants, dans des conditions de mesure variées.

Ensuite, la publication sur le site OpenRadiation de résultats montrant une radioactivité élevée peut avoir différentes origines. Les cas les plus courants sont liés à un niveau de charge insuffisant de la batterie (ce qui peut produire des résultats incohérents), à la présence de radioactivité naturelle plus importante qu’attendue ou à des mesures au contact d’objets ou de matériaux radioactifs.

Ainsi, des personnes ont mesuré des objets radioactifs tels que des vieux réveils Bayer avec une peinture fluorescente au radium, des objets en verre contenant de l’ouraline, ou des minéraux naturellement fortement radioactifs. Il peut également s’agir de mesures à proximité d’un transport de matière radioactive ou encore de patients traités en médecine nucléaire.

Il est également possible de découvrir un véritable « point chaud », comme une résurgence de roche radioactive, la présence de sables radioactifs naturels ou encore l’utilisation de certains matériaux de construction contenant certaines roches particulièrement radioactives.

Dans l’environnement, les débits de dose mesurés sont connus pour varier de façon importante en fonction de la localisation et peuvent atteindre des valeurs très élevées. Sur la carte OpenRadiation, on peut observer ces différences. Ainsi, quelques mesures faites en Iran au bord de la mer Caspienne, dans le Kerala en Inde, ou encore en Bretagne sur la côte de granit rose sont significativement plus élevées que celles faites en région parisienne.

En altitude, l’exposition est plus importante car la diminution de l’épaisseur d’atmosphère réduit la protection contre le rayonnement cosmique.

La publication des résultats de mesure sur le site OpenRadiation nécessite donc d’être explicité. Le principe retenu tient en deux points :

Toute mesure envoyée sur le site est publiée en totale transparence sans étape de validation ou censure et sans possibilité de la retirer. Ce point est essentiel pour conserver la confiance des contributeurs, mais aussi pour détecter d’éventuelles situations où la radioactivité est particulièrement élevée, quelle qu’en soit la raison et permettre une éventuelle intervention pour sécuriser un site.

Exemple de mesure partagée sur le site openradiation.org. Capture d’écran du site www.openradiation.org en février 2025

Par conséquent, toute mesure dépassant un seuil d’alerte (correspondant à environ 4 fois la valeur du « bruit de fond radiologique » en France) fait l’objet d’une étude. À chaque fois qu’un résultat publié dépasse ce seuil, un contact est pris avec le contributeur, afin d’échanger avec lui sur les conditions de la mesure et trouver d’un commun accord une explication plausible. Un commentaire est alors déposé sur le site pour expliquer le résultat de la mesure. Environ 1,25 % des mesures publiées sur le site dépassent le seuil d’alerte. Dans la très grande majorité des cas, une explication est trouvée, moins de 0.02 % des mesures publiées sur le site OpenRadiation ne trouvent pas d’explication immédiate.

À l’exception de quelques sites, et en moyenne, les niveaux de radioactivité en France sont considérés comme bas, même et y compris à proximité des installations nucléaires. C’est la raison pour laquelle OpenRadiation reste avant tout un outil pédagogique pour comprendre ce qu’est la radioactivité. Il est actuellement utilisé dans une vingtaine de lycées et collèges, en lien avec les programmes scolaires. OpenRadiation est également adopté pour faire de la médiation scientifique et de l’éducation au risque nucléaire, par exemple à l’occasion de la fête de la science ou de la journée nationale de la résilience.

Démonstration de l’utilisation du kit Openradiation lors de la fête de la science à Gap en 2024
Démonstration de l’utilisation du kit Openradiation lors de la fête de la science à Gap en 2024. JM Bertho/ASNR, Fourni par l'auteur

Au 1er janvier 2025, OpenRadiation réunissait 327 contributeurs actifs et plus de 800 personnes qui nous suivent. La majorité des contributeurs se trouvent en France et en Europe, mais on en voit aussi dans de nombreux pays autour du monde (Japon, États-Unis, Afrique du sud). La carte et la base de données comportent, à la date de la publication de cet article, plus de 850 000 résultats de mesure sur les cinq continents, y compris en Antarctique, même si la majorité des mesures ont été réalisées en Europe. Les quelques études réalisées avec OpenRadiation ont montré la puissance de cet outil, tant pour la réassurance des personnes vivant dans des environnements contaminés que pour réaliser des études en surveillance de l’environnement, ou encore des recherches dans le domaine des sciences humaines et sociales, pour étudier leurs motivations ou la façon dont les contributeurs s’organisent pour réaliser leurs mesures.

OpenRadiation pourrait aussi trouver à l’avenir des applications nouvelles dans différentes situations. Par exemple, il est possible d’impliquer les citoyens dans la réalisation d’un « point zéro » de la qualité radiologique de l’environnement avant la construction d’une nouvelle installation nucléaire. De même, il peut être intéressant d’impliquer des citoyens pour l’étude des environs d’un site contaminé par d’anciennes activités nucléaires (ancien site minier par exemple), pour susciter un dialogue. Au-delà de la mise à disposition des détecteurs à des citoyens et des utilisations pédagogiques, l’objectif actuel d’OpenRadiation est de développer l’utilisation de cet outil au service des études et recherches de toute nature, dans une démarche de sciences participatives impliquant autant que possible les citoyens intéressés par la notion de radioactivité.


Evelyne Allain (Institut français des formateurs risques majeurs et protection de l’environnement), Ghislain Darley (Autorité de sûreté nucléaire et de radioprotection), Christine Lajouanine (Planète Sciences), Véronique Lejeune (Autorité de sûreté nucléaire et de radioprotection), Yves Lheureux (Association nationale des comités et commissions locales d’information), Renaud Martin (Autorité de sûreté nucléaire et de radioprotection), Marjolaine Mansion (Institut français des formateurs risques majeurs et protection de l’environnement), Alexia Maximin (Planète Sciences), François Trompier (Autorité de sûreté nucléaire et de radioprotection) ont participé à la rédaction de cet article.

The Conversation

Jean-Marc Bertho est membre de la commission internationale de protection radiologique (CIPR) et membre de la société française de Radioprotection (SFRP)

Christian Simon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

10.04.2025 à 11:58

Comment limiter l’empreinte carbone des Coupes du monde de football ?

Frédéric Lassalle, Maître de Conférences en Sciences de gestion, IAE Dijon - Université de Bourgogne

Les compétitions internationales de football polluent surtout du fait du transport des équipes et des supporters. Les annonces de la Fifa pour 2026 et 2030 ne devraient pas arranger les choses.
Texte intégral (2283 mots)

Les compétitions internationales de football polluent, mais surtout du fait du transport des équipes et des supporters. La Fifa, qui a affirmé faire du développement durable une de ses priorités, a pourtant annoncé une démultiplication inédite du nombre d’équipes en compétition et de pays hôtes pour la Coupe du monde de 2026 puis celle de 2030. Au risque d’accroître encore l’empreinte carbone des transports liés au football.


Le 13 février 2025, le Shift Project présentait un rapport de 180 pages consacré à l’impact climatique du football, et en particulier de l’Union des associations européennes de football (UEFA) et de la Fédération internationale de football association (Fifa).

Parmi les nombreux chiffres avancés dans cette étude, on retrouve deux chiffres marquants : 6 % – soit la part des matchs internationaux sous la responsabilité de ces deux organisations, et 61 % – soit la part que ces matchs représentent en termes d’émissions carbone dans le football mondial.

En cause, le déplacement des équipes et surtout des spectateurs. Le rapport explique que, pour la France uniquement, la compétition de football émet 275 000 tonnes de CO2 par an, ce qui correspond à un an de chauffage au gaz pour 41 000 familles.

Comment se décompose l’empreinte carbone du football professionnel. The Shift Project, « Décarbonons le football »

Pourtant, la Fifa a fait du développement durable l’une de ses priorités pour les prochaines années. On pourrait ainsi s’attendre à ce que celle-ci cherche à limiter le nombre de matchs pour limiter les déplacements provoqués par ces manifestations. Mais il n’en est rien.

La Fifa continue de développer ses compétitions

Le nombre d’équipes en compétition pour la Coupe du monde de football n’a cessé de croître : 16 de 1934 à 1978, 24 de 1982 à 1994, 32 de 1998 à 2022.

Pour la Coupe du monde 2026, la Fifa a acté un passage à 48 équipes. Il est désormais possible d’organiser le tournoi tous les deux ans au lieu de quatre, et d’y impliquer plusieurs pays organisateurs – par exemple, le Canada, les États-Unis et les Mexique, pour 2026.

Pour la Coupe du monde 2030, la Fifa envisage ainsi une compétition à 64 équipes, ceci avec pas moins de six pays hôtes différents : l’Argentine, l’Espagne, le Paraguay, le Portugal, le Maroc et l’Uruguay.


Visuel d’illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu

Abonnez-vous dès aujourd’hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


À noter également, l’arrivée de la nouvelle Coupe du monde des clubs à 32 équipes (en remplacement de l’ancienne formule qui comportait seulement sept équipes) aux États-Unis, en juin et juillet 2025. Les équipes qualifiées cette année ne sont pas forcément les championnes des grandes compétitions continentales.

En effet, le Real Madrid, vainqueur de la Ligue des champions – trophée le plus prestigieux d’Europe – sera accompagné de 11 autres équipes européennes, ainsi que de six équipes d’Amérique du Sud, quatre équipes africaines, quatre équipes asiatiques, quatre équipes nord-américaines et une équipe d’Océanie.

Pour aller encore plus loin dans la démesure de ses évènements, le président de la Fifa Gianni Infantino déclarait en mars 2025 vouloir animer la mi-temps de la finale du Mondial 2026 avec un show inspiré par le Super Bowl.

Une stratégie cohérente ?

L’organisation d’événements sportifs de cette échelle contredit l’enjeu à réduire nos émissions de gaz à effet de serre pour limiter le changement climatique. Le choix d’augmenter le nombre de participants – et ainsi le nombre de matchs à vendre aux partenaires commerciaux – semble être une vision uniquement financière. Une coupe du monde classique à 32 équipes et dans un seul pays émet déjà, selon les estimations de la Fifa elle-même, 3,6 millions de tonnes de CO2.

Mais ce choix est également critiquable d’un point de vue économique. Il est important de rappeler à la Fifa qu’en matière de stratégie des organisations, il existe généralement deux grandes stratégies possibles.

  • La première est la stratégie générique de domination globale par les coûts, où l’avantage concurrentiel obtenu passera par la recherche d’augmentation des volumes de production et, traditionnellement, par la mise en place d’économie d’échelles.

  • La seconde est celle de différenciation, où l’assemblage de facteurs clés de succès va permettre de se démarquer de ses concurrents.

Dans un monde où les ressources sont limitées et vont être de plus en plus difficiles d’accès, la logique d’augmentation des volumes semble être la moins intéressante à long terme. Au contraire, on peut rappeler à la Fifa l’intérêt des modèles de stratégie permettant d’évaluer les avantages concurrentiels d’une entreprise.

L’un de ces modèles, le VRIST, développé par Laurence Lehman-Ortega et ses collègues, se base sur les ressources et compétences de l’organisation qui permettent d’obtenir de la valeur.

Selon ce modèle, les organisations doivent évaluer leurs ressources et compétences au regard de cinq critères clés : la création de valeur : pour une organisation, organiser un événement sportif n’est intéressant que si cet événement intéresse suffisamment de personnes pour en tirer un revenu ; la rareté ; la protection contre l’imitation ; la protection contre la substitution et enfin la protection contre le transfert de la ressource ou de la compétence.

Pour faciliter cette protection, l’organisation peut jouer sur trois leviers :

  • La spécificité : il s’agit de développer pour un client un produit ou service spécifique ;

  • L’opacité des ressources, ou la non-transparence : cette technique permet de garder la recette, si l’on peut dire, secrète ;

  • La complémentarité des ressources : elle permet d’avoir la présence de liens informels entre les aptitudes et ressources qui les protègent. Par exemple, avoir deux wagons dans un train n’est intéressant que si nous n’avons un engin de traction capable de les déplacer. La complémentarité s’évaluera au regard non seulement du nombre de locomotives, mais également en fonction de leurs puissances et du nombre de wagons qu’elles peuvent tracter.

Ce que devrait faire la Fifa

La Fifa aurait ainsi tout intérêt à appliquer cette logique issue de la théorie des ressources en cherchant à rendre ses événements plus rares. Selon cette logique, se diriger vers une coupe du monde tous les deux ans, plutôt que tous les quatre ans, est un non sens.

Elle devrait plutôt chercher à rendre ses ressources et compétences inimitables, non substituables et non transférables, en s’appuyant sur la maîtrise historique, la spécificité de ses compétitions qui se voulaient exclusives en autorisant uniquement les meilleurs équipes du monde à y participer et la complémentarité d’une Coupe du monde des équipes nationales tous les quatre ans avec une Coupe du monde des clubs limitée aux sept champions continentaux tous les ans.

En augmentant le nombre de matchs et de compétitions, l’organisation internationale en charge du football ne protège pas ses ressources et compétences et ne tient pas compte du changement climatique. En fin de compte, le football semble s’exonérer de ses responsabilités environnementales au motif qu’il divertit.

Pour réduire l’impact environnemental des compétitions internationales de football, les auteurs du rapport du Shift Project suggèrent quelques pistes. Les deux principales sont la proximité – limiter les déplacements trop nombreux et trop fréquents en favorisant les spectateurs locaux – et la modération – limiter le nombre de matchs.

Pour le moment, la Fifa semble prendre le chemin opposé, alors que la voie à suivre serait un retour à une Coupe du monde avec moins d’équipes, où des qualifications régionales regagneraient en intérêt, notamment avec la disparition de compétitions comme la Ligue des nations en Europe, qui diluent l’intérêt pour l’épreuve reine.

La proximité des matchs permettrait de jouer sur les rivalités régionales et renforcer l’intérêt des spectateurs, comme lors des matchs Brésil-Argentine ou France-Allemagne.

En définitive, la Fifa devrait chercher à proposer des sommets mondiaux rares, générant une forte attente, plutôt que de proposer des matchs nombreux, mais ennuyeux. C’est un point sur lequel convergent à la fois le rapport du Shift Project et la théorie des ressources.

The Conversation

Frédéric Lassalle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

10.04.2025 à 11:58

Le défi du recyclage des plastiques des équipements sportifs

Madeline Laire-Levrier, Doctorante Circularité des Plastiques des équipements sportifs, Arts et Métiers ParisTech

Carola Guyot Phung, Ingénieur recherche I2M - Université de Bordeaux et Bordeaux Sciences Agro, École polytechnique

Carole Charbuillet, Enseignante Chercheure- Circularité des matériaux dans les produits complexes, Arts et Métiers ParisTech

Nicolas Perry, Professeur des Universités, enseignant chercher dans le domaine de l'écoconception, l'évaluation environnementale et l'économie circulaire ; impliqué dans des sujets en liens avec les activités industrielles, les produits complexes manufacturés., Arts et Métiers ParisTech

Skis, raquettes, ballons, planches de surf… Tous nos équipements sportifs sont des casse-têtes à recycler.
Texte intégral (2349 mots)
Le plastique est devenu omniprésent dans nos équipements sportifs. Freepik, CC BY

Skis, raquettes, ballons, planches de surf… Tous nos équipements sportifs sont de vrais casse-tête à recycler. Pour minimiser leur impact et faciliter leur fin de vie, il devient donc nécessaire de repenser leur conception.


C’est un constat qui s’impose dès qu’on met un pied dans un magasin d’équipements sportifs. Le plastique y est devenu omniprésent et a fini par remplacer les matériaux comme le bois dans presque tous les sports : skis et vélos en fibres de carbone, kayaks en polyéthylène pour les loisirs et en fibres de verre pour les compétitions… Malgré leurs qualités indéniables en termes de performance, ces matériaux deviennent problématiques, en fin de vie de ces produits, pour la gestion des déchets et la pollution qu’ils génèrent.

Cette réalité interpelle alors même que, dans la foulée des Jeux olympiques Paris de 2024, les JO d’hiver de 2030 se dérouleront dans les Alpes françaises. Leur organisation est déjà lancée avec l’objectif de jeux responsables et soutenables pour nos montagnes. En parallèle, le comité d’organisation des Jeux de Paris 2024 a, lui, publié en décembre dernier son rapport de soutenabilité présentant les initiatives engagées pendant ces jeux (emballages, installations, logements, transports…). Il montre qu’il est possible de prendre en compte la question environnementale lors d’un grand événement.

Mais qu’en est-il exactement pour les équipements sportifs utilisés au quotidien ?

Une nouvelle filière REP dédiée aux articles de sport et de loisirs

Si vous avez chez vous un ballon, une raquette de ping-pong ou bien un tapis de yoga, sachez que cette question vous concerne désormais directement depuis l’instauration d’un principe de responsabilité élargie du producteur (REP) pour les articles de sport et de loisirs (ASL), entré en vigueur en 2022.

Une REP est un dispositif qui rend responsable les entreprises du cycle de vie de leurs produits, de la conception jusqu’à la fin de vie. La première REP a été instaurée en 1993 pour les emballages ménagers. La REP ASL est, quant à elle, le premier dispositif à l’échelle mondiale qui se penche sur les équipements sportifs.

Elle concerne tous les équipements utilisés dans le cadre d’une pratique sportive ou d’un loisir de plein air ; incluant les accessoires et les consommables (chambre à air, leurre de pêche, cordage de raquette de tennis…). Globalement, tout produit qui ne peut être utilisé que pour la pratique d’un sport entre dans le périmètre de cette REP. Ainsi, des baskets qui peuvent être portées quotidiennement entrent dans le périmètre de la REP textiles chaussures et linges de maison (REP TLC), instaurée en 2007, tandis que des chaussons d’escalade entrent dans la REP ASL.

Cette réglementation est du ressort des fabricants et distributeurs, mais elle vous concerne également, car les vendeurs et producteurs doivent désormais payer une écocontribution qui se répercute sur le prix final (de quelques centimes à quelques euros) que le consommateur paye.

Cette écocontribution permet de financer la collecte, le tri et les opérations de broyage et de nettoyage de la matière, en vue du recyclage et de l’élimination, ainsi que la réutilisation en seconde main des produits en fin de vie. Mais dans la réalité, il ne suffit pas de payer ce traitement de fin de vie pour qu’il soit réalisé. Car la tâche est complexe et qu’elle implique de nombreux acteurs.


Visuel d’illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu

Abonnez-vous dès aujourd’hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


Les spécificités du plastique dans les articles de sport et de loisirs

D’ici à 2027, la moitié (en masse) des articles de sport et de loisirs devront être recyclés. Pour les vélos, cet objectif est encore plus grand puisqu’il est de 62 %. Les plastiques sont à traiter en priorité, car ils représentent un tiers des matériaux constituant les ASL. En effet, la recherche de performance dans le milieu du sport et des loisirs implique une grande diversité et complexité de matières pour ce gisement. Les produits eux-mêmes sont composés de différents plastiques :

  • mélangés (dans les formulations), comme pour les kayaks ;

  • multicouches (superposés et/ou collés), comme pour les skis ;

  • assemblés (clipsés, vissés, etc.), comme pour les casques de vélo ;

  • composites (fibre de verre ou de carbone), comme pour les planches de surf ;

  • mousses, comme le rembourrage des crash pads d’escalade ;

  • élastomères, comme les balles de tennis ;

  • plastiques souples, comme les ballons de foot…

En quoi sont faits les articles de sport et de loisirs ? Fourni par l'auteur

Cette diversité de matériaux au sein même de la fraction plastique engendre des difficultés pour le tri et, donc, pour le recyclage. Les technologies et les circuits logistiques diffèrent selon les produits, les matériaux et les composants.

La mise en circularité du plastique depuis la fin d’utilisation jusqu’à sa réutilisation dans un nouveau produit est singulière et propre à chaque matière. La complexité des produits a aussi des conséquences sur la rentabilité du recyclage, ce qui peut freiner les investissements.

Les pistes et champs d’action en matière de recyclage

Mettre en place une nouvelle filière dédiée à ce type de produits implique également de connaître le flux de déchets, sa disponibilité pour le recyclage, la caractérisation des matières au sein des produits et nécessite une demande suffisante pour justifier des investissements.

Pour être le plus efficace possible, il faudra donc que ces investissements s’appuient sur d’autres éléments en amont. Tout d’abord, l’écoconception pour prolonger la durée de vie des produits et pour faciliter le désassemblage. Ce dernier point constitue un axe clé de la circularité des équipements sportifs. En effet, la majeure partie des équipements sportifs sont complexes à désassembler manuellement, et cela peut même être dangereux pour les agents qui en sont chargés et qui peuvent se blesser ou se couper.

Plus le produit est performant, plus il est complexe à démonter. Les rollers sont, par exemple, composés de plastiques durs et d’inserts métalliques qui n’ont pas été conçus pour être démonter. Pour résoudre cela, le désassemblage robotisé peut être une voie à expérimenter.

L’écoconception facilite également le tri et les opérations de recyclage, par exemple en réduisant le nombre de matières utilisées (casques de ski uniquement en polypropylène), en privilégiant des matières pour lesquelles les technologies de recyclage sont matures (kayaks en polyéthylène). Les matières biosourcées constituent une voie alternative, mais leur recyclage reste limité ou en phase de développement. Ces matières peuvent donc être un frein au traitement de fin de vie actuelles et ont parfois des impacts plus élevés sur l’environnement au moment de leur production.

Agir chacun à son échelle (utilisateur, club, fédération, producteur…)

Chacun peut enfin contribuer à l’efficacité de la nouvelle filière en déposant ses articles en fin de vie dans les lieux réservés à la collecte : déchetteries, clubs sportifs, distributeurs, recycleries (certaines sont spécialisées dans la récupération d’équipements sportifs) et lieux de l’économie sociale et solidaire. Déposer son article usagé est la première étape pour réussir la mise en circularité des ASL.

Les clubs sportifs, par le biais des fédérations nationales, peuvent également organiser des collectes permanentes ou ponctuelles d’équipements usagés sur les lieux de pratique et faciliter à plus grande échelle la récupération des matériaux, nécessaire à la performance de la filière. Les distributeurs spécialisés peuvent eux aussi développer l’offre des bacs de collecte.

C’est par ces gestes que commence la mise en circularité des ASL. Enfin, les sportifs et les utilisateurs (clubs, kinésithérapeutes…) d’équipements peuvent privilégier le réemploi et la réparation.

Les producteurs doivent, quant à eux, travailler sur l’écoconception, en discussion avec les acteurs de gestion des déchets ainsi qu’avec les recycleurs pour que le recyclage soit le plus efficace possible. Les équipementiers de sports d’hiver ont déjà fait des efforts dans ce sens pour certains modèles de skis et de casques de ski, mais cela reste encore insuffisant.

The Conversation

Madeline Laire-Levrier a reçu des financements de l'ADEME et ECOLOGIC France.

Carola Guyot Phung a bénéficié de financements d'entreprises privées de la filière forêt-bois et d'ECOLOGIC France

Carole Charbuillet a bénéficié de financements publics de l'ADEME et l'ANR dans le cadre de ses travaux de recherche mais également d'Ecologic et ecosystem (chaire Mines Urbaines).

Nicolas Perry ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

09.04.2025 à 15:04

L’incendie du centre de tri à Paris, symbole de l’envers des déchets ?

Maxence Mautray, Doctorant en sociologie de l’environnement, Université de Bordeaux

Les départs de feu dans les centres de tri sont malheureusement très fréquents et souvent causés par des erreurs humaines, possibles à divers stades du tri des déchets.
Texte intégral (1762 mots)

Les départs de feu dans les centres de tri sont malheureusement très fréquents et souvent causés par des erreurs humaines qui peuvent intervenir à différents stades de la gestion du tri, une activité qui rassemble de nombreux acteurs, ayant des objectifs parfois contradictoires.


Lundi 7 avril au soir, le centre de tri des déchets du XVIIe arrondissement de Paris s’est embrasé, provoquant la stupeur des riverains. Le feu, maîtrisé durant la nuit grâce à l’intervention de 180 pompiers, n’a fait aucun blessé parmi les 31 salariés présents, l’alarme incendie s’étant déclenchée immédiatement.

Si aucune toxicité n’a pour l’heure été détectée dans le panache de fumée émanant du site, l’incident a eu des conséquences pour les habitants : une portion du périphérique a dû être fermée à la circulation et un confinement a été décrété pour les zones à proximité. Le bâtiment, géré par le Syctom (le syndicat des déchets d’Île-de-France), s’est finalement effondré dans la matinée du mardi 8 avril.

Mais comment un feu aussi impressionnant a-t-il pu se déclarer et durer toute une nuit en plein Paris ? Si les autorités n’ont pas encore explicité toute la chaîne causale entraînant l’incendie, elles ont cependant mentionné, lors notamment de la prise de parole du préfet de police de Paris Laurent Nuñez, la présence de bouteilles de gaz dans le centre de tri et l’explosion de certaines, ce qui a pu complexifier la gestion du feu par les pompiers, tout comme la présence de nombreuses matières combustibles tel que du papier et du carton dans ce centre de gestion de tri.

Une chose demeure elle certaine, un départ de feu dans un centre de tri n’est malheureusement pas une anomalie. De fait, si cet incendie, de par son ampleur et peut-être aussi les images virales des panaches de fumées devant la tour Eiffel, a rapidement suscité beaucoup d’émois et d’attention, à l’échelle de la France, ce genre d’événement est bien plus fréquent qu’on ne le pense.

Depuis 2010, 444 incendies

La base de données Analyse, recherche et information sur les accidents (Aria), produite par le Bureau d’analyse des risques et pollutions industriels (Barpi) nous éclaire à ce sujet.

Depuis 2010, 444 incendies ont été recensés en France sur des installations de traitement et d’élimination des déchets non dangereux (centres de tri, plateformes de compostage, centres d’enfouissement…).

À ces incendies s’ajoutent parfois des explosions, des rejets de matières dangereuses et des pollutions des espaces environnants et de l’air. L’origine humaine est souvent retenue comme la cause de ces catastrophes. Même si elles n’entraînent pas toujours des blessés, elles soulignent la fragilité structurelle de nombreuses infrastructures du secteur des déchets ménagers.

Au-delà de cet événement ponctuel, l’incendie de Paris soulève donc peut-être un problème plus profond. En effet, notre système de gestion des déchets implique une multiplicité d’acteurs (ménages, industriels, services publics…) et repose sur une organisation complexe où chaque maillon peut devenir une source d’erreur, conduisant potentiellement à la catastrophe.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Un métier dangereux et méconnu

De fait, pénétrer dans un centre de gestion de tri, comme il m’a été donné de le faire dans le cadre de mes recherches doctorales, c’est se confronter immédiatement aux risques quotidiens associés aux métiers de tri des déchets dans les centres.

Si l’on trouve dans ces centres des outils toujours plus perfectionnés, notamment pour réaliser le premier tri entrant, l’œil et la main humaine restent malgré tout toujours indispensables pour corriger les erreurs de la machine.

Ces métiers, bien qu’essentiels au fonctionnement des services publics des déchets, sont pourtant peu connus, malgré leur pénibilité et leurs risques associés. Les ouvriers, dont le métier consiste à retirer les déchets non admis des flux défilant sur des tapis roulants, sont exposés à des cadences élevées, des heures de travail étendues et des niveaux de bruits importants.

Ils sont aussi confrontés à de nombreux risques : des blessures dues à la répétition et la rapidité des gestes, mais aussi des coupures à cause d’objets parfois tranchants, voire des piqûres, car des seringues sont régulièrement présentes dans les intrants.

Des erreurs de tri persistantes

La majorité du travail des ouvriers de ces centres consiste ainsi à compenser les erreurs de tri réalisées par les ménages. Ce sont souvent des éléments qui relèvent d’autres filières de recyclage que celle des emballages ménagers et sont normalement collectés différemment : de la matière organique comme des branchages ou des restes alimentaires, des piles, des ampoules ou des objets électriques et électroniques, ou encore des déchets d’hygiène comme des mouchoirs et des lingettes.

Ces erreurs, qui devraient théoriquement entraîner des refus de collecte, ne sont pas toujours identifiées par les éboueurs lors de leurs tournées.

Derrière cette réalité, on trouve également les erreurs de citoyens, qui, dans leur majorité, font pourtant part de leur volonté de bien faire lorsqu’ils trient leurs déchets.

Mais cette intention de bien faire est mise à l’épreuve par plusieurs obstacles : le manque de clarté des pictogrammes sur les emballages, une connaissance nécessaire des matières à recycler, des règles mouvantes et une complexité technique croissante.

Ainsi, l’extension récente des consignes de tri, depuis le 1er janvier 2023, visant à simplifier le geste en permettant de jeter tous les types de plastiques dans la poubelle jaune, a paradoxalement alimenté la confusion. Certains usagers expliquent qu’ils hésitent désormais à recycler certains déchets, comme les emballages en plastique fin, par crainte de « contaminer » leur bac de recyclage, compromettant ainsi l’ensemble de la chaîne du recyclage.

Malgré ces précautions, les erreurs de tri persistent. À titre d’exemple, le Syndicat mixte intercommunal de collecte et de traitement des ordures ménagères (Smictom) des Pays de Vilaine comptait 32 % de déchets non recyclables dans les poubelles jaunes collectées sur son territoire en 2023. Après 20 000 vérifications de bacs jaunes effectuées en une année afin de mettre en place une communication adaptée à destination de la population, ce taux n’a chuté que de cinq points en 2024, signe que la sensibilisation seule ne suffit pas à réorienter durablement les pratiques des usagers.

Les défis de notre système complexe de gestion des déchets

Notre système de gestion des déchets comporte donc un paradoxe. D’un côté, les ménages ont depuis longtemps adopté le geste de tri au quotidien et s’efforcent de le réaliser de manière optimale, malgré des informations parfois peu claires et un besoin constant d’expertise sur les matières concernées. De l’autre, il n’est pas possible d’attendre un tri parfait et les centres de tri se retrouvent dans l’obligation de compenser les erreurs.

À cela s’ajoute une complexité supplémentaire qui réside dans les intérêts divergents des acteurs de la gestion des déchets en France.

Les producteurs et les grandes surfaces cherchent à mettre des quantités toujours plus importantes de produits sur le marché, afin de maximiser leurs profits, ce qui génère toujours plus de déchets à trier pour les consommateurs.

Les services publics chargés de la gestion des déchets sont aussi confrontés à une hausse constante des ordures à traiter, ce qui entre en tension avec la protection de l’environnement et de la santé des travailleurs. Enfin, les filières industrielles du recyclage, communément nommées REP, souhaitent pour leur part accueillir toujours plus de flux et de matières, dans une logique de rentabilité et de réponse à des objectifs croissants et des tensions logistiques complexes.

Dans un tel contexte, attendre une organisation fluide et parfaitement maîtrisée de la gestion des déchets relève de l’utopie. Chacun des maillons de la chaîne poursuit des objectifs parfois contradictoires, entre recherche de la rentabilité, contraintes opérationnelles, protection des humains et de l’environnement et attentes des citoyens. Si des initiatives émergent (simplification du tri, contrôle des infrastructures, sensibilisation des citoyens, innovations technologiques, etc.), elles peinent à harmoniser l’ensemble du système.

Dès lors, le risque d’incidents ne peut être totalement éliminé. L’incendie du centre parisien n’est donc pas une exception, mais bien le témoin d’un système qui, malgré les efforts, reste structurellement vulnérable. Loin de pouvoir atteindre le risque zéro, la gestion des déchets oscille en permanence entre prévention, adaptation et situation de crise.

The Conversation

Maxence Mautray a reçu, de 2020 à 2024, des financements de la part du ministère de l'Enseignement supérieur et de la Recherche et du SMICVAL Libournais Haute Gironde dans le cadre d'une recherche doctorale.

08.04.2025 à 16:33

Afrique : comment les drones de livraison pourraient transformer les prévisions météo

Jérémy Lavarenne, Research scientist, Cirad

Cheikh Modou Noreyni Fall, Chercheur au Laboratoire Physique de l'Atmosphère et de l'Océan de l'UCAD, Université Cheikh Anta Diop de Dakar

Alors que les données météo manquent cruellement en Afrique, une idée fait son chemin. Celle d’utiliser les drones, de plus en plus nombreux dans les ciels du continent pour livrer par exemple des médicaments.
Texte intégral (2131 mots)
Deux drones dans une zone rurale du Malawi, utilisés, dans le cadre de la coopération financée par l’Union européenne, pour dresser des cartes localisant les infrastructures et ressources vitales les plus proches, destinées à la population locale. Anouk Delafortrie (UE)/Flickr, CC BY

Alors que les données météo manquent cruellement en Afrique, une idée fait son chemin. Celle d’utiliser les drones, de plus en plus nombreux dans les ciels du continent pour livrer par exemple des médicaments. Car ces derniers peuvent fournir également de nombreuses données météo.


Un drone fend le ciel au-dessus des plaines ensoleillées d’Afrique de l’Ouest. Ses hélices vrombissent doucement dans l’air chaud de l’après-midi. Au sol, un agriculteur suit du regard l’appareil qui survole son champ, où ses cultures peinent à se développer, à cause d’un épisode de sécheresse. Comme la plupart des paysans de cette région, il ne peut compter que sur les précipitations, de plus en plus irrégulières et imprévisibles. Ce drone qui passe pourrait-il changer la donne ? Peut-être.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Une véritable explosion des drones de livraison en Afrique

Nés dans divers contextes civils et militaires (photographie, surveillance, cartographie…), les drones connaissent aujourd’hui une expansion fulgurante en Afrique, surtout pour la livraison de produits de première nécessité dans des zones difficiles d’accès. Parmi eux, la société états-unienne Zipline et les Allemands de Wingcopter sont particulièrement actifs au Rwanda, au Ghana, au Nigeria, au Kenya, en Côte d’Ivoire et au Malawi, où ils transportent du sang, des vaccins, des médicaments ou encore du matériel médical.

Mais ce que l’on sait moins, c’est que ces drones portent aussi en eux un potentiel météorologique : au fil de leurs livraisons, et afin de sécuriser les vols et planifier efficacement leur route, ils enregistrent des données sur la vitesse du vent, la température de l’air ou la pression atmosphérique.

Un manque criant de données météo

Pourquoi ces informations sont-elles si précieuses ? Parce qu’en matière de prévision météo, l’Afrique souffre d’un déficit majeur. Par exemple, alors que les États-Unis et l’Union européenne réunis (1,1 milliard d’habitants à eux deux) disposent de 636 radars météorologiques, l’Afrique – qui compte pourtant une population quasi équivalente de 1,2 milliard d’habitants – n’en possède que 37.

Les raisons derrière cela sont multiples : budgets publics en berne, manque de moyens techniques, mais aussi monétisation progressive des données, rendant l’accès à l’information plus difficile. La question du financement et du partage de ces données demeure pourtant cruciale et devient un enjeu majeur pour la sécurité alimentaire et la gestion des risques climatiques.


À lire aussi : Le paradoxe des données climatiques en Afrique de l’Ouest : plus que jamais urgentes mais de moins en moins accessibles


La « collecte opportuniste » de données météo

Dans ce contexte, chaque nouveau moyen de récupérer des informations est un atout. Or, si les drones de livraison africains ont d’abord été pensés pour desservir des lieux isolés, ils permettent aussi des relevés météo dits « opportunistes » effectués en marge de leurs missions, dans une logique comparable aux relevés « Mode-S EHS » transmis par les avions de ligne depuis des altitudes beaucoup plus importantes. Zipline affirme ainsi avoir déjà compilé plus d’un milliard de points de données météorologiques depuis 2017. Si ces relevés venaient à être librement partagés avec les agences de météo ou de climat, ils pourraient ainsi, grâce à leurs vols à basse altitude, combler les lacunes persistantes dans les réseaux d’observation au sol.

La question du partage reste toutefois ouverte. Les opérateurs de drones accepteront-ils de diffuser leurs données ? Seront-elles accessibles à tous, ou soumises à des accords commerciaux ? Selon la réponse, le potentiel bénéfice pour la communauté scientifique et pour les prévisions météorologiques locales pourrait varier considérablement.

Fourni par l'auteur

Les drones déjà destinés à la météo

L’idée d’utiliser des drones destinés aux observations météo n’est pas neuve et rassemble déjà une communauté très active composée de chercheurs et d’entreprises. Des aéronefs sans équipage spécifiquement conçus pour la météorologie (appelés WxUAS pour Weather Uncrewed Aircraft Systems) existent déjà, avec des constructeurs comme le Suisse Meteomatics ou l’états-unien Windborne qui proposent drones et ballons capables de fournir des relevés sur toute la hauteur de la troposphère. Leurs capteurs de pointe transmettent en temps réel des données qui nourrissent directement les systèmes de prévision.

Selon les conclusions d’un atelier organisé par Météo France, ces observations contribuent déjà à améliorer la qualité des prévisions, notamment en réduisant les biais de prévision sur l’humidité ou le vent, facteurs clés pour détecter orages et phénomènes connexes. Pourtant, les coûts élevés, l’autonomie limitée et les contraintes réglementaires freinent encore une utilisation large de ces drones spécialisés.

Or, les appareils de livraison déployés en Afrique ont déjà surmonté une partie de ces défis grâce à leur modèle économique en plein essor, à un espace aérien moins saturé et à une large acceptation sociale – car ils sauvent des vies.

Entretien avec Tony Segales, l’un des scientifiques chargés de la construction et de la conception de drones pour mesurer l’atmosphère et améliorer les prévisions au National Weather Center de Norman, Oklahoma.

Fiabilité des données : des défis mais un fort potentiel

Reste la question de la fiabilité. Même si les drones de livraison captent des variables essentielles (vent, température, pression…), on ne peut les intégrer aux systèmes de prévision qu’à condition de valider et d’étalonner correctement les capteurs. Mais avec des protocoles rigoureux de comparaison et de calibration, ces « données opportunistes » pourraient répondre aux exigences de la météo opérationnelle et devenir un pilier inédit de la surveillance atmosphérique.

Leur utilisation serait d’autant plus précieuse dans les zones rurales, en première ligne face au changement climatique. Là où les stations au sol manquent ou vieillissent, les survols réguliers des drones pourraient fournir des relevés indispensables pour anticiper épisodes secs, orages violents ou autres phénomènes météo extrêmes.


À lire aussi : VIH : et si les drones servaient aussi à sauver des vies ?


L’essor d’initiatives locales

Parallèlement, des initiatives émergent pour démocratiser l’accès à la technologie drone. Au Malawi, par exemple, des projets universitaires (dont EcoSoar et African Drone and Data Academy) montrent que l’on peut construire à bas coût des drones de livraison efficaces à partir de matériaux simples (mousse, pièces imprimées en 3D). Cette démarche ouvre la voie à une potentielle collecte de données météo supplémentaires, accessible à des communautés qui souhaitent mieux comprendre et anticiper les aléas climatiques.

Coopération internationale et perspectives

À une échelle plus large, l’Organisation météorologique mondiale (OMM) mène la campagne Uncrewed Aircraft Systems Demonstration Campaign (UAS-DC), réunissant des opérateurs publics et privés autour d’un même objectif : intégrer les drones dans le réseau mondial d’observation météorologique et hydrologique. Les discussions portent sur la définition des mesures fondamentales (température, pression, vitesse du vent, etc.), et l’harmonisation des formats de données et sur leur diffusion pour que ces mesures soient immédiatement utiles aux systèmes de prévision.

Cependant, ces perspectives ne deviendront réalité qu’au prix d’une coopération poussée. Entre acteurs publics, opérateurs de drones et gouvernements, il faudra coordonner la gestion, la standardisation et, surtout, le partage des informations. Assurer un libre accès – au moins pour des organismes à but non lucratif et des communautés rurales – pourrait transformer ces données en un levier majeur pour la prévision et la résilience climatiques.

Qu’ils soient opérés par de grandes sociétés ou construits localement à moindre coût et s’ils continuent d’essaimer leurs services et de collecter des relevés, les drones de livraison africains pourraient bien inaugurer une nouvelle ère de la météorologie sur le continent : plus riche, plus précise et, espérons-le, plus solidaire – grâce à des modèles économiques soutenables, à l’utilisation déjà effective de données météo embarquées et à la créativité citoyenne qui émerge un peu partout.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

07.04.2025 à 16:56

Plus de trace de l’objectif « zéro artificialisation nette » ?

Brian Padilla, écologue, recherche-expertise "biodiversité et processus d'artificialisation", Muséum national d’histoire naturelle (MNHN)

Fanny Guillet, sociologue, chargée de recherche au CNRS, Muséum national d’histoire naturelle (MNHN)

Julien Siracusa-Philippe, Chargé de projet "Évaluation scientifique des politiques publiques de neutralité écologique"

Maylis Desrousseaux, Maîtresse de conférences en Urbanisme, Université Paris-Est Créteil Val de Marne (UPEC)

La proposition de loi Trace en cours de discussion au Parlement diminue fortement l’objectif « zéro artificialisation nette », fixés en 2021. Mais quels étaient ces objectifs et en quoi sont-ils menacés ?
Texte intégral (2528 mots)
Un village dans les Alpes-Maritimes. Dans ce département, 35,35 % du littoral est artificialisé, ce qui en fait l’un des taux les plus élevés de France. Kemal Mercan/Shutterstock

La proposition de loi Trace (Trajectoire de réduction de l’artificialisation concertée avec les élus), en cours de discussion au Parlement, diminue fortement les objectifs de « zéro artificialisation nette » (ZAN), fixés en 2021. Mais quels étaient ces objectifs et en quoi sont-ils menacés ?


Chaque année, la France hexagonale voit en moyenne 200 km2 d’espaces naturels, agricoles ou forestiers disparaître. C’est l’équivalent de 20 000 terrains de football qui sont ainsi artificialisés. Dans les deux tiers des cas, ces espaces sont dévolus à la construction de nouveaux logements, souvent loin des métropoles, dans des zones à faible croissance démographique. Plus frappant encore, un quart de cette artificialisation concerne des communes qui perdent des habitants.

Ces chiffres sont préoccupants, alors que de nombreux travaux scientifiques soulignent le rôle de l’artificialisation des sols dans les crises écologiques actuelles. La fragmentation et la disparition d’espaces naturels figurent de fait parmi les principales causes de l’effondrement de la biodiversité. La diminution de la capacité des sols à stocker le CO2 – voire la transformation de ces derniers en sources d’émission lorsqu’ils sont dégradés – accentue les dérèglements climatiques. L’imperméabilisation des sols favorise, elle, le ruissellement de surface, amplifiant la pollution des cours d’eau et les risques d’inondations.

Les récentes crues dévastatrices dans les Hauts-de-France au cours de l’hiver 2023-2024 ou encore les inondations survenues en octobre 2024 dans le centre et le sud de la France sont les derniers témoins des conséquences directes de l’artificialisation et de l’altération des fonctions écologiques des sols.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le ZAN : une ambition environnementale reléguée au second plan

Pour enrayer l’effondrement de la biodiversité et amorcer une stratégie nationale de préservation des sols, la France s’est fixé un objectif ambitieux dans la loi Climat et résilience (2021) : « zéro artificialisation nette » (ZAN) en 2050. Construit en 2 étapes, cet objectif vise dans un premier temps à réduire de moitié la consommation d’espaces naturels, agricoles et forestiers (Enaf) sur la période allant de 2021 à 2031 par rapport à la décennie précédente, puis, d’ici à 2050, de prendre les dispositions nécessaires pour qu’à l’échelle nationale, un hectare soit « désartificialisé » pour chaque hectare artificialisé.

Initialement pensé comme une politique environnementale ambitieuse, le ZAN a néanmoins suscité de nombreux débats autour de sa mise en œuvre et sur la répartition des « enveloppes » d’artificialisation. Son déploiement territorial, censé permettre aux régions d’organiser la réduction de la consommation d’Enaf, s’est transformé en un exercice comptable. Plutôt que de s’intéresser à évaluer les conséquences des choix d’aménagement sur le fonctionnement des écosystèmes composant leurs territoires, les représentants des collectivités se sont en effet opposés aux méthodes retenues pour compter les mètres carrés artificialisés.

Les autorités environnementales, chargées de rendre des avis publics sur les études d’impacts des projets, plans et programmes, rappellent pourtant dans leurs avis successifs et leurs rapports annuels que le ZAN ne se limite pas à un simple contrôle des surfaces artificialisées : il implique aussi d’évaluer l’impact des projets sur les fonctions écologiques des sols.

Malgré ces rappels, face à la pression des associations d’élus, le Sénat a déjà assoupli le dispositif, en 2023, avec la loi ZAN 2, qui repousse le calendrier de mise en œuvre et offre à de nombreuses communes la garantie de pouvoir consommer à hauteur d’un hectare d’Enaf, sans prendre la peine de discuter des besoins en matière d’aménagement et des alternatives à explorer.


À lire aussi : Objectif ZAN : comment tenir les comptes ?


La loi Trace : assouplissement ou déconstruction du ZAN ?

Avec la proposition de loi Trace (Trajectoire pour une réduction de l’artificialisation concertée avec les élus) – adoptée par le Sénat, le 18 mars dernier, et dans l’attente d’un examen à l’Assemblée nationale, l’objectif ZAN risque une nouvelle fois d’être profondément fragilisé. Présentée comme un simple assouplissement, cette réforme remet en cause des avancées de la loi Climat et résilience. Elle retourne par exemple, à une définition comptable de l’artificialisation, fondée uniquement sur la consommation d’Enaf et supprime celle de la loi Climat et résilience qui la qualifiait comme une « altération durable de tout ou partie des fonctions écologiques des sols ».

Cette dernière définition s’approchait pourtant des constats issus des travaux en écologie, selon lesquels l’intensification des usages de l’espace participe aux impacts sur le bon fonctionnement des écosystèmes.

Ces quatre photographies illustrent des niveaux d’artificialisation croissants. Des espaces verts urbains régulièrement tondus ou des espaces agricoles intensifs participent à l’altération des fonctions écologique des sols
Ces quatre photographies illustrent des niveaux d’artificialisation croissants. Des espaces verts urbains régulièrement tondus ou des espaces agricoles intensifs participent à l’altération des fonctions écologique des sols. Images : Pixabay/Pexels/Wikimedia, Fourni par l'auteur

De fait, la suppression de cette définition suppose qu’un sol peut être interchangeable avec un autre tant que son usage reste naturel, agricole ou forestier, ignorant ainsi tous les processus écologiques qui conduisent à la création, à l’évolution et à la santé d’un sol.

En choisissant de prendre en compte uniquement la consommation d’Enaf, la proposition de loi laisse aussi de côté le principal outil qui permettait de mesurer, à une échelle fine, les changements d’usage et d’occupation des sols. Les données d’occupation du sol à grande échelle (OCS GE), produites par l’IGN pour comptabiliser l’artificialisation permettaient en effet de suivre l’artificialisation causée par les politiques de planification de l’urbanisme.

Le calcul de la consommation d’Enaf se base sur les parcelles cadastrales et les fichiers fonciers, tandis que les données de l’OCS GE sont spatialement plus précises. Les espaces considérés comme artificialisés sont très différents selon la méthode reten
Le calcul de la consommation d’Enaf se base sur les parcelles cadastrales et les fichiers fonciers, tandis que les données de l’OCS GE sont spatialement plus précises. Les espaces considérés comme artificialisés sont très différents selon la méthode retenue. Graphique réalisé à partir d'une orthophotographie de la BD TOPO V3, des données cadastrales du Plan Cadastral Informatisé et des données de l'OCS GE, Fourni par l'auteur

Autre recul significatif : le report à 2034 de l’objectif intermédiaire de réduction de l’artificialisation, dont l’ambition sera désormais fixée par les régions. Ce décalage enterre l’idée d’une transition immédiate vers une sobriété foncière, pourtant essentielle pour repenser nos besoins en aménagement, alors même que de nombreux élus ont déjà commencé à intégrer ces objectifs (c’est le cas par exemple de la Région Bretagne ou encore du schéma de cohérence territoriale (Scot) de Gascogne).

S’y ajoute par ailleurs une disposition visant à accorder un droit à artificialiser de 0,5 ha en cas de requalification d’un hectare de friche. Autrement dit, lorsqu’une collectivité s’emploiera à aménager sur 4 ha d’espaces délaissés, elle sera autorisée à détruire par ailleurs 2 ha supplémentaires d’Enaf.

Enfin, l’exclusion des projets d’envergure nationale ou européenne du calcul de l’artificialisation marque un autre tournant préoccupant. Ces grands projets, dont la liste ne cesse de s’allonger, sont supposés permettre de concilier le développement économique et la transition écologique. Y figurent pourtant de nombreux projets routiers, des établissements pénitentiaires et des zones d’activité. Le législateur choisirait ainsi d’exonérer l’État des contraintes du ZAN, opposant de fait sa politique de réindustrialisation aux impératifs de préservation de l’environnement.

En quelques articles seulement, la proposition de loi Trace transforme ainsi l’objectif ZAN en un catalogue d’exceptions, autorisant la destruction et la fragmentation des espaces naturels sans réelle évaluation de leurs fonctions écologiques. Il ne reste, de fait, plus grand-chose des ambitions initiales d’une loi qui voulait donner un élan nouveau à une politique de régulation de l’aménagement qui peine à porter ses fruits depuis vingt-cinq ans.

Quelques semaines après l’annulation par le tribunal administratif de Toulouse du projet d’autoroute A69 – qui devait artificialiser 366 hectares de sols et dont les travaux ont déjà causé la destruction de nombreux espaces naturels, cette nouvelle proposition de loi illustre les tensions croissantes entre, d’un côté, les mobilisations citoyennes contestant les grands projets d’aménagement consommateurs de foncier et, de l’autre, une volonté politique de simplification, qui semble aller à rebours des engagements environnementaux annoncés dans la stratégie nationale Biodiversité 2030.

En cherchant à détricoter les principes du ZAN, la loi Trace pose donc une question fondamentale : voulons-nous réellement engager la transition, ou préférons-nous maintenir un modèle dépassé, aux dépens de l’environnement dont nous dépendons ?

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

06.04.2025 à 17:33

Climat et agriculture : pour éviter le risque de surchauffe, le levier du méthane

Marc Delepouve, Chercheur associé au CNAM, Docteur en épistémologie, histoire des sciences et des techniques, Conservatoire national des arts et métiers (CNAM)

Bertrand Bocquet, Professeur des Universités, Physique & Science, Technologie et Société, Université de Lille

En éliminant les énergies fossiles, on réduit les émissions de gaz à effet de serre… mais également de dioxydes de soufre à l’effet refroidissant. Comment éviter toute surchauffe transitoire ?
Texte intégral (2629 mots)

Limiter l’utilisation des énergies fossiles doit permettre de lutter contre le réchauffement climatique. Or, à court terme, il faut aussi prendre en compte l’autre conséquence de la décarbonisation de l’économie : la baisse des émissions de dioxydes de soufre, qui ont, au contraire, un effet refroidissant sur la planète. Pour pallier le risque de surchauffe transitoire, il existerait pourtant un levier précieux : réduire les émissions de méthane liées à l’agriculture.


L’agriculture est sous tension. Aujourd’hui source de problèmes écologiques, sanitaires, sociaux et même éthiques du fait des enjeux de souffrance animale, elle pourrait se situer demain du côté des solutions. Elle pourrait constituer le principal levier pour répondre au risque d’un épisode de surchauffe du climat.

La réduction de l’utilisation des énergies fossiles, rendue nécessaire pour l’atténuation du changement climatique, porte en effet un tel risque. Le recours aux énergies fossiles (charbon, pétrole, gaz naturel…) provoque des émissions de dioxyde de carbone (CO2), dont l’effet de serre réchauffe le climat. Mais la combustion d’un grand nombre de ces produits fossiles s’accompagne de l’émission de dioxyde de soufre (SO2) qui possède un effet refroidissant sur le climat et génère des aérosols qui ont eux aussi un effet refroidissant.

Au plan global, l’impact du CO2 en termes de réchauffement est plus fort que le pouvoir refroidissant du SO2 et constitue la première cause du changement climatique. Se passer des énergies fossiles, ce que nous nommerons dans cet article défossilisation de l’énergie, est donc au cœur des stratégies d’atténuation du changement climatique.

Le problème, c’est que les effets sur le climat d’une baisse des émissions de CO2 mettent du temps à se faire sentir du fait de la durée de vie élevée du CO₂ dans l’atmosphère. En comparaison, les effets d’une chute des émissions de SO2 sont quasiment immédiats, la durée de vie de ce gaz n’étant que de quelques jours dans la troposphère et de quelques semaines dans la stratosphère.

Si elles ne prennent en compte ces différences de temporalité, les stratégies d’atténuation pourraient conduire à un épisode de surchauffe momentané du climat. Les rapports du GIEC ont notamment exploré ces incertitudes : à l’issue d’un arrêt rapide des fossiles, l’effet réchauffant lié à la fin des émissions de SO2 se situerait très probablement dans la fourchette de 0,11 °C à 0,68 °C.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Afin de répondre à ce risque, certains promeuvent des solutions de géo-ingénierie, dont certaines sont porteuses de risques environnementaux majeurs. Pourtant, une solution simple qui ne présente pas de tels risques existe.

Elle repose en premier lieu sur la diminution rapide des émissions anthropiques de méthane, tout d’abord celles issues de l’agriculture, du fait de l’élevage de bétail notamment. Cette option est politiquement sensible, car elle nécessite l’appropriation de ces enjeux et la mobilisation du monde agricole et des consommateurs.

Pour ce faire, il est essentiel que des recherches ouvertes soient menées avec et pour la société.


À lire aussi : Climat : derrière les objectifs chiffrés, une édulcoration des connaissances scientifiques ?


De la surchauffe à l’emballement

Revenons d’abord sur l’effet refroidissant des émissions de SO2 émis par les énergies fossiles. Cet effet sur le climat résulte de l’albédo du SO2, c’est-à-dire du pouvoir réfléchissant du SO2 pour le rayonnement solaire. Cet albédo intervient à trois niveaux :

  • tout d’abord, directement par le SO2 lui-même,

  • ensuite, par l’intermédiaire de l’albédo des aérosols que génère le SO2,

  • enfin, ces aérosols agissent sur le système nuageux et en augmentent l’albédo. En leur présence les nuages sont plus brillants et réfléchissent plus de rayonnement solaire vers l’espace.


À lire aussi : Moins d’aérosols de soufre, moins d’éclairs : les effets surprenants d’une réglementation maritime


Ce n’est pas tout. Au risque d’un épisode de surchauffe dû à la baisse des émissions de SO2, s’ajoute celui d’une amplification du réchauffement par des phénomènes laissés sur le côté par les modèles climatiques et les scénarios habituels. Par exemple, des hydrates de méthane des fonds marins pourraient mener à des émissions subites de méthane. Autre exemple, sous les glaciers polaires, des populations de micro-organismes émetteurs de méthane ou de dioxyde de carbone pourraient se développer massivement du fait de la fonte des glaces.

La question prend une nouvelle importance : depuis 2024, l’ampleur du réchauffement se situe au-dessus de la fourchette probable prévue par le GIEC. La température moyenne de l’année 2024 a dépassé de plus de 1,5 °C le niveau de référence de l’ère préindustrielle. Pour le mois de janvier 2025, ce dépassement est de 1,75 °C, et de 1,59 °C en février, malgré le retour du phénomène climatique La Niña qui s’accompagne généralement d’un refroidissement temporaire des températures.

S’agit-il d’une tendance de fond ou seulement d’un écart passager ? À ce jour, il n’existe pas de réponse à cette question qui fasse l’objet d’un consensus entre les climatologues.

Réduire les émissions de méthane, une carte à jouer

Réduire rapidement les émissions de méthane d’origine humaine permettrait de limiter considérablement le risque d’épisodes de surchauffe, et ceci sans occasionner d’autres risques environnementaux.

Le méthane est, à l’heure actuelle, responsable d’un réchauffement situé dans une fourchette de 0,3 °C à 0,8 °C, supérieure à celle du SO2. Quant à la durée médiane de vie du méthane dans l’atmosphère, elle est légèrement supérieure à dix ans.

Dix ans, c’est peu par rapport au CO2, mais c’est beaucoup plus que le SO2 et ses aérosols. Autrement dit, réduire les émissions de méthane permettrait de limiter le réchauffement à moyen terme, ce qui pourrait compenser la surchauffe liée à l’arrêt des émissions de SO2.

Durée de vie médiane de plusieurs composés chimiques dans l'atmosphère. Fourni par l'auteur

Mais pour cela, il faut qu’il existe une réelle stratégie d’anticipation, c’est-à-dire une réduction des émissions de méthane d’origine humaine qui surviennent de façon plus rapide que la défossilisation de l’énergie (baisse des émissions de CO2), sans pour autant affaiblir les ambitions relatives à cette dernière.

Où placer les priorités ? À l’échelle mondiale, les émissions anthropiques de méthane sont issues :

  • à hauteur d’environ 40 %, d’activités agricoles (rizières en surface inondée, élevage de ruminants…),

  • à 35 %, de fuites liées à l’exploitation des énergies fossiles,

  • et pour environ 20 %, de déchets (fumiers, décharges, traitement des eaux…).

On peut donc considérer que 35 % des émissions s’éteindraient avec la défossilisation. D’ici là, il est donc urgent de réduire les fuites de méthane liées à l’exploitation des énergies fossiles tant que celle-ci n’est pas totalement abandonnée.

Mais comme ce levier ne porte que sur un bon tiers des émissions de méthane, il reste prudent de miser sur l’agriculture, l’alimentation et la gestion des déchets.

Favoriser l’appropriation locale

Réduire les émissions de méthane de l’agriculture peut, par exemple, passer par une modification des régimes alimentaires des ruminants, par le recours à des races moins émettrices de méthane, par l’allongement du nombre d’années de production des ruminants, par des changements dans le mode de culture du riz, ou par la récupération du méthane issu de la fermentation des fumiers. Il existe une grande diversité de procédés techniques pour réduire les émissions de méthane d’origine agricole.

Ces procédés sont le plus souvent à mettre au point ou à perfectionner et restent à développer à l’échelle internationale. Ils requièrent des innovations techniques, une adaptation des marchés et une appropriation par les agriculteurs. Leur déploiement ne peut suffire et ne pourra être assez rapide pour répondre à l’urgence qu’il y a à diminuer drastiquement les émissions de méthane. La question de la réduction de certaines productions agricoles et de certaines consommations alimentaires se pose donc.

Réduire de façon conséquente la consommation de viande de ruminants, de produits laitiers et de riz est possible… si les comportements de consommation individuels suivent. Cela exige une forme de solidarité mais aussi des décisions politiques fortes. Cela passe par une appropriation pleine et entière des enjeux climatiques par les agriculteurs, par les consommateurs et par l’ensemble des parties prenantes des questions agricoles et alimentaires.

La dimension locale serait une voie pertinente pour mettre en œuvre des solutions. À cet égard, les GREC (groupes régionaux d’experts sur le climat) pourraient jouer un rôle majeur.

Nous avons notamment identifié deux leviers : la dimension de forum hybride de la démocratie technique (espace d’échanges croisés entre savoirs experts et savoirs profanes), qui peut être prolongée par une dimension de recherche-action-participative (RAP).

Au niveau régional, ils permettraient de mettre en débat les connaissances scientifiques en matière de changement climatique, comme ce cas a priori contre intuitif de surchauffe planétaire liée à la défossilisation. Ils pourraient contribuer à la définition de stratégies déclinées localement en solutions concrètes et nourrir des questionnements nécessitant un travail de recherche.

Les GREC pourraient ainsi impulser des démarches participatives de recherche et d’innovation et, par exemple, s’appuyer sur des dispositifs d’interface sciences-société (boutiques des sciences, tiers-lieux de recherche, fablab, hackerspace…). Pour cela, ils pourraient s’appuyer sur des approches RAP qui permettent de co-produire des savoirs avec des chercheurs, d’avoir une meilleure appropriation des résultats de recherche pour des applications concrètes et d’impliquer des citoyens et/ou des groupes concernés au travers de leur participation active à toutes les étapes du projet de recherche et de ses applications.

Par la création d’un réseau international, les GREC pourraient favoriser des synergies entre les actions locales et contribuer à définir et à renouveler les stratégies nationales et internationales, tout ceci, non par le haut comme de coutume, mais par le bas.

The Conversation

Bertrand Bocquet est membre du Réseau de recherche sur l'innovation (https://rri.univ-littoral.fr/)

Marc Delepouve ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

03.04.2025 à 17:48

Tant que l’écologie ne sera pas une urgence, il sera difficile de renoncer à nos modes de vie

Fabrice Raffin, Maître de Conférence à l'Université de Picardie Jules Verne et chercheur au laboratoire Habiter le Monde, Université de Picardie Jules Verne (UPJV)

Nous n’avons jamais été aussi nombreux dans le monde à connaître un niveau de confort et de liberté aussi élevé. La menace qui pèse sur l’environnement nous poussera-t-elle à y renoncer ?
Texte intégral (1543 mots)

Nous n’avons jamais été aussi nombreux dans le monde à connaître un niveau de confort et de liberté aussi élevé. Ce mode de vie, même s’il nous émancipe, est malheureusement indissociable de la destruction de l’environnement. Faudra-t-il que celle-ci devienne une menace tangible pour nous pousser à renoncer à notre « petit confort » ? L’anthropologie permet d'éclairer cette question.


Lorsque j’entre dans la maison de René, ce matin de décembre 2022, dans le village de Beaucourt-en-Santerre, la température est bien plus proche de 25 °C que des 19 °C alors préconisés pour « économiser l’énergie ». René, retraité de la fonction publique, fait partie de ces humains modernes et puissants du XXIe siècle.

Il ne prend pas du tout au sérieux la menace du gouvernement de l’époque concernant les possibilités de rupture d’approvisionnement électrique : « on a des centrales nucléaires quand même ! »

Durant notre échange, René montre qu’il maîtrise la température de sa maison : sans effort, il repousse l’assaut du froid qui règne alors dehors.

« Je n’ai pas travaillé toute ma vie pour me geler chez moi_, déclare-t-il sûr de lui, les écolos, tout ça, ils nous emmerdent ».

Comment expliquer cette inaction pour le moins paradoxale ? La pensée du philosophe Henri Lefebvre est éclairante. Selon lui, l’humain doit éprouver un besoin pour agir, travailler et créer. Pour lui, le véritable besoin naît d’une épreuve, d’un problème qu’il faut régler nécessairement, ce serait même la seule façon d’engendrer une action humaine volontaire.

Ce phénomène pourrait expliquer pourquoi il est si difficile de traduire en actes

« l’urgence écologique ». Peut-on parler « d’urgence » lorsqu’il n’y a pas encore de réelle épreuve ?

Une menace pas assez pressante

La multiplication des tempêtes violentes, des inondations, la montée des océans, la fonte des glaciers, les sécheresses et les incendies, aussi réels et tangibles soient-ils, n’ont peut-être pas encore eu lieu à suffisamment large échelle pour marquer les routines quotidiennes à l’échelle d’un pays entier.

L’hypothèse est la suivante : dans les pays occidentaux, les aléas climatiques ne porteraient pas encore suffisamment à conséquences pour que se ressente un besoin d’agir généralisé.

Autrement dit, les souffrances engendrées par le changement climatique restent peut-être trop éloignées, trop localisées ou trop sporadiques. À peine éprouve-t-on collectivement un malaise au regard de la convergence des avertissements continus des militants écologistes et de la litanie des catastrophes à l’échelle planétaire, mais localisées sur de petits périmètres.

De plus, pour des dégâts locaux et éphémères, si forts soient-ils, les pays occidentaux sont assez équipés pour y remédier économiquement et techniquement, assez riches pour qu’ils ne remettent pas en cause l’organisation socio-économique globale.

Comme une fuite en avant, l’exploitation des ressources naturelles leur donne, la capacité de maîtriser les effets des catastrophes naturelles nées de l’exploitation des ressources naturelles. Jusqu’à où ?

Un consumérisme existentiel

Dès lors, faire évoluer notre mode de vie occidental demeure une option peu envisagée, d’autant plus que ce dernier est perçu comme la dimension la plus fondamentale, l’accomplissement le plus profond et caractéristique des Modernes que nous sommes.

Ce mode de vie couvre avec une efficacité inédite les besoins les plus essentiels que l’humanité a toujours cherché à combler : repousser les limites de la mort, les maladies, alléger le fardeau physique de l’existence dans la lutte pour satisfaire nos besoins biologiques et nous protéger contre un environnement hostile, etc.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


La recherche du confort matériel est, en cela tout à fait existentielle. Cet existentialisme n’a rien d’écologique. Les besoins de l’humain sont tout entiers tournés vers la production, la réalisation, l’acquisition d’objets, la consommation d’artefacts qui le libèrent. La source de cette prospérité matérielle étant fondée sur l’exploitation du monde vivant et minéral, les humains procrastineront tant que possible le changement d’équilibre de ce rapport à l’environnement.

Devant cette nécessité existentielle, pointer la responsabilité et la rationalité en mobilisant des arguments scientifiques n’a que peu d’effets. Surtout lorsque les appels sont maladroitement portés. Certains militants écologistes ou scientifiques sont ainsi perçus comme des prédicateurs, des prospectivistes ou des moralistes.

C’est qu’ils n’ont, selon moi, pas compris le primat anthropologique de la lutte contre l’environnement : notre mode de vie occidental comble, bien que de manière imparfaite, mais plus que jamais dans l’histoire, les besoins fondamentaux des humains.

Un combat perdu d’avance ?

Le risque est donc que les Modernes occidentaux se battent tant que possible pour le maintien de ce mode de vie, et ce jusqu’à épuisement des ressources.

Au regard de l’actualité depuis l’élection de Trump et l’invasion de l’Ukraine, il y a fort à parier qu’ils s’attaqueront même aux humains les plus faibles pour le conserver, avant de se battre entre eux. Il est même possible que, pour conserver ce privilège, ils préfèrent sacrifier les humains les plus pauvres.

Parce que ce mode de vie représente la plus grande émancipation vis-à-vis de la mort et de la douleur jamais atteinte pour un nombre d’individus aussi grand, mais aussi la plus grande liberté obtenue par rapport à l’environnement.

Une émancipation continue, bien que non achevée, vis-à-vis de ce que Marx appelait, « le règne de la nécessité ». Et si, pour paraphraser Marx, « un règne de la nécessité subsiste toujours », une bonne partie des occidentaux, même s’ils travaillent, sont « au-delà de ce règne ». Le règne des Modernes ressemble beaucoup à ce moment de l’histoire de l’humanité auquel Marx aspirait où « commence le développement des puissances de l’homme, qui est à lui-même sa propre fin, qui est le véritable règne de la liberté ». Un moment où travailler et consommer ne soient plus seulement réduits à satisfaire des besoins biologiques, mais à l’épanouissement, au bien-être de la personne.

La liberté et le confort qui libèrent le temps et le corps sont les biens les plus précieux de l’humain moderne occidental (et de tous les non-occidentaux devenus Modernes). Il est possible qu’il faille attendre que la menace climatique mette en péril cette liberté de façon palpable pour qu’il ressente le besoin de la défendre. Alors seulement, il pourra pleinement agir pour rééquilibrer son rapport à l’exploitation de l’environnement… s’il est encore temps.

C’est sur cette réalité anthropologique qu’achoppe aujourd’hui l’injonction à l’action écologiste, une injonction d’autant moins efficace qu’elle s’oppose à une quête essentielle de l’humanité depuis son apparition sur terre.

Dans ce contexte, faudrait-il penser que la perspective anthropologique est désespérante ? Non, puisqu’elle permet au contraire d’éviter l’écueil des injonctions militantes naïves, des faux espoirs simplistes, ou encore, de contrer la parole des gourous. L’enjeu est de repartir de l’humain pour engager des actions vraiment efficaces.

The Conversation

Fabrice Raffin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

03.04.2025 à 11:04

Réduire la vitesse, changer de revêtement… Quelles solutions contre la pollution sonore routière ?

David Ecotière, Chercheur en acoustique environnementale - Directeur adjoint de l’Unité Mixte de Recherche en Acoustique Environnementale (UMRAE), Cerema

Marie-Agnès Pallas, Chercheuse en acoustique environnementale, Université Gustave Eiffel

Le bruit routier est en France la première cause de nuisances sonores. Des travaux de recherche ont comparé l’efficacité des différentes options pour le diminuer.
Texte intégral (2378 mots)

Des chercheurs en acoustique ont comparé différentes options pour atténuer les nuisances sonores causées par le bruit routier. En fonction des situations, il peut être plus intéressant d’opter pour un moteur électrique plus silencieux, de changer le revêtement des routes ou d’optimiser la vitesse du trafic routier. Mais dans la plupart des cas, la solution optimale est plurielle.


Selon l’Organisation mondiale de la santé (OMS), le bruit est le deuxième facteur de risque environnemental en Europe en matière de morbidité, derrière la pollution de l’air. Il représente un problème majeur pour la santé publique, dont les répercussions socio-économiques globales, estimées à 147 milliards d’euros par an, en 2021, sont trop souvent négligées.

Le bruit des transports, en particulier le bruit routier, est en France la principale cause de ces nuisances. Différentes solutions peuvent pourtant être mises en œuvre pour limiter son impact. Modifier la propagation acoustique en interposant un obstacle de grande dimension entre la source et les riverains (bâtiments, écran acoustique, buttes naturelles…) peut être un moyen très efficace de réduire l’exposition sonore, mais n’est pas toujours techniquement ou financièrement envisageable et ne permet pas de couvrir toutes les situations possibles.

Améliorer l’isolation acoustique des bâtiments est également une très bonne solution technique, mais elle présente l’inconvénient de ne pas protéger les personnes situées à l’extérieur et de perdre en efficacité dès lors que portes ou fenêtres sont ouvertes. La meilleure des options reste ainsi, avant tout, de réduire l’émission sonore à la source.

Dans cette optique, des actions sont régulièrement mises en place, soit dans un cadre réglementaire (étude d’impact de nouvelles infrastructures, opérations de résorption des « points noirs du bruit » etc.), soit de façon volontariste par des collectivités ou des gestionnaires d’infrastructures routières pour lutter contre les nuisances sonores.

Des polémiques récentes sur la façon de réduire le bruit routier peuvent néanmoins brouiller le message auprès du citoyen et nuire ainsi à la crédibilité de ces solutions, dont le rôle reste avant tout de combattre ce fléau environnemental. Qu’en est-il exactement de leur efficacité et de leur pertinence techniques ?

Pourquoi le trafic routier est-il bruyant ?

Avant d’explorer les différentes solutions permettant la réduction du bruit routier à la source, il est important de comprendre les causes de ce bruit et les paramètres sur lesquels on peut agir pour le réduire. Les bruits de comportement, liés à un mode de conduite non conventionnel ou inadapté, contre lesquels des mesures de lutte sont en cours d’évaluation dans plusieurs villes, ne seront pas considérés ici.

Le son émis par un véhicule routier provient de deux principales sources :

  • le bruit de propulsion, dû au système mécanique (moteur, transmission, échappement),

  • et le bruit de roulement, dû au contact entre les pneumatiques en mouvement et la chaussée.

En conditions normales, le bruit de propulsion prédomine en dessous de 30 à 40 km/h pour les véhicules légers (VL) – ou de 40 à 50 km/h pour les poids lourds (PL) – tandis que le bruit de roulement l’emporte au-delà et augmente rapidement avec la vitesse.


Visuel d’illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu

Abonnez-vous dès aujourd’hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


Pour les véhicules actuels en fonctionnement standard, les autres sources potentielles de bruit (écoulement de l’air sur le véhicule…) sont négligeables par rapport au bruit de propulsion et au bruit de roulement.

Pour un bruit constant, il est communément admis que l’audition humaine ne perçoit une variation qu’à partir d’un écart de 2 décibels A (dBA) minimum. L’acousticien de l’environnement considère ainsi qu’un changement inférieur à ce seuil est « non significatif », car insuffisamment perceptible. Il utilise, en première approche, ce seuil comme repère pour juger de l’efficacité potentielle d’une solution de réduction du bruit.

Agir sur la motorisation

Agir sur la motorisation permet de diminuer les émissions sonores à basse vitesse. Les moteurs électriques sont ainsi généralement moins bruyants que les moteurs thermiques, avec une différence qui tend cependant à diminuer pour les véhicules thermiques neufs actuels, moins sonores que par le passé.

La réglementation oblige aussi les véhicules électriques à ajouter un son synthétique en dessous de 20 km/h pour améliorer la sécurité des piétons (dispositif AVAS). Une boîte de vitesse automatique contribue également à réduire l’émission sonore, car elle assure un régime du moteur thermique toujours adapté à l’allure et évite ainsi les excès de bruit dus à des conduites en surrégime.

Hors des restrictions d’accès imposées à certains cœurs de ville, agir sur la motorisation des véhicules n’est cependant généralement pas du ressort d’un gestionnaire d’infrastructure routière. Le changement d’une grande partie du parc roulant est en outre nécessaire pour produire un impact acoustique significatif, ce qui n’est efficace qu’à long terme.

Optimiser l’écoulement du trafic

Pour des effets à court terme, une deuxième option consiste à optimiser l’écoulement du trafic en modifiant le débit des véhicules ou leur vitesse. Les gains sonores attendus d’une réduction du débit suivent une loi logarithmique, où une division par 2 du nombre total de véhicules entraîne une diminution de 3 dBA. La diminution de la vitesse permet quant à elle de diminuer les émissions sonores en agissant sur le bruit de roulement.

Dans ce cas, au-delà de 40 km/h, les gains attendus sont de l’ordre de 1 à 1,5 dBA par tranche de réduction de 10 km/h. Toutefois, les émissions sonores des véhicules légers et des poids lourds n'étant pas équivalentes, l'émission sonore globale d'un trafic routier dépendra des proportions de ces véhicules qui y circulent et du revêtement de chaussée. Il est donc difficile de donner ici une estimation synthétique des gains potentiels dans toutes les situations.

L’application en ligne Motor développée par notre équipe permet à chacun de tester, en première approche, des scénarios de trafic en modifiant les différents paramètres d’influence du bruit afin de juger de leur efficacité potentielle sur la réduction de l’émission sonore d’une voirie routière.

Modifier le revêtement

Une troisième solution consiste à modifier le type de revêtement de chaussée afin d’agir sur le bruit de roulement.

On peut comparer les performances acoustiques de très nombreux revêtements de chaussées, par exemple à l’aide de notre application en ligne BDECHO, qui tire parti de la base nationale des performances acoustiques des revêtements de chaussées français.

Celle-ci montre ainsi que les revêtements les moins bruyants sont ceux dont la couche de surface est à faible granulométrie (enrobés à petits agrégats) et qui présentent une certaine porosité. À l’inverse, celle des plus bruyants a une plus forte granulométrie et n’est pas poreuse.

Si chaque solution peut contribuer à la réduction du bruit routier, chacune comporte également des inconvénients.

Quels avantages pour ces solutions ?

Changer un revêtement bruyant par un autre moins bruyant peut engendrer une réduction du bruit de 2 dBA à 10 dBA au maximum, et ce, dès 25 km/h pour les véhicules légers et dès 40 km/h pour les poids lourds.

Onéreuse, cette solution nécessite une mise en œuvre lourde et une intervention conséquente sur la voirie. Les performances acoustiques des revêtements ont aussi l’inconvénient d’évoluer au fil du temps, avec une dégradation des performances plus rapide pour les revêtements les moins bruyants. Une dispersion importante des performances (de l’ordre de plusieurs dBA) est également observée au sein de chaque catégorie de revêtement, ce qui entraîne une plus grande incertitude sur la prévision des performances attendues.

La réduction de vitesse, quant à elle, n’est pas toujours possible. Ou encore, son efficacité peut être limitée, par exemple si les vitesses de l’infrastructure existante sont déjà modérées ou que la réduction de vitesse ne peut pas être appliquée aux poids lourds, plus bruyants, et que ces derniers sont déjà en proportion non négligeable dans le trafic. Les gains attendus peuvent également être moindres qu’espérés si les vitesses pratiquées sont inférieures aux vitesses réglementaires de l’infrastructure, par exemple en situation chronique de ralentissements ou de congestion.

C’est ce qui a par exemple été constaté lors de mesures acoustiques récentes sur le périphérique parisien, où les gains théoriques ont été atteints uniquement la nuit, lorsque la circulation est fluide. Notons que ce type de solution peut cependant apporter des co-bénéfices intéressants en matière de pollution atmosphérique ou d’accidents de la route, sans nécessairement nuire significativement au temps de parcours perçu.

Combiner les différentes solutions

Réduction des vitesses, revêtements peu bruyants, restriction du trafic, changements de motorisation… quelle est finalement la meilleure méthode pour faire chuter les émissions sonores routières ?

Réduire le trafic global engendrera toujours une chute des émissions, audible sous réserve d’une baisse du trafic d’au moins 30 à 40 %, si la solution est appliquée seule.

Pour les autres options, en zone à vitesse réduite (inférieure à 40km/h), jouer sur la motorisation est la solution la plus efficace. Cela peut passer par l’incitation à l’adoption de véhicules électriques ou d’autres motorisations moins bruyantes, les méthodes agissant sur le bruit de roulement étant dans ce cas moins efficaces.

Dans des voiries où la vitesse moyenne des véhicules est plus élevée, les chaussées peu bruyantes ou la diminution des limites de vitesse peuvent apporter des réductions intéressantes. Mais leur pertinence devra être étudiée au cas par cas en amont, en fonction des propriétés initiales de l’infrastructure considérée (vitesse, structure du trafic, revêtement de chaussée existant, etc.).

Les trois solutions étant compatibles entre elles, l’idéal consiste bien entendu à les associer afin de cumuler avantageusement les gains apportés par chacune d’entre elles.

The Conversation

David Ecotière a reçu des subventions publiques du Ministère de la Transition écologique.

Marie-Agnès Pallas a reçu des financements du Ministère de la Transition écologique, de l’Union européenne et de BpiFrance.

02.04.2025 à 16:53

Serpents, araignées… D’où viennent nos peurs de certains animaux ?

Xavier Bonnet, Directeur de Recherche CNRS en biologie et écologie des reptiles, Centre d'Etudes Biologiques de Chizé

Karl Zeller, Docteur en Écologie Évolutive, Muséum national d’histoire naturelle (MNHN)

Une étude d’ampleur inédite montre que la peur ressentie envers certains animaux n’a pas grand-chose à voir avec le danger qu’ils représentent.
Texte intégral (2325 mots)

Une étude d’ampleur inédite montre que la peur que nous ressentons envers certains animaux n’a pas grand-chose à voir avec le danger qu’ils représentent. Mais ces émotions peuvent en revanche avoir des effets très néfastes sur la protection de la biodiversité.


En 1872, Charles Darwin décrivait la peur comme une puissante alliée pour éviter ou pour fuir les dangers. Au cours des plus de 50 millions d’années d’évolution des primates et pendant la presque totalité de l’histoire humaine, grands carnivores, crocodiles ou serpents venimeux étaient de terribles menaces. En avoir peur était donc nécessaire à la survie.

Mais aujourd’hui, notre peur des animaux ne s’arrête pas aux espèces dangereuses. Certains animaux inoffensifs nous terrifient également. Pourquoi ce décalage entre danger réel et terreur ? Des facteurs socioculturels et le succès de théories contestables pourraient l’expliquer.

Pour mieux comprendre la peur des animaux nous avons sondé plus de 17 000  participants à travers le monde, en leur proposant un questionnaire sous forme de jeu en ligne fondé sur des portraits photographiques d’animaux. Le panel comprenait 184 espèces : des mammifères, des reptiles, des oiseaux, des arthropodes (insectes et araignées) et des amphibiens. En pratique, au cours d’une aventure imaginaire, des paires de photos (un lion et une mésange, par exemple) étaient tirées au sort et présentées à l’écran, 25 fois de suite.

Chaque participant devait choisir l’animal qui lui faisait le plus peur, cliquer sur sa photo, passer à la paire suivante puis, à la fin du jeu, répondre à quelques questions.

Nous avons ainsi obtenu les résultats sur plus de 400 000 duels de photos, une mine d’or statistique. L’analyse des choix et des temps de réponse ont permis de classer les 184 animaux selon le niveau de crainte qu’ils inspirent. La diversité des participants (âge, genre, pays d’origine, études, etc.) a révélé des relations complexes entre danger réel (ou écologique) et influences socioculturelles.

Biophobie et peur irrationnelle des animaux

Une constante est cependant apparue : dans toutes les zones géographiques et classes d’âges, des animaux inoffensifs pour l’humain, comme les chauves-souris, les araignées ou les serpents non venimeux, ont suscité des réactions de peur très marquées, autant voire plus qu’avec des espèces potentiellement très dangereuses comme l’hippopotame ou l’ours brun. La logique de terrain, celle énoncée par Darwin, était donc bien prise en défaut.

Pour expliquer cette discordance, certaines théories très en vogue depuis plus de quinze ans proposent que la peur des serpents et des araignées soit figée, innée et codée dans nos gènes.

Mais comment la sélection naturelle aurait-elle produit un résultat aussi illogique ? Comment savoir également si les premiers humains avaient peur des araignées et des serpents, surtout que de nombreux primates ne les fuient pas et, au contraire, les mangent ? Les serpents sont également toujours considérés comme des délices culinaires et sont largement consommés dans différentes régions du monde. Les théories patinent un peu sur ces points cruciaux.

D’autres explications semblent nécessaires. Un autre cadre théorique pointe les facteurs socioculturels dans la transmission d’émotions, notamment les peurs, y compris celle des animaux. Combinée à l’absence de contact avec la nature, la transmission familiale et sociale de la peur du vivant conduirait jusqu’à la biophobie, c’est-à-dire la peur ou même la haine du vivant.

Des facteurs culturels pourraient effectivement expliquer pourquoi de nombreuses personnes croient à tort que les araignées sont dangereuses et tuent fréquemment des humains alors que seulement 0,5 % des araignées sont potentiellement dangereuses pour l’humain, les accidents graves sont rarissimes et les décès vraiment exceptionnels. Dans notre étude, certains participants ont même déclaré avoir peur d’être mangés par une araignée, une idée totalement irrationnelle.

Des préjugés, un sentiment général de dégoût, mais surtout le manque de connaissances naturalistes laissent ainsi la place aux légendes et aux peurs exagérées qui les accompagnent. La distorsion est amplifiée par les médias et les films, où les araignées et serpents géants sont trop souvent monstrueux et féroces.

Un mécanisme central est que les peurs exacerbées peuvent être transmises en un clin d’œil et voyager de génération en génération. Cet effet est marqué chez les plus jeunes, un parent effrayé par une petite araignée de maison peut inoculer sa terreur à ses enfants en quelques secondes. Ainsi renforcées, les représentations déformées des animaux dans les films peuvent devenir des croyances ancrées, puis des « vérités ». Ce décalage entre le danger perçu et la réalité quotidienne s’accroît dans les sociétés urbanisées, où la déconnexion avec la nature augmente constamment.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les animaux dangereux font tout de même peur

Bien sûr, les animaux potentiellement dangereux, comme le lion, suscitent aussi des réactions fortes et rationnelles de peur. De nombreux cas de prédation, d’attaques ou de morsures mortelles sont documentés à travers le monde. Dans notre étude, les crocodiles, les grands félins et les serpents venimeux sont effectivement perçus comme très effrayants. Les participants ont clairement exprimé leur peur d’être tués par une énorme vipère du Gabon ou d’être mangés par un tigre.

Inversement, la grande majorité des animaux inoffensifs, comme le lapin, la tortue ou le koala, n’ont suscité aucune peur. Ces résultats confirment donc une définition générale de la peur comme un état émotionnel adaptatif, qui incite les animaux à réagir de façon appropriée face à des stimulus potentiellement dangereux.

Mais il reste difficile de distinguer ce qui relève de mécanismes innés plutôt que des biais culturels dans la peur des animaux. La grande taille (un bison adulte est impressionnant), les dents de carnassier, le regard fixe du prédateur ou les signaux d’avertissement (bandes colorées sur les serpents venimeux ou les guêpes) sont probablement des messages clairs compris de tous, indépendamment de la culture, mais cela reste à démontrer. Les visions purement innées ou purement culturelles, extrêmement rigides, correspondent particulièrement mal à une réalité qui semble davantage complexe et intriquée.

La peur exagérée des animaux, un frein à la conservation

Une chose reste certaine : les peurs exacerbées, irrationnelles et invalidantes, c’est-à-dire des phobies, ont des conséquences. Elles gâchent la vie, y compris celle des animaux qui en font les frais. Le déclin des serpents en témoigne. Il progresse à une vitesse alarmante, aussi bien en Europe que sur le plan mondial. Il est donc urgent de les protéger. En outre, ces animaux jouent des rôles écologiques clés et sont des auxiliaires de l’agriculture. Pourtant ils sont souvent persécutés et tués.

Or, la peur qu’il inspirent est le principal déclencheur de cette attitude agressive et violente. Le pire est que, lorsqu’il s’agit de serpents venimeux, le risque d’être mordu par riposte augmente considérablement. Au cours d’une rencontre, il est prudent de laisser les serpents tranquilles ou de s’enfuir plutôt que de leur taper dessus. La peur exagérée et les gestes dangereux et mal contrôlés entraînent des drames pour les humains et les autres animaux.

L’aversion forte pour certains animaux couplée à la perte de contact avec la nature est aussi associée à la dégradation de la santé mentale. L’expérience directe avec la nature semble nécessaire aux équilibres psychologique et physiologique.

Or, la manière dont nous percevons la nature influence directement notre investissement dans sa préservation. Les espèces perçues comme effrayantes, souvent à tort, sont malheureusement fortement négligées par les programmes de conservation. La biophobie rend difficile l’éducation à l’environnement et la protection de la biodiversité. La répugnance pour de nombreux arthropodes et reptiles s’accompagne d’un faible effort de conservation par rapport aux espèces charismatiques (par exemple, les dauphins ou les ours). Il est pourtant nécessaire de protéger des ensembles.

La note positive est qu’il a été montré expérimentalement qu’une simple sortie nature, un bref contact avec les serpents, suffit à changer la donne, tout au moins chez des enfants. Ce résultat souligne le rôle majeur de la culture et de l’éducation, par rapport aux hypothèses fondées sur la peur innée des serpents.

Il est donc essentiel d’étudier le développement et la persistance des perceptions positives et négatives vis-à-vis des animaux pour améliorer le confort de vie, la santé, mais aussi pour réduire les conflits entre l’humain et la nature. Élargir des actions de sensibilisation à toutes les espèces est fondamental pour guider les efforts de protection. Détruire pour délit de faciès n’est pas acceptable. En outre, la destruction de populations ou d’espèces peut perturber des écosystèmes et avoir un bilan mitigé voire négatif.

La peur est notre alliée, mais, mal domptée, elle peut se retourner contre nous et contre notre environnement. Il serait sage d’en tenir compte dans les programmes d’éducation.

The Conversation

Karl Zeller a reçu des financements de l'Initiative Biodiversité Écologie, Évolution, Société (IBEES) de l'Alliance Sorbonne Université.

Xavier Bonnet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

01.04.2025 à 16:13

La Première Guerre mondiale du point de vue des chevaux

Eric Baratay, Professeur d'histoire, Université Jean Moulin Lyon 3

Indispensables pour la cavalerie, l’infanterie mais également l’artillerie, pour tirer canons, munitions, vivres et hommes, les chevaux ont aussi façonné l'évolution de cette guerre de tranchées.
Texte intégral (2885 mots)
Cavaliers de l'armée britannique en 1918. Photo prise par un photographe de guerre employée par l'armée britannique. National Library of Scotland , CC BY

Retracer l’histoire du point de vue des animaux, tâcher de trouver des sources pouvant témoigner de leur vécu et de leur évolution. Telle est l’ambition du dernier livre supervisé par Eric Baratay aux éditions Tallandier.

Dans ces bonnes feuilles que nous vous proposons, cet historien se penche sur la Grande Guerre qui, sur le seul front de l’Ouest, mobilisa pas moins de huit millions de chevaux. Indispensables pour la cavalerie, l’infanterie mais également l’artillerie, pour tirer canons, munitions, vivres et hommes, ils ont façonné l’évolution de cette guerre.

Saviez-vous par exemple qu’en 1914 c’est le manque de chevaux des Français comme des Allemands qui a empêché qu’un camp ou l’autre réussisse à contourner son adversaire, ce qui a provoqué la fixation du front et quatre ans de guerre de tranchées.

En examinant les écrits de poilus et des vétérinaires au front, Eric Baratay tâche ici de retracer la douloureuse mobilisation de ces millions de chevaux.


Lors de leur réquisition, les chevaux éprouvent d’abord un stress psychologique et physique en perdant leurs repères habituels du fait d’une succession de lieux, de mains, de voix. Leur embarquement dans les wagons est souvent difficile ; ils résistent, hennissent, se sentent poussés, frappés, se font serrer les uns contre les autres. Les plus rétifs continuent à hennir, à frapper les parois ; beaucoup sont apeurés par les trains qui passent, éprouvés par les secousses, irrités par les congénères inconnus.

Ils vivent un autre bouleversement lors de leur affectation, devant s’habituer à de nouveaux noms, de nouvelles voix et conduites, de nouveaux gestes et mots en divers patois changeant au gré des réaffectations, permissions, disparitions des hommes. Ainsi, les chevaux de trait affectés à la cavalerie se retrouvent avec un soldat sur le dos, rarement plus aguerri, tout aussi craintif, et ceux qui réagissent, hennissent, ruent, subissent alors des coups, entendent des cris, ce qu’ils connaissaient assez rarement auparavant s’ils viennent des campagnes.

Escorte de prisonniers allemands par la cavalerie française, le 24 août 1914. William Heinemann, London, CC BY

Dans les services attelés, les chevaux doivent apprendre à travailler avec des congénères pour les solitaires d’autrefois ou de nouveaux partenaires pour les habitués à cet emploi. Ils sont assemblés selon leur taille, leur force, voire leur couleur, rarement selon leur caractère, que les hommes ne connaissent pas et ne cherchent pas. Des chevaux manifestent des incompatibilités d’humeur, obligent ces humains à les séparer jusqu’à ce qu’une répartition soit trouvée, qu’une paix plus ou moins durable s’installe. Lors des essais à tirer ensemble, beaucoup se heurtent, glissent, tombent, s’empêtrent dans les traits, s’épuisent. L’adaptation est remise en cause par les changements d’affectation et les arrivées de nouveaux partenaires, tels ces chevaux américains, que les alliés vont chercher à partir de l’automne 1914 pour compenser les pertes.

D’autant que leur traversée de l’Atlantique s’avère un calvaire côté français, où l’on ne donne qu’une avance aux marchands américains, les laissant assurer le transport à moindres frais. Dès l’Amérique, les équidés choisis se retrouvent concentrés et mélangés dans des parcs puis entassés à 15 ou 20 dans des wagons, sans attache et sans surveillance interne. Les conflits, les coups, les chutes s’ajoutent au stress du voyage durant lequel ces animaux ne bénéficient guère d’arrêts le long d’un parcours de quatre à huit jours. Au port, ils sont de nouveau concentrés en enclos puis placés sur des barges et hissés par des grues sur des navires restés au large, une opération très stressante pour les équidés.

Perturbés par le déracinement, les importants changements climatiques à l’échelle américaine, le bouleversement du régime alimentaire, beaucoup s’affaiblissent et contractent des maladies infectieuses, d’autant qu’ils ne bénéficient pas de désinfection des enclos et des wagons ou de contrôles épidémiologiques, encore peu usités côté français.

À bord des navires, ces équidés se retrouvent entassés les uns contre les autres, en quatre rangées parallèles par étage, attachés de près, et comme ils ne font pas d’exercice dans des enclos ou de promenade sur le pont extérieur, qu’ils restent inactifs trois semaines au minimum, ils endurent des fourbures aiguës aux jambes. L’entassement est tel que des équidés se voient placés sur le pont extérieur où, malgré les couvertures mises sur eux ou les toiles tendues par-dessus, ils endurent de fortes variations de température, une humidité incessante, des courants d’air permanents, subissent d’importants refroidissements tout en devant résister aux tempêtes qui balaient l’endroit.

Au moins, ces animaux ne souffrent-ils pas de l’atmosphère confinée des étages internes, de la chaleur moite, du gaz carbonique, des fortes odeurs que les équidés enfermés produisent mais qui les indisposent vivement, d’autant que l’aération, guère pensée, est très insuffisante, que les excréments, le fumier, les aliments avariés sont irrégulièrement évacués et ces ponts mal nettoyés par des équipages négligents, peu impliqués financièrement dans le maintien en bonne santé des bêtes, bien qu’ils pâtissent aussi de la situation. Les morts sont laissés au milieu des vivants tout au long du voyage parce qu’on n’a pas prévu de les évacuer à la mer ! Les rescapés ressentent évidemment les phéromones de stress dégagés par les agonisants puis les odeurs des cadavres.

Chevaux et mulets souffrent souvent de la soif et de la faim, les marchands ayant trop peu prévu, les matelots s’évitant des corvées régulières, les aliments n’étant que de médiocre qualité. Ces équidés doivent souvent manger des aliments simplement jetés à terre, avalant en même temps la paille souillée, voire leurs excréments pour compenser la faim, mais les bêtes attachées trop court, incapables de baisser autant leur tête, sont forcées de jeûner. Beaucoup s’affaiblissent, contractent ou amplifient des maladies, mangent encore moins, respirent toujours plus mal, tombent au premier tangage, ont de plus en plus de peine à se relever, se blessent facilement lors des heurts avec d’autres ou contre les parois et lors de ces chutes, se fracturant des os ou se rompant des ligaments, contractant alors le tétanos ou la gangrène.

À l’arrivée, les sorties sont souvent retardées car, dans nombre de navires, les rampes reliant les ponts ont été enlevées pour mieux entasser, d’autant qu’on ne prévoyait pas de promenade extérieure. Les équidés doivent attendre plusieurs jours que de nouvelles pentes soient installées, sur lesquelles ils se précipitent pour sortir de cet enfer. Les blessés et les malades ne pouvant pas les gravir attendent d’être sanglés puis soulevés à la grue. À terre, les chevaux, souvent des mustangs plus ou moins sauvages, achetés à moindre coût, se montrent rebelles à la discipline. Ils déconcertent autant leurs congénères européens, habitués au travail, que les conducteurs qui font alors pleuvoir les coups.

Chevaux transportant des munitions à la 20ᵉ Batterie de l’Artillerie canadienne de campagne à Neuville Saint-Vaast, France
Chevaux transportant des munitions à la 20ᵉ Batterie de l’Artillerie canadienne de campagne à Neuville Saint-Vaast, France. Archives du Canada, CC BY

Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Des incompréhensions réciproques

Ces incompréhensions sont nombreuses, d’autant que nombre de soldats n’ont jamais côtoyé de chevaux auparavant et que ces derniers ne sont pas habitués à de tels environnements. Nous avons vu que beaucoup d’équidés réquisitionnés refusent d’entrer dans les wagons ou les camions. Cela conduit les soldats à les qualifier de « bêtes », à se grouper jusqu’à six ou sept pour les forcer et à manier la violence. Or cette attitude des chevaux s’explique par leur vision, mieux connue de nos jours : étroite en hauteur mais très panoramique en largeur, d’un flanc à l’autre. Ils ont donc le sentiment d’être bêtement précipités contre un obstacle alors que la voie est libre autour ! D’autant qu’ils détectent mal l’intérieur noir des wagons, mettant du temps à accommoder leur vue à l’obscurité, et qu’ils rechignent logiquement à entrer dans cet inconnu… à la manière d’un automobiliste qui, par temps ensoleillé, freine devant une section très ombragée de la route formant un mur noir.

Des soldats français essayant de tirer une mule épuisée hors de la boue d’un trou d’obus
Des soldats français essayant de tirer une mule épuisée hors de la boue d’un trou d’obus. National Library of Scotland, CC BY

Un autre exemple d’incompréhension concerne l’abreuvement des chevaux durant l’été 1914. Ils ne peuvent pas boire suffisamment, souvent une fois la nuit car les cavaliers limitent ces moments dangereux pour eux, et cela provoque une importante mortalité. On peut invoquer la guerre de mouvement, qui réduit les possibilités de nourrir et d’abreuver, et la négligence des hommes, qui est réelle, mais la situation est confortée par un aspect inconnu des humains et même des animaux : on sait maintenant que les chevaux connaissent une forme de déshydratation qui ne provoque pas une soif importante, ce qui signifie que ces chevaux de guerre n’ont sans doute pas suffisamment manifesté leur besoin.

The Conversation

Eric Baratay ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

31.03.2025 à 16:21

François, le pape vert : un tournant écologique pour l’Église

Bernard Laurent, Professeur, EM Lyon Business School

« Laudate si » est la plus célèbre des encycliques du pape François, qui est décédé lundi 21 avril 2025. Volontairement écologiste, elle remet l’Église et la Terre au centre du village.
Texte intégral (1987 mots)
Le pape François souhaitait une rupture radicale de nos modes de vie consuméristes dans les pays riches, qui penserait le développement des pays les plus pauvres. Ricardo Perna/Shutterstock

« Laudato si » (2015) est la plus célèbre des encycliques du pape François, qui est décédé lundi 21 avril 2025. Volontairement écologiste, elle remet l’Église et la Terre au centre du village. Que nous dit-elle de la vision de l’Église catholique et de ce pape politique ?


Il y a dix ans, le 24 mai 2015, le pape François (décédé le 21 avril 2025) rendait publique « Laudato si », de l’italien médiéval « Loué sois-tu », une encyclique qui ne donnait pas dans la demi-mesure. Ce texte surprit plus d’un catholique par ses constats sans concessions et son appel à une transformation en profondeur de nos modes de vie. Elle unissait toutefois, si nous en tenons à la France, les courants conservateurs – courant pour une écologie humaine, créée en 2013 – et des intellectuels catholiques ouverts, comme le jésuite Gaël Giraud, auteur de Produire plus, polluer moins : l’impossible découplage ?.

Le pape se plaçait dans la continuité de ses prédécesseurs. Paul VI, Jean-Paul II ou Benoît XVI s’inquiétaient avant lui des effets dramatiques d’une exploitation abusive de la nature sur l’humanité :

« Une exploitation inconsidérée de la nature de l’être humain risque de la détruire et d’être à son tour la victime de cette dégradation. »

Quels sont les enseignements de cette encyclique ? Que nous dit-elle de la vision de l’Église catholique ? Et du pape François ?

Le pape vert

Le pape François dresse le constat d’un environnement particulièrement dégradé :

« La pollution […] affecte tout le monde, [elle est] due aux moyens de transport, aux fumées de l’industrie, aux dépôts de substances qui contribuent à l’acidification du sol et de l’eau, aux fertilisants, insecticides, fongicides, désherbants et agrochimiques toxiques en général. » (§-20.)

Le pape vert publie l’encyclique « Laudato si», en juin 2015, quelques mois avant la conférence de Paris sur le climat. L’objectif : sensibiliser l’opinion publique aux enjeux de réchauffement climatique, en créant une approche relationnelle entre Dieu, l’être humain et la Terre. C’est la première fois qu’une encyclique est entièrement consacrée à l’écologie.

Il s’inquiétait des effets du réchauffement climatique :

« À son tour, le réchauffement a des effets sur le cycle du carbone. Il crée un cercle vicieux qui aggrave encore plus la situation. Il affectera la disponibilité de ressources indispensables telles que l’eau potable, l’énergie ainsi que la production agricole des zones les plus chaudes et provoquera l’extinction d’une partie de la biodiversité de la planète. » (§-24.)

Contre le techno-solutionnisme

Depuis « Rerum novarum », du pape Léon XIII, les différentes encycliques sociales n’ont cessé de rejeter l’idée libérale d’une société régulée par le seul bon fonctionnement du marché. Le sociologue des religions Émile Poulat résumait parfaitement la position de l’Église en 1977 dans son livre Église contre bourgeoisie. Introduction au devenir du catholicisme actuel : « Elle n’a jamais accepté d’abandonner la marche du monde aux lois aveugles de l’économie. »

Jacques Ellul dans son bureau
Pour le Français Jacques Ellul, la technique n’a rien d’une matière neutre puisqu’il s’agit d’une véritable puissance animée par son propre mouvement. » Wikimedia, CC BY-SA

En 2015, le pape François rejetait les solutions techniques qui ne seraient que cautère sur une jambe de bois, tout comme la croyance aux vertus salvatrices du marché autorégulé. Il accuse « le paradigme technocratique » de dominer l’homme en subordonnant à sa logique l’économique et le politique (§-101). Des accents qui rappellent le philosophe français protestant Jacques Ellul, injustement oublié, et son idée d’« autopropulsivité » de la technique, sans limites, qui est placée en alpha et oméga de nos sociétés.

La charge contre les vertus supposées du marché était spectaculaire. Le pape stigmatise notamment :

  • la surconsommation des pays développés :

« Étant donné que le marché tend à créer un mécanisme consumériste compulsif pour placer ses produits, les personnes finissent par être submergées, dans une spirale d’achats et de dépenses inutiles. » (§-203.) ;

  • la glorification du profit et du marché autorégulé :

« Dans certains cercles, on soutient que l’économie actuelle et la technologie résoudront tous les problèmes environnementaux. » (§-109.) ;

  • l’hypertrophie de la finance spéculative :

« La politique ne doit pas se soumettre à l’économie et celle-ci ne doit pas se soumettre aux diktats ni au paradigme d’efficacité de la technocratie. » (§-189.) ;

  • l’inégale répartition des richesses dans le monde :

« Les plus pauvres sont les premières victimes : de fait, la détérioration de l’environnement et celle de la société affectent d’une manière spéciale la plus faible de la planète. » (§-48.) ;

  • l’inégal niveau de développement entre les pays, ce qui conduit François à évoquer une « dette écologique » des pays riches envers les pays les moins développés (§-51).

Justice sociale et décroissance

Le pape François lie très étroitement sauvegarde de la planète et justice sociale. Il s’inscrit dans la lignée des travaux de l’économiste dominicain Louis-Joseph Lebret, fondateur en 1941 de l’association Économie et humanisme (E&H). Le père Lebret souhaitait remettre l’économie au service de l’homme et travailler sur les pays les moins avancés économiquement en défendant les vertus des communautés et de l’aménagement du territoire.

Quant au pape François, il souhaite une rupture radicale de nos modes de vie consuméristes dans les pays riches, en pensant le développement des pays les plus pauvres (§-93). Les réactions des pays développés lui paraissaient insuffisantes à cause des intérêts économiques en jeu, ajoutait-il (§-54).

Nous retrouvons là le principe de la destination universelle des biens, qui est le principe organisateur de la propriété défendu par la doctrine sociale de l’Église. Il commande de se soucier d’une répartition des biens permettant à chaque être humain de vivre dans la dignité.


À lire aussi : Pape François vs. J. D. Vance : fracture au sein du monde catholique


Au-delà des mesures techniques nécessaires et des pratiques individuelles sobres, le pape François invite les citoyens des pays développés à ne pas se contenter de demi-mesures largement insuffisantes. Au contraire, il pousse à changer nos modes de vie dans une logique de décroissance. Le but : permettre aux pays en voie de développement de sortir de la pauvreté, tout en ménageant l’environnement.

« Face à l’accroissement vorace et irresponsable produit durant de nombreuses décennies, il faudra penser aussi à marquer une pause en mettant certaines limites raisonnables, voire à retourner en arrière, avant qu’il ne soit trop tard. […] C’est pourquoi l’heure est venue d’accepter une certaine décroissance, mettant à disposition des ressources pour une saine croissance en d’autres parties. » (§-193.)

Dix ans plus tard, le texte raisonne pleinement avec nos préoccupations. Nous pourrions suggérer aux très catholiques vice-président J. D. Vance et secrétaire d’État Marco Rubio des États-Unis de relire cette encyclique.

The Conversation

Bernard Laurent est adhérent à la CFTC Membre du Conseil Scientifique de l'IRES

25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
   Fiabilité faible
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓