07.01.2026 à 17:56
Microcapteurs pour suivre la qualité de l’air : gadgets ou véritables outils de suivi ?
Texte intégral (2994 mots)
Le suivi de la qualité de l’air s’est grandement démocratisé grâce à l’essor de microcapteurs électroniques accessibles à tout un chacun. Ces dispositifs sont-ils performants, et à quelles conditions peuvent-ils fournir une information utilisable ? État des lieux.
La pollution de l’air extérieur peut être liée au trafic routier, au chauffage au bois, aux activités industrielles ou encore aux feux de forêt et aux éruptions volcaniques. La diversité des particules qui en résulte illustre bien la nature diffuse et mobile de cette pollution. Celle-ci a des conséquences graves en termes d'effets sur la santé, allant des troubles respiratoires immédiats à des maladies chroniques incurables.
Selon l’Organisation mondiale de la santé (OMS), la pollution de l’air, tous polluants confondus, est responsable de 7,4 millions de décès par an dans le monde dont 4,2 millions liés à l’air extérieur et 3,2 millions à l’air intérieur. En France, le fardeau sanitaire des particules fines entraînerait à lui seul 40 000 décès chaque année, et est associés à un coût socio-économique estimé à 13 milliards d’euros.
Aujourd’hui, suivre la qualité de l’air auquel chacun est exposé n’a jamais été aussi simple. En quelques clics, il devient possible d’acheter des microcapteurs, d’accéder à des cartes en ligne ou de télécharger des applications mobiles fournissant un accès à ces données en temps réel. Tout comme la météo guide le choix de prendre un parapluie, cet accès offre aujourd’hui aux citoyens et aux décideurs un outil pratique pour orienter leurs actions.
Pourtant, derrière cette démocratisation, se pose la question de la performance de ces microcapteurs opto-électroniques. S’agit-il vraiment de sentinelles de confiance ? Faisons le point.
À lire aussi : Le potentiel oxydant : un nouvel indice pour mesurer la pollution atmosphérique
Des microcapteurs dans l’air du temps
Commençons par rappeler comment est menée la surveillance réglementaire de la qualité de l’air en France. Elle est coordonnée par le Laboratoire central de surveillance de la qualité de l’air (LCSQA) et mise en œuvre au niveau régional par les associations agréées pour la surveillance de la qualité de l’air (AASQA). Les données, librement accessibles grâce au site régional des AASQA, sont produites selon des protocoles normés afin de s’assurer qu’elles soient comparables d’une station de mesure à l’autre et d’une région à l’autre.
Toutefois, le nombre de stations de mesure mises en place résulte d’un compromis entre couverture géographique et coûts. La modélisation, basée sur les modèles Chimere ou Sirane par exemple, permet d’extrapoler la qualité de l’air sur un territoire donné, mais elle reste dépendante de la qualité et du nombre des mesures locales.
Afin de renforcer la couverture sans augmenter les coûts, la directive européenne, dont la réglementation française découle, autorise les réseaux de surveillance réglementaire à procéder à des mesures indicatives, pour lesquelles les exigences de qualité sont plus souples. Ce cadre favorise l’intégration des microcapteurs de 10 à 100 fois moins coûteux que les équipements utilisés pour les stations de référence, tant à l'achat qu’en fonctionnement.
Ce marché a le vent en poupe. En 2023, il pesait plus de 6 milliards d’euros, marché qui pourrait s’élever en 2032 à 13,5 milliards. En 2022, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) dénombrait 60 000 références produits disponibles sur les plateformes de vente en ligne.
On y retrouve donc des microcapteurs à bas coût prêts à l’emploi capables de collecter et de transmettre les données en temps réel. Le prix des composants se limite à quelques dizaines d’euros, tandis que le coût total du dispositif varie d’environ une centaine à plusieurs milliers d’euros selon les fonctionnalités.
Une mesure facile, mais une interprétation parfois délicate
Que valent ces différents types de microcapteurs ? Pour le savoir, il faut d’abord définir ce que l’on souhaite mesurer lorsqu’on parle de particules fines. Loin d’être un mélange défini, les particules dans l’air forment un ensemble hétérogène et variable par leur forme, leur taille et leur état.
Trois catégories se distinguent :
les hydrométéores (pluie, neige, brouillard),
les aérosols (suie, poussières, embruns, composés organiques…)
et les bioaérosols (pollens, bactéries, virus, spores…).
Par convention, la matière particulaire en suspension (ou Particulate Matter, PM) est décrite en fonction de la taille de ses constituants, dans lesquels les hydrométéores doivent être exempts. Ainsi, par convention, les particules grossières PM10, les particules fines PM2,5 et les particules ultrafines PM0,1 représentent respectivement des ensembles hétérogènes de taille inférieure ou égale à 10, 2,5 et 0,1 micromètre (µm).
Plus les particules sont petites, plus elles sont susceptibles de pénétrer profondément dans les voies respiratoires. Les PM1,0 peuvent être également suivies par des microcapteurs et des équipements de référence, mais elles ne font pas l’objet d’une réglementation spécifique ni ne sont associées à des seuils sanitaires!
À lire aussi : Freinage et particules fines : une pollution routière oubliée des évolutions réglementaires ?
Or, les microcapteurs bas coût pour le suivi des particules, dont la mesure est basée sur leur comptage grâce à un principe optique, sont sensibles aux conditions environnementales et aux caractéristiques des particules, ce qui fragilise les performances. Leur fonctionnement repose sur la diffusion de la lumière par le passage d’une particule à travers un faisceau laser. Il s’agit du même principe qui rend visible un rayon lumineux dans la fumée. L’intensité détectée dans une direction donnée dépend de la taille, de la forme, de la composition et de l’orientation des particules.
Il faut également noter que ces microcapteurs sont calibrés avec des particules de polystyrène, loin de refléter l’hétérogénéité réelle de la pollution de l’air extérieur. S’ajoutent à cela leur encrassement et leur vieillissement, qui dégradent les performances dans le temps. L’interprétation des données exige donc une connaissance fine de ces limites.
Des données précieuses… mais sous conditions
Pour autant, les microcapteurs ne sont pas à exclure. En effet, en cas d’épisode de pollution, ils détectent les mêmes tendances que les stations réglementaires, justifiant leur usage pour des mesures indicatives.
Pour s’y retrouver, les organismes pour la surveillance de la qualité de l’air ont mené des évaluations en confrontant les microcapteurs aux équipements réglementaires. Accessibles en ligne, les résultats du challenge Airlab (Airparif, France) et de l’AQ-SPEC (South Coast AQMD, États-Unis) révèlent des corrélations satisfaisantes entre microcapteurs et ces équipements pour les PM1,0 et PM2,5. En revanche, elles sont moins bonnes pour les PM10 , car la conception des microcapteurs et le principe de la mesure ne permettent pas de bien les détecter.
Ces microcapteurs peuvent être achetés autant par des citoyens, des collectivités, des industriels, des associations ou des chercheurs. Tous ces acteurs peuvent publier leurs données sur des cartes interactives, ou y contribuer ponctuellement.
Il existe des cartes qui affichent les mesures de leurs propres microcapteurs, comme des projets associatifs et locaux tels que OpenSenseMap, Sensor.community ou SmartCitizen, ainsi que systèmes commerciaux déployés à plus grande échelle tels que AirCasting, AirGradient, Atmotube, ou Purple Air.
D’autres services, comme le World Air Quality Index ou IQAir, agrègent les données autant de microcapteurs que des réseaux réglementaires.
Contrairement aux cartes des AASQA, qui sont comparables entre elles grâce à des protocoles stricts, chaque plateforme adopte sa propre présentation.
Il est donc essentiel de bien comprendre l’information affichée : les points de mesure peuvent fournir une information visuelle qui représente une concentration (Atmotube par exemple) ou un indice de qualité de l’air (IQAir par exemple) avec un jeu de couleurs propre aux plate-formes comme des données chiffrées sans repère pour interpréter la donnée (OpenSenseMap par exemple). De plus, selon les plateformes, une même carte peut afficher tout un ensemble d’indicateurs de pollution de l’air, pas seulement ceux liés à un polluant spécifique comme les particules.
Par ailleurs, peu de plateformes précisent si les mesures sont faites en intérieur, en extérieur, en mobilité ou en point fixe. De plus, une donnée en temps réel et une donnée moyennée sur une période donnée ne sont pas comparables. De ce fait, pour une même zone géographique, la qualité de l’air affichée peut varier d’une plateforme à l’autre, selon l’emplacement de la mesure, l’indicateur utilisé et la période considérée. En France, les données des AASQA restent la référence pour une information de confiance.
Les microcapteurs n’en restent pas moins des sentinelles utilisables sous réserve d’une excellente maîtrise de leurs limites. L’utilisation individuelle de microcapteurs par le grand public peut être encadrée par un protocole rigoureux pour assurer la qualité des données et accompagner leur interprétation. Le projet d’OpenRadiation, qui porte sur la mesure de la radioactivité, en est un exemple : lorsqu’une mesure faite par l’utilisateur d’un microcapteur apparaît inhabituelle sur la carte, un gestionnaire contacte alors ce contributeur pour comprendre l’origine de cette déviation. La cartographie de la qualité de l'air s'appuie sur une plus grande quantité de microcapteurs, ce qui rend plus difficile un suivi individualisé. Néanmoins, une validation des données à l’instar de ce qui est réalisé pour le suivi réglementaire pourrait être envisagée à l’aide d’un traitement adapté, avec un filtrage par exemple.
Ainsi, comme en témoignent la Captothèque (Atmo Auvergne-Rhône-Alpes) ou Ambassad’air (Rennes), programmes de sciences participatives basés sur la mesure citoyenne de la qualité de l’air, les microcapteurs peuvent non seulement fournir des indications, mais aussi contribuer à l’engagement citoyen pour l’observation environnementale.
À lire aussi : Ces citoyens qui mesurent la radioactivité de leur environnement
Marie Bellugue Duclos a reçu des financements du CNRS pour sa thèse. Elle utilise des micro-capteurs pour ses recherches.
Denis Machon a reçu des financements du CNRS et de l'ANR (France), du CRSNG (Canada) et du FRQ (Québec).
Michael Canva a reçu des financements du CNRS et de l’ANR (France), du CRSNG (Canada) et du FRQ (Québec).
07.01.2026 à 17:54
Pourquoi la procrastination n’a rien à voir avec la paresse – et comment la surmonter
Texte intégral (1610 mots)
Procrastiner ne veut pas dire que l’on manque de force de caractère. Cela tient plutôt à la capacité de notre cerveau à gérer le stress et à un manque de flexibilité. La bonne nouvelle, c’est que la souplesse nécessaire pour la surmonter peut s’acquérir.
La plupart d’entre nous ont déjà vécu cette situation : une échéance approche, la tâche est parfaitement réalisable, mais, au lieu de nous y mettre, nous nous sentons soudainement obligés de ranger un tiroir ou de réorganiser les applications sur notre téléphone. La procrastination peut sembler irrationnelle, vue de l’extérieur, mais il est difficile d’y résister quand on y est soi-même confronté. Bien qu’elle soit souvent considérée comme un manque de discipline, des recherches montrent qu’elle est bien plus liée à la flexibilité (ou à la rigidité) avec laquelle notre cerveau réagit à l’inconfort et à l’incertitude.
En d’autres termes, la procrastination n’est pas un problème de gestion du temps, mais un problème de régulation des émotions. Les gens ne retardent pas les choses parce qu’ils manquent de compétences de planification, mais parce que leur cerveau cherche à échapper à un état intérieur émotionnel difficile. Lorsque je demande à mes étudiants pourquoi ils procrastinent, leurs réponses sont étonnamment similaires : « Je ne sais pas par où commencer », « Je me sens perdu », « Je suis anxieux », « Je me sens dépassé ». Aucun d’entre eux ne dit « Je m’en fiche » : la procrastination vient généralement du fait que l’on se soucie trop des choses.
Surtout, le phénomène d’évitement empêche le cerveau de se rendre compte d’une réalité importante : commencer une action est souvent gratifiant. Le premier pas, aussi petit soit-il, suffit à libérer de la dopamine. Cela aide à augmenter la motivation après – et non, avant – avoir commencé. Mais lorsque nous évitons de nous confronter à la tâche en question, nous ne ressentons jamais ce signal de récompense, et elle va continuer à nous sembler tout aussi intimidante le lendemain.
Flexibilité cognitive
La flexibilité cognitive est la capacité à actualiser ses attentes lorsque les circonstances changent, à modifier sa stratégie et à s’affranchir des schémas inefficaces. C’est un élément fondamental de l’apprentissage : le cerveau fait des prédictions, reçoit de nouvelles informations et s’adapte en conséquence.
Imaginez que vous attendiez un bus coincé dans les embouteillages. Une personne flexible changera rapidement d’itinéraire pour emprunter la ligne de métro qui, si elle correspond habituellement à un trajet plus long, permettra désormais d’aller plus vite. Une personne rigide continuera d’attendre, non pas parce qu’elle ignore qu’il existe une alternative, mais parce que changer d’itinéraire lui semble difficile ou « injustifié », et que son esprit reste figé sur son choix initial.
Je constate clairement ce schéma dans mes recherches sur le trouble obsessionnel compulsif (TOC). Bien que très différent de la procrastination, ce phénomène implique une difficulté à s’écarter d’une prédiction initiale, en particulier lorsqu’il y a incertitude ou risque d’erreur. Lorsque le cerveau ne parvient pas à actualiser ses informations, il reste focalisé sur une idée.
Les étudiants d’aujourd’hui sont confrontés à une véritable tempête. Les téléphones et les réseaux sociaux réduisent leur capacité d’attention. Le perfectionnisme amplifie l’autocritique. Et l’anxiété atteint des niveaux records dans les universités britanniques. Conjugués, ces facteurs affaiblissent la capacité du cerveau à s’adapter, ce qui est précisément la capacité nécessaire pour entreprendre une tâche difficile.
Du point de vue des neurosciences, la procrastination représente un bras de fer entre deux systèmes. D’un côté agissent des mécanismes de défense, activés lorsqu’une tâche semble incertaine, difficile ou évaluative. Cela donne lieu à des pensées telles que « Et si c’était terrible ? », « Et si j’échouais ? » De l’autre intervient le système de récompense, activé par tout ce qui procure un sentiment de bien-être immédiat (faire défiler son fil d’actualité, ranger, envoyer des messages à ses amis).
Lorsque les mécanismes de défense dominent, il peut être impossible de se mettre au travail. Pour les esprits rigides, en particulier, le cerveau a du mal à revenir sur sa prédiction initiale selon laquelle la tâche constitue un danger ou s’avère insurmontable. L’évitement devient alors la seule option possible, et le petit soulagement qui est alors ressenti incite le cerveau à répéter ce comportement.
En effet, des recherches montrent que la procrastination est essentiellement un remède à court terme pour améliorer l’humeur : une échappatoire rapide à un malaise, qui génère elle-même davantage de stress par la suite.
Il y a une génération, procrastiner exigeait de la créativité. Il fallait trouver des distractions. Aujourd’hui, ce sont elles qui vous trouvent. Les réseaux sociaux sont conçus pour déclencher une recherche de nouveauté stimulée par la dopamine. Pour quelqu’un qui est déjà anxieux ou surchargé, le téléphone devient une échappatoire omniprésente. Comme l’a dit un étudiant : « Il est plus facile de ne pas faire le travail. » Non pas parce que le travail n’a pas d’importance, mais parce que l’alternative qui lui est proposée offre une récompense instantanée.
La flexibilité peut se travailler
Alors, comment éviter la procrastination ? Il ne s’agit pas de devenir plus discipliné, mais plutôt de renforcer les systèmes cérébraux qui vous permettent de vous mettre au travail. Voici quelques moyens d’y parvenir.
Décomposez les tâches
Divisez le travail en unités concrètes et gérables : rédigez un titre, rédigez quelques points clés ou lisez une page. Cela réduit la menace perçue d’une tâche importante et sans contours bien définis, et cela procure au cerveau de petites récompenses régulières sous forme de dopamine à chaque étape franchie.
Misez sur les micro-changements
Les micro-changements sont de minuscules actions initiatrices : ouvrir le document, poser vos notes sur le bureau. Ils ne réduisent pas la tâche elle-même, mais ils interrompent l’état de « blocage » et incitent doucement le cerveau à se mettre en mouvement.
Changez de perspective
Recadrez la tâche comme si vous conseilliez quelqu’un d’autre : « Que dirais-je raisonnablement à un ami dans cette situation ? » Cela assouplit la pensée rigide et axée sur la menace et aide le cerveau à générer des interprétations alternatives plus souples.
Développez votre tolérance émotionnelle
Le malaise lié au démarrage atteint rapidement son apogée, puis diminue. Se le rappeler peut rendre l’évitement moins irrésistible.
Accordez-vous des récompenses immédiates
Associez la tâche à quelque chose d’agréable (de la musique, une boisson chaude ou le fait de travailler avec d’autres personnes) afin que la première étape soit moins pénible et plus gratifiante.
Ensemble, ces stratégies renforcent la forme de flexibilité cognitive la plus pertinente pour affronter la procrastination : la capacité à passer de l’évitement à l’action lorsqu’une tâche semble inconfortable. D’autres formes de flexibilité cognitive (telles que le changement de règle ou la flexibilité motrice) peuvent également être améliorées, mais grâce à différents types d’entraînement.
Si vous vous reconnaissez dans les étudiants qui se disent « anxieux », « dépassés » ou « ne sachant pas par où commencer », cela ne signifie pas que vous êtes paresseux. Cela signifie simplement que votre cerveau a du mal à changer d’état. La procrastination en dit beaucoup moins sur la volonté que sur la façon dont notre esprit gère l’incertitude et l’inconfort.
Et ce qui est encourageant, c’est que la procrastination n’est pas immuable. La flexibilité s’améliore avec la pratique. Chaque fois que vous faites un pas, même minime, comme ouvrir le fichier ou écrire la première ligne, vous ne vous contentez pas de progresser dans la tâche. Vous montrez à votre cerveau que commencer est faisable, supportable et souvent gratifiant.
Au fil du temps, ces petits changements s’accumulent pour produire quelque chose de puissant : un esprit capable de se diriger vers ce qui compte, plutôt que de fuir l’inconfort.
Annemieke Apergis-Schoute a reçu un financement du Wellcome Trust pour ses précédentes recherches sur les TOC.
07.01.2026 à 15:01
Le Groenland, le Danemark et l’UE au défi de l’ordre trumpien : la doctrine Monroe en marche
Texte intégral (2673 mots)
Alors que l’attaque sur le Venezuela vient de confirmer la détermination des États-Unis à user de la force pour contrôler l’ensemble du continent américain, au détriment du droit international, l’avenir du Groenland, également dans la ligne de mire de Washington, requiert une attention accrue de la part de l’Europe.
« L’attaque contre le Venezuela est l’exemple effrayant d’un scénario où la politique de puissance prend le dessus. Nous ne savons pas encore ce qui se passe et où nous allons. Mais nous devrons tous réfléchir à notre vision du monde et prendre position. » Ce message posté sur LinkedIn (en danois) par la ministre groenlandaise de l’économie, du commerce, des minéraux et de la justice Najaa Nathanielsen traduit bien l’inquiétude qui règne à Nuuk, et qui s’est encore amplifiée depuis les événements du 3 janvier 2026 à Caracas. De son côté, la première ministre danoise Mette Frederiksen s’est alarmée :
« Si les États-Unis choisissent d’attaquer militairement un autre pays de l’Otan, alors c’est la fin de tout. »
Les menaces états-uniennes sur le Groenland, exprimées dès le retour au pouvoir de Donald Trump il y a un an, se sont nettement intensifiées au cours de ces dernières semaines, notamment avec la nomination, le 22 décembre 2025, d’un « envoyé spécial pour le Groenland » en la personne du gouverneur de Louisiane Jeff Landry. Celui-ci décrit ouvertement sa mission comme étant l’annexion du Groenland aux États-Unis (« make Greenland a part of the U.S. »).
La nomination témoigne, sans surprise, de la ténacité du président états-unien en ce qui concerne son projet d’annexion du territoire danois. L’accent mis par Donald Trump et par Jeff Landry sur l’histoire de la Louisiane, vendue par la France en 1803 aux États-Unis, dont elle représentait alors plus de 22 % de la surface, reflète – là aussi sans surprise – la logique transactionnelle de la politique promue par l’administration Trump, une logique de marché qui s’immisce sans complexe dans le domaine de la sécurité internationale.
Mais le Groenland est-il réellement, pour les États-Unis, une affaire de « sécurité nationale et internationale » qui justifierait son annexion ? Et si non, quelles sont les ambitions réelles de Washington ?
Créer la division entre le Groenland et le Danemark
Coutumier des fausses allégations, Donald Trump conteste de nouveau la souveraineté danoise sur le Groenland : « [Il y a trois cents ans], nous aussi étions là, avec des bateaux, j’en suis sûr. » Or la souveraineté danoise sur le Groenland ne fait aucun doute. Elle a été statuée par la Cour permanente de justice internationale en 1931 et officiellement reconnue par les États-Unis en 1951. Aucun changement sur le statut de l’île ne peut se faire sans l’accord du Danemark, conformément à l’accord de 2009 entre le Danemark et le Groenland sur l’autonomie du territoire groenlandais.
Lorsque, le 7 janvier 2025, Mette Frederiksen répond à la proposition américaine d’achat du Groenland que l’avenir de l’île appartient aux Groenlandais, la réponse ménage le Groenland mais elle est incomplète. Le Groenland est toujours danois, et un vote du Parlement danois, le Folketing, est notamment requis pour une éventuelle accession à l’indépendance. Donald Trump joue à dessein de l’histoire coloniale entre le Danemark et le Groenland pour écarter un acteur clé de la situation – qui plus est, État membre de l’Union européenne.
De même, il est faux de prétendre que le gouvernement danois n’a engagé aucune dépense pour la défense du Groenland, comme le Trump l’affirme. Certes, jusqu’à récemment, la participation danoise était modeste (présence du Joint Arctic Command à Nuuk, de patrouilleurs et frégates et de la patrouille en traîneau à chiens Sirius couvrant la côte nord du Groenland). « Nous pouvons faire plus dans le cadre qui existe aujourd’hui », assurait en 2025 le ministre danois des affaires étrangères Lars Løkke Rasmussen. Deux programmes de défense ont été approuvés en 2025 par le Danemark pour un montant total avoisinant 6 milliards d’euros, et Copenhague a également approuvé une commande de 16 avions de combat américains F35 : la bonne volonté danoise ne suffit pas visiblement à calmer les ardeurs conquérantes de Washington.
La guerre de récits engagée par les États-Unis en soutien du projet d’annexion du Groenland n’est pas anodine. Elle cherche à ancrer dans les esprits le doute sur la légitimité de la souveraineté du Danemark et, en jouant sur son passé colonial, à créer la division entre le Groenland et le Danemark. Un autre aspect du discours de Washington est la surestimation de la menace militaire russe et chinoise au Groenland.
Des risques surdimensionnés pour justifier l’annexion du Groenland
Sur le plan de la sécurité, Donald Trump a, à plusieurs reprises, mentionné la présence de navires militaires russes et chinois autour du Groenland. Il s’agit d’une contre-vérité : les navires en question ont été repérés au large des côtes de l’Alaska.
La projection de puissance de la marine russe dans la zone d’étranglement GIUK (zone maritime entre le Groenland, l’Islande et le Royaume-Uni) est problématique et motive notamment les opérations Northern Viking de l’Otan. Elle est également redoutée au Groenland en ce qui concerne les infrastructures critiques (notamment les câbles sous-marins de télécommunications). Les risques en matière de sécurité ne sont donc pas nuls, d’autant que la Chine renforce sa puissance militaire dans le monde et, notamment, sa capacité en porte-avions.
Pour autant, s’il est important d’exercer un contrôle du territoire groenlandais, il n’y a pas de risque militaire significatif immédiat pour le Groenland qui justifierait son annexion par les États-Unis. Le risque est volontairement exagéré par Donald Trump afin de légitimer l’appropriation du Groenland, à laquelle le Groenland et le Danemark s’opposent.
Au-delà de la rhétorique et des fausses allégations, répétées à l’envi, les menaces de Washington sont à prendre au sérieux, car elles s’accompagnent de mesures concrètes et plus discrètes.
Dans leur rapport annuel de 2025, les services de renseignement danois ont, pour la première fois, fait état d’inquiétudes concernant les États-Unis. Le Danemark, historiquement l’un des plus atlantistes des pays européens, prend ses distances avec Washington.
Un expansionnisme au service d’intérêts bien pensés
En réalité, l’administration Trump est moins concernée par les questions de sécurité (même s’il s’agit de son argument officiel) que par un expansionnisme réactivant la doctrine Monroe, qui revendique un contrôle américain exclusif de l’« hémisphère occidental ». La nouvelle stratégie nationale de sécurité des États-Unis remet clairement au goût du jour cette doctrine (« Nous appliquerons un “corollaire Trump” à la doctrine Monroe », y est-il indiqué).
Cet expansionnisme de circonstance à l’approche des élections de mi-mandat promet de frapper fort. Annexer le Groenland est sans doute plus flatteur pour les ambitions du locataire de la Maison Blanche que renforcer des partenariats de défense pour des besoins non avérés, d’autant qu’il a clairement affirmé que les Européens devraient, dans le futur, assurer leur sécurité eux-mêmes.
Or, si la stratégie nationale de sécurité de 2025 peut très bien être « la plus longue note de suicide de l’histoire des États-Unis », pour reprendre les termes de l’historienne Anne Applebaum, elle n’en représente pas moins un danger immédiat pour l’Europe où, dans un renversement surréel, la démocratie et le supranationalisme sont non seulement décrits par l’administration Trump comme des menaces, mais plus encore comme des périls plus dangereux que les régimes autoritaires de la Russie ou de la Chine.
Contrairement aux affirmations de Trump, qui prétend que les États-Unis ne sont pas intéressés par les richesses minérales de l’île (« Nous avons tellement de sites pour les minéraux, le pétrole et tout le reste »), les investissements américains se développent au Groenland. Ronald Lauder, l’héritier milliardaire d’Estée Lauder qui aurait été le premier à avoir suggéré à Donald Trump l’idée d’« acheter » le Groenland, a pris des participations dans des entreprises groenlandaises et a manifesté son intérêt pour la construction d’une centrale hydroélectrique sur le plus grand lac du Groenland, Tasersiaq, afin d’alimenter en énergie une fonderie d’aluminium.
Des responsables de l’administration Trump seraient en pourparlers pour que le gouvernement états-unien prenne une participation dans l’entreprise américaine privée Critical Metals Corp, qui détient l’un des plus grands projets d’exploitation de terres rares au Groenland, Tanbreez. Cette opération donnerait aux États-Unis un accès direct à l’extraction de terres rares au Groenland, alors que la Chine détient le quasi-monopole mondial de leur extraction et raffinement.
Enfin, des rétorsions économiques visant des industries danoises ont déjà été mises en place : des contrats pour cinq projets éoliens offshore sur la côte est des États-Unis ont été suspendus, dont deux sont développés par la société danoise Ørsted.
Une réponse groenlandaise, danoise et européenne
Il est donc urgent d’adopter des mesures groenlandaises, danoises mais aussi européennes. Le premier ministre du Groenland Jens-Frederik Nielsen a clairement exprimé à Strasbourg, le 8 octobre 2025 devant le Parlement européen, son ouverture à une coopération plus approfondie avec l’UE :
« Nous avons besoin de coopération et de partenariats avec des pays et des institutions qui partagent nos valeurs. »
Le 6 janvier 2026, dans un message posté sur son compte Facebook, il remercie plusieurs États européens de leur soutien face aux menaces de Washington : les dirigeants de la France, de l’Allemagne, de l’Italie, de la Pologne, de l’Espagne, mais aussi du Royaume-Uni, ont déclaré qu’« il revient au Danemark et au Groenland, et à eux seuls, de décider des questions concernant le Danemark et le Groenland », et que « la sécurité dans l’Arctique doit donc être assurée collectivement, en coopération avec les alliés de l’Otan, y compris les États-Unis. »
Trois points sont donc saillants. Premièrement, sur le plan narratif, l’affirmation de la souveraineté du Danemark sur le Groenland ne se fait pas au détriment de l’autodétermination du peuple groenlandais, mais elle protège pour l’instant le Groenland d’une OPA américaine sur un territoire qui a bien, selon le droit danois, et en conformité avec le droit international, la capacité de décider de son futur selon les termes de l’accord d’autonomie de 2009.
Deuxièmement, sur le plan économique, une interdépendance trop forte avec les États-Unis peut déboucher sur une vulnérabilité politique et mettre en péril la démocratie au Groenland. Les Groenlandais ont déjà adopté des mesures claires de protection : le Parlement (Inatsisartut) a notamment voté en urgence en février 2025 une loi sur le financement des partis politiques, qui interdit les dons étrangers ou anonymes aux partis et aux candidats, et qui plafonne les contributions privées à l’échelle locale. Le Parlement examine en ce moment un projet de loi sur le filtrage des investissements directs étrangers visant à permettre aux autorités d’examiner, d’approuver, de conditionner ou de bloquer les investissements étrangers susceptibles de constituer une menace pour la sécurité nationale ou l’ordre public. L’UE s’est dotée d’un instrument similaire en 2019.
Troisièmement, en matière de sécurité, il est essentiel de penser une coopération européenne au bénéfice du Groenland et en accord avec le Danemark, une coopération qui peut dans un premier temps prendre la forme d’un dialogue stratégique régulier sur la sécurité et la résilience dans l’Arctique entre l’UE, le Groenland et le Danemark – et ce, sans attendre les résultats des élections de mi-mandat aux États-Unis.
Ce dialogue stratégique aurait pu commencer dès le début de l’année 2025. Mais les menaces de Washington n’ont pas été prises au sérieux, et un retard considérable a été pris. Il n’est pas sûr que la proposition des pays européens d’une réponse dans le cadre de l’Otan soit suffisante pour convaincre les États-Unis de renoncer à la force pour annexer le Groenland. Il est donc urgent de comprendre que l’UE doit avoir le courage de repenser sa relation avec les États-Unis, et de se penser et de s’affirmer sans détour comme puissance.
Cécile Pelaudeix ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.01.2026 à 11:49
Éditer le génome pour soigner : où en sont les thérapies issues de CRISPR et ses dérivés ?
Texte intégral (1679 mots)
Ce qui ressemblait hier encore à de la science-fiction est désormais une réalité clinique : l’édition du génome humain avec CRISPR-Cas9 commence à guérir des maladies jusque-là incurables. Mais où en est réellement cette révolution annoncée ? Entre premiers succès cliniques, limites techniques et questions éthiques persistantes, les thérapies issues de CRISPR dessinent un paysage où promesses et prudence sont désormais indissociables.
Nous assistons à une nette montée des espoirs pour des maladies rares, souvent « orphelines ». Par exemple, un nourrisson atteint d’un déficit métabolique rare (une maladie génétique dans laquelle une enzyme ou une voie métabolique essentielle ne fonctionne pas correctement) dû à une mutation sur le gène CPS1, a reçu en 2025 un traitement « sur mesure » utilisant la technique d’édition de base (base editing), avec des résultats biologiques encourageants.
Aujourd’hui, l’édition génique n’est plus une hypothèse lointaine, mais donne des résultats concrets et change déjà la vie de certains patients. Pour comprendre ce qui est en train de se jouer, il faut revenir sur les progrès fulgurants de ces dernières années, des premiers essais pionniers aux versions de plus en plus sophistiquées de l’édition génomique.
Développée en 2012 grâce à l’association d’une endonucléase, Cas9, et de petits ARN guides (sgRNA), cette méthode d’édition ciblée du génome a bouleversé la biologie moderne, au point de valoir à ses inventrices le prix Nobel de chimie en 2020. Depuis son invention, le CRISPR-Cas9 classique est largement utilisé dans les laboratoires, dont le nôtre, pour créer des modèles cellulaires de maladies, fabriquer des cellules qui s’illuminent sous certaines conditions ou réagissent à des signaux précis, et explorer le rôle de gènes jusqu’ici mystérieux.
Un premier système extraordinaire mais imparfait
Côté clinique, l’utilisation de CRISPR-Cas9 a ouvert des possibilités thérapeutiques inédites : modifier précisément un gène, l’inactiver ou en corriger une version défectueuse, le tout avec une simplicité et une rapidité jusqu’alors inimaginables. Mais cette puissance s’accompagnait alors de limites importantes : une précision parfois imparfaite, avec des coupures hors-cible difficiles à anticiper (des modifications accidentelles de l’ADN réalisées à des endroits non prévus du génome), une efficacité variable selon les cellules, et l’impossibilité d’effectuer des modifications plus fines sans induire de cassure double brin (une rupture affectant les deux brins d’ADN à un site génomique spécifique) potentiellement délétère.
Ces limites tiennent en grande partie au recours obligatoire aux cassures double brin et à la réparation par homologie (mode de réparation de l’ADN dans lequel la cellule s’aide d’une séquence d’ADN modèle très similaire – ou fournie par le chercheur – pour réparer une cassure double brin), un mécanisme peu fiable et inégal selon les types cellulaires. Mais la véritable rupture est apparue à partir de 2016 avec l’invention des éditeurs de base (base editors), des versions ingénieusement modifiées de CRISPR capables de changer une seule lettre de l’ADN sans provoquer de cassure double brin. Pour la première fois, il devenait possible de réécrire le génome avec une précision quasi chirurgicale, ouvrant la voie à des corrections plus sûres et plus fines que celles permises par Cas9 classique. Cependant, les base editors restaient limités : ils permettaient d’effectuer certaines substitutions de bases, mais étaient incapables de réaliser des insertions ou des modifications plus complexes du génome.
Ces limitations des base editors ont été en partie levées avec l’arrivée de leurs successeurs, les prime editors, en 2019 : ces nouvelles machines moléculaires permettent non seulement de substituer des bases, mais aussi d’insérer ou de supprimer de courtes séquences (jusqu’à plusieurs kilobases), le tout sans provoquer de cassure double brin, offrant ainsi un contrôle beaucoup plus fin sur le génome. Cette technique a été utilisée avec succès pour créer en laboratoire des modèles cellulaires et animaux de maladies génétiques, et des plantes transgéniques. Cependant, en pratique, son efficacité restait trop faible pour des traitements humains, et le résultat dépendait du système de réparation de la cellule, souvent inactif ou aléatoire. Mais en six ans, la technique a gagné en précision et polyvalence, et les études chez l’animal ont confirmé à la fois son efficacité et la réduction des effets hors-cible. Résultat : en 2025, six ans après son invention, le prime editing fait enfin son entrée en clinique, un moment que beaucoup de médecins décrivent comme un véritable tournant pour la médecine.
Des traitements sur le marché
Dès 2019, de premiers essais cliniques avec le système CRISPR-Cas9 classique (le médicament Casgevy) avaient été réalisés sur des patients atteints de β-thalassémie et drépanocytose, deux maladies génétiques de l’hémoglobine, via la correction ex vivo et la réinjection des cellules modifiées au patient. Les premiers résultats étaient prometteurs : certains patients avaient vu leur production de globules rouges anormaux corrigée de manière durable, avec une amélioration significative de leurs symptômes, après une unique injection. Le traitement Casgevy a d’ailleurs été approuvé en Europe en 2024, pour un coût d’environ 2 millions d’euros par patient.
Plus récemment, en 2025 un bébé atteint d’une mutation du gène CPS1 a été guéri grâce à l’édition de base, la version moins invasive et plus sûre de CRISPR-Cas9, mais qui reste limitée aux substitutions ponctuelles et ne permet pas toutes les modifications (pas d’insertion de séquences longues). Mais aujourd’hui, le prime editing lève les deux grands verrous du CRISPR-Cas9 classique – la nécessité de casser l’ADN et la dépendance à des mécanismes de réparation inefficaces – ouvrant la voie à une édition plus sûre, plus précise et applicable à un spectre beaucoup plus large de maladies.
Il n’est plus limité à de simples conversions ponctuelles, mais permet pour la première fois de remplacer ou restaurer un gène complet, de façon précise et contrôlée. L’année 2025 marque le premier succès clinique d’une telle thérapie – une étape historique pour l’édition génomique. En effet, le 19 mai 2025 la société Prime Medicine fondée par David Liu, inventeur du prime editing, a annoncé la première administration humaine de sa thérapie, destinée à un jeune patient atteint de granulomatose chronique, une maladie immunitaire rare liée à une mutation de l’ADN. Les premiers résultats biologiques de ce « CRISPR ultrapuissant » se sont révélés très prometteurs, ouvrant une nouvelle ère pour l’édition génomique. Il faudra toutefois patienter encore quelques mois avant de mesurer réellement le succès du prime editing : les premiers essais cliniques restent très récents et le manque de recul ne permet pas encore d’en tirer des conclusions définitives, notamment en termes de sécurité – l’absence d’effets secondaires – et de stabilité à long terme.
Ces stratégies d’édition du génome s’inscrivent pleinement dans le mouvement de la médecine personnalisée, où chaque traitement est conçu sur mesure pour un patient donné, en fonction de sa mutation spécifique – un véritable médicament « pour lui seul ». Pour la suite, des sociétés annoncent déjà vouloir continuer l’aventure avec des stratégies consistant à administrer directement les traitements dans le corps, sans passer par la modification in vitro de cellules prélevées chez le patient – une procédure complexe et onéreuse.
D’un prototype de laboratoire, on est donc passés en un temps record à une technologie polyvalente, et on entre désormais dans l’ère de la médecine personnalisée même pour des pathologies très rares. Le champ d’application s’élargit : on ne se contente plus des pathologies sanguines – des essais et projets explorent des maladies métaboliques, des infections chroniques (ex. thérapies pour hépatite B) ou des maladies héréditaires rares. De nouvelles avancées viennent constamment enrichir le potentiel de CRISPR, élargissant sans cesse ses possibilités. Tous les types de maladies ne sont pas encore éligibles : les pathologies monogéniques (mutation simple, bien identifiée) sont les plus adaptées. Pour des maladies multifactorielles, complexes, ou dépendant de l’environnement, l’édition reste beaucoup moins directe. De plus, certaines cibles (cellules non accessibles, tissus spécifiques, traitement in vivo) restent techniquement très difficiles. C’est également un défi économique, tant les traitements de médecine personnalisée restent extrêmement coûteux.
Carole Arnold a reçu des financements de l'INSERM, la Région Grand-Est, le FEDER et l'ANR.
07.01.2026 à 11:49
Que sont les xénobots, ces robots biologiques qui bouleversent les frontières entre vivant et machine ?
Texte intégral (2918 mots)

Les xénobots attirent aujourd’hui l’attention. Cette nouvelle catégorie de « robots vivants », fabriqués à partir de cellules d’amphibien et conçus grâce à des algorithmes, est capable de se déplacer, de se réparer et même, dans certaines expériences, de se reproduire en assemblant de nouveaux agrégats cellulaires. Ces entités questionnent la frontière entre machine et organisme. Des études récentes détaillent mieux leur fonctionnement moléculaire et ravivent les débats éthiques sur le contrôle de ces formes de vie programmables.
Les xénobots sont des entités biologiques artificielles entièrement composées de cellules vivantes issues d’embryons de xénope (Xenopus laevis), un amphibien africain. Prélevées sur des embryons de stade précoce, ces cellules sont encore indifférenciées : elles ne se sont pas encore spécialisées pour devenir des cellules de peau ou du foie par exemple. Elles sont cependant déjà « programmées » naturellement pour devenir des cellules qui tapissent les surfaces internes et externes du corps (peau, parois des organes, vaisseaux) ou des cellules contractiles du muscle cardiaque. Les contractions de ces cellules cardiaques agissent comme de minuscules moteurs, générant une propulsion, qui permet aux xénobots de se déplacer dans un milieu aquatique.
Pour fabriquer un xénobot, on isole et on assemble manuellement des groupes de cellules, comme des « briques biologiques ». À l’issue de cette phase de microchirurgie et d’organisation tridimensionnelle, les xénobots sont des entités de moins d’un millimètre de morphologies variables selon la fonction recherchée. Ils ne disposent d’aucun système nerveux ni organe sensoriel. Leur comportement est uniquement dicté par leur forme et leur composition cellulaire, toutes deux déterminées lors de leur création via des techniques de bio-ingénierie.
Bien qu’ils soient constitués uniquement de cellules vivantes, on parle de robots biologiques ou biobots, car ils obéissent à des tâches prédéfinies par l’humain : déplacement, coopération en essaim, transport d’objets, voire contrôle et assemblage d’autres xénobots à partir de cellules libres présentes autour d’eux (on parle d’autoréplication). Le terme « robot » prend ici un sens élargi, fondé sur la capacité à accomplir une tâche, en l’occurrence programmée par la forme et non par un logiciel interne.
Des robots biologiques conçus avec de l’IA
Avant de fabriquer un xénobot en laboratoire, des programmes d’intelligence artificielle (IA) sont utilisés pour tester virtuellement et simuler des milliers de formes et d’agencements cellulaires. Des algorithmes calculent quelles combinaisons fonctionneraient le mieux pour atteindre l’objectif fixé par le cahier des charges : par exemple, maximiser la vitesse de déplacement, transporter une charge ou induire de l’autoréplication.
Le lien entre l’intelligence artificielle et les cellules n’existe que lors de l’étape théorique de la conception. L’IA sert exclusivement à prédire et à optimiser la forme la plus adéquate, qui sera ensuite réalisée par microchirurgie et assemblage par des humains. Elle ne fournit aucun processus cognitif embarqué dans le xénobot, qui n’est donc pas contrôlé par une IA et ne possède aucune autonomie décisionnelle, contrairement à d’autres types de robots en développement.
Les xénobots ont d’abord été conçus sous forme de sphères, de triangles ou de pyramides, des géométries simples choisies pour être faciles à construire, afin d’étudier de manière contrôlée la manière dont la forme et la disposition des cellules influencent le mouvement.
La forme en croissant, dite Pac-Man, a été identifiée par intelligence artificielle comme la plus performante pour s’autorépliquer. La réplication est cependant limitée à trois ou quatre générations en laboratoire et les xénobots se dégradent après environ dix jours, limitant leurs applications à plus long terme.
Quelles applications pour les xénobots ?
Toutes les applications envisagées demeurent pour l’instant expérimentales. Certaines fonctions (locomotion, agrégation de particules, autoréparation, réplication limitée) ont été démontrées in vitro, ce qui constitue des preuves de concept. En revanche, les usages proposés en médecine ou pour l’environnement restent pour l’instant des hypothèses extrapolées à partir de ces expériences et de modèles informatiques, sans validation chez l’animal.
Dans le domaine environnemental, grâce à leur petite taille, leur forte biodégradabilité et leur capacité à fonctionner en essaim, les xénobots pourraient être utilisés pour concentrer des microparticules ou des polluants en un même endroit, avant une étape de récupération ou de traitement adaptée, les xénobots eux-mêmes se dégradant ensuite sans laisser de trace biologique.
Des versions plus complexes de xénobots pourraient être utilisées comme marqueurs visuels de modifications dans un environnement. Un tel xénobot, exposé à un certain type de polluant, subirait un changement de structure et de couleur. Cette propriété permettrait en quelque sorte de lire ce que le xénobot a rencontré dans son environnement, à l’image d’un capteur lumineux. Cette application n’a cependant pas encore été démontrée expérimentalement.
Dans le domaine médical, les xénobots pourraient être utilisés, tout comme d’autres microrobots, pour transporter localement des molécules thérapeutiques autour de cellules cibles, en réduisant ainsi la toxicité sur les tissus sains. La possibilité que les xénobots puissent servir à la livraison de molécules, comme des anticancéreux, reste cependant une extrapolation à partir d’expériences in vitro préliminaires sur d’autres microrobots.
Enfin, la recherche fondamentale pourrait bénéficier de l’existence de ces objets. L’organisation cellulaire des xénobots, hors du contexte embryonnaire, offre un modèle pour explorer la plasticité cellulaire ou tissulaire, la coordination cellulaire collective et l’auto-organisation, domaines clés pour comprendre l’évolution d’entités vivantes.
Des propriétés inattendues
Au-delà des tâches programmées, des propriétés remarquables ont été identifiées expérimentalement. Par exemple, des xénobots exposés à des vibrations sonores modifient significativement leur comportement moteur, passant d’une rotation à un déplacement linéaire rapide, une réaction absente chez les embryons de xénope au même stade.
En regroupant des cellules selon des architectures originales, les xénobots obligeraient ces cellules à reprogrammer en partie leur activité génétique : des analyses des gènes activés par ces cellules montrent l’activation de voies de stress, de réparation tissulaire ou de remodelage, qui ne sont pas utilisées de la même façon dans l’embryon intact.
De plus, dans ces expériences, plusieurs xénobots sectionnés se réparent spontanément et retrouvent un mouvement coordonné, ce qui suggère une communication à courte distance entre cellules, probablement via des signaux bioélectriques et chimiques, alors qu’aucun nerf n’est présent. Ces comportements illustrent une forte plasticité cellulaire, dont l’ampleur varie selon la manière dont les tissus ont été assemblés et les conditions de culture employées.
Derrière les promesses, des enjeux éthiques majeurs
Les promesses d’applications médicales ou environnementales ne doivent pas occulter l’ambiguïté de statut de ces entités, ni organismes naturels ni machines traditionnelles. Les xénobots sont des assemblages cellulaires conçus par l’humain appuyé par des systèmes d’intelligence artificielle. Leur déploiement reste, aujourd’hui, de l’ordre de l’hypothèse.
Plusieurs risques sont discutés par les bioéthiciens. Écologique d’abord, en cas d’acquisition par les xénobots d’une capacité de survie ou de réplication inattendue dans l’environnement. Sanitaire ensuite, en cas d’utilisation chez l’humain sans maîtrise complète de leur comportement à long terme. Un risque de détournement enfin, par exemple pour la libération ciblée d’agents toxiques.
À lire aussi : Xénobots, biobots : doit-on avoir peur des « robots vivants » ?
À cela s’ajoutent des enjeux plus symboliques : brouiller davantage la frontière entre vivant et non-vivant pourrait fragiliser certains cadres juridiques de protection du vivant, d’où les appels à un cadre réglementaire international spécifique à ces biorobots. Les promesses d’applications médicales ou dans le domaine de l’environnement ne doivent pas occulter l’ambiguïté de statut de ces entités, qui exigent une réflexion éthique et un cadre réglementaire international.
L’extension de l’utilisation de ces outils biologiques à des cellules humaines ne devra se réaliser que dans un cadre strictement contrôlé et sous supervision d’un comité éthique pluridisciplinaire. Plusieurs travaux dans ce domaine recommandent déjà des évaluations systématiques des risques (écologiques, sanitaires et de détournement), une transparence des protocoles et une implication du public dans les décisions de déploiement.
Il a été proposé de créer des instances spécifiques à cette technologie, chargées de vérifier la biodégradabilité, la limitation de la réplication, la traçabilité des essais et le respect de la dignité du vivant. Dans ce contexte, l’usage éventuel de xénobots ou d’organismes similaires dérivés de cellules humaines devrait s’inscrire dans un cadre réglementaire international inspiré de ces recommandations, avec des garde-fous comparables à ceux mis en place pour les organismes génétiquement modifiés (OGM) ou les thérapies géniques.
Jean-François Bodart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.01.2026 à 11:49
D’où venons-nous ? Un voyage de 4 milliards d’années jusqu’à l’origine de nos cellules
Texte intégral (4270 mots)
Entrée à l’Académie des sciences en janvier 2025, Purificación López García s’intéresse à l’origine et aux grandes diversifications du vivant sur Terre. Elle étudie la diversité, l’écologie et l’évolution des microorganismes des trois domaines du vivant (archées, bactéries, eucaryotes). Avec David Moreira, elle a émis une hypothèse novatrice pour expliquer l’origine de la cellule eucaryote, celle dont sont composés les plantes, les animaux et les champignons, entre autres. Elle est directrice de recherche au CNRS depuis 2007 au sein de l’unité Écologie- Société-Évolution de l’Université Paris-Saclay et a été récompensée de la médaille d’argent du CNRS en 2017. Elle a raconté son parcours et ses découvertes à Benoît Tonson, chef de rubrique Science et Technologie.
The Conversation : Vous vous intéressez à l’origine du vivant. Vivant, que l’on classifie en trois grands domaines : les eucaryotes, des organismes dont les cellules ont un noyau, comme les humains ou les plantes par exemple ; les bactéries, qui ne possèdent pas de noyau, et un troisième, sans doute le moins connu, les archées. Pouvez-vous nous les présenter ?
Purificación López García : Ce domaine du vivant a été mis en évidence par Carl Woese à la fin des années 1970. Quand j’ai commencé mes études, à la fin des années 1980, cette découverte ne faisait pas consensus, il y avait encore beaucoup de résistance de la part de certains biologistes à accepter un troisième domaine du vivant. Ils pensaient qu’il s’agissait tout simplement de bactéries. En effet, comme les bactéries, les archées sont unicellulaires et n’ont pas de noyau. Il a fallu étudier leurs gènes et leurs génomes pour montrer que les archées et les bactéries étaient très différentes entre elles et même que les archées étaient plus proches des eucaryotes que des bactéries au niveau de leur biologie moléculaire.
Comment Carl Woese a-t-il pu classifier le vivant dans ces trois domaines ?
P. L. G. : On est donc à la fin des années 1970. C’est l’époque où commence à se développer la phylogénie moléculaire. L’idée fondatrice de cette discipline est qu’il est possible d’extraire des informations évolutives à partir des gènes et des protéines codées dans le génome de tous les êtres vivants. Certains gènes sont conservés chez tous les organismes parce qu’ils codent des ARN ou des protéines dont la fonction est essentielle à la cellule. Toutefois, la séquence en acides nucléiques (les lettres qui composent l’ADN : A, T, C et G ; U à la place de T dans l’ARN) et donc celle des acides aminés des protéines qu’ils codent (des combinaisons de 20 lettres) va varier. En comparant ces séquences, on peut déterminer si un organisme est plus ou moins proche d’un autre et classifier l’ensemble des organismes en fonction de leur degré de parenté évolutive.
Carl Woese est le premier à utiliser cette approche pour classifier l’ensemble du vivant : de la bactérie à l’éléphant, en passant par les champignons… Il va s’intéresser dans un premier temps non pas à l’ADN mais à l’ARN et, plus précisément, à l’ARN ribosomique. Le ribosome est la structure qui assure la traduction de l’ARN en protéines. On peut considérer que cette structure est la plus conservée dans tout le vivant : elle est présente dans toutes les cellules.
Avec ses comparaisons des séquences d’ARN ribosomiques, Woese montre deux choses : que l’on peut établir un arbre universel du vivant en utilisant des séquences moléculaire et qu’un groupe de séquences d’organismes considérés comme de bactéries « un peu bizarres », souvent associées à des milieux extrêmes, forment une clade (un groupe d’organismes) bien à part. En étudiant leur biologie moléculaire et, plus tard, leurs génomes, les archées s’avéreront en réalité beaucoup plus proches des eucaryotes, tout en ayant des caractéristiques propres, comme la composition unique des lipides de leurs membranes.
Aujourd’hui, avec les progrès des méthodes moléculaires, cette classification en trois grands domaines reste d’actualité et est acceptée par l’ensemble de la communauté scientifique. On se rend compte aussi que la plupart de la biodiversité sur Terre est microbienne.
Vous vous êtes intéressée à ces trois grands domaines au fur et à mesure de votre carrière…
P. L. G. : Depuis toute petite, j’ai toujours été intéressée par la biologie. En démarrant mes études universitaires, les questions liées à l’évolution du vivant m’ont tout de suite attirée. Au départ, je pensais étudier la biologie des animaux, puis j’ai découvert la botanique et enfin le monde microbien, qui m’a complètement fascinée. Toutes les formes de vie m’intéressaient, et c’est sûrement l’une des raisons pour lesquelles je me suis orientée vers la biologie marine pendant mon master. Je pouvais travailler sur un écosystème complet pour étudier à la fois les microorganismes du plancton, mais aussi les algues et les animaux marins.
Puis, pendant ma thèse, je me suis spécialisée dans le monde microbien et plus précisément dans les archées halophiles (celles qui vivent dans des milieux très concentrés en sels). Les archées m’ont tout de suite fascinée parce que, à l’époque, on les connaissait comme des organismes qui habitaient des environnements extrêmes, très chauds, très salés, très acides. Donc, c’était des organismes qui vivaient aux limites du vivant. Les étudier, cela permet de comprendre jusqu’où peut aller la vie, comment elle peut évoluer pour coloniser tous les milieux, même les plus inhospitaliers.
Cette quête de l’évolution que j’avais toujours à l’esprit a davantage été nourrie par des études sur les archées hyperthermophiles lors de mon postdoctorat, à une époque où une partie de la communauté scientifique pensait que la vie aurait pu apparaître à proximité de sources hydrothermales sous-marines. J’ai orienté mes recherches vers l’origine et l’évolution précoce de la vie : comment est-ce que la vie est apparue et s’est diversifiée ? Comment les trois domaines du vivant ont-ils évolué ?
Pour répondre à ces questions, vous avez monté votre propre laboratoire. Avec quelle vision ?
P. L. G. : Après un bref retour en Espagne, où j’ai commencé à étudier la diversité microbienne dans le plancton océanique profond, j’ai monté une petite équipe de recherche à l’Université Paris-Sud. Nous nous sommes vraiment donné la liberté d’explorer la diversité du vivant avec les outils moléculaires disponibles, mais en adoptant une approche globale, qui prend en compte les trois domaines du vivant. Traditionnellement, les chercheurs se spécialisent : certains travaillent sur les procaryotes – archées ou bactéries –, d’autres sur les eucaryotes. Les deux mondes se croisent rarement, même si cela commence à changer.
Cette séparation crée presque deux cultures scientifiques différentes, avec leurs concepts, leurs références et même leurs langages. Pourtant, dans les communautés naturelles, cette frontière n’existe pas : les organismes interagissent en permanence. Ils échangent, collaborent, entrent en symbiose mutualiste ou, au contraire, s’engagent dans des relations de parasitisme ou de compétition.
Nous avons décidé de travailler simultanément sur les procaryotes et les eucaryotes, en nous appuyant d’abord sur l’exploration de la diversité. Cette étape est essentielle, car elle constitue la base qui permet ensuite de poser des questions d’écologie et d’évolution.
L’écologie s’intéresse aux relations entre organismes dans un écosystème donné. Mais mes interrogations les plus profondes restent largement des questions d’évolution. Et l’écologie est indispensable pour comprendre ces processus évolutifs : elle détermine les forces sélectives et les interactions quotidiennes qui façonnent les trajectoires évolutives, en favorisant certaines tendances plutôt que d’autres. Pour moi, les deux dimensions – écologique et évolutive – sont intimement liées, surtout dans le monde microbien.
Sur quels terrains avez-vous travaillé ?
P. L. G. : Pour approfondir ces questions, j’ai commencé à travailler dans des environnements extrêmes, des lacs de cratère mexicains au lac Baïkal en Sibérie, du désert de l’Atacama et l’Altiplano dans les Andes à la dépression du Danakil en Éthiopie, et en m’intéressant en particulier aux tapis microbiens. À mes yeux, ces écosystèmes microbiens sont les véritables forêts du passé. Ce type de systèmes a dominé la planète pendant l’essentiel de son histoire.
La vie sur Terre est apparue il y a environ 4 milliards d’années, alors que notre planète en a environ 4,6. Les eucaryotes, eux, n’apparaissent qu’il y a environ 2 milliards d’années. Les animaux et les plantes ne se sont diversifiés qu’il y a environ 500 millions d’années : autant dire avant-hier à l’échelle de la planète.
Pendant toute la période qui précède l’émergence des organismes multicellulaires complexes, le monde était entièrement microbien. Les tapis microbiens, constitués de communautés denses et structurées, plus ou moins épaisses, formaient alors des écosystèmes très sophistiqués. Ils étaient, en quelque sorte, les grandes forêts primitives de la Terre.
Étudier aujourd’hui la diversité, les interactions et le métabolisme au sein de ces communautés – qui sont devenues plus rares car elles sont désormais en concurrence avec les plantes et les animaux – permet de remonter le fil de l’histoire évolutive. Ces systèmes nous renseignent sur les forces de sélection qui ont façonné la vie dans le passé ainsi que sur les types d’interactions qui ont existé au cours des premières étapes de l’évolution.
Certaines de ces interactions ont d’ailleurs conduit à des événements évolutifs majeurs, comme l’origine des eucaryotes, issue d’une symbiose entre procaryotes.
Comment ce que l’on observe aujourd’hui peut-il nous fournir des informations sur le passé alors que tout le vivant ne cesse d’évoluer ?
P. L. G. : On peut utiliser les communautés microbiennes actuelles comme des analogues de communautés passées. Les organismes ont évidemment évolué – ils ne sont plus les mêmes –, mais nous savons deux choses essentielles. D’abord, les fonctions centrales du métabolisme sont bien plus conservées que les organismes qui les portent. En quelque sorte, il existe un noyau de fonctions fondamentales. Par exemple, il n’existe que très peu de manières de fixer le CO₂ présent dans l’atmosphère. La plus connue est le cycle de Calvin associé à la photosynthèse oxygénique de cyanobactéries des algues et des plantes. Ce processus permet d’utiliser le carbone du CO₂ pour produire des molécules organiques plus ou moins complexes indispensables à tout organisme.
On connaît six ou sept grandes voies métaboliques de fixation du carbone inorganique, qui sont en réalité des variantes les unes des autres. La fixation du CO₂, c’est un processus absolument central pour tout écosystème. Certains organismes, dont les organismes photosynthétiques, fixent le carbone. Ce sont les producteurs primaires.
Ensuite vient toute la diversification d’organismes et des voies qui permettent de dégrader et d’utiliser cette matière organique produite par les fixateurs de carbone. Et là encore, ce sont majoritairement les microorganismes qui assurent ces fonctions. Sur Terre, ce sont eux qui pilotent les grands cycles biogéochimiques. Pas tellement les plantes ou les animaux. Ces cycles existaient avant notre arrivée sur la planète, et nous, animaux comme plantes, ne savons finalement pas faire grand-chose à côté de la diversité métabolique microbienne.
Les procaryotes – archées et bactéries – possèdent une diversité métabolique bien plus vaste que celle des animaux ou des végétaux. Prenez la photosynthèse : elle est héritée d’un certain type de bactéries que l’on appelle cyanobactéries. Ce sont elles, et elles seules, chez qui la photosynthèse oxygénique est apparue et a évolué (d’autres bactéries savent faire d’autres types de photosynthèse dites anoxygéniques). Et cette innovation a été déterminante pour notre planète : avant l’apparition des cyanobactéries, l’atmosphère ne contenait pas d’oxygène. L’oxygène atmosphérique actuel n’est rien d’autre que le résultat de l’accumulation d’un déchet de cette photosynthèse.
Les plantes et les algues eucaryotes, elles, n’ont fait qu’hériter de cette capacité grâce à l’absorption d’une ancienne cyanobactérie capable de faire la photosynthèse (on parle d’endosymbiose). Cet épisode a profondément marqué l’évolution des eucaryotes, puisqu’il a donné naissance à toutes les lignées photosynthétiques – algues et plantes.
À l’instar de la fixation du carbone lors de la photosynthèse, ces voies métaboliques centrales sont beaucoup plus conservées que les organismes qui les portent. Ces organismes, eux, évoluent en permanence, parfois très rapidement, pour s’adapter aux variations de température, de pression, aux prédateurs, aux virus… Pourtant, malgré ces changements, les fonctions métaboliques centrales restent préservées.
Et ça, on peut le mesurer. Lorsque l’on analyse la diversité microbienne dans une grande variété d’écosystèmes, on observe une diversité taxonomique très forte, avec des différences d’un site à l’autre. Mais quand on regarde les fonctions de ces communautés, de grands blocs de conservation apparaissent. En appliquant cette logique, on peut donc remonter vers le passé et identifier des fonctions qui étaient déjà conservées au tout début de la vie – des fonctions véritablement ancestrales. C’est un peu ça, l’idée sous-jacente.
Finalement, jusqu’où peut-on remonter ?
P. L. G. : On peut remonter jusqu’à un organisme disons « idéal » que l’on appelle le Last Universal Common Ancestor, ou LUCA – le dernier ancêtre commun universel des organismes unicellulaires. Mais on sait que cet organisme était déjà très complexe, ce qui implique qu’il a forcément été précédé d’organismes beaucoup plus simples.
On infère l’existence et les caractéristiques de cet ancêtre par comparaison : par la phylogénie moléculaire, par l’étude des contenus en gènes et des propriétés associées aux trois grands domaines du vivant. En réalité, je raisonne surtout en termes de deux grands domaines, puisque l’on sait aujourd’hui que les eucaryotes dérivent d’une symbiose impliquant archées et bactéries. Le dernier ancêtre commun, dans ce cadre, correspondrait donc au point de bifurcation entre les archées et les bactéries.
À partir de là, on peut établir des phylogénies, construire des arbres, et comparer les éléments conservés entre ces deux grands domaines procaryotes. On peut ainsi inférer le « dénominateur commun », celui qui devait être présent chez cet ancêtre, qui était probablement déjà assez complexe. Les estimations actuelles évoquent un génome comprenant peut-être entre 2 000 et 4 000 gènes.
Cela nous ramène à environ 4 milliards d’années. Vers 4,4 milliards d’années, on commence à voir apparaître des océans d’eau liquide et les tout premiers continents. C’est à partir de cette période que l’on peut vraiment imaginer le développement de la vie. On ne sait pas quand exactement, mais disons qu’autour de 4-4,2 milliards d’années, c’est plausible. Et on sait que, à 3,5 milliards d’années, on a déjà des fossiles divers de tapis microbiens primitifs (des stromatolites fossiles).
Et concernant notre groupe, les eucaryotes, comment sommes-nous apparus ?
P. L. G. : Nous avons proposé une hypothèse originale en 1998 : celle de la syntrophie. Pour bien la comprendre, il faut revenir un peu sur l’histoire des sciences, notamment dans les années 1960, quand Lynn Margulis, microbiologiste américaine, avance la théorie endosymbiotique. Elle propose alors que les chloroplastes des plantes et des algues – les organites qui permettent de réaliser la photosynthèse dans les cellules de plantes – dérivent d’anciennes bactéries, en particulier de cyanobactéries, qu’on appelait à l’époque « algues vert-bleu ». Et elle avance aussi que les mitochondries, l’organite eucaryote où se déroule la respiration et qui nous fournit notre énergie, proviennent elles aussi d’anciennes bactéries endosymbiotes – un endosymbiote étant un organisme qui vit à l’intérieur des cellules d’un autre.
Ces idées, qui avaient été déjà énoncées au début du vingtième siècle et que Margulis a fait revivre, ont été très débattues. Mais à la fin des années 1970, avec les premiers arbres phylogénétiques, on a pu démontrer que mitochondries et chloroplastes dérivent effectivement d’anciennes bactéries endosymbiotes : les cyanobactéries pour les chloroplastes, et un groupe que l’on appelait autrefois les « bactéries pourpres » pour les mitochondries.
L’hypothèse dominante, à cette époque, pour expliquer l’origine des eucaryotes, repose sur un scénario dans lequel un dernier ancêtre commun se diversifie en trois grands groupes ou domaines : les bactéries, les archées et les eucaryotes. Les archées sont alors vues comme le groupe-frère des eucaryotes, avec une biologie moléculaire et des protéines conservées qui se ressemblent beaucoup. Dans ce modèle, la lignée proto-eucaryote qui conduira aux eucaryotes et qui développe toutes les caractéristiques des eucaryotes, dont le noyau, acquiert assez tardivement la mitochondrie via l’endosymbiose d’une bactérie, ce qui lancerait la diversification des eucaryotes.
Sauf que, dans les années 1990, on commence à se rendre compte que tous les eucaryotes possèdent ou ont possédé des mitochondries. Certains groupes semblaient en être dépourvus, mais on découvre qu’ils les ont eues, que ces mitochondries ont parfois été extrêmement réduites ou ont transféré leurs gènes au noyau. Cela signifie que l’ancêtre de tous les eucaryotes avait déjà une mitochondrie. On n’a donc aucune preuve qu’une lignée « proto-eucaryote » sans mitochondrie ait jamais existé.
C’est dans ce contexte que de nouveaux modèles fondés sur la symbiose émergent. On savait déjà que les archées et les eucaryotes partageaient des similarités importantes en termes de protéines impliquées dans des processus informationnels (réplication de l’ADN, transcription, traduction de l’ARN aux protéines). Nous avons proposé un modèle impliquant trois partenaires : une bactérie hôte (appartenant aux deltaprotéobactéries), qui englobe une archée prise comme endosymbionte, cette archée devenant le futur noyau. Les gènes eucaryotes associés au noyau seraient ainsi d’origine archéenne.
Puis une seconde endosymbiose aurait eu lieu, avec l’acquisition d’une autre bactérie (une alphaprotéobactérie) : l’ancêtre de la mitochondrie, installée au sein de la bactérie hôte.
Toutefois, à l’époque, ces modèles fondés sur la symbiose n’étaient pas considérés très sérieusement. La donne a changé avec la découverte, il y a une dizaine d’années, d’un groupe particulier d’archées, appelées Asgard, qui partagent beaucoup de gènes avec les eucaryotes, qui sont en plus très similaires. Les arbres phylogénétiques faits avec des protéines très conservées placent les eucaryotes au sein de ces archées. Cela veut dire que les eucaryotes ont une origine symbiogénétique : ils dérivent d’une fusion symbiotique impliquant au minimum une archée (de type Asgard) et une alpha-protéobactérie, l’ancêtre de la mitochondrie. Mais la contribution d’autres bactéries, notamment des deltaprotéobactéries, des bactéries sulfato-réductrices avec lesquelles les archées Asgard établissent des symbioses syntrophiques dans l’environnement, n’est pas exclue.
Aujourd’hui, l’eucaryogénèse est un sujet étudié activement. La découverte des archées Asgard a renforcé la vraisemblance de ce type de modèle symbiogénétique. Des chercheurs qui considéraient ces idées comme trop spéculatives – parce qu’on ne pourra jamais avoir de preuve directe d’un événement datant d’il y a 2 milliards d’années – s’y intéressent désormais. Tous ceux qui travaillent sur la biologie cellulaire des eucaryotes se posent la question, parce qu’on peut aujourd’hui remplacer certaines protéines ou homologues eucaryotes par leurs variantes Asgard… et ça fonctionne.
Purificación López García ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.01.2026 à 11:39
Une proposition de loi veut supprimer l’obligation d’utiliser un cercueil et relancer le débat sur la liberté des funérailles
Texte intégral (1249 mots)
Une proposition de loi déposée à la toute fin 2025 entend rouvrir un débat ancien mais de plus en plus actuel : celui du choix réel des modalités de disposition du corps après la mort, au-delà du seul face-à-face entre inhumation et crémation.
L’actualité du droit funéraire est très vivante ces dernières années et cela n’est pas prêt de s’arrêter. Pour preuve, une proposition de loi a été déposée le 23 décembre 2025, proposition visant à rendre effective la liberté des funérailles à travers le développement d’alternatives à l’inhumation et à la crémation et s’inscrivant dans la lignée d’une proposition précédente visant à développer l’humusation, un sujet qui reste dans l’actualité depuis 2023 malgré une certaine instabilité politique.
Quel est l’objet de cette nouvelle proposition de loi ?
La proposition de loi no 2297 portée par le député LFI François Piquemal (4ᵉ circonscription de Haute-Garonne) vise « à rendre effective la liberté des funérailles ». Autrement dit, l’enjeu de ce texte n’est pas de promouvoir une alternative en particulier à l’inhumation et à la crémation mais d’offrir une plus grande marge de manœuvre aux citoyennes et citoyens français quant au choix de leurs funérailles. Pour rappel, il s’agit normalement d’une liberté déjà inscrite dans la loi de 1887 sur la liberté des funérailles mais qui est souvent interprétée comme une liberté « contrainte » puisque cantonnée au choix entre inhumation ou crémation avec obligation de recourir à un cercueil dans les deux cas.
Ainsi, le texte propose de renforcer cette liberté par une mesure forte : l’abrogation de l’obligation d’utiliser un cercueil au profit d’une liberté de choix de l’enveloppe mortuaire (article 2), suivie d’une invitation à la reconnaissance légale d’alternatives à l’inhumation et la crémation (la terramation, l’humusation et l’aquamation sont ainsi nommées dans l’article 3 de la proposition).
Là est la différence majeure entre cette proposition de loi et celle de 2023 citée en introduction : la liberté de choix de l’enveloppe mortuaire. Autant les alternatives à l’inhumation et à la crémation commencent à être connues, autant il s’agit là d’une mesure totalement inédite qui vient porter un coup à plus de 200 ans de tradition juridique, l’obligation légale d’utiliser un cercueil datant d’un arrêté du préfet de Paris de 1801 pour des raisons d’hygiène.
Enfin, là où cette nouvelle proposition de loi rejoint la précédente, c’est sur la technique légistique de l’expérimentation. Les deux propositions proposent de passer par la voie de l’expérimentation avec un délai plus crédible pour la nouvelle proposition (5 ans) contre 6 mois seulement dans celle de 2023.
Une proposition inspirée par l’actualité internationale du droit funéraire
Cette nouvelle proposition de loi n’est pas une initiative isolée. Cela commence à faire plusieurs années que nous entendons parler de reconnaissances légales d’alternatives à l’inhumation et à la crémation. C’est le cas notamment aux États-Unis, en Allemagne et peut-être bientôt en Suisse.
Ce mouvement de légalisation dans le monde témoigne d’une nouvelle sensibilité écologique et de l’aspiration de nos concitoyens à davantage de liberté dans l’organisation des funérailles.
La France n’est d’ailleurs pas le seul pays à réfléchir à l’abrogation de l’obligation légale d’utiliser un cercueil. En région bruxelloise (Belgique) il est ainsi permis depuis janvier 2019 de s’affranchir du cercueil au profit d’un linceul. On reconnait ici la théorie défendue par Alexandre Flückiger, légisticien, selon laquelle « le droit d’un État voisin est susceptible de déployer des effets d’ordre recommandationnel sur un territoire limitrophe. Le droit étranger déploie dans ce contexte un effet symbolique qui agirait sur les comportements au même titre qu’une recommandation très implicite. »
La situation en France
Enfin, en dehors de la proposition de loi, il est possible de trouver plusieurs indicateurs sur le sol français qui démontrent un vif intérêt pour une plus grande liberté des funérailles et pour l’abrogation de l’obligation légale du cercueil.
À défaut de pouvoir supprimer le cercueil, certains réfléchissent à le rendre plus vert. À Saint-Étienne, la jeune entreprise Pivert Funéraire a ainsi créé un modèle pour crémation fabriqué à partir de déchet des industries sylvicoles et oléicoles.
D’autres organisent des colloques académiques sur le sujet. C’est l’exemple du colloque récent « Cercueil(s) & droit(s) », qui s’est tenu à l’Université Toulouse Capitole, le 28 novembre 2025.
D’autres encore mènent des expériences effectives sur le déploiement d’alternatives à l’inhumation et la crémation. C’est l’exemple de l’expérimentation sur des brebis qui a lieu dans l’Essonne à travers le projet ANR F-Compost.
En somme, les acteurs de la recherche et des pompes funèbres préparent le terrain pour que des projets, comme celui porté par cette proposition de loi, puissent voir le jour. Si une réserve pouvait être émise il y a quelques années sur l’intérêt du Parlement pour ces questions, il est permis de penser qu’à plus de cent ans la loi sur la liberté des funérailles pourrait bientôt connaître une nouvelle vie…
Jordy Bony a travaillé avec le comité de recherche de l'association Humo Sapiens, pour une mort régénérative qui œuvre pour promouvoir et expérimenter la terramation en France.
06.01.2026 à 16:56
Quelle est la différence entre matière noire et antimatière ?
Texte intégral (2180 mots)

« Qu’est-ce que la matière noire et qu’est-ce que l’antimatière ? Sont-elles la même chose ou différentes ? » Cet article est issu de notre série pour les plus jeunes lecteurs, Curious Kids, et répond à la question de Namrata, 13 ans, Ghaziabad, Inde.
Imaginez un jeu vidéo d’aventure avec votre héros préféré comme personnage principal. Un autre personnage, son jumeau miroir, apparaît de temps en temps et fait exploser tout ce qu’il touche. Pour corser encore le tout, le jeu inclut une ruche mystérieuse peuplée de minions cachés à chaque coin, qui changent les règles du jeu sans jamais se montrer.
Si l’on considère ces personnages comme des types de matière, ce jeu vidéo représente en gros le fonctionnement de notre Univers.
Le héros est la matière ordinaire, c’est-à-dire tout ce que nous pouvons voir autour de nous. L’antimatière est le jumeau miroir explosif que les scientifiques arrivent à comprendre, mais plus difficilement à trouver. Et la matière noire représente les minions invisibles : elle est partout, mais nous ne pouvons pas la voir, et les scientifiques ignorent de quoi elle est faite.
Antimatière : le jumeau miroir
Toute la matière ordinaire autour de vous est constituée de blocs de base appelés atomes. Les atomes possèdent des particules chargées positivement appelées protons entourées de minuscules électrons chargés négativement.
On peut considérer l’antimatière comme le jumeau de la matière ordinaire, mais avec des charges opposées.
Toutes les particules, comme les protons et les électrons, ont des « frères et sœurs » d’antimatière. Les électrons ont des positrons, qui sont des anti-électrons, tandis que les protons ont des antiprotons. Les antiprotons et les positrons forment des atomes d’antimatière, ou anti-atomes. Ils ressemblent à des images miroirs, mais avec leurs charges électriques inversées. Quand la matière et l’antimatière se rencontrent, elles se détruisent mutuellement dans un éclair de lumière et d’énergie avant de disparaître.
Heureusement, l’antimatière est très rare dans notre Univers. Mais certains atomes de matière ordinaire, comme le potassium, peuvent se désintégrer et produire de l’antimatière. Par exemple, lorsque vous mangez une banane ou tout aliment riche en potassium, vous consommez de très petites quantités de ces atomes producteurs d’antimatière. Mais la quantité est trop faible pour avoir un effet sur votre santé.
L’antimatière a été découverte il y a presque cent ans. Aujourd’hui, les scientifiques peuvent créer, stocker et étudier l’antimatière en laboratoire. Ils en comprennent très bien les propriétés. Les médecins l’utilisent même pour les PET-Scan. Ils injectent de toutes petites quantités d’atomes producteurs d’antimatière dans le corps et, au fur et à mesure que ces atomes circulent, le scanner prend des images des éclairs de lumière produits par l’annihilation de l’antimatière et de la matière dans le corps. Ce processus permet aux médecins de voir ce qui se passe à l’intérieur du corps.
Les scientifiques ont également découvert qu’à la naissance de l’Univers, il y avait des quantités presque égales de matière et d’antimatière. Elles se sont rencontrées et annihilées. Heureusement, une très petite quantité de matière ordinaire a survécu pour former les étoiles, les planètes et nous tous.
Matière noire : les minions invisibles
La matière noire est beaucoup plus mystérieuse. Avez-vous déjà tourné très vite sur un tourniquet ? Si oui, vous savez combien il est difficile de rester dessus sans tomber, surtout si vous êtes seul sur le tourniquet.
Maintenant, imaginez qu’il y ait plein de minions invisibles sur ce tourniquet avec vous. Vous ne pouvez ni les voir ni les toucher, mais ils vous retiennent et vous empêchent de vous envoler quand il tourne à toute vitesse. Vous savez qu’ils sont là parce que le tourniquet est plus lourd et difficile à faire tourner qu’il n’y paraît. Les minions ne jouent pas et ne parlent à personne ; ils restent simplement là, ajoutant leur poids à l’ensemble.
Il y a environ cinquante ans, l’astronome Vera Rubin a découvert un mystère similaire dans les galaxies spirales. Elle a observé des galaxies en rotation, qui sont comme des tourniquets cosmiques, et a remarqué quelque chose d’étrange : les étoiles situées à l’extérieur de ces galaxies tournaient beaucoup plus vite qu’elles ne devraient. Elles auraient dû être projetées dans l’espace comme des étincelles d’un feu d’artifice. Mais ce n’était pas le cas.
C’était comme regarder des enfants tourner à une vitesse incroyable sur un tourniquet mais rester parfaitement en place.
La seule explication ? Il doit exister un océan de « choses » invisibles qui maintiennent tout en place grâce à leur gravité supplémentaire. Les scientifiques ont appelé cette matière mystérieuse « matière noire ».
Depuis, les astronomes ont observé des comportements étranges similaires dans tout l’Univers. Les galaxies au sein de grands amas se déplacent de manière inattendue. La lumière est plus courbée autour des galaxies qu’elle ne devrait l’être. Les galaxies restent bien plus solidaires que ce que la matière visible seule pourrait expliquer.
C’est comme si notre terrain de jeu cosmique avait des balançoires qui bougent toutes seules et des tape-culs qui basculent alors que personne n’est assis dessus.
La matière noire n’est pour l’instant qu’un nom provisoire, en attendant que les scientifiques découvrent ce que c’est réellement. Depuis cinquante ans, de nombreux chercheurs mènent des expériences pour détecter la matière noire ou la produire en laboratoire. Mais jusqu’à présent, ils sont restés bredouilles.
Nous ne savons pas ce qu’est la matière noire, mais elle est partout. Il pourrait s’agir de particules que les scientifiques n’ont pas encore découvertes ou de quelque chose de complètement inattendu. Mais les astronomes peuvent constater, en observant la vitesse de rotation des galaxies, qu’il y a environ cinq fois plus de matière noire que toute la matière ordinaire de l’Univers.
Dipangkar Dutta bénéficie d'un financement du ministère américain de l'Énergie et de la National Science Foundation.
06.01.2026 à 16:54
Pourquoi les femmes font-elles moins de vélo que les hommes ?
Texte intégral (2350 mots)

En France, comme dans la grande majorité des pays du globe, les femmes pédalent moins que les hommes. Comment l’expliquer ?
Selon une enquête de 2023, en France, 11 % des femmes adultes affirment ne pas savoir faire du vélo et 38 % déclarent une faible maîtrise, contre respectivement 5 % et 23 % des hommes. Elles ne sont que 25 % à en faire au moins une fois par semaine, contre 38 % des hommes. Et la tendance s’observe pour les principales formes d’usage.
De plus, les cyclistes hommes parcourent en moyenne des distances plus importantes. Malgré une féminisation progressive, les femmes ne représentent que 12,8 % des licencié·es de la fédération française de cyclisme et seulement 7 % des pratiquant·es en compétition. Plus clivée encore, l’activité professionnelle de livraison à vélo ne compte quasiment que des hommes.
Le recours au vélo à assistance électrique (VAE) est davantage paritaire (47 % de femmes). Toutefois l’accès à cette technologie est très inégalitaire entre les femmes. Les moins dotées en termes de revenu sont peu enclines à en bénéficier.
Par ailleurs, les femmes sont plus susceptibles de ne posséder aucun vélo ou d’utiliser un modèle d’entrée de gamme. Comme c’est le cas des groupes sociaux les plus pauvres, elles se déplacent davantage à pied et en transport en commun (TC). Les parts des différents modes de déplacement–marche, TC et vélo – sont respectivement de 25,8 %, 14 % et 1,5 % pour les femmes, contre 21,5 %, 11,2 % et 4 % pour les hommes.
Des socialisations corporelles, sportives et spatiales très genrées
Ces constats s’expliquent notamment par le fait que le vélo est une activité d’extérieur qui (en France) reste fortement associée à un sport masculin nécessitant des efforts intenses, à un mode de déplacement individuel dangereux, au tourisme, à l’aventure ainsi qu’à un objet mécanique autoréparable.
Or, à travers leur socialisation (ensemble des processus par lesquels la société façonne les individus), les femmes sont généralement moins incitées à investir l’espace public, à se déplacer seules, à s’aventurer, à s’adonner à des activités mécaniques, à fournir des efforts physiques intenses (d’autant plus en compétition) et à prendre des risques corporels.
Ce processus est particulièrement prégnant durant l’adolescence, période marquée par un durcissement des assignations de genre (injonctions à devenir une fille féminine ou un garçon masculin). Ce constat est d’autant plus préoccupant que la pratique du vélo pendant l’adolescence conditionne fortement la probabilité d’en refaire plus tard.
« En 4e, c’est là qu’elle s’est sentie plus, enfin, qu’elle est devenue une femme, une jeune femme quoi, enfin elle a eu ses trucs […] Et elle s’est sentie grande quoi ! Maquillage, tout ça, et c’est vrai que là, le vélo, elle en a plus trop fait, mais ses copines en faisaient plus de toute façon », Véronique, 42 ans, éducatrice petite enfance.
À l’âge adulte, les femmes sont davantage amenées à effectuer des chaînes de déplacement complexes (succession de trajets correspondant à différents motifs : travail, école, médecin, courses, etc.) découlant de leurs plus grandes responsabilités domestiques (notamment le transport d’enfants, de personnes âgées ou malades). Au même titre que les problèmes de santé ainsi que les changements de lieu de résidence ou d’emploi, l’arrivée d’enfant(s) les conduit plus souvent à arrêter le vélo que ce n’est le cas pour les hommes.
Leur usage du vélo est également plus souvent freiné par la peur de l’accident, la vitesse et le volume du trafic, les montées et longues distances, un manque de confiance en leurs capacités physiques, et la crainte de problèmes mécaniques. Elles sont aussi plus susceptibles de réduire ou d’abandonner leur pratique du vélo à la suite d’un accident ou d’une chute.
Des inégalités entre les femmes elles-mêmes
Par ailleurs, moins compétentes pour réparer leur vélo, moins en mesure de recourir à un ou une professionnel·le (en raison de moindres ressources économiques) et moins souvent équipées d’un vélo de remplacement, elles sont plus exposées à un abandon de pratique en cas d’avarie.
Ces freins concernent moins les femmes des classes dominantes vivant en milieu urbain dense, où les dimensions écologique, sanitaire et pratique du vélo sont particulièrement valorisées, et où les aménagements sont plus sécurisés, continus, directs, connectés et lisibles.
À l’inverse, les femmes de milieu populaire – notamment lorsqu’elles sont issues de cultures non occidentales dans lesquelles l’usage du vélo est l’apanage des hommes – sont fortement susceptibles de ne jamais avoir appris à faire du vélo ou d’avoir arrêté avant l’âge adulte. Elles sont davantage concernées par les tâches domestiques ainsi que par un manque de ressources financières, de modèles d’identification, de connaissances des bienfaits du vélo, et d’accès au réseau cyclable.
L’influence déterminante de l’environnement familial et des pairs
La dimension genrée des socialisations cyclistes repose sur toutes les instances et agents de socialisation, à commencer par l’environnement familial et ce, dès le plus jeune âge. Les filles sont moins incitées à sortir, à explorer, à se dépenser et à prendre des risques que les garçons. En particulier au moment de la puberté, elles se font plus souvent accompagner ou interdire de pratiquer. Elles sont davantage retenues dans la sphère domestique et dissuadées de se déplacer seules.
Cela est moins marqué dans les milieux fortement dotés en capital culturel, où les femmes sont généralement plus enclines à s’approprier le vélo comme un outil libérateur du sentiment de vulnérabilité dans l’espace public (parce que permettant d’aller plus vite qu’à pied et de ne pas se sentir confinées). Mais cette forme d’appropriation peut favoriser un sentiment de dépendance au vélo (perçu comme plus rassurant que la marche et les transports en commun) limitant en définitive leurs alternatives. Parce que les sociabilités demeurent très homosexuées (entre personnes du même sexe), l’influence des pairs tend aussi à favoriser la reproduction des inégalités de genre, notamment dans le cadre de pratiques sportives.
Le rôle majeur des institutions sportives et médiatiques
Le monde du sport de compétition joue également un rôle important dans la sexuation des socialisations cyclistes. La recherche en physiologie de l’exercice montre qu’en raison d’une meilleure résistance à la fatigue et d’une meilleure utilisation des graisses comme énergie, les femmes disposent d’avantages non négligeables pour les épreuves sportives d’ultra-endurance extrêmes (supérieures à 6 heures de course).
Pourtant, la non-confrontation directe entre femme(s) et homme(s) reste la norme des courses de cyclisme sur route les plus médiatisées, dont les distances règlementaires sont environ deux fois inférieures pour les femmes. Les institutions et les médias naturalisent ainsi une supposée incapacité des femmes à rivaliser avec les hommes, érigeant pour les filles des modèles infériorisés.
Les injonctions genrées véhiculées par les objets
L’influence des vélos n’est pas à négliger. Dès le plus jeune âge, ils constituent des supports de socialisation genrée. Ceux adressés aux filles sont davantage équipés d’éléments renvoyant aux tâches domestiques et à la fonction maternelle (béquille, panier, siège poupon, etc.). D’autres objets favorisent le clivage. Nombreuses sont les femmes qui évitent le vélo afin de préserver leur maquillage ou leur tenue féminine (robe, jupe, talons).
D’autres freins tiennent au port de vêtements religieux (hijab, niqab, etc.), à l’usage de protections hygiéniques ou encore à la croyance que la selle pourrait compromettre la virginité (en particulier chez les moins dotées en capital culturel).
Les inégalités d’accès à l’espace public
Si le vélo est essentiellement étudié, conçu, vendu, pratiqué, promu, enseigné et réparé par des hommes, il est aussi pratiqué dans des espaces notamment façonnés et occupés par des hommes. Or, comme la cour d’école, qui constitue un support clé des socialisations spatiales genrées durant l’enfance, l’espace public n’est pas neutre.
Quel que soit leur mode de déplacement, les femmes sont davantage confrontées au harcèlement et aux agressions sexuelles de rue. Les stratégies qu’elles adoptent (se vêtir d’une tenue moins « féminine », se faire accompagner, feindre d’être accompagnée, faire des détours, éviter certains horaires, se munir d’une arme, renoncer, etc.) augmentent leur charge mentale, limitent leurs opportunités et conduisent parfois à l’abandon définitif du vélo.
Le vélo n’est pas forcément libérateur
Soulignons enfin que l’adoption du vélo (de même que le recours à des outils ménagers ou à la voiture) n’est pas forcément libératrice pour les femmes. Lorsqu’il permet d’aller plus vite (notamment en milieu dense), le vélo devient souvent un outil d’optimisation du temps. Ainsi, il peut contribuer à intensifier le travail domestique des femmes. C’est le cas lorsque, au lieu d’être réinvesti en loisir, le temps gagné est consacré à de nouvelles tâches.
Ainsi, il ne suffit pas d’inciter les femmes à faire du vélo pour tendre vers plus d’égalité. Une politique vélo qui poursuivrait cet objectif devrait tenter d’agir conjointement sur l’ensemble des instances et agents de socialisation (famille, pairs, institutions, médias, rue, objets, religion, etc.). C’est l’ensemble de nos structures sociales qu’il faudrait repenser.
David Sayagh est l’auteur de Sociologie du vélo, aux éditions La Découverte, 2025.
David Sayagh ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
06.01.2026 à 16:54
Que retenir de la présidence malaisienne de l’Asean ?
Texte intégral (2256 mots)
Avec désormais 11 membres, l’Association des nations de l’Asie du Sud-Est a toujours l’ambition de jouer un rôle central en Asie du Sud-Est. La Malaisie, qui a exercé la présidence tournante de l’organisation en 2025, a profité de l’occasion pour se repositionner comme un acteur important dans la région et au-delà.
Cet article a été co-rédigé avec Colin Doridant, analyste des relations entre la France et l’Asie.
Ancienne colonie britannique, la Malaisie est l’un des rares États d’Asie du Sud-Est à être passé d’une stratégie d’alliance à une posture de non-alignement sur la scène internationale. Indépendante depuis 1957, sa politique étrangère est restée, dans un premier temps, étroitement liée aux garanties de sécurité britanniques à travers l’Anglo-Malayan Defence Agreement (1957-1971), puis les Five Power Defence Arrangements, un pacte défensif non contraignant réunissant le Royaume-Uni, la Malaisie et Singapour, l’Australie et la Nouvelle-Zélande. Le progressif retrait britannique, la reconnaissance de la République populaire de Chine (RPC) en 1974 ainsi que l’arrivée au pouvoir de Mahathir Mohamad – une figure politique majeure en Asie – ont posé les bases d’une politique étrangère plus autonome et tournée vers le continent asiatique.
En 2025, la Malaisie a cherché à exploiter sa présidence de l’Association des nations de l’Asie du Sud-Est (Asean) pour affirmer son rôle sur la scène régionale et internationale. Une stratégie qui s’est révélée payante pour Kuala Lumpur, mais en demi-teinte pour l’Asean.
Une politique étrangère neutre mais proactive
Après avoir adhéré au mouvement des non-alignés en 1970 et réaffirmé son non-alignement dans son Livre Blanc de la défense de 2020, la Malaisie semble aujourd’hui poursuivre une politique étrangère d’équilibre stratégique dynamique entre Pékin et Washington, centrée autour de l’Asean dont elle a été l’un des cinq membres fondateurs en 1967 (l’organisation compte désormais 11 membres).
Si la Malaisie, publiquement, n’hésite pas à aller dans le sens de la RPC – comme l’a encore montré la visite d’État de Xi Jinping en avril –, elle a également fait du respect de sa souveraineté en mer de Chine méridionale une de ses priorités stratégiques face à Pékin.
Avec les États-Unis, la relation bilatérale est de plus en plus tendue – que ce soit à propos du conflit israélo-palestinien ou de la nomination du très controversé prochain ambassadeur des États-Unis en Malaisie. La coopération reste néanmoins résiliente, comme en témoigne la signature d’accords de défense et d’accès aux terres rares lors de la visite de Donald Trump en octobre 2025.
Dans les relations avec ses voisins, la Malaisie privilégie un pragmatisme discret en matière de gestion des litiges frontaliers, comme avec les Philippines sur l’État de Sabah ou avec l’Indonésie autour d’Ambalat en mer de Célèbes.
Vis-à-vis de Singapour, ancien membre de la fédération qui s’est détaché en 1965, les relations sont largement normalisées avec des initiatives comme l’ouverture prochaine du Johor Bahru–Singapore Rapid Transit System ou la formalisation en janvier 2025 de la Johor-Singapore Special Economic Zone qui illustrent une approche axée sur l’interdépendance économique, évitant les confrontations publiques.
La présidence de l’Asean 2025 : un succès politique pour Anwar Ibrahim et diplomatique pour la Malaisie
Dix ans après sa dernière présidence de l’Asean, la Malaisie reprenait en 2025 les rênes de l’organisation dans un climat interne et international bien différent de celui qui prévalait une décennie auparavant.
Premier ministre depuis novembre 2022, Anwar Ibrahim, ancien dauphin puis rival de Mahathir, assurait cette présidence de l’Asean, plateforme unique pour rétablir une position d’acteur régional clé. La présidence malaisienne de l’Asean s’est inscrite dans la continuité de sa politique étrangère, qui vise à promouvoir le multilatéralisme et faire de Kuala Lumpur une capitale diplomatique en Asie du Sud-Est. Une mission réussie, avec les visites de plus de 25 chefs d’État différents en Malaisie au cours de l’année 2025, dont celles de Recep Tayyip Erdoğan, de Xi Jinping, de Donald Trump ou encore l’organisation de la rencontre Rubio-Lavrov en juillet.
Autre facette de la diplomatie malaisienne en 2025 : une forte solidarité avec les peuples « opprimés », en particulier les Palestiniens, et une critique des « doubles standards » occidentaux. Les efforts d’Anwar pour concrétiser l’organisation du premier sommet « Asean-GCC-China » entre l’Asean, les six pays du Conseil de coopération du Golfe et la RPC, sont également à souligner. La Malaisie tente de se positionner comme un pont (bridging linchpin vision) entre les différentes régions et cultures, particulièrement entre le monde islamique, l’Occident, mais aussi le « Sud Global », le pays ayant obtenu le statut de partenaire des BRICS en 2024.
Une année 2025 où la Malaisie aura donc pu rayonner à l’international, à l’instar de son premier ministre qui prépare déjà les prochaines élections générales de février 2028.
Asean : des horizons incertains
Point d’orgue d’une année intense, le 47e sommet de l’Asean, organisé concomitamment avec d’autres réunions (Partenariat économique régional global, Sommet de l’Asie orientale) et en présence de Donald Trump, fut historique par l’adhésion d’un onzième membre : le Timor-Leste.
Néanmoins, sur les plans économique et diplomatique, les résultats ont été mitigés. En effet, si le renforcement de l’Asean Trade in Goods Agreement (ATIGA) et de l’Asean-China Free Trade Agreement (ACFTA) ont marqué des avancées vers plus d’intégration régionale, des critiques ont surtout été formulées à l’encontre des accords bilatéraux de réduction des tarifs douaniers signés par la Malaisie et le Cambodge avec les États-Unis. Ces derniers contiendraient des « clauses empoisonnées » visant à renforcer le commerce avec les États-Unis et à limiter celui avec la RPC. Des accords-cadres similaires ont été signés avec le Vietnam et la Thaïlande. Ces dispositions symbolisent les difficultés de l’Asean à s’adapter à la diplomatie économique trumpienne, qualifiée par certains de « diplomatie du cowboy ».
Sur le plan régional, c’est principalement le réveil du conflit larvé entre la Thaïlande et le Cambodge en mai 2025 qui a pesé sur la présidence malaisienne de l’Asean. Malgré des efforts – plus sino-malaisiens qu’états-uniens – qui ont mené à la conclusion lors du sommet de l’Asean de « l’accord de paix de Kuala Lumpur » entre les deux belligérants en octobre, les hostilités ont repris dès le mois de novembre.
En s’ajoutant à l’échec d’avancées concrètes sur le dossier birman et de la mer de Chine méridionale, la confrontation entre Bangkok et Phnom Penh n’a fait que souligner l’incapacité de l’Asean à régler les conflits régionaux. Un rappel supplémentaire de la complexité de ces défis persistants et des limites des mécanismes dont dispose l’Asean pour y faire face.
Les prochaines présidences de l’Asean – les Philippines en 2026, qui ont annoncé qu’elles feraient du Code de conduite en mer de Chine méridionale leur priorité, et Singapour en 2027, année des 60 ans de l’organisation et du prochain Congrès national du Parti communiste chinois – sont d’ores et déjà toutes deux sous pression face à l’accumulation des crises en Asie du Sud-Est.
Ces dynamiques auront des ramifications géopolitiques qui dépassent le seul cadre régional et offrent à des acteurs extérieurs, la France par exemple, des opportunités de coopération et d’influence dans la région.
Les perspectives françaises
Dans le cadre de la mise en œuvre de la nouvelle stratégie Indopacifique française, la Malaisie constitue aujourd’hui un partenaire important en Asie du Sud-Est.
Le pays accueille environ 300 filiales d’entreprises françaises représentant quelque 30 000 emplois. Mais c’est dans le domaine de la défense que la coopération s’est révélée la plus soutenue, la Malaisie s’imposant, dans la première décennie du XXIe siècle, comme le principal partenaire de défense de la France en Asie du Sud-Est (aux côtés de Singapour), notamment à travers la vente de matériel militaire (sous-marins Scorpène, avions A400M, hélicoptères H225). La coopération militaire se poursuit actuellement, qu’il s’agisse des déploiements français (missions CLEMENCEAU 25 et PEGASE), de l’exercice terrestre conjoint MALFRENCH DAGGERT, ou encore des escales et exercices navals réguliers.
La relation connut une certaine accalmie, marquée par des périodes de tensions. Ainsi, en 2018, le retrait de l’huile de palme de la liste des biocarburants bénéficiant d’une exonération fiscale en France fut interprété par la Malaisie comme une interdiction déguisée d’importation, fragilisant un secteur stratégique.
La visite officielle à Paris d’Anwar Ibrahim en juillet 2025 semblait indiquer « la relance » de la relation bilatérale pour reprendre les mots du président Emmanuel Macron. Mais le discours d’Anwar à la Sorbonne pouvait toutefois être perçu comme un avertissement adressé aux Européens, les invitant à recalibrer leurs relations avec l’Asie du Sud-Est et à mieux appréhender les sensibilités d’une région qui « a l’habitude d’être décrite, mais beaucoup moins celle d’être écoutée ».
Il pourrait être intéressant pour la France de renforcer son soutien à la gestion des crises en Asie du Sud-Est, dans la dynamique de la nomination en 2024 d’un envoyé spécial pour la Birmanie en appui des efforts internationaux. En effet, le contentieux territorial entre la Thaïlande et le Cambodge trouve son origine dans le découpage territorial de l’Indochine française et des traités franco-siamois de 1904 et 1907. Or, la reprise du conflit coïncide avec l’organisation en 2026 du XXe Sommet de la Francophonie qui se tiendra au Cambodge (la Thaïlande est également membre l’organisation avec le statut observateur) et auquel participera Emmanuel Macron.
Un déplacement français en Asie du Sud-Est qui ne devra pas, cette fois, oublier la Malaisie, comme le rappelait avec humour le premier ministre malaisien à son homologue français dans la cour de l’Élysée en juillet 2025 : « Avant que vous n’atteigniez le Cambodge pour le Sommet de la Francophonie, vous n’aurez aucune excuse de ne pas visiter la Malaisie. »
Paco Milhiet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
06.01.2026 à 16:53
Du sauveur à l’éboueur : comment les lycéens perçoivent leurs éco-délégués
Texte intégral (3207 mots)
Voilà cinq ans que les élèves du secondaire ont l’obligation d’élire des éco-délégués dans chaque classe. Dans les faits cependant, cette intention n’est pas toujours respectée, et les perceptions quant à leur rôle varient fortement d’un établissement à l’autre.
À quoi servent les éco-délégués ? « Je ne sais pas », « aucune idée », « on n’a pas d’infos », ont répondu la moitié des 380 lycéens interrogés au sujet de leur expérience de l’éducation au développement durable dans leur lycée. Pourtant, chaque établissement scolaire a l’obligation d’organiser l’élection d’au moins un éco-délégué par classe, et ce depuis 2020.
Considérés comme les « pivots du développement durable dans les établissements », l’État les exhorte à devenir les « acteurs du changement » au sein d’un « peuple de colibris », à travers la voix de Jean-Michel Blanquer, alors ministre de l’éducation nationale.
Cinq ans après cette mise en place obligatoire des éco-délégués, « la tension entre ces injonctions et les réalités du terrain » déjà évoquée en 2023 par les chercheuses Évelyne Bois, Aurélie Zwang et Mandarine Hugon, est toujours palpable.
À lire aussi : Être éco-délégués au collège ou au lycée : quels moyens d’action ?
Un bilan difficile à dresser en l’absence de données officielles
Le ministère de l’éducation nationale affiche certes l’ambition de 250 000 éco-délégués et promeut des ressources et dispositifs d’appui (guides pratiques, prix de l’action de l’éco-délégué, etc.). Cependant, aucun recensement officiel n’est disponible, ni à l’échelle de la direction de l’évaluation, de la prospective et de la performance (DEPP), ni à celle des académies, ni même parfois à celle des établissements. Il est donc compliqué de savoir si chaque classe compte actuellement une ou un éco-délégué. Le travail de terrain nous permet toutefois de déceler que cette obligation n’est pas toujours suivie dans les faits.
Pour tenter de comprendre malgré tout le rôle effectif des éco-délégués, plusieurs ressources sont néanmoins disponibles :
une enquête menée en 2023-2024 en région Bretagne auprès d’établissements engagés dans des projets d’éducation au développement durable (EDD), relevant de l’éducation nationale ou de l’enseignement agricole, du secteur public ou privé, de la voie générale ou professionnelle.
les quelques travaux existants en science de l’éducation sur l’engagement des éco-délégués.
un discret et polémique rapport parlementaire portant sur l’animation des éco-délégués.
À la rencontre des éco-délégués
Des 380 répondants au questionnaire administré auprès de lycéens de Bretagne, 85 % indiquent la présence d’éco-délégués dans leur établissement, même au sein d’un lycée n’ayant pas encore mis en place le dispositif. Moins de 5 % déclarent être eux-mêmes éco-délégué au moment de l’enquête.
À la question « Quelles sont les activités menées par les éco-délégué·es ? », la réponse la plus fréquente (52 %) est donc « Je ne sais pas » ou sans réponse. La question étant ouverte, nous avons pu classer les réponses détaillées des 173 élèves ayant une idée des activités menées. Trois catégories d’acteurs peuvent alors se distinguer dans leurs perceptions du rôle des éco-délégués.
- Les « agents du changement » (30 %) : les éco-délégués sont avant tout perçus comme les prescripteurs des éco-gestes : ils « trouvent des activités sympas pour insister à ne pas polluer », note une lycéenne. Ils développent, souvent à l’aide de prestataires extérieurs, des nudges inspirés des théories du comportement, pour inciter à la préservation des ressources : une « affiche pour éteindre la lumière », un « autocollant qui se complète que lorsque l’on ferme la fenêtre », un « totem pour recycler le papier »… avec plus ou moins d’efficacité.
Ils peuvent aussi investir des espaces spécifiques, comme un potager, un jardin, un « club nature », ou contribuer à végétaliser la cour. Ils se réunissent souvent le midi, seul temps disponible pour les enseignants comme pour les élèves.
L’éco-délégué est parfois identifié comme l’ambassadeur dont on attend qu’il soit : celui qui « explique les actions et réfléchit à de nouvelles stratégies », qui « présente et propose les projets et motive les élèves », résument des enquêtés. Sa mission de sensibilisation peut progressivement consister à « s’interroger », « trouver des idées pour améliorer le monde pour plus tard », voire à « donner des cours aux camarades », énumèrent d’autres lycéens. Leurs actions « parfois petites mais qui font grandir le lycée » sont vues avec bienveillance. Ils contribuent à « améliorer la vie en communauté pour ne pas avoir à souffrir plus tard », assure une élève. Ils peuvent être perçus comme des innovateurs et apporter des solutions pour « sauver notre terre et l’améliorer », comme l’indique une éco-déléguée.
De façon très marginale, des actions en dehors de la sphère environnementale qui domine les discours sont parfois citées : comme de la sensibilisation sur le handicap, la mise en place de produits d’hygiène féminine ou des « boîtes à livres ».
« Les importuns inutiles » (5 %) : Pour certains, les éco-délégués ne font « rien », ou « pas grand-chose ». Leurs rencontres sont identifiées comme l’occasion de « rater les cours pour faire des réunions souvent inutiles » ou pour lesquelles « nous n’avons aucun retour », déplore un élève. Les élèves d’un lycée agricole public en zone rurale sont parmi ceux qui ont les mots les plus durs : les éco-délégués « nous cassent les oreilles » ou sont là « pour faire joli et apporter des idées qui n’aboutissent jamais ».
« Les opérateurs de tri » (13 %) : Les éco-délégués ramassent, trient, nettoient, compostent, luttent contre le gaspillage, construisent des poubelles, font des « clean walk » dans leurs lycées, dans leurs villes, sur les plages… Les déchets identifiés sont ceux qui sont visibles, comme le papier ou les mégots, alors que les déchets numériques qui ne cessent de croître ne sont pas mentionnés.
Agir sur les déchets demeure l’activité concrète la plus citée dans l’enquête : qu’elle soit l’unique action ou bien associée à d’autres, perçue de façon conforme aux attendus d’un éco-délégué « acteur du changement » ou de manière plus critique, comme chez ce lycéen qui ironise. « Ils ramassent les poubelles, on ne sait pas s’ils sont délégués ou éboueurs. »
Rappelons que la gestion des déchets dans un établissement scolaire public est une attribution des collectivités qui gèrent les bâtiments. Les projets des éco-délégués peuvent donc impliquer la collaboration d’agents de la collectivité qui sont rarement consultés et, au final, souvent dans l’incapacité de donner suite aux projets commencés, comme la création de composts abandonnés l’année suivante faute de personnel identifié pour les gérer. Il en est de même avec les actions des élèves autour des économies d’énergie dont la portée reste limitée face au défi que représente la rénovation énergétique des bâtiments scolaires, décidée à un tout autre niveau.
Sans remettre en cause l’importance de la gestion des déchets pour la cause écologique et sociale, nous pouvons cependant nous questionner sur l’intérêt d’en faire la mission principale des éco-délégués. Peu de réflexions sur l’origine de ces déchets (surconsommation, obsolescence programmée, mauvaise qualité, réglementation non respectée) ont été observées. Or, sans remise en cause du système à l’origine de la production de ces déchets, les éco-délégués risquent bien de n’occuper qu’une « fonction utilitariste au service des politiques libérales de croissance », pour reprendre les termes des chercheurs Jean-Marc Lange et Angela Barthes.
Un fort effet établissement
Le dispositif des éco-délégués peut également être perçu de manière très différente selon les contextes d’établissements. Dans l’enquête de terrain, les élèves de l’enseignement agricole considèrent les éco-délégués comme des « agents du changement » ou des « opérateurs du tri » dans une proportion supérieure aux attentes. Les élèves de l’éducation nationale suivant une voie de formation générale sont eux beaucoup plus que prévu à répondre ne pas savoir quelles sont les missions des éco-délégués.
Plus surprenant, les élèves d’un lycée pourtant labellisé « établissement en démarche de développement durable (E3D) » et ceux ayant participé à un projet régional sur les ODD (Objectifs de développement durable définis par les Nations unies) sont ceux qui affichent le plus haut pourcentage des « Je ne sais pas » (79 % et 70 %). À l’inverse, les élèves d’un lycée n’ayant pourtant pas encore organisé d’élections d’éco-délégués sont ceux qui les considèrent le plus comme « agents du changement » (49 %).
L’analyse du questionnaire indique par ailleurs que les perceptions des activités des éco-délégués ne varient pas significativement selon le genre, le niveau scolaire ni même selon le vécu scolaire : les élèves se déclarant en réussite ou en échec scolaire et les élèves déclarant avoir une expérience positive ou négative de leur scolarité ont des taux de réponse équivalents. Ainsi, l’effet établissement semble agir plus que le profil socio-scolaire des élèves sur leur perception du rôle de l’éco-délégué. Ces premiers résultats mériteraient cependant d’être consolidés à une échelle plus importante.
Enfin, qu’elle soit conforme aux prescriptions du ministère, restreinte aux déchets ou plus critique, la perception du rôle des éco-délégués se cantonne à la sphère écologique. Les systèmes politiques et économiques à l’origine de l’épuisement des ressources et de la surproduction de déchets ne sont quasiment jamais mentionnés. Cette dépolitisation de la question écologique, notamment dans un contexte scolaire, et « l’invisibilisation des enjeux sociaux » qui l’accompagne sont une tendance déjà bien repérée par les recherches en éducation, comme en témoigne le récent ouvrage d’Irène Pereira sur l’éco-pédagogie (2024).
Quant au profil socio-scolaire des éco-délégués, sans étude statistique nationale, difficile de dresser le portrait type. Le rapport parlementaire réalisé sur ce sujet par une députée de la majorité, dresse un panorama assez mitigé. Le dispositif des éco-délégué est accusé de renforcer les stéréotypes de genre en confiant les tâches du « care », et notamment du maintien de la propreté des lieux, aux filles plus qu’aux garçons. Constat déjà largement documenté en sociologie.
Si les éco-délégués perçoivent bien que l’on attend d’eux qu’ils soient force de propositions, ils sont pourtant dirigés, de manière explicite ou plus implicite, vers les actions déjà en cours ou impulsées par leurs encadrants, considérées comme réalisables et « allant dans le bon sens ». Un acteur du changement donc, mais dans les limites de l’acceptable.
Parmi les éco-délégués interrogés pendant l’enquête, certains s’épanouissent clairement dans leur mission, regrettent parfois qu’elle ne puisse pas s’étendre davantage ou se pérenniser d’une année sur l’autre ou d’un établissement à l’autre. Pour d’autres, elle est synonyme d’usure ou de déception, comme en témoigne cet éco-délégué élève de seconde (lycée privé, zone rurale) :
« C’est bien gentil de faire les petits gestes, mais un moment il va falloir faire les grands, et c’est pas le gouvernement qui s’en occupe. »
Tantôt colibris, tantôt ambassadeurs, tantôt sauveurs, tantôt éboueurs… les éco-délégués cumulent ainsi les casquettes sans véritables moyens pour agir, alors même que les défis auxquels ils sont censés répondre ne cessent de croître dramatiquement.
Certes, nous pouvons convenir que les cinq dernières années n’ont pas été de tout repos pour le milieu scolaire : crise sanitaire de la Covid et huit ministres de l’éducation nationale qui se sont succédé. Cependant, nous pouvons constater qu’après un engouement pour les enjeux de développement durable post-COP21, les moyens attribués au déploiement de l’éducation au développement durable peinent encore à être rassemblés à la hauteur des objectifs auxquels la France continue de s’engager, COP après COP.
À lire aussi : De COP en COP, une géopolitique de la procrastination climatique
Lise Trégloze a reçu une bourse de recherche doctorale de la région Bretagne (dispositif ARED).
06.01.2026 à 16:50
Comment promouvoir la durabilité grâce à des applications géolocalisées, sans pour autant inquiéter la vie privée des utilisateurs ?
Texte intégral (1023 mots)
En mettant en relation des inconnus autour du don, du partage et de la solidarité locale, les applications de géomatching apparaissent comme de puissants leviers des Objectifs de développement durable élaborés par l’ONU. Leur succès dépend pourtant d’un équilibre délicat entre impact sociétal, exposition des données personnelles et sentiment de sécurité.
Les 17 Objectifs de développement durable (ODD), élaborés par les Nations unies pour transformer le monde d’ici à 2030, nécessitent l’implication du plus grand nombre. Or, de nombreuses applications géolocalisées, fondées sur la mise en relation entre particuliers, offrent un potentiel considérable pour accélérer ce changement. Chaque ODD peut aujourd’hui s’appuyer sur des centaines d’initiatives de « géomatching ».
Pour l’ODD 1 (« pas de pauvreté »), par exemple, FallingFruit met à disposition des glaneurs plus de 4 039 ressources alimentaires distinctes, réparties sur près de deux millions de sites. GEEV permet de récupérer gratuitement des meubles près de chez soi, tandis qu’Olio facilite le partage des surplus alimentaires entre voisins grâce à une communauté de plus de 8 millions de membres.
Ces plates-formes génèrent des impacts concrets sur les trois piliers du développement durable :
Social : elles renforcent la solidarité locale et créent de nouveaux liens sociaux ;
Économique : elles réduisent la pauvreté et améliorent le quotidien de chacun ;
Environnemental : elles diminuent les déchets et prolongent la durée de vie des objets.
Une épineuse question de sécurité
Cependant, leur fonctionnement repose sur la divulgation de données personnelles, notamment la géolocalisation reconnue comme particulièrement sensible par la Commission européenne. Contrairement aux transactions classiques sur des plates-formes comme Leboncoin ou Vinted, les applications de géomatching impliquent souvent une rencontre physique, parfois au domicile d’un particulier.
Aller chez un inconnu ou accueillir un inconnu chez soi n’est pas anodin. La confiance que l’on peut accorder à une marque pour personnaliser des offres ne suffit plus : ici, les données doivent être partagées directement avec d’autres utilisateurs. Ce besoin de sécurité explique le succès d’applications comme Gensdeconfiance, fondées sur la recommandation entre membres.
Les risques perçus sont renforcés par le contexte : augmentation des violations de données, multiplication des infox, usurpations d’identité… Les internautes sont méfiants : 72 % se disent préoccupés par la traçabilité de leurs activités en ligne (enquête de l’Insee auprès des ménages sur les technologies de l’information et de la communication de 2021) surtout que les violations notifiées à la CNIL ont augmenté de 20 % en 2024. Ainsi 76 % ont limité ou renoncé, selon l’enquête Insee TIC de 2019, à une activité en ligne à cause de craintes sur la sécurité.
Une piste : la présence sociale
Face à ces inquiétudes, une piste prometteuse émerge : la présence sociale. Elle désigne la capacité d’une interface numérique à faire ressentir une présence humaine. En humanisant l’expérience, elle rassure et contrebalance partiellement le sentiment de sacrifice inhérent au partage de données personnelles. Elle donne à l’utilisateur l’impression d’intégrer une communauté active, plutôt que de confier ses informations à un espace impersonnel.
Concrètement, cette présence sociale peut être renforcée grâce à des indicateurs communautaires :
nombre de visites déjà effectuées chez un membre,
quantité de fruits glanés,
photos du lieu,
retours d’expérience visibles et authentifiés.
Plutôt que de mettre en avant les « meilleures ventes » comme le font de nombreuses plates-formes, le design de l’application pourrait valoriser les interactions réelles, les contributions et les preuves d’activité. Cela rendrait la communauté plus vivante, plus incarnée, et donc plus rassurante.
Le rôle ambivalent des algorithmes
Dans les applications de géomatching, la confiance ne repose pas uniquement sur des recommandations explicites, comme dans Gensdeconfiance, mais aussi sur cette impression de proximité humaine. Les algorithmes et l’IA ont un rôle ambivalent : ils peuvent enrichir cette présence (avec, par exemple, des agents conversationnels sociaux) ou au contraire nourrir la méfiance (en renforçant la crainte des faux avis ou des profils fictifs). L’enjeu est donc de concevoir des technologies qui servent la confiance, plutôt que de l’éroder.
Si ces conditions sont réunies, les applications de géomatching pourraient connaître une adoption bien plus large et contribuer véritablement à l’atteinte des 17 ODD. Alors, pourquoi ne pas commencer dès maintenant à explorer ces initiatives et à agir, à votre échelle, en faveur de la planète ?
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
06.01.2026 à 16:48
Ce que l’Athènes antique nous enseigne sur le débat – et la dissidence – à l’ère des réseaux sociaux
Texte intégral (1622 mots)

Dans l’Athènes antique, l’agora était un forum public où les citoyens pouvaient se réunir pour délibérer, débattre et prendre des décisions ensemble. Elle était régie par des principes sociaux profondément enracinés qui garantissaient des débats animés, inclusifs et sains.
Aujourd’hui, nos places publiques se sont déplacées en ligne vers les flux numériques et les forums des réseaux sociaux. Ces espaces sont pour la plupart dépourvus de règles et de codes communautaires. Ce sont plutôt des algorithmes qui décident quelles voix s’élèvent au-dessus du tumulte et lesquelles sont étouffées.
L’idée optimiste selon laquelle Internet serait un espace radicalement démocratique semble désormais un lointain souvenir. Nos conversations sont désormais façonnées par des systèmes opaques conçus pour maximiser l’engagement, et non la compréhension mutuelle. C’est la popularité algorithmique, et non l’exactitude ou la diversité des voix, qui détermine la portée des propos publiés en ligne.
Cela a créé un paradoxe. Nous jouissons d’une liberté d’expression sans précédent, mais notre discours est limité par des forces qui échappent à notre contrôle. Les voix fortes dominent. Les voix nuancées s’estompent. L’indignation se propage plus vite que la réflexion. Dans ce contexte, la participation égalitaire est pratiquement inaccessible, et s’exprimer honnêtement peut comporter un risque très réel.
Entre les marches de pierre d’Athènes et les écrans d’aujourd’hui, nous avons perdu quelque chose d’essentiel à notre vie démocratique et à notre dialogue : l’équilibre entre l’égalité de la parole et le courage de dire la vérité, même lorsque cela est dangereux. Deux anciens idéaux athéniens de liberté d’expression, l’isegoria et la parrhesia, peuvent nous aider à le retrouver.
Des idées anciennes qui nous guident encore aujourd’hui
À Athènes, l’isegoria désignait le droit de s’exprimer, mais elle ne se limitait pas à un simple droit. Elle représentait une responsabilité partagée, un engagement en faveur de l’équité et l’idée que la vie publique ne devait pas être gouvernée uniquement par les puissants.
Le terme parrhesia peut être défini comme l’audace ou la liberté d’expression. Là encore, il y a une nuance : la parrhesia n’est pas une franchise imprudente, mais un courage éthique. Elle désignait le devoir de dire la vérité, même lorsque celle-ci provoquait un malaise ou un danger.
Ces idéaux n’étaient pas des principes abstraits. Il s’agissait de pratiques civiques, apprises et renforcées par la participation. Les Athéniens comprenaient que le discours démocratique était à la fois un droit et une responsabilité, et que la qualité de la vie publique dépendait du caractère de ses citoyens.
La sphère numérique a changé le contexte, mais pas l’importance de ces vertus. L’accès seul ne suffit pas. Sans normes qui soutiennent l’égalité des voix et encouragent la vérité, la liberté d’expression devient vulnérable à la distorsion, à l’intimidation et à la manipulation.
L’émergence de contenus générés par l’intelligence artificielle (IA) intensifie ces pressions. Les citoyens doivent désormais naviguer non seulement parmi les voix humaines, mais aussi parmi celles produites par des machines qui brouillent les frontières entre crédibilité et intention.
Quand être entendu devient un privilège
Sur les plateformes contemporaines, la visibilité est répartie de manière inégale et souvent imprévisible. Les algorithmes ont tendance à amplifier les idées qui suscitent des émotions fortes, quelle que soit leur valeur. Les communautés déjà marginalisées peuvent se retrouver ignorées, tandis que celles qui prospèrent grâce à la provocation peuvent dominer la conversation.
Sur Internet, l’isegoria est remise en question d’une nouvelle manière. Peu de personnes en sont formellement exclues, mais beaucoup sont structurellement invisibles. Le droit de s’exprimer demeure, mais la possibilité d’être entendu est inégale.
Dans le même temps, la parrhesia devient plus précaire. S’exprimer avec honnêteté, en particulier sur des questions controversées, peut exposer les individus à du harcèlement, à des déformations ou à une atteinte à leur réputation. Le prix du courage a augmenté, tandis que les incitations à rester silencieux ou à se réfugier dans des chambres d’écho se sont multipliées.
À lire aussi : Social media can cause stress in real life – our 'digital thermometer' helps track it
Former des citoyens, pas des spectateurs
Les Athéniens avaient compris que les vertus démocratiques ne surgissent pas toutes seules. L’isegoria et la parrhesia se maintenaient grâce à des habitudes acquises au fil du temps : écouter était considéré comme un devoir civique, parler comme une responsabilité partagée, tout en reconnaissant que la vie publique dépendait de la personnalité de ses participants. À notre époque, c’est à travers l’éducation civique que les citoyens mettent en pratique les dispositions requises par le discours démocratique.
En transformant les salles de classe en agoras à petite échelle, les élèves peuvent apprendre à vivre la tension éthique entre l’égalité des voix et l’intégrité de la parole. Les activités qui invitent au dialogue partagé, à la prise de parole équitable et à l’attention portée aux voix les plus discrètes les aident à faire l’expérience de l’isegoria, non pas comme un droit abstrait, mais comme une pratique vécue de l’équité.
Dans la pratique, cela prend la forme de discussions et de débats au cours desquels les élèves doivent vérifier des informations, formuler et justifier des arguments, réviser leurs opinions publiquement ou débattre de manière respectueuse avec des arguments contraires. Toutes ces compétences cultivent le courage intellectuel associé à la parrhesia.
Il est important de noter que ces expériences ne dictent pas ce que les élèves doivent croire. Elles leur permettent plutôt de s’exercer à adopter des habitudes qui les rendent responsables de leurs convictions : la discipline de l’écoute, la volonté d’exposer ses arguments et la disposition à affiner sa position à la lumière de nouvelles connaissances. De telles pratiques rétablissent le sentiment que la participation démocratique n’est pas seulement liée à la liberté d’expression individuelle, mais relationnelle et construite grâce à un effort commun.
Ce que l’éducation civique offre en fin de compte, c’est de la pratique. Elle crée des agoras miniatures où les élèves s’entraînent aux compétences dont ils ont besoin en tant que citoyens : s’exprimer clairement, écouter généreusement, remettre en question les idées reçues et dialoguer avec ceux qui pensent différemment.
Ces habitudes contrebalancent les pressions du monde numérique. Elles ralentissent la conversation dans des espaces conçus pour la rapidité. Elles introduisent la réflexion dans des environnements conçus pour la réaction. Elles nous rappellent que le discours démocratique n’est pas une performance, mais une responsabilité partagée.
Retrouver l’esprit de l’agora
Le défi de notre époque n’est pas seulement technologique, mais aussi éducatif. Aucun algorithme ne peut enseigner la responsabilité, le courage ou l’équité. Ce sont des qualités qui s’acquièrent par l’expérience, la réflexion et la pratique. Les Athéniens l’avaient compris intuitivement, car leur démocratie reposait sur la capacité des citoyens ordinaires à apprendre à s’exprimer d’égal à égal et avec intégrité.
Nous sommes confrontés au même défi aujourd’hui. Si nous voulons des places publiques numériques qui soutiennent la vie démocratique, nous devons préparer les citoyens à les utiliser à bon escient. L’éducation civique n’est pas un enrichissement facultatif, c’est le terrain d’entraînement des habitudes qui soutiennent la liberté.
L’agora a peut-être changé de forme, mais son objectif demeure. Se parler et s’écouter d’égal à égal, avec honnêteté, courage et attention, reste au cœur de la démocratie. Et c’est quelque chose que nous pouvons enseigner.
Sara Kells ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
06.01.2026 à 15:32
Le Venezuela, un dominion des États-Unis ?
Texte intégral (2120 mots)
Dans la nuit du 2 au 3 janvier 2026, les forces armées américaines ont lancé et conduit l’opération militaire massive « Absolute resolve » afin de kidnapper le président vénézuélien Nicolas Maduro au palais Miraflores, à Caracas. Dans la foulée, Donald Trump a annoncé que les États-Unis « dirigeraient » temporairement le Venezuela en attendant la prise de pouvoir d’un gouvernement favorable aux États-Unis (like minded). Pourtant, la vice-présidente Delcy Rodriguez, légalement au pouvoir depuis l’incarcération de Maduro, annonce désormais son intention d’assumer la direction de l’État. Quel destin se prépare pour le pays, entre interventionnisme trumpiste, sursaut nationaliste anti-impérialiste et protestations internationales ?
Une intervention militaire conduite sans base légale et au nom de la « sécurité des États-Unis » ; la destitution et l’emprisonnement du dictateur au pouvoir ; l’annonce de la future prise de contrôle du pays par les forces armées et les entreprises états-uniennes : tout cela rappelle l’opération contre l’Irak et Saddam Hussein de 2003.
Le parallèle avec l’opération irakienne – officiellement destinée à prévenir l’usage d’armes de destruction massive (demeurées introuvables) – est limité : cette fois, derrière le prétexte de la lutte contre le « narcoterrorisme », Donald Trump reconnaît sans ambages le rôle clé qu’occupent les ressources pétrolières dans les motivations profondes de cette opération. Ceux qui veulent y voir une défense de la démocratie en seront pour leurs frais : la promotion de la démocratie et la lutte contre les dictatures sont au centre des discours européens, mais pratiquement absents de ceux de l’équipe Trump.
En outre, l’invasion de 2003 visait à détruire l’État du parti Baas irakien ; or, ce n’est pas l’opposante Maria Corina Machado, prix Nobel de la paix 2025, qui est appelée à gouverner le Venezuela, mais la vice-présidente en exercice Delcy Rodriguez. La situation fait dès lors penser, à ce stade, à l’accaparement des ressources vénézuéliennes par une puissance extérieure, couplé à un lâchage interne de Maduro au sein du régime, quand bien même Rodriguez a exigé sa libération.
Par conséquent, la question cruciale n’est sans doute pas « qui gouverne », mais « comment gouverner après ».
Le Venezuela de Rodriguez, entre souveraineté limitée et nationalisme blessé
L’enlèvement de Nicolas Maduro n’empêche pas la Constitution vénézuélienne de 1999 de continuer de s’appliquer.
L’opération militaire conduite par les États-Unis destitue un des titulaires du pouvoir, mais ne transforme pas mécaniquement les structures politiques, sociales ou économiques du pays. Elle introduit en revanche une contrainte durable. Le nouveau régime doit gouverner sous le regard simultané d’une puissance extérieure tutélaire, qui a montré sa capacité d’intervention, et dont sa survie dépend aujourd’hui, et d’une société nationale très attentive aux signes d’autonomie ou de mise sous tutelle, et foncièrement divisée.
Cette tension place le pouvoir de Delcy Rodriguez dans une double contrainte : d’une part, éviter une nouvelle intervention en se conciliant la faveur de l’administration Trump ; d’autre part, satisfaire les aspirations de la population au respect d’une souveraineté mise à mal par l’ingérence américaine. En un mot, elle doit combiner survie face à Trump et rhétorique nationaliste compensatoire : elle a par exemple dénoncé la teneur « sioniste » (comprenez colonisatrice) de l’expédition américaine, qualifiée de « kidnapping » et de « barbarie » violant le droit international.
Si Rodriguez et son entourage optent pour un discours trop musclé et offensif à l’égard de Washington, cela offrira à Donald Trump un prétexte pour procéder à un changement de régime complet, ce qui supposerait une action et un investissement beaucoup plus conséquents. Le Venezuela vit donc dorénavant dans un régime de « souveraineté limitée », comme l’annonçait en décembre la nouvelle stratégie nationale de sécurité américaine.
À lire aussi : L’internationale trumpiste : la Stratégie de sécurité nationale 2025 comme manifeste idéologique
Dans ce contexte, trois destinées sont aujourd’hui ouvertes pour le pays.
Scénario 1, le chavisme sans Chavez ni Maduro : un Thermidor caribéen sous surveillance états-unienne
Premier scénario : une continuité réelle malgré une rupture affichée. Pour les élites bolivariennes, lâcher Maduro a peut-être été le prix à payer pour sauver l’État, restaurer une forme de rationalité, sortir le pays de l’isolement.
Les visages changent à peine, les uniformes pas encore. Durant les six premiers mois, les sanctions américaines pourraient être partiellement suspendues, les marchés pourraient réagir avec prudence, et les institutions seraient « normalisées » plutôt que transformées. Dans ce scénario, le nouveau pouvoir ne parle que de stabilité, jamais de refondation, et gouverne par décrets techniques sous la surveillance discrète des États-Unis, dont l’attention sera focalisée sur la possession des champs pétroliers.
Au bout d’un an, la démocratie revendiquée par les opposants au chavisme sera renvoyée à plus tard, et les structures du pouvoir resteront quasiment intactes. Comme lors du 9-Thermidor en 1794, les excès ont été liquidés, pas le système.
Scénario 2, la souveraineté limitée : un « moment Kadar » tropical
Tout commence par une fracture interne inattendue. Ni chaviste orthodoxe ni opposition traditionnelle, un nouveau centre de gravité politique émerge dans l’entre‑deux, porté par des acteurs fatigués des extrêmes et décidés à stabiliser le pays. Les différentes oppositions (MAGA-compatibles ou non) convergent et s’allient aux « chavistes modérés » (gouverneurs pragmatiques, militaires de second rang, technocrates issus du Parti socialiste unifié du Venezuela (PSUV)
– la formation chaviste –, qui veulent éviter l’effondrement total) pour proposer au pays un régime de transition qui garantit une certaine souveraineté nationale. Dans les six premiers mois, un pacte social minimal est proposé, la coercition recule temporairement, et l’économie redémarre grâce à une série de mesures pragmatiques.
La surprise vient de la société elle‑même : la demande de « vie normale » devient dominante, affaiblissant (peut-être momentanément) la polarisation. Le pays semble entrer dans une phase de pacification inattendue, presque involontaire.
Mais au bout de quelques mois, probablement vers l’automne 2026, surgissent des troubles internes : grèves sectorielles, protestations corporatistes, tensions régionales. Rien de décisif pour la stabilité du régime, mais suffisamment pour rappeler que celui-ci reste fragile. Le pouvoir répond par une combinaison de concessions ciblées et de fermeté mesurée, évitant l’escalade tout en réaffirmant son autorité.
Ces turbulences, paradoxalement, renforcent le récit du compromis : le régime se présente comme le seul capable de contenir le chaos sans revenir à la répression systématique. Comme avec le pouvoir de Janos Kadar instauré en Hongrie après 1956 (à la suite de l’écrasement par l’URSS de l’insurrection de Budapest), ce n’est ni une victoire idéologique ni une défaite politique : c’est la fatigue historique qui gouverne, et la société accepte le compromis, faute de mieux.
Dans ce scénario, les États-Unis jouent un rôle bien plus important : ils soutiennent l’arrivée au pouvoir d’un dirigeant d’inspiration MAGA à Caracas, à l’instar des Soviétiques qui ont porté Janos Kadar à la tête de la Hongrie.
Scénario 3, une évolution à la cubaine pré-castriste : un dominion américain
Si la souveraineté reste intacte sur le papier, la capacité de négociation du pouvoir chaviste est déjà très entamée en ce début d’année 2026. Une fois installé le nouveau leadership, soutenu par Washington et aligné sur ses priorités, vient alors la phase de réouverture sous contrainte : levée conditionnelle des sanctions, retour des majors états-uniennes, accords d’exploitation conclus dans l’urgence. Les nouveaux contrats s’étendent sur des décennies, verrouillés par des clauses de stabilisation et une fiscalité avantageuse pour les intérêts des majors. Le pétrole demeure vénézuélien, mais la rente, elle, devient extraterritoriale, profitable aux milieux économiques des États-Unis.
La troisième phase consacre la captation de la valeur : technologies, assurances, transport et raffinage sont externalisés, les revenus rapatriés hors du pays, et l’État réduit à une fonction fiscale minimale. Le Venezuela produit beaucoup, capte peu et dépend désormais de flux qu’il ne contrôle plus.
Enfin, cette dépendance se normalise. Le récit dominant affirme que « c’est le prix de la stabilité » ; la souveraineté pétrolière est dépolitisée ; et les fractures sociales s’approfondissent. Le pillage n’est plus seulement visible : il est institutionnalisé.
En somme, le Venezuela subit le sort de Cuba entre l’adoption de l’amendement Platt (1901), qui officialisa le droit d’ingérence des États-Unis sur la République de Cuba, et la révolution castriste (1959) : il devient un dominion des États-Unis.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
06.01.2026 à 15:27
Denaturalization in the Trump era: When the State questions the citizenship of millions of Americans
Texte intégral (2438 mots)
It is recognised in US law that the government may not take away a naturalized person’s citizenship except in cases of fraud or error on a naturalization application. The Supreme Court has clearly established that unless citizenship was unlawfully procured, denaturalization is unconstitutional. However, a memo issued by the Department of Justice (DoJ) in June attempts to broaden the grounds for denaturalization, potentially putting over 24.5 million naturalized US citizens at risk.
The memo states that the current US administration has directed the DoJ’s Civil Division to “advance the administration’s policy objectives”, among which is “prioritizing denaturalization”. Under this directive, the division is to investigate individuals who either “illegally procured” or “conceal[ed] a material fact” in their naturalization applications. The text outlines 10 “categories” of priority cases, which include individuals who “pose a potential danger to national security”; who “engaged in various forms of financial fraud”, including fraud associated with the Medicaid and Medicare healthcare programmes; and “any other cases referred to the Civil Division that the Division determines to be sufficiently important to pursue”.
The memo could broaden the scope of grounds previously used for denaturalization and will likely face legal challenge. Since September, the DoJ has filed denaturalization complaints against individuals for reasons such as providing false testimony and concealing identity, and for other crimes. In November, following a DoJ complaint filed in August, a US judge revoked the citizenship of a naturalized individual who had pleaded guilty to conspiracy to commit health care fraud. President Donald Trump, in a recent post on Truth Social, reaffirmed his commitment to “denaturalize migrants who undermine domestic tranquillity” and further stated, on November 30, in response to a shooting in Washington, DC, “if I have the power to do it… I would denaturalize, absolutely”.**
The DoJ memo represents a departure from 50 years of US policy between 1967 and mid-June 2017 – nearly five months into Donald Trump’s first term as president. During this period, the practice of citizenship stripping was rare and used primarily in extreme cases, such as for war criminals. In contrast, between 1906 and 1967, the US denaturalized more citizens than any other democracy. Several news and academic sources have highlighted what some see as similar motivations behind the current administration’s directive and past initiatives. It is also important to note that the DoJ memo will afford a discretion that could be much wider than in the past.
Denaturalization in the 20th Century
The original purpose of denaturalization in the US, put into force by the Naturalization Act of 1906, was to wipe out so-called “disbelievers in organized government” from society. The early cases were against political dissidents – some self-described, and some alleged socialists, anarchists and radicals – and often included journalists or labour unionists. One notable case is that of Emma Goldman, the first person to be denaturalized for her political views. Goldman was an anarchist who eventually lost her citizenship due to her activism against US involvement in the First World War. Denaturalization for political views was linked to two provisions in naturalization law: the requirement that a person have “good moral character” and that applicants be “attached to the principles of the US Constitution.”
One of the largest citizenship-stripping campaigns started in the 1940s, after the Nationality Act of 1940 gave naturalization authority to the DoJ. Once more, the primary targets were those with so-called “subversive” beliefs, particularly those with any affiliations to the Communist Party or the German American Bund. After the government denaturalized more than 22,000 people, this particular wave was halted by the Supreme Court in 1943, which declared that a person could not be denaturalized without “clear, unequivocal, and convincing evidence” that they were planning for the violent overthrow of the government. This became a standard impossible to prove, and cases of denaturalization subsided. In 1967, the Court decided that denaturalization was altogether unconstitutional except in cases of fraud or error in a naturalization application, and since, there have been only a handful of cases per year.
The DoJ memo doesn’t refer to ideological views such as “communism” or “socialism”, although the policy manual for US Citizen and Immigration Services (USCIS) states that an individual may be denaturalized “if the person becomes a member of, or affiliated with, the Communist party”. However, the first priority in the memo mentions anyone who “[poses] a potential danger to national security”, which can be broadly interpreted.
Threatening comments
In July, Trump made comments that raised questions about whether the beliefs of some naturalized individuals may put them at risk. These comments were about New York City mayor-elect Zohran Mamdani and actor Rosie O’Donnell. After US Congressman Andy Ogles threatened Mamdani, then a mayoral candidate, with a denaturalization investigation for rap lyrics Mamdani wrote in 2017 that Ogles viewed as “publicly praising” individuals convicted of supporting the militant Palestinian group Hamas, Trump said “a lot of people are saying he’s here illegally” and “we’re going to look at everything”. And the president threatened the birthright citizenship of O’Donnell, who was born in New York, saying that she “is not in the best interests of our Great Country”. Because O’Donnell is a natural-born citizen, there is no provision in US law to revoke her citizenship unless she provides her explicit consent. It’s also worth noting that Trump said he would “take a look” into the question of deporting billionaire Elon Musk, who became a naturalized citizen in 2002, after the Tesla CEO criticised the spending bill that passed into law in early July.“
Threatening denaturalization for opinions or statements, that while perhaps controversial are peaceful, reaches much further than the historical standard of believing in the "violent takeover of government” used to start a denaturalization proceeding in the past. Such threats generate a climate of fear where certain individuals and groups may be scared to voice opinions out of the threat of ending up in a denaturalization trial.
The expanded notion of ‘fraudulent acquisition’
Since 1967, fraudulent acquisition of citizenship has been the exclusive justification for denaturalization. Up until recently, this has been interpreted as a nondisclosure of information on a naturalization application that would have impacted the outcome of the application.
There has been an increasing number of investigations of fraudulent acquisition since 2008, the year that saw “Operation Janus”. This Obama-era policy targeted individuals who had been sent a deportation letter as an immigrant but had subsequently naturalized using a different name. The main driver was the digitization of records and fingerprint testing, which made it easier to identify discrepancies. In 2016, Trump expanded the operation to allow USCIS to investigate over 700,000 cases, marking the first push to “revive denaturalization”.
As scholars have argued, identifying fraud or a mistake is not always clear cut. For example, the US naturalization form asks whether a person has ever committed a crime, but does not specify what is included in its definition of a crime. It is unknown whether a crime committed in another jurisdiction that is not a crime under US law would count. This could have implications for same-sex couples or trans persons who come from countries where their status is illegal – such as in Uganda.
The June DoJ memo further expands what is considered as fraud for denaturalization to include instances of “loan fraud” or “Medicaid/Medicare fraud.” These types of fraud would likely not have previously met the standard of “willful misrepresentation” or “concealing material fact” that would have impacted the outcome of the naturalization process, since they are not related to a person’s immigration history.
Looking at denaturalization through the lens of race
While the memo does not mention race or ethnicity, some lawyers and legal scholars are concerned that, read alongside other developments in the current administration’s management of immigration, it will disproportionately affect certain minority and low-income communities.
Historically, race has been an explicit factor in immigration and denaturalization. Up until 1952, US citizenship law stated that only “white persons, persons of African nativity or descent, and descendants of races indigenous to the Western hemisphere” could be naturalized. In the 1920s, more than 50 naturalized individuals of Indian origin had their citizenship revoked after the Supreme Court decided that people from India were not “white” in “the understanding of the common man”
The DoJ memo came nearly three months after the deportation of hundreds of Venezuelan men with tenuous or non-existent ties to gangs or drug cartels, and nearly two months before a Supreme Court decision that allowed Immigration and Customs Enforcement (ICE) agents to use racial profiling in immigration raids in Los Angeles.
Some human rights groups and journalists have compared ICE immigration enforcement to how the US “War on Drugs” fuelled the mass incarceration of certain low-income and minority groups. As Sarah Tosh, a professor at Rutgers University, wrote in 2021, “these processes draw from a long history of targeted drug enforcement that has served to scapegoat, punish, and exclude immigrants and native-born racial minorities”.
Repeat of history or something bigger?
Unlike some European countries, the US previously had strong safeguards against denaturalization since the Supreme Court’s 1967 ruling. Since the end of September, the government has filed at least thirteen denaturalization actions (exact numbers are not publicly available), 11 of these actions were filed and publicly disclosed between September 30 and January 20, 2025, the beginning of Trump’s second term.
The “One Big Beautiful Bill Act” that passed in July allocated more than $3 billion in additional funds to the DoJ to exercise the administration’s immigration priorities – such as hiring immigration judges, staffing, and investigations.
The expansion of the potential grounds for denaturalization, the upcoming Supreme Court review of birthright citizenship, and even Ohio Senator Bernie Moreno’s recently proposed legislation to ban dual citizenship mark the potential for some of the most fundamental shifts in US citizenship to date. While some have rightly made the connection between present and past denaturalization initiatives, it remains to be seen how the Justice Department will make use of the memo’s criteria for denaturalization during the rest of Trump’s mandate.
Ashley Mantha-Hollands ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
06.01.2026 à 15:01
Apprendre les maths autrement : les pistes de la recherche
Texte intégral (1634 mots)
Si les mathématiques sont unanimement considérées comme décisives dans notre société, elles suscitent nombre de craintes chez les élèves. Les rendre plus accessibles suppose donc de changer leur enseignement. Mais comment ? Le succès de situations « adidactiques » offre quelques pistes à la recherche. Explications.
Parus en décembre 2025, les résultats de la grande consultation nationale sur la place des mathématiques lancée par le CNRS montrent que beaucoup de Français se sentent peu à l’aise avec les mathématiques même s’ils reconnaissent l’importance de cette discipline pour la société. À la suite de cette consultation et des Assises des mathématiques de 2022, le CRNS a défini des orientations prioritaires, dont l’amélioration de l’inclusion. Mais comment rendre les mathématiques plus accessibles à tous ?
Les participants à la consultation de 2025 suggèrent notamment de « généraliser des méthodes d’enseignement variées, concrètes, ludiques et encourageantes, qui valorisent notamment le droit à l’erreur, tout au long de la scolarité ».
Dans ce sens, depuis plusieurs années, nous expérimentons dans des classes ordinaires (avec l’hétérogénéité des profils d’élèves qui les caractérisent !) des séquences de mathématiques inclusives. En quoi se distinguent-elles des modes d’enseignement classiques ? Et que nous apprennent leurs résultats ?
Mettre l’élève en situation de recherche
Ces séquences de maths inclusives s’appuient sur des situations à dimension adidactique, c’est-à-dire des situations qui intègrent des rétroactions de sorte que l’élève n’ait pas besoin que l’enseignant lui apporte des connaissances. C’est en interagissant avec la situation et en s’adaptant aux contraintes de celle-ci que l’élève construit de nouvelles connaissances. Il ne le fait pas en essayant de deviner les intentions didactiques de l’enseignant (c’est-à-dire en essayant de deviner ce que l’enseignant veut lui enseigner), d’où l’appellation « adidactique ».
Comme le dit le spécialiste de l’enseignement des maths Guy Brousseau, à l’origine de ce concept dans les années 1970-1980 :
« L’élève sait bien que le problème a été choisi pour lui faire acquérir une connaissance nouvelle, mais il doit savoir aussi que cette connaissance est entièrement justifiée par la logique interne de la situation et qu’il peut la construire sans faire appel à des raisons didactiques. »
Ces situations ont un potentiel identifié depuis longtemps et mis à l’épreuve dans les classes à grande échelle depuis 40 ans (surtout du premier degré, notamment dans l’école associée au Centre d’observation et de recherches sur l’enseignement). Ces travaux ont également donné lieu à des ressources pour les enseignants, par exemple la collection Ermel.
Dans le cadre de nos recherches, nous avons, par exemple, conçu et testé dans plusieurs écoles (REP+, milieu rural, milieu urbain…) une séquence en CM1-CM2 qui s’appuie sur la situation des napperons de Marie-Lise Peltier. Les élèves y ont à disposition une feuille de papier carrée, ils doivent reproduire un modèle de napperon en pliant et en découpant leur feuille. C’est la notion de symétrie axiale qui permet de découper un napperon conforme au modèle, et l’élève peut s’autovalider en comparant sa production au modèle donné.
Mettre en œuvre une situation à dimension adidactique peut s’avérer complexe, car le rôle de l’enseignant diffère de ce dont il a l’habitude ; ici, il n’apporte pas directement les connaissances même s’il peut aider les élèves à résoudre la tâche.
De plus, les élèves peuvent élaborer des stratégies très diverses, ce qui peut les déstabiliser. Cependant, cette diversité constitue également une richesse du point de vue de l’inclusion, car chaque élève peut s’investir à la hauteur de ses moyens. Par ailleurs, ces situations permettent de stimuler l’engagement des élèves et les mettent dans une véritable activité de recherche, ce qui constitue le cœur des mathématiques.
Donner du sens aux notions mathématiques
À l’heure actuelle, ce type de situations est peu mis en œuvre, en particulier auprès des élèves en difficulté, car les enseignants ont plutôt tendance à penser qu’il faut découper les problèmes complexes en tâches les plus simples possibles pour s’assurer de la réussite des élèves. Cependant, la réalisation juxtaposée de tâches simples et isolées ne permet pas, souvent, de donner du sens aux notions mathématiques en jeu ni de motiver les élèves.
Dans l’exemple autour des napperons, nous avons constaté qu’en s’appuyant sur les rétroactions, mais aussi parfois sur leurs pairs et sur les conseils de l’enseignant, la majorité des élèves de CM1-CM2 que nous avons observés réussit à produire un napperon conforme au modèle, alors même que, parmi ces élèves, plusieurs avaient été signalés comme étant « en difficulté ».
Même les élèves n’étant pas arrivés à produire un napperon conforme dans le temps imparti se sont fortement engagés, comme en témoigne le nombre important de réalisations. Nous pouvons faire l’hypothèse que cette situation pourra constituer une situation de référence pour eux quand ils aborderont de nouveau la notion de symétrie axiale.
À lire aussi : Six façons de faire aimer les maths à votre enfant
Les aspects positifs et les défis que nous avons pu identifier dans notre recherche corroborent les résultats obtenus par d’autres chercheurs et chercheuses qui ont étudié la mise en œuvre de situations à dimension adidactique pour travailler diverses notions mathématiques, à différents niveaux scolaires, auprès de publics variés, notamment auprès d’élèves présentant une déficience intellectuelle ou un trouble dys, en France et au Québec.
Ainsi, même si ce concept n’est pas nouveau, l’appui sur les situations à dimension adidactique nous semble toujours une piste intéressante et actuelle pour penser l’enseignement des mathématiques pour tous. Cependant, il est nécessaire de donner aux enseignants les moyens de les mettre en œuvre de manière satisfaisante, par exemple en allégeant le nombre d’élèves par classe et en les accompagnant en formation initiale et continue.
Florence Peteers est porteuse de la Chaire Junior SHS RIEMa financée par la région Île-de-France et a reçu des financements du PIA3 100% IDT (inclusion, un défi, un territoire) porté par l’Université de Picardie Jules Verne.
Elann Lesnes a reçu reçu des financements du PIA3 100% IDT (inclusion, un défi, un territoire) porté par l’Université de Picardie Jules Verne.
06.01.2026 à 11:59
Pourquoi l’obésité est, avant tout, une maladie du cerveau
Texte intégral (1788 mots)
L’obésité n’est pas due à un manque de volonté. Il ne s’agit pas non plus d’un problème individuel. C’est une maladie complexe profondément enracinée dans un cerveau adapté pour survivre à la pénurie.
L’obésité débute dans le cerveau, et nous savons aujourd’hui que son développement tout comme son traitement ne sont pas les mêmes chez les hommes et les femmes. Cette pandémie silencieuse, qui progresse parallèlement au diabète de type 2 – l’une de ses principales complications – touche déjà plus d’un milliard de personnes dans le monde.
Alors que notre environnement devient de plus en plus obésogène, le cerveau continue de fonctionner selon des règles ancestrales qui rendent difficile le maintien de la perte de poids, même avec des médicaments aussi révolutionnaires que le sémaglutide (Ozempic). Ce changement de perspective transforme les traitements actuels et ouvre la voie à de nouvelles thérapies ciblant directement le cerveau.
Un cerveau ancestral dans un environnement moderne
L’obésité et le surpoids sont habituellement décrits comme un excès de graisse ou un problème métabolique. Mais leur origine profonde réside dans le système nerveux central, en particulier dans l’hypothalamus, la région qui agit comme un « thermostat énergétique ». Pendant 95 % de notre histoire évolutive, nous avons vécu dans la pénurie : marcher, chasser et cueillir étaient indispensables, et le cerveau a développé des mécanismes très efficaces pour défendre la masse graisseuse, car la perdre pouvait signifier ne pas survivre.
Ce « cerveau ancestral » fonctionne aujourd’hui dans un environnement totalement opposé : aliments hypercaloriques disponibles 24 heures sur 24, sédentarité, stress chronique, troubles du sommeil et régimes alimentaires ultratransformés.
À lire aussi : Aliments ultratransformés : quels effets sur notre santé et comment réduire notre exposition ?
Il en résulte un déséquilibre entre notre biologie et notre mode de vie, qui est amplifié chez les personnes qui présentent des prédispositions génétiques. À cela s’ajoute un élément que la recherche commence à explorer clairement : le système qui régule le poids ne fonctionne pas de la même manière chez les hommes et chez les femmes.
L’hypothalamus : là où commence l’obésité
L’hypothalamus intègre des signaux hormonaux (comme la leptine ou l’insuline), métaboliques et sensoriels afin d’équilibrer l’énergie ingérée et celle qui est dépensée. Quand nous perdons du poids, le cerveau interprète la situation comme une menace et il active de puissants mécanismes de défense : il augmente l’appétit, réduit la dépense énergétique et renforce une « mémoire métabolique ou obésogène » qui pousse à reprendre le poids perdu.
C’est pourquoi, même si l’alimentation et l’exercice physique sont essentiels à la santé et doivent toujours constituer la première prise en charge, ils ne suffisent pas chez de nombreuses personnes pour inverser l’obésité lorsque les circuits cérébraux sont déjà altérés. Ce point n’invalide pas les bienfaits d’un mode de vie sain : il reconnaît simplement que, dans certains cas, le cerveau a besoin d’un soutien pharmacologique pour sortir de la boucle obésogène.
Quand l’hypothalamus s’enflamme (à cause du stress, d’un régime hypercalorique, d’un manque de sommeil, de troubles hormonaux ou d’une prédisposition génétique), l’activité des neurones qui régulent la faim et la satiété est perturbée. Certaines personnes parviennent à retrouver spontanément leur poids initial après avoir trop mangé ; d’autres, en revanche, présentent un « frein hypothalamique » moins efficace et prennent plus facilement du poids. La différence réside dans le cerveau.
Perspective de genre : deux cerveaux, deux réponses
Les neurones hypothalamiques AgRP (qui stimulent la faim) et POMC (qui favorisent la satiété) régulent avec précision le comportement alimentaire. Cependant, l’hypothalamus n’est pas seulement un ensemble de neurones : il comprend également la microglie et les cellules immunitaires du cerveau, dont le rôle s’est avéré déterminant. Notre groupe a décrit trois phases d’activation microgliale dans les premiers stades de la suralimentation :
Une activation précoce, rapide et réversible.
Une phase inflammatoire prolongée, qui perturbe les circuits de satiété.
Une phase finale de dérégulation, au cours de laquelle les mécanismes censés limiter la prise de poids ne fonctionnent plus.
Ces phases ne se comportent pas de la même manière chez les hommes et chez les femmes. Chez les modèles murins, les femelles présentent une réponse neuro-immune plus stable et protectrice, ce qui pourrait expliquer pourquoi elles développent l’obésité plus tardivement. Ce schéma rappelle ce que l’on observe chez les femmes préménopausées.
À lire aussi : Ménopause et prise de poids : des mesures précoces pour accompagner les changements hormonaux
Avant la ménopause, les femmes ont un risque moindre de maladies métaboliques et cardiovasculaires que les hommes, grâce à l’effet protecteur des œstrogènes. Mais cette protection diminue pendant la périménopause et la ménopause, une période encore très peu étudiée et critique pour le risque cardiométabolique.
À lire aussi : À la ménopause, savez-vous que le risque cardiovasculaire augmente ? L’activité physique peut aider
De plus, dans les modèles animaux et les cultures cellulaires, nous avons détecté des altérations très précoces (au niveau de la microglie, de signaux lipidiques comme les endocannabinoïdes et de la sensibilité neuronale à l’insuline) avant même l’apparition de changements visibles dans les tissus périphériques. Cela suggère que le déclencheur initial de l’obésité est cérébral. Il est essentiel d’intégrer cette perspective de genre pour progresser vers des traitements plus précis et plus efficaces.
Nouvelles thérapies contre l’obésité : incrétines et nanomédecine ciblant le cerveau
Le traitement de l’obésité a radicalement changé depuis 2021 avec les agonistes du récepteur GLP-1. Le semaglutide et d’autres médicaments de la famille des incrétines, initialement développés pour le diabète de type 2, ont démontré une capacité remarquable à réduire le poids grâce à des actions à la fois périphériques et centrales. Cependant, ils présentent des limites connues : effets gastro-intestinaux, perte de masse maigre, reprise de poids après l’arrêt du traitement ou réponses variables selon le profil biologique du patient.
Des études récentes montrent également des différences selon le sexe : les femmes préménopausées ont tendance à mieux répondre à ces traitements que les hommes.
Un défi doit donc être relevé : nous avons besoin de traitements qui agissent directement sur le cerveau, avec une plus grande précision et moins d’effets systémiques. C’est là que la nanomédecine qui cible le cerveau ouvre de nouvelles perspectives. Au sein de notre groupe, nous développons des nanoplateformes (micelles polymères, nanoparticules protéiques ou formulations intranasales) capables de transporter des médicaments de manière sélective vers le cerveau. Ces technologies permettent d’encapsuler des molécules qui, si elles étaient administrées sans protection, seraient inefficaces ou toxiques, afin de les diriger vers les cellules qui contrôlent l’appétit et l’homéostasie énergétique.
Ces approches pourraient compléter ou renforcer les incrétines, réduire leurs effets secondaires, améliorer l’observance aux traitements et augmenter le nombre de patients qui y répondent. Elles constituent un moyen de traiter l’obésité depuis son origine cérébrale, grâce à des interventions plus personnalisées et durables.
Un regard neuf sur un problème ancien
L’obésité n’est pas due à un manque de volonté, malgré la stigmatisation dont elle fait l’objet au niveau social. Il ne s’agit pas non plus d’un problème individuel. L’obésité est une maladie complexe, profondément enracinée dans un cerveau adapté à la survie en période de pénurie. Pour la traiter, il faut adopter une double approche : promouvoir des modes de vie sains et, quand cela se révèle nécessaire, recourir à des thérapies qui agissent sur les circuits cérébraux régulant le poids.
Comprendre comment fonctionne – et comment échoue – l’hypothalamus sera essentiel pour freiner cette pandémie silencieuse du XXIe siècle. Et c’est là, dans le cerveau, que se livre la bataille scientifique la plus prometteuse.
Rosalia Rodriguez Rodriguez reçoit des financements du ministère des sciences, de l'innovation et des universités, de l'AGAUR-Generalitat de Catalogne (PRODUCTE, INNOVADORS) et du Centre de recherche biomédicale en réseau-obésité (CIBER-Obn).
06.01.2026 à 11:59
Et si quelques minutes de méditation de pleine conscience pouvaient aider à réduire le stress ?
Texte intégral (1901 mots)
Une revue systématique de la littérature scientifique met en évidence les effets bénéfiques de temps courts de pleine conscience sur un marqueur physiologique du stress. Cela plaide pour une intégration de ce type de méditation dans la vie quotidienne.
Nous sommes toutes et tous confrontés au stress dans notre vie de tous les jours. Il est tout à fait normal de le ressentir. Il peut se définir comme un état de tension interne causé par une situation complexe, qui excède nos ressources cognitives, sociales ou affectives. L’important n’est pas tant le stress, mais plutôt la manière dont nous y réagissons.
La recherche souligne la nécessité de s’équiper d’outils issus de la psychologie pour nous apprendre à mieux gérer les situations perçues comme menaçantes dans l’objectif de réguler le stress.
La pleine conscience : un outil de régulation du stress ?
Parmi les techniques psychologiques, la pleine conscience a récemment connu un essor important. Bien que cette dernière soit considérée comme un concept « à la mode », elle dispose d’une longue histoire, qui aurait débuté il y a plus de 2 500 ans à travers la pensée bouddhiste. Cette pleine conscience, également connue sous le nom de mindfulness, est une technique de méditation attentionnelle simple qui consiste à porter délibérément son attention sur ce qui se passe ici et maintenant, sans jugement. Autrement dit, c’est être attentif au moment présent, sans se laisser contaminer par ses pensées !
La pleine conscience a pris un essor scientifique sous l’impulsion du professeur Jon Kabat-Zinn dans les années 1980. Le premier programme de pleine conscience ayant vu le jour est le Mindfulness-Based Stress Reduction (MBSR), qui signifie « programme de réduction du stress par la pleine conscience ». Depuis le début des années 1980, d’autres programmes de pleine conscience ont émergé. Ces derniers se sont adaptés aux caractéristiques de différents publics (personnes souffrant d’épisodes dépressifs, sportifs, etc.…).
Aujourd’hui, les bienfaits de ces programmes sur la réduction du stress sont bien établis. Cependant, un des freins à la pratique de la pleine conscience réside dans la durée et dans l’engagement requis. Par exemple, le MBSR nécessite un engagement sur huit semaines, comportant une pratique quotidienne individuelle de 45 minutes et une pratique hebdomadaire en groupe de 2,5 heures.
Bien qu’efficace pour réguler les intensités de stress, la durée de ces programmes ne semble pas s’adapter à nos rythmes de vie actuels. Compte tenu de leur dimension chronophage, certains chercheurs ont proposé des temps plus courts de pleine conscience.
Quelle efficacité des temps brefs de pleine conscience contre le stress
Un programme bref de pleine conscience se réalise sur quatre semaines et engendre une pratique inférieure à 1,6 heure (100 minutes, soit une heure et quarante minutes) par semaine. La durée de la séance ne doit pas excéder 30 minutes. Bref, nous sommes bien loin des temps proposés par les programmes plus classiques comme le MBSR… Si ces temps courts s’accordent davantage à nos contraintes temporelles, leurs bénéfices sur le stress restent mal connus.
Notre interrogation a donc été la suivante : est-ce que les temps brefs de pleine conscience pourraient réduire notre stress ?
Pour répondre à cette question, nous avons effectué une revue systématique de la littérature évaluant les effets des temps brefs de pleine conscience sur un marqueur physiologique du stress : la variabilité de la fréquence cardiaque (VFC). La VFC reflète l’activité du système nerveux autonome jouant un rôle crucial dans le maintien de notre équilibre.
Ce système nerveux autonome se divise en deux branches : le système nerveux sympathique (qui prédomine lors des situations stressantes) et le système nerveux parasympathique (qui prédomine lors des situations de repos). Une faible VFC est représentative d’une moindre capacité à gérer les situations stressantes, alors qu’une VFC plus élevée reflète une meilleure capacité à réguler les situations stressantes.
Les résultats de notre étude mettent en évidence que les temps courts de pleine conscience augmentent la VFC. Autrement dit, ces moments de pleine conscience parviennent à réduire notre niveau de stress.
À la vue de ces résultats, nous recommandons donc d’intégrer de brefs temps de pleine conscience dans notre quotidien pour minimiser les effets du stress et éviter que ce dernier consomme toutes nos ressources.
Un exemple pour débuter : la prise de conscience du souffle
Il existe de nombreuses manières d’introduire la pleine conscience dans notre quotidien. On distingue généralement deux types de pratiques : formelles et informelles.
Les pratiques formelles sont les plus connues. Elles consistent à s’arrêter et à se poser pour pratiquer un exercice de pleine conscience.
Par exemple, la prise de conscience du souffle est considérée comme l’exercice de référence pour s’initier à cette pratique. Il consiste à s’asseoir sur un coussin ou sur une chaise de manière digne et droite. Une fois la position correctement maintenue, il suffit de diriger intentionnellement son attention sur le souffle. L’objectif n’est pas ici de contrôler sa respiration, mais plutôt de l’observer sans chercher à la modifier.
Cet exercice peut paraître facile, mais généralement l’esprit a tendance à s’éloigner de l’exercice. C’est ce que l’on appelle le vagabondage de l’esprit. Cette errance est tout à fait normale. Elle fait partie de la nature même de l’exercice. Lorsque vous vous rendrez compte que votre esprit s’égare, la pratique de la pleine conscience vous invitera à ramener votre attention avec douceur et bienveillance vers le souffle et les sensations qui lui sont associées.Lorsque vous débuterez cet exercice, il est fort probable que vous rencontriez des difficultés à maintenir votre attention sur la respiration. Encore une fois, cela est ordinaire. À force de répéter cet exercice, vous éduquerez votre esprit à (r) amener son attention vers la respiration.
La prise de conscience du souffle n’est qu’un exemple, il existe de nombreuses autres formes de pratiques formelles (par exemple, le scan corporel qui consiste à observer les différentes sensations présentes dans notre corps).
Vous trouverez sur Internet de nombreuses vidéos et/ou audios faites par des professionnel·les qui vous permettront de pratiquer.
Un exemple d’exercice momentané (5 minutes) de prise de conscience du souffle, vous est proposé en cliquant ici ou sur le QR code ci-joint.
À noter le fait que certaines personnes ne sont pas « réceptives » à la pleine conscience. Lorsqu’ils débutent cette pratique, certains sujets peuvent également ressentir une légère angoisse quant aux faits de se poser et de centrer son attention sur sa respiration. Et dans le cadre de graves problèmes de santé mentale (dépression, anxiété…), la pleine conscience ne remplace pas une prise en charge par un professionnel de santé.
Pratiquer seul·e (ou pas), de manière formelle (ou non)
Pour débuter la pratique, on peut se faire accompagner – par une ou un médecin, psychologue, psychothérapeute, chercheur ou chercheuse, préparateur ou préparatrice mentale, etc. – mais qui doit avoir été formé à la pleine conscience dans le cadre d’un diplôme universitaire (DU), d’une formation courte qualifiante par exemple. Mais ce n’est pas une obligation. Étant donné que cette pratique s’avère très simple à mettre en œuvre, tout le monde peut l’intégrer de manière brève dans son quotidien. Des livres écrits par des professionnel·les peuvent également aider.
La pleine conscience peut aussi s’intégrer de manière informelle dans notre quotidien. En effet, il est possible de marcher, de courir ou encore de manger en pleine conscience… Dans ce type d’exercices, l’objectif est d’être pleinement attentif à ce que l’on est en train de faire. Par exemple, vous pouvez essayer une fois par semaine de manger sans écrans, en étant pleinement attentif aux sensations gustatives, olfactives ou visuelles de ce que vous mangez.
Que la pratique soit réalisée de manière formelle ou informelle, nous vous conseillons de débuter par des temps de trois à cinq minutes avant d’augmenter progressivement si vous le souhaitez !
Essayez, et vous verrez. Bonne pratique !
Cette revue systématique, et donc cet article de vulgarisation, s’intègre dans la thèse CIFRE 0331 co-financée par l’Institut des Rencontres de la FOrme (IRFO) et l’Association Nationale de la Recherche et de la Technologie (ANRT).
Annie Carton est membre du Racing Club Arras Athlétisme en tant qu'entraîneur, et vice-présidente de l'Office des Sports d'Arras en charge de la santé et du bien-être.
Jérémy Coquart a été le directeur d’Alexis Barbry, le doctorant financé.
05.01.2026 à 17:56
Vivre dans un logement trop froid : la réalité sociale de la précarité énergétique
Texte intégral (2229 mots)
La précarité énergétique est un fléau qui concerne de plus en plus de personnes du fait de la volatilité des prix de l’énergie. Elle a des répercussions sur la santé physique et mentale, sur la vie sociale et même sur la scolarité des enfants.
Alors que l’hiver s’installe, environ 3 millions de ménages en France sont de nouveau confrontés à une difficulté majeure : celle de la précarité énergétique.
Elle se matérialise par des privations, mais également par un sentiment de honte et une exclusion sociale qui en résultent. Ses effets peuvent être multiples, allant même jusqu’à augmenter l’absentéisme scolaire. Les conséquences sociales et sanitaires, longtemps sous-estimées, sont aujourd’hui mieux documentées par la recherche.
Ce que signifie « être en précarité énergétique » au quotidien
La définition française du phénomène est large : une personne est en précarité énergétique lorsqu’elle rencontre des difficultés à disposer, dans son logement, de l’énergie nécessaire pour répondre à ses besoins de base, du fait de faibles ressources ou de conditions de logement inadéquates. Cela signifie vivre dans un logement trop froid l’hiver, trop chaud l’été, souvent mal isolé, où l’on chauffe une seule pièce pour réduire la facture, où l’on évite d’allumer la lumière, où la présence de moisissures ou d’humidité peut devenir chronique. Ces conditions entraînent fréquemment des comportements de restriction d’énergie, c’est-à-dire consommer volontairement moins que ce qui serait nécessaire au confort ou à la santé. Parfois, cela signifie également passer sous le radar des politiques publiques, car les dépenses en énergie sont volontairement modérées.
Cette situation est d’autant plus fréquente que les prix de l’énergie sont volatiles ces dernières années. En 2018 déjà, 34 millions d’Européens déclaraient ne pas pouvoir chauffer correctement leur logement. Les tensions énergétiques depuis 2021 ont encore accentué ce phénomène : les ménages les plus modestes ont consacré une part croissante de leur budget à leurs factures, réduisant leurs marges de manœuvre.
Les conditions de logement jouent également un rôle central : mauvaise isolation, appareils de chauffage vétustes, infiltrations d’eau, ventilation insuffisante, autant de facteurs qui rendent impossible le maintien d’un confort minimal à un coût acceptable.
Qui sont les ménages les plus touchés ?
La recherche en économie identifie de manière cohérente trois déterminants de la précarité énergétique : bas revenus, mauvaise performance énergétique du logement et prix élevés de l’énergie. Mais au-delà de ce triptyque, les recherches récentes en la matière apportent des précisions essentielles.
En France sont particulièrement exposés :
les personnes âgées, davantage présentes dans des logements anciens, peu isolés, et disposant de faibles revenus ;
les ménages isolés, notamment les femmes seules ou les familles monoparentales, dont les dépenses fixes pèsent plus lourd dans le budget ;
les locataires du parc privé, souvent logés dans des habitats moins performants que le parc social qui est susceptible de bénéficier d’une meilleure qualité énergétique ;
les ménages vivant dans des logements anciens qui n’ont pas fait l’objet de rénovation et qui utilisent plus fréquemment du gaz ou du fioul et qui font donc face à un coût de l’énergie plus important.
Par ailleurs, les ménages « énergétiquement vulnérables », qui ne sont pas définis comme étant en précarité énergétique mais peuvent basculer en cas de choc (hausse de prix, panne d’équipement, baisse de revenu), sont souvent ignorés des politiques publiques, car mal identifiés. Ces ménages représentent un enjeu majeur pour les politiques publiques, car ils n’entrent pas dans les seuils traditionnels utilisés pour mesurer le phénomène.
Les effets de la précarité énergétique dépassent largement l’inconfort thermique. Ils touchent la santé, la vie sociale et les perspectives économiques.
Les impacts sur la santé physique
Un logement trop froid augmente les risques de maladies respiratoires et cardiovasculaires, aggrave les symptômes des personnes souffrant de maladies chroniques, comme l’arthrose ou la polyarthrite rhumatoïde, et favorise l’apparition de moisissures responsables d’allergies ou d’asthme. Être en précarité énergétique multiplierait par sept le risque de mauvaise santé pour les personnes déjà fragiles.
Les coûts associés pour la collectivité sont considérables : près d’un milliard d’euros de dépenses médicales directes en France, et plus de 20 milliards si l’on inclut les coûts indirects liés à la perte de productivité ou aux arrêts maladie.
Une dégradation marquée de la santé mentale
Un résultat central a été établi pendant la crise sanitaire du Covid-19 : la précarité énergétique a un effet causal fort et significatif sur la santé mentale, dégradant les scores d’anxiété, de dépression et de santé sociale. Être en situation de précarité énergétique aurait réduit en moyenne le score de santé mentale de 6,3 points sur 100 et augmenté le score de dépression de 5,35 points et celui d’anxiété de 6,48 points pendant cette période durant laquelle la majeure partie de la population française et européenne a été confinée à domicile à intervalles réguliers.
La situation était encore plus grave pour les personnes déjà fragilisées : pour le tiers le plus vulnérable de la population, l’effet négatif sur la santé mentale atteignait 20 points. L’utilisation des scores permet de quantifier les effets de la précarité énergétique : un score de santé de 100 indique la meilleure santé qui soit, tandis qu’un score de dépression de 100 indique le niveau le plus élevé de dépression.
Une spirale d’isolement et de honte
Plusieurs travaux sociologiques montrent également que les personnes vivant dans des logements froids ou dégradés évitent d’inviter des proches, se replient sur elles-mêmes, et peuvent éprouver un sentiment de honte ou d’échec. Les difficultés à payer les factures conduisent parfois à des coupures d’énergie ou au risque d’endettement, renforçant encore la vulnérabilité sociale.
La précarité énergétique devient ainsi un facteur d’exclusion, au même titre que la pauvreté monétaire, mais en partie invisible car liée à l’espace privé du logement.
Noel Longhurst et Tom Hargreaves, deux chercheurs en sciences de l’environnement, rapportent ainsi dans une de leur publication de 2019 les propos de Barbara, une trentenaire britannique qui souffre de précarité énergétique :
« Je ne reçois personne. Je ne reçois pas d’amis… Personne. Je ne pense pas avoir reçu d’amis depuis environ trois ans… Je n’aime pas la condensation, et c’est très important pour moi. C’est embarrassant. Je suis gênée quand je sors le matin et que je vois qu’on ne peut pas voir à travers les fenêtres. »
Des répercussions sur les trajectoires scolaires
La précarité énergétique affecte également la scolarité des enfants. Vivre dans un logement froid ou mal chauffé complique le travail scolaire à domicile, perturbe le sommeil et accroît la fatigue, avec des effets potentiels sur l’attention et l’apprentissage.
En France, le défenseur des droits souligne que ces conditions de vie dégradées portent atteinte au droit des enfants à un environnement propice aux études et peuvent peser sur leurs résultats scolaires. Ces constats rappellent que la précarité énergétique est aussi un enjeu éducatif et d’égalité des chances.
Un enjeu européen majeur, des réponses encore insuffisantes
Si la France a développé plusieurs outils (chèques énergie, aides à la rénovation, développement du parc social), la littérature montre que les politiques purement financières ont des effets limités, alors que les actions structurelles – rénovation thermique, construction de logements sociaux performants – ont un impact durable sur la réduction de la précarité énergétique.
À l’échelle européenne, la Commission a inscrit la lutte contre la précarité énergétique au cœur de la directive sur l’efficacité énergétique révisée adoptée en 2024. Mais les disparités restent fortes, et la crise énergétique a rappelé la nécessité d’une stratégie plus ambitieuse, combinant protection des ménages, transition énergétique et amélioration massive du parc résidentiel.
Bérangère Legendre a reçu des financements de la Chaire de l'Economie Environnementale (Fondation Université Savoie Mont Blanc).
Dorothée Charlier est membre de la SOLAR ACADEMY.
05.01.2026 à 17:51
La hausse du prix du carbone conduit-elle à supprimer des emplois ?
Texte intégral (1376 mots)

Une étude met en lumière le lien entre hausse du prix du carbone et suppressions d’emplois. Depuis 2017, une augmentation significative du prix des émissions est en cours, désormais 17 fois plus élevé en 2025 qu’en 2017. Si toutes les entreprises affichent leur mécontentement, elles n’adoptent pas les mêmes stratégies selon qu’elles sont cotées en bourse ou non. Avec pour principaux perdants, les cols bleus.
En 2017, le Conseil européen a introduit des réformes majeures dans le système européen d’échange de quotas d’émission, provoquant une forte hausse du prix du carbone. Le prix d’une tonne d’émissions équivalentes en CO2 a doublé, passant de 5,15 euros par tonne d’émissions le 1er janvier 2017 à 11,06 euros le 1er janvier 2018, puis à 22,23 euros le 1er janvier 2019.
L’objectif est clair : rendre la pollution plus coûteuse, afin d’inciter les entreprises à réduire leurs émissions. Mais cette hausse des coûts a eu un effet inattendu, certaines entreprises ont réagi en supprimant des emplois.
Dans notre étude, nous mettons en évidence un lien clair entre la hausse des prix du carbone et les suppressions d’emplois et les ventes d’actifs de production (machines, équipements) par les entreprises.
Alors, la transition climatique se fait-elle au prix de l’emploi ?
Voici quelques entreprises bien connues qui relèvent de ce système : Carrefour, Sanofi, TotalEnergies, Engie, etc.
Hausse du prix du carbone
L’un des outils politiques largement utilisés pour atteindre cet objectif est le système de plafonnement et d’échange, ou cap-and-trade system. L’exemple le plus marquant est le système d’échange de quotas d’émission de l’Union européenne (SEQE-UE), souvent considéré comme une référence.
Malgré sa réputation mondiale, le système d’échange de quotas d’émission de l’Union européenne a eu du mal pendant des années à fixer des prix significatifs pour le carbone. Au cours de sa phase initiale de 2005 à 2007, beaucoup de permis de pollution ont été distribués, ce qui a entraîné une faible demande et fait baisser les prix.
La période suivante de 2008 à 2012 a coïncidé avec la crise financière mondiale, qui a fortement réduit l’activité industrielle et, par conséquent, les besoins en quotas d’émission. Même si le plafond d’émissions a été réduit de 6,5 %, les prix sont restés obstinément bas. Pendant plus d’une décennie, le système n’a pas réussi à créer la pression financière nécessaire pour entraîner des réductions importantes des émissions.
En 2017, l’Union européenne a corrigé cette situation en réduisant l’offre de quotas (the cap) par 2,2 % annuelle. L’enjeu : doubler la canalisation des quotas vers une nouvelle réserve de stabilité du marché, ou Market Stability Reserve, jusqu’à 2023 et ajouter un mécanisme d’annulation pour supprimer définitivement les quotas inutilisés lors de la phase suivante. L’impact a été immédiat puisque le prix d’émission est passé d’un peu plus de 5 euros début 2017 à 11 euros un an plus tard, puis à environ 32 euros en 2020.
Les industriels du carburant vent debout
Cette intervention a suscité une opposition importante de la part des entreprises, des syndicats et des groupes d’intérêt industriels. Ils craignent que l’augmentation des coûts du carbone ne pousse la production et les emplois hors d’Europe. Par exemple FuelsEurope, qui représente l’industrie européenne des carburants, et les producteurs d’acier ont exprimé leurs préoccupations, avertissant que les coûts supplémentaires les rendraient moins compétitifs à l’échelle mondiale
Pourtant, il existe peu de preuves tangibles pour étayer ces affirmations. Les entreprises soumises au SEQE-UE sont 3,4 % plus susceptibles de réduire leurs effectifs que leurs homologues non soumises au SEQE-UE.
À lire aussi : Histoire des crédits carbone : vie et mort d'une fausse bonne idée ?
Distinction entre entreprises cotées et non cotées
Cette tendance est loin d’être uniforme. Les entreprises cotées en bourse ne réduisent pas leurs effectifs, tandis que les entreprises non cotées les diminuent de manière plus marquée, avec des baisses pouvant atteindre 3,5 % dans les entreprises les plus polluantes. Les petites entreprises cotées (en dessous de la moyenne de l’échantillon en termes d’actifs totaux) qui disposent d’une marge de manœuvre financière limitée réduisent également leurs effectifs, mais dans une moindre mesure que leurs homologues non cotées.
Qu’ajustent ces entreprises en réponse à la hausse des coûts liés au carbone ? Cherchent-elles à maintenir leur production à un niveau stable, mais avec moins de travailleurs et d’actifs ? Ou bien produisent-elles moins globalement, et ont donc besoin de moins de ressources ?
Nos conclusions révèlent une distinction nette. Les entreprises privées ont tendance à réduire leurs activités, en supprimant à la fois des emplois et des actifs, ce qui suggère une réduction délibérée de leur champ d’action global. En revanche, les petites entreprises cotées en bourse, qui disposent de peu de liquidités, réduisent principalement leurs effectifs, sans diminuer leur base d’actifs.
En d’autres termes, les entreprises privées non cotées réduisent leurs effectifs en faisant moins, tandis que les entreprises cotées en bourse réduisent leurs effectifs en essayant de faire la même chose avec moins de personnel.
Les cols bleus sont les plus touchés
Afin de mieux cerner les employés les plus touchés par ces changements, nous avons également examiné les conséquences de la flambée des prix du carbone dans le cadre du SEQE-UE en Belgique.
À partir de données administratives détaillées, nous avons constaté que l’impact est loin d’être réparti de manière uniforme. Les cols bleus, les hommes ayant un faible niveau d’éducation (généralement avec diplôme secondaire ou sans) sont les plus touchés. L’effet est particulièrement prononcé chez les personnes sous contrat à temps partiel.
Ces résultats ont des implications importantes pour les décideurs politiques qui pilotent la transition écologique en Europe. Bon nombre des nouveaux emplois verts créés exigent des employés hautement qualifiés. Ce décalage pourrait créer des déséquilibres sur le marché du travail, soulignant le besoin urgent de programmes de formation et de reconversion.
Jana Boeckx ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
05.01.2026 à 17:49
L’éducation est-elle une faiblesse quand la loi du plus fort s’impose ?
Texte intégral (1927 mots)

Face aux crises climatiques, économiques et sociales qui s’enchaînent et obscurcissent notre horizon, il convient d’éviter les réponses toutes faites et de réapprendre à problématiser le monde pour identifier les véritables défis.
C’est dans cet esprit que, dans Par-delà le brouillard… il n’y a pas de crise, le philosophe Laurent Bibard dialogue avec Thibault Lieurade, journaliste spécialisé en économie et en management, afin d’éclairer treize grands enjeux contemporains, du travail à l’intelligence artificielle, en passant par l’éthique et la sexualité. Dans le chapitre consacré à l’éducation, ils s’arrêtent sur l’importance de l’expérience concrète, le goût de l’effort et la pression de la compétition. Extraits.
Lorsque l’on voit la remise en cause de la science, l’essor des dogmatismes religieux, la loi du plus fort que cherche à imposer Vladimir Poutine au mépris du droit international, ou encore le fait que Donald Trump nomme au ministère de l’éducation l’ancienne patronne de la fédération de catch, on peut se poser la question : faut-il désormais privilégier la musculation aux études ? Avons-nous changé d’époque ?
En raison de notre mémoire biologique très pauvre, l’éducation restera toujours indispensable aux humains que nous sommes. Les enfants humains dépendent de leurs parents pendant des décennies, ce qui n’est absolument pas le cas des animaux. Cela signifie que la relation de dépendance verticale, classique, descendante est absolument constitutive de notre humanité. Pourtant, notre destin est bien de devenir des adultes, des personnes libres, responsables, capables de prendre des décisions, d’affronter l’incertitude avec les autres, et ce, d’égal à égal.
Cette relation parents-enfants qui nous conditionne cependant irréductiblement à l’origine pourrait s’appliquer de manière symbolique au domaine de la gestion, ou au monde politique. En effet, nous sommes faits d’une tension toujours présente au long de nos vies entre ces deux pôles contradictoires, ce qui explique les difficultés et les dérives possibles. N’oublions pas que l’origine du mot enfant, en latin, est infans, autrement dit celui qui n’a pas la parole, celui qui ne sait pas parler. À l’inverse, l’adulte, c’est quelqu’un qui sait prendre la parole, qui peut prendre la parole, qui ose prendre la parole. Lorsque la parole est libre, elle ouvre et signe un monde libre, où l’on parle, en dehors du seul règne de la force. Cela est inséparable de la notion de responsabilité, laquelle s’apprend et implique donc un besoin essentiel d’éducation. La responsabilité, c’est la capacité de répondre, et il n’y a pas de réponse sans question.
L’instruction fondamentale, c’est donc le langage. La deuxième chose que le parent se doit de laisser faire aux enfants pour qu’ils grandissent, ce sont des expériences. Bien sûr, il interdit les expériences qui seraient radicalement dangereuses, mais il permet le plus d’expériences possible au travers desquelles, même s’il échoue, l’enfant s’essaye, s’éprouve et, par là, grandit. Le parent tyrannique, volontairement ou maladroitement, en voulant surprotéger l’enfant, va l’empêcher de grandir, faute de le laisser faire ses expériences. Ainsi, le parent symbolique, tyrannique, le despote ou le tyran qui gouverne un pays par la force va empêcher la population de grandir, c’est-à-dire de prendre la parole au sens fort du terme, d’avoir « droit de cité ».
L’extrême inverse, c’est une politique de l’enfant qui se croit d’emblée adulte sans avoir besoin d’éducation. Les réseaux sociaux et Internet favorisent cela. Comme une information gigantesque est disponible, comme tout le contenu du monde est accessible par téléphone, par tablette, par ordinateur, émerge ce sentiment qu’il n’y a plus besoin d’éducation, de parents réels ou symboliques pour grandir. C’est dramatique, car ce qui manque dans ce cas-là, ce n’est pas le contenu informationnel, mais l’apprentissage du sens critique, le développement des capacités de réflexion, de prise de distance, de recul, d’interrogation.
Néanmoins, dans un monde où l’intelligence artificielle (IA) écrit, traduit, calcule ou encore dessine de manière parfois plus pertinente et, dans tous les cas, plus rapidement que l’humain, à quoi servent encore les écoles primaire et secondaire, les enseignements de langues (tout du moins à l’écrit) ou de maths ?
Effectivement, ces outils sont très pratiques. Mais ce qui est très pratique peut avoir pour conséquence de nous faire perdre toutes sortes de compétences parce que leur utilisation nous rend paresseux. Pour prendre un exemple : entre autres, j’enseigne beaucoup en formation continue, auprès de personnes très alertes qui ont des postes à hautes responsabilités dans des programmes appelés Executive MBA. Cela signifie que les participants ont des fonctions de cadres, déjà de très haut niveau, et qu’ils vont devenir directeurs à des niveaux encore plus importants. Je leur demande dans certains cours un rendu écrit sur la base du cours. Ils ont maintenant tendance à le faire de plus en plus rédiger par un logiciel et, en conséquence, ils ne s’investissent pas dans le texte et dans la réflexion, ou très peu. Ils perdent donc l’occasion d’approfondir qualitativement l’intensité réflexive dont ils sont pourtant capables. Quand on perd cela, c’est son âme que l’on perd.
Mais dans un monde où il faut aller vite, où il faut être productif, compétitif, n’est-on pas dès lors contraint de sacrifier son âme pour survivre, ne serait-ce qu’économiquement ?
C’est là un problème vieux comme le monde. L’auteur qui l’a le plus explicitement posé, c’est Machiavel. Il dit à peu près ceci : « On veut la paix, peut-être, mais si les autres innovent, en particulier dans le domaine des armes, on ne peut pas ne pas tout faire pour dépasser ceux qui veulent nous agresser en innovant. » On se trouve dans l’obligation, du fait de la concurrence, de jouer le jeu. Nous devrions malgré tout sans cesse nous poser la question de savoir à quoi ça sert, vers où cela nous mène. Nous sommes ainsi dans un gâchis gigantesque à cause du problème de la compétition. La compétition, c’est toujours du court-termisme auquel on est bien obligé de souscrire parce qu’on a besoin de préserver nos existences. Mais si nous ne faisons que cela, le monde court à sa perte. Et nous le savons bien.
À lire aussi : La société du concours : entre admis et recalés, quelques points d’écart, mais des conséquences pour toute une vie
Nous sommes actuellement dans un contexte où la nouvelle présidence américaine rejette complètement la question du climat en aggravant de manière dramatique la compétition au travers des énergies fossiles et de tout ce qu’il faut tenter de quitter. À long terme, de telles positions nous conduisent effectivement à notre perte. La même réflexion s’impose sur l’IA : le volume de matières premières qu’utilisent les machines pour fonctionner, ou encore les « petites mains » des plates-formes, posent des questions environnementales et sociales considérables que la fascination pour l’IA masque.
Quand nous considérons ces questions, cela nous oblige, de nouveau, à prendre du recul. Mon point n’est pas de dire qu’il ne faut pas le faire, mais qu’il faut se demander constamment à quoi sert ce que l’on fait et jusqu’où le faire. Donc, arbitrer pour le meilleur.
L’essor de l’IA permet aussi, pour un certain nombre de tâches, de réduire considérablement l’effort. En quoi faut-il veiller à ce point, à savoir ne pas perdre un certain goût de l’effort ? Comment transmettre désormais aux plus jeunes ce goût de l’effort ? Faut-il davantage insister sur le plaisir de faire ?
C’est capital. J’en reviens au court-termisme : on est dans un monde qui donne l’illusion de pouvoir avoir tout, tout le temps et tout de suite, et que c’est bien ainsi. Les plus jeunes peuvent ainsi croire que l’on peut être adulte sans avoir besoin d’éducation, être d’emblée quelqu’un de capable. Bien évidemment, c’est faux. Être capable, cela s’apprend. C’est pénible, c’est dangereux. Comme on l’a déjà vu, le mot péril est indissociable de la notion d’expérience. On ne construit pas sa personnalité sans danger et sans aller à des choses qui ne sont pas évidentes ni spontanément agréables.
Dans la clinique taoïste, manger et penser, donc savourer et savoir, c’est la même chose. D’ailleurs, l’étymologie de savoir le dit : la saveur et le savoir, c’est la même chose. On en a déjà parlé : quand on donne à un enfant à manger quelque chose, l’enfant peut avoir une répugnance a priori. La tâche du parent est, tant que l’enfant n’a pas goûté, de lui dire qu’il ne peut pas savoir s’il aime ou s’il n’aime pas – donc de l’obliger à goûter, pour se faire vraiment une idée, comme on dit. C’est l’équivalent de l’effort. On peut caricaturer un peu – mais pas tant que cela : quand on n’a pas envie de faire d’effort pour l’alimentation, on souscrit à McDo et l’enfant est obèse à vingt ans… L’éducation du goût donne le goût de l’éducation.
Laurent Bibard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
05.01.2026 à 17:48
Comment les États autoritaires orientent les débats pour saper nos démocraties
Texte intégral (1429 mots)
Au-delà des « fake news » les États autoritaires utilisent une stratégie subtile pour discréditer les démocraties en manipulant l’information et les débats. Les réseaux sociaux et les médias en ligne sont utilisés pour exagérer les difficultés de nos régimes, pour nourrir la colère et pour imposer un récit alternatif.
Lorsque nous parlons de désinformation – la diffusion intentionnelle d’informations trompeuses – nous imaginons généralement des mensonges flagrants et des fake news propagés par des gouvernements étrangers. Parfois, l’objectif est d’influencer les électeurs lors d’élections, parfois de semer la confusion en période de crise.
Mais il s’agit là d’une vision grossière de la réalité. En fait, des pays autoritaires, tels que la Russie et, de plus en plus, la Chine, sont engagés dans des projets plus ambitieux visant à déformer la réalité politique. Ces pays cherchent à saper l’image des démocraties occidentales, tout en se présentant – eux-mêmes et leurs partenaires autoritaires – comme des modèles à suivre.
La construction de cette réalité politique inclut l’usage de mensonges flagrants, mais le récit repose le plus souvent sur une manipulation de l’information bien plus insidieuse. Les faits positifs sont mis en avant de manière disproportionnée, tandis que ceux qui dérangent sont ignorés ou sortis de leur contexte, afin qu’ils paraissent davantage conformes aux objectifs du narrateur.
Le Kremlin utilise depuis longtemps des médias financés par l’État, des médias relais ou des bots pour diffuser un flux constant de récits – articles de presse, tweets, vidéos ou publications sur les réseaux sociaux – conçus pour attiser les clivages politiques dans les sociétés démocratiques. Des rapports montrent que ces récits peuvent atteindre des publics bien au-delà de leurs plates-formes russes d’origine. Ils sont répétés, sans le savoir (ou parfois en toute connaissance de cause), par des médias locaux ou nationaux, des commentateurs ou des internautes.
Un motif récurrent consiste à présenter les sociétés démocratiques sous le jour le plus obscur possible. Il s’agit d’exagérer la criminalité, la corruption et le désordre social, de mettre en avant des protestations publiques, la stagnation économique ou l’instabilité gouvernementale. Le message sous-jacent est que la démocratie ne fonctionne pas et mène au chaos.
Certains récits visent à discréditer les valeurs progressistes des sociétés occidentales. Elles tournent en dérision les évolutions sociales progressistes comme les droits des personnes LGBTQIA+ ou le multiculturalisme, en les présentant comme absurdes ou ridicules.
D’autres s’appuient sur des problématiques bien réelles, mais les cadrent de manière à amplifier les sentiments de discrimination et de victimisation. Dans les États baltes, par exemple, les médias russes mettent fréquemment en avant les persécutions supposées des russophones, en suggérant qu’ils sont traités comme des citoyens de seconde zone, tout en ignorant d’autres points de vue.
Si l’on observe la « manosphère » en ligne – en pleine expansion – ce mécanisme est bien à l’œuvre, avec des messages qui renforcent un sentiment collectif de victimisation des hommes, et qui visent à alimenter les tensions et la défiance.
Une alternative autoritaire
Ces types de récits, qui présentent les sociétés occidentales comme dysfonctionnelles, sont utilisés depuis longtemps par le Kremlin pour nuire à l’image de la démocratie. Cependant, on observe de plus en plus la collaboration de la Russie et de la Chine dans l’espace médiatique mondial en ligne afin de présenter conjointement le monde autoritaire comme une alternative stable fondée sur des principes solides.
Ainsi, la Russie comme la Chine critiquent « l’ordre international » fondé sur des règles libérales et des normes politiques qui a émergé après la Seconde Guerre mondiale. Elles considèrent cet ordre comme occidentalocentré et souhaitent remodeler l’ordre mondial à leur avantage.
La coopération militaire et économique fait partie de leurs efforts pour remettre en cause cet ordre, mais les médias et les espaces numériques jouent également un rôle important. Les deux États, par exemple, diffusent fréquemment des récits qui présentent les pays occidentaux comme des puissances néocoloniales.
Un autre thème récurrent est celui de démocraties dépeintes comme des acteurs hypocrites, prêchant l’égalité et l’équité sans les mettre en pratique. Les récits évoquant le manque d’unité au sein des alliances occidentales telles que l’OTAN ou l’Union européenne (UE) sont également constants dans les narrations russes et chinoises. À l’inverse, la Russie et la Chine sont présentées comme des pays rationnels et raisonnables, cherchant à protéger d’autres nations, plus vulnérables, de l’exploitation occidentale.
Pourquoi ces récits sont-ils efficaces ?
Ces récits semblent trouver un écho particulier auprès des publics des pays en développement. Cela s’explique souvent par le fait qu’ils contiennent un noyau de vérité. Les narrateurs de ces récits peuvent s’appuyer sur des problèmes réels, tels que les inégalités, les erreurs de politique étrangère ou les doubles standards. Incontestablement, de nombreux pays occidentaux sont confrontés à des tensions liées au coût de la vie et la politique étrangère n’est pas toujours cohérente. Les souvenirs du passé colonial rendent les accusations de néocolonialisme crédibles.
C’est souvent la manière dont une histoire est racontée qui induit en erreur. Des détails sont omis ou sortis de leur contexte. Des informations spéculatives sont présentées comme des faits. Il s’agit de créer une version déformée de la vérité.
Les récits sont souvent façonnés pour déclencher colère, choc, peur ou ressentiment. Par exemple, dans le contexte de la guerre en Ukraine, la désinformation peut suggérer que nos gouvernements nous trahissent en s’impliquant dans des guerres étrangères, ou que les citoyens ordinaires paient le prix des ambitions d’une élite corrompue.
Ces récits sont nourris de sensationnalisme, faisant l’impasse sur la nuance au profit de l’impact émotionnel. Cela assure leur amplification sur les réseaux sociaux.
La vérité peut être complexe et, parfois, ennuyeuse. En exploitant notre attirance pour le sensationnel, la Russie et la Chine peuvent progressivement distiller une image où la démocratie est dépeinte comme inefficace et chaotique, et où elles-mêmes incarnent une perspective d’avenir plus juste et plus fonctionnelle.
Finalement, la désinformation contemporaine relève moins du mensonge pur et simple que d’une construction subtile de vision du monde. Avec le temps, cette transformation silencieuse peut aller bien au-delà de l’impact d’une simple fake news, et nous amener à douter de la démocratie elle-même.
Aiden Hoyle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
05.01.2026 à 17:47
Ménopause et prise de poids : des mesures précoces pour accompagner les changements hormonaux
Texte intégral (2341 mots)

La plupart des femmes s’attendent à ce que la lutte contre le poids commence après la ménopause. Mais certaines recherches suggèrent que le véritable basculement métabolique survient des années plus tôt. Savoir reconnaître quand il se produit permet d’intervenir pour accompagner ces changements au mieux.
Vous êtes entrée dans la quarantaine en continuant à suivre la même routine que les années précédentes : manger sainement et faire de l’exercice régulièrement. Pourtant, ces derniers temps, à chaque fois que vous montez sur la balance, celle-ci semble insidieusement afficher un chiffre de plus en plus élevé. Vous avez peut-être également remarqué que vos vêtements tombent différemment ou que votre tour de taille semble s’être élargi, comme qui dirait « du jour au lendemain »…
Vous revient alors en mémoire la frustration qu’exprimait votre mère à propos des éternels régimes, de la nécessité de faire plus de cardio, ou au sujet de la « prise de poids liée à la ménopause ». Pourtant, vous êtes toujours réglée, et la ménopause ne devrait pas s’annoncer avant au moins cinq ans. Mais alors, qu’êtes-vous en train de vivre ?
En tant que médecin généraliste spécialisée dans la prise en charge des questions de poids et qu’endocrinologue, spécialisée en médecine de l’obésité, nous sommes régulièrement confrontées à des histoires de ce type : des femmes qui « font tout comme il faut » ont soudain l’impression que leur corps se retourne contre elles.
Si le mode de vie est bien évidemment important, il faut comprendre que, dans ce contexte, la cause profonde de la situation n’est pas due à un manque de volonté. L’origine de ces changements est à chercher du côté de la physiologie.
Au cours de la transition vers la ménopause, qui dure plusieurs années, le traitement des glucides devient moins efficace, tandis que le métabolisme de repos ralentit. Cette conjonction de facteurs peut favoriser la prise de poids – en particulier au niveau du ventre – même si les habitudes ont peu changé.
Toutefois, la prise de poids au cours de la transition ménopausique n’est pas nécessairement inévitable.
Un basculement silencieux avant la ménopause
Le diagnostic de la ménopause est posé lorsqu’une absence de règles est constatée depuis douze mois, chez une femme âgée de 45 à 55 ans. Cependant, certains des processus physiologiques qui aboutiront à la ménopause débutent bien avant celle-ci. La transition hormonale, due à des modifications de la signalisation entre le cerveau et les ovaires, commence des années plus tôt, lors d’une phase appelée périménopause. C’est à ce moment que les taux d’œstrogènes et de progestérone commencent à fluctuer de manière imprévisible.
Ces variations hormonales se répercutent sur presque tous les systèmes métaboliques. En effet, les œstrogènes contribuent à réguler la répartition des graisses, la réparation musculaire et la sensibilité à l’insuline. Lorsque leurs niveaux oscillent fortement, l’organisme commence à stocker la graisse différemment : celle-ci est déplacée des hanches et des cuisses vers l’abdomen. La synthèse des protéines musculaires ralentit également.
Le résultat est une perte musculaire progressive et une augmentation de la résistance à l’insuline, même lorsque le mode de vie n’a pas changé. Parallèlement, ces changements hormonaux peuvent perturber le sommeil, influer sur les niveaux de cortisol et modifier l’appétit.
Or, au moment même où ces changements physiologiques s’intensifient, les contraintes sociales – prise en charge de proches, responsabilités professionnelles et familiales – s’accroissent souvent, ce qui laisse moins de temps pour s’occuper de soi, se reposer ou pratiquer une activité physique.
À cette période de l’existence, ce qui frappe le plus les femmes n’est pas tant le chiffre affiché par la balance que l’évolution de leur corps. En effet, même si le poids reste stable, de nombreuses femmes perdent du muscle et gagnent de la graisse abdominale. Cette graisse profonde, qui entoure des organes vitaux, est associée à l’inflammation ainsi qu’à un risque accru de diabète de type 2, de maladies cardiovasculaires, de maladies du foie et de troubles du sommeil.
Pourquoi la périménopause est une fenêtre d’opportunité
Depuis 1994, une étude intitulée Study of Women’s Health Across the Nation suit des femmes issues de milieux variés vivant dans plusieurs régions des États-Unis, afin d’étudier les changements physiologiques qui surviennent à l’âge mûr. L’une des principales observations de ces travaux est que c’est au cours de la périménopause, soit bien avant l’arrêt des règles, que la masse grasse commence à augmenter tandis que la masse maigre entame sa diminution.
Or, une fois que cette redistribution accélérée se stabilise, au cours de la ménopause, son inversion s’avère beaucoup plus difficile, même si elle n’est pas impossible.
Pour cette raison, la périménopause devrait être considérée comme une « fenêtre d’opportunité métabolique ». À cette époque de la vie, le corps demeure adaptable ; il répond à la musculation, à une alimentation de qualité, et à la mise en place de meilleures routines de sommeil. En adoptant des stratégies appropriées à cette période, les femmes peuvent atténuer les effets des changements hormonaux, et se préparer à une transition plus saine au cours de la ménopause et au-delà.
Malheureusement, la plupart des approches proposées pour faire face à la transition ménopausique sont réactives : les symptômes – tels que les bouffées de chaleur ou les troubles du sommeil – ne sont pris en charge qu’après leur apparition. Rares sont les femmes à qui l’on a expliqué que la réduction du risque métabolique associé à la ménopause commence en réalité des années avant cette dernière, durant la périménopause, cette phase discrète mais décisive de leur vie.
Ce que la plupart des femmes ignorent
Pour les femmes dans la quarantaine, le conseil habituel « Mangez moins, bougez plus » passe à côté de l’essentiel, car il simplifie à l’excès la biologie, ignorant le contexte hormonal.
Ainsi, en matière d’activité physique, le cardio seul ne suffit pas à gérer correctement son poids et à atteindre un optimum en matière de santé métabolique. Trop souvent négligée, la musculation (associée à un apport protéique adéquat) devient à cet âge indispensable pour préserver sa masse maigre et maintenir la sensibilité à l’insuline.
Le sommeil et la régulation du stress sont tout aussi essentiels. Les fluctuations d’œstrogènes peuvent en effet perturber les rythmes du cortisol, ce qui se traduit par de la fatigue, des réveils nocturnes et des « fringales ». Privilégier des pratiques améliorant l’hygiène du sommeil – limiter les écrans avant le coucher, s’exposer à la lumière du matin, éviter de manger tard le soir et faire de l’exercice plus tôt dans la journée – aide à réguler ces rythmes hormonaux.
Comprendre pourquoi ces habitudes sont importantes permet de fournir un contexte essentiel pour élaborer des stratégies d’ajustement durables, compatibles avec le mode de vie de chacune.
Comment agir tôt ?
La trentaine et la quarantaine ne doivent pas être vues comme un compte à rebours vers le déclin. Elles doivent plutôt être perçues comme des périodes propices à la construction de sa résilience métabolique. En conjuguant prise de conscience, stratégies basées sur des preuves scientifiques et soins « proactifs », les femmes peuvent traverser la périménopause et la ménopause avec confiance et force. Voici quelques pistes pour commencer :
Soulevez des poids. Fixez-vous comme objectif deux à trois séances de renforcement ou de musculation par semaine, afin de préserver votre masse musculaire et de stimuler votre métabolisme. Travaillez selon le principe de surcharge progressive, c’est-à-dire en augmentant graduellement la contrainte imposée à vos muscles.
Priorisez les protéines. Veillez à intégrer à chaque repas un apport protéique suffisant, pour supporter vos muscles, augmenter votre satiété et stabiliser votre glycémie. Des résultats de plus en plus nombreux semblent indiquer que le besoin protéique est plus élevé que celui figurant dans les recommandations actuelles d’apports journaliers. Visez plutôt 0,55 à 0,73 gramme de protéines par livre de poids corporel (soit 1,2 à 1,6 gramme de protéines par kilogramme) par jour, afin de réduire le risque de perte musculaire liée à l’âge.
Dormez « plus intelligemment ». L’hygiène du sommeil et la gestion du stress aident à réguler le cortisol et les hormones de l’appétit. Essayez de vous ménager chaque nuit sept à huit heures d’un sommeil de qualité.
Posez des questions à vos médecins. Lors des bilans annuels, ne vous contentez pas d’aborder uniquement la question du poids : discutez aussi avec votre médecin de votre composition corporelle et de votre santé métabolique. N’hésitez pas à anticiper, et à aborder également les bénéfices et les risques des traitements hormonaux de la ménopause.
Durant la quarantaine, votre métabolisme n’est pas « cassé » ; il s’adapte à une nouvelle étape de votre vie. Une fois que ceci est bien compris, il devient possible de travailler avec son corps, plutôt que contre lui.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
05.01.2026 à 15:44
Une nouvelle étude met en lumière le rôle du climat dans la disparition de l’homme de Florès
Texte intégral (1982 mots)

L’analyse de stalagmites et de fossiles d’éléphants pygmées révèle comment le climat et la présence d’eau douce ont façonné la vie et la survie de l’homme de Florès.
Il y a environ 50 000 ans, l’humanité a perdu l’un de ses derniers cousins hominines survivants, Homo floresiensis (ou homme de Florès, également connu sous le nom de « Hobbit » en raison de sa petite taille). La cause de sa disparition, après plus d’un million d’années passées sur l’île volcanique isolée de Florès, en Indonésie, demeure une énigme de longue date.
De nouvelles preuves suggèrent toutefois qu’une période de sécheresse extrême, commencée il y a environ 61 000 ans, pourrait avoir contribué à la disparition des hommes de Florès. Notre nouvelle étude, publiée le 8 décembre dans Communications Earth & Environment, révèle une histoire d’essor et d’effondrement écologique. Nous avons établi le relevé climatique le plus détaillé à ce jour du site où vivaient autrefois ces anciens hominines.
Une île aux grottes profondes
La découverte d’Homo floresiensis en 2003 a bouleversé notre conception de ce qui fait de nous des êtres humains. Ces hominines de petite taille et au cerveau réduit, qui ne mesuraient que 1,1 m, fabriquaient des outils en pierre. Contre toute attente, ils ont atteint l’île de Florès, apparemment sans disposer de technologie maritime.
Les ossements et outils en pierre d’H. floresiensis ont été retrouvés dans la grotte de Liang Bua, dissimulée dans une petite vallée des hauteurs de l’île. Ces vestiges datent d’une période comprise entre 190 000 et 50 000 ans.
Aujourd’hui, Florès connaît un climat de mousson, avec de fortes pluies pendant les étés humides (principalement de novembre à mars) et des précipitations plus légères durant les hivers plus secs (de mai à septembre). Cependant, durant la dernière période glaciaire, la quantité de pluie et le moment où elle tombait variaient considérablement.
Pour comprendre à quoi ressemblaient ces pluies, notre équipe s’est tournée vers une grotte située à 700 mètres en amont de Liang Bua, appelée Liang Luar. Par pur hasard, au fond de cette grotte se trouvait une stalagmite qui s’est formée précisément pendant la période correspondant à la disparition d’H. floresiensis. En grandissant couche après couche grâce à l’eau qui goutte du plafond, sa composition chimique variable enregistre l’histoire d’un climat en mutation.
Les paléoclimatologues disposent de deux principaux outils géochimiques pour reconstituer à partir des stalagmites les précipitations passées. En observant une mesure spécifique de l’oxygène, appelée δ18O, ils peuvent identifier les variations d’intensité de la mousson. Parallèlement, le rapport entre le magnésium et le calcium permet d’estimer la quantité totale de précipitations.
Nous avons combiné ces deux types de mesures sur les mêmes échantillons, les avons précisément datés, puis avons reconstitué les niveaux de précipitations estivales, hivernales et annuelles. L’ensemble offre un aperçu inédit de la variabilité saisonnière du climat.
Nous avons identifié trois grandes phases climatiques. Entre 91 000 et 76 000 ans, le climat était plus humide qu’aujourd’hui tout au long de l’année. De 76 000 à 61 000 ans, la mousson est devenue très nettement saisonnière, avec des étés plus pluvieux et des hivers plus secs. Enfin, entre 61 000 et 47 000 ans, le climat s’est considérablement asséché durant l’été, à l’image de celui que connaît aujourd’hui le sud du Queensland en Australie.
Les « Hobbits » suivaient leurs proies
Nous disposions donc d’un relevé précis des grands changements climatiques, mais restait à savoir quelle en avait été la réponse écologique, s’il y en avait eu une. Il nous fallait établir une chronologie précise des fossiles d’H. floresiensis retrouvés à Liang Bua.
La solution est venue de manière inattendue grâce à notre analyse du δ18O contenu dans l’émail des dents fossilisées de Stegodon florensis insularis, un lointain parent pygmée disparu des éléphants modernes. Ces jeunes éléphants pygmées figuraient parmi les proies préférées des « Hobbits », comme le montrent les traces de découpe sur les os retrouvés à Liang Bua.
Fait remarquable, les variations du δ18O observées dans la stalagmite de Liang Luar correspondaient parfaitement à celles relevées dans les dents provenant de couches sédimentaires de plus en plus profondes à Liang Bua. Cette concordance nous a permis de dater avec précision les fossiles de Stegodon ainsi que les restes associés d’Homo floresiensis.
La chronologie ainsi affinée montre qu’environ 90 % des restes d’éléphants pygmées datent de la période comprise entre 76 000 et 61 000 ans, soit une période au climat fortement saisonnier, ni trop humide ni trop sec – une sorte de climat idéal. Ce contexte semble avoir offert des conditions favorables au pâturage des éléphants pygmées et à leur chasse par Homo floresiensis. Mais les deux espèces ont presque disparu lorsque le climat est devenu plus sec.
Le recul des précipitations, des éléphants pygmées et des « Hobbits » au même moment indique que la raréfaction des ressources a joué un rôle crucial dans ce qui ressemble à un abandon progressif de Liang Bua.
Avec l’assèchement du climat, la principale source d’eau en saison sèche, le petit fleuve Wae Racang, a peut-être diminué au point de ne plus suffire, privant les Stegodon d’eau douce. Les animaux ont alors pu migrer hors de la région, Homo floresiensis les suivant.
Un volcan impliqué ?
Les derniers restes fossiles de Stegodon et les outils en pierre de Liang Bua sont recouverts d’une épaisse couche de cendres volcaniques, datée d’environ 50 000 ans. On ne sait pas encore si une éruption volcanique à proximité a constitué « la goutte d’eau » dans le déclin des hommes de Florès de Liang Bua.
Les premières traces archéologiques attribuées à Homo sapiens se trouvent au-dessus de cette couche de cendres. Même s’il est impossible de savoir si Homo sapiens et Homo floresiensis se sont croisés, de nouvelles preuves archéologiques et génétiques indiquent que les Homo sapiens parcouraient déjà l’Indonésie, sautant d’île en île jusqu’au supercontinent de Sahul, il y a au moins 60 000 ans.
Si Homo floresiensis a été contraint par des pressions écologiques de quitter leur refuge pour se rapprocher de la côte, il est possible qu’ils aient croisé la route des humains modernes. Et si tel était le cas, la concurrence, les maladies, voire la prédation, auraient pu devenir des facteurs déterminants.
Quelle que soit la cause ultime, notre étude fournit un cadre pour de futures recherches sur l’extinction de l’emblématique Homo floresiensis dans le contexte de grands changements climatiques. Le rôle fondamental de la disponibilité en eau douce dans le déclin de l’un de nos cousins humains rappelle que l’histoire de l’humanité est une expérience fragile de survie, et que les variations des précipitations peuvent avoir des conséquences profondes.
Nick Scroxton a reçu des financements de de la Sustainable Energy Authority of Ireland et a réalisé ce travail tout en bénéficiant d’un financement de l’Australian Research Council.
Gerrit van den Bergh a reçu des financements de l’Australian Research Council.
Michael Gagan a reçu des financements de l’Australian Research Council.
Mika Rizki Puspaningrum ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
05.01.2026 à 15:38
Pourquoi faisait-on l’amour à plusieurs dans l’Antiquité ?
Texte intégral (3377 mots)

On trouve dans la Bible et chez les auteurs grecs et latins de l’Antiquité divers exemples de relations sexuelles impliquant plusieurs partenaires, qu’il s’agisse de « trouples », comme on dit aujourd’hui, ou d’orgies sexuelles. Pourquoi faisait-on l’amour à plusieurs dans l’Antiquité ?
Les premiers « trouples » apparaissent dans la Bible. Le patriarche Jacob a épousé deux sœurs : Léa l’aînée et Rachel la cadette. Or Rachel n’arrive pas à avoir d’enfants de son mari ; elle est jalouse de Léa qui a, elle, réussi à mettre au monde quatre fils. C’est alors que lui vient une idée : « Voici ma servante Bilha, dit-elle à Jacob, va vers elle, et qu’elle enfante sur mes genoux ; d’elle j’aurai moi aussi, un fils » (Genèse 30, 3).
Rachel propose donc à son mari une relation sexuelle à trois. Bilha est installée sur les genoux de sa maîtresse. Elle lui prête, pourrait-on dire, son vagin, Rachel se dédoublant en quelque sorte.
L’astuce fonctionne parfaitement, puisque, neuf mois plus tard, Bilha met au monde un fils que s’approprie aussitôt Rachel. Puis, espérant désormais rattraper son retard sur Léa, Rachel incite Jacob à une nouvelle union à trois. Nouveau succès : Rachel-Bilha accouche d’un second garçon.
C’est alors que Léa se met à craindre de perdre son avance sur sa sœur et rivale. Imitant Rachel, elle livre elle aussi à Jacob le vagin de sa servante, une dénommée Zilpa, qu’elle installe sur ses genoux, offrant à son époux deux vagins à pénétrer.
Le patriarche n’y voit rien à redire : il s’exécute volontiers, acceptant cette nouvelle manière de procréer. Par l’entremise de Zilpa, Léa donne encore deux fils à Jacob. « Quel bonheur pour moi ! », s’écrie-t-elle.
Au-delà de la signification sociale de cette histoire, on soupçonne que le rédacteur se soit aussi fait plaisir, en exposant cette totale domination patriarcale de Jacob sur ses femmes dont les désirs de maternité et la rivalité ne font qu’aggraver la soumission. Le comble étant que ce n’est même pas lui, mais ses épouses qui le poussent à faire l’amour avec les deux servantes. Et pour la bonne cause ! Car, si le patriarche multiplie ses relations sexuelles, ce n’est pas pour son plaisir personnel, mais afin d’accroître sa descendance, tout en satisfaisant les désirs de gloire maternelle des deux rivales vaniteuses…
Absalom et la partouze politique
La Bible nous offre aussi un exemple de partouze dont la signification est avant tout politique. Le prince Absalom, fils du roi David, se révolte contre son père et prend le pouvoir à Jérusalem. C’est alors que, sur les conseils d’un de ses proches, il décide de faire l’amour avec dix concubines du harem paternel. L’usurpateur pense ainsi affirmer sa virilité, tout en galvanisant ses partisans.
Il fait installer, sur la terrasse du palais royal, une tente dans laquelle il possède les dix femmes qu’il a réunies, non à la vue mais au su de tous. Le peuple spectateur, à défaut de contempler les ébats du souverain, en perçoit seulement les râles, tandis que la toile de la tente qui les couvre en répercute les secousses. Cette spectaculaire prise de possession des concubines royales était censée légitimer le pouvoir du successeur qui se plaçait, phalliquement parlant, dans le sillage de son père (2 Samuel 20, 3).
Plaisirs masculins dans des sociétés patriarcales
Dans la Grèce antique, les unions à plusieurs ont d’abord pour fin d’assurer le plaisir d’hommes en position dominante. Aux VIe ou Ve siècles avant notre ère, les riches citoyens grecs, à Athènes ou à Corinthe, organisent des partouzes où ils convoquent des courtisanes de luxe, appelées hétaïres, chargées de les divertir par leurs chants, leurs danses ou leurs prestations sexuelles. Au cours de ces soirées, les convives pénètrent parfois à plusieurs les mêmes prostituées, comme le montre certaines peintures pornographiques sur des céramiques.
À lire aussi : Les Grecs et les Romains aimaient-ils vraiment les orgies ?
Les Grecs ne se cachent pas dès lors que leurs pratiques sexuelles sont reconnues comme valorisantes pour eux. Leur phallus est à l’honneur, pénétrant la bouche ou l’anus des prostituées. Les hommes libres doivent, en effet, toujours se trouver dans une position sexuelle vue comme supérieure : ils sont des individus « jouissant » grâce aux corps qu’ils exploitent.
Certaines prostituées de luxe pouvaient être louées par plusieurs hommes en même temps. La « colocation » permettait de réduire le coût de la prestation de la jeune fille, partagé entre ses clients, mais aussi à des amis d’en jouir en même temps au cours d’un moment considéré comme convivial et festif.
Une hypersexualité féminine condamnée
Les textes antiques évoquent aussi des plaisirs féminins. Aphrodite, Vénus pour les Romains, est décrite comme une véritable déesse libérée des carcans de la société patriarcale. Elle choisit elle-même ses amants, que ce soit parmi les dieux ou les hommes. Son époux, le dieu Héphaïstos est vu comme ridicule et impuissant.
Cependant, seule cette grande déesse bénéficie du droit de coucher avec qui elle veut, en tant que divinité de l’amour et de la beauté. Les femmes humaines ne partagent pas ce privilège divin.
Ainsi, la reine d’Égypte Cléopâtre est conspuée par les écrivains romains, car elle aurait entretenu des relations sexuelles avec de nombreux amants. Insatiable figure de l’hypersexuelle, elle aurait même couché, dit-on, avec ses propres esclaves. Un comble aux yeux de la société patriarcale romaine.
Au Ier siècle de notre ère, l’impératrice romaine Messaline est elle aussi condamnée puis assassinée par son époux, l’empereur Claude, en raison de ses infidélités. Pline l’Ancien raconte qu’elle faisait l’amour avec 25 amants par jour et organisait des orgies sexuelles au palais impérial (Pline l’Ancien, Histoire naturelle X, 83).
Elle serait aussi allée se prostituer la nuit dans des bordels de Rome, uniquement pour le plaisir.
À lire aussi : Depuis quand la vulve est-elle obscène ?
En fait, Cléopâtre et Messaline incarnent la peur de la société phallocratique romaine face à l’hypersexualité féminine, vue comme une monstruosité. L’idéal pour les Romains est qu’une femme ne connaisse qu’un seul homme à la fois : son époux. Dite univira en latin, elle est considérée comme l’épouse parfaite.
La fidélité, une qualité féminine
Dans l’Antiquité gréco-romaine, la fidélité sexuelle ou amoureuse est uniquement conçue comme une qualité féminine. Le héros grec Ulysse nous en offre un bel exemple dans l’Odyssée, d’Homère : au cours de son périple en Méditerranée, il a des relations avec plusieurs amantes, comme Circé ou Calypso, tandis que son épouse Pénélope l’attend sagement dans sa demeure d’Ithaque où elle repousse scrupuleusement tous ses prétendants.
La fidélité conjugale s’inscrit logiquement dans le prolongement de la virginité antérieure au mariage, autre qualité vue comme exclusivement féminine. Les femmes ne sont pas réputées maîtresses de leur corps qui ne leur appartient pas.
À l’inverse, le fiancé puis l’époux peut avoir toutes les relations sexuelles qu’il souhaite avec des personnes, hommes ou femmes, étrangers ou de statut inférieur : prostitués des deux sexes, esclaves, filles ou garçons non citoyens. Les sociétés grecque et romaine sont fondamentalement inégalitaires dans le sens où la loi n’est pas la même pour toutes et tous. Elles reposent sur trois oppositions fondamentales : hommes/femmes, citoyens/étrangers, maîtres/esclaves.
Une pornographie pour rire… en rappelant la morale dominante
Des fresques romaines représentant des relations sexuelles à plusieurs ont été découvertes à Pompéi. Elles ont été réalisées, au Ier siècle de notre ère, dans un but à la fois humoristique et moral : faire rire le spectateur et délivrer un message moral.
Cet humour sexuel exprime la morale du moment, comme le suggère une scène de triolisme visible dans les vestiaires des thermes suburbains de Pompéi. On voit un homme sodomisé par un autre homme, alors qu’il est lui-même en train de pénétrer une femme à quatre pattes devant lui.
On peut rapprocher cette peinture d’une histoire d’adultère racontée par le romancier antique Apulée. Le mari, de retour chez lui à l’improviste, surprend sa femme avec un jeune amant. Non sans ironie, il dit renoncer à intenter un procès pour adultère, car il partage les mêmes goûts que sa femme. Il préfère donc leur imposer une réconciliation « à trois dans un seul lit » (Apulée, Métamorphoses, IX, 27).
Une autre scène montre cette fois quatre partenaires : l’homme à gauche pénètre l’homme à sa droite, qui reçoit une fellation de la femme, qui à son tour reçoit un cunnilingus de la femme la plus à droite. L’homme qui se trouve tout à fait à gauche se trouve en position dominante, car il n’agit que pour son propre plaisir. Il adresse au spectateur un geste de la main droite, proclamant la jouissance qu’il ressent. C’est lui le vainqueur de la scène qui se présente comme une sorte de bataille entre quatre partenaires, dont trois sont soumis.
Ainsi, les peintures pornographiques romaines vantent la satisfaction sexuelle, vue comme légitime, d’individus dominants. Elles ont aussi pour but de faire rire ces mêmes hommes dominants, toujours par rapport aux attendus et préjugés de leur morale sexuelle phallocratique.
Rencontrer le divin : la partouze mystique
Les partouzes antiques peuvent aussi s’inscrire dans un contexte religieux. Selon l’historien latin Tite-Live, les adeptes du dieu Bacchus, se livraient à toutes sortes d’unions charnelles au cours de cérémonies nocturnes, à la fois sexuelles et mystiques, nommées Bacchanales.
« Le vin, la nuit, le mélange des sexes et des âges eurent bientôt éteint tout sentiment de pudeur, et l’on se livra à des vices de toute nature, chacun trouvant à satisfaire sa passion favorite » (Tite-Live, Histoire romaine, XXXIX, 8-19).
Ces antiques bacchanales seraient-elles les ancêtres des soirées libertines aujourd’hui en vogue dans certaines capitales occidentales ?
Christian-Georges Schwentzel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
05.01.2026 à 14:06
Pourquoi les fonds verts peinent à convaincre malgré une épargne record
Texte intégral (1285 mots)

Alors que l’épargne des Françaises et des Français atteint 6,4 milliards d’euros au premier semestre 2025, elle n’est que peu dirigée vers la finance verte. Une étude, menée auprès de 2 215 investisseurs français âgés d’au moins 25 ans, cherche à comprendre les freins à l’investissement vert chez les ménages.
L’épargne des ménages français a atteint un niveau record au premier semestre de 2025, s’élevant à 6,4 milliards d’euros. Elle constitue un taux d’épargne de 18,9 % du revenu disponible. Un niveau si élevé qu’il attire désormais l’attention de l’État sur le financement de l’économie réelle.
Parallèlement, le vendredi 21 novembre 2025 a marqué la clôture de la COP30, où ont eu lieu des discussions rappelant l’ampleur des besoins de financement verts pour réussir la transition écologique. Les pays développés sont appelés à fournir au moins 1,1 milliard d’euros par an aux pays en développement d’ici 2035. « La finance est le levier d’accélération majeur », a rappelé le secrétaire exécutif d’ONU Climat, Simon Stiell, lors du Leaders’Summit au Brésil.
Malgré ce double constat d’abondance d’épargne des ménages et de besoin de financement des projets de transition écologique, l’investissement vert demeure une pratique marginale chez les ménages. Notre étude cherche à en comprendre les raisons.
Manque de transparence sur les fonds verts
Le manque de transparence sur l’impact écologique des fonds verts peut créer une ambiguïté chez les investisseurs particuliers quant à leur efficacité réelle à protéger l’environnement.
Un exemple emblématique est celui de DWS, filiale de Deutsche Bank, impliquée dans un scandale de dénomination environnementale trompeuse, après avoir exagéré les engagements verts de plusieurs de ses fonds. L’affaire s’est soldée par une amende de 25 millions d’euros infligée par la justice allemande en avril 2025.
Promesses écologiques non crédibles
Dans notre étude, nous avons mené une recherche auprès de 2 215 investisseurs français âgés d’au moins 25 ans, entre décembre 2021 et janvier 2022, via Panelabs.
L’échantillon est composé d’investisseurs âgés en moyenne de 47 ans, comprenant 47,3 % de femmes, disposant d’un revenu mensuel net moyen de 3 659 €, et ayant en moyenne un niveau d’éducation équivalent à bac+2. Afin d’évaluer leurs doutes sur l’efficacité réelle des fonds verts, nous leur avons posé la question suivante : « Les fonds verts sont un stratagème marketing pour vendre plus de fonds ». Les réponses étaient notées sur une échelle de 1 à 7, de « pas du tout d’accord » à « tout à fait d’accord ».
Les résultats sont clairs. Plus un investisseur estime que les fonds verts relèvent de promesses écologiques non crédibles, moins il est enclin à y investir. Concrètement, chaque point de hausse sur l’échelle de doute réduit la probabilité d’investir dans un fonds vert de 1,68 point de pourcentage. Mais ce n’est pas tout. Les investisseurs les plus méfiants allouent également des montants plus faibles à ces fonds.
Les jeunes plus sensibles à l’épargne verte
Ce frein n’impacte pas tous les investisseurs de la même manière. Deux profils s’avèrent moins sensibles à ces doutes : les plus jeunes, et ceux ayant un niveau d’éducation élevé. Ces derniers affichant des préférences environnementales très fortes ont tendance à accepter les fonds verts, sans trop les remettre en question, pour rester en accord avec leurs convictions écologiques. Ce phénomène s’explique notamment par la volonté d’éviter une dissonance cognitive entre leurs valeurs et leurs décisions financières.
Notre étude montre que ce frein affecte aussi bien les investisseurs conventionnels (qui n’ont jamais investi dans un fonds vert) que les investisseurs verts (ayant placé au moins 500 € dans un fonds vert). Chez les premiers, elle décourage l’intention d’investir dans des fonds verts. Chez les seconds, elle freine leurs investissements futurs.
Biais de négativité
L’effet dissuasif de la ruse marketing sur l’investissement vert peut s’expliquer à la lumière d’un mécanisme bien connu en psychologie comportementale : le biais de négativité. Ce phénomène décrit la tendance des individus à réagir plus fortement aux signaux négatifs qu’aux signaux positifs.
Nous constatons que les perceptions très négatives de la stratégie de communication verte réduisent significativement la probabilité d’investir. À l’inverse, une certaine confiance dans la communication environnementale ne suffit pas à stimuler l’investissement. Le doute pèse clairement plus lourd que la confiance.
Pourquoi cette asymétrie ? Parce qu’une perception négative de la stratégie marketing active deux leviers puissants. Elle déclenche des émotions négatives qui prennent souvent le dessus sur les raisonnements rationnels dans la prise de décision. En parallèle, ces émotions accentuent la perception du risque financier associé aux fonds verts, ce qui les rend moins attractifs aux yeux des investisseurs.
Renforcer la cohérence entre discours et réalité
Ces résultats appellent les décideurs publics et les acteurs financiers à recentrer leurs efforts sur le contrôle de la véracité de la communication des fonds verts. Tant que les inquiétudes des investisseurs individuels vis-à-vis du marketing des fonds verts ne sont pas levées, les politiques incitatives risquent de ne pas atteindre leur cible.
Ce constat fait écho aux évolutions récentes du cadre réglementaire européen. Ces dernières visent à réduire l’écart entre les promesses associées aux fonds verts et les projets réels dans lesquels ils investissent. Dans ce contexte, la mise en place de réglementations ciblées prend tout son sens. Des dispositifs comme le règlement SFDR ou la taxonomie verte visent à renforcer la transparence et à restaurer la confiance dans la finance verte, condition indispensable pour mobiliser l’investissement des citoyens au service de la transition écologique.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
05.01.2026 à 14:06
Société à mission et « B Corp » : quelles conditions de succès ?
Texte intégral (1824 mots)

Pourquoi une entreprise devient-elle société à mission et labellisée « B Corp » ? Quelles sont les conséquences concrètes de l’adoption de ces formes juridiques ? Explications avec les témoignages de managers et d’actionnaires pour ces entreprises hybrides.
En 2024, 1 961 entreprises françaises ont la qualité juridique « société à mission », 600 sont labellisées « B CorpTM » et 160 sont à la fois « B Corp » et société à mission selon le baromètre des sociétés à mission.
Après la loi Pacte (2019) et la pandémie de Covid-19 (2020), nous avons mené des recherches sur les imbrications concrètes de ces deux nouvelles normes pour ces entreprises hybrides. Dans le prolongement de ces travaux, nous avons mené des entretiens auprès de managers et actionnaires d’entreprises labellisées « B Corp » et dotées de la qualité de société à mission.
Alors quels sont leurs facteurs critiques d’échec ou de succès ? Quelles sont les singularités de ces deux modèles ?
Différences entre « B Corp » et société à mission
Depuis 2010, « B Corp » est une certification internationale accordée aux entreprises qui répondent à des standards élevés en matière de performance durable. Tous les trois ans, l’entreprise doit se conformer au B Impact Assessment, un questionnaire de deux cents critères environnementaux ou sociaux. La note minimum ? 80 sur 200. Ce système de notation devrait laisser place à des seuils minimums au sein de sept thématiques d’impact comme l’action climatique ou les droits humains.
À l’international, 10 000 entreprises sont labellisées « B Corp » dans environ 100 pays.
La société à mission est un statut juridique introduit en France par la loi Pacte de 2019. Pour ce faire, l’entreprise doit définir une raison d’être, fixer des objectifs sociaux et environnementaux précis, mettre en place un comité de mission et nommer un organisme tiers indépendant (OTI), un auditeur qui certifie que l’entreprise respecte bien ses engagements.
En Europe, l’Italie a introduit en 2015 le statut de società benefit, très proche du modèle des États-Unis de benefit corporation. Le pays transalpin compte 5 161 entreprises au 30 juin 2025. De même, l’Espagne introduit en 2022 le sociedad de beneficio e interés común.
Motivations stratégiques pour incarner les valeurs de l’entreprise
Des chercheurs espagnols ont mis en évidence les principales motivations à l’adoption du label « B Corp » : incarner les valeurs intrinsèques à l’entreprise, adopter une stratégie de différenciation ou attirer de nouveaux salariés.
En parallèle, selon notre étude, la qualité de société à mission est complémentaire au label « B Corp». Elle convient aux dirigeants et aux actionnaires souhaitant ancrer leur raison d’être dans leur gouvernance – conseil d’administration et comité exécutif –, et permet d’envoyer un message fort d’engagement à l’ensemble des parties prenantes – salariés, actionnaires, clients, État, etc.
« Le passage en société à mission est l’occasion de formaliser les choses, de les ancrer dans le marbre ; c’est un peu le discours par la preuve », rappelle un des managers interviewés.
Dans les deux cas, le choix s’explique essentiellement par la volonté d’assurer la cohérence entre les valeurs et l’activité de l’entreprise. Pour ses dirigeants, renforcer la crédibilité et la pérennité de l’organisation.
La différence stratégique entre l’adoption du label « B Corp » et de la qualité juridique de société à mission ? Si les parties prenantes internes, comme les salariés, soutiennent majoritairement la transformation de l’entreprise en société à mission, en y ayant été associées, les parties prenantes externes, comme les clients ou les fournisseurs, sont séduits par le label B Corp reconnu à l’international, avec un audit standardisé.
Réticences administratives et financières
Les processus de certification du label B Corp, ou l’évaluation de la qualité de sociétés à mission, sont souvent décrits comme chronophages et complexes, en particulier pour les petites structures. « Nous devons investir un temps considérable dans la collecte de données et la formalisation des politiques internes », souligne un manager.
À lire aussi : Abandon du Nutri-Score de Danone : retrait de sa qualité de société à mission ?
Financièrement, la certification « B Corp » implique des frais d’inscription et de vérification. Ils se chiffrent à 11 000 euros la première année pour une entreprise française ayant entre 10 millions et 15 millions d’euros de chiffre d’affaires. Les coûts de vérification additionnels, comme un accompagnement externe ou les modifications statutaires par des juristes, peuvent atteindre 50 000 euros la première année, avec un coût inférieur les années suivantes.
Les audits de la société à mission représentent également un coût, pouvant varier de 3 000 à 15 000 euros pour une petite et moyenne entreprise (PME) ou une entreprise de taille intermédiaire (ETI). C’est la raison pour laquelle le groupe Léa Nature a abandonné la qualité juridique de société à mission :
« La démultiplication des audits aux coûts conséquents tant financiers qu’en temps humains comptait parmi les facteurs justifiant son renoncement à la qualité de société à mission. »
D’autres chercheurs ont mis en évidence la difficulté des entreprises dont le modèle économique est moins facilement orientable vers des activités sociales ou environnementales. Ce phénomène favorise les entreprises mission native, qui obtiennent la reconnaissance de société à mission ou de B Corp dès leur naissance. Les très petites entreprises dans le secteur des services caractéristiques de ces entreprises mission native. Elles représentent la majorité des sociétés à mission en France.
Réseauter, attirer des investisseurs et améliorer ses pratiques
Un bénéfice de l’adoption de cette démarche responsable : attirer de nouveaux investisseurs soucieux de la responsabilité sociale et environnementale. C’est ainsi que la Camif, une des premières sociétés à mission en France en 2017, aurait attiré l’attention du groupe mutualiste Maif.
Plusieurs interviewés soulignent les opportunités d’échange dues à l’appartenance à une communauté de société à mission ou « B Corp ». « Entre entreprises engagées, nous sommes invités à des événements, ça permet de réseauter », s’enthousiasme une personne interviewée.
« Ce que les fournisseurs aiment avec nous, c’est notre capacité à engager tout un écosystème pour les aider eux aussi à lever la tête du guidon, en revoyant leur modèle de production. »
L’adoption de ces cadres normatifs renforce également la relation avec l’ensemble des parties prenantes, tant externe qu’interne.
« La société à mission nous a permis d’impliquer les salariés dans cette démarche […] Nos chefs de produit recréent concrètement des filières. Ce sont eux qui participent à cette transformation accélérée de l’entreprise », témoigne une personne interviewée
Rôle moteur des dirigeants et adhésion des salariés
Au-delà des ressources financières et humaines adéquates pour obtenir les certifications, d’autres facteurs critiques ont émergé. Le rôle moteur des dirigeants est considéré comme déterminant, surtout s’ils sont aussi les principaux actionnaires. « Les cofondateurs ont porté cette initiative au départ », rappelle une personne interviewée.
« Au début, le président-directeur général lui-même s’occupait des missions ESG, c’est lui qui a instigué le processus de certification “B Corp” », témoigne une personne interviewée.
Une fois la décision prise d’adopter un tel cadre normatif, l’adhésion du personnel est un facteur critique de succès. « Beaucoup d’impacts dépendent de l’émulation interne, de la fierté de la part des employés qui consacrent du temps et qui contribuent à ce projet. »
Adopter la certification « B Corp » ou devenir une société à mission s’inscrit dans un engagement de long terme. Elle implique une reconsidération de la gouvernance et de la stratégie à la lumière de la mission. Les effets positifs de celle-ci s’obtiennent quand elle est impulsée par le management et les actionnaires, déclinée dans la stratégie et la conduite opérationnelle de la société et partagée par le personnel.
Cet article a été co-rédigé avec Cécilia Harder, master in management, ESCP Business School.
Enrico Colla ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
05.01.2026 à 14:06
Quand la tragédie grecque éclaire les crises : que nous apprend le braquage du Louvre ?
Texte intégral (1230 mots)
Le vol du Louvre a eu un retentissement mondial. Les failles de sécurité et autres mesures de mauvais management ont été décortiquées et révélées. Mais une autre approche est possible, inspirée de la tragédie grecque. Et si ce vol était l’expression d’une fatalité.
Le 19 octobre 2025, le Musée du Louvre a été frappé par un braquage spectaculaire, mettant en lumière la vulnérabilité même des institutions réputées être les mieux protégées. Au-delà du vol, cet événement invite à réfléchir sur la manière dont les organisations gèrent l’imprévisibilité, à la lumière des leçons des tragédies grecques.
Le cambriolage du Louvre a eu un retentissement mondial, à la hauteur de la réputation de ce lieu. En quelques minutes, des bijoux historiques ont été volés. Une part du prestige du Louvre a aussi disparu à cette occasion.
Si cet événement a d’abord été présenté comme le résultat d’une défaillance sécuritaire, il révèle aussi la vulnérabilité humaine et l’illusion de la maîtrise. Et si ce braquage n’était pas seulement un incident technique, mais une tragédie au sens grec ? C’est ce que se propose d’éclairer cet article.
À lire aussi : Crise en Grèce : une tragédie qui finit bien ?
Coupable aveuglement ?
Comme les héros antiques, les institutions se heurtent parfois à leurs propres limites. Cette lecture de la crise à la lumière de la tragédie de grands dramaturges grecs (Eschyle, Sophocle, Euripide) nous invite à voir la crise non pas seulement comme le résultat d’une erreur, voire d’une faute, mais aussi comme une occasion de lucidité, voire de résilience.
Dans les tragédies antiques, le héros ne chute pas toujours par faiblesse, mais aussi par aveuglement. C’est en tentant de fuir la prophétie de l’oracle de Delphes, qu’Œdipe la réalise. Dès lors, son erreur n’est tant pas morale qu’existentielle. Refusant de reconnaître sa vulnérabilité, il interprète mal les avertissements qui lui sont envoyés. Au Louvre, un scénario de ce type s’est déroulé. Des alertes sur des failles de sécurité, même faibles, avaient été signalées depuis plusieurs années (le Figaro, 2025), mais n’ont pas été prises en compte.
La leçon donnée par la tragédie grecque dans ce contexte est d’apprendre à être lucide. Cela signifie savoir écouter les signaux d’alerte, qu’ils soient faibles ou évidents. Se préparer à une crise, c’est avant tout savoir reconnaître les avertissements et anticiper les vulnérabilités. Une fois cette disposition d’esprit adoptée, il devient possible de bien se préparer.
Penser l’imprévisible
L’approche par la tragédie invite à penser l’imprévisible. Comme les héros grecs, les personnes responsables de la sécurité dans le cas du braquage du Louvre, agissent au quotidien selon des routines et protocoles de pointe pour prévenir le vol. Pourtant, c’est arrivé. Rien ne le rendait certain, mais rien ne prévoyait qu’il ne surviendrait pas. La tragédie grecque nous enseigne que l’imprévisibilité ne vient pas toujours d’une faute, mais plutôt d’un écart irréductible entre ce que l’on prévoit et ce que le réel produit. Œdipe, en fuyant Corinthe, croit préserver ses parents. Toutefois, c’est précisément ce mouvement qui a accompli la prophétie.
La tragédie grecque nous invite ainsi à distinguer responsabilité et maîtrise absolue. Accepter l’imprévisible ne signifie pas considérer le braquage comme inévitable mais reconnaître l’idée que nul dispositif humain n’est infaillible. Le théâtre grec, nous fait prendre conscience de nos limites humaines tout en cherchant à anticiper les dangers. Il nous ouvre les yeux sur le risque et l’inscrit dans une conscience plus juste de la vulnérabilité humaine.
Le tragique et la pédagogie du dilemme
Le braquage du Louvre pose une question universelle : faut-il ouvrir largement les portes au public ou renforcer la sécurité au risque de dénaturer l’expérience culturelle ? La perspective tragique rappelle que toute décision comporte une perte. Œdipe en fuyant Corinthe pour sauver ses parents, sacrifie son statut royal pour devenir un « métèque » (au sens grec) à Thèbes. Se préparer à gérer une crise, c’est donc apprendre aux managers à faire des choix difficiles, accepter qu’une décision « moins mauvaise » soit parfois le seul possible et privilégier une éthique de la prudence. Elle invite a agir avec discernement et à réduire les risques sans viser une perfection illusoire.
Ainsi, la tragédie grecque, nous invite à former le dirigeant à faire des choix satisfaisant et réaliste et non des choix parfaits.
Après la crise : la sagesse tragique
Pour les Grecs, la tragédie était un rituel collectif de catharsis. Elle purifiait les émotions et permettait de réfléchir aux peurs et fautes de la cité (Aristote, La Poétique, IV.6, trad. 1997). De même, capitaliser sur une crise peut devenir une ressource pour les institutions culturelles. Il ne s’agit pas d’effacer le chaos, mais de le transformer en savoir partagé.
Plutôt que de clore l’affaire du Louvre dans une logique de blâme, la crise peut être une mise en récit – enquêtes, témoignages, débats internes, restitutions publiques – pour en tirer une leçon commune. Elle nous invite à la question suivante : comment réagirons-nous la prochaine fois, sachant qu’aucune institution culturelle n’est à l’abri de l’imprévisible ?
Ainsi, la tragédie devient un outil de résilience organisationnelle : non par l’oubli du drame, mais par l’intégration lucide de ses leçons, rappelant que la vraie maîtrise consiste moins à prévenir toutes les chutes qu’à apprendre à se relever ensemble.
Mary-Lieta Clement ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
05.01.2026 à 14:06
Tu prends ton après-midi ? Pourquoi le présentéisme nuit aux entreprises
Texte intégral (1593 mots)

« Tu prends ton après-midi ? » Si vous avez déjà entendu cet humour douteux, c’est que vous connaissez la notion de présentéisme, soit le fait d’être assidûment présent au travail sans raison impérieuse. Du zèle sans contrepartie. Comment prend-il forme ? Quelles sont ses conséquences pour les entreprises ? et pour l’ensemble du personnel ?
La dernière enquête sur le présentéisme réalisée par la Direction de l’animation de la recherche, des études et des statistiques (Dares, ministère du travail et des solidarités) remonte à 2016.
Elle ne porte que sur l’un de ses aspects : le présentéisme en situation de maladie. Concrètement, des salariés viennent travailler bien qu’ils soient malades, qu’ils possèdent ou non un certificat médical d’arrêt de travail.
Quelles sont les autres formes de présentéisme ? Que disent-elles de notre rapport au travail aujourd’hui ? J’ai exploré ces questions dans des travaux récents sur le management et les fondements philosophiques de la pensée managériale.
Arriver plus tôt, malade ou ne pas partir en vacances
Phénomène inverse de l’absentéisme, le présentéisme en cas de maladie n’est pas déclaré. Il n’est donc mesuré ni par les employeurs ni par la Sécurité sociale ou les mutuelles. Malgré cette difficulté, la DARES estime que, pour la période 2013-2016, les salariés français ont été malades en moyenne onze jours par an, mais que ceux-ci n’ont donné lieu qu’à huit jours d’absence au travail.
La différence implique que les salariés sont allés travailler trois jours par an en moyenne tout en étant malades. En d’autres termes, plus d’un jour de maladie sur quatre (27 %) a donné lieu à du présentéisme. À l’échelle européenne, plus de 60 % des employés déclarent avoir déjà travaillé alors qu’ils ne se sentaient pas bien.
Un autre cas fréquent de présentéisme est celui des employés qui arrivent à leur poste avant la plupart de leurs collègues. Ils restent également presque tous les jours au travail bien au-delà des horaires habituels, sans que cette présence ne puisse se justifier par une tâche particulière à rendre avant une date butoir.
À lire aussi : Congés payés : la France doit se mettre en règle avec l’UE, quelle conséquences pour les salariés ?
Une autre forme de présentéisme consiste à ne pas prendre en totalité ses jours de congés, ou de chercher à les reporter le plus longtemps possible, quitte à les perdre définitivement sans compensation.
Surcoûts et sous-performance
Malgré l’absence de données récentes en France, les études réalisées aux États-Unis font clairement ressortir que le présentéisme est une source de surcoûts ou au moins de sous-performance pour l’employeur.
En effet, le phénomène entraîne une diminution de la productivité. Les employés faisant du présentéisme sont plus fatigués et font plus d’erreurs que les autres. Ils souffrent souvent de troubles du sommeil.
Les raisons poussant les employés à faire du présentéisme sont multiples. Les normes culturelles peuvent l’expliquer, comme au Japon, rester très tard au bureau va de soi. La culture de l’organisation rentre en compte dans cette équation, surtout si les responsables hiérarchiques sont eux-mêmes adeptes des horaires à rallonge.
« Tu prends ton après-midi ? »
Le présentéisme peut également s’expliquer par des facteurs personnels. Par exemple, se savoir désorganisé et peu productif justifie pour certains la nécessité de faire des heures supplémentaires non rémunérées pour compenser.
Il existe aussi des salariés qui s’identifient tellement à leur emploi qu’y passer presque toutes leurs journées devient chez eux une sorte de seconde nature. Ce phénomène est aussi appelé « workaholism ».
Le contexte français est paradoxal. Alors que les 35 heures hebdomadaires s’imposent normalement à tous, de nombreux salariés, essentiellement les cadres, les dépassent systématiquement. Même lorsqu’un accord d’entreprise permet de transformer (au moins en partie) les dépassements d’horaires en jours de congés, une règle informelle courante veut que ceux voulant paraître comme des « jeunes cadres dynamiques » ne les prennent qu’exceptionnellement.
Une plaisanterie commune dans ce contexte est de demander à un collègue partant vers 17 heures : « Tu prends ton après-midi ? »
Sentiment d’insécurité diffus
Cette observation ne s’applique pas qu’au secteur privé.
Alors que la fonction publique est connue pour ses difficultés à respecter les 35 heures (car la loi implique le plus souvent un allongement du temps de travail des agents), les hauts fonctionnaires de certains ministères sont contraints à ce qui est pudiquement appelé des « semaines longues » (en clair, des horaires interminables) s’ils veulent progresser dans leur administration.
À lire aussi : Quand le cynisme mine l’engagement dans la fonction publique…
Bien que toutes ces explications ne soient pas à négliger, elles ne sont pertinentes que pour des organisations ou des (catégories de) salariés particuliers. D’une manière générale, les enquêtes montrent que le présentéisme est corrélé à un sentiment d’insécurité diffus et à une qualité de vie au travail dégradée.
Il est également associé à une absence d’autonomie et à une latitude décisionnelle réduite. Le présentéisme est une forme de stress : la plupart des salariés ne le font pas par choix. Ils ne veulent pas perdre leur emploi (ou veulent progresser dans leur entreprise) et cherchent à tout prix à être perçus comme motivés, diligents et ambitieux, voire indispensables.
Être reconnu à sa juste valeur
Comme mes recherches l’ont montré, ces salariés dont le travail est reconnu ou dont le poste est valorisé dans leur entreprise, n’hésitent pas à s’absenter quand ils le doivent ou à partir tôt quand ils le peuvent.
Bien que les salariés présentéistes aient tendance à avoir une opinion négative de leur travail, ils restent dans l’ensemble prêts à s’investir professionnellement. Cependant, et ceci est le point crucial, ils ne contrôlent pas les horaires qui sont associés à leur poste. Ils craignent ne de pas voir leur contribution reconnue à sa juste valeur s’ils ne sont pas physiquement présents le plus longtemps possible, sans autre raison que de montrer qu’ils existent.
La traduction de cette conclusion en recommandations pour les décideurs voulant diminuer le présentéisme dans leur entreprise est directe : accordez de l’autonomie à vos collaborateurs et faites-leur comprendre que tant que le travail est fait à temps, ils sont libres de le faire quand ils veulent.
Jean-Etienne Joullié est membre de Copenhagen Business School
05.01.2026 à 13:53
La fin du secret sur les salaires, un choc culturel pour les entreprises françaises
Texte intégral (1971 mots)
La directive européenne qui oblige de nombreuses entreprises à faire la transparence sur les salaires sera un vrai défi pour les directions de ressources humaines et les managers. Car, si des écarts de salaire peuvent se justifier, il faut savoir les expliquer, ce qui n’est pas toujours facile quand l’argent reste tabou. Quant aux salariés, comment réagiront-ils quand ils découvriront qu’ils sont plus ou moins bien payés que leurs collègues à poste équivalent ? C’est un grand chambardement qui attend les entreprises.
D’ici au 7 juin 2026, les entreprises françaises de plus de 100 salariés devront se conformer à la directive européenne du 10 mai 2023 sur la transparence salariale. Cette obligation, qui impose notamment de mesurer et de publier les écarts de rémunération, d’indiquer les salaires dans les offres d’emploi et d’expliquer les logiques salariales internes, constitue l’un des changements les plus structurants pour les directions des ressources humaines depuis les lois sur le reporting social et environnemental.
Dès lors, on peut se demander comment la transparence salariale va transformer les pratiques de rémunération, l’équité interne et le contrat social dans les entreprises françaises. Sous quelles conditions peut-elle devenir un levier de performance ?
La fin de l’opacité salariale
L’arrivée de cette directive apporte une rupture majeure : la fin de l’opacité salariale comme mode de gestion par défaut. Les entreprises devront désormais répondre à des questions qu’elles pouvaient jusque-là éviter : pourquoi deux salariés occupant des postes similaires ne gagnent-ils pas la même chose ? Quelle place donne-t-on à l’expérience, à l’expertise, à la performance ou à la rareté d’un profil ? La politique de rémunération est-elle cohérente avec les valeurs affichées par l’entreprise ?
À lire aussi : Votre salaire est-il décent ?
Une enquête récente de l’Association pour l’emploi des cadres (Apec) montre que ce besoin d’explication est déjà très présent. La moitié des cadres jugent insuffisante la communication de leur entreprise sur les logiques salariales et 46 % d’entre eux jugent la politique de rémunération de leur entreprise opaque (voir ci-dessous). La directive va obliger désormais à rendre explicite ce qui relevait souvent du non-dit voire du tabou.
Une politique de rémunération jugée plus opaque en France
Source : Apec (2025, page 5).
Triple révolution pour les DRH
Car la transparence salariale ne constitue pas uniquement une transformation juridique. Pour les directions des ressources humaines, elle impose une triple évolution.
La première consiste à clarifier la structure salariale. Dans beaucoup d’entreprises, les écarts actuels sont le résultat d’histoires individuelles, de recrutements opportunistes ou de négociations ponctuelles. La directive impose de passer d’une somme de cas particuliers à une architecture salariale claire et cohérente : familles de métiers, niveaux de responsabilité, critères d’évolution. Or, selon l’APEC, 66 % des entreprises n’offrent pas de grille salariale accessible en interne, ce qui montre l’ampleur du travail à mener. Cette structuration constitue un travail lourd, parfois très politique, mais nécessaire.
La deuxième évolution est narrative. Les DRH devront apprendre à dire ce qui, jusqu’ici, restait implicite. Il ne suffit pas de publier des chiffres ou des fourchettes. Il faut être capable de rendre compréhensible la logique des rémunérations. Pourquoi un ingénieur en cybersécurité est-il payé davantage qu’un chef de projet ? Pourquoi deux salariés d’une même équipe ne gagnent-ils pas la même chose ? La pédagogie devient un élément central de la gestion de la rémunération. Sans cette pédagogie, prévient l’Apec, la transparence risque d’alimenter la comparaison sociale et nourrir les frustrations.
La troisième évolution est managériale. Dans beaucoup d’organisations, les managers sont mal à l’aise lorsqu’il s’agit de parler rémunération. Par crainte d’ouvrir des demandes, par manque d’informations ou simplement parce que le sujet reste tabou. La transparence obligera à revoir cette posture. Les managers devront être formés à expliquer les critères, à répondre aux questions, à gérer les émotions liées à la comparaison et aux perceptions d’injustice. Une politique salariale juste mal expliquée peut devenir injuste dans la perception des salariés.
Des risques invisibles
Bien entendu, la transparence comporte des risques. Elle peut révéler des écarts historiques difficiles à justifier, générer des demandes de révision en cascade ou fragiliser des équipes si certains « talents » découvrent qu’ils sont moins bien rémunérés que des pairs. Elle peut également exposer l’entreprise à des contentieux si les écarts ne peuvent pas être expliqués de manière satisfaisante. L’étude de l’Apec rappelle d’ailleurs que près d’une entreprise sur deux anticipe une augmentation des tensions sociales si la transparence est mal pilotée.
La transparence ne créera pas les problèmes : elle va les mettre en lumière. Cependant, l’absence de préparation peut transformer un révélateur en déflagration sociale, d’où l’importance d’anticiper, de documenter et d’expliquer les écarts avant de rendre les données publiques, mais aussi de former les managers et de structurer un dialogue social capable d’accompagner cette transition sensible.
Transparence dans le recrutement
À ces risques s’en ajoute un autre, introduit par la directive européenne : l’obligation d’indiquer les salaires ou les fourchettes de rémunération dans les annonces d’emploi. Cette transparence sur les salaires d’embauche, pensée comme un outil de réduction des inégalités, comporte des effets ambigus. Elle peut rigidifier les pratiques de recrutement en limitant la capacité à ajuster la rémunération à la rareté d’un profil ou à l’expérience d’un candidat.
Elle peut aussi générer des tensions internes lorsque les salariés en poste découvrent que les nouveaux entrants bénéficient de niveaux de rémunération supérieurs, un phénomène déjà observé dans les secteurs en tension. Les résultats de l’Apec confirment ce risque : 36 % des cadres disent avoir déjà découvert que de nouveaux recrutés étaient mieux rémunérés qu’eux, ce qui alimente un sentiment d’injustice.
Enfin, elle peut alimenter des dynamiques de marché inattendues : inflation salariale dans certains métiers rares ou, au contraire, alignement vers le bas si les entreprises cherchent à limiter les attentes des candidats. Là encore, l’enjeu n’est pas tant la transparence que la capacité à la contextualiser et à la gouverner.
Redynamiser la négociation collective
Ces difficultés ne doivent pourtant pas masquer l’un des effets potentiels les plus prometteurs de la directive, la relance de la négociation collective. En obligeant les entreprises à expliciter leurs critères de rémunération, à documenter leurs grilles et à justifier leurs écarts, la transparence crée un besoin nouveau de régulation. Branches professionnelles et entreprises devront élaborer des référentiels communs, clarifier les niveaux de classification et définir les logiques d’évolution.
La transparence pourrait ainsi contribuer à revitaliser la négociation collective, notamment dans les branches, longtemps affaiblie par la montée des négociations individuelles et l’opacité salariale. Le syndicat CFE-CGC, par exemple, compte bien s’emparer de cette directive pour renforcer son positionnement sur les questions de justice salariale et accompagner les cadres dans l’appropriation de ces nouvelles obligations.
Un révélateur d’équité
Les recherches récentes éclairent utilement cette transition. L’étude de Cédric Gutierrez, Tomasz Obloj et Todd Zenger montre que la transparence salariale ne provoque pas l’effondrement de la productivité que redoutent souvent les entreprises. En analysant plus de dix ans de données sur 20 000 universitaires américains, les auteurs démontrent que la publication des salaires n’a pas d’effet négatif global sur l’effort des salariés ; elle peut même légèrement l’accroître.
L’essentiel se joue ailleurs : la transparence agit comme un révélateur d’équité. Les individus qui découvrent être mieux rémunérés que ne le justifierait leur performance augmentent significativement leur effort pour « légitimer » leur position tandis que ceux qui se découvrent sous-payés réduisent modérément leur productivité (voire ci-dessous). Autrement dit, les salariés réagissent moins à l’inégalité brute qu’à l’injustice perçue.
Effet de l’iniquité sur la productivité
Source : Gutierrez et coll., 2025, page 1846.
Note : Les coefficients représentés correspondent aux années avant et après le choc de transparence, avec des intervalles de confiance à 95 %.
Et les salaires féminins ?
De leur côté, les économistes Klára Kantová et Michaela Hasíková montrent – à travers une méta-analyse combinant 268 estimations issues de 12 études menées dans plusieurs pays de l’Organisation de coopération et de développement économiques (OCDE) – que les lois de transparence salariale entraînent en moyenne une réduction modeste mais significative des différences de salaire entre les hommes et les femmes, de l’ordre de 1,2 % en faveur des femmes. Cet effet provient généralement d’une légère hausse des salaires féminins, mais aussi d’une compression salariale, c’est-à-dire d’un ralentissement de la progression salariale masculine.
L’analyse révèle toutefois que toutes les formes de transparence ne produisent pas les mêmes effets : les politiques les plus efficaces sont celles qui imposent une parution publique des données salariales, tandis que les dispositifs plus limités (simples obligations d’information interne ou mention d’une fourchette dans les offres d’emploi) ont des effets faibles, voire nuls. Au final, ces résultats offrent des repères importants pour concevoir des politiques réellement capables de corriger les inégalités salariales.
La transparence salariale n’est donc ni une panacée ni une menace : elle est un révélateur. Mal anticipée, elle expose brutalement les incohérences d’une politique salariale. Bien préparée, elle devient un levier de confiance, de cohérence et de performance.
La directive européenne offre une occasion rare : repenser la manière dont les entreprises articulent performance individuelle, justice perçue et reconnaissance. Encore faut-il accepter d’engager ce travail en profondeur – un travail qui, pour beaucoup d’entreprises, ne fait que commencer.
Patrice Laroche a reçu des financements de la CFE-CGC dans le cadre d'un projet de recherche consacré aux effets des disparités salariales sur la performance des organisations.
04.01.2026 à 23:36
Cinq scénarios pour le Venezuela post-Maduro
Texte intégral (2604 mots)
Le flou règne sur l’avenir du Venezuela après la capture de son président par les États-Unis. Plusieurs voies sont envisageables, du maintien en place du régime chaviste à une prise de contrôle du pouvoir par Washington.
L’opération militaire menée par les États-Unis à l’aube du 3 janvier, qui a permis de capturer Nicolas Maduro et son épouse puis de les emmener à New York, où ils ont été incarcérés, marque un tournant pour le continent américain. Après plusieurs mois de menaces d’intervention militaire et de renforcement constant des forces armées états-uniennes dans la région, ces dernières ont destitué un président étranger à l’issue d’une opération qui a duré un peu plus de deux heures.
Que ce soit sous le prétexte de la lutte contre le trafic de drogue ou au nom d’un changement de régime, le message est clair : les États-Unis sont prêts à agir de manière unilatérale, par la force et, au besoin, de façon illégale. Les répercussions seront vastes pour le Venezuela, bien sûr, mais aussi pour l’ensemble de l’Amérique latine.
Les réactions à l’intervention états-unienne ont été immédiates. La Colombie, qui a dépêché des troupes à sa frontière, se préparant à l’arrivée potentielle de réfugiés, a dénoncé les frappes comme un affront à la souveraineté des pays de la région. Cuba s’est joint à l’Iran, à la Russie et à d’autres adversaires de Washington pour condamner le raid devant les Nations unies. Quelques gouvernements, notamment celui de l’Argentine, ont en revanche apporté leur soutien sans réserve à cette opération.
Donald Trump a annoncé que les États-Unis allaient « diriger » le Venezuela jusqu’à ce qu’il y ait une « transition sûre, appropriée et judicieuse » du pouvoir, et assuré que son administration « n’avait pas peur d’envoyer des troupes au sol ».
Jusqu’à présent, peu de détails concrets sur la suite des événements ont été fournis. Beaucoup dépendra des prochaines actions de Washington et de la réaction de la classe politique vénézuélienne, qui est très divisée. En tant qu’expert des relations entre les États-Unis et l’Amérique latine, j’estime que cinq scénarios principaux sont plausibles.
1. Trump déclare avoir eu gain de cause et en reste là
Dans ce premier scénario, Trump proclame que la mission a été accomplie, présente la capture de Maduro comme un triomphe et réduit rapidement le rôle des États-Unis dans l’avenir immédiat du pays. Les institutions vénézuéliennes restent largement intactes. L’actuelle vice-présidente Delcy Rodriguez, le ministre de l’intérieur Diosdado Cabello et le ministre de la défense Vladimir Padrino Lopez dirigent un gouvernement reconstitué qui poursuit la ligne de gauche développée par feu Hugo Chavez, même si ce système est désormais privé de sa dernière figure de proue en la personne de Maduro.
Un tel développement conviendrait aux généraux états-uniens désireux de limiter les risques pour leurs troupes, ainsi qu’aux puissances étrangères soucieuses d’éviter un vide du pouvoir. A contrario, l’opposition vénézuélienne et les pays voisins qui ont subi des années d’afflux de réfugiés feraient la grimace.
Surtout, cela réduirait à néant l’influence sur le pays que Washington vient d’acquérir au prix de nombreux efforts. Après avoir pris la décision extraordinaire d’enlever un chef d’État, revenir en arrière et se contenter d’un léger remaniement du chavisme apparaîtrait comme une reculade contraire aux normes des interventions étrangères des États-Unis.
2. Un soulèvement populaire renverse le chavisme
Deuxième possibilité : le choc provoqué par la destitution de Maduro brise l’aura d’inévitabilité du gouvernement et déclenche un soulèvement populaire qui balaye le chavisme. Au vu de la vacance de la présidence et de l’affaiblissement des forces de sécurité, démoralisées ou divisées, une large coalition de partis d’opposition, de groupes de la société civile et de chavistes mécontents fait pression pour la mise en place d’un conseil de transition, peut-être sous l’égide de l’Organisation des États américains (OEA) ou des Nations unies.
Reste qu’une telle révolution, en particulier lorsqu’elle est soutenue par une ingérence extérieure, se déroule rarement sans heurts. Des années de répression politique, de crime organisé, de misère économique et d’émigration ont vidé la classe moyenne et les syndicats vénézuéliens de leur substance. Les colectivos armés – des groupes paramilitaires ayant un intérêt au maintien de l’ancien régime – opposeraient une résistance farouche. Il en résulterait peut-être non pas une avancée démocratique rapide mais une transition instable : un gouvernement provisoire fragile, des violences sporadiques et d’intenses luttes intestines sur les questions relatives aux amnisties et au contrôle du secteur pétrolier.
3. Les États-Unis installent à Caracas un pouvoir allié
Dans ce scénario, Washington tire parti de la nouvelle donne pour faire pression en faveur d’un changement complet de régime. Cela pourrait se traduire par un durcissement des sanctions à l’encontre des personnalités encore au pouvoir, par l’intensification des frappes contre les installations de sécurité et les milices, par un soutien secret aux factions insurgées et par l’utilisation du procès de Maduro comme d’une tribune mondiale pour délégitimer une fois pour toutes le chavisme.
Une personnalité reconnue en tant que leader de l’opposition serait portée au pouvoir à la suite d’une forme d’élection contrôlée, d’un conseil de transition ou d’une passation de pouvoir négociée – potentiellement, quelqu’un comme Maria Corina Machado, lauréate du prix Nobel de la paix 2025. Les États-Unis et leurs alliés proposeraient une restructuration de la dette et un financement de la reconstruction du pays en échange de réformes économiques libérales et d’un alignement géopolitique sur Washington.
Cette option est très risquée. Une transition ouvertement orchestrée par les États-Unis entacherait la légitimité du nouveau leadership vénézuélien, tant au niveau national qu’international. Elle aggraverait la polarisation du pays, renforcerait la dénonciation de l’impérialisme (ce qui est depuis longtemps un argument central du chavisme) et inciterait la Chine, Cuba, l’Iran et la Russie à s’ingérer également dans les affaires du pays. Un mouvement chaviste meurtri mais non brisé pourrait se transformer en résistance armée, faisant du Venezuela un nouveau théâtre d’insurrection de faible intensité.
4. Supervision par Washington et transition contrôlée
Une transition contrôlée : c’est l’option que Trump a ouvertement envisagée. Washington exercerait provisoirement sa tutelle sur le Venezuela. Les premières priorités seraient d’imposer une chaîne de commandement et de restaurer les capacités administratives du pays, de stabiliser la monnaie et le système de paiement, et de mettre en place des réformes progressives afin d’éviter l’effondrement de l’État pendant la transition.
Le calendrier politique serait alors une dimension essentielle. Washington exercerait une forte influence sur les dispositions provisoires en matière de gouvernance, les règles électorales et le calendrier des élections présidentielle et législatives, y compris la reconstitution des autorités électorales et la définition des conditions minimales pour la campagne électorale et l’accès aux médias. Les États-Unis n’auraient pas nécessairement besoin d’occuper le pays, mais ils pourraient avoir besoin de déployer des forces sur le terrain pour dissuader les fauteurs de troubles.
La logique économique de cette option reposerait sur le rétablissement rapide de la production pétrolière et des services de base grâce au soutien technique des États-Unis, à l’implication de leurs entreprises privées et à un allègement sélectif des sanctions. Des entreprises, telles que Chevron, la seule grande compagnie pétrolière états-unienne encore implantée au Venezuela, ou des prestataires de services pétroliers, comme Halliburton, seraient probablement les premiers bénéficiaires.
Là aussi, les risques sont considérables. Comme dans le cas précédent de l’arrivée au pouvoir d’une équipe ouvertement alignée sur Washington, une tutelle états-unienne pourrait attiser les sentiments nationalistes et valider le discours anti-impérialiste propre au chavisme. La menace implicite de l’utilisation de la force pourrait dissuader les groupes criminels, mais elle pourrait également approfondir le ressentiment et durcir la résistance des groupes armés, des partisans de Maduro ou de toute autre personne opposée à l’occupation.
5. Conflit hybride et instabilité contrôlée
Finalement, le plus probable est que tous les scénarios ci-dessus soient en quelque sorte mélangés : on assisterait alors à une lutte prolongée dans laquelle aucun acteur ne l’emporterait complètement. La destitution de Maduro pourrait affaiblir le chavisme, sans totalement détruire ses réseaux dans l’armée, l’administration et les quartiers défavorisés. L’opposition pourrait être revigorée mais demeurerait divisée. Sous Trump, les États-Unis seront puissants sur le plan militaire mais limités dans leur marge de manœuvre en raison de la lassitude de leur population à l’égard des guerres étrangères, de la perspective des élections de mi-mandat à venir et ees doutes quant à la légalité de leurs méthodes.
Dans ce cas de figure, le Venezuela pourrait sombrer dans plusieurs années d’instabilité contrôlée. Le pouvoir pourrait de facto être partagé entre une élite chaviste affaiblie, des figures de l’opposition cooptées dans le cadre d’un accord transitoire et des acteurs sécuritaires contrôlant des fiefs locaux. Les frappes sporadiques et les opérations secrètes des États-Unis pourraient se poursuivre en étant calibrées pour punir les fauteurs de troubles et protéger les partenaires privilégiés de Washington, sans aller jusqu’à une occupation de grande échelle.
Une doctrine Monroe 2.0 ?
Quel que soit l’avenir, ce qui semble clair pour l’instant, c’est que l’opération anti-Maduro peut être considérée, tant par ses partisans que par ses détracteurs, comme l’application d’une sorte de doctrine Monroe 2.0. Cette version, qui fait suite à la doctrine originale du XIXe siècle dans laquelle Washington mettait en garde les puissances européennes contre toute ingérence dans sa sphère d’influence, est une affirmation plus musclée selon laquelle les rivaux lointains des États-Unis et leurs clients locaux ne seront pas autorisés à avoir leur mot à dire sur le continent américain.
Ce message agressif ne se limite pas à Caracas. Cuba et le Nicaragua, déjà soumis à de lourdes sanctions états-uniennes et de plus en plus dépendants des soutiens russe et chinois, verront le raid vénézuélien comme un avertissement indiquant que même les gouvernements bien établis ne sont pas à l’abri si leur politique n’est pas suffisamment alignée sur celle de Trump. La Colombie, théoriquement alliée des États-Unis mais actuellement dirigée par un gouvernement de gauche qui a vivement critiqué la politique vénézuélienne de Washington, se retrouve prise en étau.
Les États petits et moyens, et pas seulement ceux d’Amérique latine, ne peuvent qu’être inquiets. Le Panama, dont le canal est essentiel au commerce mondial et à la mobilité navale des États-Unis, pourrait faire l’objet d’une pression renouvelée, Washington souhaitant pouvoir compter dans ce pays sur un pouvoir local qui sera proche de lui et qui bloquera les avancées chinoises dans les ports et les télécommunications. Le Canada et le Danemark auront également regardé cet épisode de très près, l’administration Trump ayant récemment rappelé avec force qu’elle convoite le Groenland.
Robert Muggah est cofondateur de l'Institut Igarapé, un groupe de réflexion brésilien indépendant qui bénéficie du soutien financier des gouvernements du Royaume-Uni, de la Banque interaméricaine de développement et de divers donateurs locaux au Brésil. Robert Muggah est également cofondateur de SecDev, un cabinet de conseil en cybersécurité et risques géopolitiques, et chercheur à l'université de Princeton. Il est aussi senior advisor au McKinsey Group. De plus amples informations sur ses affiliations sont disponibles sur les sites web des deux institutions.
04.01.2026 à 17:25
Pourquoi les politiques n’écoutent-ils pas les citoyens ordinaires ?
Texte intégral (2011 mots)
L'année 2025 a notamment été marquée par le débat sur la taxe Zucman, rejetée par les députés mais plébiscitée par une très large majorité de Français. Cette décision révèle, de façon spectaculaire, la déconnexion entre les décisions politiques et l’opinion des citoyens. Ce phénomène, étudié par la science politique, est au cœur de la crise démocratique. Comment y remédier ?
Les sondages sont sans appel : une large majorité de Français, 86 % selon une enquête Ifop, se déclare en faveur d’une taxation des plus riches. Pourtant, l’Assemblée nationale a rejeté en octobre la taxe Zucman : 228 députés ont voté contre l’amendement visant à taxer les patrimoines supérieurs à 100 millions d’euros, tandis que 172 députés ont voté pour. La déconnexion entre opinion publique et décision politique n’est pas nouvelle. D’autres exemples illustrent ce phénomène, comme la réforme des retraites, rejetée par une majorité de Français, ou l’interdiction de la corrida, soutenue par la population mais rejetée par les députés. Comment expliquer que des mesures massivement soutenue par la population puissent être rejetées par leurs représentants ?
Quand les politiques écoutent (ou pas) l’opinion publique
La connexion entre opinion publique et décision politique a fait l’objet de nombreux travaux en science politique. Ces recherches, qui étudient la capacité du système représentatif à répondre aux intérêts et préférences des citoyens, montrent que si l’opinion publique peut influencer les décisions politiques, ce n’est pas toujours le cas. Pour de nombreux enjeux, il existe une déconnexion entre la volonté populaire et les décisions prises par les gouvernants, qu’ils soient de gauche ou de droite.
Plusieurs facteurs peuvent expliquer ces écarts. D’abord, la capacité des gouvernants à suivre l’opinion peut dépendre du contexte économique : en période de contraintes budgétaires, les marges de manœuvre se réduisent et certaines décisions peuvent ne pas refléter totalement les préférences des citoyens. Ensuite, les représentants sont plus à l’écoute sur les sujets très médiatisés et peu techniques du fait de leur importance dans le débat public. Plusieurs recherches soulignent aussi un déficit récent de représentation sur les enjeux économiques. Du fait de la montée des sujets culturels (immigration, sécurité, identité) dans le débat et des contraintes externes sur l’économie (crises, intégration européenne), les gouvernants parviennent à mieux écouter l’opinion sur les sujets culturels, devenus des marqueurs de la vie politique. Enfin, le contexte politique : dans un environnement parlementaire fragmenté, les difficultés à négocier entre partis peuvent entraver la traduction de l’opinion publique en décisions.
Représentation politique et inégalités économiques
Un autre facteur expliquant la déconnexion entre opinion publique et décision politique est celui des inégalités de représentation. En effet, lorsque les citoyens les plus riches et les plus pauvres s’opposent sur une politique publique, ce sont les préférences des plus aisés qui l’emportent. Les travaux du politiste américain Martin Gilens ont révélé cette tendance : une politique publique a plus de chances d’être adoptée si elle est soutenue par les citoyens fortunés que par les citoyens modestes. Ces résultats ont été confirmées dans plusieurs pays européens : les décisions politiques reflètent davantage les positions des citoyens à revenu élevé.
L’exemple de la taxe Zucman illustre parfaitement cette dynamique. Si une majorité de Français la soutient, il est probable que la fraction de la population la plus fortunée, directement impactés financièrement par une telle taxe, s’y oppose.
À lire aussi : L’affrontement sur la taxe Zucman : une lutte de classe ?
Si de nombreuses études ont mesuré ces inégalités dans les décisions politiques, d’autres se sont particulièrement intéressé aux élus, analysant leurs positions et la façon dont ils perçoivent l’opinion publique. Des inégalités sont aussi présentes à ce niveau. En effet, les élus ont des préférences politiques plus proches de celles des électeurs les plus riches, et leur lecture de l’opinion publique est biaisée en faveur des plus fortunés.
Les déterminants des inégalités de représentation politique
Trois facteurs principaux expliquent ces inégalités de représentation. Le premier est le profil socio-économique des élus : ils sont massivement issus des classes sociales supérieures. À l’Assemblée nationale, 67 % des députés sont issues des catégories cadres et professions intellectuelles supérieures, contre 11 % dans la population française. Ces élus partagent avec les citoyens les plus riches des valeurs et intérêts communs, ce qui les rend plus sensibles à leurs besoins. C’est ce que j’ai montré dans une étude menée sur les parlementaires suisses : les perceptions de l’opinion publique des députés issus de milieux favorisés s’alignent plus fortement avec les préférences des citoyens les plus riches.
Le deuxième facteur concerne les inégalités d’expression politique : tous les citoyens n’ont pas la même voix dans l’espace politique. Les plus aisés disposent d’un poids politique supérieur : ils votent davantage, contactent plus souvent les parlementaires, et peuvent apporter un soutien direct en faisant des dons aux partis politiques. À l’inverse, les citoyens modestes participent moins à la vie politique et ont moins de poids sur le succès électoral des partis politiques. Les élus ont donc moins d’intérêt à écouter et traduire leurs préférences en décisions.
Ces inégalités se reflètent aussi au niveau des groupes d’intérêts exerçant des activités de lobbying : les groupes représentant des intérêts privés et sectoriels (entreprises, associations professionnelles) disposent de plus de ressources que les associations citoyennes ou les ONG pour influencer les décisions politiques. Concernant la taxe Zucman, il est évident que les lobbies patronaux (Medef et Afep) ont mobilisé leurs réseaux pour orienter le débat public et la décision parlementaire. Les liens personnels entre responsables politiques (dont le premier ministre Sébastien Lecornu) et grands patrons, facilitent aussi cette influence, offrant à ces derniers un accès direct pour défendre leurs intérêts.
Enfin, l’idéologie compte : les élus de droite représentent davantage les préférences des citoyens les plus riches et surestiment leur poids dans la population, comme je l’ai montré dans une étude portant sur les parlementaires de quatre pays européens. Cependant, si les élus de gauche ont des positions moins biaisées, des inégalités persistent. Pourquoi ? D’abord parce que l’origine sociale joue à gauche comme à droite : la majorité des parlementaires de gauche viennent aussi des catégories supérieures, ce qui les rend plus sensibles aux intérêts des citoyens privilégiés. Ensuite, même lorsqu’ils sont idéologiquement proches des citoyens défavorisés, les élus de gauche au pouvoir se heurtent à des contraintes structures (mondialisation, règles européennes) qui réduisent leur marge de manœuvre.
Inégalités de représentation : comment répondre au problème ?
Si le droit de vote est universel, garantissant une égalité formelle, l’égalité réelle est loin d’être acquise : les citoyens les moins favorisés pèsent moins dans les décisions politiques, questionnant le caractère démocratique de notre modèle de représentation.
Les citoyens les moins bien représentés font moins confiance aux institutions représentatives. Le problème n’est pas qu’une politique publique isolée diverge de l’opinion publique : c’est la récurrence du phénomène qui pose question et le biais systématique envers une partie de la population qui pose question. Lorsque, sur plusieurs politiques publiques, le système représentatif n’est pas sensible à l’opinion et qu’une partie de l’électorat voit systématiquement ses préférences ignorées, la légitimité du système représentatif pourrait s’en trouver fragilisée.
Plusieurs pistes sont envisageables pour réduire ces inégalités. D’abord, améliorer la représentativité sociale des élus permettrait d’élargir la diversité des perspectives discutées au Parlement, mieux prendre en compte les citoyens les moins privilégiés, et permettre à ces derniers de mieux s’identifier avec le personnel politique. Ensuite, multiplier les échanges entre parlementaires et citoyens, via la présence en circonscription et les forums délibératifs, faciliterait la transmission de la diversité des opinions vers le système politique. Renforcer les organisations de la société civile et syndicats permettrait aussi de contrebalancer le poids des groupes d’intérêts privés. Enfin, des réformes comme le vote obligatoire ou l’encadrement des dons politiques inciterait les élus à considérer tous les citoyens, et pas seulement les plus privilégiés.
Awenig Marié est fondateur et membre de l'association Datan.
04.01.2026 à 14:03
Ce que révèle une vaste enquête citoyenne sur la qualité de l’eau en France
Texte intégral (2455 mots)
En 2023, des milliers de citoyens ont pris part à un projet de recherche participative visant à cartographier la qualité de l’eau sur le territoire français. Une démarche qui en apprend beaucoup aux chercheurs et qui sensibilise les bénévoles.
Le 29 septembre 2023, partout en France, des milliers de personnes ont endossé, le temps d’un week-end, la casquette du chercheur. Armés de leur smartphone, d’une bandelette colorée et d’une fiche d’instructions, ils se sont lancés dans une expérience collective inédite : mesurer la qualité des eaux de France dans les rivières, les fontaines, les lacs, les puits et les flaques. En quelques jours, près de 800 échantillons ont été collectés et plus de 20 000 données ont été mesurées.
Derrière ces chiffres impressionnants se cache une aventure humaine et scientifique : la Grande Synchr’Eau, une initiative massive de science participative récompensée par l’une des médailles de la médiation du CNRS en 2025 pour son originalité et son impact sur la société. Cette expérience participative inédite a permis de révéler la diversité chimique des eaux françaises.
Le principe est simple : tremper une bandelette dans l’eau, observer les pastilles se colorer, puis les comparer à une échelle. Ce geste, à la fois simple et ludique, cache en réalité des mesures précieuses : le pH (ou l’acidité), la concentration en nitrates issus des engrais, en chlore, ainsi qu’en métaux lourds tels que le cuivre ou le plomb. Pour beaucoup, l’expérience provoque un effet « waouh » : « On avait l’impression de jouer, mais en fait, on faisait de la vraie science », racontait une mère venue vivre l’expérience avec sa fille. C’est là toute la force de la science citoyenne : permettre à chacun de participer à la recherche, tout en produisant des données utiles aux scientifiques.
Une mosaïque de réalités locales
Les résultats, compilés par les équipes de l’INSA Toulouse et du Toulouse Biotechnology Institute, révèlent une France de l’eau pleine de contrastes. En Bretagne et dans le Massif central, l’eau est plus acide, en raison des sols granitiques et volcaniques, car ces roches contiennent peu de minéraux capables de « tamponner » l’acidité. L’eau de pluie, naturellement légèrement acide, n’est donc pas neutralisée en traversant ces terrains, contrairement aux régions calcaires où les roches relarguent du carbonate qui remonte le pH. Dans les plaines agricoles de la Beauce et de la Champagne, les nitrates dépassent parfois 100 mg/L, témoins directs de l’usage intensif des engrais.
En ville, d’autres signaux apparaissent : à Lyon, Toulouse ou Marseille, les citoyens ont détecté du cuivre jusqu’à 6 mg/L, un niveau trois fois supérieur à la limite de qualité de l’eau potable (2 mg/L), généralement lié à la corrosion des vieilles canalisations en cuivre. Dans certaines zones rurales, le chlore est quasi absent, alors qu’en Île-de-France ou dans le Rhône, la concentration atteint des niveaux dix fois supérieurs à ceux observés dans les campagnes du Massif central. Cela reste compatible avec les normes, mais reflète une désinfection beaucoup plus marquée des grands réseaux urbains, expliquant parfois les goûts d’eau chlorée rapportés par certains usagers.
Autrement dit, il n’existe pas une eau française, mais une mosaïque d’eaux locales, chacune portant la marque de son sol, de ses usages et de ses infrastructures.
Des flaques chlorées et des puits ferrugineux
Parmi les échantillons, certaines eaux sortent franchement du lot. Si, globalement, le pH reste dans des valeurs normales (entre 6 et 7,6), la diversité chimique surprend. Le chlore total, c’est-à-dire à la fois le chlore libre (désinfectant actif) et le chlore combiné (qui a déjà réagi avec d’autres substances), atteint parfois 10 mg/L, soit cinq fois la concentration d’une piscine publique.
Certaines flaques urbaines semblent avoir reçu un traitement sanitaire involontaire : ruissellement des trottoirs, résidus de produits ménagers, lessivage des surfaces. Bref, si l’eau des flaques n’est pas potable, certaines sont surprenamment bien désinfectées !
Certains puits battent tous les records de fer, avec des concentrations pouvant atteindre 25 mg/L, soit 500 fois la limite de potabilité. À ce stade, l’eau prend une teinte orangée et un goût métallique prononcé. Sur le millier de prélèvements effectués, 8,4 % des eaux ont été jugées brunes par les citoyens, un signe d’oxydation intense du fer dans les captages locaux. Ce phénomène, fréquent dans certaines zones rurales, n’est pas dangereux en soi, mais rend l’eau impropre à la consommation et peut entraîner des dépôts, des taches et un encrassement des installations domestiques. Il illustre la forte variabilité chimique des eaux locales et les enjeux propres aux puits non traités.
Autre découverte : l’ammonium, présent jusqu’à 40 mg/L dans certains échantillons. Ce composé, issu de la décomposition de la matière organique ou du ruissellement agricole, témoigne d’une activité biologique intense : en clair, une eau très vivante, mais pas forcément celle qu’on a envie de boire.
L’eau, miroir de nos modes de vie
Derrière les anecdotes et les chiffres, ces mesures citoyennes racontent une vérité simple : l’eau enregistre nos modes de vie. Elle circule, transporte et mémorise nos activités. Dans les villes, elle se charge de chlore, de cuivre et de résidus ménagers. Dans les campagnes, elle emporte du nitrate, de l’ammonium ou du fer. Et dans les zones naturelles, elle reste souvent plus équilibrée, mais jamais totalement vierge de l’empreinte humaine.
En plus des cartes, la Grande Synchr’Eau dessine une France curieuse et engagée. L’enquête menée auprès de 120 participants révèle une mobilisation intergénérationnelle : 22 % ont moins de 18 ans, 21 % sont entre 46 et 55 ans, et 45 classes de primaire et de collège ont participé à l’expérience. Les motivations sont variées : 54 % y voient une façon de protéger l’environnement, 43 % de contribuer à la recherche, 28 % pour apprendre et 25 % par curiosité. Autrement dit, mesurer devient un moyen de comprendre et d’agir.
Nourrir la recherche tout en sensibilisant les citoyens
Les effets de la démarche sur les volontaires sont marquants : 81 % des participants estiment que l’expérience a changé leur regard ou leurs comportements, et 82 % ont eu le sentiment de participer à la protection de l’environnement. Lorsqu’on leur demande les mots auxquels ils pensent pour qualifier l’eau, ceux qui reviennent le plus sont vie, vitale et précieuse, ce qui traduit un rapport sensible, presque affectif, à cette ressource commune.
Enfin, à la question « Qui doit agir pour préserver l’eau ? », 83 % citent l’État, 79 % les scientifiques, 71 % les associations et 54 %… eux-mêmes. La science n’est plus perçue comme un domaine réservé : elle devient un espace partagé, où la connaissance se construit à plusieurs et où chacun assume sa responsabilité sociétale.
Au final, peut-on boire l’eau des flaques d’eau ? Non, car elles contiennent parfois plus de chlore qu’une piscine. Mais on peut toujours les observer, les mesurer et les comparer. Ces expériences rappellent qu’il n’y a pas besoin d’un laboratoire pour faire de la science : un peu de curiosité, une bandelette colorée et l’envie de comprendre suffisent à faire émerger une connaissance collective. La Grande Synchr’Eau en est la preuve : la science peut jaillir de partout, même d’une simple flaque.
Nicolas Dietrich a reçu des financements dans le cadre du projet Grande Expérience Participative (2023), financé par l’initiative Nuit Européenne des Chercheur·e·s dans le cadre des Actions Marie Sklodowska-Curie. Un financement complémentaire a été obtenu dans le cadre du projet SMARTER, soutenu par le programme Horizon 2020 de l’Union européenne (Grant Agreement No. 772787)
Johanne Teychené et Nathalie Clergerie ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
04.01.2026 à 10:32
En quoi pourraient consister des sanctions économiques de l’UE contre Israël, et quels effets auraient-elles ?
Texte intégral (1648 mots)
Un cessez-le-feu a été proclamé à Gaza, mais l’armée israélienne continue d’y mener des opérations meurtrières. En outre, la reconstruction de Gaza coûtera des dizaines de milliards de dollars, et Israël ne compte pas y contribuer. Adopter des sanctions à son encontre pourrait changer les choses, dans ces deux domaines.
Plus de 69 000 morts et 170 000 blessés, une famine généralisée, 90 % des habitations endommagées ou détruites : tel était le bilan, au moment de l’entrée en vigueur du cessez-le-feu à Gaza, le 10 octobre 2025, de plus de deux ans de massacres et de destructions. Gaza est dévastée.
« Le mérite premier de l’arrêt de la guerre d’extermination revient à la détermination de notre peuple à Gaza », avait alors déclaré Mustafa Barghouti, secrétaire général du mouvement de l’Initiative nationale palestinienne, un parti palestinien indépendant du Fatah et du Hamas. Si ces propos visaient d’abord à rendre hommage à la population palestinienne, ils résonnent néanmoins dans un contexte marqué par l’impunité générale des auteurs de ce que plusieurs organisations internationales de défense des droits humains, de même que la Commission chargée d’enquêter dans le Territoire palestinien occupé, qualifient de génocide, et par la complaisance des principaux partenaires militaires et commerciaux d’Israël, qui n’ont pris aucune sanction significative à son égard.
Un cessez-le-feu qui n’est pas respecté
Le chemin vers la liberté et l’autodétermination du peuple palestinien reste encore long. Le plan de cessez-le-feu proposé par Donald Trump, largement favorable à Israël, offre peu de garanties à long terme. Aucun représentant palestinien n’a été associé à sa rédaction, et le texte ne mentionne même pas la Cisjordanie, pourtant sous occupation israélienne depuis cinquante-huit ans. De plus, au moins 266 Palestiniens ont été tués et 634 blessés depuis l’instauration du cessez-le-feu. Dans un texte publié le 8 décembre, Amnesty International affirme ainsi qu’« Israël continue d’imposer sciemment des conditions de vie amenant à la destruction du peuple palestinien à Gaza, sans aucun signe que cette pratique ou l’intention sous-jacente ait changé. C’est cela, un génocide. »
Cet accord de cessez-le-feu ne saurait donc écarter la perspective de sanctions économiques. Le 10 septembre dernier, la Commission européenne avait proposé la suspension de l’accord d’association UE-Israël sur les questions liées au commerce. Cette proposition reste pourtant, à l’heure actuelle – et plus encore depuis la proclamation du cessez-le-feu – au stade de simple déclaration d’intention.
Dans une analyse publiée sur Yaani le 29 septembre dernier, nous examinions les effets potentiels de telles sanctions, selon les pays qui les appliqueraient et les secteurs économiques ciblés. Nous en avions tiré trois conclusions.
L’UE peut agir de façon ciblée
Tout d’abord, l’Union européenne a les moyens d’agir. Elle est le premier partenaire commercial d’Israël. Nous avions calculé qu’une simple hausse tarifaire de 20 % à l’import et à l’export pouvait réduire le PIB israélien de 1,1 %. Pour une hausse tarifaire de 50 %, la diminution serait de 1,6 %. Ces chiffres sont des estimations basses car le modèle utilisé pour les obtenir ne tient pas compte des effets à long terme des sanctions. D’un autre côté, l’effet sur l’UE de telles sanctions serait quasi nul. Israël est certes un pays développé, mais son influence sur la chaîne de valeur mondiale n’est pas importante. L’UE peut aisément réorienter ses échanges vers d’autres partenaires commerciaux sans subir de conséquences économiques perceptibles.
Deuxièmement, une coalition élargie de pays sanctionneurs aurait un impact plus élevé. Si, en plus de l’UE, tous les États ayant voté pour l’adhésion de la Palestine à l’ONU (143 pays dont les « BRICS » : Brésil, Russie, Inde, Chine, Afrique du Sud) décidaient également de sanctionner Israël, une hausse tarifaire de 20 % ferait chuter le PIB israélien de 3,1 %, et une hausse de 50 % engendrerait une diminution de 4,4 %.
Enfin, nous avions examiné les secteurs pour lesquels les sanctions seraient les plus efficaces. Pour des sanctions à l’export vers Israël, nous avions montré qu’il s’agissait de l’automobile, des minéraux et du commerce de gros, qui inclut tous les biens exportés via des intermédiaires. Pour des sanctions à l’import en provenance d’Israël, le secteur de la tech est sans surprise le plus déterminant. Le secteur technologique représente près de 20 % du PIB israélien, et quasiment la moitié des exportations israéliennes. C’est donc un secteur à forte valeur ajoutée et très intégré au commerce international. C’est donc logiquement celui pour lequel des sanctions à l’import seraient les plus efficaces.
Sunrise ou Phoenix ?
Plus de deux ans de bombardements incessants sur Gaza ont engendré des destructions considérables. Des experts de l’ONU estiment le coût de la reconstruction à plus de 70 milliards de dollars, dont 20 milliards pour les seules trois prochaines années.
Ce chiffre ne correspond qu’au montant minimal requis pour rétablir des conditions basiques d’existence : d’après le rapport, « accès à l’eau potable, emplois d’urgence, fournitures médicales, sécurisation des habitations et des espaces publics en déblayant les gravats pouvant cacher des munitions non explosées ou les milliers de Palestiniens disparus ».
L’indécent projet « Sunrise » proposé par l’administration Trump, visant à transformer Gaza en une destination touristique de luxe pour 112 milliards de dollars, ignore complètement la participation des Palestiniens en remodelant leur territoire selon des intérêts externes, au détriment de leur histoire et de leur identité. À l’inverse, le plan Phoenix, élaboré par un collectif pluridisciplinaire (architectes, ingénieurs, juristes, sociologues, médecins, entre autres) de Palestiniens, est actuellement le seul à considérer la population locale avec décence.
De plus, le projet de l’administration Trump n’envisage pas de faire contribuer Israël au financement de la reconstruction. Or, les responsables de la destruction de Gaza, en premier lieu l’État d’Israël, doivent être financièrement tenus pour compte.
Avec la possibilité d’instaurer des droits de douane sur les échanges avec Israël, l’UE dispose précisément d’un levier concret pour faire supporter à l’économie israélienne, et aux entreprises européennes qui commercent avec elle, une part de ce coût. D’une part, cette taxe permettrait de prélever directement sur l’économie israélienne et ses partenaires une manne financière substantielle, qui pourrait ensuite être redistribuée aux institutions palestiniennes. Un calcul simple permet d’en avoir une idée.
Les échanges annuels entre l’UE et Israël s’élèvent à environ 70 milliards d’euros. Avec une taxe de 20 % et en tenant compte de la réduction des quantités échangées dues à la taxe avec une élasticité de -5, les échanges bilatéraux UE-Israël tomberaient à environ 28 milliards, générant un revenu tarifaire de l’ordre de 5 milliards d’euros chaque année. Rappelons qu’Israël retient en ce moment même 4 milliards de dollars de recettes fiscales palestiniennes, fonds essentiels au fonctionnement de l’Autorité palestinienne et à la fourniture des services de base à la population.
D’autre part, ces sanctions constituent également un instrument de pression pour contraindre l’État d’Israël à respecter le droit international et à assumer sa responsabilité morale, politique et matérielle dans l’oppression des Palestiniens.
Renoncer aujourd’hui au levier que constituerait l’adoption de sanctions vis-à-vis d’Israël reviendrait à abandonner une fois de plus la population palestinienne. L’Union européenne va-t-elle rester spectatrice d’un drame humain qu’elle a les moyens d’infléchir ?
Mohamed Bahlali ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.01.2026 à 16:57
Un score pour noter les produits ménagers en fonction de leur impact sur la santé et l’environnement
Texte intégral (2227 mots)
À la maison, les nettoyants en tout genre nous exposent à des substances potentiellement toxiques. Dans la lignée notamment du Nutri-Score -cette échelle qui évalue les aliments en fonction de leur valeur nutritionnelle-, l’Agence nationale de sécurité sanitaire (Anses), propose de noter les produits ménagers en fonction des dangers qu’ils font courir sur la santé humaine et sur l’environnement et de l’afficher sur les emballages. Les ministères concernés doivent désormais se prononcer sur la mise en place d’un tel score, la méthode à retenir et le type d’affichage à apposer.
Les produits ménagers que nous utilisons au quotidien peuvent contenir des substances toxiques pour la santé et l’environnement. Les consommateurs sont d’ailleurs en demande d’informations toujours plus précises sur les impacts des produits qui les entourent, afin d’acheter en toute conscience les produits les moins toxiques.
Pour autant, l’ensemble des substances qui entrent dans la composition de ces produits n’est pas systématiquement affiché sur les emballages. Les obligations en matière d’étiquetage varient en fonction des types de produits et de leurs usages.
(Les emballages des détergents – c’est-à-dire les produits chimiques destinés au lavage et au nettoyage des surfaces, du linge, de la vaisselle, etc.- doivent par exemple indiquer les substances parfumantes et les agents conservateurs qu’ils contiennent, conformément à la réglementation, ndlr).
Enfin, les informations sur les étiquettes sont souvent peu compréhensibles pour les consommateurs. Comment savoir alors quels produits acheter pour limiter les effets nocifs sur sa santé ou l’environnement ?
L’exemple du Nutri-Score appliqué aux produits ménagers
De nombreux scores relatifs aux propriétés de nos produits du quotidien ont vu le jour ces dernières années, le plus connu d’entre eux étant probablement le Nutri-Score, le système d’étiquetage nutritionnel développé pour faciliter la compréhension des informations nutritionnelles par les consommateurs et ainsi les aider à faire des choix éclairés.
Dans ce contexte, un des objectifs du Plan national santé environnement (PNSE 4) était de renforcer la lisibilité de l’étiquetage des produits ménagers, afin de mieux informer les consommateurs de leurs dangers sur la santé et l’environnement.
L’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) a donc proposé un référentiel d’étiquetage pour les produits ménagers afin de guider les consommateurs dans leur acte d’achat.
Différents types de produits ont été considérés dans ces travaux : ceux destinés à l’entretien du linge, des surfaces, des sanitaires et de la vaisselle, ainsi que les insecticides, les répulsifs, les rodenticides (produits biocides utilisés contre les souris, les rats et autres rongeurs, ndlr) et les désodorisants d’atmosphère.
Molécules cancérogènes, reprotoxiques, persistantes dans l’environnement et autres substances nocives
Deux méthodes différentes ont été élaborées afin de catégoriser ces produits selon leur niveau de danger pour la santé et l’environnement. À l’instar du Nutri-Score, un objectif était l’élaboration d’un score facilement calculable par les acteurs industriels afin de leur permettre une meilleure appropriation de l’outil et les encourager à améliorer la composition de leurs produits.
La première méthode se fonde principalement sur les dangers sanitaires et environnementaux de l’ensemble des substances entrant dans la composition des produits. La seconde sur la classification des produits eux-mêmes, selon le règlement européen relatif à la classification, à l’étiquetage et à l’emballage (CLP).
Ces méthodes s’appuient principalement sur des bases de données d’organismes reconnus, par exemple les classifications établies dans le cadre du règlement européen CLP ou la classification du Centre international de recherche sur le cancer (Circ).
L’accent a été mis sur la présence de substances ayant des propriétés particulièrement préoccupantes : cancérogènes, mutagènes, reprotoxiques (CMR), allergisantes respiratoires, perturbation endocrinienne (PE), persistantes, bioaccumulables, mobiles et toxiques. Parmi les molécules qui peuvent être citées, on peut nommer le butylhydroxytoluène (BHT), potentiel perturbateur endocrinien, la famille des salicylates, susceptibles d’effets sur la reproduction ou certains détergents à base d’enzymes qui sont des allergisants respiratoires.
Il est important de savoir que les substances classées comme cancérogènes, mutagènes, reprotoxiques (CMR) selon le règlement européen relatif à la classification, à l’étiquetage et à l’emballage (CLP) sont interdites dans les produits ménagers. Cependant, cette interdiction ne s’applique qu’au-delà d’une certaine concentration, ce qui signifie qu’il est donc malgré tout possible de les retrouver en faible quantité dans ces produits.
Sprays, « effet cocktail »… ces usages et compositions qui augmentent le danger
En plus de ces critères de danger, l’Anses propose de tenir compte dans le calcul du score d’autres critères en lien avec le mode d’utilisation et la composition du produit. Par exemple, un produit sous forme de spray, ou qui génère des aérosols, expose davantage son utilisateur qu’un produit sous forme de gel. En effet, du fait de la mise en suspension de particules dans l’air intérieur, ces produits peuvent exposer l’utilisateur par voies respiratoire, cutanée ou oculaire et sont incriminés dans la survenue de pathologies respiratoires notamment l’asthme chez les jeunes enfants.
La présence d’un grand nombre de substances dans un produit peut également constituer un risque supplémentaire puisqu’il augmente la probabilité d’un « effet cocktail » dû à l’interaction des substances. En effet, l’augmentation du nombre de substances accroît la probabilité d’interactions entre celles-ci, et donc l’apparition de nouveaux dangers au-delà même de ceux relevant des substances présentes dans la composition considérée individuellement.
Ceci est également vrai lorsque le produit contient des mélanges inclus, c’est-à-dire préfabriqués. Les responsables de la mise sur le marché du produit final ne connaissent pas nécessairement la composition exhaustive de ces mélanges.
Enfin, la présence de substances considérées comme d’intérêt limité pour l’efficacité du produit, comme les parfums ou les colorants, peut également augmenter la toxicité de certains produits.
Deux scores – environnement et santé – pour des notes de « A » à « E »
À partir de ces différents critères, chaque méthode propose donc le calcul d’un score de « A » à « E » permettant de catégoriser les produits selon leur niveau de danger. Le score « E » correspond au plus haut niveau de préoccupation. Le score « A », associé au plus faible niveau de préoccupation, ne correspond pas pour autant à une absence de danger. Un produit de score « A » se révélera toujours une meilleure option pour le consommateur qu’un produit moins bien classé présentant un danger plus important.
Pour une information claire du consommateur, l’Anses a recommandé que chaque méthode conserve deux scores distincts pour chaque produit, l’un reflétant son impact sur la santé humaine et l’autre celui sur l’environnement. Le choix de maintenir deux scores distincts permet de rendre l’information au consommateur plus transparente. De plus, le choix de ne pas « moyenner » ces deux scores évite une possible compensation, par exemple d’un score défavorable pour la santé par un score favorable pour l’environnement.
Ces méthodes pourront également permettre aux fabricants d’améliorer la composition de leurs produits ménagers. Plusieurs leviers peuvent être envisagés tels que : limiter voire supprimer les substances les plus préoccupantes, diminuer le nombre de substances dans le produit ou encore retirer les substances considérées comme d’intérêt limité.
Une première phase de test sur un panel de produits
L’Agence a testé ces méthodes sur un panel de produits, sélectionnés afin de présenter des caractéristiques différentes les unes des autres : formes (poudres, liquides, sprays…), fonction (désodorisant d’ambiance, nettoyant spécifique ou multi-usage), etc.
Les deux méthodes présentent entre elles des résultats très comparables. Environ 80 % des produits obtiennent un score « E » pour le volet sanitaire contre 15 % pour le volet environnement.
Cette forte disparité entre le volet sanitaire et le volet environnement est frappante mais a une explication : il y a encore trop peu d’évaluations des effets des substances sur l’environnement, jugés moins prioritaires par rapport aux effets sur la santé humaine. Ainsi, de nombreuses substances ne sont pas présentes dans les sources de données consultées, faute d’avoir été évaluées.
À quand un score sur les produits ménagers vendus en magasins ?
Pour rester pertinentes, les méthodes devront évoluer avec les connaissances scientifiques et ainsi améliorer la connaissance du danger réel des produits. Au même titre que les données écotoxicologiques doivent être renforcées, d’autres paramètres pourraient être inclus dans ces méthodes si les sources de données le permettent, par exemple la présence de substances à l’état de nanoparticules ou ayant d’autres effets sur la santé (par exemple une neurotoxicité, c’est-à-dire une toxicité qui affecte le système nerveux).
Les ministères doivent désormais se prononcer sur la mise en place d’un tel score, la méthode à retenir et le type d’affichage à apposer.
En attendant de voir de tels scores sur les étiquettes de nos produits, quelques conseils peuvent d’ores et déjà être suivis par les consommateurs.
Comment limiter son exposition aux substances potentiellement toxiques des produits ménagers
- Adoptez une attitude raisonnée. Par exemple, l'utilisation d'un désinfectant pour nettoyer une surface n'est pas toujours nécessaire, un détergent peut être suffisant;
- Lisez bien les étiquettes des produits et respectez les conditions d'emploi: quantités à appliquer, dilution nécessaire, port de gants ou de lunettes, rinçage, etc. qui limiteront l'impact possible sur votre santé mais aussi sur l'environnement;.
- Favorisez des produits sans parfums et sans colorants: cela garantit un nombre de composants plus réduit dans le produit et, notamment, moins de substances irritantes ou allergisantes;
- Évitez le recours aux produits ménagers sous forme de sprays ou générateurs d'aérosols;
- Aérez votre logement après nettoyage ou après utilisation d'un désodorisant d'intérieur, afin de disperser les substances émises par les produits appliqués;
- Ne mélangez jamais plusieurs produits et ne déconditionnez jamais de produit dans un emballage alimentaire;
- Enfin, gardez toujours tous ces produits hors de portée des enfants.
Cet article s’appuie sur un rapport d’expertise de l’Anses publié en 2025 auquel ont contribué des agents de l’Anses et les experts suivants : Luc Belzunces (INRAE), Alain Aymard (retraité DGCCRF), Nathalie Bonvallot (EHESP), George De Sousa (INRAE), Guillaume Karr (INERIS), Jean-Pierre Lepoittevin (Université de Strasbourg), Christophe Minier (Université Le Havre), Mélanie Nicolas (CSTB), Emmanuel Puskarczyk (CAP Nancy).
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.