08.01.2026 à 11:45
La marche, premier mode de déplacement en France : ce que disent vraiment les statistiques de mobilité
Texte intégral (2744 mots)
Les statistiques de mobilité orientent les politiques publiques. Or en France, la manière de les présenter, héritée des années du tout automobile, minore la part de la marche, ce qui pénalise le développement des mobilités actives. Et si on s’inspirait des approches statistiques déjà déployées ailleurs, par exemple en Suisse, pour mieux comptabiliser le temps passé à marcher ?
Les statistiques ne sont jamais neutres : elles sont le reflet de choix politiques répondant à un contexte historique spécifique. La manière de présenter les résultats des enquêtes statistiques sur la mobilité des personnes en France, qui a déjà 50 ans, n’échappe pas à cette règle. Elle conduit à sous-estimer fortement les déplacements à pied, au risque de continuer à favoriser des politiques en faveur des modes de déplacement motorisés.
Il est grand temps de réformer cet usage, comme l’a fait la Suisse il y a déjà 30 ans, si l’on souhaite redonner aujourd’hui davantage de place aux mobilités actives, tant pour des raisons sociales, économiques qu’environnementales.
Pour rappel, la marche est le mode de déplacement le plus inclusif, le plus démocratique et le moins nuisible à l’environnement, et pas seulement dans le cœur des grandes villes.
À lire aussi : Atteindre les objectifs climatiques améliorera aussi la santé publique
Ce que disent les statistiques sur la mobilité
En France, depuis la standardisation des enquêtes sur la mobilité des personnes en 1976, les déplacements sont généralement présentés sous forme de « parts modales ». Il s’agit des parts, sur l’ensemble des déplacements comptabilisés, réalisées avec chaque mode de déplacement : voiture, deux-roues motorisé, transports collectifs, vélo, marche…
Dans les présentations classiques des données recueillies, la part modale de la marche apparaît très inférieure à celle de la voiture. Pourtant, quand on regarde l’autre grande source statistique que représentent les enquêtes sur la mobilité réalisées dans les grandes villes, les déplacements à pied dominent dans les centres-villes, et parfois également dans les banlieues denses de la proche périphérie. Mais partout ailleurs, c’est largement le contraire et le triomphe de la voiture apparaît ainsi incontestable.
En conséquence, pour qui découvre ces statistiques ainsi présentées , dans la plupart des territoires, il paraît nécessaire de s’occuper en priorité des voitures, de leur accorder davantage de place pour circuler et stationner, même si cela doit se faire au détriment des espaces publics, des trottoirs, des places publiques et autres terre-pleins.
Ce qu’oublient de préciser ces représentations
Examinons ces chiffres de plus près. En réalité, ce qu'on nomme habituellement la « part modale de la marche » ne concerne que la « marche exclusive », c’est-à-dire les déplacements entièrement faits à pied, par les résidents, sur l’espace public et hors du temps de travail.
Par convention, on oublie ainsi :
la marche intermodale, c’est-à-dire les déplacements à pied pour rejoindre ou quitter un transport public ou une place de stationnement pour voiture, vélo ou deux-roues motorisé,
la marche effectuée dans des espaces privés ouverts au public, comme les centres commerciaux ou les gares,
la promenade ou la randonnée,
la marche pendant le travail, y compris quand elle est effectuée sur l’espace public, qui est pourtant très importante dans certaines professions,
la marche au domicile pour effectuer toutes sortes d’activités : du ménage au jardinage, en passant par le bricolage, etc.,
enfin, la marche réalisée par les visiteurs (touristes et autres non-résidents) du territoire.
À lire aussi : Mobilité : et si on remettait le piéton au milieu du village ?
Comment expliquer une approche si restrictive ?
Les conventions statistiques sur la mobilité ont été élaborées dans les années 1960-1970 à l’époque du « tout automobile », puis des premiers efforts réalisés pour relancer les transports publics. Dans ce contexte, il fallait avant tout prévoir et dimensionner la voirie pour absorber un trafic motorisé fortement croissant, les piétons étant très peu considérés et les cyclistes censés disparaître.
Par convention dans les enquêtes sur la mobilité, un déplacement, c’est une personne qui va d’un lieu d'origine à un lieu de destination, avec un ou plusieurs modes et pour un motif particulier. Les modes sont hiérarchisés avec priorité aux plus lourds : d’abord les transports publics, puis la voiture, puis les deux-roues et enfin la marche.
Autrement dit, si une personne se rend à pied à un arrêt de bus, prend le bus, puis termine son trajet à pied, le déplacement est considéré comme ayant été fait en transport public et la part de marche est tout simplement ignorée. Dans cette approche, la marche devient un « résidu » statistique, c’est-à-dire ce qui reste une fois qu’on a pris en compte tous les autres modes de déplacement. Pourtant, les usagers des transports publics passent environ la moitié de leur temps à pied à marcher ou à attendre.
À lire aussi : Réduire l’empreinte carbone des transports : Quand les progrès techniques ne suffisent pas
Ces pays qui comptabilisent les déplacements différemment
Or, cette représentation des statistiques de déplacement en France est loin d’être la seule possible.
En Suisse par exemple, depuis une réforme des statistiques de la mobilité introduite en 1994, les résultats des enquêtes de mobilité sont présentés sous trois angles différents : les distances parcourues, le temps de trajet et le nombre d’étapes.
Par étape, on entend ici les segments d’un déplacement effectués à l’aide d’un seul mode de transport. Un déplacement en transport public, par exemple, compte le plus souvent une première étape à pied, puis une deuxième en transport public et une troisième à nouveau à pied : on parle de marche intermodale.
Ainsi, en 2021, en ne tenant compte que de la marche exclusive et de la marche intermodale, les Suisses ont passé chaque jour plus de temps à pied qu’en voiture.
Ailleurs, on réfléchit aussi à d’autres manières de présenter les résultats des enquêtes sur la mobilité, comme en Belgique ou au Royaume-Uni.
En réalité, 100 % de nos déplacements intègrent au moins une part de marche, même minimale lorsqu’il s’agit par exemple de simplement sortir de sa voiture sur le parking de son lieu de travail. La marche est à l'origine de toutes les autres formes de mobilité et les autres modes ne sont que des « relais du piéton ». Parce que nous sommes des bipèdes, la marche est évidemment notre premier mode de déplacement.
Vers une nouvelle approche en France ?
La France peut-elle changer sa façon de présenter les statistiques de mobilité, dans le sillage de ce que propose la Suisse ?
Pour prendre conscience de l’importance journalière de la marche, il convient de l’aborder en temps de déplacement total à pied. Une récente étude de l’Ademe révèle que nous passons chaque jour une heure et douze minutes à pied, soit beaucoup plus que la durée moyenne passée en voiture chaque jour, qui est de 37 minutes.
Ces résultats montrent aussi que la prise en compte de la marche intermodale augmente de 75 % la durée de la seule marche exclusive (dite « déplacements locaux intégralement à pied » dans le graphique ci-après). En tenant compte de tous les temps consacrés à se déplacer, la marche est sans conteste le premier mode de déplacement, loin devant la voiture.
Cette étude repose sur l’utilisation de deux enquêtes existantes mais sous-exploitées (l’enquête mobilité des personnes et l’enquête emploi du temps des Français) et en adoptant plusieurs hypothèses prudentes.
En quelques centaines de milliers d’années d’évolution humaine, la bipédie s’est hautement perfectionnée. Elle a permis de libérer nos mains, nous a rendus très endurants à la course et a contribué à développer notre cerveau. Puis, en 150 ans seulement avec l’avènement du transport motorisé, la marche utilitaire quotidienne s’est effondrée.
Pourtant, de par notre constitution, marcher régulièrement est essentiel pour rester en bonne santé, pour bien grandir, vivre mieux et bien vieillir. C’est un enjeu de santé publique. C’est pourquoi, il convient de réaliser des espaces publics confortables, de libérer les trottoirs du stationnement sauvage et autres obstacles, de ménager des traversées piétonnes sécurisées et de calmer la circulation automobile, sa vitesse et son volume. Pour appuyer de telles politiques, encore faudrait-il revoir notre manière de représenter la marche dans les résultats des enquêtes de mobilité.
Frédéric Héran est membre du conseil d’administration de l'association et groupe de réflexion Rue de l’Avenir
08.01.2026 à 11:45
Peut-on encourager le covoiturage avec des subventions locales ?
Texte intégral (1743 mots)

Le covoiturage est souvent perçu comme une des façons les plus simples de baisser les émissions de gaz à effet de serre des transports. Si le premier bilan des subventions locales visant à généraliser cette pratique est encourageant, il masque en vérité plusieurs aspects.
Face à l’urgence climatique et aux embouteillages chroniques des métropoles françaises, les pouvoirs publics cherchent des solutions pour réduire l’usage de la voiture individuelle. Les automobiles des particuliers sont la principale source des émissions de gaz à effet de serre du transport en France. Elles sont également émettrices de particules fines qui dégradent la qualité de l’air et augmentent les risques de maladies respiratoires et cardiovasculaires.
Face à cette réalité, le covoiturage est une piste qui suscite beaucoup d’espoir, car elle ne nécessite pas d’infrastructures lourdes supplémentaires, s’appuyant sur des ressources existantes de véhicules et de conducteurs. Parmi les solutions incitatives, les aides financières locales au covoiturage, notamment via des plateformes numériques, se développent depuis 2019. Mais ces subventions encouragent-elles vraiment plus de covoiturage ? Et quels sont les gains environnementaux dus à ces subventions ?
Des résultats probants, mais variables selon les territoires
La loi d’orientation des mobilités (LOM), promulguée en 2019, autorise les autorités organisatrices de mobilité à verser une incitation financière aux conducteurs et passagers d’un trajet en covoiturage. Le versement de cette subvention s’effectue principalement via des plateformes numériques qui organisent le covoiturage. La subvention moyenne pour un déplacement en covoiturage de 22 kilomètres s’élève à 1,60 euros.
Pour voir si ce levier est efficace, un jeu de données est précieux : celui du registre de preuve de covoiturage. Il centralise les données de trajets transmises par les plateformes partenaires. Notre étude récente utilise ces données pour mesurer la pratique du covoiturage organisé via plateforme dans 1 123 collectivités locales françaises entre 2019 et 2024.
Elle révèle que ce levier est effectivement puissant. En moyenne, l’introduction d’une subvention locale attribuée pour chaque déplacement augmente d’environ 5 trajets mensuels le nombre de trajets de covoiturage à courte distance (inférieurs à 80 kilomètres) sur plateforme pour 1 000 habitants concernés. Chaque euro de subvention supplémentaire par déplacement génère près de 4 trajets mensuels additionnels par 1 000 habitants. Autrement dit, les finances publiques locales, investies dans ce type d’incitation, produisent un effet tangible et mesurable sur le terrain.
Ce résultat masque cependant une forte diversité. L’effet des subventions est nettement plus marqué dans les zones urbaines denses et peuplées. À l’inverse, dans les territoires peu denses et ruraux, la subvention n’a quasiment aucun effet, traduisant les difficultés du covoiturage à s’implanter sans une masse critique d’usagers. Cette disparité met en lumière le rôle central des effets de réseau propres aux plateformes numériques : plus il y a d’utilisateurs, plus elles deviennent utiles, ce qui amplifie l’impact des subventions.
D’autres réalités doivent également être soulevées pour comprendre l’efficacité ou non de ces subventions, notamment du point de vue environnemental.
L’effet d’aubaine : inciter ceux qui viendraient de toute façon
L’effet d’aubaine se produit lorsque des utilisateurs auraient covoituré via la plateforme même en l’absence de toute subvention. Par exemple, un salarié habitué à organiser son covoiturage quotidien sur une application continue simplement à le faire, mais touche désormais une prime financière.
Ici, la dépense publique n’a donc pas changé son choix ni augmenté le nombre total de trajets partagés, ce qui dilue l’efficacité de la politique.
L’effet d’opportunité : attirer les covoitureurs informels sans créer de nouveaux trajets
L’effet d’opportunité correspond lui aux covoitureurs qui, sans subvention, auraient continué à partager leurs trajets en dehors des plateformes numériques (par exemple via le bouche-à-oreille ou des groupes privés). Lorsque la subvention est instaurée, ils transfèrent leur pratique sur la plateforme pour bénéficier des aides. Ainsi, le volume de trajets enregistrés croit artificiellement, sans que la part réelle du covoiturage dans la mobilité globale n’augmente. Par exemple, deux voisins qui organisaient ensemble leur trajet en voiture hors plateforme rejoignent l’application pour percevoir la prime, sans modification de leur habitude de déplacement. Une enquête du Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement (Cerema) montre qu’un tiers des nouveaux covoitureurs attirés par les dispositifs d’incitation financière covoituraient déjà avant la mise en place de l’incitation.
Le report modal : comprendre d’où viennent les nouveaux passagers
Le facteur le plus décisif concerne cependant les sources du report modal : il s’agit d’identifier le mode de transport qu’un passager du covoiturage aurait utilisé si la subvention n’existait pas. Contrairement à l’idée reçue, une grande partie des nouveaux passagers du covoiturage issu de la subvention ne sont pas d’anciens automobilistes solo, mais d’anciens usagers du transport collectif (bus, train) ou parfois des modes actifs (comme le vélo ou la marche).
Prenons l’exemple d’une passagère qui renonce au TER pour un trajet covoituré subventionné : cela ne retire pas une voiture de la circulation, et les bénéfices pour la réduction des émissions sont nettement moindres que si elle avait quitté la voiture solo.
D’après l’enquête nationale sur le covoiturage pilotée par l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), 35 % des passagers du covoiturage courte distance via plateforme faisaient le déplacement en transports en commun avant de pratiquer le covoiturage, 11 % utilisaient un mode actif et 10 % ne faisaient pas ce trajet. Ce constat est valable tant pour le covoiturage court que longue distance, freinant fortement l’effet net de la politique sur les émissions de gaz à effet de serre.
Combien coûte réellement la tonne de CO₂ évitée ?
Pour obtenir une mesure de l’impact net des subventions, il est donc indispensable de corriger les chiffres bruts du nombre de trajets en tenant compte de ces trois effets. Selon notre étude, ces phénomènes expliquent qu’entre un tiers et la moitié de l’augmentation observée n’est pas associée à une réelle réduction de l’autosolisme ou des émissions.
Une manière de mesurer l’efficacité d’une politique de réduction des émissions de gaz à effet de serre, et de la comparer à d’autres politiques, est de calculer le montant nécessaire pour éviter l’émission d’une tonne de CO2. Dans le cas du covoiturage, chaque tonne de CO2 évitée coûte à la collectivité entre 1 000 et 1 300 euros en subventions.
Ce chiffre se situe dans la fourchette haute des instruments de politique climatique en Europe, ce qui dénote une efficacité très relative. À titre de comparaison, le dispositif d’encouragement de l’adoption de la motorisation électrique a un coût pour les finances publiques de l’ordre de 600 euros par tonne de CO₂ évitée.
Vers une stratégie de long terme, ciblée et combinée
Ces résultats montrent bien la nécessité de concevoir des politiques qui ciblent précisément les changements de comportement les plus à même de réduire les émissions de CO2. Ces politiques seront d’autant plus efficaces qu’elles convainquent des autosolistes d’abandonner leur voiture pour covoiturer en tant que passager. Pour cela, des stratégies combinées seront nécessaires : incitations financières, infrastructures adaptées comme les voies réservées, développement de l’intermodalité…
Enfin, l’effet des subventions croissant dans le temps et le développement de la pratique du covoiturage invitent à une vision de long terme, loin des mesures ponctuelles d’effet d’annonce.
Guillaume Monchambert est membre du conseil scientifique de la Société des Grands Projets (SGP). Il a reçu des financements de la Région Auvergne-Rhône-Alpes (Projet Covoit’AURA) et de la BPI (projet Mobipart). Il a effectué des activités de conseil pour SNCF Réseau et SNCF Voyageurs.
08.01.2026 à 11:37
Does running wear out the bodies of professionals and amateurs alike?
Texte intégral (1935 mots)
Running counts among today’s most popular sports. Sometimes the race is on even before the competition itself has started, as tickets for events sell out within hours. In France, this has got people talking about a “race for the runner’s bib”.
So, while running enjoys the reputation of a wholesome sport, the reality is that some of us feel stress at the simple prospect of donning a bib, while even a greater number of us face exhaustion upon completing a race such as a marathon or trail. So, what exactly is the toll of the sport on our bodies, and does our status as an amateur or a pro make a difference?
Working it out like a pro
It’d be easy to place professional and amateur runners in two separate boxes. Indeed, pros train hard–up to three times a day ahead of certain races. Life at those times is austere, punctuated by meals, runs and sleep, leaving little room for improvisation. And while you might think that the countless events around the world might dilute some of the demand for them, competition in such a universal sport is in fact fierce and professional runners need to push their bodies to the limit to get better at it.
High-level careers are often brief, lasting five or six years. Stories such as that of Eliud Kipchoge, the first man to run a marathon in under two hours (under non-certifiable conditions), sixteen years after becoming world champion in the 5,000 metres on the track, remain exceptions.
The significant mechanical stress inherent in the sport weighs on the muscles, tendons and skeleton. There are times when rest periods are short and it’s increasingly common to see athletes injuring themselves during competitions on live television, a surefire sign of physical and mental exhaustion. Some might consider these factors to be fairly typical: after all, these are top-level athletes.
Similarities between professionals and amateurs
But are world champs, next-door champs and ordinary runners really that different? Considering the tip of the iceberg of this question, the answer seems obvious: they don’t run at the same speed and therefore don’t spend the same time exerting themselves. But what about the submerged part: the pre-race prep, training, the individuals’ investment and self-sacrifice? When you want to break a record–your own record–don’t you give 100% of yourself, both physically and mentally?
Let’s consider the figures for the Paris Marathon in 2025: 56,950 registered for the race, 55,499 finishers. The mass event spells the same challenge for all: 42,195 km (around 26 mi) for the fifty or so athletes who might be considered elite and all the others who have to juggle it with their professional and family lives.
In truth, regardless of your level or speed, there are many similarities in how you prepare for a marathon, with identical training loads. Marathon training typically lasts ten to twelve weeks and includes essential elements such as “long runs”, a training session of around thirty kilometres recommended once a week.
No one escapes it. And there’s a whole range of science-based books on running, designed to guide the general public.
However, as training takes its toll on both body and morale, the risk of injury rises.
Trail or marathon prepping: increased risk of injury for amateurs
In fact, we most often see stress-related injuries among amateurs.
A high-level athlete doesn’t need to see a sports doctor. Why is that? Because they have built their careers over many years and have specific genetic characteristics that allow them to take on heavy training loads. They follow a specific programme that includes dietary measures, recovery phases and processes.
Professional athletes benefit from much better general and medical support than novice or amateur runners who, whether for individual or collective challenges, embark on projects such as marathons or trail running. This is how a runner like Christelle Daunay, after fifteen years of practice and modest beginnings at the national level, patiently built herself up to win the European Marathon Championships in Zurich in 2014.
When physical stress takes its toll on professionals
The issue of physical stress has been raised for a long time. In the 1990s, it was already reported that simply running for 45 minutes rather than 30 minutes a day could double the frequency of injuries. Going from three to five weekly sessions had similar effects.
Christelle Daunay was no exception. She suffered a stress-related fracture in 2018, which prevented her from defending her title as European marathon champion in 2014. It should be noted that a “stress fracture” is a bone injury, similar to a crack, which can be caused by running long distances.
When ultra-trail puts body and mind to the test
The recent development of trail running (i.e. running in the great outdoors) only reinforces these concerns, with not just the wilderness but “ultra” aspect appealing to many.
The extreme sport has its own particularities. Due to the irregular terrain, its practice requires different joint and muscle movements and therefore greater concentration than road running. Add to that the effort’s duration, ranging from a few hours to a full day or more, the issues of nutrition, effort management, and muscle damage that sets in over time, and it’s easy to understand why these events lead to mental and physical fatigue, not only during the event itself, but also in the long term.
The conditions of running-related physical wear depend on many factors and vary from person to person. For example, on whether you jog to hit a speed or mileage goal.
Wearing out the body at a given moment to increase its resistance… to wear and tear
Whatever the focus, people often engage in specific training programmes, with physical and physiological progress relying on the human body’s remarkable adaptive capacity.
Note the paradox here: one of the principles of training is to stimulate the body, to “wear it out” at a given moment in time in order to trigger the physiological processes that will lead to improved capabilities, the fight against fatigue… and, ultimately, increased resistance to physical stress.
This fundamental process is the basis of physical rehabilitation/recovery programmes, which are increasingly used in physiopathological contexts, for example to treat peripheral artery disease or obesity.
However, at its most intense, training can require mental commitment, resistance to weariness, and a strong will to continue the effort over time despite fatigue.
Stress can therefore also be mental. This is perhaps the major difference between amateurs and professionals, who have no choice but to put their bodies under severe strain in order to progress in the high-level hierarchy.
Pros or amateurs, the importance of good coaching
Seeking to push their physical and mental limits can lead any runner to feel “worn out”. All these factors highlight the importance of being well supervised and advised (by coaches, in clubs, etc.) in order to train with a certain progression, both in terms of quantity and intensity, and to adapt one’s lifestyle.
No technical equipment is needed to run – an advantage which allows you to ideally experience your own body, provided you’re aware of races’ risks and limitations. And rest assured, if you still don’t enjoy this sport, there are plenty of other options available so you can find something that suits you and enjoy the health benefits of physical activity. What’s important is to keep moving.
Extract from What I Talk About When I Talk About Running by Haruki Murakami:
“Human beings naturally continue doing things they like, and they don’t continue what they don’t like. That’s why I’ve never recommended running to others. It doesn’t suit everybody. Similarly, not everyone can become a novelist.”
Benoît Holzerny, a health-promoting sports coach, and Cédric Thomas, a top athlete trainer (including the 2014 European marathon champion, Christelle Daunay), contributed to writing this article.
Sylvain Durand ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.01.2026 à 08:47
Les États-Unis arraisonnent un navire battant pavillon russe : que dit le droit de la mer ?
Texte intégral (1621 mots)
Les États-Unis affirment avoir agi dans le respect du droit international. La Russie dénonce une violation manifeste du droit de la mer. Entre accusations et contre-accusations, l’arraisonnement d’un navire battant pavillon russe soulève un point de droit de la mer inédit.
Les relations entre les États-Unis et la Russie ont connu un nouvel accroc après que les garde-côtes américains ont abordé un navire naviguant dans les eaux islandaises, affirmant qu’il violait les sanctions visant le Venezuela. L’incident a immédiatement donné lieu à des accusations et des contre-accusations entre les États-Unis et la Russie.
Washington a affirmé avoir agi correctement, exécutant un mandat délivré par un tribunal fédéral américain. De leur côté, des responsables russes ont déclaré, selon l’agence de presse russe Tass, que cet arraisonnement constituait une violation manifeste du droit de la mer, affirmant qu’« aucun État n’a le droit d’employer la force contre des navires dûment enregistrés dans les juridictions d’autres États ». Le communiqué précisait que le Bella-1 – récemment rebaptisé Marinera – avait reçu une autorisation temporaire de naviguer sous pavillon russe, le 24 décembre.
Contrairement à l’enlèvement spectaculaire du président vénézuélien Nicolás Maduro de son palais de Caracas, le 3 janvier, une opération que les États-Unis ne semblent même pas tenter de justifier en droit international, l’interception du Marinera/Bella-1 paraît soulever un point inédit du droit de la mer, susceptible d’offrir au moins une certaine marge à Washington pour se présenter comme étant du côté du droit.
Avant l’enlèvement de Maduro, les États-Unis semblaient choisir avec un certain soin les navires transportant du pétrole vénézuélien qu’ils prenaient pour cibles. Il s’agissait soit de navires sans nationalité, soit de navires soupçonnés d’arborer un faux pavillon, ce qui ne leur confère aucune protection au titre de l’article 92 de la Convention des Nations unies sur le droit de la mer (CNUDM), laquelle constitue également la règle de droit international coutumier, applicable aux États non parties comme les États-Unis.
Les navires sans nationalité sont vulnérables
Se trouver sans nationalité, ou adopter une conduite qui offre aux navires de guerre en haute mer un fondement valable pour traiter un bâtiment comme tel, est une position à haut risque que tout navire a tout intérêt à éviter. En effet, un navire sans nationalité n’a, par définition, aucun État sous le pavillon duquel il est enregistré pour faire valoir à son profit la juridiction exclusive et protectrice qui s’exerce en haute mer.
La CNUDM prévoit par ailleurs qu’un navire qui navigue sous les pavillons de deux États ou plus et qui les change en fonction des circonstances, « ne peut se prévaloir d’aucune des nationalités en question à l’égard de tout autre État ». Cela signifie qu’il peut être juridiquement considéré comme sans nationalité.
Ainsi, jusqu’au changement de pavillon signalé le 31 décembre, non seulement les États-Unis mais n’importe quel État étaient en droit de considérer le Marinera/Bella-1 comme un navire sans nationalité. Cela le rendait vulnérable à une interception en haute mer et à l’exercice, à son encontre, de la compétence répressive interne de l’État dont relevait le navire de guerre ou le bâtiment des garde-côtes procédant à l’interception.
La situation juridique demeure toutefois incertaine. La question pourrait être de savoir si les États-Unis poursuivaient déjà le Marinera/Bella-1 au moment où celui-ci a changé de pavillon. Si tel était le cas, Washington pourrait être fondé à ne pas tenir compte de la réimmatriculation.
La CNUDM prévoit ce qu’elle appelle le « droit de poursuite » (hot pursuit). Elle précise que « le droit de poursuite cesse dès que le navire poursuivi entre dans la mer territoriale de son propre État ou d’un État tiers ». Aucun autre cas de cessation de ce droit n’étant mentionné – y compris l’hypothèse où le navire cesserait d’être sans nationalité –, cela laisse aux États-Unis la possibilité de soutenir qu’ils poursuivaient déjà le Marinera/Bella-1 et qu’ils n’étaient donc pas tenus de mettre fin à cette poursuite.
VOUS POUVEZ COURIR, MAIS VOUS NE POUVEZ PAS VOUS CACHER 🔥
Lors d’opérations menées avant l’aube ce matin, les garde-côtes américains ont arraisonné deux pétroliers de la « flotte fantôme » dans l’océan Atlantique Nord et dans les eaux internationales près des Caraïbes. Les deux navires avaient soit fait escale récemment au Venezuela, soit s’y rendaient.
Mais cet argument reste fragile, car rien ne permet d’affirmer avec certitude qu’il s’agissait d’une véritable « hot pursuit ». En droit de la mer, cette notion s’applique à des poursuites engagées depuis l’une des zones maritimes de l’État concerné – et non en haute mer.
Accusations et contre-accusations
Jusqu’à présent, le ministère russe des transports a affirmé que l’action des États-Unis contrevenait à la règle énoncée à l’article 92. La Russie soutient que le changement d’immatriculation est intervenu dès le 24 décembre. Face à cet argument, les États-Unis pourraient faire valoir que ce n’est qu’au moment où le pavillon russe a été peint sur la coque du navire – ce qui aurait eu lieu le 31 décembre – que l’article 92 pouvait être invoqué à leur encontre.
Article qui précise également qu’« un navire ne peut changer de pavillon au cours d’un voyage ou lors d’une escale, sauf en cas de transfert réel de propriété ou de changement d’immatriculation ». Cette disposition est souvent mal comprise et interprétée comme interdisant purement et simplement tout changement de pavillon en cours de route – comme cela semble avoir été le cas ici. Une lecture plus attentive montre toutefois que ce n’est pas exact : ce que la règle interdit, c’est un changement de pavillon sans changement d’immatriculation correspondant.
Mais ce n’est pas la situation ici. À supposer qu’il y ait bien eu une immatriculation effective en Russie, c’est cet élément qui fait foi. Le fait de peindre un pavillon sur la coque faute d’en disposer physiquement n’en est qu’un indice matériel.
Le changement de pavillon en cours de poursuite constitue un point inédit du droit international de la mer, dans la mesure où aucun précédent connu n’existe. En l’absence de réponse juridique claire, la manière dont cet incident se réglera est susceptible de faire jurisprudence. Il faudra donc entendre les argumentaires juridiques concurrents des États-Unis et de la Russie pour déterminer lequel se révèle le plus convaincant.
Andrew Serdy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.01.2026 à 18:03
La « défense avancée » d’Israël au Proche-Orient
Texte intégral (2875 mots)
En dépit des accords de cessez-le-feu conclus avec le Liban et à Gaza, et des discussions en cours avec la Syrie sur les contours d’un accord de sécurité, Israël poursuit une politique dite de « défense avancée » qui fait peu de cas de la souveraineté de ses voisins. Au nom de l’impératif de la sanctuarisation de son territoire, Tel-Aviv continue de redéfinir les frontières, d’étendre sa profondeur stratégique et d’asseoir son contrôle sur son voisinage. Cette politique se heurte toutefois de plus en plus aux intérêts de puissances régionales, comme la Turquie ou l’Arabie saoudite.
Depuis deux ans, l’accumulation de succès tactiques conduit Tel-Aviv à opter pour une politique impériale qui se poursuit en dépit des différents processus de négociations en cours. Au Liban, à Gaza, en Syrie, cette politique ne va pas sans susciter de tensions avec les grands acteurs de la région.
Détruire le Hezbollah… ou détruire le Liban ?
Au Liban, la guerre d’attrition visant à détruire les capacités militaires du Hezbollah – organisation libanaise alliée de l’Iran – et à décapiter sa chaîne de commandement a abouti à l’accord de cessez-le-feu du 27 novembre 2024.
Le dossier libanais est perçu par Israël comme le point de départ de la stratégie de restructuration du Moyen-Orient. Bien que le texte de l’accord ne prévoie que la cessation des hostilités et le retrait des forces militaires du Hezbollah et de ses armes du sud de la rivière Litani en échange d’un retrait israélien des cinq positions stratégiques qu’il occupe au Sud-Liban, la lettre complémentaire (side letter) adressée par Washington à Tel-Aviv donne un blanc-seing à la partie israélienne pour « répondre aux menaces » et « agir à tout moment contre les violations commises dans le sud du Liban ». En d’autres termes, les garanties offertes par les États-Unis permettent à Israël de mener des actions militaires préemptives sans être inquiété pour cela.
Entre novembre 2024 et novembre 2025, la Force intérimaire des Nations unies au Liban (FINUL) a recensé plus de dix mille violations du cessez-le-feu par Israël. La partie israélienne considère que l’engagement diplomatique avec l’État libanais demeure distinct de ses attaques militaires contre le Hezbollah, qu’elle qualifie de groupe terroriste. De surcroît, l’État libanais, qui n’a cessé d’appeler, sans succès, à l’action de la communauté internationale pour faire cesser les attaques quasi quotidiennes contre sa souveraineté et son intégrité territoriale, s’est vu imposer, sous la pression de Washington, un calendrier pour désarmer le Hezbollah, au risque de mettre en péril la stabilité interne, dans un contexte marqué par une grande fragilité de ses institutions.
Ainsi, l’armée libanaise est censée avoir achevé le démantèlement de toutes les infrastructures du Hezbollah et le désarmement total du groupe dans de zone située au sud du Litani, à environ 30 km de la frontière avec Israël ; mais la partie israélienne réclame désormais la mise en application de la phase deux, à savoir la restauration du monopole exclusif de l’État sur les armes. Toutefois, comme le rappellent les universitaires Joseph Daher, Sami Zoughaib et Sami Atallah dans une publication du 20 novembre dernier :
« […] La véritable souveraineté se transmet rarement par une simple signature. Elle repose sur trois fondements interdépendants : un monopole crédible de la force par l’État, des institutions fonctionnelles et solvables, et une légitimité suffisamment large pour lier les communautés à l’État. Le Liban manque de ces trois éléments. Au contraire, la coercition extérieure dicte la politique, transformant l’État d’acteur souverain en instrument. »
La Syrie dans le viseur
En Syrie, tout en poursuivant les négociations autour d’un accord de sécurité, Israël mène des actions qui fragilisent l’État syrien et favorisent la fragmentation du territoire.
Au lendemain de la chute du régime d’Assad – événement dans lequel Israël se félicite d’avoir joué un rôle majeur grâce à sa guerre d’attrition visant à affaiblir les groupes pro-iraniens –, l’aviation israélienne a conduit des frappes préemptives massives, estimant avoir détruit de 70 % à 80 % des capacités militaires syriennes. Entre décembre 2024 et juillet 2025, plus de 800 attaques aériennes israéliennes contre la Syrie auraient été dénombrées.
À ce jour, l’intransigeance israélienne en matière d’exigences sécuritaires continue de faire obstacle à la conclusion d’un accord avec la Syrie. Tel-Aviv, qui a élargi son occupation au Golan en s’emparant de 600 kilomètres carrés sur le territoire syrien, en violation de l’accord de désengagement de 1974, réclame le droit d’intervenir militairement dans le sud syrien et de conduire des frappes sous le prétexte de préserver sa sécurité et sa stabilité.
Le projet d’accord de sécurité, qui reporte la question de la restitution du Golan (occupé par Israël depuis 1967), comporte d’autres exigences drastiques comme l’élargissement de la zone tampon de deux kilomètres côté Syrie et la mise en place d’une zone démilitarisée dans le Sud, qui constitueraient un précédent dangereux. En dépit de sa volonté plusieurs fois réitérée de conclure un accord de sécurité pour apaiser les tensions avec Israël, le président syrien Ahmed al-Charaa se montre réticent à l’idée d’une zone tampon qui transformerait la région en un espace de danger « aux conséquences inconnues ».
Israël dispose déjà d’une totale liberté d’action en Syrie comme l’illustre parfaitement sa gestion de la province de Quneitra, où les habitants font face à des incursions quotidiennes, à des contrôles et arrestations arbitraires, à la confiscation de leurs logements et de leurs biens, sans que l’armée syrienne ne les protège.
Tout en adoptant une posture maximaliste dans les négociations, Israël cherche à exploiter les minorités druze et kurde comme vecteur de déstabilisation, renouant ainsi avec la stratégie de l’expert du ministère israélien des affaires étrangères Oded Yinon développée dans les années 1980. Yinon considérait le monde arabe comme un maillon faible de l’ordre international. Les États étaient « un château de cartes temporaire » construit par la France et le Royaume-Uni dans les années 1920, qui ont divisé arbitrairement la région en dix-neuf États, « tous composés de combinaisons de minorités et de groupes ethniques hostiles les uns aux autres ». Dès lors, selon lui, ces États étant artificiels, il convient de les démembrer et de recomposer des entités sur des bases confessionnelles.
Cette approche est prégnante chez certains membres du gouvernement Nétanyahou. L’actuel ministre des affaires étrangères Gideon Saar a co-écrit en octobre 2015 avec un colonel de l’armée israélienne un article intitulé « Farewell to Syria » dans lequel il affirmait :
« Toute stratégie élaborée dans le but de mettre fin à la guerre civile en Syrie et de façonner son avenir doit partir d’un postulat clair : la Syrie, effondrée et divisée, ne peut être reconstituée. Il est donc nécessaire de se concentrer sur l’identification d’alternatives pratiques à l’État syrien. […] Un règlement coordonné et ordonné visant à séparer les forces entre la majorité sunnite et les minorités vivant sur le sol syrien […] offre le meilleur potentiel de stabilité. […] Tout accord de paix en Syrie doit reposer sur la garantie de l’existence de ces communautés au sein d’entités étatiques qui leur sont propres. »
Aussitôt après sa nomination à la tête de la diplomatie israélienne, Gideon Saar a annoncé qu’Israël devait se tourner vers les Kurdes, les Druzes et les autres minorités en Syrie et au Liban. Israël a, d’un côté, cherché à instrumentaliser la question druze, comme on l’a vu lors des affrontements intercommunautaires de mai dernier quand les Israéliens, en invoquant la défense des minorités, ont lancé une vague de bombardements massifs en Syrie et continuent de se présenter comme les protecteurs de cette communauté.
À lire aussi : Les violences inter-communautaires en Syrie et l’avenir de la transition
D’un autre côté, la partie israélienne a tenté de renforcer ses liens avec les Forces démocratiques syriennes (dominées par les Kurdes de la branche syrienne du PKK), engagées dans un processus d’unification pour placer les institutions civiles et militaires du nord-est de la Syrie (Rojava), sous le contrôle de l’État.
Après une interview accordée début décembre 2025 au Jerusalem Post par le commandant en chef des FDS, Mazloum Abdi, des révélations du Washington Post ont fait état des liens qu’entretiendraient les FDS avec Israël. Selon le quotidien américain, « des personnalités druzes liées aux services de sécurité israéliens ont acheminé des fonds vers des militants druzes à Soueïda via les FDS quelques mois avant la chute du régime d’Assad ».
Bien que les FDS démentent ces accusations – également nourries par différentes déclarations de Mazloum Abdi (« Si Israël peut empêcher les attaques contre nous et mettre fin au massacre de notre peuple, nous nous en réjouissons et nous lui en sommes reconnaissants ») –, les révélations du Washington Post renforcent l’argument de la Turquie selon lequel les FDS seraient inféodées à Israël, ce qui implique que leur intégration dans l’État syrien doit nécessairement entraîner leur désarmement et la dissolution de leur commandement.
Le mécontentement de la Turquie…
Depuis plusieurs mois, les actions israéliennes en Syrie heurtent les intérêts de la Turquie et suscitent des tensions croissantes avec Ankara. En effet, la Turquie, qui est l’un des principaux parrains d’Ahmed al-Charaa et qui a largement œuvré à sa normalisation, souhaite stabiliser un pays sur lequel elle entend exercer une forte influence.
L’accumulation des tensions a conduit Ankara à déployer des radars turcs à l’intérieur du territoire syrien, ce qui entraverait la liberté d’action d’Israël. La Turquie envisagerait également d’installer une base militaire.
De son côté, Israël a renforcé son partenariat sécuritaire et énergétique avec la Grèce et avec Chypre, opposées à la Turquie sur la question du zonage maritime en Méditerranée orientale. Dans un contexte où Athènes et Nicosie voient en Tel-Aviv un contrepoids aux ambitions de la Turquie, une hypothétique convergence entre Ankara et Téhéran pourrait se dessiner dans les semaines à venir.
Enfin, un autre signe supplémentaire de l’exacerbation des contradictions entre Israël et la Turquie est perceptible dans le refus israélien d’une participation turque à une « force de stabilisation internationale » à Gaza prévue dans le cadre du plan Trump pour la paix publié le 29 septembre 2025.
Ce plan ne constituerait, pour reprendre les termes d’une analyse récente publiée par le média Orient XXI, qu’une étape supplémentaire dans la réalisation du projet hégémonique israélien au Moyen-Orient « en rendant notamment obsolètes les frontières traditionnelles et en garantissant à Israël une liberté de mouvement pour frapper qui il veut, quand il veut et où il veut […] ». Il comporte plusieurs objectifs comme « exploiter davantage les fonds du Golfe pour financer le Conseil de la paix qui serait présidé par Donald Trump et préparer le plan de développement économique de Trump pour Gaza ; […] l’élimination de toute forme de résistance dans les territoires occupés ; la liquidation de la cause palestinienne et le déplacement forcé de la population ; […] normaliser la présence d’Israël dans la région et ses relations avec tous les pays arabes, en particulier l’Arabie saoudite ».
En offrant les mêmes garanties à Israël que dans le cadre libanais, les Américains consacreraient sa liberté d’action sur le territoire gazaoui aux côtés de la force de stabilisation internationale et lui permettraient donc de continuer à contrôler Gaza en évitant le coût d’une occupation permanente.
Par ailleurs, les États-Unis – qui superviseraient le Conseil de la paix et seraient donc en charge de la surveillance du comité de gouvernance temporaire de Gaza et du développement de la bande en coopération avec les pays du Golfe pour financer les projets et maintenir l’illusion d’une légitimité politique – pourraient également tenter, par ce biais, de renforcer les relations entre Israël et l’Arabie saoudite tout en enterrant la question palestinienne.
… et de l’Arabie saoudite
Toutefois, ce dernier pari ne tient pas compte de la déconnexion croissante des intérêts entre Tel-Aviv et Riyad. L’Arabie saoudite ne souscrit pas à l’approche israélienne de la « défense avancée » sous-tendue par une stratégie de restructuration du Moyen-Orient. Elle voit dans l’usage de sa supériorité militaire une menace pour ses propres intérêts et sa politique souveraine. Durant la guerre des douze jours contre l’Iran, Riyad s’est distanciée des actions israéliennes et s’est vigoureusement opposée à l’utilisation de son territoire et de son espace aérien par l’aviation américaine et israélienne pour frapper l’Iran.
Par ailleurs, en Syrie, elle converge avec la Turquie dans sa volonté de stabiliser le pays et veut exorciser le risque d’un effondrement qui sèmerait le chaos dans la région. Sur ce point, l’administration Trump est sur la même ligne que la Turquie et l’Arabie saoudite, tout en cherchant à offrir les meilleures garanties de sécurité possible à Israël, qui demeure étroitement tributaire de l’assistance financière, militaire des États-Unis, ainsi que de leur soutien diplomatique.
Terminons par ce constat du journaliste et écrivain américain Roger Cohen dans un article du New York Times le 30 novembre dernier après un séjour en Israël et au Liban : « Je n’ai trouvé que peu de signes indiquant que la puissance israélienne, telle qu’elle est actuellement déployée, permettra d’assurer un avenir plus pacifique à long terme pour Israël et la région. »
Lina Kennouche ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.01.2026 à 17:58
François Mitterrand, impossible héros de la gauche ?
Texte intégral (2974 mots)
François Mitterrand disparaissait il y a trente ans, le 8 janvier 1996. Premier président de gauche sous la Vᵉ République (de 1981 à 1995), il reste omniprésent dans l’imaginaire français, comme en témoignent de nombreux films ou livres qui lui sont régulièrement consacrés. Malgré d’importantes réformes (abolition de la peine de mort, retraite à 60 ans, RMI…), son legs politique est complexe à assumer à gauche, le parcours de l’homme étant entaché de zones sombres (Vichy, le colonialisme) et d’un soupçon permanent d’insincérité ou de trahison des idéaux qui l’ont porté au pouvoir (rupture avec le capitalisme). Quels sont les apports récents de la recherche à ce sujet ?
En 2016, le centenaire de la naissance de François Mitterrand et les vingt ans de sa disparition avaient donné lieu à de nombreuses commémorations et publications. Dix ans plus tard, de nouvelles recherches ont revisité l’histoire mitterrandienne en s’appuyant notamment sur des sources inédites publiées, à l’image des Lettres à Anne et du Journal pour Anne (2016), ou déposées en archives. Outre sa place croissante dans la littérature scientifique, François Mitterrand s’est aussi installé dans le paysage fictionnel français, dans le Promeneur du Champ-de-Mars (2005), les Saveurs du palais (2012), l’Inconnu de la Grande Arche (2025), dans les séries Bardot (2023) et Tapie (2023), ou, actuellement dans Mitterrand confidentiel, diffusée sur France 2. À travers ces récits, auxquels s’ajoutent des témoignages comme le documentaire écrit par sa fille Mazarine, François Mitterrand, une autre vie possible (2025) , cette figure de la politique française du second vingtième siècle peuple toujours puissamment les imaginaires de nos contemporains. Si sa biographie est désormais bien connue, son héritage, sans cesse réinterrogé, demeure marqué par une forte charge polémique et émotionnelle qui fait obstacle à une héroïsation partisane.
En effet, dans le panthéon de la gauche socialiste, on compte Jean Jaurès (1859-1914), Léon Blum (1872-1950), et, de manière moins évidente, François Mitterrand. Jean Jaurès est célébré comme le grand pacifiste internationaliste, le socialiste républicain, le défenseur des ouvriers de Carmaux. Léon Blum, c’est le choix de l’exercice du pouvoir en démocratie, le Front populaire et ses conquêtes, le combat contre l’antisémitisme et contre Vichy. François Mitterrand est le socialiste qui a le plus longtemps exercé le pouvoir en France : quatorze ans à l’Elysée. Mais la complexité de son parcours l’empêche d’incarner le héros de gauche « idéal ». S’il a longtemps œuvré à contrôler le récit de son parcours, la fin de son dernier septennat et de sa vie est marquée par des révélations tant privées (sa maladie, sa fille cachée) que politiques – notamment la publication d’Une jeunesse française, par Pierre Péan, en 1994, qui révèle à beaucoup son passé durant la Seconde Guerre mondiale.
Trois dossiers principaux – la Seconde Guerre mondiale, la politique (néo)coloniale de la France en Afrique et le rapport au capitalisme – font, selon nous, obstacle à un rapport apaisé de la gauche à François Mitterrand.
Mitterrand et la Seconde Guerre mondiale
Le premier sujet problématique concerne les rôles que François Mitterrand joua durant la période vichyste : la photographie prise avec Pétain le 15 octobre 1942, sa décoration de la francisque en avril 1943, sa relation avec René Bousquet notamment agitent encore régulièrement la sphère éditoriale et médiatique, alors même que l’essentiel des faits est connu de longue date.
Né dans la bourgeoisie charentaise en 1916, François Mitterrand s’engage, étudiant, en politique dans la droite ultraconservatrice de la ligue des Croix-de-Feu du colonel de La Rocque. Mobilisé en 1940, fait prisonnier, il s’évade d’Allemagne, trouve un emploi par ses réseaux familiaux dans l’administration de Vichy, adhère à la Révolution nationale sans être antisémite. Puis il entre progressivement en résistance en 1943 par patriotisme anti-allemand et bascule totalement dans la Résistance en novembre 1943. À la Libération, il s’ancre progressivement et définitivement à gauche.
Beaucoup de ces éléments étaient connus de ses contemporains. L’historienne Noëlline Castagnez a montré que, dès les années 1950, les bancs de droite de l’Assemblée nationale bruissent de l’insulte « francisque Mitterrand » et que durant la campagne présidentielle de 1965, c’est de Gaulle lui-même qui choisit de ne pas se servir de cet élément pour ne pas affaiblir le mythe de la France résistante ou la Ve République. À côté des réécritures ou « recompositions » de Mitterrand lui-même, l’histoire des oublis et (re)découvertes de son passage par Vichy est donc aussi celle des arbitrages de ses alliés et adversaires.
Le choc de la publication d’Une jeunesse française, du journaliste Pierre Péan, en 1994, sera particulièrement fort pour les jeunes socialistes, percevant leur parti comme un rempart homogène contre l’extrême droite depuis les années 1930, élevés dans le mythe résistancialiste selon le terme d’Henry Rousso, et découvrant progressivement, comme l’opinion, l’existence de « vichysto-résistants ».
Ce passé mitterrandien est toujours entouré d’un halo sulfureux, car certains y voient le « péché originel » d’un homme dont le parcours militant est perçu comme insincère, structuré seulement par son ambition.
Mitterrand et le colonialisme
Le rôle de François Mitterrand dans la politique coloniale puis néocoloniale française est un deuxième obstacle mémoriel majeur à la pleine revendication de son héritage à gauche. Cet aspect de sa vie politique a, en effet, fait l’objet d’une percée historiographique et éditoriale dans les années 2024-2025 (avec les travaux d’Anne-Laure Ollivier et Frédéric Turpin, de Thomas Deltombe, de Pascal Blanchard et Nicolas Bancel). Si, à l’issue de ces travaux, de réelles nouveautés ont été mises en lumière, à l’image d’un récit de voyage en Afrique subsaharienne tenu par Mitterrand entre janvier et février 1950, et que nous avons édité, l’essentiel était connu pour qui s’intéressait à la question.
À lire aussi : François Mitterrand, à l’origine du déclin de l’influence postcoloniale de la France en Afrique ?
François Mitterrand avait notamment été ministre de la France d’outre-mer en 1950 et ministre de l’intérieur en 1954, c’est à ce titre qu’il déclare que « l’Algérie, c’est la France », formule alors plutôt consensuelle parmi les forces de gouvernement (et non slogan des ultras de l’Algérie française), puis garde des Sceaux en 1956-1957. Sa dureté à ce poste a notamment été mise en lumière par Benjamin Stora et François Malye en 2010.
L’actualité éditoriale mitterrandienne à ce sujet s’explique par la vivacité des questions mémorielles postcoloniales et par les avancées historiennes sur le rôle la France en Afrique, et notamment la remise en 2021 du rapport de la Commission Duclert sur « La France, le Rwanda et le génocide des Tutsi (1990-1994) ». Ministre colonial de 1950, leader d’un parti anticolonial en 1971, président du discours tiers-mondiste dit de Cancún en 1981 et chef d’État en responsabilité au moment du génocide des Tutsis en 1994 : le parcours de François Mitterrand peut être réduit par des militants déçus ou par des opposants à celui d’un homme fondamentalement de droite passé de colonial à néocolonial.
Les historiens, eux, tentent de contextualiser chacune de ces séquences et en soulignent les continuités de manière plus fine : en 1950, dans un monde politique où la décolonisation est une option très marginale, même à gauche, Mitterrand est un colonial réformiste et progressiste. Comme nous l’avons montré en 1971, il endosse assez peu le programme tiers-mondiste du PS, porté par des experts issus de la gauche chrétienne qui n’ont jamais totalement eu son attention. Ses grilles de lecture et alliances forgées à l’époque coloniale perdurent alors discrètement, sans que ce soit un sujet pour la majorité de l'électorat de gauche : le rapport des candidats au passé colonial français ne fut pas un enjeu de la campagne présidentielle de 1981.
Mitterrand et le capitalisme
Un troisième dossier nourrit négativement son bilan et alimente à gauche son procès en traîtrise : c’est celui de l’absence de rupture avec le capitalisme. C’est en effet sur cette idée forte, centrale dans la doctrine socialiste, qu’il conquiert la tête du PS, proclamant à la tribune du congrès d’Épinay en 1971 : « Celui qui n’accepte pas la rupture […] avec la société capitaliste, celui-là, je le dis, il ne peut pas être adhérent du Parti socialiste. »
Or à cette promesse, qui contribue à l’union de la gauche (1972-1977) et porte l’espoir et le vote de beaucoup à gauche en mai 1981, répond l’annonce très dramatisée du « tournant de la rigueur », le 21 mars 1983. À cette date, le franc est dévalué pour la troisième fois par les socialistes et maintenu dans le système monétaire européen (SME). Ce choix mitterrandien est vécu par certains comme celui de la raison et de l’Europe. Pour d’autres, il signe, par-delà le refus d’une « autre politique » monétaire, la fin du volontarisme social et économique socialiste, le triomphe « des marchés » et celui de l’Europe libérale. L’adoption du traité de Maastricht par référendum à une courte majorité, en septembre 1992, en dépit du fort engagement personnel de François Mitterrand, confirme cette prééminence européenne et libérale du cap présidentiel pour les déçus de 1983. Si la réalité économique et la chronologie de ce « tournant » ont été relativisées par les historiens, à l’instar de Frédéric Bozo qui dans un ouvrage récent revient sur cette « névrose nationale », ce moment reste particulièrement douloureux dans l’histoire de la gauche.
Si le bilan mitterrandien existe, par-delà 1983, (on songe par exemple à la création du revenu minimum d’insertion en 1988), le traumatisme ressenti à l’annonce du « tournant » introduit de fait une fracture qui sépare, d’une part, les grandes mesures de 1981-1982 (on citera pêle-mêle l’abolition de la peine de mort, les nationalisations, la 5ᵉ semaine de congés payés, la semaine de 39 heures, la décentralisation, la retraite à 60 ans, la réforme de l’audiovisuel, les lois Auroux) et, d’autre part, la rigueur, les cohabitations et un second septennat plus marquant sur le plan diplomatique qu’intérieur. À un temps « socialiste » s’opposerait ainsi un temps plus « gaullo-mitterrandiste », qui l’éloigne de la filiation de Jaurès et de Blum.
Le troisième président préféré des Français
En 2026, la peur du retour au pouvoir de l’extrême droite, la polarisation par celle-ci du débat public sur les questions postcoloniales, migratoires et identitaires, l’aggravation continue des crises économiques, politiques, européennes sont des enjeux face auxquels l’héritage mitterrandien ne semble pas le plus univoque et efficace pour la gauche et les socialistes contemporains. La dynamique d’« union de la gauche » qui a porté Mitterrand au pouvoir, au détriment de ses partenaires, n’offre pas non plus de modèle réactivable, au contraire du plus lointain et aussi plus fantasmé « front populaire ».
En 2021, un sondage Ifop classait François Mitterrand troisième président de la République préféré des Français. En tête du classement, de Gaulle, héros national et seul président à avoir fondé une famille politique se revendiquant de manière pérenne de son héritage. En second, le gaulliste Jacques Chirac, qu’une vague de nostalgie avait érigé dès les années 2010 en icône « swag » (stylé, cool), et dont la disparition en 2019 avait suscité une forte émotion. François Mitterrand arrivait cependant largement en tête parmi les sympathisants de gauche.
À l’image de la panthéonisation en 2025 de Robert Badinter, son ami et ministre, qui consacre une part de l’héritage socialiste et humaniste de 1981, on peut ainsi supposer que la mémoire militante, comme la mémoire nationale, continuera à exercer sur le bilan mitterrandien ce « droit d’inventaire » – revendiqué par Lionel Jospin dès 1995 et par François Hollande en 2009 – en sélectionnant ce qui peut, aujourd’hui encore, être rassembleur.
Judith Bonnin est l’autrice, avec Pierre-Emmanuel Guigo, de Mitterrand, à paraître le 13 janvier 2026 aux PUF_.
Judith Bonnin est experte pour la Fondation Jean-Jaurès, qui a financé la publication de sa thèse. Elle est membre du conseil scientifique de l'Institut François Mitterrand.
07.01.2026 à 17:58
Pourquoi reconstruisons-nous les monuments « à l’identique » ?
Texte intégral (2041 mots)

En 2019, la reconstruction de la charpente de Notre-Dame de Paris « à l’identique » des matériaux d’origine et de leur mise œuvre a été présentée comme une nécessité technique, historique et parfois même mystique. Or ce type d’attitude, relativement récente, mérite d’être interrogée en tant que fait culturel qui interroge le rapport de nos sociétés à leur histoire.
Fort de la mission qui lui avait été confiée par l’État dans les années 1830, le service des Monuments historiques fut pendant près de cent cinquante ans l’unique garant du patrimoine national.
Confronté aux dévastations de la Grande Guerre, il mit en place une doctrine de reconstruction des édifices ou parties d’édifices détruits qui fut reprise après la Seconde Guerre mondiale et se maintint inchangée jusqu’au milieu des années 1990. Il ne s’agissait pas de refaire les monuments « à l’identique » de ce qu’ils étaient avant la catastrophe, mais de leur redonner leur apparence originelle tout en les améliorant d’un triple point de vue, technique, archéologique et artistique.
Les charpentes furent par exemple reconstruites en béton armé pour des raisons d’économie, de facilité d’entretien et de résistance au feu. Le matériau pouvait aussi être utilisé pour renforcer des structures instables ou remplacer à moindre coût les maçonneries traditionnelles. À Rouen, la grande voûte en bois de la salle des procureurs du palais de justice, incendiée en mars 1944, fut reconstituée dans son apparence grâce à un voile mince de béton armé supportant à la fois un lambris de bois intérieur et la couverture extérieure en ardoises épaisses. La modification concernait l’ensemble de la structure de l’édifice : du fait de la poussée de la nouvelle voûte, trois fois plus lourde que l’ancienne, il fallut renforcer les fondations en sous-œuvre et forer l’épaisseur des murs pour y installer des tirants métalliques reliant la voûte, le plancher intermédiaire en béton et les fondations.
Retrouver un état de « référence »
Sur le plan archéologique, il était courant de supprimer des éléments considérés comme non pertinents, en particulier ceux du XIXᵉ siècle, une période dévalorisée de l’histoire de l’art. Le but était de retrouver un état de référence, souvent le plus ancien connu. Par exemple pour la reconstruction de l’église de Carignan (Ardennes) détruite en 1940, l’architecte en chef Yves-Marie Froidevaux choisit de revenir à l’état de 1681 en remplaçant la tour-porche du XIXe en pierre par un clocher en charpente de style classique.
Politiques de création
Enfin, la dernière amélioration concernait le domaine de la création. Si les éléments décoratifs répétitifs (corniches, garde-corps, décor géométrique ou végétal, modénature étaient refaits tels qu’ils étaient avant la catastrophe, ce n’était généralement pas le cas des éléments artistiques uniques, tels que tympans sculptés, chapiteaux, vitraux, mobilier. Leur remplacement était alors une occasion de faire appel à des créateurs contemporains.
Lors de la première reconstruction, des commandes furent passées auprès des artistes au cas par cas pour remplacer les éléments mobiliers détruits. Lors de la seconde, le service des Monuments historiques vit dans les destructions une opportunité de développer une politique de création dans les monuments anciens, en particulier dans le domaine du vitrail. L’intervention n’était pas uniquement réparatrice : les objets et vitraux du XIXe siècle, considérés comme inappropriés, étaient souvent supprimés, qu’ils soient endommagés ou non, au profit de créations neuves. La commande reposait sur une conception corporatiste : l’objectif était de créer une classe d’artisans spécialisés dans l’intervention en milieu patrimonial. Ce n’est qu’en 1955 que les commandes commencèrent à s’ouvrir à des artistes qui n’étaient pas aussi des maîtres-verriers, comme Jacques Villon (à Metz) ou Marc Chagall (à Reims).
Les dernières interventions sur les monuments endommagés par la seconde guerre mondiale datent du milieu des années 1980. À Rouen, la flèche de la tour Saint-Romain de la cathédrale fut reconstruite en 1984 avec une charpente en béton armé.
Incontestée, la reconstruction-amélioration s’appliquait à toutes sortes d’interventions, post-catastrophe ou non : la reconstitution des combles du Parlement de Bretagne à Rennes après l’incendie de 1994, la remise en état d’usage du château de Falaise (Calvados) à partir de 1997 ou de celui de Suscinio (Morbihan).
Nouvelles pratiques de reconstruction
Mais le milieu des années 1990 fut aussi celui de l’émergence de nouvelles pratiques de (re)construction, en dehors du champ d’action du service des Monuments historiques. Les interventions s’inspiraient des méthodes de l’archéologie expérimentale qui cherchait, par la reproduction du geste créateur, à mieux comprendre les artefacts originaux. À Saint-Sylvain-d’Anjou, une association initiée par le maire de la commune restitua un château à motte en bois de l’an mil à quelques du site originel afin de l’ouvrir à la visite. À Rochefort la reconstruction de la frégate l’Hermione débuta en 1992 avec un double objectif. Il s’agissait non seulement de refaire un objet à valeur mémorielle et patrimoniale, mais aussi de mettre en scène sa fabrication dans le cadre d’un chantier immersif ouvert au public.
La construction du château (imaginaire) de Guédelon qui débuta en 1997 reposait sur la même stratégie, mais avec une exigence supplémentaire dans le domaine de l’archéologie de la matière et du geste. Il s’agissait de retrouver les savoir-faire et les matériaux correspondant à la période de référence qui avait été choisie. Les interférences avec le présent étaient évacuées pour la science mais aussi pour le spectacle, avec par exemple des ouvriers vêtus de costumes médiévaux.
Le patrimoine-spectacle existait déjà : le premier son et lumière avait eu lieu à Chambord en 1950 avec un succès planétaire et de multiples avatars au fil du temps comme celui du Puy-du-Fou. Guédelon y ajoutait une dimension scientifique et son succès témoignait de la profondeur des attentes du public, qui n’était pas seulement consommateur de divertissement.
Les actuels chantiers de la charpente de la cathédrale de Paris et de la flèche de l’abbatiale de Saint-Denis sont dans la continuité de ce renversement des pratiques engagé dans les années 1990. La triple amélioration qui caractérisait les reconstructions suivant les deux guerre mondiales s’est évaporée. Dévalorisées, les techniques modernes sont considérées comme inappropriées au moment même où leur utilisation plus que centenaire aurait pu en démontrer la pertinence économique et structurelle.
Quant à l’amélioration créative, elle paraît désormais anachronique comme le montre le procès intenté à l’encontre de l’insertion de vitraux contemporains à Notre-Dame de Paris voulue par le président de la République. Appliquant les leçons de Rochefort et Guédelon, les deux chantiers parisiens convoquent science et spectacle. Il s’agit tout autant de retrouver l’apparence ancienne que de s’assurer du geste et de la matière ancienne, sous le regard du public qui est invité à suivre l’avancement des travaux, sur site (à Saint-Denis) ou en différé (à Paris) par médias interposés. Enfin l’équilibre économique est assuré de la même manière, par les dons et les recettes du chantier-spectacle.
La reconstruction de tout ou partie du patrimoine disparu a-t-elle trouvé un nouveau départ ? Le patrimoine-spectacle, qui est aussi patrimoine-science a trouvé son public, mais il ne s’applique qu’à des édifices iconiques de l’histoire nationale. Peut-être marque-t-il la fin de cette expansion patrimoniale dénoncée par les experts dans les années 1990, de l’historienne Françoise Choay, qui y voyait le signe d’un « narcissisme collectif », au directeur de l’architecture et du patrimoine François Barré qui s’inquiétait de l’abus patrimonial. Quoiqu’il en soit, le patrimoine-spectacle-et-science peut dès maintenant être érigé en emblème du champ culturel patrimonial des années 2020.
Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.
Patrice Gourbin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.01.2026 à 17:56
Microcapteurs pour suivre la qualité de l’air : gadgets ou véritables outils de suivi ?
Texte intégral (2994 mots)
Le suivi de la qualité de l’air s’est grandement démocratisé grâce à l’essor de microcapteurs électroniques accessibles à tout un chacun. Ces dispositifs sont-ils performants, et à quelles conditions peuvent-ils fournir une information utilisable ? État des lieux.
La pollution de l’air extérieur peut être liée au trafic routier, au chauffage au bois, aux activités industrielles ou encore aux feux de forêt et aux éruptions volcaniques. La diversité des particules qui en résulte illustre bien la nature diffuse et mobile de cette pollution. Celle-ci a des conséquences graves en termes d'effets sur la santé, allant des troubles respiratoires immédiats à des maladies chroniques incurables.
Selon l’Organisation mondiale de la santé (OMS), la pollution de l’air, tous polluants confondus, est responsable de 7,4 millions de décès par an dans le monde dont 4,2 millions liés à l’air extérieur et 3,2 millions à l’air intérieur. En France, le fardeau sanitaire des particules fines entraînerait à lui seul 40 000 décès chaque année, et est associés à un coût socio-économique estimé à 13 milliards d’euros.
Aujourd’hui, suivre la qualité de l’air auquel chacun est exposé n’a jamais été aussi simple. En quelques clics, il devient possible d’acheter des microcapteurs, d’accéder à des cartes en ligne ou de télécharger des applications mobiles fournissant un accès à ces données en temps réel. Tout comme la météo guide le choix de prendre un parapluie, cet accès offre aujourd’hui aux citoyens et aux décideurs un outil pratique pour orienter leurs actions.
Pourtant, derrière cette démocratisation, se pose la question de la performance de ces microcapteurs opto-électroniques. S’agit-il vraiment de sentinelles de confiance ? Faisons le point.
À lire aussi : Le potentiel oxydant : un nouvel indice pour mesurer la pollution atmosphérique
Des microcapteurs dans l’air du temps
Commençons par rappeler comment est menée la surveillance réglementaire de la qualité de l’air en France. Elle est coordonnée par le Laboratoire central de surveillance de la qualité de l’air (LCSQA) et mise en œuvre au niveau régional par les associations agréées pour la surveillance de la qualité de l’air (AASQA). Les données, librement accessibles grâce au site régional des AASQA, sont produites selon des protocoles normés afin de s’assurer qu’elles soient comparables d’une station de mesure à l’autre et d’une région à l’autre.
Toutefois, le nombre de stations de mesure mises en place résulte d’un compromis entre couverture géographique et coûts. La modélisation, basée sur les modèles Chimere ou Sirane par exemple, permet d’extrapoler la qualité de l’air sur un territoire donné, mais elle reste dépendante de la qualité et du nombre des mesures locales.
Afin de renforcer la couverture sans augmenter les coûts, la directive européenne, dont la réglementation française découle, autorise les réseaux de surveillance réglementaire à procéder à des mesures indicatives, pour lesquelles les exigences de qualité sont plus souples. Ce cadre favorise l’intégration des microcapteurs de 10 à 100 fois moins coûteux que les équipements utilisés pour les stations de référence, tant à l'achat qu’en fonctionnement.
Ce marché a le vent en poupe. En 2023, il pesait plus de 6 milliards d’euros, marché qui pourrait s’élever en 2032 à 13,5 milliards. En 2022, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) dénombrait 60 000 références produits disponibles sur les plateformes de vente en ligne.
On y retrouve donc des microcapteurs à bas coût prêts à l’emploi capables de collecter et de transmettre les données en temps réel. Le prix des composants se limite à quelques dizaines d’euros, tandis que le coût total du dispositif varie d’environ une centaine à plusieurs milliers d’euros selon les fonctionnalités.
Une mesure facile, mais une interprétation parfois délicate
Que valent ces différents types de microcapteurs ? Pour le savoir, il faut d’abord définir ce que l’on souhaite mesurer lorsqu’on parle de particules fines. Loin d’être un mélange défini, les particules dans l’air forment un ensemble hétérogène et variable par leur forme, leur taille et leur état.
Trois catégories se distinguent :
les hydrométéores (pluie, neige, brouillard),
les aérosols (suie, poussières, embruns, composés organiques…)
et les bioaérosols (pollens, bactéries, virus, spores…).
Par convention, la matière particulaire en suspension (ou Particulate Matter, PM) est décrite en fonction de la taille de ses constituants, dans lesquels les hydrométéores doivent être exempts. Ainsi, par convention, les particules grossières PM10, les particules fines PM2,5 et les particules ultrafines PM0,1 représentent respectivement des ensembles hétérogènes de taille inférieure ou égale à 10, 2,5 et 0,1 micromètre (µm).
Plus les particules sont petites, plus elles sont susceptibles de pénétrer profondément dans les voies respiratoires. Les PM1,0 peuvent être également suivies par des microcapteurs et des équipements de référence, mais elles ne font pas l’objet d’une réglementation spécifique ni ne sont associées à des seuils sanitaires!
À lire aussi : Freinage et particules fines : une pollution routière oubliée des évolutions réglementaires ?
Or, les microcapteurs bas coût pour le suivi des particules, dont la mesure est basée sur leur comptage grâce à un principe optique, sont sensibles aux conditions environnementales et aux caractéristiques des particules, ce qui fragilise les performances. Leur fonctionnement repose sur la diffusion de la lumière par le passage d’une particule à travers un faisceau laser. Il s’agit du même principe qui rend visible un rayon lumineux dans la fumée. L’intensité détectée dans une direction donnée dépend de la taille, de la forme, de la composition et de l’orientation des particules.
Il faut également noter que ces microcapteurs sont calibrés avec des particules de polystyrène, loin de refléter l’hétérogénéité réelle de la pollution de l’air extérieur. S’ajoutent à cela leur encrassement et leur vieillissement, qui dégradent les performances dans le temps. L’interprétation des données exige donc une connaissance fine de ces limites.
Des données précieuses… mais sous conditions
Pour autant, les microcapteurs ne sont pas à exclure. En effet, en cas d’épisode de pollution, ils détectent les mêmes tendances que les stations réglementaires, justifiant leur usage pour des mesures indicatives.
Pour s’y retrouver, les organismes pour la surveillance de la qualité de l’air ont mené des évaluations en confrontant les microcapteurs aux équipements réglementaires. Accessibles en ligne, les résultats du challenge Airlab (Airparif, France) et de l’AQ-SPEC (South Coast AQMD, États-Unis) révèlent des corrélations satisfaisantes entre microcapteurs et ces équipements pour les PM1,0 et PM2,5. En revanche, elles sont moins bonnes pour les PM10 , car la conception des microcapteurs et le principe de la mesure ne permettent pas de bien les détecter.
Ces microcapteurs peuvent être achetés autant par des citoyens, des collectivités, des industriels, des associations ou des chercheurs. Tous ces acteurs peuvent publier leurs données sur des cartes interactives, ou y contribuer ponctuellement.
Il existe des cartes qui affichent les mesures de leurs propres microcapteurs, comme des projets associatifs et locaux tels que OpenSenseMap, Sensor.community ou SmartCitizen, ainsi que systèmes commerciaux déployés à plus grande échelle tels que AirCasting, AirGradient, Atmotube, ou Purple Air.
D’autres services, comme le World Air Quality Index ou IQAir, agrègent les données autant de microcapteurs que des réseaux réglementaires.
Contrairement aux cartes des AASQA, qui sont comparables entre elles grâce à des protocoles stricts, chaque plateforme adopte sa propre présentation.
Il est donc essentiel de bien comprendre l’information affichée : les points de mesure peuvent fournir une information visuelle qui représente une concentration (Atmotube par exemple) ou un indice de qualité de l’air (IQAir par exemple) avec un jeu de couleurs propre aux plate-formes comme des données chiffrées sans repère pour interpréter la donnée (OpenSenseMap par exemple). De plus, selon les plateformes, une même carte peut afficher tout un ensemble d’indicateurs de pollution de l’air, pas seulement ceux liés à un polluant spécifique comme les particules.
Par ailleurs, peu de plateformes précisent si les mesures sont faites en intérieur, en extérieur, en mobilité ou en point fixe. De plus, une donnée en temps réel et une donnée moyennée sur une période donnée ne sont pas comparables. De ce fait, pour une même zone géographique, la qualité de l’air affichée peut varier d’une plateforme à l’autre, selon l’emplacement de la mesure, l’indicateur utilisé et la période considérée. En France, les données des AASQA restent la référence pour une information de confiance.
Les microcapteurs n’en restent pas moins des sentinelles utilisables sous réserve d’une excellente maîtrise de leurs limites. L’utilisation individuelle de microcapteurs par le grand public peut être encadrée par un protocole rigoureux pour assurer la qualité des données et accompagner leur interprétation. Le projet d’OpenRadiation, qui porte sur la mesure de la radioactivité, en est un exemple : lorsqu’une mesure faite par l’utilisateur d’un microcapteur apparaît inhabituelle sur la carte, un gestionnaire contacte alors ce contributeur pour comprendre l’origine de cette déviation. La cartographie de la qualité de l'air s'appuie sur une plus grande quantité de microcapteurs, ce qui rend plus difficile un suivi individualisé. Néanmoins, une validation des données à l’instar de ce qui est réalisé pour le suivi réglementaire pourrait être envisagée à l’aide d’un traitement adapté, avec un filtrage par exemple.
Ainsi, comme en témoignent la Captothèque (Atmo Auvergne-Rhône-Alpes) ou Ambassad’air (Rennes), programmes de sciences participatives basés sur la mesure citoyenne de la qualité de l’air, les microcapteurs peuvent non seulement fournir des indications, mais aussi contribuer à l’engagement citoyen pour l’observation environnementale.
À lire aussi : Ces citoyens qui mesurent la radioactivité de leur environnement
Marie Bellugue Duclos a reçu des financements du CNRS pour sa thèse. Elle utilise des micro-capteurs pour ses recherches.
Denis Machon a reçu des financements du CNRS et de l'ANR (France), du CRSNG (Canada) et du FRQ (Québec).
Michael Canva a reçu des financements du CNRS et de l’ANR (France), du CRSNG (Canada) et du FRQ (Québec).
07.01.2026 à 17:54
Pourquoi la procrastination n’a rien à voir avec la paresse – et comment la surmonter
Texte intégral (1610 mots)
Procrastiner ne veut pas dire que l’on manque de force de caractère. Cela tient plutôt à la capacité de notre cerveau à gérer le stress et à un manque de flexibilité. La bonne nouvelle, c’est que la souplesse nécessaire pour la surmonter peut s’acquérir.
La plupart d’entre nous ont déjà vécu cette situation : une échéance approche, la tâche est parfaitement réalisable, mais, au lieu de nous y mettre, nous nous sentons soudainement obligés de ranger un tiroir ou de réorganiser les applications sur notre téléphone. La procrastination peut sembler irrationnelle, vue de l’extérieur, mais il est difficile d’y résister quand on y est soi-même confronté. Bien qu’elle soit souvent considérée comme un manque de discipline, des recherches montrent qu’elle est bien plus liée à la flexibilité (ou à la rigidité) avec laquelle notre cerveau réagit à l’inconfort et à l’incertitude.
En d’autres termes, la procrastination n’est pas un problème de gestion du temps, mais un problème de régulation des émotions. Les gens ne retardent pas les choses parce qu’ils manquent de compétences de planification, mais parce que leur cerveau cherche à échapper à un état intérieur émotionnel difficile. Lorsque je demande à mes étudiants pourquoi ils procrastinent, leurs réponses sont étonnamment similaires : « Je ne sais pas par où commencer », « Je me sens perdu », « Je suis anxieux », « Je me sens dépassé ». Aucun d’entre eux ne dit « Je m’en fiche » : la procrastination vient généralement du fait que l’on se soucie trop des choses.
Surtout, le phénomène d’évitement empêche le cerveau de se rendre compte d’une réalité importante : commencer une action est souvent gratifiant. Le premier pas, aussi petit soit-il, suffit à libérer de la dopamine. Cela aide à augmenter la motivation après – et non, avant – avoir commencé. Mais lorsque nous évitons de nous confronter à la tâche en question, nous ne ressentons jamais ce signal de récompense, et elle va continuer à nous sembler tout aussi intimidante le lendemain.
Flexibilité cognitive
La flexibilité cognitive est la capacité à actualiser ses attentes lorsque les circonstances changent, à modifier sa stratégie et à s’affranchir des schémas inefficaces. C’est un élément fondamental de l’apprentissage : le cerveau fait des prédictions, reçoit de nouvelles informations et s’adapte en conséquence.
Imaginez que vous attendiez un bus coincé dans les embouteillages. Une personne flexible changera rapidement d’itinéraire pour emprunter la ligne de métro qui, si elle correspond habituellement à un trajet plus long, permettra désormais d’aller plus vite. Une personne rigide continuera d’attendre, non pas parce qu’elle ignore qu’il existe une alternative, mais parce que changer d’itinéraire lui semble difficile ou « injustifié », et que son esprit reste figé sur son choix initial.
Je constate clairement ce schéma dans mes recherches sur le trouble obsessionnel compulsif (TOC). Bien que très différent de la procrastination, ce phénomène implique une difficulté à s’écarter d’une prédiction initiale, en particulier lorsqu’il y a incertitude ou risque d’erreur. Lorsque le cerveau ne parvient pas à actualiser ses informations, il reste focalisé sur une idée.
Les étudiants d’aujourd’hui sont confrontés à une véritable tempête. Les téléphones et les réseaux sociaux réduisent leur capacité d’attention. Le perfectionnisme amplifie l’autocritique. Et l’anxiété atteint des niveaux records dans les universités britanniques. Conjugués, ces facteurs affaiblissent la capacité du cerveau à s’adapter, ce qui est précisément la capacité nécessaire pour entreprendre une tâche difficile.
Du point de vue des neurosciences, la procrastination représente un bras de fer entre deux systèmes. D’un côté agissent des mécanismes de défense, activés lorsqu’une tâche semble incertaine, difficile ou évaluative. Cela donne lieu à des pensées telles que « Et si c’était terrible ? », « Et si j’échouais ? » De l’autre intervient le système de récompense, activé par tout ce qui procure un sentiment de bien-être immédiat (faire défiler son fil d’actualité, ranger, envoyer des messages à ses amis).
Lorsque les mécanismes de défense dominent, il peut être impossible de se mettre au travail. Pour les esprits rigides, en particulier, le cerveau a du mal à revenir sur sa prédiction initiale selon laquelle la tâche constitue un danger ou s’avère insurmontable. L’évitement devient alors la seule option possible, et le petit soulagement qui est alors ressenti incite le cerveau à répéter ce comportement.
En effet, des recherches montrent que la procrastination est essentiellement un remède à court terme pour améliorer l’humeur : une échappatoire rapide à un malaise, qui génère elle-même davantage de stress par la suite.
Il y a une génération, procrastiner exigeait de la créativité. Il fallait trouver des distractions. Aujourd’hui, ce sont elles qui vous trouvent. Les réseaux sociaux sont conçus pour déclencher une recherche de nouveauté stimulée par la dopamine. Pour quelqu’un qui est déjà anxieux ou surchargé, le téléphone devient une échappatoire omniprésente. Comme l’a dit un étudiant : « Il est plus facile de ne pas faire le travail. » Non pas parce que le travail n’a pas d’importance, mais parce que l’alternative qui lui est proposée offre une récompense instantanée.
La flexibilité peut se travailler
Alors, comment éviter la procrastination ? Il ne s’agit pas de devenir plus discipliné, mais plutôt de renforcer les systèmes cérébraux qui vous permettent de vous mettre au travail. Voici quelques moyens d’y parvenir.
Décomposez les tâches
Divisez le travail en unités concrètes et gérables : rédigez un titre, rédigez quelques points clés ou lisez une page. Cela réduit la menace perçue d’une tâche importante et sans contours bien définis, et cela procure au cerveau de petites récompenses régulières sous forme de dopamine à chaque étape franchie.
Misez sur les micro-changements
Les micro-changements sont de minuscules actions initiatrices : ouvrir le document, poser vos notes sur le bureau. Ils ne réduisent pas la tâche elle-même, mais ils interrompent l’état de « blocage » et incitent doucement le cerveau à se mettre en mouvement.
Changez de perspective
Recadrez la tâche comme si vous conseilliez quelqu’un d’autre : « Que dirais-je raisonnablement à un ami dans cette situation ? » Cela assouplit la pensée rigide et axée sur la menace et aide le cerveau à générer des interprétations alternatives plus souples.
Développez votre tolérance émotionnelle
Le malaise lié au démarrage atteint rapidement son apogée, puis diminue. Se le rappeler peut rendre l’évitement moins irrésistible.
Accordez-vous des récompenses immédiates
Associez la tâche à quelque chose d’agréable (de la musique, une boisson chaude ou le fait de travailler avec d’autres personnes) afin que la première étape soit moins pénible et plus gratifiante.
Ensemble, ces stratégies renforcent la forme de flexibilité cognitive la plus pertinente pour affronter la procrastination : la capacité à passer de l’évitement à l’action lorsqu’une tâche semble inconfortable. D’autres formes de flexibilité cognitive (telles que le changement de règle ou la flexibilité motrice) peuvent également être améliorées, mais grâce à différents types d’entraînement.
Si vous vous reconnaissez dans les étudiants qui se disent « anxieux », « dépassés » ou « ne sachant pas par où commencer », cela ne signifie pas que vous êtes paresseux. Cela signifie simplement que votre cerveau a du mal à changer d’état. La procrastination en dit beaucoup moins sur la volonté que sur la façon dont notre esprit gère l’incertitude et l’inconfort.
Et ce qui est encourageant, c’est que la procrastination n’est pas immuable. La flexibilité s’améliore avec la pratique. Chaque fois que vous faites un pas, même minime, comme ouvrir le fichier ou écrire la première ligne, vous ne vous contentez pas de progresser dans la tâche. Vous montrez à votre cerveau que commencer est faisable, supportable et souvent gratifiant.
Au fil du temps, ces petits changements s’accumulent pour produire quelque chose de puissant : un esprit capable de se diriger vers ce qui compte, plutôt que de fuir l’inconfort.
Annemieke Apergis-Schoute a reçu un financement du Wellcome Trust pour ses précédentes recherches sur les TOC.
07.01.2026 à 15:01
Le Groenland, le Danemark et l’UE au défi de l’ordre trumpien : la doctrine Monroe en marche
Texte intégral (2673 mots)
Alors que l’attaque sur le Venezuela vient de confirmer la détermination des États-Unis à user de la force pour contrôler l’ensemble du continent américain, au détriment du droit international, l’avenir du Groenland, également dans la ligne de mire de Washington, requiert une attention accrue de la part de l’Europe.
« L’attaque contre le Venezuela est l’exemple effrayant d’un scénario où la politique de puissance prend le dessus. Nous ne savons pas encore ce qui se passe et où nous allons. Mais nous devrons tous réfléchir à notre vision du monde et prendre position. » Ce message posté sur LinkedIn (en danois) par la ministre groenlandaise de l’économie, du commerce, des minéraux et de la justice Najaa Nathanielsen traduit bien l’inquiétude qui règne à Nuuk, et qui s’est encore amplifiée depuis les événements du 3 janvier 2026 à Caracas. De son côté, la première ministre danoise Mette Frederiksen s’est alarmée :
« Si les États-Unis choisissent d’attaquer militairement un autre pays de l’Otan, alors c’est la fin de tout. »
Les menaces états-uniennes sur le Groenland, exprimées dès le retour au pouvoir de Donald Trump il y a un an, se sont nettement intensifiées au cours de ces dernières semaines, notamment avec la nomination, le 22 décembre 2025, d’un « envoyé spécial pour le Groenland » en la personne du gouverneur de Louisiane Jeff Landry. Celui-ci décrit ouvertement sa mission comme étant l’annexion du Groenland aux États-Unis (« make Greenland a part of the U.S. »).
La nomination témoigne, sans surprise, de la ténacité du président états-unien en ce qui concerne son projet d’annexion du territoire danois. L’accent mis par Donald Trump et par Jeff Landry sur l’histoire de la Louisiane, vendue par la France en 1803 aux États-Unis, dont elle représentait alors plus de 22 % de la surface, reflète – là aussi sans surprise – la logique transactionnelle de la politique promue par l’administration Trump, une logique de marché qui s’immisce sans complexe dans le domaine de la sécurité internationale.
Mais le Groenland est-il réellement, pour les États-Unis, une affaire de « sécurité nationale et internationale » qui justifierait son annexion ? Et si non, quelles sont les ambitions réelles de Washington ?
Créer la division entre le Groenland et le Danemark
Coutumier des fausses allégations, Donald Trump conteste de nouveau la souveraineté danoise sur le Groenland : « [Il y a trois cents ans], nous aussi étions là, avec des bateaux, j’en suis sûr. » Or la souveraineté danoise sur le Groenland ne fait aucun doute. Elle a été statuée par la Cour permanente de justice internationale en 1931 et officiellement reconnue par les États-Unis en 1951. Aucun changement sur le statut de l’île ne peut se faire sans l’accord du Danemark, conformément à l’accord de 2009 entre le Danemark et le Groenland sur l’autonomie du territoire groenlandais.
Lorsque, le 7 janvier 2025, Mette Frederiksen répond à la proposition américaine d’achat du Groenland que l’avenir de l’île appartient aux Groenlandais, la réponse ménage le Groenland mais elle est incomplète. Le Groenland est toujours danois, et un vote du Parlement danois, le Folketing, est notamment requis pour une éventuelle accession à l’indépendance. Donald Trump joue à dessein de l’histoire coloniale entre le Danemark et le Groenland pour écarter un acteur clé de la situation – qui plus est, État membre de l’Union européenne.
De même, il est faux de prétendre que le gouvernement danois n’a engagé aucune dépense pour la défense du Groenland, comme le Trump l’affirme. Certes, jusqu’à récemment, la participation danoise était modeste (présence du Joint Arctic Command à Nuuk, de patrouilleurs et frégates et de la patrouille en traîneau à chiens Sirius couvrant la côte nord du Groenland). « Nous pouvons faire plus dans le cadre qui existe aujourd’hui », assurait en 2025 le ministre danois des affaires étrangères Lars Løkke Rasmussen. Deux programmes de défense ont été approuvés en 2025 par le Danemark pour un montant total avoisinant 6 milliards d’euros, et Copenhague a également approuvé une commande de 16 avions de combat américains F35 : la bonne volonté danoise ne suffit pas visiblement à calmer les ardeurs conquérantes de Washington.
La guerre de récits engagée par les États-Unis en soutien du projet d’annexion du Groenland n’est pas anodine. Elle cherche à ancrer dans les esprits le doute sur la légitimité de la souveraineté du Danemark et, en jouant sur son passé colonial, à créer la division entre le Groenland et le Danemark. Un autre aspect du discours de Washington est la surestimation de la menace militaire russe et chinoise au Groenland.
Des risques surdimensionnés pour justifier l’annexion du Groenland
Sur le plan de la sécurité, Donald Trump a, à plusieurs reprises, mentionné la présence de navires militaires russes et chinois autour du Groenland. Il s’agit d’une contre-vérité : les navires en question ont été repérés au large des côtes de l’Alaska.
La projection de puissance de la marine russe dans la zone d’étranglement GIUK (zone maritime entre le Groenland, l’Islande et le Royaume-Uni) est problématique et motive notamment les opérations Northern Viking de l’Otan. Elle est également redoutée au Groenland en ce qui concerne les infrastructures critiques (notamment les câbles sous-marins de télécommunications). Les risques en matière de sécurité ne sont donc pas nuls, d’autant que la Chine renforce sa puissance militaire dans le monde et, notamment, sa capacité en porte-avions.
Pour autant, s’il est important d’exercer un contrôle du territoire groenlandais, il n’y a pas de risque militaire significatif immédiat pour le Groenland qui justifierait son annexion par les États-Unis. Le risque est volontairement exagéré par Donald Trump afin de légitimer l’appropriation du Groenland, à laquelle le Groenland et le Danemark s’opposent.
Au-delà de la rhétorique et des fausses allégations, répétées à l’envi, les menaces de Washington sont à prendre au sérieux, car elles s’accompagnent de mesures concrètes et plus discrètes.
Dans leur rapport annuel de 2025, les services de renseignement danois ont, pour la première fois, fait état d’inquiétudes concernant les États-Unis. Le Danemark, historiquement l’un des plus atlantistes des pays européens, prend ses distances avec Washington.
Un expansionnisme au service d’intérêts bien pensés
En réalité, l’administration Trump est moins concernée par les questions de sécurité (même s’il s’agit de son argument officiel) que par un expansionnisme réactivant la doctrine Monroe, qui revendique un contrôle américain exclusif de l’« hémisphère occidental ». La nouvelle stratégie nationale de sécurité des États-Unis remet clairement au goût du jour cette doctrine (« Nous appliquerons un “corollaire Trump” à la doctrine Monroe », y est-il indiqué).
Cet expansionnisme de circonstance à l’approche des élections de mi-mandat promet de frapper fort. Annexer le Groenland est sans doute plus flatteur pour les ambitions du locataire de la Maison Blanche que renforcer des partenariats de défense pour des besoins non avérés, d’autant qu’il a clairement affirmé que les Européens devraient, dans le futur, assurer leur sécurité eux-mêmes.
Or, si la stratégie nationale de sécurité de 2025 peut très bien être « la plus longue note de suicide de l’histoire des États-Unis », pour reprendre les termes de l’historienne Anne Applebaum, elle n’en représente pas moins un danger immédiat pour l’Europe où, dans un renversement surréel, la démocratie et le supranationalisme sont non seulement décrits par l’administration Trump comme des menaces, mais plus encore comme des périls plus dangereux que les régimes autoritaires de la Russie ou de la Chine.
Contrairement aux affirmations de Trump, qui prétend que les États-Unis ne sont pas intéressés par les richesses minérales de l’île (« Nous avons tellement de sites pour les minéraux, le pétrole et tout le reste »), les investissements américains se développent au Groenland. Ronald Lauder, l’héritier milliardaire d’Estée Lauder qui aurait été le premier à avoir suggéré à Donald Trump l’idée d’« acheter » le Groenland, a pris des participations dans des entreprises groenlandaises et a manifesté son intérêt pour la construction d’une centrale hydroélectrique sur le plus grand lac du Groenland, Tasersiaq, afin d’alimenter en énergie une fonderie d’aluminium.
Des responsables de l’administration Trump seraient en pourparlers pour que le gouvernement états-unien prenne une participation dans l’entreprise américaine privée Critical Metals Corp, qui détient l’un des plus grands projets d’exploitation de terres rares au Groenland, Tanbreez. Cette opération donnerait aux États-Unis un accès direct à l’extraction de terres rares au Groenland, alors que la Chine détient le quasi-monopole mondial de leur extraction et raffinement.
Enfin, des rétorsions économiques visant des industries danoises ont déjà été mises en place : des contrats pour cinq projets éoliens offshore sur la côte est des États-Unis ont été suspendus, dont deux sont développés par la société danoise Ørsted.
Une réponse groenlandaise, danoise et européenne
Il est donc urgent d’adopter des mesures groenlandaises, danoises mais aussi européennes. Le premier ministre du Groenland Jens-Frederik Nielsen a clairement exprimé à Strasbourg, le 8 octobre 2025 devant le Parlement européen, son ouverture à une coopération plus approfondie avec l’UE :
« Nous avons besoin de coopération et de partenariats avec des pays et des institutions qui partagent nos valeurs. »
Le 6 janvier 2026, dans un message posté sur son compte Facebook, il remercie plusieurs États européens de leur soutien face aux menaces de Washington : les dirigeants de la France, de l’Allemagne, de l’Italie, de la Pologne, de l’Espagne, mais aussi du Royaume-Uni, ont déclaré qu’« il revient au Danemark et au Groenland, et à eux seuls, de décider des questions concernant le Danemark et le Groenland », et que « la sécurité dans l’Arctique doit donc être assurée collectivement, en coopération avec les alliés de l’Otan, y compris les États-Unis. »
Trois points sont donc saillants. Premièrement, sur le plan narratif, l’affirmation de la souveraineté du Danemark sur le Groenland ne se fait pas au détriment de l’autodétermination du peuple groenlandais, mais elle protège pour l’instant le Groenland d’une OPA américaine sur un territoire qui a bien, selon le droit danois, et en conformité avec le droit international, la capacité de décider de son futur selon les termes de l’accord d’autonomie de 2009.
Deuxièmement, sur le plan économique, une interdépendance trop forte avec les États-Unis peut déboucher sur une vulnérabilité politique et mettre en péril la démocratie au Groenland. Les Groenlandais ont déjà adopté des mesures claires de protection : le Parlement (Inatsisartut) a notamment voté en urgence en février 2025 une loi sur le financement des partis politiques, qui interdit les dons étrangers ou anonymes aux partis et aux candidats, et qui plafonne les contributions privées à l’échelle locale. Le Parlement examine en ce moment un projet de loi sur le filtrage des investissements directs étrangers visant à permettre aux autorités d’examiner, d’approuver, de conditionner ou de bloquer les investissements étrangers susceptibles de constituer une menace pour la sécurité nationale ou l’ordre public. L’UE s’est dotée d’un instrument similaire en 2019.
Troisièmement, en matière de sécurité, il est essentiel de penser une coopération européenne au bénéfice du Groenland et en accord avec le Danemark, une coopération qui peut dans un premier temps prendre la forme d’un dialogue stratégique régulier sur la sécurité et la résilience dans l’Arctique entre l’UE, le Groenland et le Danemark – et ce, sans attendre les résultats des élections de mi-mandat aux États-Unis.
Ce dialogue stratégique aurait pu commencer dès le début de l’année 2025. Mais les menaces de Washington n’ont pas été prises au sérieux, et un retard considérable a été pris. Il n’est pas sûr que la proposition des pays européens d’une réponse dans le cadre de l’Otan soit suffisante pour convaincre les États-Unis de renoncer à la force pour annexer le Groenland. Il est donc urgent de comprendre que l’UE doit avoir le courage de repenser sa relation avec les États-Unis, et de se penser et de s’affirmer sans détour comme puissance.
Cécile Pelaudeix ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.01.2026 à 11:49
Éditer le génome pour soigner : où en sont les thérapies issues de CRISPR et ses dérivés ?
Texte intégral (1679 mots)
Ce qui ressemblait hier encore à de la science-fiction est désormais une réalité clinique : l’édition du génome humain avec CRISPR-Cas9 commence à guérir des maladies jusque-là incurables. Mais où en est réellement cette révolution annoncée ? Entre premiers succès cliniques, limites techniques et questions éthiques persistantes, les thérapies issues de CRISPR dessinent un paysage où promesses et prudence sont désormais indissociables.
Nous assistons à une nette montée des espoirs pour des maladies rares, souvent « orphelines ». Par exemple, un nourrisson atteint d’un déficit métabolique rare (une maladie génétique dans laquelle une enzyme ou une voie métabolique essentielle ne fonctionne pas correctement) dû à une mutation sur le gène CPS1, a reçu en 2025 un traitement « sur mesure » utilisant la technique d’édition de base (base editing), avec des résultats biologiques encourageants.
Aujourd’hui, l’édition génique n’est plus une hypothèse lointaine, mais donne des résultats concrets et change déjà la vie de certains patients. Pour comprendre ce qui est en train de se jouer, il faut revenir sur les progrès fulgurants de ces dernières années, des premiers essais pionniers aux versions de plus en plus sophistiquées de l’édition génomique.
Développée en 2012 grâce à l’association d’une endonucléase, Cas9, et de petits ARN guides (sgRNA), cette méthode d’édition ciblée du génome a bouleversé la biologie moderne, au point de valoir à ses inventrices le prix Nobel de chimie en 2020. Depuis son invention, le CRISPR-Cas9 classique est largement utilisé dans les laboratoires, dont le nôtre, pour créer des modèles cellulaires de maladies, fabriquer des cellules qui s’illuminent sous certaines conditions ou réagissent à des signaux précis, et explorer le rôle de gènes jusqu’ici mystérieux.
Un premier système extraordinaire mais imparfait
Côté clinique, l’utilisation de CRISPR-Cas9 a ouvert des possibilités thérapeutiques inédites : modifier précisément un gène, l’inactiver ou en corriger une version défectueuse, le tout avec une simplicité et une rapidité jusqu’alors inimaginables. Mais cette puissance s’accompagnait alors de limites importantes : une précision parfois imparfaite, avec des coupures hors-cible difficiles à anticiper (des modifications accidentelles de l’ADN réalisées à des endroits non prévus du génome), une efficacité variable selon les cellules, et l’impossibilité d’effectuer des modifications plus fines sans induire de cassure double brin (une rupture affectant les deux brins d’ADN à un site génomique spécifique) potentiellement délétère.
Ces limites tiennent en grande partie au recours obligatoire aux cassures double brin et à la réparation par homologie (mode de réparation de l’ADN dans lequel la cellule s’aide d’une séquence d’ADN modèle très similaire – ou fournie par le chercheur – pour réparer une cassure double brin), un mécanisme peu fiable et inégal selon les types cellulaires. Mais la véritable rupture est apparue à partir de 2016 avec l’invention des éditeurs de base (base editors), des versions ingénieusement modifiées de CRISPR capables de changer une seule lettre de l’ADN sans provoquer de cassure double brin. Pour la première fois, il devenait possible de réécrire le génome avec une précision quasi chirurgicale, ouvrant la voie à des corrections plus sûres et plus fines que celles permises par Cas9 classique. Cependant, les base editors restaient limités : ils permettaient d’effectuer certaines substitutions de bases, mais étaient incapables de réaliser des insertions ou des modifications plus complexes du génome.
Ces limitations des base editors ont été en partie levées avec l’arrivée de leurs successeurs, les prime editors, en 2019 : ces nouvelles machines moléculaires permettent non seulement de substituer des bases, mais aussi d’insérer ou de supprimer de courtes séquences (jusqu’à plusieurs kilobases), le tout sans provoquer de cassure double brin, offrant ainsi un contrôle beaucoup plus fin sur le génome. Cette technique a été utilisée avec succès pour créer en laboratoire des modèles cellulaires et animaux de maladies génétiques, et des plantes transgéniques. Cependant, en pratique, son efficacité restait trop faible pour des traitements humains, et le résultat dépendait du système de réparation de la cellule, souvent inactif ou aléatoire. Mais en six ans, la technique a gagné en précision et polyvalence, et les études chez l’animal ont confirmé à la fois son efficacité et la réduction des effets hors-cible. Résultat : en 2025, six ans après son invention, le prime editing fait enfin son entrée en clinique, un moment que beaucoup de médecins décrivent comme un véritable tournant pour la médecine.
Des traitements sur le marché
Dès 2019, de premiers essais cliniques avec le système CRISPR-Cas9 classique (le médicament Casgevy) avaient été réalisés sur des patients atteints de β-thalassémie et drépanocytose, deux maladies génétiques de l’hémoglobine, via la correction ex vivo et la réinjection des cellules modifiées au patient. Les premiers résultats étaient prometteurs : certains patients avaient vu leur production de globules rouges anormaux corrigée de manière durable, avec une amélioration significative de leurs symptômes, après une unique injection. Le traitement Casgevy a d’ailleurs été approuvé en Europe en 2024, pour un coût d’environ 2 millions d’euros par patient.
Plus récemment, en 2025 un bébé atteint d’une mutation du gène CPS1 a été guéri grâce à l’édition de base, la version moins invasive et plus sûre de CRISPR-Cas9, mais qui reste limitée aux substitutions ponctuelles et ne permet pas toutes les modifications (pas d’insertion de séquences longues). Mais aujourd’hui, le prime editing lève les deux grands verrous du CRISPR-Cas9 classique – la nécessité de casser l’ADN et la dépendance à des mécanismes de réparation inefficaces – ouvrant la voie à une édition plus sûre, plus précise et applicable à un spectre beaucoup plus large de maladies.
Il n’est plus limité à de simples conversions ponctuelles, mais permet pour la première fois de remplacer ou restaurer un gène complet, de façon précise et contrôlée. L’année 2025 marque le premier succès clinique d’une telle thérapie – une étape historique pour l’édition génomique. En effet, le 19 mai 2025 la société Prime Medicine fondée par David Liu, inventeur du prime editing, a annoncé la première administration humaine de sa thérapie, destinée à un jeune patient atteint de granulomatose chronique, une maladie immunitaire rare liée à une mutation de l’ADN. Les premiers résultats biologiques de ce « CRISPR ultrapuissant » se sont révélés très prometteurs, ouvrant une nouvelle ère pour l’édition génomique. Il faudra toutefois patienter encore quelques mois avant de mesurer réellement le succès du prime editing : les premiers essais cliniques restent très récents et le manque de recul ne permet pas encore d’en tirer des conclusions définitives, notamment en termes de sécurité – l’absence d’effets secondaires – et de stabilité à long terme.
Ces stratégies d’édition du génome s’inscrivent pleinement dans le mouvement de la médecine personnalisée, où chaque traitement est conçu sur mesure pour un patient donné, en fonction de sa mutation spécifique – un véritable médicament « pour lui seul ». Pour la suite, des sociétés annoncent déjà vouloir continuer l’aventure avec des stratégies consistant à administrer directement les traitements dans le corps, sans passer par la modification in vitro de cellules prélevées chez le patient – une procédure complexe et onéreuse.
D’un prototype de laboratoire, on est donc passés en un temps record à une technologie polyvalente, et on entre désormais dans l’ère de la médecine personnalisée même pour des pathologies très rares. Le champ d’application s’élargit : on ne se contente plus des pathologies sanguines – des essais et projets explorent des maladies métaboliques, des infections chroniques (ex. thérapies pour hépatite B) ou des maladies héréditaires rares. De nouvelles avancées viennent constamment enrichir le potentiel de CRISPR, élargissant sans cesse ses possibilités. Tous les types de maladies ne sont pas encore éligibles : les pathologies monogéniques (mutation simple, bien identifiée) sont les plus adaptées. Pour des maladies multifactorielles, complexes, ou dépendant de l’environnement, l’édition reste beaucoup moins directe. De plus, certaines cibles (cellules non accessibles, tissus spécifiques, traitement in vivo) restent techniquement très difficiles. C’est également un défi économique, tant les traitements de médecine personnalisée restent extrêmement coûteux.
Carole Arnold a reçu des financements de l'INSERM, la Région Grand-Est, le FEDER et l'ANR.
07.01.2026 à 11:49
Que sont les xénobots, ces robots biologiques qui bouleversent les frontières entre vivant et machine ?
Texte intégral (2918 mots)

Les xénobots attirent aujourd’hui l’attention. Cette nouvelle catégorie de « robots vivants », fabriqués à partir de cellules d’amphibien et conçus grâce à des algorithmes, est capable de se déplacer, de se réparer et même, dans certaines expériences, de se reproduire en assemblant de nouveaux agrégats cellulaires. Ces entités questionnent la frontière entre machine et organisme. Des études récentes détaillent mieux leur fonctionnement moléculaire et ravivent les débats éthiques sur le contrôle de ces formes de vie programmables.
Les xénobots sont des entités biologiques artificielles entièrement composées de cellules vivantes issues d’embryons de xénope (Xenopus laevis), un amphibien africain. Prélevées sur des embryons de stade précoce, ces cellules sont encore indifférenciées : elles ne se sont pas encore spécialisées pour devenir des cellules de peau ou du foie par exemple. Elles sont cependant déjà « programmées » naturellement pour devenir des cellules qui tapissent les surfaces internes et externes du corps (peau, parois des organes, vaisseaux) ou des cellules contractiles du muscle cardiaque. Les contractions de ces cellules cardiaques agissent comme de minuscules moteurs, générant une propulsion, qui permet aux xénobots de se déplacer dans un milieu aquatique.
Pour fabriquer un xénobot, on isole et on assemble manuellement des groupes de cellules, comme des « briques biologiques ». À l’issue de cette phase de microchirurgie et d’organisation tridimensionnelle, les xénobots sont des entités de moins d’un millimètre de morphologies variables selon la fonction recherchée. Ils ne disposent d’aucun système nerveux ni organe sensoriel. Leur comportement est uniquement dicté par leur forme et leur composition cellulaire, toutes deux déterminées lors de leur création via des techniques de bio-ingénierie.
Bien qu’ils soient constitués uniquement de cellules vivantes, on parle de robots biologiques ou biobots, car ils obéissent à des tâches prédéfinies par l’humain : déplacement, coopération en essaim, transport d’objets, voire contrôle et assemblage d’autres xénobots à partir de cellules libres présentes autour d’eux (on parle d’autoréplication). Le terme « robot » prend ici un sens élargi, fondé sur la capacité à accomplir une tâche, en l’occurrence programmée par la forme et non par un logiciel interne.
Des robots biologiques conçus avec de l’IA
Avant de fabriquer un xénobot en laboratoire, des programmes d’intelligence artificielle (IA) sont utilisés pour tester virtuellement et simuler des milliers de formes et d’agencements cellulaires. Des algorithmes calculent quelles combinaisons fonctionneraient le mieux pour atteindre l’objectif fixé par le cahier des charges : par exemple, maximiser la vitesse de déplacement, transporter une charge ou induire de l’autoréplication.
Le lien entre l’intelligence artificielle et les cellules n’existe que lors de l’étape théorique de la conception. L’IA sert exclusivement à prédire et à optimiser la forme la plus adéquate, qui sera ensuite réalisée par microchirurgie et assemblage par des humains. Elle ne fournit aucun processus cognitif embarqué dans le xénobot, qui n’est donc pas contrôlé par une IA et ne possède aucune autonomie décisionnelle, contrairement à d’autres types de robots en développement.
Les xénobots ont d’abord été conçus sous forme de sphères, de triangles ou de pyramides, des géométries simples choisies pour être faciles à construire, afin d’étudier de manière contrôlée la manière dont la forme et la disposition des cellules influencent le mouvement.
La forme en croissant, dite Pac-Man, a été identifiée par intelligence artificielle comme la plus performante pour s’autorépliquer. La réplication est cependant limitée à trois ou quatre générations en laboratoire et les xénobots se dégradent après environ dix jours, limitant leurs applications à plus long terme.
Quelles applications pour les xénobots ?
Toutes les applications envisagées demeurent pour l’instant expérimentales. Certaines fonctions (locomotion, agrégation de particules, autoréparation, réplication limitée) ont été démontrées in vitro, ce qui constitue des preuves de concept. En revanche, les usages proposés en médecine ou pour l’environnement restent pour l’instant des hypothèses extrapolées à partir de ces expériences et de modèles informatiques, sans validation chez l’animal.
Dans le domaine environnemental, grâce à leur petite taille, leur forte biodégradabilité et leur capacité à fonctionner en essaim, les xénobots pourraient être utilisés pour concentrer des microparticules ou des polluants en un même endroit, avant une étape de récupération ou de traitement adaptée, les xénobots eux-mêmes se dégradant ensuite sans laisser de trace biologique.
Des versions plus complexes de xénobots pourraient être utilisées comme marqueurs visuels de modifications dans un environnement. Un tel xénobot, exposé à un certain type de polluant, subirait un changement de structure et de couleur. Cette propriété permettrait en quelque sorte de lire ce que le xénobot a rencontré dans son environnement, à l’image d’un capteur lumineux. Cette application n’a cependant pas encore été démontrée expérimentalement.
Dans le domaine médical, les xénobots pourraient être utilisés, tout comme d’autres microrobots, pour transporter localement des molécules thérapeutiques autour de cellules cibles, en réduisant ainsi la toxicité sur les tissus sains. La possibilité que les xénobots puissent servir à la livraison de molécules, comme des anticancéreux, reste cependant une extrapolation à partir d’expériences in vitro préliminaires sur d’autres microrobots.
Enfin, la recherche fondamentale pourrait bénéficier de l’existence de ces objets. L’organisation cellulaire des xénobots, hors du contexte embryonnaire, offre un modèle pour explorer la plasticité cellulaire ou tissulaire, la coordination cellulaire collective et l’auto-organisation, domaines clés pour comprendre l’évolution d’entités vivantes.
Des propriétés inattendues
Au-delà des tâches programmées, des propriétés remarquables ont été identifiées expérimentalement. Par exemple, des xénobots exposés à des vibrations sonores modifient significativement leur comportement moteur, passant d’une rotation à un déplacement linéaire rapide, une réaction absente chez les embryons de xénope au même stade.
En regroupant des cellules selon des architectures originales, les xénobots obligeraient ces cellules à reprogrammer en partie leur activité génétique : des analyses des gènes activés par ces cellules montrent l’activation de voies de stress, de réparation tissulaire ou de remodelage, qui ne sont pas utilisées de la même façon dans l’embryon intact.
De plus, dans ces expériences, plusieurs xénobots sectionnés se réparent spontanément et retrouvent un mouvement coordonné, ce qui suggère une communication à courte distance entre cellules, probablement via des signaux bioélectriques et chimiques, alors qu’aucun nerf n’est présent. Ces comportements illustrent une forte plasticité cellulaire, dont l’ampleur varie selon la manière dont les tissus ont été assemblés et les conditions de culture employées.
Derrière les promesses, des enjeux éthiques majeurs
Les promesses d’applications médicales ou environnementales ne doivent pas occulter l’ambiguïté de statut de ces entités, ni organismes naturels ni machines traditionnelles. Les xénobots sont des assemblages cellulaires conçus par l’humain appuyé par des systèmes d’intelligence artificielle. Leur déploiement reste, aujourd’hui, de l’ordre de l’hypothèse.
Plusieurs risques sont discutés par les bioéthiciens. Écologique d’abord, en cas d’acquisition par les xénobots d’une capacité de survie ou de réplication inattendue dans l’environnement. Sanitaire ensuite, en cas d’utilisation chez l’humain sans maîtrise complète de leur comportement à long terme. Un risque de détournement enfin, par exemple pour la libération ciblée d’agents toxiques.
À lire aussi : Xénobots, biobots : doit-on avoir peur des « robots vivants » ?
À cela s’ajoutent des enjeux plus symboliques : brouiller davantage la frontière entre vivant et non-vivant pourrait fragiliser certains cadres juridiques de protection du vivant, d’où les appels à un cadre réglementaire international spécifique à ces biorobots. Les promesses d’applications médicales ou dans le domaine de l’environnement ne doivent pas occulter l’ambiguïté de statut de ces entités, qui exigent une réflexion éthique et un cadre réglementaire international.
L’extension de l’utilisation de ces outils biologiques à des cellules humaines ne devra se réaliser que dans un cadre strictement contrôlé et sous supervision d’un comité éthique pluridisciplinaire. Plusieurs travaux dans ce domaine recommandent déjà des évaluations systématiques des risques (écologiques, sanitaires et de détournement), une transparence des protocoles et une implication du public dans les décisions de déploiement.
Il a été proposé de créer des instances spécifiques à cette technologie, chargées de vérifier la biodégradabilité, la limitation de la réplication, la traçabilité des essais et le respect de la dignité du vivant. Dans ce contexte, l’usage éventuel de xénobots ou d’organismes similaires dérivés de cellules humaines devrait s’inscrire dans un cadre réglementaire international inspiré de ces recommandations, avec des garde-fous comparables à ceux mis en place pour les organismes génétiquement modifiés (OGM) ou les thérapies géniques.
Jean-François Bodart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.01.2026 à 11:49
D’où venons-nous ? Un voyage de 4 milliards d’années jusqu’à l’origine de nos cellules
Texte intégral (4270 mots)
Entrée à l’Académie des sciences en janvier 2025, Purificación López García s’intéresse à l’origine et aux grandes diversifications du vivant sur Terre. Elle étudie la diversité, l’écologie et l’évolution des microorganismes des trois domaines du vivant (archées, bactéries, eucaryotes). Avec David Moreira, elle a émis une hypothèse novatrice pour expliquer l’origine de la cellule eucaryote, celle dont sont composés les plantes, les animaux et les champignons, entre autres. Elle est directrice de recherche au CNRS depuis 2007 au sein de l’unité Écologie- Société-Évolution de l’Université Paris-Saclay et a été récompensée de la médaille d’argent du CNRS en 2017. Elle a raconté son parcours et ses découvertes à Benoît Tonson, chef de rubrique Science et Technologie.
The Conversation : Vous vous intéressez à l’origine du vivant. Vivant, que l’on classifie en trois grands domaines : les eucaryotes, des organismes dont les cellules ont un noyau, comme les humains ou les plantes par exemple ; les bactéries, qui ne possèdent pas de noyau, et un troisième, sans doute le moins connu, les archées. Pouvez-vous nous les présenter ?
Purificación López García : Ce domaine du vivant a été mis en évidence par Carl Woese à la fin des années 1970. Quand j’ai commencé mes études, à la fin des années 1980, cette découverte ne faisait pas consensus, il y avait encore beaucoup de résistance de la part de certains biologistes à accepter un troisième domaine du vivant. Ils pensaient qu’il s’agissait tout simplement de bactéries. En effet, comme les bactéries, les archées sont unicellulaires et n’ont pas de noyau. Il a fallu étudier leurs gènes et leurs génomes pour montrer que les archées et les bactéries étaient très différentes entre elles et même que les archées étaient plus proches des eucaryotes que des bactéries au niveau de leur biologie moléculaire.
Comment Carl Woese a-t-il pu classifier le vivant dans ces trois domaines ?
P. L. G. : On est donc à la fin des années 1970. C’est l’époque où commence à se développer la phylogénie moléculaire. L’idée fondatrice de cette discipline est qu’il est possible d’extraire des informations évolutives à partir des gènes et des protéines codées dans le génome de tous les êtres vivants. Certains gènes sont conservés chez tous les organismes parce qu’ils codent des ARN ou des protéines dont la fonction est essentielle à la cellule. Toutefois, la séquence en acides nucléiques (les lettres qui composent l’ADN : A, T, C et G ; U à la place de T dans l’ARN) et donc celle des acides aminés des protéines qu’ils codent (des combinaisons de 20 lettres) va varier. En comparant ces séquences, on peut déterminer si un organisme est plus ou moins proche d’un autre et classifier l’ensemble des organismes en fonction de leur degré de parenté évolutive.
Carl Woese est le premier à utiliser cette approche pour classifier l’ensemble du vivant : de la bactérie à l’éléphant, en passant par les champignons… Il va s’intéresser dans un premier temps non pas à l’ADN mais à l’ARN et, plus précisément, à l’ARN ribosomique. Le ribosome est la structure qui assure la traduction de l’ARN en protéines. On peut considérer que cette structure est la plus conservée dans tout le vivant : elle est présente dans toutes les cellules.
Avec ses comparaisons des séquences d’ARN ribosomiques, Woese montre deux choses : que l’on peut établir un arbre universel du vivant en utilisant des séquences moléculaire et qu’un groupe de séquences d’organismes considérés comme de bactéries « un peu bizarres », souvent associées à des milieux extrêmes, forment une clade (un groupe d’organismes) bien à part. En étudiant leur biologie moléculaire et, plus tard, leurs génomes, les archées s’avéreront en réalité beaucoup plus proches des eucaryotes, tout en ayant des caractéristiques propres, comme la composition unique des lipides de leurs membranes.
Aujourd’hui, avec les progrès des méthodes moléculaires, cette classification en trois grands domaines reste d’actualité et est acceptée par l’ensemble de la communauté scientifique. On se rend compte aussi que la plupart de la biodiversité sur Terre est microbienne.
Vous vous êtes intéressée à ces trois grands domaines au fur et à mesure de votre carrière…
P. L. G. : Depuis toute petite, j’ai toujours été intéressée par la biologie. En démarrant mes études universitaires, les questions liées à l’évolution du vivant m’ont tout de suite attirée. Au départ, je pensais étudier la biologie des animaux, puis j’ai découvert la botanique et enfin le monde microbien, qui m’a complètement fascinée. Toutes les formes de vie m’intéressaient, et c’est sûrement l’une des raisons pour lesquelles je me suis orientée vers la biologie marine pendant mon master. Je pouvais travailler sur un écosystème complet pour étudier à la fois les microorganismes du plancton, mais aussi les algues et les animaux marins.
Puis, pendant ma thèse, je me suis spécialisée dans le monde microbien et plus précisément dans les archées halophiles (celles qui vivent dans des milieux très concentrés en sels). Les archées m’ont tout de suite fascinée parce que, à l’époque, on les connaissait comme des organismes qui habitaient des environnements extrêmes, très chauds, très salés, très acides. Donc, c’était des organismes qui vivaient aux limites du vivant. Les étudier, cela permet de comprendre jusqu’où peut aller la vie, comment elle peut évoluer pour coloniser tous les milieux, même les plus inhospitaliers.
Cette quête de l’évolution que j’avais toujours à l’esprit a davantage été nourrie par des études sur les archées hyperthermophiles lors de mon postdoctorat, à une époque où une partie de la communauté scientifique pensait que la vie aurait pu apparaître à proximité de sources hydrothermales sous-marines. J’ai orienté mes recherches vers l’origine et l’évolution précoce de la vie : comment est-ce que la vie est apparue et s’est diversifiée ? Comment les trois domaines du vivant ont-ils évolué ?
Pour répondre à ces questions, vous avez monté votre propre laboratoire. Avec quelle vision ?
P. L. G. : Après un bref retour en Espagne, où j’ai commencé à étudier la diversité microbienne dans le plancton océanique profond, j’ai monté une petite équipe de recherche à l’Université Paris-Sud. Nous nous sommes vraiment donné la liberté d’explorer la diversité du vivant avec les outils moléculaires disponibles, mais en adoptant une approche globale, qui prend en compte les trois domaines du vivant. Traditionnellement, les chercheurs se spécialisent : certains travaillent sur les procaryotes – archées ou bactéries –, d’autres sur les eucaryotes. Les deux mondes se croisent rarement, même si cela commence à changer.
Cette séparation crée presque deux cultures scientifiques différentes, avec leurs concepts, leurs références et même leurs langages. Pourtant, dans les communautés naturelles, cette frontière n’existe pas : les organismes interagissent en permanence. Ils échangent, collaborent, entrent en symbiose mutualiste ou, au contraire, s’engagent dans des relations de parasitisme ou de compétition.
Nous avons décidé de travailler simultanément sur les procaryotes et les eucaryotes, en nous appuyant d’abord sur l’exploration de la diversité. Cette étape est essentielle, car elle constitue la base qui permet ensuite de poser des questions d’écologie et d’évolution.
L’écologie s’intéresse aux relations entre organismes dans un écosystème donné. Mais mes interrogations les plus profondes restent largement des questions d’évolution. Et l’écologie est indispensable pour comprendre ces processus évolutifs : elle détermine les forces sélectives et les interactions quotidiennes qui façonnent les trajectoires évolutives, en favorisant certaines tendances plutôt que d’autres. Pour moi, les deux dimensions – écologique et évolutive – sont intimement liées, surtout dans le monde microbien.
Sur quels terrains avez-vous travaillé ?
P. L. G. : Pour approfondir ces questions, j’ai commencé à travailler dans des environnements extrêmes, des lacs de cratère mexicains au lac Baïkal en Sibérie, du désert de l’Atacama et l’Altiplano dans les Andes à la dépression du Danakil en Éthiopie, et en m’intéressant en particulier aux tapis microbiens. À mes yeux, ces écosystèmes microbiens sont les véritables forêts du passé. Ce type de systèmes a dominé la planète pendant l’essentiel de son histoire.
La vie sur Terre est apparue il y a environ 4 milliards d’années, alors que notre planète en a environ 4,6. Les eucaryotes, eux, n’apparaissent qu’il y a environ 2 milliards d’années. Les animaux et les plantes ne se sont diversifiés qu’il y a environ 500 millions d’années : autant dire avant-hier à l’échelle de la planète.
Pendant toute la période qui précède l’émergence des organismes multicellulaires complexes, le monde était entièrement microbien. Les tapis microbiens, constitués de communautés denses et structurées, plus ou moins épaisses, formaient alors des écosystèmes très sophistiqués. Ils étaient, en quelque sorte, les grandes forêts primitives de la Terre.
Étudier aujourd’hui la diversité, les interactions et le métabolisme au sein de ces communautés – qui sont devenues plus rares car elles sont désormais en concurrence avec les plantes et les animaux – permet de remonter le fil de l’histoire évolutive. Ces systèmes nous renseignent sur les forces de sélection qui ont façonné la vie dans le passé ainsi que sur les types d’interactions qui ont existé au cours des premières étapes de l’évolution.
Certaines de ces interactions ont d’ailleurs conduit à des événements évolutifs majeurs, comme l’origine des eucaryotes, issue d’une symbiose entre procaryotes.
Comment ce que l’on observe aujourd’hui peut-il nous fournir des informations sur le passé alors que tout le vivant ne cesse d’évoluer ?
P. L. G. : On peut utiliser les communautés microbiennes actuelles comme des analogues de communautés passées. Les organismes ont évidemment évolué – ils ne sont plus les mêmes –, mais nous savons deux choses essentielles. D’abord, les fonctions centrales du métabolisme sont bien plus conservées que les organismes qui les portent. En quelque sorte, il existe un noyau de fonctions fondamentales. Par exemple, il n’existe que très peu de manières de fixer le CO₂ présent dans l’atmosphère. La plus connue est le cycle de Calvin associé à la photosynthèse oxygénique de cyanobactéries des algues et des plantes. Ce processus permet d’utiliser le carbone du CO₂ pour produire des molécules organiques plus ou moins complexes indispensables à tout organisme.
On connaît six ou sept grandes voies métaboliques de fixation du carbone inorganique, qui sont en réalité des variantes les unes des autres. La fixation du CO₂, c’est un processus absolument central pour tout écosystème. Certains organismes, dont les organismes photosynthétiques, fixent le carbone. Ce sont les producteurs primaires.
Ensuite vient toute la diversification d’organismes et des voies qui permettent de dégrader et d’utiliser cette matière organique produite par les fixateurs de carbone. Et là encore, ce sont majoritairement les microorganismes qui assurent ces fonctions. Sur Terre, ce sont eux qui pilotent les grands cycles biogéochimiques. Pas tellement les plantes ou les animaux. Ces cycles existaient avant notre arrivée sur la planète, et nous, animaux comme plantes, ne savons finalement pas faire grand-chose à côté de la diversité métabolique microbienne.
Les procaryotes – archées et bactéries – possèdent une diversité métabolique bien plus vaste que celle des animaux ou des végétaux. Prenez la photosynthèse : elle est héritée d’un certain type de bactéries que l’on appelle cyanobactéries. Ce sont elles, et elles seules, chez qui la photosynthèse oxygénique est apparue et a évolué (d’autres bactéries savent faire d’autres types de photosynthèse dites anoxygéniques). Et cette innovation a été déterminante pour notre planète : avant l’apparition des cyanobactéries, l’atmosphère ne contenait pas d’oxygène. L’oxygène atmosphérique actuel n’est rien d’autre que le résultat de l’accumulation d’un déchet de cette photosynthèse.
Les plantes et les algues eucaryotes, elles, n’ont fait qu’hériter de cette capacité grâce à l’absorption d’une ancienne cyanobactérie capable de faire la photosynthèse (on parle d’endosymbiose). Cet épisode a profondément marqué l’évolution des eucaryotes, puisqu’il a donné naissance à toutes les lignées photosynthétiques – algues et plantes.
À l’instar de la fixation du carbone lors de la photosynthèse, ces voies métaboliques centrales sont beaucoup plus conservées que les organismes qui les portent. Ces organismes, eux, évoluent en permanence, parfois très rapidement, pour s’adapter aux variations de température, de pression, aux prédateurs, aux virus… Pourtant, malgré ces changements, les fonctions métaboliques centrales restent préservées.
Et ça, on peut le mesurer. Lorsque l’on analyse la diversité microbienne dans une grande variété d’écosystèmes, on observe une diversité taxonomique très forte, avec des différences d’un site à l’autre. Mais quand on regarde les fonctions de ces communautés, de grands blocs de conservation apparaissent. En appliquant cette logique, on peut donc remonter vers le passé et identifier des fonctions qui étaient déjà conservées au tout début de la vie – des fonctions véritablement ancestrales. C’est un peu ça, l’idée sous-jacente.
Finalement, jusqu’où peut-on remonter ?
P. L. G. : On peut remonter jusqu’à un organisme disons « idéal » que l’on appelle le Last Universal Common Ancestor, ou LUCA – le dernier ancêtre commun universel des organismes unicellulaires. Mais on sait que cet organisme était déjà très complexe, ce qui implique qu’il a forcément été précédé d’organismes beaucoup plus simples.
On infère l’existence et les caractéristiques de cet ancêtre par comparaison : par la phylogénie moléculaire, par l’étude des contenus en gènes et des propriétés associées aux trois grands domaines du vivant. En réalité, je raisonne surtout en termes de deux grands domaines, puisque l’on sait aujourd’hui que les eucaryotes dérivent d’une symbiose impliquant archées et bactéries. Le dernier ancêtre commun, dans ce cadre, correspondrait donc au point de bifurcation entre les archées et les bactéries.
À partir de là, on peut établir des phylogénies, construire des arbres, et comparer les éléments conservés entre ces deux grands domaines procaryotes. On peut ainsi inférer le « dénominateur commun », celui qui devait être présent chez cet ancêtre, qui était probablement déjà assez complexe. Les estimations actuelles évoquent un génome comprenant peut-être entre 2 000 et 4 000 gènes.
Cela nous ramène à environ 4 milliards d’années. Vers 4,4 milliards d’années, on commence à voir apparaître des océans d’eau liquide et les tout premiers continents. C’est à partir de cette période que l’on peut vraiment imaginer le développement de la vie. On ne sait pas quand exactement, mais disons qu’autour de 4-4,2 milliards d’années, c’est plausible. Et on sait que, à 3,5 milliards d’années, on a déjà des fossiles divers de tapis microbiens primitifs (des stromatolites fossiles).
Et concernant notre groupe, les eucaryotes, comment sommes-nous apparus ?
P. L. G. : Nous avons proposé une hypothèse originale en 1998 : celle de la syntrophie. Pour bien la comprendre, il faut revenir un peu sur l’histoire des sciences, notamment dans les années 1960, quand Lynn Margulis, microbiologiste américaine, avance la théorie endosymbiotique. Elle propose alors que les chloroplastes des plantes et des algues – les organites qui permettent de réaliser la photosynthèse dans les cellules de plantes – dérivent d’anciennes bactéries, en particulier de cyanobactéries, qu’on appelait à l’époque « algues vert-bleu ». Et elle avance aussi que les mitochondries, l’organite eucaryote où se déroule la respiration et qui nous fournit notre énergie, proviennent elles aussi d’anciennes bactéries endosymbiotes – un endosymbiote étant un organisme qui vit à l’intérieur des cellules d’un autre.
Ces idées, qui avaient été déjà énoncées au début du vingtième siècle et que Margulis a fait revivre, ont été très débattues. Mais à la fin des années 1970, avec les premiers arbres phylogénétiques, on a pu démontrer que mitochondries et chloroplastes dérivent effectivement d’anciennes bactéries endosymbiotes : les cyanobactéries pour les chloroplastes, et un groupe que l’on appelait autrefois les « bactéries pourpres » pour les mitochondries.
L’hypothèse dominante, à cette époque, pour expliquer l’origine des eucaryotes, repose sur un scénario dans lequel un dernier ancêtre commun se diversifie en trois grands groupes ou domaines : les bactéries, les archées et les eucaryotes. Les archées sont alors vues comme le groupe-frère des eucaryotes, avec une biologie moléculaire et des protéines conservées qui se ressemblent beaucoup. Dans ce modèle, la lignée proto-eucaryote qui conduira aux eucaryotes et qui développe toutes les caractéristiques des eucaryotes, dont le noyau, acquiert assez tardivement la mitochondrie via l’endosymbiose d’une bactérie, ce qui lancerait la diversification des eucaryotes.
Sauf que, dans les années 1990, on commence à se rendre compte que tous les eucaryotes possèdent ou ont possédé des mitochondries. Certains groupes semblaient en être dépourvus, mais on découvre qu’ils les ont eues, que ces mitochondries ont parfois été extrêmement réduites ou ont transféré leurs gènes au noyau. Cela signifie que l’ancêtre de tous les eucaryotes avait déjà une mitochondrie. On n’a donc aucune preuve qu’une lignée « proto-eucaryote » sans mitochondrie ait jamais existé.
C’est dans ce contexte que de nouveaux modèles fondés sur la symbiose émergent. On savait déjà que les archées et les eucaryotes partageaient des similarités importantes en termes de protéines impliquées dans des processus informationnels (réplication de l’ADN, transcription, traduction de l’ARN aux protéines). Nous avons proposé un modèle impliquant trois partenaires : une bactérie hôte (appartenant aux deltaprotéobactéries), qui englobe une archée prise comme endosymbionte, cette archée devenant le futur noyau. Les gènes eucaryotes associés au noyau seraient ainsi d’origine archéenne.
Puis une seconde endosymbiose aurait eu lieu, avec l’acquisition d’une autre bactérie (une alphaprotéobactérie) : l’ancêtre de la mitochondrie, installée au sein de la bactérie hôte.
Toutefois, à l’époque, ces modèles fondés sur la symbiose n’étaient pas considérés très sérieusement. La donne a changé avec la découverte, il y a une dizaine d’années, d’un groupe particulier d’archées, appelées Asgard, qui partagent beaucoup de gènes avec les eucaryotes, qui sont en plus très similaires. Les arbres phylogénétiques faits avec des protéines très conservées placent les eucaryotes au sein de ces archées. Cela veut dire que les eucaryotes ont une origine symbiogénétique : ils dérivent d’une fusion symbiotique impliquant au minimum une archée (de type Asgard) et une alpha-protéobactérie, l’ancêtre de la mitochondrie. Mais la contribution d’autres bactéries, notamment des deltaprotéobactéries, des bactéries sulfato-réductrices avec lesquelles les archées Asgard établissent des symbioses syntrophiques dans l’environnement, n’est pas exclue.
Aujourd’hui, l’eucaryogénèse est un sujet étudié activement. La découverte des archées Asgard a renforcé la vraisemblance de ce type de modèle symbiogénétique. Des chercheurs qui considéraient ces idées comme trop spéculatives – parce qu’on ne pourra jamais avoir de preuve directe d’un événement datant d’il y a 2 milliards d’années – s’y intéressent désormais. Tous ceux qui travaillent sur la biologie cellulaire des eucaryotes se posent la question, parce qu’on peut aujourd’hui remplacer certaines protéines ou homologues eucaryotes par leurs variantes Asgard… et ça fonctionne.
Purificación López García ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.01.2026 à 11:39
Une proposition de loi veut supprimer l’obligation d’utiliser un cercueil et relancer le débat sur la liberté des funérailles
Texte intégral (1249 mots)
Une proposition de loi déposée à la toute fin 2025 entend rouvrir un débat ancien mais de plus en plus actuel : celui du choix réel des modalités de disposition du corps après la mort, au-delà du seul face-à-face entre inhumation et crémation.
L’actualité du droit funéraire est très vivante ces dernières années et cela n’est pas prêt de s’arrêter. Pour preuve, une proposition de loi a été déposée le 23 décembre 2025, proposition visant à rendre effective la liberté des funérailles à travers le développement d’alternatives à l’inhumation et à la crémation et s’inscrivant dans la lignée d’une proposition précédente visant à développer l’humusation, un sujet qui reste dans l’actualité depuis 2023 malgré une certaine instabilité politique.
Quel est l’objet de cette nouvelle proposition de loi ?
La proposition de loi no 2297 portée par le député LFI François Piquemal (4ᵉ circonscription de Haute-Garonne) vise « à rendre effective la liberté des funérailles ». Autrement dit, l’enjeu de ce texte n’est pas de promouvoir une alternative en particulier à l’inhumation et à la crémation mais d’offrir une plus grande marge de manœuvre aux citoyennes et citoyens français quant au choix de leurs funérailles. Pour rappel, il s’agit normalement d’une liberté déjà inscrite dans la loi de 1887 sur la liberté des funérailles mais qui est souvent interprétée comme une liberté « contrainte » puisque cantonnée au choix entre inhumation ou crémation avec obligation de recourir à un cercueil dans les deux cas.
Ainsi, le texte propose de renforcer cette liberté par une mesure forte : l’abrogation de l’obligation d’utiliser un cercueil au profit d’une liberté de choix de l’enveloppe mortuaire (article 2), suivie d’une invitation à la reconnaissance légale d’alternatives à l’inhumation et la crémation (la terramation, l’humusation et l’aquamation sont ainsi nommées dans l’article 3 de la proposition).
Là est la différence majeure entre cette proposition de loi et celle de 2023 citée en introduction : la liberté de choix de l’enveloppe mortuaire. Autant les alternatives à l’inhumation et à la crémation commencent à être connues, autant il s’agit là d’une mesure totalement inédite qui vient porter un coup à plus de 200 ans de tradition juridique, l’obligation légale d’utiliser un cercueil datant d’un arrêté du préfet de Paris de 1801 pour des raisons d’hygiène.
Enfin, là où cette nouvelle proposition de loi rejoint la précédente, c’est sur la technique légistique de l’expérimentation. Les deux propositions proposent de passer par la voie de l’expérimentation avec un délai plus crédible pour la nouvelle proposition (5 ans) contre 6 mois seulement dans celle de 2023.
Une proposition inspirée par l’actualité internationale du droit funéraire
Cette nouvelle proposition de loi n’est pas une initiative isolée. Cela commence à faire plusieurs années que nous entendons parler de reconnaissances légales d’alternatives à l’inhumation et à la crémation. C’est le cas notamment aux États-Unis, en Allemagne et peut-être bientôt en Suisse.
Ce mouvement de légalisation dans le monde témoigne d’une nouvelle sensibilité écologique et de l’aspiration de nos concitoyens à davantage de liberté dans l’organisation des funérailles.
La France n’est d’ailleurs pas le seul pays à réfléchir à l’abrogation de l’obligation légale d’utiliser un cercueil. En région bruxelloise (Belgique) il est ainsi permis depuis janvier 2019 de s’affranchir du cercueil au profit d’un linceul. On reconnait ici la théorie défendue par Alexandre Flückiger, légisticien, selon laquelle « le droit d’un État voisin est susceptible de déployer des effets d’ordre recommandationnel sur un territoire limitrophe. Le droit étranger déploie dans ce contexte un effet symbolique qui agirait sur les comportements au même titre qu’une recommandation très implicite. »
La situation en France
Enfin, en dehors de la proposition de loi, il est possible de trouver plusieurs indicateurs sur le sol français qui démontrent un vif intérêt pour une plus grande liberté des funérailles et pour l’abrogation de l’obligation légale du cercueil.
À défaut de pouvoir supprimer le cercueil, certains réfléchissent à le rendre plus vert. À Saint-Étienne, la jeune entreprise Pivert Funéraire a ainsi créé un modèle pour crémation fabriqué à partir de déchet des industries sylvicoles et oléicoles.
D’autres organisent des colloques académiques sur le sujet. C’est l’exemple du colloque récent « Cercueil(s) & droit(s) », qui s’est tenu à l’Université Toulouse Capitole, le 28 novembre 2025.
D’autres encore mènent des expériences effectives sur le déploiement d’alternatives à l’inhumation et la crémation. C’est l’exemple de l’expérimentation sur des brebis qui a lieu dans l’Essonne à travers le projet ANR F-Compost.
En somme, les acteurs de la recherche et des pompes funèbres préparent le terrain pour que des projets, comme celui porté par cette proposition de loi, puissent voir le jour. Si une réserve pouvait être émise il y a quelques années sur l’intérêt du Parlement pour ces questions, il est permis de penser qu’à plus de cent ans la loi sur la liberté des funérailles pourrait bientôt connaître une nouvelle vie…
Jordy Bony a travaillé avec le comité de recherche de l'association Humo Sapiens, pour une mort régénérative qui œuvre pour promouvoir et expérimenter la terramation en France.
06.01.2026 à 16:56
Quelle est la différence entre matière noire et antimatière ?
Texte intégral (2180 mots)

« Qu’est-ce que la matière noire et qu’est-ce que l’antimatière ? Sont-elles la même chose ou différentes ? » Cet article est issu de notre série pour les plus jeunes lecteurs, Curious Kids, et répond à la question de Namrata, 13 ans, Ghaziabad, Inde.
Imaginez un jeu vidéo d’aventure avec votre héros préféré comme personnage principal. Un autre personnage, son jumeau miroir, apparaît de temps en temps et fait exploser tout ce qu’il touche. Pour corser encore le tout, le jeu inclut une ruche mystérieuse peuplée de minions cachés à chaque coin, qui changent les règles du jeu sans jamais se montrer.
Si l’on considère ces personnages comme des types de matière, ce jeu vidéo représente en gros le fonctionnement de notre Univers.
Le héros est la matière ordinaire, c’est-à-dire tout ce que nous pouvons voir autour de nous. L’antimatière est le jumeau miroir explosif que les scientifiques arrivent à comprendre, mais plus difficilement à trouver. Et la matière noire représente les minions invisibles : elle est partout, mais nous ne pouvons pas la voir, et les scientifiques ignorent de quoi elle est faite.
Antimatière : le jumeau miroir
Toute la matière ordinaire autour de vous est constituée de blocs de base appelés atomes. Les atomes possèdent des particules chargées positivement appelées protons entourées de minuscules électrons chargés négativement.
On peut considérer l’antimatière comme le jumeau de la matière ordinaire, mais avec des charges opposées.
Toutes les particules, comme les protons et les électrons, ont des « frères et sœurs » d’antimatière. Les électrons ont des positrons, qui sont des anti-électrons, tandis que les protons ont des antiprotons. Les antiprotons et les positrons forment des atomes d’antimatière, ou anti-atomes. Ils ressemblent à des images miroirs, mais avec leurs charges électriques inversées. Quand la matière et l’antimatière se rencontrent, elles se détruisent mutuellement dans un éclair de lumière et d’énergie avant de disparaître.
Heureusement, l’antimatière est très rare dans notre Univers. Mais certains atomes de matière ordinaire, comme le potassium, peuvent se désintégrer et produire de l’antimatière. Par exemple, lorsque vous mangez une banane ou tout aliment riche en potassium, vous consommez de très petites quantités de ces atomes producteurs d’antimatière. Mais la quantité est trop faible pour avoir un effet sur votre santé.
L’antimatière a été découverte il y a presque cent ans. Aujourd’hui, les scientifiques peuvent créer, stocker et étudier l’antimatière en laboratoire. Ils en comprennent très bien les propriétés. Les médecins l’utilisent même pour les PET-Scan. Ils injectent de toutes petites quantités d’atomes producteurs d’antimatière dans le corps et, au fur et à mesure que ces atomes circulent, le scanner prend des images des éclairs de lumière produits par l’annihilation de l’antimatière et de la matière dans le corps. Ce processus permet aux médecins de voir ce qui se passe à l’intérieur du corps.
Les scientifiques ont également découvert qu’à la naissance de l’Univers, il y avait des quantités presque égales de matière et d’antimatière. Elles se sont rencontrées et annihilées. Heureusement, une très petite quantité de matière ordinaire a survécu pour former les étoiles, les planètes et nous tous.
Matière noire : les minions invisibles
La matière noire est beaucoup plus mystérieuse. Avez-vous déjà tourné très vite sur un tourniquet ? Si oui, vous savez combien il est difficile de rester dessus sans tomber, surtout si vous êtes seul sur le tourniquet.
Maintenant, imaginez qu’il y ait plein de minions invisibles sur ce tourniquet avec vous. Vous ne pouvez ni les voir ni les toucher, mais ils vous retiennent et vous empêchent de vous envoler quand il tourne à toute vitesse. Vous savez qu’ils sont là parce que le tourniquet est plus lourd et difficile à faire tourner qu’il n’y paraît. Les minions ne jouent pas et ne parlent à personne ; ils restent simplement là, ajoutant leur poids à l’ensemble.
Il y a environ cinquante ans, l’astronome Vera Rubin a découvert un mystère similaire dans les galaxies spirales. Elle a observé des galaxies en rotation, qui sont comme des tourniquets cosmiques, et a remarqué quelque chose d’étrange : les étoiles situées à l’extérieur de ces galaxies tournaient beaucoup plus vite qu’elles ne devraient. Elles auraient dû être projetées dans l’espace comme des étincelles d’un feu d’artifice. Mais ce n’était pas le cas.
C’était comme regarder des enfants tourner à une vitesse incroyable sur un tourniquet mais rester parfaitement en place.
La seule explication ? Il doit exister un océan de « choses » invisibles qui maintiennent tout en place grâce à leur gravité supplémentaire. Les scientifiques ont appelé cette matière mystérieuse « matière noire ».
Depuis, les astronomes ont observé des comportements étranges similaires dans tout l’Univers. Les galaxies au sein de grands amas se déplacent de manière inattendue. La lumière est plus courbée autour des galaxies qu’elle ne devrait l’être. Les galaxies restent bien plus solidaires que ce que la matière visible seule pourrait expliquer.
C’est comme si notre terrain de jeu cosmique avait des balançoires qui bougent toutes seules et des tape-culs qui basculent alors que personne n’est assis dessus.
La matière noire n’est pour l’instant qu’un nom provisoire, en attendant que les scientifiques découvrent ce que c’est réellement. Depuis cinquante ans, de nombreux chercheurs mènent des expériences pour détecter la matière noire ou la produire en laboratoire. Mais jusqu’à présent, ils sont restés bredouilles.
Nous ne savons pas ce qu’est la matière noire, mais elle est partout. Il pourrait s’agir de particules que les scientifiques n’ont pas encore découvertes ou de quelque chose de complètement inattendu. Mais les astronomes peuvent constater, en observant la vitesse de rotation des galaxies, qu’il y a environ cinq fois plus de matière noire que toute la matière ordinaire de l’Univers.
Dipangkar Dutta bénéficie d'un financement du ministère américain de l'Énergie et de la National Science Foundation.
06.01.2026 à 16:54
Pourquoi les femmes font-elles moins de vélo que les hommes ?
Texte intégral (2350 mots)

En France, comme dans la grande majorité des pays du globe, les femmes pédalent moins que les hommes. Comment l’expliquer ?
Selon une enquête de 2023, en France, 11 % des femmes adultes affirment ne pas savoir faire du vélo et 38 % déclarent une faible maîtrise, contre respectivement 5 % et 23 % des hommes. Elles ne sont que 25 % à en faire au moins une fois par semaine, contre 38 % des hommes. Et la tendance s’observe pour les principales formes d’usage.
De plus, les cyclistes hommes parcourent en moyenne des distances plus importantes. Malgré une féminisation progressive, les femmes ne représentent que 12,8 % des licencié·es de la fédération française de cyclisme et seulement 7 % des pratiquant·es en compétition. Plus clivée encore, l’activité professionnelle de livraison à vélo ne compte quasiment que des hommes.
Le recours au vélo à assistance électrique (VAE) est davantage paritaire (47 % de femmes). Toutefois l’accès à cette technologie est très inégalitaire entre les femmes. Les moins dotées en termes de revenu sont peu enclines à en bénéficier.
Par ailleurs, les femmes sont plus susceptibles de ne posséder aucun vélo ou d’utiliser un modèle d’entrée de gamme. Comme c’est le cas des groupes sociaux les plus pauvres, elles se déplacent davantage à pied et en transport en commun (TC). Les parts des différents modes de déplacement–marche, TC et vélo – sont respectivement de 25,8 %, 14 % et 1,5 % pour les femmes, contre 21,5 %, 11,2 % et 4 % pour les hommes.
Des socialisations corporelles, sportives et spatiales très genrées
Ces constats s’expliquent notamment par le fait que le vélo est une activité d’extérieur qui (en France) reste fortement associée à un sport masculin nécessitant des efforts intenses, à un mode de déplacement individuel dangereux, au tourisme, à l’aventure ainsi qu’à un objet mécanique autoréparable.
Or, à travers leur socialisation (ensemble des processus par lesquels la société façonne les individus), les femmes sont généralement moins incitées à investir l’espace public, à se déplacer seules, à s’aventurer, à s’adonner à des activités mécaniques, à fournir des efforts physiques intenses (d’autant plus en compétition) et à prendre des risques corporels.
Ce processus est particulièrement prégnant durant l’adolescence, période marquée par un durcissement des assignations de genre (injonctions à devenir une fille féminine ou un garçon masculin). Ce constat est d’autant plus préoccupant que la pratique du vélo pendant l’adolescence conditionne fortement la probabilité d’en refaire plus tard.
« En 4e, c’est là qu’elle s’est sentie plus, enfin, qu’elle est devenue une femme, une jeune femme quoi, enfin elle a eu ses trucs […] Et elle s’est sentie grande quoi ! Maquillage, tout ça, et c’est vrai que là, le vélo, elle en a plus trop fait, mais ses copines en faisaient plus de toute façon », Véronique, 42 ans, éducatrice petite enfance.
À l’âge adulte, les femmes sont davantage amenées à effectuer des chaînes de déplacement complexes (succession de trajets correspondant à différents motifs : travail, école, médecin, courses, etc.) découlant de leurs plus grandes responsabilités domestiques (notamment le transport d’enfants, de personnes âgées ou malades). Au même titre que les problèmes de santé ainsi que les changements de lieu de résidence ou d’emploi, l’arrivée d’enfant(s) les conduit plus souvent à arrêter le vélo que ce n’est le cas pour les hommes.
Leur usage du vélo est également plus souvent freiné par la peur de l’accident, la vitesse et le volume du trafic, les montées et longues distances, un manque de confiance en leurs capacités physiques, et la crainte de problèmes mécaniques. Elles sont aussi plus susceptibles de réduire ou d’abandonner leur pratique du vélo à la suite d’un accident ou d’une chute.
Des inégalités entre les femmes elles-mêmes
Par ailleurs, moins compétentes pour réparer leur vélo, moins en mesure de recourir à un ou une professionnel·le (en raison de moindres ressources économiques) et moins souvent équipées d’un vélo de remplacement, elles sont plus exposées à un abandon de pratique en cas d’avarie.
Ces freins concernent moins les femmes des classes dominantes vivant en milieu urbain dense, où les dimensions écologique, sanitaire et pratique du vélo sont particulièrement valorisées, et où les aménagements sont plus sécurisés, continus, directs, connectés et lisibles.
À l’inverse, les femmes de milieu populaire – notamment lorsqu’elles sont issues de cultures non occidentales dans lesquelles l’usage du vélo est l’apanage des hommes – sont fortement susceptibles de ne jamais avoir appris à faire du vélo ou d’avoir arrêté avant l’âge adulte. Elles sont davantage concernées par les tâches domestiques ainsi que par un manque de ressources financières, de modèles d’identification, de connaissances des bienfaits du vélo, et d’accès au réseau cyclable.
L’influence déterminante de l’environnement familial et des pairs
La dimension genrée des socialisations cyclistes repose sur toutes les instances et agents de socialisation, à commencer par l’environnement familial et ce, dès le plus jeune âge. Les filles sont moins incitées à sortir, à explorer, à se dépenser et à prendre des risques que les garçons. En particulier au moment de la puberté, elles se font plus souvent accompagner ou interdire de pratiquer. Elles sont davantage retenues dans la sphère domestique et dissuadées de se déplacer seules.
Cela est moins marqué dans les milieux fortement dotés en capital culturel, où les femmes sont généralement plus enclines à s’approprier le vélo comme un outil libérateur du sentiment de vulnérabilité dans l’espace public (parce que permettant d’aller plus vite qu’à pied et de ne pas se sentir confinées). Mais cette forme d’appropriation peut favoriser un sentiment de dépendance au vélo (perçu comme plus rassurant que la marche et les transports en commun) limitant en définitive leurs alternatives. Parce que les sociabilités demeurent très homosexuées (entre personnes du même sexe), l’influence des pairs tend aussi à favoriser la reproduction des inégalités de genre, notamment dans le cadre de pratiques sportives.
Le rôle majeur des institutions sportives et médiatiques
Le monde du sport de compétition joue également un rôle important dans la sexuation des socialisations cyclistes. La recherche en physiologie de l’exercice montre qu’en raison d’une meilleure résistance à la fatigue et d’une meilleure utilisation des graisses comme énergie, les femmes disposent d’avantages non négligeables pour les épreuves sportives d’ultra-endurance extrêmes (supérieures à 6 heures de course).
Pourtant, la non-confrontation directe entre femme(s) et homme(s) reste la norme des courses de cyclisme sur route les plus médiatisées, dont les distances règlementaires sont environ deux fois inférieures pour les femmes. Les institutions et les médias naturalisent ainsi une supposée incapacité des femmes à rivaliser avec les hommes, érigeant pour les filles des modèles infériorisés.
Les injonctions genrées véhiculées par les objets
L’influence des vélos n’est pas à négliger. Dès le plus jeune âge, ils constituent des supports de socialisation genrée. Ceux adressés aux filles sont davantage équipés d’éléments renvoyant aux tâches domestiques et à la fonction maternelle (béquille, panier, siège poupon, etc.). D’autres objets favorisent le clivage. Nombreuses sont les femmes qui évitent le vélo afin de préserver leur maquillage ou leur tenue féminine (robe, jupe, talons).
D’autres freins tiennent au port de vêtements religieux (hijab, niqab, etc.), à l’usage de protections hygiéniques ou encore à la croyance que la selle pourrait compromettre la virginité (en particulier chez les moins dotées en capital culturel).
Les inégalités d’accès à l’espace public
Si le vélo est essentiellement étudié, conçu, vendu, pratiqué, promu, enseigné et réparé par des hommes, il est aussi pratiqué dans des espaces notamment façonnés et occupés par des hommes. Or, comme la cour d’école, qui constitue un support clé des socialisations spatiales genrées durant l’enfance, l’espace public n’est pas neutre.
Quel que soit leur mode de déplacement, les femmes sont davantage confrontées au harcèlement et aux agressions sexuelles de rue. Les stratégies qu’elles adoptent (se vêtir d’une tenue moins « féminine », se faire accompagner, feindre d’être accompagnée, faire des détours, éviter certains horaires, se munir d’une arme, renoncer, etc.) augmentent leur charge mentale, limitent leurs opportunités et conduisent parfois à l’abandon définitif du vélo.
Le vélo n’est pas forcément libérateur
Soulignons enfin que l’adoption du vélo (de même que le recours à des outils ménagers ou à la voiture) n’est pas forcément libératrice pour les femmes. Lorsqu’il permet d’aller plus vite (notamment en milieu dense), le vélo devient souvent un outil d’optimisation du temps. Ainsi, il peut contribuer à intensifier le travail domestique des femmes. C’est le cas lorsque, au lieu d’être réinvesti en loisir, le temps gagné est consacré à de nouvelles tâches.
Ainsi, il ne suffit pas d’inciter les femmes à faire du vélo pour tendre vers plus d’égalité. Une politique vélo qui poursuivrait cet objectif devrait tenter d’agir conjointement sur l’ensemble des instances et agents de socialisation (famille, pairs, institutions, médias, rue, objets, religion, etc.). C’est l’ensemble de nos structures sociales qu’il faudrait repenser.
David Sayagh est l’auteur de Sociologie du vélo, aux éditions La Découverte, 2025.
David Sayagh ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
06.01.2026 à 16:54
Que retenir de la présidence malaisienne de l’Asean ?
Texte intégral (2256 mots)
Avec désormais 11 membres, l’Association des nations de l’Asie du Sud-Est a toujours l’ambition de jouer un rôle central en Asie du Sud-Est. La Malaisie, qui a exercé la présidence tournante de l’organisation en 2025, a profité de l’occasion pour se repositionner comme un acteur important dans la région et au-delà.
Cet article a été co-rédigé avec Colin Doridant, analyste des relations entre la France et l’Asie.
Ancienne colonie britannique, la Malaisie est l’un des rares États d’Asie du Sud-Est à être passé d’une stratégie d’alliance à une posture de non-alignement sur la scène internationale. Indépendante depuis 1957, sa politique étrangère est restée, dans un premier temps, étroitement liée aux garanties de sécurité britanniques à travers l’Anglo-Malayan Defence Agreement (1957-1971), puis les Five Power Defence Arrangements, un pacte défensif non contraignant réunissant le Royaume-Uni, la Malaisie et Singapour, l’Australie et la Nouvelle-Zélande. Le progressif retrait britannique, la reconnaissance de la République populaire de Chine (RPC) en 1974 ainsi que l’arrivée au pouvoir de Mahathir Mohamad – une figure politique majeure en Asie – ont posé les bases d’une politique étrangère plus autonome et tournée vers le continent asiatique.
En 2025, la Malaisie a cherché à exploiter sa présidence de l’Association des nations de l’Asie du Sud-Est (Asean) pour affirmer son rôle sur la scène régionale et internationale. Une stratégie qui s’est révélée payante pour Kuala Lumpur, mais en demi-teinte pour l’Asean.
Une politique étrangère neutre mais proactive
Après avoir adhéré au mouvement des non-alignés en 1970 et réaffirmé son non-alignement dans son Livre Blanc de la défense de 2020, la Malaisie semble aujourd’hui poursuivre une politique étrangère d’équilibre stratégique dynamique entre Pékin et Washington, centrée autour de l’Asean dont elle a été l’un des cinq membres fondateurs en 1967 (l’organisation compte désormais 11 membres).
Si la Malaisie, publiquement, n’hésite pas à aller dans le sens de la RPC – comme l’a encore montré la visite d’État de Xi Jinping en avril –, elle a également fait du respect de sa souveraineté en mer de Chine méridionale une de ses priorités stratégiques face à Pékin.
Avec les États-Unis, la relation bilatérale est de plus en plus tendue – que ce soit à propos du conflit israélo-palestinien ou de la nomination du très controversé prochain ambassadeur des États-Unis en Malaisie. La coopération reste néanmoins résiliente, comme en témoigne la signature d’accords de défense et d’accès aux terres rares lors de la visite de Donald Trump en octobre 2025.
Dans les relations avec ses voisins, la Malaisie privilégie un pragmatisme discret en matière de gestion des litiges frontaliers, comme avec les Philippines sur l’État de Sabah ou avec l’Indonésie autour d’Ambalat en mer de Célèbes.
Vis-à-vis de Singapour, ancien membre de la fédération qui s’est détaché en 1965, les relations sont largement normalisées avec des initiatives comme l’ouverture prochaine du Johor Bahru–Singapore Rapid Transit System ou la formalisation en janvier 2025 de la Johor-Singapore Special Economic Zone qui illustrent une approche axée sur l’interdépendance économique, évitant les confrontations publiques.
La présidence de l’Asean 2025 : un succès politique pour Anwar Ibrahim et diplomatique pour la Malaisie
Dix ans après sa dernière présidence de l’Asean, la Malaisie reprenait en 2025 les rênes de l’organisation dans un climat interne et international bien différent de celui qui prévalait une décennie auparavant.
Premier ministre depuis novembre 2022, Anwar Ibrahim, ancien dauphin puis rival de Mahathir, assurait cette présidence de l’Asean, plateforme unique pour rétablir une position d’acteur régional clé. La présidence malaisienne de l’Asean s’est inscrite dans la continuité de sa politique étrangère, qui vise à promouvoir le multilatéralisme et faire de Kuala Lumpur une capitale diplomatique en Asie du Sud-Est. Une mission réussie, avec les visites de plus de 25 chefs d’État différents en Malaisie au cours de l’année 2025, dont celles de Recep Tayyip Erdoğan, de Xi Jinping, de Donald Trump ou encore l’organisation de la rencontre Rubio-Lavrov en juillet.
Autre facette de la diplomatie malaisienne en 2025 : une forte solidarité avec les peuples « opprimés », en particulier les Palestiniens, et une critique des « doubles standards » occidentaux. Les efforts d’Anwar pour concrétiser l’organisation du premier sommet « Asean-GCC-China » entre l’Asean, les six pays du Conseil de coopération du Golfe et la RPC, sont également à souligner. La Malaisie tente de se positionner comme un pont (bridging linchpin vision) entre les différentes régions et cultures, particulièrement entre le monde islamique, l’Occident, mais aussi le « Sud Global », le pays ayant obtenu le statut de partenaire des BRICS en 2024.
Une année 2025 où la Malaisie aura donc pu rayonner à l’international, à l’instar de son premier ministre qui prépare déjà les prochaines élections générales de février 2028.
Asean : des horizons incertains
Point d’orgue d’une année intense, le 47e sommet de l’Asean, organisé concomitamment avec d’autres réunions (Partenariat économique régional global, Sommet de l’Asie orientale) et en présence de Donald Trump, fut historique par l’adhésion d’un onzième membre : le Timor-Leste.
Néanmoins, sur les plans économique et diplomatique, les résultats ont été mitigés. En effet, si le renforcement de l’Asean Trade in Goods Agreement (ATIGA) et de l’Asean-China Free Trade Agreement (ACFTA) ont marqué des avancées vers plus d’intégration régionale, des critiques ont surtout été formulées à l’encontre des accords bilatéraux de réduction des tarifs douaniers signés par la Malaisie et le Cambodge avec les États-Unis. Ces derniers contiendraient des « clauses empoisonnées » visant à renforcer le commerce avec les États-Unis et à limiter celui avec la RPC. Des accords-cadres similaires ont été signés avec le Vietnam et la Thaïlande. Ces dispositions symbolisent les difficultés de l’Asean à s’adapter à la diplomatie économique trumpienne, qualifiée par certains de « diplomatie du cowboy ».
Sur le plan régional, c’est principalement le réveil du conflit larvé entre la Thaïlande et le Cambodge en mai 2025 qui a pesé sur la présidence malaisienne de l’Asean. Malgré des efforts – plus sino-malaisiens qu’états-uniens – qui ont mené à la conclusion lors du sommet de l’Asean de « l’accord de paix de Kuala Lumpur » entre les deux belligérants en octobre, les hostilités ont repris dès le mois de novembre.
En s’ajoutant à l’échec d’avancées concrètes sur le dossier birman et de la mer de Chine méridionale, la confrontation entre Bangkok et Phnom Penh n’a fait que souligner l’incapacité de l’Asean à régler les conflits régionaux. Un rappel supplémentaire de la complexité de ces défis persistants et des limites des mécanismes dont dispose l’Asean pour y faire face.
Les prochaines présidences de l’Asean – les Philippines en 2026, qui ont annoncé qu’elles feraient du Code de conduite en mer de Chine méridionale leur priorité, et Singapour en 2027, année des 60 ans de l’organisation et du prochain Congrès national du Parti communiste chinois – sont d’ores et déjà toutes deux sous pression face à l’accumulation des crises en Asie du Sud-Est.
Ces dynamiques auront des ramifications géopolitiques qui dépassent le seul cadre régional et offrent à des acteurs extérieurs, la France par exemple, des opportunités de coopération et d’influence dans la région.
Les perspectives françaises
Dans le cadre de la mise en œuvre de la nouvelle stratégie Indopacifique française, la Malaisie constitue aujourd’hui un partenaire important en Asie du Sud-Est.
Le pays accueille environ 300 filiales d’entreprises françaises représentant quelque 30 000 emplois. Mais c’est dans le domaine de la défense que la coopération s’est révélée la plus soutenue, la Malaisie s’imposant, dans la première décennie du XXIe siècle, comme le principal partenaire de défense de la France en Asie du Sud-Est (aux côtés de Singapour), notamment à travers la vente de matériel militaire (sous-marins Scorpène, avions A400M, hélicoptères H225). La coopération militaire se poursuit actuellement, qu’il s’agisse des déploiements français (missions CLEMENCEAU 25 et PEGASE), de l’exercice terrestre conjoint MALFRENCH DAGGERT, ou encore des escales et exercices navals réguliers.
La relation connut une certaine accalmie, marquée par des périodes de tensions. Ainsi, en 2018, le retrait de l’huile de palme de la liste des biocarburants bénéficiant d’une exonération fiscale en France fut interprété par la Malaisie comme une interdiction déguisée d’importation, fragilisant un secteur stratégique.
La visite officielle à Paris d’Anwar Ibrahim en juillet 2025 semblait indiquer « la relance » de la relation bilatérale pour reprendre les mots du président Emmanuel Macron. Mais le discours d’Anwar à la Sorbonne pouvait toutefois être perçu comme un avertissement adressé aux Européens, les invitant à recalibrer leurs relations avec l’Asie du Sud-Est et à mieux appréhender les sensibilités d’une région qui « a l’habitude d’être décrite, mais beaucoup moins celle d’être écoutée ».
Il pourrait être intéressant pour la France de renforcer son soutien à la gestion des crises en Asie du Sud-Est, dans la dynamique de la nomination en 2024 d’un envoyé spécial pour la Birmanie en appui des efforts internationaux. En effet, le contentieux territorial entre la Thaïlande et le Cambodge trouve son origine dans le découpage territorial de l’Indochine française et des traités franco-siamois de 1904 et 1907. Or, la reprise du conflit coïncide avec l’organisation en 2026 du XXe Sommet de la Francophonie qui se tiendra au Cambodge (la Thaïlande est également membre l’organisation avec le statut observateur) et auquel participera Emmanuel Macron.
Un déplacement français en Asie du Sud-Est qui ne devra pas, cette fois, oublier la Malaisie, comme le rappelait avec humour le premier ministre malaisien à son homologue français dans la cour de l’Élysée en juillet 2025 : « Avant que vous n’atteigniez le Cambodge pour le Sommet de la Francophonie, vous n’aurez aucune excuse de ne pas visiter la Malaisie. »
Paco Milhiet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
06.01.2026 à 16:53
Du sauveur à l’éboueur : comment les lycéens perçoivent leurs éco-délégués
Texte intégral (3207 mots)
Voilà cinq ans que les élèves du secondaire ont l’obligation d’élire des éco-délégués dans chaque classe. Dans les faits cependant, cette intention n’est pas toujours respectée, et les perceptions quant à leur rôle varient fortement d’un établissement à l’autre.
À quoi servent les éco-délégués ? « Je ne sais pas », « aucune idée », « on n’a pas d’infos », ont répondu la moitié des 380 lycéens interrogés au sujet de leur expérience de l’éducation au développement durable dans leur lycée. Pourtant, chaque établissement scolaire a l’obligation d’organiser l’élection d’au moins un éco-délégué par classe, et ce depuis 2020.
Considérés comme les « pivots du développement durable dans les établissements », l’État les exhorte à devenir les « acteurs du changement » au sein d’un « peuple de colibris », à travers la voix de Jean-Michel Blanquer, alors ministre de l’éducation nationale.
Cinq ans après cette mise en place obligatoire des éco-délégués, « la tension entre ces injonctions et les réalités du terrain » déjà évoquée en 2023 par les chercheuses Évelyne Bois, Aurélie Zwang et Mandarine Hugon, est toujours palpable.
À lire aussi : Être éco-délégués au collège ou au lycée : quels moyens d’action ?
Un bilan difficile à dresser en l’absence de données officielles
Le ministère de l’éducation nationale affiche certes l’ambition de 250 000 éco-délégués et promeut des ressources et dispositifs d’appui (guides pratiques, prix de l’action de l’éco-délégué, etc.). Cependant, aucun recensement officiel n’est disponible, ni à l’échelle de la direction de l’évaluation, de la prospective et de la performance (DEPP), ni à celle des académies, ni même parfois à celle des établissements. Il est donc compliqué de savoir si chaque classe compte actuellement une ou un éco-délégué. Le travail de terrain nous permet toutefois de déceler que cette obligation n’est pas toujours suivie dans les faits.
Pour tenter de comprendre malgré tout le rôle effectif des éco-délégués, plusieurs ressources sont néanmoins disponibles :
une enquête menée en 2023-2024 en région Bretagne auprès d’établissements engagés dans des projets d’éducation au développement durable (EDD), relevant de l’éducation nationale ou de l’enseignement agricole, du secteur public ou privé, de la voie générale ou professionnelle.
les quelques travaux existants en science de l’éducation sur l’engagement des éco-délégués.
un discret et polémique rapport parlementaire portant sur l’animation des éco-délégués.
À la rencontre des éco-délégués
Des 380 répondants au questionnaire administré auprès de lycéens de Bretagne, 85 % indiquent la présence d’éco-délégués dans leur établissement, même au sein d’un lycée n’ayant pas encore mis en place le dispositif. Moins de 5 % déclarent être eux-mêmes éco-délégué au moment de l’enquête.
À la question « Quelles sont les activités menées par les éco-délégué·es ? », la réponse la plus fréquente (52 %) est donc « Je ne sais pas » ou sans réponse. La question étant ouverte, nous avons pu classer les réponses détaillées des 173 élèves ayant une idée des activités menées. Trois catégories d’acteurs peuvent alors se distinguer dans leurs perceptions du rôle des éco-délégués.
- Les « agents du changement » (30 %) : les éco-délégués sont avant tout perçus comme les prescripteurs des éco-gestes : ils « trouvent des activités sympas pour insister à ne pas polluer », note une lycéenne. Ils développent, souvent à l’aide de prestataires extérieurs, des nudges inspirés des théories du comportement, pour inciter à la préservation des ressources : une « affiche pour éteindre la lumière », un « autocollant qui se complète que lorsque l’on ferme la fenêtre », un « totem pour recycler le papier »… avec plus ou moins d’efficacité.
Ils peuvent aussi investir des espaces spécifiques, comme un potager, un jardin, un « club nature », ou contribuer à végétaliser la cour. Ils se réunissent souvent le midi, seul temps disponible pour les enseignants comme pour les élèves.
L’éco-délégué est parfois identifié comme l’ambassadeur dont on attend qu’il soit : celui qui « explique les actions et réfléchit à de nouvelles stratégies », qui « présente et propose les projets et motive les élèves », résument des enquêtés. Sa mission de sensibilisation peut progressivement consister à « s’interroger », « trouver des idées pour améliorer le monde pour plus tard », voire à « donner des cours aux camarades », énumèrent d’autres lycéens. Leurs actions « parfois petites mais qui font grandir le lycée » sont vues avec bienveillance. Ils contribuent à « améliorer la vie en communauté pour ne pas avoir à souffrir plus tard », assure une élève. Ils peuvent être perçus comme des innovateurs et apporter des solutions pour « sauver notre terre et l’améliorer », comme l’indique une éco-déléguée.
De façon très marginale, des actions en dehors de la sphère environnementale qui domine les discours sont parfois citées : comme de la sensibilisation sur le handicap, la mise en place de produits d’hygiène féminine ou des « boîtes à livres ».
« Les importuns inutiles » (5 %) : Pour certains, les éco-délégués ne font « rien », ou « pas grand-chose ». Leurs rencontres sont identifiées comme l’occasion de « rater les cours pour faire des réunions souvent inutiles » ou pour lesquelles « nous n’avons aucun retour », déplore un élève. Les élèves d’un lycée agricole public en zone rurale sont parmi ceux qui ont les mots les plus durs : les éco-délégués « nous cassent les oreilles » ou sont là « pour faire joli et apporter des idées qui n’aboutissent jamais ».
« Les opérateurs de tri » (13 %) : Les éco-délégués ramassent, trient, nettoient, compostent, luttent contre le gaspillage, construisent des poubelles, font des « clean walk » dans leurs lycées, dans leurs villes, sur les plages… Les déchets identifiés sont ceux qui sont visibles, comme le papier ou les mégots, alors que les déchets numériques qui ne cessent de croître ne sont pas mentionnés.
Agir sur les déchets demeure l’activité concrète la plus citée dans l’enquête : qu’elle soit l’unique action ou bien associée à d’autres, perçue de façon conforme aux attendus d’un éco-délégué « acteur du changement » ou de manière plus critique, comme chez ce lycéen qui ironise. « Ils ramassent les poubelles, on ne sait pas s’ils sont délégués ou éboueurs. »
Rappelons que la gestion des déchets dans un établissement scolaire public est une attribution des collectivités qui gèrent les bâtiments. Les projets des éco-délégués peuvent donc impliquer la collaboration d’agents de la collectivité qui sont rarement consultés et, au final, souvent dans l’incapacité de donner suite aux projets commencés, comme la création de composts abandonnés l’année suivante faute de personnel identifié pour les gérer. Il en est de même avec les actions des élèves autour des économies d’énergie dont la portée reste limitée face au défi que représente la rénovation énergétique des bâtiments scolaires, décidée à un tout autre niveau.
Sans remettre en cause l’importance de la gestion des déchets pour la cause écologique et sociale, nous pouvons cependant nous questionner sur l’intérêt d’en faire la mission principale des éco-délégués. Peu de réflexions sur l’origine de ces déchets (surconsommation, obsolescence programmée, mauvaise qualité, réglementation non respectée) ont été observées. Or, sans remise en cause du système à l’origine de la production de ces déchets, les éco-délégués risquent bien de n’occuper qu’une « fonction utilitariste au service des politiques libérales de croissance », pour reprendre les termes des chercheurs Jean-Marc Lange et Angela Barthes.
Un fort effet établissement
Le dispositif des éco-délégués peut également être perçu de manière très différente selon les contextes d’établissements. Dans l’enquête de terrain, les élèves de l’enseignement agricole considèrent les éco-délégués comme des « agents du changement » ou des « opérateurs du tri » dans une proportion supérieure aux attentes. Les élèves de l’éducation nationale suivant une voie de formation générale sont eux beaucoup plus que prévu à répondre ne pas savoir quelles sont les missions des éco-délégués.
Plus surprenant, les élèves d’un lycée pourtant labellisé « établissement en démarche de développement durable (E3D) » et ceux ayant participé à un projet régional sur les ODD (Objectifs de développement durable définis par les Nations unies) sont ceux qui affichent le plus haut pourcentage des « Je ne sais pas » (79 % et 70 %). À l’inverse, les élèves d’un lycée n’ayant pourtant pas encore organisé d’élections d’éco-délégués sont ceux qui les considèrent le plus comme « agents du changement » (49 %).
L’analyse du questionnaire indique par ailleurs que les perceptions des activités des éco-délégués ne varient pas significativement selon le genre, le niveau scolaire ni même selon le vécu scolaire : les élèves se déclarant en réussite ou en échec scolaire et les élèves déclarant avoir une expérience positive ou négative de leur scolarité ont des taux de réponse équivalents. Ainsi, l’effet établissement semble agir plus que le profil socio-scolaire des élèves sur leur perception du rôle de l’éco-délégué. Ces premiers résultats mériteraient cependant d’être consolidés à une échelle plus importante.
Enfin, qu’elle soit conforme aux prescriptions du ministère, restreinte aux déchets ou plus critique, la perception du rôle des éco-délégués se cantonne à la sphère écologique. Les systèmes politiques et économiques à l’origine de l’épuisement des ressources et de la surproduction de déchets ne sont quasiment jamais mentionnés. Cette dépolitisation de la question écologique, notamment dans un contexte scolaire, et « l’invisibilisation des enjeux sociaux » qui l’accompagne sont une tendance déjà bien repérée par les recherches en éducation, comme en témoigne le récent ouvrage d’Irène Pereira sur l’éco-pédagogie (2024).
Quant au profil socio-scolaire des éco-délégués, sans étude statistique nationale, difficile de dresser le portrait type. Le rapport parlementaire réalisé sur ce sujet par une députée de la majorité, dresse un panorama assez mitigé. Le dispositif des éco-délégué est accusé de renforcer les stéréotypes de genre en confiant les tâches du « care », et notamment du maintien de la propreté des lieux, aux filles plus qu’aux garçons. Constat déjà largement documenté en sociologie.
Si les éco-délégués perçoivent bien que l’on attend d’eux qu’ils soient force de propositions, ils sont pourtant dirigés, de manière explicite ou plus implicite, vers les actions déjà en cours ou impulsées par leurs encadrants, considérées comme réalisables et « allant dans le bon sens ». Un acteur du changement donc, mais dans les limites de l’acceptable.
Parmi les éco-délégués interrogés pendant l’enquête, certains s’épanouissent clairement dans leur mission, regrettent parfois qu’elle ne puisse pas s’étendre davantage ou se pérenniser d’une année sur l’autre ou d’un établissement à l’autre. Pour d’autres, elle est synonyme d’usure ou de déception, comme en témoigne cet éco-délégué élève de seconde (lycée privé, zone rurale) :
« C’est bien gentil de faire les petits gestes, mais un moment il va falloir faire les grands, et c’est pas le gouvernement qui s’en occupe. »
Tantôt colibris, tantôt ambassadeurs, tantôt sauveurs, tantôt éboueurs… les éco-délégués cumulent ainsi les casquettes sans véritables moyens pour agir, alors même que les défis auxquels ils sont censés répondre ne cessent de croître dramatiquement.
Certes, nous pouvons convenir que les cinq dernières années n’ont pas été de tout repos pour le milieu scolaire : crise sanitaire de la Covid et huit ministres de l’éducation nationale qui se sont succédé. Cependant, nous pouvons constater qu’après un engouement pour les enjeux de développement durable post-COP21, les moyens attribués au déploiement de l’éducation au développement durable peinent encore à être rassemblés à la hauteur des objectifs auxquels la France continue de s’engager, COP après COP.
À lire aussi : De COP en COP, une géopolitique de la procrastination climatique
Lise Trégloze a reçu une bourse de recherche doctorale de la région Bretagne (dispositif ARED).
06.01.2026 à 16:50
Comment promouvoir la durabilité grâce à des applications géolocalisées, sans pour autant inquiéter la vie privée des utilisateurs ?
Texte intégral (1023 mots)
En mettant en relation des inconnus autour du don, du partage et de la solidarité locale, les applications de géomatching apparaissent comme de puissants leviers des Objectifs de développement durable élaborés par l’ONU. Leur succès dépend pourtant d’un équilibre délicat entre impact sociétal, exposition des données personnelles et sentiment de sécurité.
Les 17 Objectifs de développement durable (ODD), élaborés par les Nations unies pour transformer le monde d’ici à 2030, nécessitent l’implication du plus grand nombre. Or, de nombreuses applications géolocalisées, fondées sur la mise en relation entre particuliers, offrent un potentiel considérable pour accélérer ce changement. Chaque ODD peut aujourd’hui s’appuyer sur des centaines d’initiatives de « géomatching ».
Pour l’ODD 1 (« pas de pauvreté »), par exemple, FallingFruit met à disposition des glaneurs plus de 4 039 ressources alimentaires distinctes, réparties sur près de deux millions de sites. GEEV permet de récupérer gratuitement des meubles près de chez soi, tandis qu’Olio facilite le partage des surplus alimentaires entre voisins grâce à une communauté de plus de 8 millions de membres.
Ces plates-formes génèrent des impacts concrets sur les trois piliers du développement durable :
Social : elles renforcent la solidarité locale et créent de nouveaux liens sociaux ;
Économique : elles réduisent la pauvreté et améliorent le quotidien de chacun ;
Environnemental : elles diminuent les déchets et prolongent la durée de vie des objets.
Une épineuse question de sécurité
Cependant, leur fonctionnement repose sur la divulgation de données personnelles, notamment la géolocalisation reconnue comme particulièrement sensible par la Commission européenne. Contrairement aux transactions classiques sur des plates-formes comme Leboncoin ou Vinted, les applications de géomatching impliquent souvent une rencontre physique, parfois au domicile d’un particulier.
Aller chez un inconnu ou accueillir un inconnu chez soi n’est pas anodin. La confiance que l’on peut accorder à une marque pour personnaliser des offres ne suffit plus : ici, les données doivent être partagées directement avec d’autres utilisateurs. Ce besoin de sécurité explique le succès d’applications comme Gensdeconfiance, fondées sur la recommandation entre membres.
Les risques perçus sont renforcés par le contexte : augmentation des violations de données, multiplication des infox, usurpations d’identité… Les internautes sont méfiants : 72 % se disent préoccupés par la traçabilité de leurs activités en ligne (enquête de l’Insee auprès des ménages sur les technologies de l’information et de la communication de 2021) surtout que les violations notifiées à la CNIL ont augmenté de 20 % en 2024. Ainsi 76 % ont limité ou renoncé, selon l’enquête Insee TIC de 2019, à une activité en ligne à cause de craintes sur la sécurité.
Une piste : la présence sociale
Face à ces inquiétudes, une piste prometteuse émerge : la présence sociale. Elle désigne la capacité d’une interface numérique à faire ressentir une présence humaine. En humanisant l’expérience, elle rassure et contrebalance partiellement le sentiment de sacrifice inhérent au partage de données personnelles. Elle donne à l’utilisateur l’impression d’intégrer une communauté active, plutôt que de confier ses informations à un espace impersonnel.
Concrètement, cette présence sociale peut être renforcée grâce à des indicateurs communautaires :
nombre de visites déjà effectuées chez un membre,
quantité de fruits glanés,
photos du lieu,
retours d’expérience visibles et authentifiés.
Plutôt que de mettre en avant les « meilleures ventes » comme le font de nombreuses plates-formes, le design de l’application pourrait valoriser les interactions réelles, les contributions et les preuves d’activité. Cela rendrait la communauté plus vivante, plus incarnée, et donc plus rassurante.
Le rôle ambivalent des algorithmes
Dans les applications de géomatching, la confiance ne repose pas uniquement sur des recommandations explicites, comme dans Gensdeconfiance, mais aussi sur cette impression de proximité humaine. Les algorithmes et l’IA ont un rôle ambivalent : ils peuvent enrichir cette présence (avec, par exemple, des agents conversationnels sociaux) ou au contraire nourrir la méfiance (en renforçant la crainte des faux avis ou des profils fictifs). L’enjeu est donc de concevoir des technologies qui servent la confiance, plutôt que de l’éroder.
Si ces conditions sont réunies, les applications de géomatching pourraient connaître une adoption bien plus large et contribuer véritablement à l’atteinte des 17 ODD. Alors, pourquoi ne pas commencer dès maintenant à explorer ces initiatives et à agir, à votre échelle, en faveur de la planète ?
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
06.01.2026 à 16:48
Ce que l’Athènes antique nous enseigne sur le débat – et la dissidence – à l’ère des réseaux sociaux
Texte intégral (1622 mots)

Dans l’Athènes antique, l’agora était un forum public où les citoyens pouvaient se réunir pour délibérer, débattre et prendre des décisions ensemble. Elle était régie par des principes sociaux profondément enracinés qui garantissaient des débats animés, inclusifs et sains.
Aujourd’hui, nos places publiques se sont déplacées en ligne vers les flux numériques et les forums des réseaux sociaux. Ces espaces sont pour la plupart dépourvus de règles et de codes communautaires. Ce sont plutôt des algorithmes qui décident quelles voix s’élèvent au-dessus du tumulte et lesquelles sont étouffées.
L’idée optimiste selon laquelle Internet serait un espace radicalement démocratique semble désormais un lointain souvenir. Nos conversations sont désormais façonnées par des systèmes opaques conçus pour maximiser l’engagement, et non la compréhension mutuelle. C’est la popularité algorithmique, et non l’exactitude ou la diversité des voix, qui détermine la portée des propos publiés en ligne.
Cela a créé un paradoxe. Nous jouissons d’une liberté d’expression sans précédent, mais notre discours est limité par des forces qui échappent à notre contrôle. Les voix fortes dominent. Les voix nuancées s’estompent. L’indignation se propage plus vite que la réflexion. Dans ce contexte, la participation égalitaire est pratiquement inaccessible, et s’exprimer honnêtement peut comporter un risque très réel.
Entre les marches de pierre d’Athènes et les écrans d’aujourd’hui, nous avons perdu quelque chose d’essentiel à notre vie démocratique et à notre dialogue : l’équilibre entre l’égalité de la parole et le courage de dire la vérité, même lorsque cela est dangereux. Deux anciens idéaux athéniens de liberté d’expression, l’isegoria et la parrhesia, peuvent nous aider à le retrouver.
Des idées anciennes qui nous guident encore aujourd’hui
À Athènes, l’isegoria désignait le droit de s’exprimer, mais elle ne se limitait pas à un simple droit. Elle représentait une responsabilité partagée, un engagement en faveur de l’équité et l’idée que la vie publique ne devait pas être gouvernée uniquement par les puissants.
Le terme parrhesia peut être défini comme l’audace ou la liberté d’expression. Là encore, il y a une nuance : la parrhesia n’est pas une franchise imprudente, mais un courage éthique. Elle désignait le devoir de dire la vérité, même lorsque celle-ci provoquait un malaise ou un danger.
Ces idéaux n’étaient pas des principes abstraits. Il s’agissait de pratiques civiques, apprises et renforcées par la participation. Les Athéniens comprenaient que le discours démocratique était à la fois un droit et une responsabilité, et que la qualité de la vie publique dépendait du caractère de ses citoyens.
La sphère numérique a changé le contexte, mais pas l’importance de ces vertus. L’accès seul ne suffit pas. Sans normes qui soutiennent l’égalité des voix et encouragent la vérité, la liberté d’expression devient vulnérable à la distorsion, à l’intimidation et à la manipulation.
L’émergence de contenus générés par l’intelligence artificielle (IA) intensifie ces pressions. Les citoyens doivent désormais naviguer non seulement parmi les voix humaines, mais aussi parmi celles produites par des machines qui brouillent les frontières entre crédibilité et intention.
Quand être entendu devient un privilège
Sur les plateformes contemporaines, la visibilité est répartie de manière inégale et souvent imprévisible. Les algorithmes ont tendance à amplifier les idées qui suscitent des émotions fortes, quelle que soit leur valeur. Les communautés déjà marginalisées peuvent se retrouver ignorées, tandis que celles qui prospèrent grâce à la provocation peuvent dominer la conversation.
Sur Internet, l’isegoria est remise en question d’une nouvelle manière. Peu de personnes en sont formellement exclues, mais beaucoup sont structurellement invisibles. Le droit de s’exprimer demeure, mais la possibilité d’être entendu est inégale.
Dans le même temps, la parrhesia devient plus précaire. S’exprimer avec honnêteté, en particulier sur des questions controversées, peut exposer les individus à du harcèlement, à des déformations ou à une atteinte à leur réputation. Le prix du courage a augmenté, tandis que les incitations à rester silencieux ou à se réfugier dans des chambres d’écho se sont multipliées.
À lire aussi : Social media can cause stress in real life – our 'digital thermometer' helps track it
Former des citoyens, pas des spectateurs
Les Athéniens avaient compris que les vertus démocratiques ne surgissent pas toutes seules. L’isegoria et la parrhesia se maintenaient grâce à des habitudes acquises au fil du temps : écouter était considéré comme un devoir civique, parler comme une responsabilité partagée, tout en reconnaissant que la vie publique dépendait de la personnalité de ses participants. À notre époque, c’est à travers l’éducation civique que les citoyens mettent en pratique les dispositions requises par le discours démocratique.
En transformant les salles de classe en agoras à petite échelle, les élèves peuvent apprendre à vivre la tension éthique entre l’égalité des voix et l’intégrité de la parole. Les activités qui invitent au dialogue partagé, à la prise de parole équitable et à l’attention portée aux voix les plus discrètes les aident à faire l’expérience de l’isegoria, non pas comme un droit abstrait, mais comme une pratique vécue de l’équité.
Dans la pratique, cela prend la forme de discussions et de débats au cours desquels les élèves doivent vérifier des informations, formuler et justifier des arguments, réviser leurs opinions publiquement ou débattre de manière respectueuse avec des arguments contraires. Toutes ces compétences cultivent le courage intellectuel associé à la parrhesia.
Il est important de noter que ces expériences ne dictent pas ce que les élèves doivent croire. Elles leur permettent plutôt de s’exercer à adopter des habitudes qui les rendent responsables de leurs convictions : la discipline de l’écoute, la volonté d’exposer ses arguments et la disposition à affiner sa position à la lumière de nouvelles connaissances. De telles pratiques rétablissent le sentiment que la participation démocratique n’est pas seulement liée à la liberté d’expression individuelle, mais relationnelle et construite grâce à un effort commun.
Ce que l’éducation civique offre en fin de compte, c’est de la pratique. Elle crée des agoras miniatures où les élèves s’entraînent aux compétences dont ils ont besoin en tant que citoyens : s’exprimer clairement, écouter généreusement, remettre en question les idées reçues et dialoguer avec ceux qui pensent différemment.
Ces habitudes contrebalancent les pressions du monde numérique. Elles ralentissent la conversation dans des espaces conçus pour la rapidité. Elles introduisent la réflexion dans des environnements conçus pour la réaction. Elles nous rappellent que le discours démocratique n’est pas une performance, mais une responsabilité partagée.
Retrouver l’esprit de l’agora
Le défi de notre époque n’est pas seulement technologique, mais aussi éducatif. Aucun algorithme ne peut enseigner la responsabilité, le courage ou l’équité. Ce sont des qualités qui s’acquièrent par l’expérience, la réflexion et la pratique. Les Athéniens l’avaient compris intuitivement, car leur démocratie reposait sur la capacité des citoyens ordinaires à apprendre à s’exprimer d’égal à égal et avec intégrité.
Nous sommes confrontés au même défi aujourd’hui. Si nous voulons des places publiques numériques qui soutiennent la vie démocratique, nous devons préparer les citoyens à les utiliser à bon escient. L’éducation civique n’est pas un enrichissement facultatif, c’est le terrain d’entraînement des habitudes qui soutiennent la liberté.
L’agora a peut-être changé de forme, mais son objectif demeure. Se parler et s’écouter d’égal à égal, avec honnêteté, courage et attention, reste au cœur de la démocratie. Et c’est quelque chose que nous pouvons enseigner.
Sara Kells ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
06.01.2026 à 15:32
Le Venezuela, un dominion des États-Unis ?
Texte intégral (2120 mots)
Dans la nuit du 2 au 3 janvier 2026, les forces armées américaines ont lancé et conduit l’opération militaire massive « Absolute resolve » afin de kidnapper le président vénézuélien Nicolas Maduro au palais Miraflores, à Caracas. Dans la foulée, Donald Trump a annoncé que les États-Unis « dirigeraient » temporairement le Venezuela en attendant la prise de pouvoir d’un gouvernement favorable aux États-Unis (like minded). Pourtant, la vice-présidente Delcy Rodriguez, légalement au pouvoir depuis l’incarcération de Maduro, annonce désormais son intention d’assumer la direction de l’État. Quel destin se prépare pour le pays, entre interventionnisme trumpiste, sursaut nationaliste anti-impérialiste et protestations internationales ?
Une intervention militaire conduite sans base légale et au nom de la « sécurité des États-Unis » ; la destitution et l’emprisonnement du dictateur au pouvoir ; l’annonce de la future prise de contrôle du pays par les forces armées et les entreprises états-uniennes : tout cela rappelle l’opération contre l’Irak et Saddam Hussein de 2003.
Le parallèle avec l’opération irakienne – officiellement destinée à prévenir l’usage d’armes de destruction massive (demeurées introuvables) – est limité : cette fois, derrière le prétexte de la lutte contre le « narcoterrorisme », Donald Trump reconnaît sans ambages le rôle clé qu’occupent les ressources pétrolières dans les motivations profondes de cette opération. Ceux qui veulent y voir une défense de la démocratie en seront pour leurs frais : la promotion de la démocratie et la lutte contre les dictatures sont au centre des discours européens, mais pratiquement absents de ceux de l’équipe Trump.
En outre, l’invasion de 2003 visait à détruire l’État du parti Baas irakien ; or, ce n’est pas l’opposante Maria Corina Machado, prix Nobel de la paix 2025, qui est appelée à gouverner le Venezuela, mais la vice-présidente en exercice Delcy Rodriguez. La situation fait dès lors penser, à ce stade, à l’accaparement des ressources vénézuéliennes par une puissance extérieure, couplé à un lâchage interne de Maduro au sein du régime, quand bien même Rodriguez a exigé sa libération.
Par conséquent, la question cruciale n’est sans doute pas « qui gouverne », mais « comment gouverner après ».
Le Venezuela de Rodriguez, entre souveraineté limitée et nationalisme blessé
L’enlèvement de Nicolas Maduro n’empêche pas la Constitution vénézuélienne de 1999 de continuer de s’appliquer.
L’opération militaire conduite par les États-Unis destitue un des titulaires du pouvoir, mais ne transforme pas mécaniquement les structures politiques, sociales ou économiques du pays. Elle introduit en revanche une contrainte durable. Le nouveau régime doit gouverner sous le regard simultané d’une puissance extérieure tutélaire, qui a montré sa capacité d’intervention, et dont sa survie dépend aujourd’hui, et d’une société nationale très attentive aux signes d’autonomie ou de mise sous tutelle, et foncièrement divisée.
Cette tension place le pouvoir de Delcy Rodriguez dans une double contrainte : d’une part, éviter une nouvelle intervention en se conciliant la faveur de l’administration Trump ; d’autre part, satisfaire les aspirations de la population au respect d’une souveraineté mise à mal par l’ingérence américaine. En un mot, elle doit combiner survie face à Trump et rhétorique nationaliste compensatoire : elle a par exemple dénoncé la teneur « sioniste » (comprenez colonisatrice) de l’expédition américaine, qualifiée de « kidnapping » et de « barbarie » violant le droit international.
Si Rodriguez et son entourage optent pour un discours trop musclé et offensif à l’égard de Washington, cela offrira à Donald Trump un prétexte pour procéder à un changement de régime complet, ce qui supposerait une action et un investissement beaucoup plus conséquents. Le Venezuela vit donc dorénavant dans un régime de « souveraineté limitée », comme l’annonçait en décembre la nouvelle stratégie nationale de sécurité américaine.
À lire aussi : L’internationale trumpiste : la Stratégie de sécurité nationale 2025 comme manifeste idéologique
Dans ce contexte, trois destinées sont aujourd’hui ouvertes pour le pays.
Scénario 1, le chavisme sans Chavez ni Maduro : un Thermidor caribéen sous surveillance états-unienne
Premier scénario : une continuité réelle malgré une rupture affichée. Pour les élites bolivariennes, lâcher Maduro a peut-être été le prix à payer pour sauver l’État, restaurer une forme de rationalité, sortir le pays de l’isolement.
Les visages changent à peine, les uniformes pas encore. Durant les six premiers mois, les sanctions américaines pourraient être partiellement suspendues, les marchés pourraient réagir avec prudence, et les institutions seraient « normalisées » plutôt que transformées. Dans ce scénario, le nouveau pouvoir ne parle que de stabilité, jamais de refondation, et gouverne par décrets techniques sous la surveillance discrète des États-Unis, dont l’attention sera focalisée sur la possession des champs pétroliers.
Au bout d’un an, la démocratie revendiquée par les opposants au chavisme sera renvoyée à plus tard, et les structures du pouvoir resteront quasiment intactes. Comme lors du 9-Thermidor en 1794, les excès ont été liquidés, pas le système.
Scénario 2, la souveraineté limitée : un « moment Kadar » tropical
Tout commence par une fracture interne inattendue. Ni chaviste orthodoxe ni opposition traditionnelle, un nouveau centre de gravité politique émerge dans l’entre‑deux, porté par des acteurs fatigués des extrêmes et décidés à stabiliser le pays. Les différentes oppositions (MAGA-compatibles ou non) convergent et s’allient aux « chavistes modérés » (gouverneurs pragmatiques, militaires de second rang, technocrates issus du Parti socialiste unifié du Venezuela (PSUV)
– la formation chaviste –, qui veulent éviter l’effondrement total) pour proposer au pays un régime de transition qui garantit une certaine souveraineté nationale. Dans les six premiers mois, un pacte social minimal est proposé, la coercition recule temporairement, et l’économie redémarre grâce à une série de mesures pragmatiques.
La surprise vient de la société elle‑même : la demande de « vie normale » devient dominante, affaiblissant (peut-être momentanément) la polarisation. Le pays semble entrer dans une phase de pacification inattendue, presque involontaire.
Mais au bout de quelques mois, probablement vers l’automne 2026, surgissent des troubles internes : grèves sectorielles, protestations corporatistes, tensions régionales. Rien de décisif pour la stabilité du régime, mais suffisamment pour rappeler que celui-ci reste fragile. Le pouvoir répond par une combinaison de concessions ciblées et de fermeté mesurée, évitant l’escalade tout en réaffirmant son autorité.
Ces turbulences, paradoxalement, renforcent le récit du compromis : le régime se présente comme le seul capable de contenir le chaos sans revenir à la répression systématique. Comme avec le pouvoir de Janos Kadar instauré en Hongrie après 1956 (à la suite de l’écrasement par l’URSS de l’insurrection de Budapest), ce n’est ni une victoire idéologique ni une défaite politique : c’est la fatigue historique qui gouverne, et la société accepte le compromis, faute de mieux.
Dans ce scénario, les États-Unis jouent un rôle bien plus important : ils soutiennent l’arrivée au pouvoir d’un dirigeant d’inspiration MAGA à Caracas, à l’instar des Soviétiques qui ont porté Janos Kadar à la tête de la Hongrie.
Scénario 3, une évolution à la cubaine pré-castriste : un dominion américain
Si la souveraineté reste intacte sur le papier, la capacité de négociation du pouvoir chaviste est déjà très entamée en ce début d’année 2026. Une fois installé le nouveau leadership, soutenu par Washington et aligné sur ses priorités, vient alors la phase de réouverture sous contrainte : levée conditionnelle des sanctions, retour des majors états-uniennes, accords d’exploitation conclus dans l’urgence. Les nouveaux contrats s’étendent sur des décennies, verrouillés par des clauses de stabilisation et une fiscalité avantageuse pour les intérêts des majors. Le pétrole demeure vénézuélien, mais la rente, elle, devient extraterritoriale, profitable aux milieux économiques des États-Unis.
La troisième phase consacre la captation de la valeur : technologies, assurances, transport et raffinage sont externalisés, les revenus rapatriés hors du pays, et l’État réduit à une fonction fiscale minimale. Le Venezuela produit beaucoup, capte peu et dépend désormais de flux qu’il ne contrôle plus.
Enfin, cette dépendance se normalise. Le récit dominant affirme que « c’est le prix de la stabilité » ; la souveraineté pétrolière est dépolitisée ; et les fractures sociales s’approfondissent. Le pillage n’est plus seulement visible : il est institutionnalisé.
En somme, le Venezuela subit le sort de Cuba entre l’adoption de l’amendement Platt (1901), qui officialisa le droit d’ingérence des États-Unis sur la République de Cuba, et la révolution castriste (1959) : il devient un dominion des États-Unis.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
06.01.2026 à 15:27
Denaturalization in the Trump era: When the State questions the citizenship of millions of Americans
Texte intégral (2438 mots)
It is recognised in US law that the government may not take away a naturalized person’s citizenship except in cases of fraud or error on a naturalization application. The Supreme Court has clearly established that unless citizenship was unlawfully procured, denaturalization is unconstitutional. However, a memo issued by the Department of Justice (DoJ) in June attempts to broaden the grounds for denaturalization, potentially putting over 24.5 million naturalized US citizens at risk.
The memo states that the current US administration has directed the DoJ’s Civil Division to “advance the administration’s policy objectives”, among which is “prioritizing denaturalization”. Under this directive, the division is to investigate individuals who either “illegally procured” or “conceal[ed] a material fact” in their naturalization applications. The text outlines 10 “categories” of priority cases, which include individuals who “pose a potential danger to national security”; who “engaged in various forms of financial fraud”, including fraud associated with the Medicaid and Medicare healthcare programmes; and “any other cases referred to the Civil Division that the Division determines to be sufficiently important to pursue”.
The memo could broaden the scope of grounds previously used for denaturalization and will likely face legal challenge. Since September, the DoJ has filed denaturalization complaints against individuals for reasons such as providing false testimony and concealing identity, and for other crimes. In November, following a DoJ complaint filed in August, a US judge revoked the citizenship of a naturalized individual who had pleaded guilty to conspiracy to commit health care fraud. President Donald Trump, in a recent post on Truth Social, reaffirmed his commitment to “denaturalize migrants who undermine domestic tranquillity” and further stated, on November 30, in response to a shooting in Washington, DC, “if I have the power to do it… I would denaturalize, absolutely”.**
The DoJ memo represents a departure from 50 years of US policy between 1967 and mid-June 2017 – nearly five months into Donald Trump’s first term as president. During this period, the practice of citizenship stripping was rare and used primarily in extreme cases, such as for war criminals. In contrast, between 1906 and 1967, the US denaturalized more citizens than any other democracy. Several news and academic sources have highlighted what some see as similar motivations behind the current administration’s directive and past initiatives. It is also important to note that the DoJ memo will afford a discretion that could be much wider than in the past.
Denaturalization in the 20th Century
The original purpose of denaturalization in the US, put into force by the Naturalization Act of 1906, was to wipe out so-called “disbelievers in organized government” from society. The early cases were against political dissidents – some self-described, and some alleged socialists, anarchists and radicals – and often included journalists or labour unionists. One notable case is that of Emma Goldman, the first person to be denaturalized for her political views. Goldman was an anarchist who eventually lost her citizenship due to her activism against US involvement in the First World War. Denaturalization for political views was linked to two provisions in naturalization law: the requirement that a person have “good moral character” and that applicants be “attached to the principles of the US Constitution.”
One of the largest citizenship-stripping campaigns started in the 1940s, after the Nationality Act of 1940 gave naturalization authority to the DoJ. Once more, the primary targets were those with so-called “subversive” beliefs, particularly those with any affiliations to the Communist Party or the German American Bund. After the government denaturalized more than 22,000 people, this particular wave was halted by the Supreme Court in 1943, which declared that a person could not be denaturalized without “clear, unequivocal, and convincing evidence” that they were planning for the violent overthrow of the government. This became a standard impossible to prove, and cases of denaturalization subsided. In 1967, the Court decided that denaturalization was altogether unconstitutional except in cases of fraud or error in a naturalization application, and since, there have been only a handful of cases per year.
The DoJ memo doesn’t refer to ideological views such as “communism” or “socialism”, although the policy manual for US Citizen and Immigration Services (USCIS) states that an individual may be denaturalized “if the person becomes a member of, or affiliated with, the Communist party”. However, the first priority in the memo mentions anyone who “[poses] a potential danger to national security”, which can be broadly interpreted.
Threatening comments
In July, Trump made comments that raised questions about whether the beliefs of some naturalized individuals may put them at risk. These comments were about New York City mayor-elect Zohran Mamdani and actor Rosie O’Donnell. After US Congressman Andy Ogles threatened Mamdani, then a mayoral candidate, with a denaturalization investigation for rap lyrics Mamdani wrote in 2017 that Ogles viewed as “publicly praising” individuals convicted of supporting the militant Palestinian group Hamas, Trump said “a lot of people are saying he’s here illegally” and “we’re going to look at everything”. And the president threatened the birthright citizenship of O’Donnell, who was born in New York, saying that she “is not in the best interests of our Great Country”. Because O’Donnell is a natural-born citizen, there is no provision in US law to revoke her citizenship unless she provides her explicit consent. It’s also worth noting that Trump said he would “take a look” into the question of deporting billionaire Elon Musk, who became a naturalized citizen in 2002, after the Tesla CEO criticised the spending bill that passed into law in early July.“
Threatening denaturalization for opinions or statements, that while perhaps controversial are peaceful, reaches much further than the historical standard of believing in the "violent takeover of government” used to start a denaturalization proceeding in the past. Such threats generate a climate of fear where certain individuals and groups may be scared to voice opinions out of the threat of ending up in a denaturalization trial.
The expanded notion of ‘fraudulent acquisition’
Since 1967, fraudulent acquisition of citizenship has been the exclusive justification for denaturalization. Up until recently, this has been interpreted as a nondisclosure of information on a naturalization application that would have impacted the outcome of the application.
There has been an increasing number of investigations of fraudulent acquisition since 2008, the year that saw “Operation Janus”. This Obama-era policy targeted individuals who had been sent a deportation letter as an immigrant but had subsequently naturalized using a different name. The main driver was the digitization of records and fingerprint testing, which made it easier to identify discrepancies. In 2016, Trump expanded the operation to allow USCIS to investigate over 700,000 cases, marking the first push to “revive denaturalization”.
As scholars have argued, identifying fraud or a mistake is not always clear cut. For example, the US naturalization form asks whether a person has ever committed a crime, but does not specify what is included in its definition of a crime. It is unknown whether a crime committed in another jurisdiction that is not a crime under US law would count. This could have implications for same-sex couples or trans persons who come from countries where their status is illegal – such as in Uganda.
The June DoJ memo further expands what is considered as fraud for denaturalization to include instances of “loan fraud” or “Medicaid/Medicare fraud.” These types of fraud would likely not have previously met the standard of “willful misrepresentation” or “concealing material fact” that would have impacted the outcome of the naturalization process, since they are not related to a person’s immigration history.
Looking at denaturalization through the lens of race
While the memo does not mention race or ethnicity, some lawyers and legal scholars are concerned that, read alongside other developments in the current administration’s management of immigration, it will disproportionately affect certain minority and low-income communities.
Historically, race has been an explicit factor in immigration and denaturalization. Up until 1952, US citizenship law stated that only “white persons, persons of African nativity or descent, and descendants of races indigenous to the Western hemisphere” could be naturalized. In the 1920s, more than 50 naturalized individuals of Indian origin had their citizenship revoked after the Supreme Court decided that people from India were not “white” in “the understanding of the common man”
The DoJ memo came nearly three months after the deportation of hundreds of Venezuelan men with tenuous or non-existent ties to gangs or drug cartels, and nearly two months before a Supreme Court decision that allowed Immigration and Customs Enforcement (ICE) agents to use racial profiling in immigration raids in Los Angeles.
Some human rights groups and journalists have compared ICE immigration enforcement to how the US “War on Drugs” fuelled the mass incarceration of certain low-income and minority groups. As Sarah Tosh, a professor at Rutgers University, wrote in 2021, “these processes draw from a long history of targeted drug enforcement that has served to scapegoat, punish, and exclude immigrants and native-born racial minorities”.
Repeat of history or something bigger?
Unlike some European countries, the US previously had strong safeguards against denaturalization since the Supreme Court’s 1967 ruling. Since the end of September, the government has filed at least thirteen denaturalization actions (exact numbers are not publicly available), 11 of these actions were filed and publicly disclosed between September 30 and January 20, 2025, the beginning of Trump’s second term.
The “One Big Beautiful Bill Act” that passed in July allocated more than $3 billion in additional funds to the DoJ to exercise the administration’s immigration priorities – such as hiring immigration judges, staffing, and investigations.
The expansion of the potential grounds for denaturalization, the upcoming Supreme Court review of birthright citizenship, and even Ohio Senator Bernie Moreno’s recently proposed legislation to ban dual citizenship mark the potential for some of the most fundamental shifts in US citizenship to date. While some have rightly made the connection between present and past denaturalization initiatives, it remains to be seen how the Justice Department will make use of the memo’s criteria for denaturalization during the rest of Trump’s mandate.
Ashley Mantha-Hollands ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
06.01.2026 à 15:01
Apprendre les maths autrement : les pistes de la recherche
Texte intégral (1634 mots)
Si les mathématiques sont unanimement considérées comme décisives dans notre société, elles suscitent nombre de craintes chez les élèves. Les rendre plus accessibles suppose donc de changer leur enseignement. Mais comment ? Le succès de situations « adidactiques » offre quelques pistes à la recherche. Explications.
Parus en décembre 2025, les résultats de la grande consultation nationale sur la place des mathématiques lancée par le CNRS montrent que beaucoup de Français se sentent peu à l’aise avec les mathématiques même s’ils reconnaissent l’importance de cette discipline pour la société. À la suite de cette consultation et des Assises des mathématiques de 2022, le CRNS a défini des orientations prioritaires, dont l’amélioration de l’inclusion. Mais comment rendre les mathématiques plus accessibles à tous ?
Les participants à la consultation de 2025 suggèrent notamment de « généraliser des méthodes d’enseignement variées, concrètes, ludiques et encourageantes, qui valorisent notamment le droit à l’erreur, tout au long de la scolarité ».
Dans ce sens, depuis plusieurs années, nous expérimentons dans des classes ordinaires (avec l’hétérogénéité des profils d’élèves qui les caractérisent !) des séquences de mathématiques inclusives. En quoi se distinguent-elles des modes d’enseignement classiques ? Et que nous apprennent leurs résultats ?
Mettre l’élève en situation de recherche
Ces séquences de maths inclusives s’appuient sur des situations à dimension adidactique, c’est-à-dire des situations qui intègrent des rétroactions de sorte que l’élève n’ait pas besoin que l’enseignant lui apporte des connaissances. C’est en interagissant avec la situation et en s’adaptant aux contraintes de celle-ci que l’élève construit de nouvelles connaissances. Il ne le fait pas en essayant de deviner les intentions didactiques de l’enseignant (c’est-à-dire en essayant de deviner ce que l’enseignant veut lui enseigner), d’où l’appellation « adidactique ».
Comme le dit le spécialiste de l’enseignement des maths Guy Brousseau, à l’origine de ce concept dans les années 1970-1980 :
« L’élève sait bien que le problème a été choisi pour lui faire acquérir une connaissance nouvelle, mais il doit savoir aussi que cette connaissance est entièrement justifiée par la logique interne de la situation et qu’il peut la construire sans faire appel à des raisons didactiques. »
Ces situations ont un potentiel identifié depuis longtemps et mis à l’épreuve dans les classes à grande échelle depuis 40 ans (surtout du premier degré, notamment dans l’école associée au Centre d’observation et de recherches sur l’enseignement). Ces travaux ont également donné lieu à des ressources pour les enseignants, par exemple la collection Ermel.
Dans le cadre de nos recherches, nous avons, par exemple, conçu et testé dans plusieurs écoles (REP+, milieu rural, milieu urbain…) une séquence en CM1-CM2 qui s’appuie sur la situation des napperons de Marie-Lise Peltier. Les élèves y ont à disposition une feuille de papier carrée, ils doivent reproduire un modèle de napperon en pliant et en découpant leur feuille. C’est la notion de symétrie axiale qui permet de découper un napperon conforme au modèle, et l’élève peut s’autovalider en comparant sa production au modèle donné.
Mettre en œuvre une situation à dimension adidactique peut s’avérer complexe, car le rôle de l’enseignant diffère de ce dont il a l’habitude ; ici, il n’apporte pas directement les connaissances même s’il peut aider les élèves à résoudre la tâche.
De plus, les élèves peuvent élaborer des stratégies très diverses, ce qui peut les déstabiliser. Cependant, cette diversité constitue également une richesse du point de vue de l’inclusion, car chaque élève peut s’investir à la hauteur de ses moyens. Par ailleurs, ces situations permettent de stimuler l’engagement des élèves et les mettent dans une véritable activité de recherche, ce qui constitue le cœur des mathématiques.
Donner du sens aux notions mathématiques
À l’heure actuelle, ce type de situations est peu mis en œuvre, en particulier auprès des élèves en difficulté, car les enseignants ont plutôt tendance à penser qu’il faut découper les problèmes complexes en tâches les plus simples possibles pour s’assurer de la réussite des élèves. Cependant, la réalisation juxtaposée de tâches simples et isolées ne permet pas, souvent, de donner du sens aux notions mathématiques en jeu ni de motiver les élèves.
Dans l’exemple autour des napperons, nous avons constaté qu’en s’appuyant sur les rétroactions, mais aussi parfois sur leurs pairs et sur les conseils de l’enseignant, la majorité des élèves de CM1-CM2 que nous avons observés réussit à produire un napperon conforme au modèle, alors même que, parmi ces élèves, plusieurs avaient été signalés comme étant « en difficulté ».
Même les élèves n’étant pas arrivés à produire un napperon conforme dans le temps imparti se sont fortement engagés, comme en témoigne le nombre important de réalisations. Nous pouvons faire l’hypothèse que cette situation pourra constituer une situation de référence pour eux quand ils aborderont de nouveau la notion de symétrie axiale.
À lire aussi : Six façons de faire aimer les maths à votre enfant
Les aspects positifs et les défis que nous avons pu identifier dans notre recherche corroborent les résultats obtenus par d’autres chercheurs et chercheuses qui ont étudié la mise en œuvre de situations à dimension adidactique pour travailler diverses notions mathématiques, à différents niveaux scolaires, auprès de publics variés, notamment auprès d’élèves présentant une déficience intellectuelle ou un trouble dys, en France et au Québec.
Ainsi, même si ce concept n’est pas nouveau, l’appui sur les situations à dimension adidactique nous semble toujours une piste intéressante et actuelle pour penser l’enseignement des mathématiques pour tous. Cependant, il est nécessaire de donner aux enseignants les moyens de les mettre en œuvre de manière satisfaisante, par exemple en allégeant le nombre d’élèves par classe et en les accompagnant en formation initiale et continue.
Florence Peteers est porteuse de la Chaire Junior SHS RIEMa financée par la région Île-de-France et a reçu des financements du PIA3 100% IDT (inclusion, un défi, un territoire) porté par l’Université de Picardie Jules Verne.
Elann Lesnes a reçu reçu des financements du PIA3 100% IDT (inclusion, un défi, un territoire) porté par l’Université de Picardie Jules Verne.
06.01.2026 à 11:59
Pourquoi l’obésité est, avant tout, une maladie du cerveau
Texte intégral (1788 mots)
L’obésité n’est pas due à un manque de volonté. Il ne s’agit pas non plus d’un problème individuel. C’est une maladie complexe profondément enracinée dans un cerveau adapté pour survivre à la pénurie.
L’obésité débute dans le cerveau, et nous savons aujourd’hui que son développement tout comme son traitement ne sont pas les mêmes chez les hommes et les femmes. Cette pandémie silencieuse, qui progresse parallèlement au diabète de type 2 – l’une de ses principales complications – touche déjà plus d’un milliard de personnes dans le monde.
Alors que notre environnement devient de plus en plus obésogène, le cerveau continue de fonctionner selon des règles ancestrales qui rendent difficile le maintien de la perte de poids, même avec des médicaments aussi révolutionnaires que le sémaglutide (Ozempic). Ce changement de perspective transforme les traitements actuels et ouvre la voie à de nouvelles thérapies ciblant directement le cerveau.
Un cerveau ancestral dans un environnement moderne
L’obésité et le surpoids sont habituellement décrits comme un excès de graisse ou un problème métabolique. Mais leur origine profonde réside dans le système nerveux central, en particulier dans l’hypothalamus, la région qui agit comme un « thermostat énergétique ». Pendant 95 % de notre histoire évolutive, nous avons vécu dans la pénurie : marcher, chasser et cueillir étaient indispensables, et le cerveau a développé des mécanismes très efficaces pour défendre la masse graisseuse, car la perdre pouvait signifier ne pas survivre.
Ce « cerveau ancestral » fonctionne aujourd’hui dans un environnement totalement opposé : aliments hypercaloriques disponibles 24 heures sur 24, sédentarité, stress chronique, troubles du sommeil et régimes alimentaires ultratransformés.
À lire aussi : Aliments ultratransformés : quels effets sur notre santé et comment réduire notre exposition ?
Il en résulte un déséquilibre entre notre biologie et notre mode de vie, qui est amplifié chez les personnes qui présentent des prédispositions génétiques. À cela s’ajoute un élément que la recherche commence à explorer clairement : le système qui régule le poids ne fonctionne pas de la même manière chez les hommes et chez les femmes.
L’hypothalamus : là où commence l’obésité
L’hypothalamus intègre des signaux hormonaux (comme la leptine ou l’insuline), métaboliques et sensoriels afin d’équilibrer l’énergie ingérée et celle qui est dépensée. Quand nous perdons du poids, le cerveau interprète la situation comme une menace et il active de puissants mécanismes de défense : il augmente l’appétit, réduit la dépense énergétique et renforce une « mémoire métabolique ou obésogène » qui pousse à reprendre le poids perdu.
C’est pourquoi, même si l’alimentation et l’exercice physique sont essentiels à la santé et doivent toujours constituer la première prise en charge, ils ne suffisent pas chez de nombreuses personnes pour inverser l’obésité lorsque les circuits cérébraux sont déjà altérés. Ce point n’invalide pas les bienfaits d’un mode de vie sain : il reconnaît simplement que, dans certains cas, le cerveau a besoin d’un soutien pharmacologique pour sortir de la boucle obésogène.
Quand l’hypothalamus s’enflamme (à cause du stress, d’un régime hypercalorique, d’un manque de sommeil, de troubles hormonaux ou d’une prédisposition génétique), l’activité des neurones qui régulent la faim et la satiété est perturbée. Certaines personnes parviennent à retrouver spontanément leur poids initial après avoir trop mangé ; d’autres, en revanche, présentent un « frein hypothalamique » moins efficace et prennent plus facilement du poids. La différence réside dans le cerveau.
Perspective de genre : deux cerveaux, deux réponses
Les neurones hypothalamiques AgRP (qui stimulent la faim) et POMC (qui favorisent la satiété) régulent avec précision le comportement alimentaire. Cependant, l’hypothalamus n’est pas seulement un ensemble de neurones : il comprend également la microglie et les cellules immunitaires du cerveau, dont le rôle s’est avéré déterminant. Notre groupe a décrit trois phases d’activation microgliale dans les premiers stades de la suralimentation :
Une activation précoce, rapide et réversible.
Une phase inflammatoire prolongée, qui perturbe les circuits de satiété.
Une phase finale de dérégulation, au cours de laquelle les mécanismes censés limiter la prise de poids ne fonctionnent plus.
Ces phases ne se comportent pas de la même manière chez les hommes et chez les femmes. Chez les modèles murins, les femelles présentent une réponse neuro-immune plus stable et protectrice, ce qui pourrait expliquer pourquoi elles développent l’obésité plus tardivement. Ce schéma rappelle ce que l’on observe chez les femmes préménopausées.
À lire aussi : Ménopause et prise de poids : des mesures précoces pour accompagner les changements hormonaux
Avant la ménopause, les femmes ont un risque moindre de maladies métaboliques et cardiovasculaires que les hommes, grâce à l’effet protecteur des œstrogènes. Mais cette protection diminue pendant la périménopause et la ménopause, une période encore très peu étudiée et critique pour le risque cardiométabolique.
À lire aussi : À la ménopause, savez-vous que le risque cardiovasculaire augmente ? L’activité physique peut aider
De plus, dans les modèles animaux et les cultures cellulaires, nous avons détecté des altérations très précoces (au niveau de la microglie, de signaux lipidiques comme les endocannabinoïdes et de la sensibilité neuronale à l’insuline) avant même l’apparition de changements visibles dans les tissus périphériques. Cela suggère que le déclencheur initial de l’obésité est cérébral. Il est essentiel d’intégrer cette perspective de genre pour progresser vers des traitements plus précis et plus efficaces.
Nouvelles thérapies contre l’obésité : incrétines et nanomédecine ciblant le cerveau
Le traitement de l’obésité a radicalement changé depuis 2021 avec les agonistes du récepteur GLP-1. Le semaglutide et d’autres médicaments de la famille des incrétines, initialement développés pour le diabète de type 2, ont démontré une capacité remarquable à réduire le poids grâce à des actions à la fois périphériques et centrales. Cependant, ils présentent des limites connues : effets gastro-intestinaux, perte de masse maigre, reprise de poids après l’arrêt du traitement ou réponses variables selon le profil biologique du patient.
Des études récentes montrent également des différences selon le sexe : les femmes préménopausées ont tendance à mieux répondre à ces traitements que les hommes.
Un défi doit donc être relevé : nous avons besoin de traitements qui agissent directement sur le cerveau, avec une plus grande précision et moins d’effets systémiques. C’est là que la nanomédecine qui cible le cerveau ouvre de nouvelles perspectives. Au sein de notre groupe, nous développons des nanoplateformes (micelles polymères, nanoparticules protéiques ou formulations intranasales) capables de transporter des médicaments de manière sélective vers le cerveau. Ces technologies permettent d’encapsuler des molécules qui, si elles étaient administrées sans protection, seraient inefficaces ou toxiques, afin de les diriger vers les cellules qui contrôlent l’appétit et l’homéostasie énergétique.
Ces approches pourraient compléter ou renforcer les incrétines, réduire leurs effets secondaires, améliorer l’observance aux traitements et augmenter le nombre de patients qui y répondent. Elles constituent un moyen de traiter l’obésité depuis son origine cérébrale, grâce à des interventions plus personnalisées et durables.
Un regard neuf sur un problème ancien
L’obésité n’est pas due à un manque de volonté, malgré la stigmatisation dont elle fait l’objet au niveau social. Il ne s’agit pas non plus d’un problème individuel. L’obésité est une maladie complexe, profondément enracinée dans un cerveau adapté à la survie en période de pénurie. Pour la traiter, il faut adopter une double approche : promouvoir des modes de vie sains et, quand cela se révèle nécessaire, recourir à des thérapies qui agissent sur les circuits cérébraux régulant le poids.
Comprendre comment fonctionne – et comment échoue – l’hypothalamus sera essentiel pour freiner cette pandémie silencieuse du XXIe siècle. Et c’est là, dans le cerveau, que se livre la bataille scientifique la plus prometteuse.
Rosalia Rodriguez Rodriguez reçoit des financements du ministère des sciences, de l'innovation et des universités, de l'AGAUR-Generalitat de Catalogne (PRODUCTE, INNOVADORS) et du Centre de recherche biomédicale en réseau-obésité (CIBER-Obn).
06.01.2026 à 11:59
Et si quelques minutes de méditation de pleine conscience pouvaient aider à réduire le stress ?
Texte intégral (1901 mots)
Une revue systématique de la littérature scientifique met en évidence les effets bénéfiques de temps courts de pleine conscience sur un marqueur physiologique du stress. Cela plaide pour une intégration de ce type de méditation dans la vie quotidienne.
Nous sommes toutes et tous confrontés au stress dans notre vie de tous les jours. Il est tout à fait normal de le ressentir. Il peut se définir comme un état de tension interne causé par une situation complexe, qui excède nos ressources cognitives, sociales ou affectives. L’important n’est pas tant le stress, mais plutôt la manière dont nous y réagissons.
La recherche souligne la nécessité de s’équiper d’outils issus de la psychologie pour nous apprendre à mieux gérer les situations perçues comme menaçantes dans l’objectif de réguler le stress.
La pleine conscience : un outil de régulation du stress ?
Parmi les techniques psychologiques, la pleine conscience a récemment connu un essor important. Bien que cette dernière soit considérée comme un concept « à la mode », elle dispose d’une longue histoire, qui aurait débuté il y a plus de 2 500 ans à travers la pensée bouddhiste. Cette pleine conscience, également connue sous le nom de mindfulness, est une technique de méditation attentionnelle simple qui consiste à porter délibérément son attention sur ce qui se passe ici et maintenant, sans jugement. Autrement dit, c’est être attentif au moment présent, sans se laisser contaminer par ses pensées !
La pleine conscience a pris un essor scientifique sous l’impulsion du professeur Jon Kabat-Zinn dans les années 1980. Le premier programme de pleine conscience ayant vu le jour est le Mindfulness-Based Stress Reduction (MBSR), qui signifie « programme de réduction du stress par la pleine conscience ». Depuis le début des années 1980, d’autres programmes de pleine conscience ont émergé. Ces derniers se sont adaptés aux caractéristiques de différents publics (personnes souffrant d’épisodes dépressifs, sportifs, etc.…).
Aujourd’hui, les bienfaits de ces programmes sur la réduction du stress sont bien établis. Cependant, un des freins à la pratique de la pleine conscience réside dans la durée et dans l’engagement requis. Par exemple, le MBSR nécessite un engagement sur huit semaines, comportant une pratique quotidienne individuelle de 45 minutes et une pratique hebdomadaire en groupe de 2,5 heures.
Bien qu’efficace pour réguler les intensités de stress, la durée de ces programmes ne semble pas s’adapter à nos rythmes de vie actuels. Compte tenu de leur dimension chronophage, certains chercheurs ont proposé des temps plus courts de pleine conscience.
Quelle efficacité des temps brefs de pleine conscience contre le stress
Un programme bref de pleine conscience se réalise sur quatre semaines et engendre une pratique inférieure à 1,6 heure (100 minutes, soit une heure et quarante minutes) par semaine. La durée de la séance ne doit pas excéder 30 minutes. Bref, nous sommes bien loin des temps proposés par les programmes plus classiques comme le MBSR… Si ces temps courts s’accordent davantage à nos contraintes temporelles, leurs bénéfices sur le stress restent mal connus.
Notre interrogation a donc été la suivante : est-ce que les temps brefs de pleine conscience pourraient réduire notre stress ?
Pour répondre à cette question, nous avons effectué une revue systématique de la littérature évaluant les effets des temps brefs de pleine conscience sur un marqueur physiologique du stress : la variabilité de la fréquence cardiaque (VFC). La VFC reflète l’activité du système nerveux autonome jouant un rôle crucial dans le maintien de notre équilibre.
Ce système nerveux autonome se divise en deux branches : le système nerveux sympathique (qui prédomine lors des situations stressantes) et le système nerveux parasympathique (qui prédomine lors des situations de repos). Une faible VFC est représentative d’une moindre capacité à gérer les situations stressantes, alors qu’une VFC plus élevée reflète une meilleure capacité à réguler les situations stressantes.
Les résultats de notre étude mettent en évidence que les temps courts de pleine conscience augmentent la VFC. Autrement dit, ces moments de pleine conscience parviennent à réduire notre niveau de stress.
À la vue de ces résultats, nous recommandons donc d’intégrer de brefs temps de pleine conscience dans notre quotidien pour minimiser les effets du stress et éviter que ce dernier consomme toutes nos ressources.
Un exemple pour débuter : la prise de conscience du souffle
Il existe de nombreuses manières d’introduire la pleine conscience dans notre quotidien. On distingue généralement deux types de pratiques : formelles et informelles.
Les pratiques formelles sont les plus connues. Elles consistent à s’arrêter et à se poser pour pratiquer un exercice de pleine conscience.
Par exemple, la prise de conscience du souffle est considérée comme l’exercice de référence pour s’initier à cette pratique. Il consiste à s’asseoir sur un coussin ou sur une chaise de manière digne et droite. Une fois la position correctement maintenue, il suffit de diriger intentionnellement son attention sur le souffle. L’objectif n’est pas ici de contrôler sa respiration, mais plutôt de l’observer sans chercher à la modifier.
Cet exercice peut paraître facile, mais généralement l’esprit a tendance à s’éloigner de l’exercice. C’est ce que l’on appelle le vagabondage de l’esprit. Cette errance est tout à fait normale. Elle fait partie de la nature même de l’exercice. Lorsque vous vous rendrez compte que votre esprit s’égare, la pratique de la pleine conscience vous invitera à ramener votre attention avec douceur et bienveillance vers le souffle et les sensations qui lui sont associées.Lorsque vous débuterez cet exercice, il est fort probable que vous rencontriez des difficultés à maintenir votre attention sur la respiration. Encore une fois, cela est ordinaire. À force de répéter cet exercice, vous éduquerez votre esprit à (r) amener son attention vers la respiration.
La prise de conscience du souffle n’est qu’un exemple, il existe de nombreuses autres formes de pratiques formelles (par exemple, le scan corporel qui consiste à observer les différentes sensations présentes dans notre corps).
Vous trouverez sur Internet de nombreuses vidéos et/ou audios faites par des professionnel·les qui vous permettront de pratiquer.
Un exemple d’exercice momentané (5 minutes) de prise de conscience du souffle, vous est proposé en cliquant ici ou sur le QR code ci-joint.
À noter le fait que certaines personnes ne sont pas « réceptives » à la pleine conscience. Lorsqu’ils débutent cette pratique, certains sujets peuvent également ressentir une légère angoisse quant aux faits de se poser et de centrer son attention sur sa respiration. Et dans le cadre de graves problèmes de santé mentale (dépression, anxiété…), la pleine conscience ne remplace pas une prise en charge par un professionnel de santé.
Pratiquer seul·e (ou pas), de manière formelle (ou non)
Pour débuter la pratique, on peut se faire accompagner – par une ou un médecin, psychologue, psychothérapeute, chercheur ou chercheuse, préparateur ou préparatrice mentale, etc. – mais qui doit avoir été formé à la pleine conscience dans le cadre d’un diplôme universitaire (DU), d’une formation courte qualifiante par exemple. Mais ce n’est pas une obligation. Étant donné que cette pratique s’avère très simple à mettre en œuvre, tout le monde peut l’intégrer de manière brève dans son quotidien. Des livres écrits par des professionnel·les peuvent également aider.
La pleine conscience peut aussi s’intégrer de manière informelle dans notre quotidien. En effet, il est possible de marcher, de courir ou encore de manger en pleine conscience… Dans ce type d’exercices, l’objectif est d’être pleinement attentif à ce que l’on est en train de faire. Par exemple, vous pouvez essayer une fois par semaine de manger sans écrans, en étant pleinement attentif aux sensations gustatives, olfactives ou visuelles de ce que vous mangez.
Que la pratique soit réalisée de manière formelle ou informelle, nous vous conseillons de débuter par des temps de trois à cinq minutes avant d’augmenter progressivement si vous le souhaitez !
Essayez, et vous verrez. Bonne pratique !
Cette revue systématique, et donc cet article de vulgarisation, s’intègre dans la thèse CIFRE 0331 co-financée par l’Institut des Rencontres de la FOrme (IRFO) et l’Association Nationale de la Recherche et de la Technologie (ANRT).
Annie Carton est membre du Racing Club Arras Athlétisme en tant qu'entraîneur, et vice-présidente de l'Office des Sports d'Arras en charge de la santé et du bien-être.
Jérémy Coquart a été le directeur d’Alexis Barbry, le doctorant financé.
05.01.2026 à 17:56
Vivre dans un logement trop froid : la réalité sociale de la précarité énergétique
Texte intégral (2229 mots)
La précarité énergétique est un fléau qui concerne de plus en plus de personnes du fait de la volatilité des prix de l’énergie. Elle a des répercussions sur la santé physique et mentale, sur la vie sociale et même sur la scolarité des enfants.
Alors que l’hiver s’installe, environ 3 millions de ménages français sont de nouveau confrontés à une difficulté majeure : celle de la précarité énergétique.
Elle se matérialise par des privations, mais également par un sentiment de honte et une exclusion sociale qui en résultent. Ses effets peuvent être multiples, allant même jusqu’à augmenter l’absentéisme scolaire. Les conséquences sociales et sanitaires, longtemps sous-estimées, sont aujourd’hui mieux documentées par la recherche.
Ce que signifie « être en précarité énergétique » au quotidien
La définition française du phénomène est large : une personne est en précarité énergétique lorsqu’elle rencontre des difficultés à disposer, dans son logement, de l’énergie nécessaire pour répondre à ses besoins de base, du fait de faibles ressources ou de conditions de logement inadéquates. Cela signifie vivre dans un logement trop froid l’hiver, trop chaud l’été, souvent mal isolé, où l’on chauffe une seule pièce pour réduire la facture, où l’on évite d’allumer la lumière, où la présence de moisissures ou d’humidité peut devenir chronique. Ces conditions entraînent fréquemment des comportements de restriction d’énergie, c’est-à-dire consommer volontairement moins que ce qui serait nécessaire au confort ou à la santé. Parfois, cela signifie également passer sous le radar des politiques publiques, car les dépenses en énergie sont volontairement modérées.
Cette situation est d’autant plus fréquente que les prix de l’énergie sont volatiles ces dernières années. En 2018 déjà, 34 millions d’Européens déclaraient ne pas pouvoir chauffer correctement leur logement. Les tensions énergétiques depuis 2021 ont encore accentué ce phénomène : les ménages les plus modestes ont consacré une part croissante de leur budget à leurs factures, réduisant leurs marges de manœuvre.
Les conditions de logement jouent également un rôle central : mauvaise isolation, appareils de chauffage vétustes, infiltrations d’eau, ventilation insuffisante, autant de facteurs qui rendent impossible le maintien d’un confort minimal à un coût acceptable.
Qui sont les ménages les plus touchés ?
La recherche en économie identifie de manière cohérente trois déterminants de la précarité énergétique : bas revenus, mauvaise performance énergétique du logement et prix élevés de l’énergie. Mais au-delà de ce triptyque, les recherches récentes en la matière apportent des précisions essentielles.
En France sont particulièrement exposés :
les personnes âgées, davantage présentes dans des logements anciens, peu isolés, et disposant de faibles revenus ;
les ménages isolés, notamment les femmes seules ou les familles monoparentales, dont les dépenses fixes pèsent plus lourd dans le budget ;
les locataires du parc privé, souvent logés dans des habitats moins performants que le parc social qui est susceptible de bénéficier d’une meilleure qualité énergétique ;
les ménages vivant dans des logements anciens qui n’ont pas fait l’objet de rénovation et qui utilisent plus fréquemment du gaz ou du fioul et qui font donc face à un coût de l’énergie plus important.
Par ailleurs, les ménages « énergétiquement vulnérables », qui ne sont pas définis comme étant en précarité énergétique mais peuvent basculer en cas de choc (hausse de prix, panne d’équipement, baisse de revenu), sont souvent ignorés des politiques publiques, car mal identifiés. Ces ménages représentent un enjeu majeur pour les politiques publiques, car ils n’entrent pas dans les seuils traditionnels utilisés pour mesurer le phénomène.
Les effets de la précarité énergétique dépassent largement l’inconfort thermique. Ils touchent la santé, la vie sociale et les perspectives économiques.
Les impacts sur la santé physique
Un logement trop froid augmente les risques de maladies respiratoires et cardiovasculaires, aggrave les symptômes des personnes souffrant de maladies chroniques, comme l’arthrose ou la polyarthrite rhumatoïde, et favorise l’apparition de moisissures responsables d’allergies ou d’asthme. Être en précarité énergétique multiplierait par sept le risque de mauvaise santé pour les personnes déjà fragiles.
Les coûts associés pour la collectivité sont considérables : près d’un milliard d’euros de dépenses médicales directes en France, et plus de 20 milliards si l’on inclut les coûts indirects liés à la perte de productivité ou aux arrêts maladie.
Une dégradation marquée de la santé mentale
Un résultat central a été établi pendant la crise sanitaire du Covid-19 : la précarité énergétique a un effet causal fort et significatif sur la santé mentale, dégradant les scores d’anxiété, de dépression et de santé sociale. Être en situation de précarité énergétique aurait réduit en moyenne le score de santé mentale de 6,3 points sur 100 et augmenté le score de dépression de 5,35 points et celui d’anxiété de 6,48 points pendant cette période durant laquelle la majeure partie de la population française et européenne a été confinée à domicile à intervalles réguliers.
La situation était encore plus grave pour les personnes déjà fragilisées : pour le tiers le plus vulnérable de la population, l’effet négatif sur la santé mentale atteignait 20 points. L’utilisation des scores permet de quantifier les effets de la précarité énergétique : un score de santé de 100 indique la meilleure santé qui soit, tandis qu’un score de dépression de 100 indique le niveau le plus élevé de dépression.
Une spirale d’isolement et de honte
Plusieurs travaux sociologiques montrent également que les personnes vivant dans des logements froids ou dégradés évitent d’inviter des proches, se replient sur elles-mêmes, et peuvent éprouver un sentiment de honte ou d’échec. Les difficultés à payer les factures conduisent parfois à des coupures d’énergie ou au risque d’endettement, renforçant encore la vulnérabilité sociale.
La précarité énergétique devient ainsi un facteur d’exclusion, au même titre que la pauvreté monétaire, mais en partie invisible car liée à l’espace privé du logement.
Noel Longhurst et Tom Hargreaves, deux chercheurs en sciences de l’environnement, rapportent ainsi dans une de leur publication de 2019 les propos de Barbara, une trentenaire britannique qui souffre de précarité énergétique :
« Je ne reçois personne. Je ne reçois pas d’amis… Personne. Je ne pense pas avoir reçu d’amis depuis environ trois ans… Je n’aime pas la condensation, et c’est très important pour moi. C’est embarrassant. Je suis gênée quand je sors le matin et que je vois qu’on ne peut pas voir à travers les fenêtres. »
Des répercussions sur les trajectoires scolaires
La précarité énergétique affecte également la scolarité des enfants. Vivre dans un logement froid ou mal chauffé complique le travail scolaire à domicile, perturbe le sommeil et accroît la fatigue, avec des effets potentiels sur l’attention et l’apprentissage.
En France, le défenseur des droits souligne que ces conditions de vie dégradées portent atteinte au droit des enfants à un environnement propice aux études et peuvent peser sur leurs résultats scolaires. Ces constats rappellent que la précarité énergétique est aussi un enjeu éducatif et d’égalité des chances.
Un enjeu européen majeur, des réponses encore insuffisantes
Si la France a développé plusieurs outils (chèques énergie, aides à la rénovation, développement du parc social), la littérature montre que les politiques purement financières ont des effets limités, alors que les actions structurelles – rénovation thermique, construction de logements sociaux performants – ont un impact durable sur la réduction de la précarité énergétique.
À l’échelle européenne, la Commission a inscrit la lutte contre la précarité énergétique au cœur de la directive sur l’efficacité énergétique révisée adoptée en 2024. Mais les disparités restent fortes, et la crise énergétique a rappelé la nécessité d’une stratégie plus ambitieuse, combinant protection des ménages, transition énergétique et amélioration massive du parc résidentiel.
Bérangère Legendre a reçu des financements de la Chaire de l'Economie Environnementale (Fondation Université Savoie Mont Blanc).
Dorothée Charlier est membre de la SOLAR ACADEMY.
05.01.2026 à 17:51
La hausse du prix du carbone conduit-elle à supprimer des emplois ?
Texte intégral (1376 mots)

Une étude met en lumière le lien entre hausse du prix du carbone et suppressions d’emplois. Depuis 2017, une augmentation significative du prix des émissions est en cours, désormais 17 fois plus élevé en 2025 qu’en 2017. Si toutes les entreprises affichent leur mécontentement, elles n’adoptent pas les mêmes stratégies selon qu’elles sont cotées en bourse ou non. Avec pour principaux perdants, les cols bleus.
En 2017, le Conseil européen a introduit des réformes majeures dans le système européen d’échange de quotas d’émission, provoquant une forte hausse du prix du carbone. Le prix d’une tonne d’émissions équivalentes en CO2 a doublé, passant de 5,15 euros par tonne d’émissions le 1er janvier 2017 à 11,06 euros le 1er janvier 2018, puis à 22,23 euros le 1er janvier 2019.
L’objectif est clair : rendre la pollution plus coûteuse, afin d’inciter les entreprises à réduire leurs émissions. Mais cette hausse des coûts a eu un effet inattendu, certaines entreprises ont réagi en supprimant des emplois.
Dans notre étude, nous mettons en évidence un lien clair entre la hausse des prix du carbone et les suppressions d’emplois et les ventes d’actifs de production (machines, équipements) par les entreprises.
Alors, la transition climatique se fait-elle au prix de l’emploi ?
Voici quelques entreprises bien connues qui relèvent de ce système : Carrefour, Sanofi, TotalEnergies, Engie, etc.
Hausse du prix du carbone
L’un des outils politiques largement utilisés pour atteindre cet objectif est le système de plafonnement et d’échange, ou cap-and-trade system. L’exemple le plus marquant est le système d’échange de quotas d’émission de l’Union européenne (SEQE-UE), souvent considéré comme une référence.
Malgré sa réputation mondiale, le système d’échange de quotas d’émission de l’Union européenne a eu du mal pendant des années à fixer des prix significatifs pour le carbone. Au cours de sa phase initiale de 2005 à 2007, beaucoup de permis de pollution ont été distribués, ce qui a entraîné une faible demande et fait baisser les prix.
La période suivante de 2008 à 2012 a coïncidé avec la crise financière mondiale, qui a fortement réduit l’activité industrielle et, par conséquent, les besoins en quotas d’émission. Même si le plafond d’émissions a été réduit de 6,5 %, les prix sont restés obstinément bas. Pendant plus d’une décennie, le système n’a pas réussi à créer la pression financière nécessaire pour entraîner des réductions importantes des émissions.
En 2017, l’Union européenne a corrigé cette situation en réduisant l’offre de quotas (the cap) par 2,2 % annuelle. L’enjeu : doubler la canalisation des quotas vers une nouvelle réserve de stabilité du marché, ou Market Stability Reserve, jusqu’à 2023 et ajouter un mécanisme d’annulation pour supprimer définitivement les quotas inutilisés lors de la phase suivante. L’impact a été immédiat puisque le prix d’émission est passé d’un peu plus de 5 euros début 2017 à 11 euros un an plus tard, puis à environ 32 euros en 2020.
Les industriels du carburant vent debout
Cette intervention a suscité une opposition importante de la part des entreprises, des syndicats et des groupes d’intérêt industriels. Ils craignent que l’augmentation des coûts du carbone ne pousse la production et les emplois hors d’Europe. Par exemple FuelsEurope, qui représente l’industrie européenne des carburants, et les producteurs d’acier ont exprimé leurs préoccupations, avertissant que les coûts supplémentaires les rendraient moins compétitifs à l’échelle mondiale
Pourtant, il existe peu de preuves tangibles pour étayer ces affirmations. Les entreprises soumises au SEQE-UE sont 3,4 % plus susceptibles de réduire leurs effectifs que leurs homologues non soumises au SEQE-UE.
À lire aussi : Histoire des crédits carbone : vie et mort d'une fausse bonne idée ?
Distinction entre entreprises cotées et non cotées
Cette tendance est loin d’être uniforme. Les entreprises cotées en bourse ne réduisent pas leurs effectifs, tandis que les entreprises non cotées les diminuent de manière plus marquée, avec des baisses pouvant atteindre 3,5 % dans les entreprises les plus polluantes. Les petites entreprises cotées (en dessous de la moyenne de l’échantillon en termes d’actifs totaux) qui disposent d’une marge de manœuvre financière limitée réduisent également leurs effectifs, mais dans une moindre mesure que leurs homologues non cotées.
Qu’ajustent ces entreprises en réponse à la hausse des coûts liés au carbone ? Cherchent-elles à maintenir leur production à un niveau stable, mais avec moins de travailleurs et d’actifs ? Ou bien produisent-elles moins globalement, et ont donc besoin de moins de ressources ?
Nos conclusions révèlent une distinction nette. Les entreprises privées ont tendance à réduire leurs activités, en supprimant à la fois des emplois et des actifs, ce qui suggère une réduction délibérée de leur champ d’action global. En revanche, les petites entreprises cotées en bourse, qui disposent de peu de liquidités, réduisent principalement leurs effectifs, sans diminuer leur base d’actifs.
En d’autres termes, les entreprises privées non cotées réduisent leurs effectifs en faisant moins, tandis que les entreprises cotées en bourse réduisent leurs effectifs en essayant de faire la même chose avec moins de personnel.
Les cols bleus sont les plus touchés
Afin de mieux cerner les employés les plus touchés par ces changements, nous avons également examiné les conséquences de la flambée des prix du carbone dans le cadre du SEQE-UE en Belgique.
À partir de données administratives détaillées, nous avons constaté que l’impact est loin d’être réparti de manière uniforme. Les cols bleus, les hommes ayant un faible niveau d’éducation (généralement avec diplôme secondaire ou sans) sont les plus touchés. L’effet est particulièrement prononcé chez les personnes sous contrat à temps partiel.
Ces résultats ont des implications importantes pour les décideurs politiques qui pilotent la transition écologique en Europe. Bon nombre des nouveaux emplois verts créés exigent des employés hautement qualifiés. Ce décalage pourrait créer des déséquilibres sur le marché du travail, soulignant le besoin urgent de programmes de formation et de reconversion.
Jana Boeckx ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
05.01.2026 à 17:49
L’éducation est-elle une faiblesse quand la loi du plus fort s’impose ?
Texte intégral (1927 mots)

Face aux crises climatiques, économiques et sociales qui s’enchaînent et obscurcissent notre horizon, il convient d’éviter les réponses toutes faites et de réapprendre à problématiser le monde pour identifier les véritables défis.
C’est dans cet esprit que, dans Par-delà le brouillard… il n’y a pas de crise, le philosophe Laurent Bibard dialogue avec Thibault Lieurade, journaliste spécialisé en économie et en management, afin d’éclairer treize grands enjeux contemporains, du travail à l’intelligence artificielle, en passant par l’éthique et la sexualité. Dans le chapitre consacré à l’éducation, ils s’arrêtent sur l’importance de l’expérience concrète, le goût de l’effort et la pression de la compétition. Extraits.
Lorsque l’on voit la remise en cause de la science, l’essor des dogmatismes religieux, la loi du plus fort que cherche à imposer Vladimir Poutine au mépris du droit international, ou encore le fait que Donald Trump nomme au ministère de l’éducation l’ancienne patronne de la fédération de catch, on peut se poser la question : faut-il désormais privilégier la musculation aux études ? Avons-nous changé d’époque ?
En raison de notre mémoire biologique très pauvre, l’éducation restera toujours indispensable aux humains que nous sommes. Les enfants humains dépendent de leurs parents pendant des décennies, ce qui n’est absolument pas le cas des animaux. Cela signifie que la relation de dépendance verticale, classique, descendante est absolument constitutive de notre humanité. Pourtant, notre destin est bien de devenir des adultes, des personnes libres, responsables, capables de prendre des décisions, d’affronter l’incertitude avec les autres, et ce, d’égal à égal.
Cette relation parents-enfants qui nous conditionne cependant irréductiblement à l’origine pourrait s’appliquer de manière symbolique au domaine de la gestion, ou au monde politique. En effet, nous sommes faits d’une tension toujours présente au long de nos vies entre ces deux pôles contradictoires, ce qui explique les difficultés et les dérives possibles. N’oublions pas que l’origine du mot enfant, en latin, est infans, autrement dit celui qui n’a pas la parole, celui qui ne sait pas parler. À l’inverse, l’adulte, c’est quelqu’un qui sait prendre la parole, qui peut prendre la parole, qui ose prendre la parole. Lorsque la parole est libre, elle ouvre et signe un monde libre, où l’on parle, en dehors du seul règne de la force. Cela est inséparable de la notion de responsabilité, laquelle s’apprend et implique donc un besoin essentiel d’éducation. La responsabilité, c’est la capacité de répondre, et il n’y a pas de réponse sans question.
L’instruction fondamentale, c’est donc le langage. La deuxième chose que le parent se doit de laisser faire aux enfants pour qu’ils grandissent, ce sont des expériences. Bien sûr, il interdit les expériences qui seraient radicalement dangereuses, mais il permet le plus d’expériences possible au travers desquelles, même s’il échoue, l’enfant s’essaye, s’éprouve et, par là, grandit. Le parent tyrannique, volontairement ou maladroitement, en voulant surprotéger l’enfant, va l’empêcher de grandir, faute de le laisser faire ses expériences. Ainsi, le parent symbolique, tyrannique, le despote ou le tyran qui gouverne un pays par la force va empêcher la population de grandir, c’est-à-dire de prendre la parole au sens fort du terme, d’avoir « droit de cité ».
L’extrême inverse, c’est une politique de l’enfant qui se croit d’emblée adulte sans avoir besoin d’éducation. Les réseaux sociaux et Internet favorisent cela. Comme une information gigantesque est disponible, comme tout le contenu du monde est accessible par téléphone, par tablette, par ordinateur, émerge ce sentiment qu’il n’y a plus besoin d’éducation, de parents réels ou symboliques pour grandir. C’est dramatique, car ce qui manque dans ce cas-là, ce n’est pas le contenu informationnel, mais l’apprentissage du sens critique, le développement des capacités de réflexion, de prise de distance, de recul, d’interrogation.
Néanmoins, dans un monde où l’intelligence artificielle (IA) écrit, traduit, calcule ou encore dessine de manière parfois plus pertinente et, dans tous les cas, plus rapidement que l’humain, à quoi servent encore les écoles primaire et secondaire, les enseignements de langues (tout du moins à l’écrit) ou de maths ?
Effectivement, ces outils sont très pratiques. Mais ce qui est très pratique peut avoir pour conséquence de nous faire perdre toutes sortes de compétences parce que leur utilisation nous rend paresseux. Pour prendre un exemple : entre autres, j’enseigne beaucoup en formation continue, auprès de personnes très alertes qui ont des postes à hautes responsabilités dans des programmes appelés Executive MBA. Cela signifie que les participants ont des fonctions de cadres, déjà de très haut niveau, et qu’ils vont devenir directeurs à des niveaux encore plus importants. Je leur demande dans certains cours un rendu écrit sur la base du cours. Ils ont maintenant tendance à le faire de plus en plus rédiger par un logiciel et, en conséquence, ils ne s’investissent pas dans le texte et dans la réflexion, ou très peu. Ils perdent donc l’occasion d’approfondir qualitativement l’intensité réflexive dont ils sont pourtant capables. Quand on perd cela, c’est son âme que l’on perd.
Mais dans un monde où il faut aller vite, où il faut être productif, compétitif, n’est-on pas dès lors contraint de sacrifier son âme pour survivre, ne serait-ce qu’économiquement ?
C’est là un problème vieux comme le monde. L’auteur qui l’a le plus explicitement posé, c’est Machiavel. Il dit à peu près ceci : « On veut la paix, peut-être, mais si les autres innovent, en particulier dans le domaine des armes, on ne peut pas ne pas tout faire pour dépasser ceux qui veulent nous agresser en innovant. » On se trouve dans l’obligation, du fait de la concurrence, de jouer le jeu. Nous devrions malgré tout sans cesse nous poser la question de savoir à quoi ça sert, vers où cela nous mène. Nous sommes ainsi dans un gâchis gigantesque à cause du problème de la compétition. La compétition, c’est toujours du court-termisme auquel on est bien obligé de souscrire parce qu’on a besoin de préserver nos existences. Mais si nous ne faisons que cela, le monde court à sa perte. Et nous le savons bien.
À lire aussi : La société du concours : entre admis et recalés, quelques points d’écart, mais des conséquences pour toute une vie
Nous sommes actuellement dans un contexte où la nouvelle présidence américaine rejette complètement la question du climat en aggravant de manière dramatique la compétition au travers des énergies fossiles et de tout ce qu’il faut tenter de quitter. À long terme, de telles positions nous conduisent effectivement à notre perte. La même réflexion s’impose sur l’IA : le volume de matières premières qu’utilisent les machines pour fonctionner, ou encore les « petites mains » des plates-formes, posent des questions environnementales et sociales considérables que la fascination pour l’IA masque.
Quand nous considérons ces questions, cela nous oblige, de nouveau, à prendre du recul. Mon point n’est pas de dire qu’il ne faut pas le faire, mais qu’il faut se demander constamment à quoi sert ce que l’on fait et jusqu’où le faire. Donc, arbitrer pour le meilleur.
L’essor de l’IA permet aussi, pour un certain nombre de tâches, de réduire considérablement l’effort. En quoi faut-il veiller à ce point, à savoir ne pas perdre un certain goût de l’effort ? Comment transmettre désormais aux plus jeunes ce goût de l’effort ? Faut-il davantage insister sur le plaisir de faire ?
C’est capital. J’en reviens au court-termisme : on est dans un monde qui donne l’illusion de pouvoir avoir tout, tout le temps et tout de suite, et que c’est bien ainsi. Les plus jeunes peuvent ainsi croire que l’on peut être adulte sans avoir besoin d’éducation, être d’emblée quelqu’un de capable. Bien évidemment, c’est faux. Être capable, cela s’apprend. C’est pénible, c’est dangereux. Comme on l’a déjà vu, le mot péril est indissociable de la notion d’expérience. On ne construit pas sa personnalité sans danger et sans aller à des choses qui ne sont pas évidentes ni spontanément agréables.
Dans la clinique taoïste, manger et penser, donc savourer et savoir, c’est la même chose. D’ailleurs, l’étymologie de savoir le dit : la saveur et le savoir, c’est la même chose. On en a déjà parlé : quand on donne à un enfant à manger quelque chose, l’enfant peut avoir une répugnance a priori. La tâche du parent est, tant que l’enfant n’a pas goûté, de lui dire qu’il ne peut pas savoir s’il aime ou s’il n’aime pas – donc de l’obliger à goûter, pour se faire vraiment une idée, comme on dit. C’est l’équivalent de l’effort. On peut caricaturer un peu – mais pas tant que cela : quand on n’a pas envie de faire d’effort pour l’alimentation, on souscrit à McDo et l’enfant est obèse à vingt ans… L’éducation du goût donne le goût de l’éducation.
Laurent Bibard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
05.01.2026 à 17:48
Comment les États autoritaires orientent les débats pour saper nos démocraties
Texte intégral (1429 mots)
Au-delà des « fake news » les États autoritaires utilisent une stratégie subtile pour discréditer les démocraties en manipulant l’information et les débats. Les réseaux sociaux et les médias en ligne sont utilisés pour exagérer les difficultés de nos régimes, pour nourrir la colère et pour imposer un récit alternatif.
Lorsque nous parlons de désinformation – la diffusion intentionnelle d’informations trompeuses – nous imaginons généralement des mensonges flagrants et des fake news propagés par des gouvernements étrangers. Parfois, l’objectif est d’influencer les électeurs lors d’élections, parfois de semer la confusion en période de crise.
Mais il s’agit là d’une vision grossière de la réalité. En fait, des pays autoritaires, tels que la Russie et, de plus en plus, la Chine, sont engagés dans des projets plus ambitieux visant à déformer la réalité politique. Ces pays cherchent à saper l’image des démocraties occidentales, tout en se présentant – eux-mêmes et leurs partenaires autoritaires – comme des modèles à suivre.
La construction de cette réalité politique inclut l’usage de mensonges flagrants, mais le récit repose le plus souvent sur une manipulation de l’information bien plus insidieuse. Les faits positifs sont mis en avant de manière disproportionnée, tandis que ceux qui dérangent sont ignorés ou sortis de leur contexte, afin qu’ils paraissent davantage conformes aux objectifs du narrateur.
Le Kremlin utilise depuis longtemps des médias financés par l’État, des médias relais ou des bots pour diffuser un flux constant de récits – articles de presse, tweets, vidéos ou publications sur les réseaux sociaux – conçus pour attiser les clivages politiques dans les sociétés démocratiques. Des rapports montrent que ces récits peuvent atteindre des publics bien au-delà de leurs plates-formes russes d’origine. Ils sont répétés, sans le savoir (ou parfois en toute connaissance de cause), par des médias locaux ou nationaux, des commentateurs ou des internautes.
Un motif récurrent consiste à présenter les sociétés démocratiques sous le jour le plus obscur possible. Il s’agit d’exagérer la criminalité, la corruption et le désordre social, de mettre en avant des protestations publiques, la stagnation économique ou l’instabilité gouvernementale. Le message sous-jacent est que la démocratie ne fonctionne pas et mène au chaos.
Certains récits visent à discréditer les valeurs progressistes des sociétés occidentales. Elles tournent en dérision les évolutions sociales progressistes comme les droits des personnes LGBTQIA+ ou le multiculturalisme, en les présentant comme absurdes ou ridicules.
D’autres s’appuient sur des problématiques bien réelles, mais les cadrent de manière à amplifier les sentiments de discrimination et de victimisation. Dans les États baltes, par exemple, les médias russes mettent fréquemment en avant les persécutions supposées des russophones, en suggérant qu’ils sont traités comme des citoyens de seconde zone, tout en ignorant d’autres points de vue.
Si l’on observe la « manosphère » en ligne – en pleine expansion – ce mécanisme est bien à l’œuvre, avec des messages qui renforcent un sentiment collectif de victimisation des hommes, et qui visent à alimenter les tensions et la défiance.
Une alternative autoritaire
Ces types de récits, qui présentent les sociétés occidentales comme dysfonctionnelles, sont utilisés depuis longtemps par le Kremlin pour nuire à l’image de la démocratie. Cependant, on observe de plus en plus la collaboration de la Russie et de la Chine dans l’espace médiatique mondial en ligne afin de présenter conjointement le monde autoritaire comme une alternative stable fondée sur des principes solides.
Ainsi, la Russie comme la Chine critiquent « l’ordre international » fondé sur des règles libérales et des normes politiques qui a émergé après la Seconde Guerre mondiale. Elles considèrent cet ordre comme occidentalocentré et souhaitent remodeler l’ordre mondial à leur avantage.
La coopération militaire et économique fait partie de leurs efforts pour remettre en cause cet ordre, mais les médias et les espaces numériques jouent également un rôle important. Les deux États, par exemple, diffusent fréquemment des récits qui présentent les pays occidentaux comme des puissances néocoloniales.
Un autre thème récurrent est celui de démocraties dépeintes comme des acteurs hypocrites, prêchant l’égalité et l’équité sans les mettre en pratique. Les récits évoquant le manque d’unité au sein des alliances occidentales telles que l’OTAN ou l’Union européenne (UE) sont également constants dans les narrations russes et chinoises. À l’inverse, la Russie et la Chine sont présentées comme des pays rationnels et raisonnables, cherchant à protéger d’autres nations, plus vulnérables, de l’exploitation occidentale.
Pourquoi ces récits sont-ils efficaces ?
Ces récits semblent trouver un écho particulier auprès des publics des pays en développement. Cela s’explique souvent par le fait qu’ils contiennent un noyau de vérité. Les narrateurs de ces récits peuvent s’appuyer sur des problèmes réels, tels que les inégalités, les erreurs de politique étrangère ou les doubles standards. Incontestablement, de nombreux pays occidentaux sont confrontés à des tensions liées au coût de la vie et la politique étrangère n’est pas toujours cohérente. Les souvenirs du passé colonial rendent les accusations de néocolonialisme crédibles.
C’est souvent la manière dont une histoire est racontée qui induit en erreur. Des détails sont omis ou sortis de leur contexte. Des informations spéculatives sont présentées comme des faits. Il s’agit de créer une version déformée de la vérité.
Les récits sont souvent façonnés pour déclencher colère, choc, peur ou ressentiment. Par exemple, dans le contexte de la guerre en Ukraine, la désinformation peut suggérer que nos gouvernements nous trahissent en s’impliquant dans des guerres étrangères, ou que les citoyens ordinaires paient le prix des ambitions d’une élite corrompue.
Ces récits sont nourris de sensationnalisme, faisant l’impasse sur la nuance au profit de l’impact émotionnel. Cela assure leur amplification sur les réseaux sociaux.
La vérité peut être complexe et, parfois, ennuyeuse. En exploitant notre attirance pour le sensationnel, la Russie et la Chine peuvent progressivement distiller une image où la démocratie est dépeinte comme inefficace et chaotique, et où elles-mêmes incarnent une perspective d’avenir plus juste et plus fonctionnelle.
Finalement, la désinformation contemporaine relève moins du mensonge pur et simple que d’une construction subtile de vision du monde. Avec le temps, cette transformation silencieuse peut aller bien au-delà de l’impact d’une simple fake news, et nous amener à douter de la démocratie elle-même.
Aiden Hoyle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
05.01.2026 à 17:47
Ménopause et prise de poids : des mesures précoces pour accompagner les changements hormonaux
Texte intégral (2341 mots)

La plupart des femmes s’attendent à ce que la lutte contre le poids commence après la ménopause. Mais certaines recherches suggèrent que le véritable basculement métabolique survient des années plus tôt. Savoir reconnaître quand il se produit permet d’intervenir pour accompagner ces changements au mieux.
Vous êtes entrée dans la quarantaine en continuant à suivre la même routine que les années précédentes : manger sainement et faire de l’exercice régulièrement. Pourtant, ces derniers temps, à chaque fois que vous montez sur la balance, celle-ci semble insidieusement afficher un chiffre de plus en plus élevé. Vous avez peut-être également remarqué que vos vêtements tombent différemment ou que votre tour de taille semble s’être élargi, comme qui dirait « du jour au lendemain »…
Vous revient alors en mémoire la frustration qu’exprimait votre mère à propos des éternels régimes, de la nécessité de faire plus de cardio, ou au sujet de la « prise de poids liée à la ménopause ». Pourtant, vous êtes toujours réglée, et la ménopause ne devrait pas s’annoncer avant au moins cinq ans. Mais alors, qu’êtes-vous en train de vivre ?
En tant que médecin généraliste spécialisée dans la prise en charge des questions de poids et qu’endocrinologue, spécialisée en médecine de l’obésité, nous sommes régulièrement confrontées à des histoires de ce type : des femmes qui « font tout comme il faut » ont soudain l’impression que leur corps se retourne contre elles.
Si le mode de vie est bien évidemment important, il faut comprendre que, dans ce contexte, la cause profonde de la situation n’est pas due à un manque de volonté. L’origine de ces changements est à chercher du côté de la physiologie.
Au cours de la transition vers la ménopause, qui dure plusieurs années, le traitement des glucides devient moins efficace, tandis que le métabolisme de repos ralentit. Cette conjonction de facteurs peut favoriser la prise de poids – en particulier au niveau du ventre – même si les habitudes ont peu changé.
Toutefois, la prise de poids au cours de la transition ménopausique n’est pas nécessairement inévitable.
Un basculement silencieux avant la ménopause
Le diagnostic de la ménopause est posé lorsqu’une absence de règles est constatée depuis douze mois, chez une femme âgée de 45 à 55 ans. Cependant, certains des processus physiologiques qui aboutiront à la ménopause débutent bien avant celle-ci. La transition hormonale, due à des modifications de la signalisation entre le cerveau et les ovaires, commence des années plus tôt, lors d’une phase appelée périménopause. C’est à ce moment que les taux d’œstrogènes et de progestérone commencent à fluctuer de manière imprévisible.
Ces variations hormonales se répercutent sur presque tous les systèmes métaboliques. En effet, les œstrogènes contribuent à réguler la répartition des graisses, la réparation musculaire et la sensibilité à l’insuline. Lorsque leurs niveaux oscillent fortement, l’organisme commence à stocker la graisse différemment : celle-ci est déplacée des hanches et des cuisses vers l’abdomen. La synthèse des protéines musculaires ralentit également.
Le résultat est une perte musculaire progressive et une augmentation de la résistance à l’insuline, même lorsque le mode de vie n’a pas changé. Parallèlement, ces changements hormonaux peuvent perturber le sommeil, influer sur les niveaux de cortisol et modifier l’appétit.
Or, au moment même où ces changements physiologiques s’intensifient, les contraintes sociales – prise en charge de proches, responsabilités professionnelles et familiales – s’accroissent souvent, ce qui laisse moins de temps pour s’occuper de soi, se reposer ou pratiquer une activité physique.
À cette période de l’existence, ce qui frappe le plus les femmes n’est pas tant le chiffre affiché par la balance que l’évolution de leur corps. En effet, même si le poids reste stable, de nombreuses femmes perdent du muscle et gagnent de la graisse abdominale. Cette graisse profonde, qui entoure des organes vitaux, est associée à l’inflammation ainsi qu’à un risque accru de diabète de type 2, de maladies cardiovasculaires, de maladies du foie et de troubles du sommeil.
Pourquoi la périménopause est une fenêtre d’opportunité
Depuis 1994, une étude intitulée Study of Women’s Health Across the Nation suit des femmes issues de milieux variés vivant dans plusieurs régions des États-Unis, afin d’étudier les changements physiologiques qui surviennent à l’âge mûr. L’une des principales observations de ces travaux est que c’est au cours de la périménopause, soit bien avant l’arrêt des règles, que la masse grasse commence à augmenter tandis que la masse maigre entame sa diminution.
Or, une fois que cette redistribution accélérée se stabilise, au cours de la ménopause, son inversion s’avère beaucoup plus difficile, même si elle n’est pas impossible.
Pour cette raison, la périménopause devrait être considérée comme une « fenêtre d’opportunité métabolique ». À cette époque de la vie, le corps demeure adaptable ; il répond à la musculation, à une alimentation de qualité, et à la mise en place de meilleures routines de sommeil. En adoptant des stratégies appropriées à cette période, les femmes peuvent atténuer les effets des changements hormonaux, et se préparer à une transition plus saine au cours de la ménopause et au-delà.
Malheureusement, la plupart des approches proposées pour faire face à la transition ménopausique sont réactives : les symptômes – tels que les bouffées de chaleur ou les troubles du sommeil – ne sont pris en charge qu’après leur apparition. Rares sont les femmes à qui l’on a expliqué que la réduction du risque métabolique associé à la ménopause commence en réalité des années avant cette dernière, durant la périménopause, cette phase discrète mais décisive de leur vie.
Ce que la plupart des femmes ignorent
Pour les femmes dans la quarantaine, le conseil habituel « Mangez moins, bougez plus » passe à côté de l’essentiel, car il simplifie à l’excès la biologie, ignorant le contexte hormonal.
Ainsi, en matière d’activité physique, le cardio seul ne suffit pas à gérer correctement son poids et à atteindre un optimum en matière de santé métabolique. Trop souvent négligée, la musculation (associée à un apport protéique adéquat) devient à cet âge indispensable pour préserver sa masse maigre et maintenir la sensibilité à l’insuline.
Le sommeil et la régulation du stress sont tout aussi essentiels. Les fluctuations d’œstrogènes peuvent en effet perturber les rythmes du cortisol, ce qui se traduit par de la fatigue, des réveils nocturnes et des « fringales ». Privilégier des pratiques améliorant l’hygiène du sommeil – limiter les écrans avant le coucher, s’exposer à la lumière du matin, éviter de manger tard le soir et faire de l’exercice plus tôt dans la journée – aide à réguler ces rythmes hormonaux.
Comprendre pourquoi ces habitudes sont importantes permet de fournir un contexte essentiel pour élaborer des stratégies d’ajustement durables, compatibles avec le mode de vie de chacune.
Comment agir tôt ?
La trentaine et la quarantaine ne doivent pas être vues comme un compte à rebours vers le déclin. Elles doivent plutôt être perçues comme des périodes propices à la construction de sa résilience métabolique. En conjuguant prise de conscience, stratégies basées sur des preuves scientifiques et soins « proactifs », les femmes peuvent traverser la périménopause et la ménopause avec confiance et force. Voici quelques pistes pour commencer :
Soulevez des poids. Fixez-vous comme objectif deux à trois séances de renforcement ou de musculation par semaine, afin de préserver votre masse musculaire et de stimuler votre métabolisme. Travaillez selon le principe de surcharge progressive, c’est-à-dire en augmentant graduellement la contrainte imposée à vos muscles.
Priorisez les protéines. Veillez à intégrer à chaque repas un apport protéique suffisant, pour supporter vos muscles, augmenter votre satiété et stabiliser votre glycémie. Des résultats de plus en plus nombreux semblent indiquer que le besoin protéique est plus élevé que celui figurant dans les recommandations actuelles d’apports journaliers. Visez plutôt 0,55 à 0,73 gramme de protéines par livre de poids corporel (soit 1,2 à 1,6 gramme de protéines par kilogramme) par jour, afin de réduire le risque de perte musculaire liée à l’âge.
Dormez « plus intelligemment ». L’hygiène du sommeil et la gestion du stress aident à réguler le cortisol et les hormones de l’appétit. Essayez de vous ménager chaque nuit sept à huit heures d’un sommeil de qualité.
Posez des questions à vos médecins. Lors des bilans annuels, ne vous contentez pas d’aborder uniquement la question du poids : discutez aussi avec votre médecin de votre composition corporelle et de votre santé métabolique. N’hésitez pas à anticiper, et à aborder également les bénéfices et les risques des traitements hormonaux de la ménopause.
Durant la quarantaine, votre métabolisme n’est pas « cassé » ; il s’adapte à une nouvelle étape de votre vie. Une fois que ceci est bien compris, il devient possible de travailler avec son corps, plutôt que contre lui.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
05.01.2026 à 15:44
Une nouvelle étude met en lumière le rôle du climat dans la disparition de l’homme de Florès
Texte intégral (1982 mots)

L’analyse de stalagmites et de fossiles d’éléphants pygmées révèle comment le climat et la présence d’eau douce ont façonné la vie et la survie de l’homme de Florès.
Il y a environ 50 000 ans, l’humanité a perdu l’un de ses derniers cousins hominines survivants, Homo floresiensis (ou homme de Florès, également connu sous le nom de « Hobbit » en raison de sa petite taille). La cause de sa disparition, après plus d’un million d’années passées sur l’île volcanique isolée de Florès, en Indonésie, demeure une énigme de longue date.
De nouvelles preuves suggèrent toutefois qu’une période de sécheresse extrême, commencée il y a environ 61 000 ans, pourrait avoir contribué à la disparition des hommes de Florès. Notre nouvelle étude, publiée le 8 décembre dans Communications Earth & Environment, révèle une histoire d’essor et d’effondrement écologique. Nous avons établi le relevé climatique le plus détaillé à ce jour du site où vivaient autrefois ces anciens hominines.
Une île aux grottes profondes
La découverte d’Homo floresiensis en 2003 a bouleversé notre conception de ce qui fait de nous des êtres humains. Ces hominines de petite taille et au cerveau réduit, qui ne mesuraient que 1,1 m, fabriquaient des outils en pierre. Contre toute attente, ils ont atteint l’île de Florès, apparemment sans disposer de technologie maritime.
Les ossements et outils en pierre d’H. floresiensis ont été retrouvés dans la grotte de Liang Bua, dissimulée dans une petite vallée des hauteurs de l’île. Ces vestiges datent d’une période comprise entre 190 000 et 50 000 ans.
Aujourd’hui, Florès connaît un climat de mousson, avec de fortes pluies pendant les étés humides (principalement de novembre à mars) et des précipitations plus légères durant les hivers plus secs (de mai à septembre). Cependant, durant la dernière période glaciaire, la quantité de pluie et le moment où elle tombait variaient considérablement.
Pour comprendre à quoi ressemblaient ces pluies, notre équipe s’est tournée vers une grotte située à 700 mètres en amont de Liang Bua, appelée Liang Luar. Par pur hasard, au fond de cette grotte se trouvait une stalagmite qui s’est formée précisément pendant la période correspondant à la disparition d’H. floresiensis. En grandissant couche après couche grâce à l’eau qui goutte du plafond, sa composition chimique variable enregistre l’histoire d’un climat en mutation.
Les paléoclimatologues disposent de deux principaux outils géochimiques pour reconstituer à partir des stalagmites les précipitations passées. En observant une mesure spécifique de l’oxygène, appelée δ18O, ils peuvent identifier les variations d’intensité de la mousson. Parallèlement, le rapport entre le magnésium et le calcium permet d’estimer la quantité totale de précipitations.
Nous avons combiné ces deux types de mesures sur les mêmes échantillons, les avons précisément datés, puis avons reconstitué les niveaux de précipitations estivales, hivernales et annuelles. L’ensemble offre un aperçu inédit de la variabilité saisonnière du climat.
Nous avons identifié trois grandes phases climatiques. Entre 91 000 et 76 000 ans, le climat était plus humide qu’aujourd’hui tout au long de l’année. De 76 000 à 61 000 ans, la mousson est devenue très nettement saisonnière, avec des étés plus pluvieux et des hivers plus secs. Enfin, entre 61 000 et 47 000 ans, le climat s’est considérablement asséché durant l’été, à l’image de celui que connaît aujourd’hui le sud du Queensland en Australie.
Les « Hobbits » suivaient leurs proies
Nous disposions donc d’un relevé précis des grands changements climatiques, mais restait à savoir quelle en avait été la réponse écologique, s’il y en avait eu une. Il nous fallait établir une chronologie précise des fossiles d’H. floresiensis retrouvés à Liang Bua.
La solution est venue de manière inattendue grâce à notre analyse du δ18O contenu dans l’émail des dents fossilisées de Stegodon florensis insularis, un lointain parent pygmée disparu des éléphants modernes. Ces jeunes éléphants pygmées figuraient parmi les proies préférées des « Hobbits », comme le montrent les traces de découpe sur les os retrouvés à Liang Bua.
Fait remarquable, les variations du δ18O observées dans la stalagmite de Liang Luar correspondaient parfaitement à celles relevées dans les dents provenant de couches sédimentaires de plus en plus profondes à Liang Bua. Cette concordance nous a permis de dater avec précision les fossiles de Stegodon ainsi que les restes associés d’Homo floresiensis.
La chronologie ainsi affinée montre qu’environ 90 % des restes d’éléphants pygmées datent de la période comprise entre 76 000 et 61 000 ans, soit une période au climat fortement saisonnier, ni trop humide ni trop sec – une sorte de climat idéal. Ce contexte semble avoir offert des conditions favorables au pâturage des éléphants pygmées et à leur chasse par Homo floresiensis. Mais les deux espèces ont presque disparu lorsque le climat est devenu plus sec.
Le recul des précipitations, des éléphants pygmées et des « Hobbits » au même moment indique que la raréfaction des ressources a joué un rôle crucial dans ce qui ressemble à un abandon progressif de Liang Bua.
Avec l’assèchement du climat, la principale source d’eau en saison sèche, le petit fleuve Wae Racang, a peut-être diminué au point de ne plus suffire, privant les Stegodon d’eau douce. Les animaux ont alors pu migrer hors de la région, Homo floresiensis les suivant.
Un volcan impliqué ?
Les derniers restes fossiles de Stegodon et les outils en pierre de Liang Bua sont recouverts d’une épaisse couche de cendres volcaniques, datée d’environ 50 000 ans. On ne sait pas encore si une éruption volcanique à proximité a constitué « la goutte d’eau » dans le déclin des hommes de Florès de Liang Bua.
Les premières traces archéologiques attribuées à Homo sapiens se trouvent au-dessus de cette couche de cendres. Même s’il est impossible de savoir si Homo sapiens et Homo floresiensis se sont croisés, de nouvelles preuves archéologiques et génétiques indiquent que les Homo sapiens parcouraient déjà l’Indonésie, sautant d’île en île jusqu’au supercontinent de Sahul, il y a au moins 60 000 ans.
Si Homo floresiensis a été contraint par des pressions écologiques de quitter leur refuge pour se rapprocher de la côte, il est possible qu’ils aient croisé la route des humains modernes. Et si tel était le cas, la concurrence, les maladies, voire la prédation, auraient pu devenir des facteurs déterminants.
Quelle que soit la cause ultime, notre étude fournit un cadre pour de futures recherches sur l’extinction de l’emblématique Homo floresiensis dans le contexte de grands changements climatiques. Le rôle fondamental de la disponibilité en eau douce dans le déclin de l’un de nos cousins humains rappelle que l’histoire de l’humanité est une expérience fragile de survie, et que les variations des précipitations peuvent avoir des conséquences profondes.
Nick Scroxton a reçu des financements de de la Sustainable Energy Authority of Ireland et a réalisé ce travail tout en bénéficiant d’un financement de l’Australian Research Council.
Gerrit van den Bergh a reçu des financements de l’Australian Research Council.
Michael Gagan a reçu des financements de l’Australian Research Council.
Mika Rizki Puspaningrum ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
05.01.2026 à 15:38
Pourquoi faisait-on l’amour à plusieurs dans l’Antiquité ?
Texte intégral (3377 mots)

On trouve dans la Bible et chez les auteurs grecs et latins de l’Antiquité divers exemples de relations sexuelles impliquant plusieurs partenaires, qu’il s’agisse de « trouples », comme on dit aujourd’hui, ou d’orgies sexuelles. Pourquoi faisait-on l’amour à plusieurs dans l’Antiquité ?
Les premiers « trouples » apparaissent dans la Bible. Le patriarche Jacob a épousé deux sœurs : Léa l’aînée et Rachel la cadette. Or Rachel n’arrive pas à avoir d’enfants de son mari ; elle est jalouse de Léa qui a, elle, réussi à mettre au monde quatre fils. C’est alors que lui vient une idée : « Voici ma servante Bilha, dit-elle à Jacob, va vers elle, et qu’elle enfante sur mes genoux ; d’elle j’aurai moi aussi, un fils » (Genèse 30, 3).
Rachel propose donc à son mari une relation sexuelle à trois. Bilha est installée sur les genoux de sa maîtresse. Elle lui prête, pourrait-on dire, son vagin, Rachel se dédoublant en quelque sorte.
L’astuce fonctionne parfaitement, puisque, neuf mois plus tard, Bilha met au monde un fils que s’approprie aussitôt Rachel. Puis, espérant désormais rattraper son retard sur Léa, Rachel incite Jacob à une nouvelle union à trois. Nouveau succès : Rachel-Bilha accouche d’un second garçon.
C’est alors que Léa se met à craindre de perdre son avance sur sa sœur et rivale. Imitant Rachel, elle livre elle aussi à Jacob le vagin de sa servante, une dénommée Zilpa, qu’elle installe sur ses genoux, offrant à son époux deux vagins à pénétrer.
Le patriarche n’y voit rien à redire : il s’exécute volontiers, acceptant cette nouvelle manière de procréer. Par l’entremise de Zilpa, Léa donne encore deux fils à Jacob. « Quel bonheur pour moi ! », s’écrie-t-elle.
Au-delà de la signification sociale de cette histoire, on soupçonne que le rédacteur se soit aussi fait plaisir, en exposant cette totale domination patriarcale de Jacob sur ses femmes dont les désirs de maternité et la rivalité ne font qu’aggraver la soumission. Le comble étant que ce n’est même pas lui, mais ses épouses qui le poussent à faire l’amour avec les deux servantes. Et pour la bonne cause ! Car, si le patriarche multiplie ses relations sexuelles, ce n’est pas pour son plaisir personnel, mais afin d’accroître sa descendance, tout en satisfaisant les désirs de gloire maternelle des deux rivales vaniteuses…
Absalom et la partouze politique
La Bible nous offre aussi un exemple de partouze dont la signification est avant tout politique. Le prince Absalom, fils du roi David, se révolte contre son père et prend le pouvoir à Jérusalem. C’est alors que, sur les conseils d’un de ses proches, il décide de faire l’amour avec dix concubines du harem paternel. L’usurpateur pense ainsi affirmer sa virilité, tout en galvanisant ses partisans.
Il fait installer, sur la terrasse du palais royal, une tente dans laquelle il possède les dix femmes qu’il a réunies, non à la vue mais au su de tous. Le peuple spectateur, à défaut de contempler les ébats du souverain, en perçoit seulement les râles, tandis que la toile de la tente qui les couvre en répercute les secousses. Cette spectaculaire prise de possession des concubines royales était censée légitimer le pouvoir du successeur qui se plaçait, phalliquement parlant, dans le sillage de son père (2 Samuel 20, 3).
Plaisirs masculins dans des sociétés patriarcales
Dans la Grèce antique, les unions à plusieurs ont d’abord pour fin d’assurer le plaisir d’hommes en position dominante. Aux VIe ou Ve siècles avant notre ère, les riches citoyens grecs, à Athènes ou à Corinthe, organisent des partouzes où ils convoquent des courtisanes de luxe, appelées hétaïres, chargées de les divertir par leurs chants, leurs danses ou leurs prestations sexuelles. Au cours de ces soirées, les convives pénètrent parfois à plusieurs les mêmes prostituées, comme le montre certaines peintures pornographiques sur des céramiques.
À lire aussi : Les Grecs et les Romains aimaient-ils vraiment les orgies ?
Les Grecs ne se cachent pas dès lors que leurs pratiques sexuelles sont reconnues comme valorisantes pour eux. Leur phallus est à l’honneur, pénétrant la bouche ou l’anus des prostituées. Les hommes libres doivent, en effet, toujours se trouver dans une position sexuelle vue comme supérieure : ils sont des individus « jouissant » grâce aux corps qu’ils exploitent.
Certaines prostituées de luxe pouvaient être louées par plusieurs hommes en même temps. La « colocation » permettait de réduire le coût de la prestation de la jeune fille, partagé entre ses clients, mais aussi à des amis d’en jouir en même temps au cours d’un moment considéré comme convivial et festif.
Une hypersexualité féminine condamnée
Les textes antiques évoquent aussi des plaisirs féminins. Aphrodite, Vénus pour les Romains, est décrite comme une véritable déesse libérée des carcans de la société patriarcale. Elle choisit elle-même ses amants, que ce soit parmi les dieux ou les hommes. Son époux, le dieu Héphaïstos est vu comme ridicule et impuissant.
Cependant, seule cette grande déesse bénéficie du droit de coucher avec qui elle veut, en tant que divinité de l’amour et de la beauté. Les femmes humaines ne partagent pas ce privilège divin.
Ainsi, la reine d’Égypte Cléopâtre est conspuée par les écrivains romains, car elle aurait entretenu des relations sexuelles avec de nombreux amants. Insatiable figure de l’hypersexuelle, elle aurait même couché, dit-on, avec ses propres esclaves. Un comble aux yeux de la société patriarcale romaine.
Au Ier siècle de notre ère, l’impératrice romaine Messaline est elle aussi condamnée puis assassinée par son époux, l’empereur Claude, en raison de ses infidélités. Pline l’Ancien raconte qu’elle faisait l’amour avec 25 amants par jour et organisait des orgies sexuelles au palais impérial (Pline l’Ancien, Histoire naturelle X, 83).
Elle serait aussi allée se prostituer la nuit dans des bordels de Rome, uniquement pour le plaisir.
À lire aussi : Depuis quand la vulve est-elle obscène ?
En fait, Cléopâtre et Messaline incarnent la peur de la société phallocratique romaine face à l’hypersexualité féminine, vue comme une monstruosité. L’idéal pour les Romains est qu’une femme ne connaisse qu’un seul homme à la fois : son époux. Dite univira en latin, elle est considérée comme l’épouse parfaite.
La fidélité, une qualité féminine
Dans l’Antiquité gréco-romaine, la fidélité sexuelle ou amoureuse est uniquement conçue comme une qualité féminine. Le héros grec Ulysse nous en offre un bel exemple dans l’Odyssée, d’Homère : au cours de son périple en Méditerranée, il a des relations avec plusieurs amantes, comme Circé ou Calypso, tandis que son épouse Pénélope l’attend sagement dans sa demeure d’Ithaque où elle repousse scrupuleusement tous ses prétendants.
La fidélité conjugale s’inscrit logiquement dans le prolongement de la virginité antérieure au mariage, autre qualité vue comme exclusivement féminine. Les femmes ne sont pas réputées maîtresses de leur corps qui ne leur appartient pas.
À l’inverse, le fiancé puis l’époux peut avoir toutes les relations sexuelles qu’il souhaite avec des personnes, hommes ou femmes, étrangers ou de statut inférieur : prostitués des deux sexes, esclaves, filles ou garçons non citoyens. Les sociétés grecque et romaine sont fondamentalement inégalitaires dans le sens où la loi n’est pas la même pour toutes et tous. Elles reposent sur trois oppositions fondamentales : hommes/femmes, citoyens/étrangers, maîtres/esclaves.
Une pornographie pour rire… en rappelant la morale dominante
Des fresques romaines représentant des relations sexuelles à plusieurs ont été découvertes à Pompéi. Elles ont été réalisées, au Ier siècle de notre ère, dans un but à la fois humoristique et moral : faire rire le spectateur et délivrer un message moral.
Cet humour sexuel exprime la morale du moment, comme le suggère une scène de triolisme visible dans les vestiaires des thermes suburbains de Pompéi. On voit un homme sodomisé par un autre homme, alors qu’il est lui-même en train de pénétrer une femme à quatre pattes devant lui.
On peut rapprocher cette peinture d’une histoire d’adultère racontée par le romancier antique Apulée. Le mari, de retour chez lui à l’improviste, surprend sa femme avec un jeune amant. Non sans ironie, il dit renoncer à intenter un procès pour adultère, car il partage les mêmes goûts que sa femme. Il préfère donc leur imposer une réconciliation « à trois dans un seul lit » (Apulée, Métamorphoses, IX, 27).
Une autre scène montre cette fois quatre partenaires : l’homme à gauche pénètre l’homme à sa droite, qui reçoit une fellation de la femme, qui à son tour reçoit un cunnilingus de la femme la plus à droite. L’homme qui se trouve tout à fait à gauche se trouve en position dominante, car il n’agit que pour son propre plaisir. Il adresse au spectateur un geste de la main droite, proclamant la jouissance qu’il ressent. C’est lui le vainqueur de la scène qui se présente comme une sorte de bataille entre quatre partenaires, dont trois sont soumis.
Ainsi, les peintures pornographiques romaines vantent la satisfaction sexuelle, vue comme légitime, d’individus dominants. Elles ont aussi pour but de faire rire ces mêmes hommes dominants, toujours par rapport aux attendus et préjugés de leur morale sexuelle phallocratique.
Rencontrer le divin : la partouze mystique
Les partouzes antiques peuvent aussi s’inscrire dans un contexte religieux. Selon l’historien latin Tite-Live, les adeptes du dieu Bacchus, se livraient à toutes sortes d’unions charnelles au cours de cérémonies nocturnes, à la fois sexuelles et mystiques, nommées Bacchanales.
« Le vin, la nuit, le mélange des sexes et des âges eurent bientôt éteint tout sentiment de pudeur, et l’on se livra à des vices de toute nature, chacun trouvant à satisfaire sa passion favorite » (Tite-Live, Histoire romaine, XXXIX, 8-19).
Ces antiques bacchanales seraient-elles les ancêtres des soirées libertines aujourd’hui en vogue dans certaines capitales occidentales ?
Christian-Georges Schwentzel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
05.01.2026 à 14:06
Pourquoi les fonds verts peinent à convaincre malgré une épargne record
Texte intégral (1285 mots)

Alors que l’épargne des Françaises et des Français atteint 6,4 milliards d’euros au premier semestre 2025, elle n’est que peu dirigée vers la finance verte. Une étude, menée auprès de 2 215 investisseurs français âgés d’au moins 25 ans, cherche à comprendre les freins à l’investissement vert chez les ménages.
L’épargne des ménages français a atteint un niveau record au premier semestre de 2025, s’élevant à 6,4 milliards d’euros. Elle constitue un taux d’épargne de 18,9 % du revenu disponible. Un niveau si élevé qu’il attire désormais l’attention de l’État sur le financement de l’économie réelle.
Parallèlement, le vendredi 21 novembre 2025 a marqué la clôture de la COP30, où ont eu lieu des discussions rappelant l’ampleur des besoins de financement verts pour réussir la transition écologique. Les pays développés sont appelés à fournir au moins 1,1 milliard d’euros par an aux pays en développement d’ici 2035. « La finance est le levier d’accélération majeur », a rappelé le secrétaire exécutif d’ONU Climat, Simon Stiell, lors du Leaders’Summit au Brésil.
Malgré ce double constat d’abondance d’épargne des ménages et de besoin de financement des projets de transition écologique, l’investissement vert demeure une pratique marginale chez les ménages. Notre étude cherche à en comprendre les raisons.
Manque de transparence sur les fonds verts
Le manque de transparence sur l’impact écologique des fonds verts peut créer une ambiguïté chez les investisseurs particuliers quant à leur efficacité réelle à protéger l’environnement.
Un exemple emblématique est celui de DWS, filiale de Deutsche Bank, impliquée dans un scandale de dénomination environnementale trompeuse, après avoir exagéré les engagements verts de plusieurs de ses fonds. L’affaire s’est soldée par une amende de 25 millions d’euros infligée par la justice allemande en avril 2025.
Promesses écologiques non crédibles
Dans notre étude, nous avons mené une recherche auprès de 2 215 investisseurs français âgés d’au moins 25 ans, entre décembre 2021 et janvier 2022, via Panelabs.
L’échantillon est composé d’investisseurs âgés en moyenne de 47 ans, comprenant 47,3 % de femmes, disposant d’un revenu mensuel net moyen de 3 659 €, et ayant en moyenne un niveau d’éducation équivalent à bac+2. Afin d’évaluer leurs doutes sur l’efficacité réelle des fonds verts, nous leur avons posé la question suivante : « Les fonds verts sont un stratagème marketing pour vendre plus de fonds ». Les réponses étaient notées sur une échelle de 1 à 7, de « pas du tout d’accord » à « tout à fait d’accord ».
Les résultats sont clairs. Plus un investisseur estime que les fonds verts relèvent de promesses écologiques non crédibles, moins il est enclin à y investir. Concrètement, chaque point de hausse sur l’échelle de doute réduit la probabilité d’investir dans un fonds vert de 1,68 point de pourcentage. Mais ce n’est pas tout. Les investisseurs les plus méfiants allouent également des montants plus faibles à ces fonds.
Les jeunes plus sensibles à l’épargne verte
Ce frein n’impacte pas tous les investisseurs de la même manière. Deux profils s’avèrent moins sensibles à ces doutes : les plus jeunes, et ceux ayant un niveau d’éducation élevé. Ces derniers affichant des préférences environnementales très fortes ont tendance à accepter les fonds verts, sans trop les remettre en question, pour rester en accord avec leurs convictions écologiques. Ce phénomène s’explique notamment par la volonté d’éviter une dissonance cognitive entre leurs valeurs et leurs décisions financières.
Notre étude montre que ce frein affecte aussi bien les investisseurs conventionnels (qui n’ont jamais investi dans un fonds vert) que les investisseurs verts (ayant placé au moins 500 € dans un fonds vert). Chez les premiers, elle décourage l’intention d’investir dans des fonds verts. Chez les seconds, elle freine leurs investissements futurs.
Biais de négativité
L’effet dissuasif de la ruse marketing sur l’investissement vert peut s’expliquer à la lumière d’un mécanisme bien connu en psychologie comportementale : le biais de négativité. Ce phénomène décrit la tendance des individus à réagir plus fortement aux signaux négatifs qu’aux signaux positifs.
Nous constatons que les perceptions très négatives de la stratégie de communication verte réduisent significativement la probabilité d’investir. À l’inverse, une certaine confiance dans la communication environnementale ne suffit pas à stimuler l’investissement. Le doute pèse clairement plus lourd que la confiance.
Pourquoi cette asymétrie ? Parce qu’une perception négative de la stratégie marketing active deux leviers puissants. Elle déclenche des émotions négatives qui prennent souvent le dessus sur les raisonnements rationnels dans la prise de décision. En parallèle, ces émotions accentuent la perception du risque financier associé aux fonds verts, ce qui les rend moins attractifs aux yeux des investisseurs.
Renforcer la cohérence entre discours et réalité
Ces résultats appellent les décideurs publics et les acteurs financiers à recentrer leurs efforts sur le contrôle de la véracité de la communication des fonds verts. Tant que les inquiétudes des investisseurs individuels vis-à-vis du marketing des fonds verts ne sont pas levées, les politiques incitatives risquent de ne pas atteindre leur cible.
Ce constat fait écho aux évolutions récentes du cadre réglementaire européen. Ces dernières visent à réduire l’écart entre les promesses associées aux fonds verts et les projets réels dans lesquels ils investissent. Dans ce contexte, la mise en place de réglementations ciblées prend tout son sens. Des dispositifs comme le règlement SFDR ou la taxonomie verte visent à renforcer la transparence et à restaurer la confiance dans la finance verte, condition indispensable pour mobiliser l’investissement des citoyens au service de la transition écologique.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
05.01.2026 à 14:06
Société à mission et « B Corp » : quelles conditions de succès ?
Texte intégral (1824 mots)

Pourquoi une entreprise devient-elle société à mission et labellisée « B Corp » ? Quelles sont les conséquences concrètes de l’adoption de ces formes juridiques ? Explications avec les témoignages de managers et d’actionnaires pour ces entreprises hybrides.
En 2024, 1 961 entreprises françaises ont la qualité juridique « société à mission », 600 sont labellisées « B CorpTM » et 160 sont à la fois « B Corp » et société à mission selon le baromètre des sociétés à mission.
Après la loi Pacte (2019) et la pandémie de Covid-19 (2020), nous avons mené des recherches sur les imbrications concrètes de ces deux nouvelles normes pour ces entreprises hybrides. Dans le prolongement de ces travaux, nous avons mené des entretiens auprès de managers et actionnaires d’entreprises labellisées « B Corp » et dotées de la qualité de société à mission.
Alors quels sont leurs facteurs critiques d’échec ou de succès ? Quelles sont les singularités de ces deux modèles ?
Différences entre « B Corp » et société à mission
Depuis 2010, « B Corp » est une certification internationale accordée aux entreprises qui répondent à des standards élevés en matière de performance durable. Tous les trois ans, l’entreprise doit se conformer au B Impact Assessment, un questionnaire de deux cents critères environnementaux ou sociaux. La note minimum ? 80 sur 200. Ce système de notation devrait laisser place à des seuils minimums au sein de sept thématiques d’impact comme l’action climatique ou les droits humains.
À l’international, 10 000 entreprises sont labellisées « B Corp » dans environ 100 pays.
La société à mission est un statut juridique introduit en France par la loi Pacte de 2019. Pour ce faire, l’entreprise doit définir une raison d’être, fixer des objectifs sociaux et environnementaux précis, mettre en place un comité de mission et nommer un organisme tiers indépendant (OTI), un auditeur qui certifie que l’entreprise respecte bien ses engagements.
En Europe, l’Italie a introduit en 2015 le statut de società benefit, très proche du modèle des États-Unis de benefit corporation. Le pays transalpin compte 5 161 entreprises au 30 juin 2025. De même, l’Espagne introduit en 2022 le sociedad de beneficio e interés común.
Motivations stratégiques pour incarner les valeurs de l’entreprise
Des chercheurs espagnols ont mis en évidence les principales motivations à l’adoption du label « B Corp » : incarner les valeurs intrinsèques à l’entreprise, adopter une stratégie de différenciation ou attirer de nouveaux salariés.
En parallèle, selon notre étude, la qualité de société à mission est complémentaire au label « B Corp». Elle convient aux dirigeants et aux actionnaires souhaitant ancrer leur raison d’être dans leur gouvernance – conseil d’administration et comité exécutif –, et permet d’envoyer un message fort d’engagement à l’ensemble des parties prenantes – salariés, actionnaires, clients, État, etc.
« Le passage en société à mission est l’occasion de formaliser les choses, de les ancrer dans le marbre ; c’est un peu le discours par la preuve », rappelle un des managers interviewés.
Dans les deux cas, le choix s’explique essentiellement par la volonté d’assurer la cohérence entre les valeurs et l’activité de l’entreprise. Pour ses dirigeants, renforcer la crédibilité et la pérennité de l’organisation.
La différence stratégique entre l’adoption du label « B Corp » et de la qualité juridique de société à mission ? Si les parties prenantes internes, comme les salariés, soutiennent majoritairement la transformation de l’entreprise en société à mission, en y ayant été associées, les parties prenantes externes, comme les clients ou les fournisseurs, sont séduits par le label B Corp reconnu à l’international, avec un audit standardisé.
Réticences administratives et financières
Les processus de certification du label B Corp, ou l’évaluation de la qualité de sociétés à mission, sont souvent décrits comme chronophages et complexes, en particulier pour les petites structures. « Nous devons investir un temps considérable dans la collecte de données et la formalisation des politiques internes », souligne un manager.
À lire aussi : Abandon du Nutri-Score de Danone : retrait de sa qualité de société à mission ?
Financièrement, la certification « B Corp » implique des frais d’inscription et de vérification. Ils se chiffrent à 11 000 euros la première année pour une entreprise française ayant entre 10 millions et 15 millions d’euros de chiffre d’affaires. Les coûts de vérification additionnels, comme un accompagnement externe ou les modifications statutaires par des juristes, peuvent atteindre 50 000 euros la première année, avec un coût inférieur les années suivantes.
Les audits de la société à mission représentent également un coût, pouvant varier de 3 000 à 15 000 euros pour une petite et moyenne entreprise (PME) ou une entreprise de taille intermédiaire (ETI). C’est la raison pour laquelle le groupe Léa Nature a abandonné la qualité juridique de société à mission :
« La démultiplication des audits aux coûts conséquents tant financiers qu’en temps humains comptait parmi les facteurs justifiant son renoncement à la qualité de société à mission. »
D’autres chercheurs ont mis en évidence la difficulté des entreprises dont le modèle économique est moins facilement orientable vers des activités sociales ou environnementales. Ce phénomène favorise les entreprises mission native, qui obtiennent la reconnaissance de société à mission ou de B Corp dès leur naissance. Les très petites entreprises dans le secteur des services caractéristiques de ces entreprises mission native. Elles représentent la majorité des sociétés à mission en France.
Réseauter, attirer des investisseurs et améliorer ses pratiques
Un bénéfice de l’adoption de cette démarche responsable : attirer de nouveaux investisseurs soucieux de la responsabilité sociale et environnementale. C’est ainsi que la Camif, une des premières sociétés à mission en France en 2017, aurait attiré l’attention du groupe mutualiste Maif.
Plusieurs interviewés soulignent les opportunités d’échange dues à l’appartenance à une communauté de société à mission ou « B Corp ». « Entre entreprises engagées, nous sommes invités à des événements, ça permet de réseauter », s’enthousiasme une personne interviewée.
« Ce que les fournisseurs aiment avec nous, c’est notre capacité à engager tout un écosystème pour les aider eux aussi à lever la tête du guidon, en revoyant leur modèle de production. »
L’adoption de ces cadres normatifs renforce également la relation avec l’ensemble des parties prenantes, tant externe qu’interne.
« La société à mission nous a permis d’impliquer les salariés dans cette démarche […] Nos chefs de produit recréent concrètement des filières. Ce sont eux qui participent à cette transformation accélérée de l’entreprise », témoigne une personne interviewée
Rôle moteur des dirigeants et adhésion des salariés
Au-delà des ressources financières et humaines adéquates pour obtenir les certifications, d’autres facteurs critiques ont émergé. Le rôle moteur des dirigeants est considéré comme déterminant, surtout s’ils sont aussi les principaux actionnaires. « Les cofondateurs ont porté cette initiative au départ », rappelle une personne interviewée.
« Au début, le président-directeur général lui-même s’occupait des missions ESG, c’est lui qui a instigué le processus de certification “B Corp” », témoigne une personne interviewée.
Une fois la décision prise d’adopter un tel cadre normatif, l’adhésion du personnel est un facteur critique de succès. « Beaucoup d’impacts dépendent de l’émulation interne, de la fierté de la part des employés qui consacrent du temps et qui contribuent à ce projet. »
Adopter la certification « B Corp » ou devenir une société à mission s’inscrit dans un engagement de long terme. Elle implique une reconsidération de la gouvernance et de la stratégie à la lumière de la mission. Les effets positifs de celle-ci s’obtiennent quand elle est impulsée par le management et les actionnaires, déclinée dans la stratégie et la conduite opérationnelle de la société et partagée par le personnel.
Cet article a été co-rédigé avec Cécilia Harder, master in management, ESCP Business School.
Enrico Colla ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
05.01.2026 à 14:06
Quand la tragédie grecque éclaire les crises : que nous apprend le braquage du Louvre ?
Texte intégral (1230 mots)
Le vol du Louvre a eu un retentissement mondial. Les failles de sécurité et autres mesures de mauvais management ont été décortiquées et révélées. Mais une autre approche est possible, inspirée de la tragédie grecque. Et si ce vol était l’expression d’une fatalité.
Le 19 octobre 2025, le Musée du Louvre a été frappé par un braquage spectaculaire, mettant en lumière la vulnérabilité même des institutions réputées être les mieux protégées. Au-delà du vol, cet événement invite à réfléchir sur la manière dont les organisations gèrent l’imprévisibilité, à la lumière des leçons des tragédies grecques.
Le cambriolage du Louvre a eu un retentissement mondial, à la hauteur de la réputation de ce lieu. En quelques minutes, des bijoux historiques ont été volés. Une part du prestige du Louvre a aussi disparu à cette occasion.
Si cet événement a d’abord été présenté comme le résultat d’une défaillance sécuritaire, il révèle aussi la vulnérabilité humaine et l’illusion de la maîtrise. Et si ce braquage n’était pas seulement un incident technique, mais une tragédie au sens grec ? C’est ce que se propose d’éclairer cet article.
À lire aussi : Crise en Grèce : une tragédie qui finit bien ?
Coupable aveuglement ?
Comme les héros antiques, les institutions se heurtent parfois à leurs propres limites. Cette lecture de la crise à la lumière de la tragédie de grands dramaturges grecs (Eschyle, Sophocle, Euripide) nous invite à voir la crise non pas seulement comme le résultat d’une erreur, voire d’une faute, mais aussi comme une occasion de lucidité, voire de résilience.
Dans les tragédies antiques, le héros ne chute pas toujours par faiblesse, mais aussi par aveuglement. C’est en tentant de fuir la prophétie de l’oracle de Delphes, qu’Œdipe la réalise. Dès lors, son erreur n’est tant pas morale qu’existentielle. Refusant de reconnaître sa vulnérabilité, il interprète mal les avertissements qui lui sont envoyés. Au Louvre, un scénario de ce type s’est déroulé. Des alertes sur des failles de sécurité, même faibles, avaient été signalées depuis plusieurs années (le Figaro, 2025), mais n’ont pas été prises en compte.
La leçon donnée par la tragédie grecque dans ce contexte est d’apprendre à être lucide. Cela signifie savoir écouter les signaux d’alerte, qu’ils soient faibles ou évidents. Se préparer à une crise, c’est avant tout savoir reconnaître les avertissements et anticiper les vulnérabilités. Une fois cette disposition d’esprit adoptée, il devient possible de bien se préparer.
Penser l’imprévisible
L’approche par la tragédie invite à penser l’imprévisible. Comme les héros grecs, les personnes responsables de la sécurité dans le cas du braquage du Louvre, agissent au quotidien selon des routines et protocoles de pointe pour prévenir le vol. Pourtant, c’est arrivé. Rien ne le rendait certain, mais rien ne prévoyait qu’il ne surviendrait pas. La tragédie grecque nous enseigne que l’imprévisibilité ne vient pas toujours d’une faute, mais plutôt d’un écart irréductible entre ce que l’on prévoit et ce que le réel produit. Œdipe, en fuyant Corinthe, croit préserver ses parents. Toutefois, c’est précisément ce mouvement qui a accompli la prophétie.
La tragédie grecque nous invite ainsi à distinguer responsabilité et maîtrise absolue. Accepter l’imprévisible ne signifie pas considérer le braquage comme inévitable mais reconnaître l’idée que nul dispositif humain n’est infaillible. Le théâtre grec, nous fait prendre conscience de nos limites humaines tout en cherchant à anticiper les dangers. Il nous ouvre les yeux sur le risque et l’inscrit dans une conscience plus juste de la vulnérabilité humaine.
Le tragique et la pédagogie du dilemme
Le braquage du Louvre pose une question universelle : faut-il ouvrir largement les portes au public ou renforcer la sécurité au risque de dénaturer l’expérience culturelle ? La perspective tragique rappelle que toute décision comporte une perte. Œdipe en fuyant Corinthe pour sauver ses parents, sacrifie son statut royal pour devenir un « métèque » (au sens grec) à Thèbes. Se préparer à gérer une crise, c’est donc apprendre aux managers à faire des choix difficiles, accepter qu’une décision « moins mauvaise » soit parfois le seul possible et privilégier une éthique de la prudence. Elle invite a agir avec discernement et à réduire les risques sans viser une perfection illusoire.
Ainsi, la tragédie grecque, nous invite à former le dirigeant à faire des choix satisfaisant et réaliste et non des choix parfaits.
Après la crise : la sagesse tragique
Pour les Grecs, la tragédie était un rituel collectif de catharsis. Elle purifiait les émotions et permettait de réfléchir aux peurs et fautes de la cité (Aristote, La Poétique, IV.6, trad. 1997). De même, capitaliser sur une crise peut devenir une ressource pour les institutions culturelles. Il ne s’agit pas d’effacer le chaos, mais de le transformer en savoir partagé.
Plutôt que de clore l’affaire du Louvre dans une logique de blâme, la crise peut être une mise en récit – enquêtes, témoignages, débats internes, restitutions publiques – pour en tirer une leçon commune. Elle nous invite à la question suivante : comment réagirons-nous la prochaine fois, sachant qu’aucune institution culturelle n’est à l’abri de l’imprévisible ?
Ainsi, la tragédie devient un outil de résilience organisationnelle : non par l’oubli du drame, mais par l’intégration lucide de ses leçons, rappelant que la vraie maîtrise consiste moins à prévenir toutes les chutes qu’à apprendre à se relever ensemble.
Mary-Lieta Clement ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
05.01.2026 à 14:06
Tu prends ton après-midi ? Pourquoi le présentéisme nuit aux entreprises
Texte intégral (1593 mots)

« Tu prends ton après-midi ? » Si vous avez déjà entendu cet humour douteux, c’est que vous connaissez la notion de présentéisme, soit le fait d’être assidûment présent au travail sans raison impérieuse. Du zèle sans contrepartie. Comment prend-il forme ? Quelles sont ses conséquences pour les entreprises ? et pour l’ensemble du personnel ?
La dernière enquête sur le présentéisme réalisée par la Direction de l’animation de la recherche, des études et des statistiques (Dares, ministère du travail et des solidarités) remonte à 2016.
Elle ne porte que sur l’un de ses aspects : le présentéisme en situation de maladie. Concrètement, des salariés viennent travailler bien qu’ils soient malades, qu’ils possèdent ou non un certificat médical d’arrêt de travail.
Quelles sont les autres formes de présentéisme ? Que disent-elles de notre rapport au travail aujourd’hui ? J’ai exploré ces questions dans des travaux récents sur le management et les fondements philosophiques de la pensée managériale.
Arriver plus tôt, malade ou ne pas partir en vacances
Phénomène inverse de l’absentéisme, le présentéisme en cas de maladie n’est pas déclaré. Il n’est donc mesuré ni par les employeurs ni par la Sécurité sociale ou les mutuelles. Malgré cette difficulté, la DARES estime que, pour la période 2013-2016, les salariés français ont été malades en moyenne onze jours par an, mais que ceux-ci n’ont donné lieu qu’à huit jours d’absence au travail.
La différence implique que les salariés sont allés travailler trois jours par an en moyenne tout en étant malades. En d’autres termes, plus d’un jour de maladie sur quatre (27 %) a donné lieu à du présentéisme. À l’échelle européenne, plus de 60 % des employés déclarent avoir déjà travaillé alors qu’ils ne se sentaient pas bien.
Un autre cas fréquent de présentéisme est celui des employés qui arrivent à leur poste avant la plupart de leurs collègues. Ils restent également presque tous les jours au travail bien au-delà des horaires habituels, sans que cette présence ne puisse se justifier par une tâche particulière à rendre avant une date butoir.
À lire aussi : Congés payés : la France doit se mettre en règle avec l’UE, quelle conséquences pour les salariés ?
Une autre forme de présentéisme consiste à ne pas prendre en totalité ses jours de congés, ou de chercher à les reporter le plus longtemps possible, quitte à les perdre définitivement sans compensation.
Surcoûts et sous-performance
Malgré l’absence de données récentes en France, les études réalisées aux États-Unis font clairement ressortir que le présentéisme est une source de surcoûts ou au moins de sous-performance pour l’employeur.
En effet, le phénomène entraîne une diminution de la productivité. Les employés faisant du présentéisme sont plus fatigués et font plus d’erreurs que les autres. Ils souffrent souvent de troubles du sommeil.
Les raisons poussant les employés à faire du présentéisme sont multiples. Les normes culturelles peuvent l’expliquer, comme au Japon, rester très tard au bureau va de soi. La culture de l’organisation rentre en compte dans cette équation, surtout si les responsables hiérarchiques sont eux-mêmes adeptes des horaires à rallonge.
« Tu prends ton après-midi ? »
Le présentéisme peut également s’expliquer par des facteurs personnels. Par exemple, se savoir désorganisé et peu productif justifie pour certains la nécessité de faire des heures supplémentaires non rémunérées pour compenser.
Il existe aussi des salariés qui s’identifient tellement à leur emploi qu’y passer presque toutes leurs journées devient chez eux une sorte de seconde nature. Ce phénomène est aussi appelé « workaholism ».
Le contexte français est paradoxal. Alors que les 35 heures hebdomadaires s’imposent normalement à tous, de nombreux salariés, essentiellement les cadres, les dépassent systématiquement. Même lorsqu’un accord d’entreprise permet de transformer (au moins en partie) les dépassements d’horaires en jours de congés, une règle informelle courante veut que ceux voulant paraître comme des « jeunes cadres dynamiques » ne les prennent qu’exceptionnellement.
Une plaisanterie commune dans ce contexte est de demander à un collègue partant vers 17 heures : « Tu prends ton après-midi ? »
Sentiment d’insécurité diffus
Cette observation ne s’applique pas qu’au secteur privé.
Alors que la fonction publique est connue pour ses difficultés à respecter les 35 heures (car la loi implique le plus souvent un allongement du temps de travail des agents), les hauts fonctionnaires de certains ministères sont contraints à ce qui est pudiquement appelé des « semaines longues » (en clair, des horaires interminables) s’ils veulent progresser dans leur administration.
À lire aussi : Quand le cynisme mine l’engagement dans la fonction publique…
Bien que toutes ces explications ne soient pas à négliger, elles ne sont pertinentes que pour des organisations ou des (catégories de) salariés particuliers. D’une manière générale, les enquêtes montrent que le présentéisme est corrélé à un sentiment d’insécurité diffus et à une qualité de vie au travail dégradée.
Il est également associé à une absence d’autonomie et à une latitude décisionnelle réduite. Le présentéisme est une forme de stress : la plupart des salariés ne le font pas par choix. Ils ne veulent pas perdre leur emploi (ou veulent progresser dans leur entreprise) et cherchent à tout prix à être perçus comme motivés, diligents et ambitieux, voire indispensables.
Être reconnu à sa juste valeur
Comme mes recherches l’ont montré, ces salariés dont le travail est reconnu ou dont le poste est valorisé dans leur entreprise, n’hésitent pas à s’absenter quand ils le doivent ou à partir tôt quand ils le peuvent.
Bien que les salariés présentéistes aient tendance à avoir une opinion négative de leur travail, ils restent dans l’ensemble prêts à s’investir professionnellement. Cependant, et ceci est le point crucial, ils ne contrôlent pas les horaires qui sont associés à leur poste. Ils craignent ne de pas voir leur contribution reconnue à sa juste valeur s’ils ne sont pas physiquement présents le plus longtemps possible, sans autre raison que de montrer qu’ils existent.
La traduction de cette conclusion en recommandations pour les décideurs voulant diminuer le présentéisme dans leur entreprise est directe : accordez de l’autonomie à vos collaborateurs et faites-leur comprendre que tant que le travail est fait à temps, ils sont libres de le faire quand ils veulent.
Jean-Etienne Joullié est membre de Copenhagen Business School
05.01.2026 à 13:53
La fin du secret sur les salaires, un choc culturel pour les entreprises françaises
Texte intégral (1971 mots)
La directive européenne qui oblige de nombreuses entreprises à faire la transparence sur les salaires sera un vrai défi pour les directions de ressources humaines et les managers. Car, si des écarts de salaire peuvent se justifier, il faut savoir les expliquer, ce qui n’est pas toujours facile quand l’argent reste tabou. Quant aux salariés, comment réagiront-ils quand ils découvriront qu’ils sont plus ou moins bien payés que leurs collègues à poste équivalent ? C’est un grand chambardement qui attend les entreprises.
D’ici au 7 juin 2026, les entreprises françaises de plus de 100 salariés devront se conformer à la directive européenne du 10 mai 2023 sur la transparence salariale. Cette obligation, qui impose notamment de mesurer et de publier les écarts de rémunération, d’indiquer les salaires dans les offres d’emploi et d’expliquer les logiques salariales internes, constitue l’un des changements les plus structurants pour les directions des ressources humaines depuis les lois sur le reporting social et environnemental.
Dès lors, on peut se demander comment la transparence salariale va transformer les pratiques de rémunération, l’équité interne et le contrat social dans les entreprises françaises. Sous quelles conditions peut-elle devenir un levier de performance ?
La fin de l’opacité salariale
L’arrivée de cette directive apporte une rupture majeure : la fin de l’opacité salariale comme mode de gestion par défaut. Les entreprises devront désormais répondre à des questions qu’elles pouvaient jusque-là éviter : pourquoi deux salariés occupant des postes similaires ne gagnent-ils pas la même chose ? Quelle place donne-t-on à l’expérience, à l’expertise, à la performance ou à la rareté d’un profil ? La politique de rémunération est-elle cohérente avec les valeurs affichées par l’entreprise ?
À lire aussi : Votre salaire est-il décent ?
Une enquête récente de l’Association pour l’emploi des cadres (Apec) montre que ce besoin d’explication est déjà très présent. La moitié des cadres jugent insuffisante la communication de leur entreprise sur les logiques salariales et 46 % d’entre eux jugent la politique de rémunération de leur entreprise opaque (voir ci-dessous). La directive va obliger désormais à rendre explicite ce qui relevait souvent du non-dit voire du tabou.
Une politique de rémunération jugée plus opaque en France
Source : Apec (2025, page 5).
Triple révolution pour les DRH
Car la transparence salariale ne constitue pas uniquement une transformation juridique. Pour les directions des ressources humaines, elle impose une triple évolution.
La première consiste à clarifier la structure salariale. Dans beaucoup d’entreprises, les écarts actuels sont le résultat d’histoires individuelles, de recrutements opportunistes ou de négociations ponctuelles. La directive impose de passer d’une somme de cas particuliers à une architecture salariale claire et cohérente : familles de métiers, niveaux de responsabilité, critères d’évolution. Or, selon l’APEC, 66 % des entreprises n’offrent pas de grille salariale accessible en interne, ce qui montre l’ampleur du travail à mener. Cette structuration constitue un travail lourd, parfois très politique, mais nécessaire.
La deuxième évolution est narrative. Les DRH devront apprendre à dire ce qui, jusqu’ici, restait implicite. Il ne suffit pas de publier des chiffres ou des fourchettes. Il faut être capable de rendre compréhensible la logique des rémunérations. Pourquoi un ingénieur en cybersécurité est-il payé davantage qu’un chef de projet ? Pourquoi deux salariés d’une même équipe ne gagnent-ils pas la même chose ? La pédagogie devient un élément central de la gestion de la rémunération. Sans cette pédagogie, prévient l’Apec, la transparence risque d’alimenter la comparaison sociale et nourrir les frustrations.
La troisième évolution est managériale. Dans beaucoup d’organisations, les managers sont mal à l’aise lorsqu’il s’agit de parler rémunération. Par crainte d’ouvrir des demandes, par manque d’informations ou simplement parce que le sujet reste tabou. La transparence obligera à revoir cette posture. Les managers devront être formés à expliquer les critères, à répondre aux questions, à gérer les émotions liées à la comparaison et aux perceptions d’injustice. Une politique salariale juste mal expliquée peut devenir injuste dans la perception des salariés.
Des risques invisibles
Bien entendu, la transparence comporte des risques. Elle peut révéler des écarts historiques difficiles à justifier, générer des demandes de révision en cascade ou fragiliser des équipes si certains « talents » découvrent qu’ils sont moins bien rémunérés que des pairs. Elle peut également exposer l’entreprise à des contentieux si les écarts ne peuvent pas être expliqués de manière satisfaisante. L’étude de l’Apec rappelle d’ailleurs que près d’une entreprise sur deux anticipe une augmentation des tensions sociales si la transparence est mal pilotée.
La transparence ne créera pas les problèmes : elle va les mettre en lumière. Cependant, l’absence de préparation peut transformer un révélateur en déflagration sociale, d’où l’importance d’anticiper, de documenter et d’expliquer les écarts avant de rendre les données publiques, mais aussi de former les managers et de structurer un dialogue social capable d’accompagner cette transition sensible.
Transparence dans le recrutement
À ces risques s’en ajoute un autre, introduit par la directive européenne : l’obligation d’indiquer les salaires ou les fourchettes de rémunération dans les annonces d’emploi. Cette transparence sur les salaires d’embauche, pensée comme un outil de réduction des inégalités, comporte des effets ambigus. Elle peut rigidifier les pratiques de recrutement en limitant la capacité à ajuster la rémunération à la rareté d’un profil ou à l’expérience d’un candidat.
Elle peut aussi générer des tensions internes lorsque les salariés en poste découvrent que les nouveaux entrants bénéficient de niveaux de rémunération supérieurs, un phénomène déjà observé dans les secteurs en tension. Les résultats de l’Apec confirment ce risque : 36 % des cadres disent avoir déjà découvert que de nouveaux recrutés étaient mieux rémunérés qu’eux, ce qui alimente un sentiment d’injustice.
Enfin, elle peut alimenter des dynamiques de marché inattendues : inflation salariale dans certains métiers rares ou, au contraire, alignement vers le bas si les entreprises cherchent à limiter les attentes des candidats. Là encore, l’enjeu n’est pas tant la transparence que la capacité à la contextualiser et à la gouverner.
Redynamiser la négociation collective
Ces difficultés ne doivent pourtant pas masquer l’un des effets potentiels les plus prometteurs de la directive, la relance de la négociation collective. En obligeant les entreprises à expliciter leurs critères de rémunération, à documenter leurs grilles et à justifier leurs écarts, la transparence crée un besoin nouveau de régulation. Branches professionnelles et entreprises devront élaborer des référentiels communs, clarifier les niveaux de classification et définir les logiques d’évolution.
La transparence pourrait ainsi contribuer à revitaliser la négociation collective, notamment dans les branches, longtemps affaiblie par la montée des négociations individuelles et l’opacité salariale. Le syndicat CFE-CGC, par exemple, compte bien s’emparer de cette directive pour renforcer son positionnement sur les questions de justice salariale et accompagner les cadres dans l’appropriation de ces nouvelles obligations.
Un révélateur d’équité
Les recherches récentes éclairent utilement cette transition. L’étude de Cédric Gutierrez, Tomasz Obloj et Todd Zenger montre que la transparence salariale ne provoque pas l’effondrement de la productivité que redoutent souvent les entreprises. En analysant plus de dix ans de données sur 20 000 universitaires américains, les auteurs démontrent que la publication des salaires n’a pas d’effet négatif global sur l’effort des salariés ; elle peut même légèrement l’accroître.
L’essentiel se joue ailleurs : la transparence agit comme un révélateur d’équité. Les individus qui découvrent être mieux rémunérés que ne le justifierait leur performance augmentent significativement leur effort pour « légitimer » leur position tandis que ceux qui se découvrent sous-payés réduisent modérément leur productivité (voire ci-dessous). Autrement dit, les salariés réagissent moins à l’inégalité brute qu’à l’injustice perçue.
Effet de l’iniquité sur la productivité
Source : Gutierrez et coll., 2025, page 1846.
Note : Les coefficients représentés correspondent aux années avant et après le choc de transparence, avec des intervalles de confiance à 95 %.
Et les salaires féminins ?
De leur côté, les économistes Klára Kantová et Michaela Hasíková montrent – à travers une méta-analyse combinant 268 estimations issues de 12 études menées dans plusieurs pays de l’Organisation de coopération et de développement économiques (OCDE) – que les lois de transparence salariale entraînent en moyenne une réduction modeste mais significative des différences de salaire entre les hommes et les femmes, de l’ordre de 1,2 % en faveur des femmes. Cet effet provient généralement d’une légère hausse des salaires féminins, mais aussi d’une compression salariale, c’est-à-dire d’un ralentissement de la progression salariale masculine.
L’analyse révèle toutefois que toutes les formes de transparence ne produisent pas les mêmes effets : les politiques les plus efficaces sont celles qui imposent une parution publique des données salariales, tandis que les dispositifs plus limités (simples obligations d’information interne ou mention d’une fourchette dans les offres d’emploi) ont des effets faibles, voire nuls. Au final, ces résultats offrent des repères importants pour concevoir des politiques réellement capables de corriger les inégalités salariales.
La transparence salariale n’est donc ni une panacée ni une menace : elle est un révélateur. Mal anticipée, elle expose brutalement les incohérences d’une politique salariale. Bien préparée, elle devient un levier de confiance, de cohérence et de performance.
La directive européenne offre une occasion rare : repenser la manière dont les entreprises articulent performance individuelle, justice perçue et reconnaissance. Encore faut-il accepter d’engager ce travail en profondeur – un travail qui, pour beaucoup d’entreprises, ne fait que commencer.
Patrice Laroche a reçu des financements de la CFE-CGC dans le cadre d'un projet de recherche consacré aux effets des disparités salariales sur la performance des organisations.
04.01.2026 à 23:36
Cinq scénarios pour le Venezuela post-Maduro
Texte intégral (2604 mots)
Le flou règne sur l’avenir du Venezuela après la capture de son président par les États-Unis. Plusieurs voies sont envisageables, du maintien en place du régime chaviste à une prise de contrôle du pouvoir par Washington.
L’opération militaire menée par les États-Unis à l’aube du 3 janvier, qui a permis de capturer Nicolas Maduro et son épouse puis de les emmener à New York, où ils ont été incarcérés, marque un tournant pour le continent américain. Après plusieurs mois de menaces d’intervention militaire et de renforcement constant des forces armées états-uniennes dans la région, ces dernières ont destitué un président étranger à l’issue d’une opération qui a duré un peu plus de deux heures.
Que ce soit sous le prétexte de la lutte contre le trafic de drogue ou au nom d’un changement de régime, le message est clair : les États-Unis sont prêts à agir de manière unilatérale, par la force et, au besoin, de façon illégale. Les répercussions seront vastes pour le Venezuela, bien sûr, mais aussi pour l’ensemble de l’Amérique latine.
Les réactions à l’intervention états-unienne ont été immédiates. La Colombie, qui a dépêché des troupes à sa frontière, se préparant à l’arrivée potentielle de réfugiés, a dénoncé les frappes comme un affront à la souveraineté des pays de la région. Cuba s’est joint à l’Iran, à la Russie et à d’autres adversaires de Washington pour condamner le raid devant les Nations unies. Quelques gouvernements, notamment celui de l’Argentine, ont en revanche apporté leur soutien sans réserve à cette opération.
Donald Trump a annoncé que les États-Unis allaient « diriger » le Venezuela jusqu’à ce qu’il y ait une « transition sûre, appropriée et judicieuse » du pouvoir, et assuré que son administration « n’avait pas peur d’envoyer des troupes au sol ».
Jusqu’à présent, peu de détails concrets sur la suite des événements ont été fournis. Beaucoup dépendra des prochaines actions de Washington et de la réaction de la classe politique vénézuélienne, qui est très divisée. En tant qu’expert des relations entre les États-Unis et l’Amérique latine, j’estime que cinq scénarios principaux sont plausibles.
1. Trump déclare avoir eu gain de cause et en reste là
Dans ce premier scénario, Trump proclame que la mission a été accomplie, présente la capture de Maduro comme un triomphe et réduit rapidement le rôle des États-Unis dans l’avenir immédiat du pays. Les institutions vénézuéliennes restent largement intactes. L’actuelle vice-présidente Delcy Rodriguez, le ministre de l’intérieur Diosdado Cabello et le ministre de la défense Vladimir Padrino Lopez dirigent un gouvernement reconstitué qui poursuit la ligne de gauche développée par feu Hugo Chavez, même si ce système est désormais privé de sa dernière figure de proue en la personne de Maduro.
Un tel développement conviendrait aux généraux états-uniens désireux de limiter les risques pour leurs troupes, ainsi qu’aux puissances étrangères soucieuses d’éviter un vide du pouvoir. A contrario, l’opposition vénézuélienne et les pays voisins qui ont subi des années d’afflux de réfugiés feraient la grimace.
Surtout, cela réduirait à néant l’influence sur le pays que Washington vient d’acquérir au prix de nombreux efforts. Après avoir pris la décision extraordinaire d’enlever un chef d’État, revenir en arrière et se contenter d’un léger remaniement du chavisme apparaîtrait comme une reculade contraire aux normes des interventions étrangères des États-Unis.
2. Un soulèvement populaire renverse le chavisme
Deuxième possibilité : le choc provoqué par la destitution de Maduro brise l’aura d’inévitabilité du gouvernement et déclenche un soulèvement populaire qui balaye le chavisme. Au vu de la vacance de la présidence et de l’affaiblissement des forces de sécurité, démoralisées ou divisées, une large coalition de partis d’opposition, de groupes de la société civile et de chavistes mécontents fait pression pour la mise en place d’un conseil de transition, peut-être sous l’égide de l’Organisation des États américains (OEA) ou des Nations unies.
Reste qu’une telle révolution, en particulier lorsqu’elle est soutenue par une ingérence extérieure, se déroule rarement sans heurts. Des années de répression politique, de crime organisé, de misère économique et d’émigration ont vidé la classe moyenne et les syndicats vénézuéliens de leur substance. Les colectivos armés – des groupes paramilitaires ayant un intérêt au maintien de l’ancien régime – opposeraient une résistance farouche. Il en résulterait peut-être non pas une avancée démocratique rapide mais une transition instable : un gouvernement provisoire fragile, des violences sporadiques et d’intenses luttes intestines sur les questions relatives aux amnisties et au contrôle du secteur pétrolier.
3. Les États-Unis installent à Caracas un pouvoir allié
Dans ce scénario, Washington tire parti de la nouvelle donne pour faire pression en faveur d’un changement complet de régime. Cela pourrait se traduire par un durcissement des sanctions à l’encontre des personnalités encore au pouvoir, par l’intensification des frappes contre les installations de sécurité et les milices, par un soutien secret aux factions insurgées et par l’utilisation du procès de Maduro comme d’une tribune mondiale pour délégitimer une fois pour toutes le chavisme.
Une personnalité reconnue en tant que leader de l’opposition serait portée au pouvoir à la suite d’une forme d’élection contrôlée, d’un conseil de transition ou d’une passation de pouvoir négociée – potentiellement, quelqu’un comme Maria Corina Machado, lauréate du prix Nobel de la paix 2025. Les États-Unis et leurs alliés proposeraient une restructuration de la dette et un financement de la reconstruction du pays en échange de réformes économiques libérales et d’un alignement géopolitique sur Washington.
Cette option est très risquée. Une transition ouvertement orchestrée par les États-Unis entacherait la légitimité du nouveau leadership vénézuélien, tant au niveau national qu’international. Elle aggraverait la polarisation du pays, renforcerait la dénonciation de l’impérialisme (ce qui est depuis longtemps un argument central du chavisme) et inciterait la Chine, Cuba, l’Iran et la Russie à s’ingérer également dans les affaires du pays. Un mouvement chaviste meurtri mais non brisé pourrait se transformer en résistance armée, faisant du Venezuela un nouveau théâtre d’insurrection de faible intensité.
4. Supervision par Washington et transition contrôlée
Une transition contrôlée : c’est l’option que Trump a ouvertement envisagée. Washington exercerait provisoirement sa tutelle sur le Venezuela. Les premières priorités seraient d’imposer une chaîne de commandement et de restaurer les capacités administratives du pays, de stabiliser la monnaie et le système de paiement, et de mettre en place des réformes progressives afin d’éviter l’effondrement de l’État pendant la transition.
Le calendrier politique serait alors une dimension essentielle. Washington exercerait une forte influence sur les dispositions provisoires en matière de gouvernance, les règles électorales et le calendrier des élections présidentielle et législatives, y compris la reconstitution des autorités électorales et la définition des conditions minimales pour la campagne électorale et l’accès aux médias. Les États-Unis n’auraient pas nécessairement besoin d’occuper le pays, mais ils pourraient avoir besoin de déployer des forces sur le terrain pour dissuader les fauteurs de troubles.
La logique économique de cette option reposerait sur le rétablissement rapide de la production pétrolière et des services de base grâce au soutien technique des États-Unis, à l’implication de leurs entreprises privées et à un allègement sélectif des sanctions. Des entreprises, telles que Chevron, la seule grande compagnie pétrolière états-unienne encore implantée au Venezuela, ou des prestataires de services pétroliers, comme Halliburton, seraient probablement les premiers bénéficiaires.
Là aussi, les risques sont considérables. Comme dans le cas précédent de l’arrivée au pouvoir d’une équipe ouvertement alignée sur Washington, une tutelle états-unienne pourrait attiser les sentiments nationalistes et valider le discours anti-impérialiste propre au chavisme. La menace implicite de l’utilisation de la force pourrait dissuader les groupes criminels, mais elle pourrait également approfondir le ressentiment et durcir la résistance des groupes armés, des partisans de Maduro ou de toute autre personne opposée à l’occupation.
5. Conflit hybride et instabilité contrôlée
Finalement, le plus probable est que tous les scénarios ci-dessus soient en quelque sorte mélangés : on assisterait alors à une lutte prolongée dans laquelle aucun acteur ne l’emporterait complètement. La destitution de Maduro pourrait affaiblir le chavisme, sans totalement détruire ses réseaux dans l’armée, l’administration et les quartiers défavorisés. L’opposition pourrait être revigorée mais demeurerait divisée. Sous Trump, les États-Unis seront puissants sur le plan militaire mais limités dans leur marge de manœuvre en raison de la lassitude de leur population à l’égard des guerres étrangères, de la perspective des élections de mi-mandat à venir et ees doutes quant à la légalité de leurs méthodes.
Dans ce cas de figure, le Venezuela pourrait sombrer dans plusieurs années d’instabilité contrôlée. Le pouvoir pourrait de facto être partagé entre une élite chaviste affaiblie, des figures de l’opposition cooptées dans le cadre d’un accord transitoire et des acteurs sécuritaires contrôlant des fiefs locaux. Les frappes sporadiques et les opérations secrètes des États-Unis pourraient se poursuivre en étant calibrées pour punir les fauteurs de troubles et protéger les partenaires privilégiés de Washington, sans aller jusqu’à une occupation de grande échelle.
Une doctrine Monroe 2.0 ?
Quel que soit l’avenir, ce qui semble clair pour l’instant, c’est que l’opération anti-Maduro peut être considérée, tant par ses partisans que par ses détracteurs, comme l’application d’une sorte de doctrine Monroe 2.0. Cette version, qui fait suite à la doctrine originale du XIXe siècle dans laquelle Washington mettait en garde les puissances européennes contre toute ingérence dans sa sphère d’influence, est une affirmation plus musclée selon laquelle les rivaux lointains des États-Unis et leurs clients locaux ne seront pas autorisés à avoir leur mot à dire sur le continent américain.
Ce message agressif ne se limite pas à Caracas. Cuba et le Nicaragua, déjà soumis à de lourdes sanctions états-uniennes et de plus en plus dépendants des soutiens russe et chinois, verront le raid vénézuélien comme un avertissement indiquant que même les gouvernements bien établis ne sont pas à l’abri si leur politique n’est pas suffisamment alignée sur celle de Trump. La Colombie, théoriquement alliée des États-Unis mais actuellement dirigée par un gouvernement de gauche qui a vivement critiqué la politique vénézuélienne de Washington, se retrouve prise en étau.
Les États petits et moyens, et pas seulement ceux d’Amérique latine, ne peuvent qu’être inquiets. Le Panama, dont le canal est essentiel au commerce mondial et à la mobilité navale des États-Unis, pourrait faire l’objet d’une pression renouvelée, Washington souhaitant pouvoir compter dans ce pays sur un pouvoir local qui sera proche de lui et qui bloquera les avancées chinoises dans les ports et les télécommunications. Le Canada et le Danemark auront également regardé cet épisode de très près, l’administration Trump ayant récemment rappelé avec force qu’elle convoite le Groenland.
Robert Muggah est cofondateur de l'Institut Igarapé, un groupe de réflexion brésilien indépendant qui bénéficie du soutien financier des gouvernements du Royaume-Uni, de la Banque interaméricaine de développement et de divers donateurs locaux au Brésil. Robert Muggah est également cofondateur de SecDev, un cabinet de conseil en cybersécurité et risques géopolitiques, et chercheur à l'université de Princeton. Il est aussi senior advisor au McKinsey Group. De plus amples informations sur ses affiliations sont disponibles sur les sites web des deux institutions.
04.01.2026 à 17:25
Pourquoi les politiques n’écoutent-ils pas les citoyens ordinaires ?
Texte intégral (2011 mots)
L'année 2025 a notamment été marquée par le débat sur la taxe Zucman, rejetée par les députés mais plébiscitée par une très large majorité de Français. Cette décision révèle, de façon spectaculaire, la déconnexion entre les décisions politiques et l’opinion des citoyens. Ce phénomène, étudié par la science politique, est au cœur de la crise démocratique. Comment y remédier ?
Les sondages sont sans appel : une large majorité de Français, 86 % selon une enquête Ifop, se déclare en faveur d’une taxation des plus riches. Pourtant, l’Assemblée nationale a rejeté en octobre la taxe Zucman : 228 députés ont voté contre l’amendement visant à taxer les patrimoines supérieurs à 100 millions d’euros, tandis que 172 députés ont voté pour. La déconnexion entre opinion publique et décision politique n’est pas nouvelle. D’autres exemples illustrent ce phénomène, comme la réforme des retraites, rejetée par une majorité de Français, ou l’interdiction de la corrida, soutenue par la population mais rejetée par les députés. Comment expliquer que des mesures massivement soutenue par la population puissent être rejetées par leurs représentants ?
Quand les politiques écoutent (ou pas) l’opinion publique
La connexion entre opinion publique et décision politique a fait l’objet de nombreux travaux en science politique. Ces recherches, qui étudient la capacité du système représentatif à répondre aux intérêts et préférences des citoyens, montrent que si l’opinion publique peut influencer les décisions politiques, ce n’est pas toujours le cas. Pour de nombreux enjeux, il existe une déconnexion entre la volonté populaire et les décisions prises par les gouvernants, qu’ils soient de gauche ou de droite.
Plusieurs facteurs peuvent expliquer ces écarts. D’abord, la capacité des gouvernants à suivre l’opinion peut dépendre du contexte économique : en période de contraintes budgétaires, les marges de manœuvre se réduisent et certaines décisions peuvent ne pas refléter totalement les préférences des citoyens. Ensuite, les représentants sont plus à l’écoute sur les sujets très médiatisés et peu techniques du fait de leur importance dans le débat public. Plusieurs recherches soulignent aussi un déficit récent de représentation sur les enjeux économiques. Du fait de la montée des sujets culturels (immigration, sécurité, identité) dans le débat et des contraintes externes sur l’économie (crises, intégration européenne), les gouvernants parviennent à mieux écouter l’opinion sur les sujets culturels, devenus des marqueurs de la vie politique. Enfin, le contexte politique : dans un environnement parlementaire fragmenté, les difficultés à négocier entre partis peuvent entraver la traduction de l’opinion publique en décisions.
Représentation politique et inégalités économiques
Un autre facteur expliquant la déconnexion entre opinion publique et décision politique est celui des inégalités de représentation. En effet, lorsque les citoyens les plus riches et les plus pauvres s’opposent sur une politique publique, ce sont les préférences des plus aisés qui l’emportent. Les travaux du politiste américain Martin Gilens ont révélé cette tendance : une politique publique a plus de chances d’être adoptée si elle est soutenue par les citoyens fortunés que par les citoyens modestes. Ces résultats ont été confirmées dans plusieurs pays européens : les décisions politiques reflètent davantage les positions des citoyens à revenu élevé.
L’exemple de la taxe Zucman illustre parfaitement cette dynamique. Si une majorité de Français la soutient, il est probable que la fraction de la population la plus fortunée, directement impactés financièrement par une telle taxe, s’y oppose.
À lire aussi : L’affrontement sur la taxe Zucman : une lutte de classe ?
Si de nombreuses études ont mesuré ces inégalités dans les décisions politiques, d’autres se sont particulièrement intéressé aux élus, analysant leurs positions et la façon dont ils perçoivent l’opinion publique. Des inégalités sont aussi présentes à ce niveau. En effet, les élus ont des préférences politiques plus proches de celles des électeurs les plus riches, et leur lecture de l’opinion publique est biaisée en faveur des plus fortunés.
Les déterminants des inégalités de représentation politique
Trois facteurs principaux expliquent ces inégalités de représentation. Le premier est le profil socio-économique des élus : ils sont massivement issus des classes sociales supérieures. À l’Assemblée nationale, 67 % des députés sont issues des catégories cadres et professions intellectuelles supérieures, contre 11 % dans la population française. Ces élus partagent avec les citoyens les plus riches des valeurs et intérêts communs, ce qui les rend plus sensibles à leurs besoins. C’est ce que j’ai montré dans une étude menée sur les parlementaires suisses : les perceptions de l’opinion publique des députés issus de milieux favorisés s’alignent plus fortement avec les préférences des citoyens les plus riches.
Le deuxième facteur concerne les inégalités d’expression politique : tous les citoyens n’ont pas la même voix dans l’espace politique. Les plus aisés disposent d’un poids politique supérieur : ils votent davantage, contactent plus souvent les parlementaires, et peuvent apporter un soutien direct en faisant des dons aux partis politiques. À l’inverse, les citoyens modestes participent moins à la vie politique et ont moins de poids sur le succès électoral des partis politiques. Les élus ont donc moins d’intérêt à écouter et traduire leurs préférences en décisions.
Ces inégalités se reflètent aussi au niveau des groupes d’intérêts exerçant des activités de lobbying : les groupes représentant des intérêts privés et sectoriels (entreprises, associations professionnelles) disposent de plus de ressources que les associations citoyennes ou les ONG pour influencer les décisions politiques. Concernant la taxe Zucman, il est évident que les lobbies patronaux (Medef et Afep) ont mobilisé leurs réseaux pour orienter le débat public et la décision parlementaire. Les liens personnels entre responsables politiques (dont le premier ministre Sébastien Lecornu) et grands patrons, facilitent aussi cette influence, offrant à ces derniers un accès direct pour défendre leurs intérêts.
Enfin, l’idéologie compte : les élus de droite représentent davantage les préférences des citoyens les plus riches et surestiment leur poids dans la population, comme je l’ai montré dans une étude portant sur les parlementaires de quatre pays européens. Cependant, si les élus de gauche ont des positions moins biaisées, des inégalités persistent. Pourquoi ? D’abord parce que l’origine sociale joue à gauche comme à droite : la majorité des parlementaires de gauche viennent aussi des catégories supérieures, ce qui les rend plus sensibles aux intérêts des citoyens privilégiés. Ensuite, même lorsqu’ils sont idéologiquement proches des citoyens défavorisés, les élus de gauche au pouvoir se heurtent à des contraintes structures (mondialisation, règles européennes) qui réduisent leur marge de manœuvre.
Inégalités de représentation : comment répondre au problème ?
Si le droit de vote est universel, garantissant une égalité formelle, l’égalité réelle est loin d’être acquise : les citoyens les moins favorisés pèsent moins dans les décisions politiques, questionnant le caractère démocratique de notre modèle de représentation.
Les citoyens les moins bien représentés font moins confiance aux institutions représentatives. Le problème n’est pas qu’une politique publique isolée diverge de l’opinion publique : c’est la récurrence du phénomène qui pose question et le biais systématique envers une partie de la population qui pose question. Lorsque, sur plusieurs politiques publiques, le système représentatif n’est pas sensible à l’opinion et qu’une partie de l’électorat voit systématiquement ses préférences ignorées, la légitimité du système représentatif pourrait s’en trouver fragilisée.
Plusieurs pistes sont envisageables pour réduire ces inégalités. D’abord, améliorer la représentativité sociale des élus permettrait d’élargir la diversité des perspectives discutées au Parlement, mieux prendre en compte les citoyens les moins privilégiés, et permettre à ces derniers de mieux s’identifier avec le personnel politique. Ensuite, multiplier les échanges entre parlementaires et citoyens, via la présence en circonscription et les forums délibératifs, faciliterait la transmission de la diversité des opinions vers le système politique. Renforcer les organisations de la société civile et syndicats permettrait aussi de contrebalancer le poids des groupes d’intérêts privés. Enfin, des réformes comme le vote obligatoire ou l’encadrement des dons politiques inciterait les élus à considérer tous les citoyens, et pas seulement les plus privilégiés.
Awenig Marié est fondateur et membre de l'association Datan.
04.01.2026 à 14:03
Ce que révèle une vaste enquête citoyenne sur la qualité de l’eau en France
Texte intégral (2455 mots)
En 2023, des milliers de citoyens ont pris part à un projet de recherche participative visant à cartographier la qualité de l’eau sur le territoire français. Une démarche qui en apprend beaucoup aux chercheurs et qui sensibilise les bénévoles.
Le 29 septembre 2023, partout en France, des milliers de personnes ont endossé, le temps d’un week-end, la casquette du chercheur. Armés de leur smartphone, d’une bandelette colorée et d’une fiche d’instructions, ils se sont lancés dans une expérience collective inédite : mesurer la qualité des eaux de France dans les rivières, les fontaines, les lacs, les puits et les flaques. En quelques jours, près de 800 échantillons ont été collectés et plus de 20 000 données ont été mesurées.
Derrière ces chiffres impressionnants se cache une aventure humaine et scientifique : la Grande Synchr’Eau, une initiative massive de science participative récompensée par l’une des médailles de la médiation du CNRS en 2025 pour son originalité et son impact sur la société. Cette expérience participative inédite a permis de révéler la diversité chimique des eaux françaises.
Le principe est simple : tremper une bandelette dans l’eau, observer les pastilles se colorer, puis les comparer à une échelle. Ce geste, à la fois simple et ludique, cache en réalité des mesures précieuses : le pH (ou l’acidité), la concentration en nitrates issus des engrais, en chlore, ainsi qu’en métaux lourds tels que le cuivre ou le plomb. Pour beaucoup, l’expérience provoque un effet « waouh » : « On avait l’impression de jouer, mais en fait, on faisait de la vraie science », racontait une mère venue vivre l’expérience avec sa fille. C’est là toute la force de la science citoyenne : permettre à chacun de participer à la recherche, tout en produisant des données utiles aux scientifiques.
Une mosaïque de réalités locales
Les résultats, compilés par les équipes de l’INSA Toulouse et du Toulouse Biotechnology Institute, révèlent une France de l’eau pleine de contrastes. En Bretagne et dans le Massif central, l’eau est plus acide, en raison des sols granitiques et volcaniques, car ces roches contiennent peu de minéraux capables de « tamponner » l’acidité. L’eau de pluie, naturellement légèrement acide, n’est donc pas neutralisée en traversant ces terrains, contrairement aux régions calcaires où les roches relarguent du carbonate qui remonte le pH. Dans les plaines agricoles de la Beauce et de la Champagne, les nitrates dépassent parfois 100 mg/L, témoins directs de l’usage intensif des engrais.
En ville, d’autres signaux apparaissent : à Lyon, Toulouse ou Marseille, les citoyens ont détecté du cuivre jusqu’à 6 mg/L, un niveau trois fois supérieur à la limite de qualité de l’eau potable (2 mg/L), généralement lié à la corrosion des vieilles canalisations en cuivre. Dans certaines zones rurales, le chlore est quasi absent, alors qu’en Île-de-France ou dans le Rhône, la concentration atteint des niveaux dix fois supérieurs à ceux observés dans les campagnes du Massif central. Cela reste compatible avec les normes, mais reflète une désinfection beaucoup plus marquée des grands réseaux urbains, expliquant parfois les goûts d’eau chlorée rapportés par certains usagers.
Autrement dit, il n’existe pas une eau française, mais une mosaïque d’eaux locales, chacune portant la marque de son sol, de ses usages et de ses infrastructures.
Des flaques chlorées et des puits ferrugineux
Parmi les échantillons, certaines eaux sortent franchement du lot. Si, globalement, le pH reste dans des valeurs normales (entre 6 et 7,6), la diversité chimique surprend. Le chlore total, c’est-à-dire à la fois le chlore libre (désinfectant actif) et le chlore combiné (qui a déjà réagi avec d’autres substances), atteint parfois 10 mg/L, soit cinq fois la concentration d’une piscine publique.
Certaines flaques urbaines semblent avoir reçu un traitement sanitaire involontaire : ruissellement des trottoirs, résidus de produits ménagers, lessivage des surfaces. Bref, si l’eau des flaques n’est pas potable, certaines sont surprenamment bien désinfectées !
Certains puits battent tous les records de fer, avec des concentrations pouvant atteindre 25 mg/L, soit 500 fois la limite de potabilité. À ce stade, l’eau prend une teinte orangée et un goût métallique prononcé. Sur le millier de prélèvements effectués, 8,4 % des eaux ont été jugées brunes par les citoyens, un signe d’oxydation intense du fer dans les captages locaux. Ce phénomène, fréquent dans certaines zones rurales, n’est pas dangereux en soi, mais rend l’eau impropre à la consommation et peut entraîner des dépôts, des taches et un encrassement des installations domestiques. Il illustre la forte variabilité chimique des eaux locales et les enjeux propres aux puits non traités.
Autre découverte : l’ammonium, présent jusqu’à 40 mg/L dans certains échantillons. Ce composé, issu de la décomposition de la matière organique ou du ruissellement agricole, témoigne d’une activité biologique intense : en clair, une eau très vivante, mais pas forcément celle qu’on a envie de boire.
L’eau, miroir de nos modes de vie
Derrière les anecdotes et les chiffres, ces mesures citoyennes racontent une vérité simple : l’eau enregistre nos modes de vie. Elle circule, transporte et mémorise nos activités. Dans les villes, elle se charge de chlore, de cuivre et de résidus ménagers. Dans les campagnes, elle emporte du nitrate, de l’ammonium ou du fer. Et dans les zones naturelles, elle reste souvent plus équilibrée, mais jamais totalement vierge de l’empreinte humaine.
En plus des cartes, la Grande Synchr’Eau dessine une France curieuse et engagée. L’enquête menée auprès de 120 participants révèle une mobilisation intergénérationnelle : 22 % ont moins de 18 ans, 21 % sont entre 46 et 55 ans, et 45 classes de primaire et de collège ont participé à l’expérience. Les motivations sont variées : 54 % y voient une façon de protéger l’environnement, 43 % de contribuer à la recherche, 28 % pour apprendre et 25 % par curiosité. Autrement dit, mesurer devient un moyen de comprendre et d’agir.
Nourrir la recherche tout en sensibilisant les citoyens
Les effets de la démarche sur les volontaires sont marquants : 81 % des participants estiment que l’expérience a changé leur regard ou leurs comportements, et 82 % ont eu le sentiment de participer à la protection de l’environnement. Lorsqu’on leur demande les mots auxquels ils pensent pour qualifier l’eau, ceux qui reviennent le plus sont vie, vitale et précieuse, ce qui traduit un rapport sensible, presque affectif, à cette ressource commune.
Enfin, à la question « Qui doit agir pour préserver l’eau ? », 83 % citent l’État, 79 % les scientifiques, 71 % les associations et 54 %… eux-mêmes. La science n’est plus perçue comme un domaine réservé : elle devient un espace partagé, où la connaissance se construit à plusieurs et où chacun assume sa responsabilité sociétale.
Au final, peut-on boire l’eau des flaques d’eau ? Non, car elles contiennent parfois plus de chlore qu’une piscine. Mais on peut toujours les observer, les mesurer et les comparer. Ces expériences rappellent qu’il n’y a pas besoin d’un laboratoire pour faire de la science : un peu de curiosité, une bandelette colorée et l’envie de comprendre suffisent à faire émerger une connaissance collective. La Grande Synchr’Eau en est la preuve : la science peut jaillir de partout, même d’une simple flaque.
Nicolas Dietrich a reçu des financements dans le cadre du projet Grande Expérience Participative (2023), financé par l’initiative Nuit Européenne des Chercheur·e·s dans le cadre des Actions Marie Sklodowska-Curie. Un financement complémentaire a été obtenu dans le cadre du projet SMARTER, soutenu par le programme Horizon 2020 de l’Union européenne (Grant Agreement No. 772787)
Johanne Teychené et Nathalie Clergerie ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
04.01.2026 à 10:32
En quoi pourraient consister des sanctions économiques de l’UE contre Israël, et quels effets auraient-elles ?
Texte intégral (1648 mots)
Un cessez-le-feu a été proclamé à Gaza, mais l’armée israélienne continue d’y mener des opérations meurtrières. En outre, la reconstruction de Gaza coûtera des dizaines de milliards de dollars, et Israël ne compte pas y contribuer. Adopter des sanctions à son encontre pourrait changer les choses, dans ces deux domaines.
Plus de 69 000 morts et 170 000 blessés, une famine généralisée, 90 % des habitations endommagées ou détruites : tel était le bilan, au moment de l’entrée en vigueur du cessez-le-feu à Gaza, le 10 octobre 2025, de plus de deux ans de massacres et de destructions. Gaza est dévastée.
« Le mérite premier de l’arrêt de la guerre d’extermination revient à la détermination de notre peuple à Gaza », avait alors déclaré Mustafa Barghouti, secrétaire général du mouvement de l’Initiative nationale palestinienne, un parti palestinien indépendant du Fatah et du Hamas. Si ces propos visaient d’abord à rendre hommage à la population palestinienne, ils résonnent néanmoins dans un contexte marqué par l’impunité générale des auteurs de ce que plusieurs organisations internationales de défense des droits humains, de même que la Commission chargée d’enquêter dans le Territoire palestinien occupé, qualifient de génocide, et par la complaisance des principaux partenaires militaires et commerciaux d’Israël, qui n’ont pris aucune sanction significative à son égard.
Un cessez-le-feu qui n’est pas respecté
Le chemin vers la liberté et l’autodétermination du peuple palestinien reste encore long. Le plan de cessez-le-feu proposé par Donald Trump, largement favorable à Israël, offre peu de garanties à long terme. Aucun représentant palestinien n’a été associé à sa rédaction, et le texte ne mentionne même pas la Cisjordanie, pourtant sous occupation israélienne depuis cinquante-huit ans. De plus, au moins 266 Palestiniens ont été tués et 634 blessés depuis l’instauration du cessez-le-feu. Dans un texte publié le 8 décembre, Amnesty International affirme ainsi qu’« Israël continue d’imposer sciemment des conditions de vie amenant à la destruction du peuple palestinien à Gaza, sans aucun signe que cette pratique ou l’intention sous-jacente ait changé. C’est cela, un génocide. »
Cet accord de cessez-le-feu ne saurait donc écarter la perspective de sanctions économiques. Le 10 septembre dernier, la Commission européenne avait proposé la suspension de l’accord d’association UE-Israël sur les questions liées au commerce. Cette proposition reste pourtant, à l’heure actuelle – et plus encore depuis la proclamation du cessez-le-feu – au stade de simple déclaration d’intention.
Dans une analyse publiée sur Yaani le 29 septembre dernier, nous examinions les effets potentiels de telles sanctions, selon les pays qui les appliqueraient et les secteurs économiques ciblés. Nous en avions tiré trois conclusions.
L’UE peut agir de façon ciblée
Tout d’abord, l’Union européenne a les moyens d’agir. Elle est le premier partenaire commercial d’Israël. Nous avions calculé qu’une simple hausse tarifaire de 20 % à l’import et à l’export pouvait réduire le PIB israélien de 1,1 %. Pour une hausse tarifaire de 50 %, la diminution serait de 1,6 %. Ces chiffres sont des estimations basses car le modèle utilisé pour les obtenir ne tient pas compte des effets à long terme des sanctions. D’un autre côté, l’effet sur l’UE de telles sanctions serait quasi nul. Israël est certes un pays développé, mais son influence sur la chaîne de valeur mondiale n’est pas importante. L’UE peut aisément réorienter ses échanges vers d’autres partenaires commerciaux sans subir de conséquences économiques perceptibles.
Deuxièmement, une coalition élargie de pays sanctionneurs aurait un impact plus élevé. Si, en plus de l’UE, tous les États ayant voté pour l’adhésion de la Palestine à l’ONU (143 pays dont les « BRICS » : Brésil, Russie, Inde, Chine, Afrique du Sud) décidaient également de sanctionner Israël, une hausse tarifaire de 20 % ferait chuter le PIB israélien de 3,1 %, et une hausse de 50 % engendrerait une diminution de 4,4 %.
Enfin, nous avions examiné les secteurs pour lesquels les sanctions seraient les plus efficaces. Pour des sanctions à l’export vers Israël, nous avions montré qu’il s’agissait de l’automobile, des minéraux et du commerce de gros, qui inclut tous les biens exportés via des intermédiaires. Pour des sanctions à l’import en provenance d’Israël, le secteur de la tech est sans surprise le plus déterminant. Le secteur technologique représente près de 20 % du PIB israélien, et quasiment la moitié des exportations israéliennes. C’est donc un secteur à forte valeur ajoutée et très intégré au commerce international. C’est donc logiquement celui pour lequel des sanctions à l’import seraient les plus efficaces.
Sunrise ou Phoenix ?
Plus de deux ans de bombardements incessants sur Gaza ont engendré des destructions considérables. Des experts de l’ONU estiment le coût de la reconstruction à plus de 70 milliards de dollars, dont 20 milliards pour les seules trois prochaines années.
Ce chiffre ne correspond qu’au montant minimal requis pour rétablir des conditions basiques d’existence : d’après le rapport, « accès à l’eau potable, emplois d’urgence, fournitures médicales, sécurisation des habitations et des espaces publics en déblayant les gravats pouvant cacher des munitions non explosées ou les milliers de Palestiniens disparus ».
L’indécent projet « Sunrise » proposé par l’administration Trump, visant à transformer Gaza en une destination touristique de luxe pour 112 milliards de dollars, ignore complètement la participation des Palestiniens en remodelant leur territoire selon des intérêts externes, au détriment de leur histoire et de leur identité. À l’inverse, le plan Phoenix, élaboré par un collectif pluridisciplinaire (architectes, ingénieurs, juristes, sociologues, médecins, entre autres) de Palestiniens, est actuellement le seul à considérer la population locale avec décence.
De plus, le projet de l’administration Trump n’envisage pas de faire contribuer Israël au financement de la reconstruction. Or, les responsables de la destruction de Gaza, en premier lieu l’État d’Israël, doivent être financièrement tenus pour compte.
Avec la possibilité d’instaurer des droits de douane sur les échanges avec Israël, l’UE dispose précisément d’un levier concret pour faire supporter à l’économie israélienne, et aux entreprises européennes qui commercent avec elle, une part de ce coût. D’une part, cette taxe permettrait de prélever directement sur l’économie israélienne et ses partenaires une manne financière substantielle, qui pourrait ensuite être redistribuée aux institutions palestiniennes. Un calcul simple permet d’en avoir une idée.
Les échanges annuels entre l’UE et Israël s’élèvent à environ 70 milliards d’euros. Avec une taxe de 20 % et en tenant compte de la réduction des quantités échangées dues à la taxe avec une élasticité de -5, les échanges bilatéraux UE-Israël tomberaient à environ 28 milliards, générant un revenu tarifaire de l’ordre de 5 milliards d’euros chaque année. Rappelons qu’Israël retient en ce moment même 4 milliards de dollars de recettes fiscales palestiniennes, fonds essentiels au fonctionnement de l’Autorité palestinienne et à la fourniture des services de base à la population.
D’autre part, ces sanctions constituent également un instrument de pression pour contraindre l’État d’Israël à respecter le droit international et à assumer sa responsabilité morale, politique et matérielle dans l’oppression des Palestiniens.
Renoncer aujourd’hui au levier que constituerait l’adoption de sanctions vis-à-vis d’Israël reviendrait à abandonner une fois de plus la population palestinienne. L’Union européenne va-t-elle rester spectatrice d’un drame humain qu’elle a les moyens d’infléchir ?
Mohamed Bahlali ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.01.2026 à 16:57
Un score pour noter les produits ménagers en fonction de leur impact sur la santé et l’environnement
Texte intégral (2227 mots)
À la maison, les nettoyants en tout genre nous exposent à des substances potentiellement toxiques. Dans la lignée notamment du Nutri-Score -cette échelle qui évalue les aliments en fonction de leur valeur nutritionnelle-, l’Agence nationale de sécurité sanitaire (Anses), propose de noter les produits ménagers en fonction des dangers qu’ils font courir sur la santé humaine et sur l’environnement et de l’afficher sur les emballages. Les ministères concernés doivent désormais se prononcer sur la mise en place d’un tel score, la méthode à retenir et le type d’affichage à apposer.
Les produits ménagers que nous utilisons au quotidien peuvent contenir des substances toxiques pour la santé et l’environnement. Les consommateurs sont d’ailleurs en demande d’informations toujours plus précises sur les impacts des produits qui les entourent, afin d’acheter en toute conscience les produits les moins toxiques.
Pour autant, l’ensemble des substances qui entrent dans la composition de ces produits n’est pas systématiquement affiché sur les emballages. Les obligations en matière d’étiquetage varient en fonction des types de produits et de leurs usages.
(Les emballages des détergents – c’est-à-dire les produits chimiques destinés au lavage et au nettoyage des surfaces, du linge, de la vaisselle, etc.- doivent par exemple indiquer les substances parfumantes et les agents conservateurs qu’ils contiennent, conformément à la réglementation, ndlr).
Enfin, les informations sur les étiquettes sont souvent peu compréhensibles pour les consommateurs. Comment savoir alors quels produits acheter pour limiter les effets nocifs sur sa santé ou l’environnement ?
L’exemple du Nutri-Score appliqué aux produits ménagers
De nombreux scores relatifs aux propriétés de nos produits du quotidien ont vu le jour ces dernières années, le plus connu d’entre eux étant probablement le Nutri-Score, le système d’étiquetage nutritionnel développé pour faciliter la compréhension des informations nutritionnelles par les consommateurs et ainsi les aider à faire des choix éclairés.
Dans ce contexte, un des objectifs du Plan national santé environnement (PNSE 4) était de renforcer la lisibilité de l’étiquetage des produits ménagers, afin de mieux informer les consommateurs de leurs dangers sur la santé et l’environnement.
L’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) a donc proposé un référentiel d’étiquetage pour les produits ménagers afin de guider les consommateurs dans leur acte d’achat.
Différents types de produits ont été considérés dans ces travaux : ceux destinés à l’entretien du linge, des surfaces, des sanitaires et de la vaisselle, ainsi que les insecticides, les répulsifs, les rodenticides (produits biocides utilisés contre les souris, les rats et autres rongeurs, ndlr) et les désodorisants d’atmosphère.
Molécules cancérogènes, reprotoxiques, persistantes dans l’environnement et autres substances nocives
Deux méthodes différentes ont été élaborées afin de catégoriser ces produits selon leur niveau de danger pour la santé et l’environnement. À l’instar du Nutri-Score, un objectif était l’élaboration d’un score facilement calculable par les acteurs industriels afin de leur permettre une meilleure appropriation de l’outil et les encourager à améliorer la composition de leurs produits.
La première méthode se fonde principalement sur les dangers sanitaires et environnementaux de l’ensemble des substances entrant dans la composition des produits. La seconde sur la classification des produits eux-mêmes, selon le règlement européen relatif à la classification, à l’étiquetage et à l’emballage (CLP).
Ces méthodes s’appuient principalement sur des bases de données d’organismes reconnus, par exemple les classifications établies dans le cadre du règlement européen CLP ou la classification du Centre international de recherche sur le cancer (Circ).
L’accent a été mis sur la présence de substances ayant des propriétés particulièrement préoccupantes : cancérogènes, mutagènes, reprotoxiques (CMR), allergisantes respiratoires, perturbation endocrinienne (PE), persistantes, bioaccumulables, mobiles et toxiques. Parmi les molécules qui peuvent être citées, on peut nommer le butylhydroxytoluène (BHT), potentiel perturbateur endocrinien, la famille des salicylates, susceptibles d’effets sur la reproduction ou certains détergents à base d’enzymes qui sont des allergisants respiratoires.
Il est important de savoir que les substances classées comme cancérogènes, mutagènes, reprotoxiques (CMR) selon le règlement européen relatif à la classification, à l’étiquetage et à l’emballage (CLP) sont interdites dans les produits ménagers. Cependant, cette interdiction ne s’applique qu’au-delà d’une certaine concentration, ce qui signifie qu’il est donc malgré tout possible de les retrouver en faible quantité dans ces produits.
Sprays, « effet cocktail »… ces usages et compositions qui augmentent le danger
En plus de ces critères de danger, l’Anses propose de tenir compte dans le calcul du score d’autres critères en lien avec le mode d’utilisation et la composition du produit. Par exemple, un produit sous forme de spray, ou qui génère des aérosols, expose davantage son utilisateur qu’un produit sous forme de gel. En effet, du fait de la mise en suspension de particules dans l’air intérieur, ces produits peuvent exposer l’utilisateur par voies respiratoire, cutanée ou oculaire et sont incriminés dans la survenue de pathologies respiratoires notamment l’asthme chez les jeunes enfants.
La présence d’un grand nombre de substances dans un produit peut également constituer un risque supplémentaire puisqu’il augmente la probabilité d’un « effet cocktail » dû à l’interaction des substances. En effet, l’augmentation du nombre de substances accroît la probabilité d’interactions entre celles-ci, et donc l’apparition de nouveaux dangers au-delà même de ceux relevant des substances présentes dans la composition considérée individuellement.
Ceci est également vrai lorsque le produit contient des mélanges inclus, c’est-à-dire préfabriqués. Les responsables de la mise sur le marché du produit final ne connaissent pas nécessairement la composition exhaustive de ces mélanges.
Enfin, la présence de substances considérées comme d’intérêt limité pour l’efficacité du produit, comme les parfums ou les colorants, peut également augmenter la toxicité de certains produits.
Deux scores – environnement et santé – pour des notes de « A » à « E »
À partir de ces différents critères, chaque méthode propose donc le calcul d’un score de « A » à « E » permettant de catégoriser les produits selon leur niveau de danger. Le score « E » correspond au plus haut niveau de préoccupation. Le score « A », associé au plus faible niveau de préoccupation, ne correspond pas pour autant à une absence de danger. Un produit de score « A » se révélera toujours une meilleure option pour le consommateur qu’un produit moins bien classé présentant un danger plus important.
Pour une information claire du consommateur, l’Anses a recommandé que chaque méthode conserve deux scores distincts pour chaque produit, l’un reflétant son impact sur la santé humaine et l’autre celui sur l’environnement. Le choix de maintenir deux scores distincts permet de rendre l’information au consommateur plus transparente. De plus, le choix de ne pas « moyenner » ces deux scores évite une possible compensation, par exemple d’un score défavorable pour la santé par un score favorable pour l’environnement.
Ces méthodes pourront également permettre aux fabricants d’améliorer la composition de leurs produits ménagers. Plusieurs leviers peuvent être envisagés tels que : limiter voire supprimer les substances les plus préoccupantes, diminuer le nombre de substances dans le produit ou encore retirer les substances considérées comme d’intérêt limité.
Une première phase de test sur un panel de produits
L’Agence a testé ces méthodes sur un panel de produits, sélectionnés afin de présenter des caractéristiques différentes les unes des autres : formes (poudres, liquides, sprays…), fonction (désodorisant d’ambiance, nettoyant spécifique ou multi-usage), etc.
Les deux méthodes présentent entre elles des résultats très comparables. Environ 80 % des produits obtiennent un score « E » pour le volet sanitaire contre 15 % pour le volet environnement.
Cette forte disparité entre le volet sanitaire et le volet environnement est frappante mais a une explication : il y a encore trop peu d’évaluations des effets des substances sur l’environnement, jugés moins prioritaires par rapport aux effets sur la santé humaine. Ainsi, de nombreuses substances ne sont pas présentes dans les sources de données consultées, faute d’avoir été évaluées.
À quand un score sur les produits ménagers vendus en magasins ?
Pour rester pertinentes, les méthodes devront évoluer avec les connaissances scientifiques et ainsi améliorer la connaissance du danger réel des produits. Au même titre que les données écotoxicologiques doivent être renforcées, d’autres paramètres pourraient être inclus dans ces méthodes si les sources de données le permettent, par exemple la présence de substances à l’état de nanoparticules ou ayant d’autres effets sur la santé (par exemple une neurotoxicité, c’est-à-dire une toxicité qui affecte le système nerveux).
Les ministères doivent désormais se prononcer sur la mise en place d’un tel score, la méthode à retenir et le type d’affichage à apposer.
En attendant de voir de tels scores sur les étiquettes de nos produits, quelques conseils peuvent d’ores et déjà être suivis par les consommateurs.
Comment limiter son exposition aux substances potentiellement toxiques des produits ménagers
- Adoptez une attitude raisonnée. Par exemple, l'utilisation d'un désinfectant pour nettoyer une surface n'est pas toujours nécessaire, un détergent peut être suffisant;
- Lisez bien les étiquettes des produits et respectez les conditions d'emploi: quantités à appliquer, dilution nécessaire, port de gants ou de lunettes, rinçage, etc. qui limiteront l'impact possible sur votre santé mais aussi sur l'environnement;.
- Favorisez des produits sans parfums et sans colorants: cela garantit un nombre de composants plus réduit dans le produit et, notamment, moins de substances irritantes ou allergisantes;
- Évitez le recours aux produits ménagers sous forme de sprays ou générateurs d'aérosols;
- Aérez votre logement après nettoyage ou après utilisation d'un désodorisant d'intérieur, afin de disperser les substances émises par les produits appliqués;
- Ne mélangez jamais plusieurs produits et ne déconditionnez jamais de produit dans un emballage alimentaire;
- Enfin, gardez toujours tous ces produits hors de portée des enfants.
Cet article s’appuie sur un rapport d’expertise de l’Anses publié en 2025 auquel ont contribué des agents de l’Anses et les experts suivants : Luc Belzunces (INRAE), Alain Aymard (retraité DGCCRF), Nathalie Bonvallot (EHESP), George De Sousa (INRAE), Guillaume Karr (INERIS), Jean-Pierre Lepoittevin (Université de Strasbourg), Christophe Minier (Université Le Havre), Mélanie Nicolas (CSTB), Emmanuel Puskarczyk (CAP Nancy).
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
03.01.2026 à 16:00
Erasmus + et le retour du Royaume-Uni : choix politique ou décision pragmatique ?
Texte intégral (1510 mots)
Cinq ans après avoir quitté Erasmus +, le Royaume-Uni s’apprête à réintégrer le programme d’échanges européen, à l’horizon 2027. Au-delà du signal politique, cette décision résulte de réajustements pragmatiques qui éclairent les conditions de possibilité de coopérations universitaires stables à l’échelle internationale.
Depuis sa création en 1987, le programme d’échanges Erasmus s’est imposé comme l’un des piliers de la mobilité étudiante européenne. Plus de 16 millions de personnes – étudiants, apprentis, enseignants et personnels – ont effectué un séjour dans un autre pays européen, contribuant à structurer des coopérations durables entre universités.
Annoncée en décembre 2025, la réintégration par le Royaume-Uni d’Erasmus + à l’horizon 2027 « ne mettra pas fin au repli nationaliste – mais il constitue un pas dans la bonne direction », écrivait récemment dans The Guardian Julian Baggini, philosophe et chroniqueur.
Dans la presse européenne, ce retour a été lu comme un signal politique, modeste mais lisible, dans une relation entre le Royaume-Uni et l’Union européenne encore marquée par les séquelles du Brexit. Mais au-delà de cette lecture symbolique, il faut replacer la décision dans une séquence plus longue de choix éducatifs et institutionnels.
Quitter Eramus +, une décision coûteuse pour les universités britanniques ?
Après la sortie effective du Royaume-Uni de l’Union européenne, le retrait d’Erasmus+ en 2021 avait été perçu par la presse britannique et internationale comme une rupture nette dans les échanges éducatifs et culturels. Le gouvernement britannique avait alors justifié cette décision par une lecture principalement économique du programme, fondée sur une évaluation du rapport coûts-bénéfices, le Royaume-Uni étant présenté comme contributeur net à Erasmus+, c’est-à-dire recevant plus d’étudiants qu’il n’en envoie.
À lire aussi : Fin des séjours Erasmus au Royaume-Uni : les étudiants vont-ils payer le prix du Brexit ?
Pour compenser cette rupture, le gouvernement britannique a lancé le Turing Scheme. Doté d’environ £100 millions par an à son lancement, réduits à £78 millions pour 2025-2026, le programme finance la mobilité sortante d’environ 40 000 étudiants par an, un chiffre fréquemment invoqué pour attester du maintien de l’internationalisation des parcours.
Alors que la mobilité sortante a été globalement maintenue, la mobilité entrante en provenance de l’Union européenne s’est considérablement contractée. Rappelons qu’avant le Brexit, le Royaume-Uni figurait parmi les destinations les plus attractives d’Eramus, accueillant environ 22 000 étudiants du programme par an et en envoyant près de 16 400 vers d’autres pays européens. Selon l’Oxford Migration Observatory, la part des étudiants européens parmi les nouveaux inscrits internationaux est passée de 27 % en 2016-2017 à 7 % en 2023-2024.
Cette baisse n’a pas été compensée par l’augmentation des étudiants hors Union européenne, plus volatile et moins compatible avec l’exigence de planification académique de long terme (ouverture de diplômes conjoints, développement de collaborations scientifiques internationales, anticipation des recrutements enseignants dans la durée…).
Un rapport de 2024 souligne que ces évolutions se sont ajoutées à un contexte économique déjà dégradé – inflation des coûts, stagnation des frais d’inscription nationaux, dépendance accrue aux recettes internationales – accentuant les tensions structurelles pesant sur les universités britanniques. Si la baisse du nombre d’étudiants européens n’a pas affecté directement les recettes de frais d’inscription, elle a en revanche fragilisé l’accès à des financements européens pluriannuels, récurrents et prévisibles, contribuant à la mise sous tension des universités.
Les cadres multilatéraux, facteurs de stabilité pour la coopération universitaire
Le retour dans Erasmus+ répond à un décalage désormais manifeste entre les instruments mis en place depuis 2021 et leurs effets. Le maintien de la mobilité sortante n’a pas empêché l’affaiblissement des échanges avec les universités européennes. Et la hausse des étudiants hors UE – passés de 23 % à 38 % des entrants en 4 ans – repose sur des flux plus incertains, tributaires des politiques de visa et des capacités de financement individuelles.
Dans ce contexte, le retour à Erasmus+ apparaît moins comme un symbole politique que comme une réponse fonctionnelle à des déséquilibres désormais identifiés : réintroduire des échanges stabilisés là où les dispositifs unilatéraux ont montré leurs limites. Il contribue également à rétablir la perspective de la participation britannique aux coopérations universitaires européennes de long terme, notamment aux alliances universitaires européennes lancées par la Commission européenne en 2019.
Ce déplacement du cadrage politique est perceptible dans la presse britannique, qui souligne que la valeur d’Erasmus ne se réduit pas à un solde financier, mais tient à la circulation des savoirs, aux compétences acquises et au maintien de liens durables avec l’espace universitaire européen.
Dans une perspective comparative, le cas britannique n’est pas isolé. Aux États-Unis, la mobilité étudiante internationale est elle aussi liée à la politique d’immigration, rendant l’internationalisation universitaire vulnérable aux cycles politiques. Les données de l’Institute of International Education (IIE) montrent que les flux d’étudiants internationaux ont significativement varié au gré des restrictions et assouplissements de visas, renforçant l’intérêt de cadres multilatéraux plus stables.
Réintégrer Erasmus +, une décision pragmatique
Enfin, les évaluations européennes rappellent que la mobilité étudiante repose moins sur le seul niveau des financements que sur l’existence de cadres juridiques communs, de procédures bien établies et de partenariats durables. Lorsque ces cadres sont interrompus, les coopérations se délitent rapidement et se reconstituent lentement.
Dans un contexte de tensions économiques et d’incertitudes prolongées pour l’enseignement supérieur, le retour du Royaume-Uni dans Erasmus+ relève moins d’un choix idéologique que d’un réajustement pragmatique. Il ne résout ni les inégalités d’accès à la mobilité ni les fragilités financières d’un secteur déjà éprouvé. Mais il réintroduit des éléments essentiels au fonctionnement des universités : des règles communes, des procédures partagées et une prévisibilité minimale, sans lesquelles la gestion académique et budgétaire devient fragile.
Au-delà du cas britannique, cet épisode rappelle une évidence souvent négligée. Plus l’enseignement supérieur est exposé aux décisions politiques nationales, y compris lorsqu’elles touchent aux conditions d’exercice de l’autonomie académique, moins les cadres multilatéraux apparaissent comme des contraintes. Ils deviennent, au contraire, des conditions de possibilité.
À lire aussi : Universités américaines : l’internationalisation devient-elle une ligne de défense ?
Erasmus+ n’est ni une solution universelle ni un héritage à préserver par nostalgie ; son retour indique simplement le prix à payer lorsque des systèmes universitaires ouverts rompent avec les règles et la confiance qui rendent la coopération possible.
Alessia Lefébure ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.01.2026 à 12:03
Requalifier ou réguler ? Les controverses du dialogue social des travailleurs des plates-formes
Texte intégral (1886 mots)

Les travailleurs des plates-formes numériques sont réputés être des travailleurs indépendants. Dès lors, à quel dialogue social peuvent-ils prétendre, celui-ci étant l’apanage du salariat ? Pour dépasser la contradiction, le gouvernement français a créé un organisme adhoc, l’Arpe. Pour quels résultats ? La requalification en contrat de travail du contrat de prestation reste-t-elle un horizon au vu des résultats obtenus par la négociation ?
Trois ans après les Uber files, la requalification d’un livreur en salarié de Deliveroo et de 5 livreurs de Frichti a ravivé l’espoir des travailleurs dont leurs dossiers ont été déposés auprès du Conseil des prud’hommes dans Paris, Bordeaux, Lyon et Toulouse, au sein d’un secteur où le statut des travailleurs est toujours l’objet d’intenses débats.
Si les plates-formes numériques de livraison de repas – telles qu’Uber Eats ou Deliveroo – et de mise en relation avec des chauffeurs – comme Uber ou Bolt – ont profondément transformé le marché des services en France et à l’échelle mondiale, elles n’ont pas échappé à l’attention des instances de régulation du travail, des services et du transport.
À lire aussi : Heetch : quand les organisations agissent en « pirates » pour innover
Après plusieurs années de luttes et de résistances de la part des travailleurs, des militants et d’élus, l’établissement d’une présomption de salariat par la directive européenne du 23 octobre 2024 devrait permettre de clarifier les incertitudes liées au statut des travailleurs et de renforcer leur protection. Entre-temps, plusieurs travailleurs ont poursuivi les entreprises en justice pour salariat déguisé.
Des indépendants avec des protections supplémentaires
Le gouvernement d’Emmanuel Macron avait en 2021 adopté une approche singulière en modifiant le droit du travail afin de maintenir le statut d’indépendant des livreurs et chauffeurs, tout en leur octroyant certains droits et protections supplémentaires. L’expérience française à travers la création de l’Autorité des Relations Sociales des Plateformes d’Emploi (Arpe) a illustré de fortes ambitions politiques, en instituant un espace de dialogue social entre des représentants élus des travailleurs et les associations représentatives des plates-formes.
Cette position s’est accompagnée d’un ensemble de polémiques. En premier lieu, l’organisation des premières élections des représentants des livreurs et VTC a été contestée par plusieurs syndicats et organisations collectives associatives et suscité un débat autour du faible taux de participation, en 2022 et 2024.
En deuxième lieu, cette mise en place d’une négociation entre les travailleurs indépendants en reproduisant les normes de la négociation collective classique a suscité des interrogations auprès des syndicats traditionnels qui ont pu y voir une promotion de ces nouvelles formes d’emploi, plus précaire, et en dehors du Code du travail.
Quelles procédures de désactivation ?
Malgré le débat, les rencontres entre acteurs ont permis, en deux ans, la signature de plusieurs accords sectoriels concernant notamment la rémunération des courses, la discrimination, ou encore les procédures de désactivation de comptes. Néanmoins, depuis les dernières élections en 2024, aucun nouvel accord n’a été signé, montrant la difficulté à négocier des accords porteurs de véritables droits sans évoluer dans le cadre protecteur du droit du travail classique.
De plus, le manque de données disponibles rend l’évaluation de l’efficacité des accords difficile, pour le régulateur comme pour les représentants des travailleurs. Dans le cadre du projet de recherche européen GDPoweR, nous avons examiné le potentiel des droits relatifs aux données personnelles (RGPD) comme levier pour renforcer le dialogue social et la protection des travailleurs de plates-formes.
Notre enquête de terrain a visé à évaluer la mise en œuvre et le respect des accords signés dans le cadre de l’ARPE, ainsi que leur portée effective. Nous avons mené des entretiens individuels et collectifs avec des syndicats, des travailleurs, des associations de travailleurs, des entreprises de plates-formes et des fonctionnaires publics. Nous avons également analysé les fichiers de données personnelles retraçant l’activité de 61 chauffeurs opérant sur Uber, 6 chauffeurs opérant sur Bolt, 4 livreurs opérant sur Uber Eat et 2 livreurs opérant sur Deliveroo. Les données collectées totalisent plus de 5 millions de courses pour les chauffeurs, et 17 000 courses pour les livreurs. Ces datas couvrent la période allant de 2016 à la fin de 2024, permettant d’évaluer l’effet des accords sur la rémunération des travailleurs.
Des engagements imprécis
Nos résultats montrent que les accords n’ont pas significativement amélioré les conditions de travail des travailleurs. Cette situation s’explique notamment par un manque de précision dans les engagements pris, ainsi que par les limites des ambitions politiques et des compromis économiques consentis par les plates-formes. D’ailleurs, des thèmes jugés cruciaux par les syndicats ne sont pas abordés dans les accords signés, comme la santé et la sécurité au travail, fortement dégradées – plus de la moitié des livreurs a souffert un accident de travail – ou le fonctionnement de l’algorithme.
Chez les VTCs, les accords signés instituent un minimum de rémunération d’un euro par kilomètre, de 7,65 euros par course (puis 9 euros à partir du 2 avril 2024), et de 30 euros par heure de conduite avec un client. Or les données montrent qu’en 2023 (soit un an avant l’entrée en vigueur des accords), pour Uber, le tarif moyen versé par course est de 18,51 euros, le tarif par kilomètre est en moyenne de 1,83 euros, et le tarif moyen par heure en course est de 52,8 euros.
En réalité, les versements compensatoires liés à l’application des accords n’entrent en jeu que pour très peu de courses, et ne représentent que 0,10 % des revenus des chauffeurs. Chez les livreurs, on peut faire le même constat. Un accord fixe la rémunération minimale par heure en activité (entre l’acceptation de la commande et la livraison) à 11,75 euros à partir du 28 novembre 2023. Or, la rémunération moyenne de l’heure d’activité était pour les livreurs Uber Eats de 14,33 euros en 2022 (soit un an avant l’entrée en vigueur de l’accord). Comme pour les chauffeurs, la compensation liée à l’accord concerne un nombre très restreint de courses.
Stagnation des rémunérations
Si on observe l’évolution globale de la rémunération sur l’ensemble de la période, on note une stagnation, voire une diminution des revenus horaires moyens pour les chauffeurs comme pour les livreurs, malgré une légère augmentation du tarif par heure en course, due à l’augmentation significative du temps d’attente entre deux courses ou livraison.
Par ailleurs, les accords relatifs aux désactivations s’inspirent du droit disciplinaire en reprenant une gradation des différents types de « fautes ». Ces accords, signés dans les deux secteurs, consistent surtout en des lignes directrices, laissant une grande marge de manœuvre aux plates-formes pour établir la procédure de désactivation. Bien que l’Arpe ait été conçue pour améliorer les conditions de travail des livreurs et des chauffeurs VTC, il semble que les accords signés ne soient pas capables d’enrayer la dégradation des conditions de travail des travailleurs des plates-formes.
Certains représentants des travailleurs soupçonnent un usage politique de cette dernière, visant à éviter une régulation descendante plus contraignante portée par des partis politiques d’opposition. Malgré l’élection de représentants des travailleurs affiliés à des syndicats et les efforts déployés par l’ARPE, aucun acteur institutionnel (à l’image de l’inspection du travail pour les travailleurs salariés) ne dispose du pouvoir d’imposer une mise en œuvre équitable et cohérente des accords collectifs.
Une forte concurrence entre les plates-formes
En pratique, l’application de ces accords dépend largement de la volonté, de la capacité et de la réactivité des entreprises de plate-forme. Celles-ci, en forte concurrence entre-elles en France et dans le marché international, n’hésitent pas à proposer de bonus temporaires, de petits tarifs de manière unilatérale et sans concertation collective ou à tester une tarification encore plus basse.
Notre étude met ainsi en lumière les limites structurelles de la régulation du travail numérique par le biais d’une gouvernance souple qui ne reprend que partiellement le Code du travail, et démontre la nécessité d’une transposition forte de la directive européenne, pour assurer une meilleure protection aux travailleurs.
Maxime Cornet a reçu des financements de la DG Emploi de la Commission Européenne, dans le cadre du projet de recherche GDPOWER.
Cynthia Srnec a reçu des financements de la DG Emploi de la Commission européenne, dans le cadre du projet de recherche GDPoweR.
Pauline Moreau Avila a reçu des financements de la DG Emploi de la Commission européenne, dans le cadre du projet de recherche GDPoweR
03.01.2026 à 12:03
En France, presque tout le monde est fonctionnaire sans le savoir
Texte intégral (2760 mots)

Une grande partie des activités économiques dépendent de financements publics en France. La frontière entre public et privé s’efface. 25 et 30 millions de personnes ont un revenu qui dépend directement de l’État. Alors, les Français et Françaises seraient-ils tous fonctionnaires ?
On continue volontiers d’opposer les fonctionnaires, censés vivre de l’impôt, et les salariés du privé, qui relèveraient de l’économie réelle.
Pourtant, si l’on parle non plus des statuts, mais des flux d’argent public, le paysage change nettement. Une proportion importante des revenus considérés comme privés dépend en réalité de décisions publiques : remboursements d’assurance maladie, aides agricoles, marchés publics, subventions culturelles, crédits d’impôt, garanties accordées au secteur financier, contrats financés par l’État ou par les collectivités.
Selon les données de l’INSEE, 30,9 millions d’actifs travaillent pour le privé.
La fonction publique, au sens strict, rassemble environ 5,8 millions d’agents en 2023, soit près d’un emploi sur cinq. Si l’on ajoute les salariés du monde associatif, les professions libérales de santé, certains salariés du bâtiment et des travaux publics (BTP), les agriculteurs financés par la Politique agricole commune (PAC), les secteurs régulés comme l’énergie ou encore les services financiers adossés à la dette publique, on arrive rapidement à plusieurs dizaines de millions de personnes dont les revenus dépendent, directement ou plus indirectement, de financements publics.
L’objectif ici n’est pas d’être exhaustif. Presque tous les secteurs, à des degrés divers, s’appuient sur des mécanismes publics. Mais certains offrent des exemples particulièrement documentés. Cet article se concentre sur quelques cas emblématiques.
Secteurs dépendants de l’État
Il est utile de visualiser l’ensemble du paysage économique français à travers un tableau synthétique. Celui-ci montre comment se répartissent, secteur par secteur, les personnes vivant (directement ou indirectement) de fonds publics – et celles dont l’activité relève réellement d’un marché privé pur.
Nous avons utilisé les données de l’Insee – Fonction publique et emploi, l’Insee – Population active, l’INJEP – Emploi associatif, du ministère de la Culture – Chiffres clés culture, de la direction de l’Animation de la recherche, des Études et des Statistiques (DARES) – Chômage indemnisé, de France Travail, du ministère de l’Économie – Commande publique, MSA, du ministère de l’Agriculture et de la PAC, de la Fédération bancaire française, de France Assureurs, de l’UNÉDIC – Assurance chômage, de la Direction de la recherche, des études, de l’évaluation et des statistiques (DREES) – Retraites et France Digitale.
Le tableau ci-dessus n’inclut pas les 6 à 7 millions d’adultes inactifs non répertoriés dans ces catégories (personnes vivant du revenu du ménage, du patrimoine, ou en inactivité hors dispositifs sociaux). Cela explique l’écart avec la population adulte totale.
L’État structure le marché privé
L’idée d’un secteur autonome, évoluant hors de l’État, ne résiste pas longtemps à l’analyse. Dans de nombreux métiers, les revenus dépendent de tarifs publics, de mécanismes de remboursement, de subventions, de régulations ou encore de commandes publiques.
Plusieurs travaux d’économie publique de Mariana Mazzucato, de Michel Aglietta ou encore de Pierre-Noël Giraud ont montré combien les États structurent les marchés, souvent davantage qu’on ne le reconnaît dans le débat public.
Cette question de l’imbrication entre décisions publiques et activités privées traverse également mes propres travaux sur la figure de l’entrepreneur, qu’il s’agisse d’analyser comment les politiques publiques structurent les comportements de marché ou d’examiner l’effet des cadres réglementaires sur l’allocation des ressources.
L’État, premier client du pays
Une façon d’être dépendant de l’État, c’est tout simplement la commande publique. Autrement dit, tous les contrats payés par l’État, les mairies, les départements, les hôpitaux, les boîtes publiques comme la SNCF ou la RATP, et même par l’Union européenne.
Selon les données officielles du ministère de l’Économie, ces marchés pèsent presque 8 % du PIB. Ce poids est significatif à l’échelle de l’économie nationale. Concrètement, les marchés publics pèsent 80 milliards d’euros par an, les concessions, comme celle des autoroutes, représentent 120 milliards d’euros par an.
Historiquement, cette dépendance s’explique par le rôle central de l’État, depuis les années 1960, dans le financement et la planification des grands équipements collectifs comme les autoroutes, les chemins de fer, les hôpitaux ou les infrastructures énergétiques.
Ces projets nécessitent des investissements lourds et peu compatibles avec un financement purement privé. Dans les travaux publics, la dépendance à la commande publique est bien documentée. Selon la Fédération nationale des Travaux publics, les maîtres d’ouvrage privés ne représentent qu’un peu plus de 14 milliards d’euros, soit environ un tiers du chiffre d’affaires du secteur. Le reste provenant principalement de clients publics.
Les professionnels de santé, prestataires de service public
Plusieurs professions libérales exercent dans des cadres où l’État intervient fortement : tarifs, remboursements, implantation… Le cœur de leur activité est façonné par des décisions publiques. Ces professionnels sont prestataires d’un service public puisqu’ils fournissent une mission reconnue comme d’intérêt général, financée et régulée par l’État.
C’est particulièrement visible dans le domaine de la santé. Les médecins, infirmiers, masseurs-kinésithérapeutes ou pharmaciens, tirent l’essentiel de leurs revenus de l’assurance maladie obligatoire. Les tarifs sont fixés ou négociés au niveau national et les revalorisations dépendent de décisions gouvernementales.
Certaines rémunérations supplémentaires sont liées à des objectifs de santé publique. Par exemple, le dispositif Rémunération sur objectifs de santé publique (ROSP) valorise la prévention, le suivi des pathologies chroniques ou la vaccination.
La justice, une mission de service public
Les acteurs de justice, comme les notaires, les huissiers, les avocats ou les greffiers, travaillent eux aussi dans un cadre largement défini par la puissance publique.
Les tarifs qu’ils appliquent sont fixés par arrêté ministériel. Par exemple, l’acte authentique des notaires leur donne un monopole prévu par la loi. L’installation n’est pas totalement libre non plus. L’État encadre l’ouverture des offices, après l’avis de l’Autorité de la concurrence, ce qui crée une forme de numerus clausus sans le nommer.
À lire aussi : Quand le cynisme mine l’engagement dans la fonction publique…
Ces professions libérales exercent une mission de service public régulé, plutôt qu’un métier purement concurrentiel.
La start-up nation n’existe pas sans l’État
Même les start-up, qu’on présente souvent comme très indépendantes, bénéficient de nombreux dispositifs publics. Le crédit d’impôt recherche (CIR) réduit le coût des dépenses de recherche et développement (R&D). Il constitue l’un des leviers fiscaux les plus utilisés par les jeunes entreprises technologiques.
De son côté, Bpifrance intervient sous plusieurs formes, comme les garanties de prêts, les co-financements ou les avances remboursables. Elles permettent aux entreprises de lever des fonds ou d’amorcer leur activité dans des conditions qu’elles n’auraient pas obtenues seules.
Les programmes comme France 2030 ou les appels à projets sectoriels complètent cet ensemble, en orientant des financements vers des secteurs jugés stratégiques : petits réacteurs modulaires (SMR), hydrogène vert, véhicules électriques, etc.
Ces soutiens jouent un rôle stabilisateur évident.
Les exploitations agricoles subventionnées
Dans beaucoup d’exploitations agricoles, les aides publiques, qu’elles viennent de la politique agricole commune (PAC) ou de dispositifs nationaux, pèsent lourd dans l’équilibre économique. Les chiffres de l’Insee l’attestent : en 2021, les subventions d’exploitation représentaient en moyenne 38 % de l’excédent brut d’exploitation des fermes qui en bénéficient.
De 2010 à 2022, les aides directes ont couvert jusqu’à 74 % du revenu moyen des exploitations, toutes spécialités confondues.
Certaines filières, comme les grandes cultures ou l’élevage bovin, sont encore plus sensibles à ces soutiens. Sans cet argent, elles seraient dans une situation économique très fragile, comme le confirment plusieurs analyses de l’Insee. L’agriculture française avance donc, selon les années et les filières, quelque part entre marché et subvention, avec des équilibres qui ne reposent jamais entièrement sur les prix de vente.
La culture cofinancée par la puissance publique
D’après le ministère de la Culture, on parle d’environ 739 800 emplois dans le secteur. Une bonne partie de ces emplois existe grâce aux financements publics : théâtres, opéras, musées, festivals, institutions patrimoniales, écoles d’art, associations subventionnées, etc.
Par exemple, le cinéma français fonctionne en grande partie dans un cadre financé ou cofinancé par la puissance publique. Le Centre national du cinéma et de l’image animée (CNC) publie chaque année le montant des aides versées. En 2023, elles atteindraient 715 millions d’euros pour l’ensemble du secteur – production, distribution, exploitation. À cela s’ajoutent les crédits d’impôt cinéma, les financements des régions, et les obligations imposées aux diffuseurs (chaînes, plates-formes), devant consacrer une part de leur chiffre d’affaires à la création.
Dans les métiers du spectacle – un ensemble qui inclut le spectacle vivant mais aussi le cinéma et l’audiovisuel –, le mécanisme central est celui de l’intermittence. Il s’agit d’un régime d’assurance-chômage adapté aux artistes et techniciens qui alternent périodes d’emploi et de non-emploi. Ce système permet de lisser les revenus et, en pratique, mutualise le risque financier lié à l’irrégularité des projets artistiques – ce que rappelle régulièrement l’Unédic dans ses rapports.
La presse aidée
La presse écrite bénéficie elle aussi d’un ensemble d’aides publiques : subventions directes, TVA réduite à 2,1 %, et dispositifs spécifiques pour soutenir la diffusion. Depuis la loi Bichet de 1947, l’État veille à ce que la diffusion de la presse reste pluraliste et accessible sur tout le territoire. L’objectif est simple : éviter qu’un marché trop étroit ou trop concentré ne fragilise l’indépendance des titres. Les rapports publics consacrés aux aides à la presse rappellent régulièrement ce rôle structurant.
Selon le ministère de la Culture, ces aides à la presse représentent 21,4 % du chiffre d’affaires du secteur en 2021. Les rapports publics sur ces aides soulignent que, sans ce soutien, la situation financière de ces journaux serait encore plus dégradée, avec un risque accru de disparition de certains titres.
25 millions de Français et Françaises ont un revenu dépendant de l’État
Si on regarde uniquement les actifs et qu’on additionne tous les métiers qui dépendent peu ou beaucoup de décisions publiques – fonctionnaires, professions conventionnées, agriculture aidée, secteurs régulés, marchés publics, culture subventionnée, associations, start-up soutenues –, 25 et 30 millions de personnes ont un revenu qui dépend directement de l’État, d’une façon ou d’une autre.
Jérôme Baray ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.01.2026 à 08:35
Que reste-t-il de nos argots ?
Texte intégral (1877 mots)
Lorsque l’on parle d’argot français, on imagine souvent un langage secret. Mais qu’entend-on réellement par ce mot aujourd’hui ? Entre héritage historique et usages modernes, l’argot demeure un phénomène complexe, tant pour les linguistes que pour les locuteurs du français.
Pour désigner l’argot, on parle parfois de « langue verte », expression liée au tapis vert du jeu ou de l’adverbe « vertement »… Curieusement, cette couleur rappelle la comparaison de l’argot à la végétation produite par « une greffe malsaine » que décrit Victor Hugo, et qui trouve ses racines « dans le vieux tronc gaulois ». Bien que cette image puisse refléter une forme d’« argotophobie », l’argot suscite aussi fascination et nostalgie : certains parlent même d’« un blues » de l’âge d’or argotique. Alors, que nous en reste-t-il ?
Une histoire ancienne
Dans l’imaginaire collectif, l’argot est en partie associé à la littérature du XIXe siècle et au cinéma du XXe. Cependant, il est évident que l’argot ne se limite pas à ces périodes. Au XIIe siècle, chez Jehan Bodel, on trouve la première trace écrite d’un dialogue produit entre deux brigands dans une taverne. Cet acte montre déjà une volonté de permettre l’identification d’un groupe social (les voyous) par un usage non standard. L’argot a toujours véhiculé une dimension identitaire souvent associée aux malfaiteurs, bien avant l’urbanisation qui a façonné son évolution moderne (on pense aussi au fameux Vidocq – arrageois tout comme Jehan Bodel). Mais l’argot est surtout connu pour sa fonction cryptique : il permet de reconnaître l’appartenance d’un locuteur, tout en cachant des informations aux non-initiés.
C’est là qu’il diffère du jargon dans son sens moderne, davantage lié à un usage professionnel sans volonté de dissimulation. Le mot « argot » lui-même ne prend son sens actuel qu’à partir du XVIIe siècle. Il désignait d’abord un « royaume », celui des marginaux de la célèbre Cour des Miracles, avant de renvoyer à leur façon de parler qu’on appelait alors à ce moment-ci… « jargon du Royaume d’Argot » !
Un outil pour dire le réel ?
Bref, depuis longtemps, l’argot est lié à l’idée de marginalité. François Villon, poète du XVe siècle, est un des anciens auteurs les plus connus à utiliser l’argot de manière littéraire pour signaler son appartenance sociale (cela démontre qu’il fréquentait la bande des « Coquillards »).
Au tournant des XIXe et XXe siècles, l’argot est aussi un outil littéraire critique : le poète Jehan-Rictus, dans Les Soliloques du Pauvre (1896), s’en sert pour dénoncer la misère et moquer les auteurs bourgeois qui prétendent la raconter en empruntant leurs mots, tel, selon lui, Aristide Bruant.
Aujourd’hui, des pratiques argotiques contemporaines artistiques existent toujours : avec de la littérature que certains appelleront « de banlieue » ou « urbaine », et, surtout, avec un rap français très présent dans la culture populaire. Celui-ci entretient en effet un rapport étroit avec ce qui peut parfois être appelé un parler « des cités » ou encore un « argot des jeunes ». Il ne s’agit pas d’un système homogène mais d’un ensemble de pratiques langagières mouvantes (on peut déjà le constater de par les appellations qu’on tente de lui donner… quelles cités ? quels jeunes ?).
Des néologismes argotiques contemporains
La pratique argotique contemporaine repose largement sur le français populaire. L’argot ne crée pas une langue à part entière : il fait naître des actualisations linguistiques diverses et trahit souvent l’habitus du locuteur.
Le linguiste Albert Dauzat notait en 1946 que « l’argot accélère le renouvellement du langage ». Cette créativité lexicale se poursuit bien aujourd’hui à travers ce que l’on peut appeler « la néologie argotique », c’est-à-dire la création de mots nouveaux mais aussi d’emplois nouveaux de mots existants.
La notion de « nouveauté » reste cependant relative : un mot peut être courant dans un groupe et inconnu ailleurs. Il faut souligner aussi que l’argot connaît une dimension diatopique : il n’est pas un patois, mais peut présenter des formes locales. On rencontre par exemple un argot à clef « en -zer », associé à la région de Grigny, ou l’ajout du suffixe « -stre » en fin de mot, propre à Marseille.
Enfin, on notera que certains mots traversent les siècles : c’est le cas de « daron », attesté dès le XVIIe siècle. C’est un mot-valise issu de « dam » (seigneur) et baron. Il signifiait « maître de maison », puis « patron », avant de prendre son sens actuel de « père ».
Les couleurs de l’argot
La néologie argotique contemporaine se manifeste par divers procédés dont la grande majorité existe depuis bien longtemps. Il est important de comprendre que n’est pas tant leur nature mais leur fréquence qui la caractérise et lui donne ses couleurs.
Ils sont variés : troncations (suppression de certaines syllabes, comme « déter » < « déterminé »), siglaisons (« BG » < « Beau Gosse »)… Les emprunts sont très nombreux, on pense principalement à l’anglais « stalker » (< « espionner »), à l’arabe « bélek (à) » (< « fais attention (à) ») ou le célèbre « wesh », au non moins célèbre « poucave » (< « mouchard) faisant partie des emprunts à la langue romani, mais aussi par exemple au nouchi, un argot ivoirien (par exemple : « tchoin » < « prostituée »). Le verlan est plus complexe à analyser qu’il n’y paraît : il suit des règles précises suivant le nombre de ses syllabes et peut impliquer notamment des troncations et réagencements complexes. Il existe même un verlan du verlan, dit « veul », c’est le cas du mot « feumeu » (de « femme », cela devient « meufeu », puis…). Enfin, il faudrait noter que le jargon du jeu vidéo influence fortement l’argot courant (par exemple : « GG » < « Good Game »), tout comme l’algospeak (avec notamment le fameux « Tanaland », s’il ne fallait en citer qu’un).
Parce que c’est aussi amusant !
Les réseaux sociaux (notamment, oui, pour cacher du contenu sur Internet) et le rap accélèrent la création mais aussi la circulation des mots. La culture hip-hop, fortement ancrée dans l’oralité, diffuse en effet largement des termes qui se propagent dans la « jeunesse » et au-delà. Si les artistes s’en emparent, c’est aussi qu’il y a une dimension poétique des pratiques argotiques. Le jeu est indissociable de l’usage de la langue, qu’il soit littéraire ou quotidien. Le linguiste Roman Jakobson, qui parle de « fonction poétique » pour désigner cela, rappelle que cette fonction « est présente dès la première enfance » et accompagne les locuteurs tout au long de leur vie, révélant un certain goût pour le jeu avec les mots. Cette dimension du jeu fait partie intégrante des dynamiques sociales et identitaires au sein des groupes.
Comme l’évoque une recherche menée auprès d’adolescents scolarisés, le recours à l’argot apparaît aussi comme une forme de relâchement face à la pression du langage institutionnel, qu’ils associent à un cadre contraignant.
Ainsi, lorsque des collégiens ou des lycéens utilisent des termes ou des expressions argotiques, leur intention va bien au-delà de la simple volonté de « cacher » leur propos. Ils s’amusent avant tout avec la structure même de la langue. Oui, les pratiques argotiques contemporaines peuvent encore répondre à un besoin de communication secrète ou marginale, mais, par sa fonction ludique, la pratique témoigne qu’elle n’est pas seulement un outil de subversion, mais aussi un moyen de s’amuser, de se libérer des contraintes sociales.
L’usage ludique de l’argot ne concerne évidemment pas que les jeunes : chaque locuteur possède son propre répertoire linguistique dans lequel puiser des styles, qu’il active selon le contexte de son interaction. L’argot devient une manière de dire le monde autrement, selon ses compétences, son désir poétique, sa recherche de connivence humaine et de sa volonté de s’affranchir de la convenance hégémonique.
Anne Gensane ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.01.2026 à 15:21
Comment investissait-on son argent à Rome ou dans la Grèce antique ?
Texte intégral (2284 mots)

Dans l’Antiquité, pas de Bourse ni de produits financiers complexes, mais déjà une vraie culture de l’investissement. Or, terres, marchandises ou œuvres d’art : Grecs et Romains cherchaient, comme aujourd’hui, à sécuriser et faire fructifier leur richesse malgré les risques économiques et politiques.
« Tout ce que je veux, c’est un revenu de 20 000 sesterces provenant d’investissements sûrs », proclame un personnage dans un poème de Juvenal (Ier-IIe siècle de notre ère), le poète romain.
Aujourd’hui, 20 000 sesterces correspondraient à environ 170 000 euros d’intérêts issus d’investissements. N’importe qui serait très heureux de disposer d’un tel revenu annuel passif.
Comme aujourd’hui, les gens de l’Antiquité comprenaient que l’investissement de l’argent pouvait les aider à consolider et à accroître leur richesse.
Comme l’écrivain romain Pétrone (Ier siècle de notre ère) l’a un jour écrit,
Celui qui a de l’argent navigue avec un vent favorable et gouverne sa fortune comme il l’entend. (Quisquis habet nummos, secura naviget aura fortunamque suo temperet arbitrio.)
Alors, concrètement, comment les Anciens investissaient-ils leur argent ?
Une maison cossue aux réserves d’argent cachées
Dans la Grèce et la Rome antiques, il n’existait pas de marché boursier permettant d’acheter et d’échanger des parts d’une entreprise. Si l’on voulait investir son argent liquide, l’une des options les plus courantes consistait à acquérir de l’or ou de l’argent.
On le faisait pour se protéger contre les fluctuations monétaires et l’inflation. Les métaux étaient généralement conservés soit sous forme de lingots, soit sous forme d’objets, comme des bijoux. Le stockage de ces biens pouvait être risqué et les exposait aux vols.
Le poète romain Virgile (70-19 av. notre ère) décrit le domaine d’un riche propriétaire, qui comprenait « une demeure élevée, où des talents d'argent ciselé sont profondément enfouis, », aux côtés de « tas d’or travaillé et brut ».
Un talent était la plus grande unité de mesure monétaire dans la Grèce et la Rome antiques, et correspondait à environ 25 kg d’argent.
En général, les métaux étaient conservés dans un coffre spécial. L’écrivain romain Cicéron (106-43 av. notre ère) décrit par exemple comment une riche femme nommée Clodia sortait de l’or (peut-être sous forme de barres, de lingots ou de plaques) de son trésor lorsqu’elle souhaitait prêter de l’argent à quelqu’un. Cet or pouvait ensuite être échangé contre de la monnaie.
Essors des marchés – et effondrements
Le prix de ces métaux pouvait toutefois, à l’occasion, être soumis à des fluctuations imprévisibles et à des chutes brutales, même si cela arrivait moins souvent que pour la monnaie.
L’historien grec Polybe (vers 200-118 av. notre ère) explique ainsi que la découverte d’un nouveau filon d’or à Aquilée, en Italie, à seulement deux pieds de profondeur, provoqua une ruée vers l’or. Ce nouveau matériau inonda le marché trop rapidement et « le prix de l’or dans toute l’Italie chuta aussitôt d’un tiers » au bout de seulement deux mois. Pour stabiliser le prix de l’or, l’exploitation minière dans la région fut rapidement monopolisée et réglementée.
Lorsque les gens souhaitaient échanger des métaux précieux, ils les vendaient au poids. Si l’or, l’argent ou le bronze avaient été transformés en bijoux ou en d’autres objets, ceux-ci pouvaient être fondus et convertis en lingots.
Les gens semblaient éprouver un réel plaisir à posséder ces métaux précieux. L’écrivain athénien Xénophon (vers 430-350 av. notre ère) donne un indice sur l’état d’esprit des investisseurs antiques dans l’argent :
Quand on a fait l’acquisition du matériel nécessaire à un ménage, on n’achète rien en plus ; mais l’argent, jamais personne n’en possède assez pour n’en vouloir pas davantage : à ce point que ceux qui en ont beaucoup, trouvent autant de plaisir à enfouir leur superflu qu’à en user.
Un certain nombre de testaments romains révèlent d'ailleurs que des individus léguaient à leurs héritiers de l’argent et de l’or sous forme de barres, de plats ou de lingots.
Des marchandises qui ne pouvaient pas être « ruinées par Jupiter »
Outre les métaux, les produits agricoles étaient eux aussi très prisés, en particulier les céréales, l’huile d’olive et le vin. Pour tirer profit des denrées agricoles, on achetait des terres et on échangeait ces produits sur le marché.
L’homme d’État romain Caton estimait que placer son argent dans la production de marchandises constituait l’investissement le plus sûr. D'après. Plutarque, il affirmait que ces biens « ne pouvaient pas être ruinés par Jupiter » — autrement dit, qu’ils résistaient aux mouvements imprévisibles de l’économie. Alors que les métaux précieux constituaient une réserve de richesse, ils ne généraient aucun revenu tant qu’ils n’étaient pas vendus. En revanche, un portefeuille diversifié de denrées agricoles garantissait un revenu permanent.
On investissait aussi et on commerçait des biens précieux, comme les œuvres d’art. Lorsque les Romains mirent la ville de Corinthe à sac en 146 av. notre ère, ils dérobèrent sa célèbre collection d’œuvres d’art, puis vendirent par la suite ces chefs-d’œuvre aux enchères pour des sommes considérables afin de procurer des profits à l’État romain.
Lors de cette vente, le roi de Pergame, Attale II (220-138 av. notre ère), acheta l’une des peintures, réalisée par le maître Aristeidès de Thèbes (IVe siècle av. notre ère), pour la somme incroyable de 100 talents (environ 2 500 kg d’argent).
Des empereurs excentriques
L’instabilité politique ou l’incertitude faisaient parfois grimper le prix des métaux. L’historien grec Appien (IIe siècle de notre ère) rapporte que, durant la guerre civile romaine de 32-30 av. notre ère :
le prix de toutes les marchandises avait augmenté, et les Romains en attribuaient la cause aux querelles des chefs, qu’ils maudissaient.
Des empereurs excentriques pouvaient aussi imposer de nouvelles taxes ou redevances sur les marchandises, ou tenter de manipuler le marché.
L’historien romain Suétone (vers 69-122 de notre ère) nous raconte que l’empereur Caligula (12-41 de notre ère) « institua des impôts nouveaux et inouïs […] et il n’y eut aucune catégorie de marchandises ni d’hommes sur laquelle il n’imposa quelque forme de taxe ».
Un autre empereur, Vespasien (17-79 de notre ère), alla jusqu’à « acheter certaines marchandises uniquement afin de les redistribuer avec profit », écrit Suétone.
De toute évidence, investir judicieusement il y a 2 000 ans pouvait permettre de bâtir une richesse personnelle — mais comportait aussi des risques, tout comme aujourd’hui.
Konstantine Panegyres ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.01.2026 à 09:56
Changement climatique : les stations de ski doivent-elles encore investir dans la production de neige pour s’adapter ?
Texte intégral (1667 mots)
Face au recul de l’enneigement naturel, la neige de culture est l’outil privilégié par les stations de ski pour sécuriser leurs activités. Mais notre analyse de 56 exploitations de remontées mécaniques alpines sur quinze ans montre que ces investissements n’ont pas eu les effets escomptés. Le bien-fondé économique du soutien public à ces investissements mérite d’être interrogé.
La production de neige, également appelée neige de culture ou neige artificielle, s’est fortement développée ces dernières décennies dans les stations de sports d’hiver. Elle est désormais une pratique courante de gestion de la neige, qui a par le passé facilité l’exploitation des remontées mécaniques face à la variabilité de l’enneigement naturel.
Mais est-il pertinent, d’un point de vue économique, de poursuivre les investissements dans la production de neige pour adapter l’économie des stations de sports d’hiver à la raréfaction de l’enneigement naturel ?
Pour répondre à cette question, nous avons analysé la performance économique de 56 exploitations de remontées mécaniques dans les Alpes françaises entre 2004 et 2019. Nos résultats interrogent la poursuite des investissements dans la production de neige pour adapter l’économie des stations de sports d’hiver au changement climatique.
À lire aussi : Production de neige : le piège de la dépendance pour les stations de ski ?
La production de neige désormais au cœur du modèle du ski
De fait, l’enneigement naturel varie fortement d’une saison à l’autre. Depuis leur création, les domaines skiables sont confrontés à des hivers d’enneigement variables, les plus difficiles étant qualifiés d’« hiver sans neige ». En raison du changement climatique, la fréquence des hivers bien enneigés diminue et celle des hivers mal enneigés augmente.
Les stations situées à moins de 2000 m d’altitude sont déjà affectées. Dans un scénario avec un réchauffement atteignant +4 °C, il est estimé que 98 % des stations européennes seront exposées à un risque très élevé de déficit d’enneigement naturel. Cette menace sur l’enneigement affecte l’économie des exploitants de domaines skiables, ainsi que plus largement l’avenir de l’économie des territoires qui en dépendent.
La production de neige s’est généralisée dans les domaines skiables à partir des années 1990 afin d’accompagner l’enneigement naturel, et a effectivement permis d’atténuer l’impact des hivers mal enneigés. Plus récemment, son recours s’est fortement intensifié afin de continuer à sécuriser l’enneigement – et de préserver la rentabilité de l’exploitation des remontées mécaniques – face à la raréfaction de l’enneigement naturel dans le contexte du changement climatique. Cela implique d’importants investissements, en partie financés avec de l’argent public.
En France, la proportion de pistes de ski équipées pour la production de neige est passée d’environ 14 % en 2004 à 39 % en 2018. Cette dynamique illustre le changement de rôle donné à la production de neige : d’un accompagnement de l’enneigement naturel, elle est devenue la principale stratégie d’adaptation du tourisme hivernal au changement climatique.
À lire aussi : Pourra-t-on encore skier en Europe dans un monde à +2 °C ?
Poursuivre ces investissements permet-il aux remontées mécaniques de rester rentables ?
Est-il pertinent, pour l’adaptation de l’économie des stations de sports d’hiver, de poursuivre ces investissements ? Pour le savoir, notre étude de 2024 s’est intéressée aux effets des investissements réalisés dans les équipements de production de neige sur deux indicateurs financiers clés des exploitants de remontées mécaniques : le CA (chiffre d’affaires) et l’EBE (excédent brut d’exploitation).
L’EBE donne un aperçu de la rentabilité économique qu’a une entreprise de par son activité. L’analyse a porté sur un panel de 56 stations situées dans les Alpes françaises, couvrant 15 saisons consécutives de 2004/05 à 2018/19. Ces stations, de taille moyenne à très grande, sont gérées par des exploitants de droit privé, dans le cadre d’une délégation de service public.
Pour mesurer l’effet des investissements dans la production de neige, nous avons utilisé des méthodes économétriques permettant d’analyser leur effet spécifique en isolant l’effet des investissements dans la production de neige des autres facteurs influençant l’économie des stations, par exemple l’altitude de la station, sa taille ou encore sa proximité vis-à-vis des agglomérations urbaines. Cela nous a permis d’établir des liens de causalité, plutôt que de simples corrélations.
Qu’en est-il ? Nos résultats montrent que les investissements réalisés durant la période d’observation n’ont pas eu d’effets significatifs sur les CA ou EBE des entreprises gestionnaires de domaines skiables. Cette absence de relation a été observée en particulier lors des saisons les moins bien enneigées, soit les 20 % des saisons avec le plus faible enneigement naturel.
Le meilleur atout des stations ? L’altitude
À l’inverse, au cours des saisons les plus déficitaires en neige naturelle de la période étudiée, les stations situées en altitude ont bénéficié d’un avantage comparatif, ce qui contraste avec les plus importants investissements réalisés dans la production de neige qui ne se sont pas traduits par une amélioration significative de leur performance économique.
Ces résultats peuvent sembler surprenants, compte tenu de la confiance accordée à ces investissements. Ils corroborent pourtant l’état des connaissances scientifiques sur le sujet.
En effet, dès 2003, une étude canadienne suggérait que la poursuite des investissements dans la production de neige pourrait devenir non-rentable au-delà d’un certain seuil où le surcoût dépasse les gains économiques. Des travaux réalisés en 2008, 2013 et 2016 ont démontré, en France comme en Suisse, que l’intérêt économique de ces investissements était positif mais diminuait progressivement. Plus récemment, une étude menée en Espagne en 2020 a démontré, tout comme notre étude, que les derniers investissements réalisés n’ont pas eu d’effets significatifs sur la profitabilité des exploitants de remontées mécaniques.
Ces conclusions n’invitent pas nécessairement à cesser de produire de la neige dans les stations de sports d’hiver.
Elles interrogent toutefois la pertinence de poursuivre les investissements dans ces équipements, dont l’efficacité comme stratégie de long terme pour maintenir la rentabilité des stations de ski apparaît insuffisante face aux évolutions climatiques.
À lire aussi : Apocalypse snow : quand l’économie française du ski file tout schuss vers l’abîme
La thèse de Jonathan Cognard a reçu des financements de l'Agence de l'eau RMC et du LabEx ITTEM.
Lucas Berard-Chenu a reçu des financements de diverses organisations publiques dans le cadre de ses projets de recherche
02.01.2026 à 09:56
Les plans des pistes de ski, ou l’art de promettre de la neige toujours fraîche et un ciel toujours bleu
Texte intégral (4954 mots)

Objets familiers des skieurs, les plans des pistes ne sont pas seulement des outils pratiques : ils sont la promesse d’un paradis bleu et blanc, où la neige est partout et où il fait toujours beau. Mais à mesure que le climat se réchauffe, ces images idéalisées s’éloignent de plus en plus du réel. Elles sont devenues un miroir déformant qui interroge notre rapport aux sports d’hiver.
Maxime Petre, géographe et collectionneur de plans de pistes de ski, a co-écrit cet article et la parution scientifique sur lequel s’appuie celui-ci. Son travail de numérisation des plans de pistes actuels et passés a permis d’illustrer cet article.
Pour le skieur, le plan des pistes est à la fois un outil pratique et une promesse. On va l’étudier depuis la maison – ou l’appartement de location – pour prévoir sa journée à la neige, le déplier sur les pistes avec difficultés à cause des gants. Choisir entre une piste bleue ou rouge, un télésiège ou un téléphérique, autant de choix guidés par ce petit document.
Au-delà de cette fonction repère, le plan des pistes construit aussi un imaginaire : celui d’un hiver immuable, presque utopique, où les flancs des montagnes sont toujours enneigés et le ciel toujours bleu. Pour les plus aisés qui peuvent s’offrir ces loisirs de neige, ces plans perpétuent la magie d’un hiver éternel : toujours le même, d’une blancheur immuable, depuis des décennies.
Ils montrent des images d’une météo idéale, désormais rare dans un contexte de changement climatique et de baisse de l’enneigement, comme nous l’avons récemment exposé dans un article de recherche.
Du plan neige à l’émergence d’un style pictural standardisé
On trouve des plans des pistes dès la création des premières remontées mécaniques. Les premiers plans sont sommaires : il s’agit surtout de photographies annotées avec le tracé des pistes.
En témoigne par exemple le plan de la station d’Auron dans les Alpes-Maritimes, où le ski maralpin a pris naissance avec l’inauguration le 30 janvier 1937 du troisième téléphérique de France après Megève et Chamonix.
Mais c’est avec le Plan Neige de 1964 que la montagne française s’oriente massivement vers le tout-ski. Ses effets sont rapidement sensibles : de cinquante stations en 1960, on passera à deux cents en 1975. Pour ces destinations, les plans des pistes deviennent alors des icônes touristiques.
Comme il était alors la règle implicite pour les stations de dimension internationale, Val d’Isère (Savoie) sollicite dans les années 1950 l’Autrichien Heinrich Berannn qui a déjà œuvré du côté des plus grandes destinations de ski comme Gstaad (Suisse), Cortina d’Ampezzo (Italie) ou Sankt Anton Am Arlberg (Autriche). Ceci dénote une sorte de mimétisme alpin pour ces grandes contrées des sports d’hiver.
Formé aux Beaux-Arts à Lyon, Pierre Novat répond à l’appel de Val d’Isère en 1962 et va dessiner, à sa manière, une série de plans qui fera sa célébrité. Une exposition et un livre lui ont récemment été consacrés.
Les pinceaux de Pierre Novat entrent en action en 1962. Le plan de Heinrich Berann n’est plus à jour : Pierre Novat, Avalin (nom donné aux natifs de Val d’Isère) d’adoption, se charge du nouveau dessin.
C’est le début d’un long parcours professionnel fait de commandes à travers les Alpes françaises. Il va rapidement imposer son style, dont les pistes de Val d’Isère ont été le déclencheur artistique. Un projet de retravail graphique des cartes des pistes, dénommé micmap, vise aujourd’hui à conserver et prolonger l’héritage de Novat.
À lire aussi : Pourra-t-on encore skier en Europe dans un monde à +2 °C ?
Petits arrangements avec la géographie… et la météo
Mais comment représenter en deux dimensions des pentes aux expositions variées, des sommets emblématiques mais dont la visibilité et la proximité sont diverses ? La filouterie est de mise : chaque plan est, en réalité, une projection arrangée.
Pierre Novat le disait lui-même dans une interview en 1992 :
« Le crayonné a pour but de se mettre d’accord avec les gens de la station, voir si ça correspond à l’image qu’ils veulent donner de leur station et aux angles de prises de vues, aux ombres portées. Le plus, enfin le principe le plus important, ce qui m’a permis de me rendre utile aux stations, c’est que l’on triche, on triche pas mal. »
Autrement dit, les courbes sont adoucies et les reliefs moins acérés. Tout l’enjeu est d’inviter à la glisse, tout schuss. Ces paysages dessinés sont devenus les images d’Épinal pour représenter les stations de sports d’hiver.
Les plans déforment ainsi la topographie pour tout montrer de la station et de ses points forts, tout en présentant ses pentes comme accessibles. Mais ils enjolivent également la météo. Ils véhiculent une image normalisée d’un temps froid et ensoleillé (ce qu’on voit sur le plan), effaçant les conditions permettant les chutes de neige qui précèdent (et qui ne sont jamais représentées).
Sur les plans, la neige est omniprésente : très blanche ou légèrement bleutée, elle recouvre uniformément les reliefs, parfois jusqu’aux rives du lac Léman, à 500 m d’altitude, jusqu’aux cimes des Dents du Midi à plus de 3000 m – et au Mont-Blanc, évidemment.
Sur le plan ci-dessus du Suisse Winfried Kettler, réalisé pour le compte du domaine international des Portes du soleil (Suisse et France) dans les années 1980, la neige est partout présente, des rives du Léman au sommet du mont Blanc. Vingt ans après, l’objectif reste, ni plus ni moins, d’afficher encore de la neige à toutes les altitudes, comme le montre la carte contemporaine du domaine skiable en 2024.
Une vitrine de plus en plus éloignée du réel
Une telle blancheur continue n’a rien de réaliste : elle suppose la même quantité de neige à toute altitude, sur tous les versants, quelle que soit leur orientation. En réalité, la qualité et l’épaisseur du manteau neigeux varient selon la pente, l’exposition, le vent. Il est bien rare de trouver de la neige au sol à Évian même, comme le représente pourtant l’une des cartes ci-dessus, par exemple !
Quant au ciel, il est quasi systématiquement bleu, effaçant les nuages pourtant nécessaires aux chutes de neige. Ce choix n’est pas anodin : il permet à la neige d’étinceler et de révéler un panorama que la météo réelle masquerait. Le plan traduit des choix météorologiques forts réalisés à dessein.
Comment expliquer que l’image des pistes soit un tel miroir déformant ? C’est parce que le plan est aussi un produit d’appel, un objet marketing pour les touristes. Or la neige est l’élément phare pour attirer les skieurs. Et le ciel bleu, promesse de journées radieuses, est un atout supplémentaire qui permet de repartir bronzé. Pierre Novat assumait pleinement cette mise en scène météorologique, à même de séduire à la fois les élus locaux, les gestionnaires de stations et les skieurs.
À lire aussi : Comment les skieurs s’adaptent au manque de neige
Une forme de solastagie
Aujourd’hui, le plan s’éloigne de plus en plus du réel. Avec le réchauffement climatique, l’enneigement varie fortement selon les massifs, l’altitude ou l’exposition. Pourtant, les plans continuent d’afficher la même blancheur uniforme. Les plans des pistes ont beau afficher encore de la neige, les stations ferment peu à peu faute d’enneigement.
Après huit années d’inactivité, la station de ski de Céüze, dans les Hautes-Alpes, est en cours de démantèlement à l’automne 2025. Le plan des pistes prend alors le statut de relique, souvenir de jours heureux sur cette montagne emblématique du Gapençais.
Ces cartes traduisent-elles une forme de déni climatique ? Il s’agit plutôt d’un rêve, d’une utopie : l’idée que le ski reste possible, toujours, partout, et durant la « saison » de ski. Ces images révèlent une mémoire d’hivers idéalisés et engendrent une forme de solastalgie – ce sentiment de perte face à un paysage qui nous est proche et qui s’efface peu à peu
Anne Dalmasso, professeur d’histoire contemporaine à l’Université Grenoble Alpes écrivait, à propos des plans de Novat :
« Comme toutes les images touristiques, elles ont une fonction performative : elles reconfigurent tant les attentes que les souvenirs. »
À lire aussi : Production de neige : le piège de la dépendance pour les stations de ski ?
Neige de culture : des artifices peu visibles
Pourtant, la transition verte des domaines skiables passe par un autre rapport aux sports d’hiver et donc à la neige, avec de nombreux enjeux spécifiques aux territoires de montagne.
L’enneigement artificiel, déployé à partir des années 1970, vise à garantir la glisse sur le plan technique face aux aléas climatiques.
Le manque de neige dès la fin des années 1980, avec l’« hiver sans neige » 1988-1989, a amené les stations à rendre visibles les canons à neige pour informer leurs visiteurs d’une « garantie neige ».
L’enjeu du retour à la station ski aux pieds justifiait – et justifie encore – des investissements massifs, parfois déraisonnables compte tenu des altitudes.
Résultat : les pistes pourvues de canons à neige se matérialisent sur les cartes des pistes. De l’icône du flocon de neige aux pistes jaunies, les plans insistent alors sur les potentialités de la neige artificielle. Ces représentations disparaîtront largement plus tard.
Car, dans les années 2020, les contestations se font plus vives. Certaines stations choisissent de ne plus recourir à la neige artificielle, d’autres de la masquer sur leurs plans. Et bien malin celui qui pourrait ainsi déceler dans ce type de plan un lac dédié à la neige de culture : la transparence de ces aménagements s’efface au profit de l’image idéale et policée.
Ces plans peuvent-ils, doivent-ils évoluer, et si oui comment ? Faut-il produire des images plus « authentiques » reflétant le manque de neige ? Mais des images reflétant des pistes brunies par la terre à l’arrivée en station, des chalets enveloppés dans le brouillard et une tempête de neige en altitude seraient-elles aussi attractives au plan touristique ?
Heinrich Berann a longtemps été le panoramiste des olympiades. Malgré son décès en 1999, Cortina, ville hôte des Jeux olympiques d’hiver de 2026, qui vont débuter en février, lui est restée fidèle. Il y a fort à parier que les plans des Jeux olympiques d’hiver 2030, prévus dans les Alpes françaises, ne s’éloigneront guère de ce modèle immuable et vendeur.
À lire aussi : À moins de trois mois des JO d’hiver, quelles attentes environnementales ?
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
02.01.2026 à 08:46
Pas de chauffage central mais des lits chauffés… Ce que la ville la plus froide du monde nous enseigne
Texte intégral (1592 mots)
Et si le confort thermique ne se résumait pas à chauffer plus, mais à chauffer mieux ? Des lits chauffants chinois aux kotatsu japonais, l’Asie a longtemps privilégié des solutions ciblées, sobres et durables face au froid.
Les matins d’hiver à Harbin, où l’air extérieur pouvait vous geler les cils, je me réveillais sur un lit de terre chaude. Harbin, où j’ai grandi, se situe dans le nord-est de la Chine. Les températures hivernales y descendent régulièrement jusqu’à −30 °C et, en janvier, même les journées les plus douces dépassent rarement −10 °C. Avec environ 6 millions d’habitants aujourd’hui, Harbin est de loin la plus grande ville du monde à connaître un froid aussi constant.
Rester au chaud sous de telles températures m'a occupé l'esprit toute ma vie. Bien avant la climatisation électrique et le chauffage urbain, les habitants de la région survivaient à des hivers rigoureux en utilisant des méthodes entièrement différentes des radiateurs et des chaudières à gaz qui dominent de nos jours les foyers européens.
Aujourd’hui, en tant que chercheur en architecture dans une université britannique, je suis frappé par tout ce que nous pourrions apprendre de ces systèmes traditionnels. Les factures d’énergie restent trop élevées et des millions de personnes peinent à chauffer leur logement, tandis que le changement climatique devrait rendre les hivers plus instables. Nous avons besoin de moyens efficaces et peu énergivores pour rester au chaud, sans dépendre du chauffage de l’ensemble d’un logement à l’aide de combustibles fossiles.
Certaines des réponses se trouvent peut-être dans les méthodes avec lesquelles j’ai grandi.
Un lit chaud fait de terre
Mes premiers souvenirs de l’hiver sont liés au fait de me réveiller sur un « kang » – une plateforme-lit chauffée faite de briques de terre, utilisée dans le nord de la Chine depuis au moins 2 000 ans. Le kang est moins un meuble qu’un élément du bâtiment lui-même : une dalle épaisse et surélevée, reliée au poêle familial situé dans la cuisine. Lorsque le poêle est allumé pour cuisiner, l’air chaud circule dans des conduits aménagés sous le kang, réchauffant l’ensemble de sa masse.
Pour un enfant, le kang avait quelque chose de magique : une surface chaude et rayonnante qui restait tiède toute la nuit. Mais à l’âge adulte – et aujourd’hui en tant que chercheur – je peux mesurer à quel point il s’agit d’une pièce d’ingénierie remarquablement efficace.
Contrairement au chauffage central, qui fonctionne en réchauffant l’air de chaque pièce, seul le kang (c’est-à-dire la surface du lit) est chauffé. La pièce elle-même peut être froide, mais les personnes se réchauffent en s’allongeant ou en s’asseyant sur la plateforme, sous d’épaisses couvertures. Une fois chauffée, sa masse de plusieurs centaines de kilogrammes de terre compactée restitue lentement la chaleur pendant de longues heures. Il n’y avait pas de radiateurs, pas besoin de pompes, et nous ne chauffions pas inutilement des pièces inoccupées. Comme une grande partie de la chaleur initiale était produite par des feux nécessaires de toute façon pour cuisiner, nous économisions du combustible.
L’entretien du kang était une affaire familiale. Mon père – professeur de littérature chinoise au collège, pas vraiment un ingénieur – est devenu un expert du kang. Empiler avec soin des couches de charbon autour du foyer afin de maintenir le feu toute la nuit relevait du travail de ma mère. Avec le recul, je mesure l’ampleur des compétences et du travail que cela exigeait, ainsi que la confiance que les familles accordaient à un système nécessitant une bonne ventilation pour éviter les risques d’intoxication au monoxyde de carbone.
Mais malgré tous ses inconvénients, le kang offrait quelque chose que les systèmes de chauffage modernes peinent encore à fournir : une chaleur durable avec très peu de combustible.
Des approches similaires en Asie de l’Est
Dans toute l’Asie de l’Est, les manières de se réchauffer par temps froid ont évolué autour de principes similaires : maintenir la chaleur près du corps et ne chauffer que les espaces qui comptent vraiment.
En Corée, l’ancien système ondol fait également circuler de l’air chaud sous des sols épais, transformant toute la surface du sol en plancher chauffant. Le Japon a développé le kotatsu, une table basse recouverte d’une lourde couverture, avec un petit dispositif chauffant placé en dessous pour garder les jambes au chaud. Ils peuvent être un peu coûteux, mais comptent parmi les objets les plus populaires dans les foyers japonais.
Les vêtements étaient eux aussi très importants. Chaque hiver, ma mère me confectionnait un tout nouveau manteau épais et matelassé, qu’elle garnissait de coton fraîchement cardé. C’est l’un de mes souvenirs les plus tendres.
L’Europe avait des idées similaires – puis les a oubliées
Des approches comparables se sont jadis développées en Europe. Les Romains de l’Antiquité, par exemple, chauffaient les bâtiments grâce à des hypocaustes, qui faisaient circuler l’air chaud sous les sols. Au Moyen Âge, les foyers suspendaient de lourdes tapisseries aux murs pour réduire les courants d’air, et de nombreuses cultures utilisaient des coussins moelleux, des tapis chauffés ou des espaces de couchage clos afin de conserver la chaleur.
La généralisation du chauffage central moderne au XXe siècle a remplacé ces pratiques par un modèle plus énergivore : chauffer des bâtiments entiers à une température uniforme, même lorsqu’une seule personne est présente au domicile. Tant que l’énergie était bon marché, ce modèle fonctionnait, malgré le fait que la plupart des logements européens (notamment en France, NDT) soient mal isolés au regard des standards internationaux.
Mais aujourd’hui, alors que l’énergie est redevenue chère, des dizaines de millions d’Européens ne parviennent pas à chauffer correctement leur logement. De nouvelles technologies comme les pompes à chaleur et les énergies renouvelables aideront – mais elles fonctionnent d’autant mieux que les bâtiments qu’elles chauffent sont déjà performants, ce qui permet de fixer des consignes de chauffage plus basses et des consignes de refroidissement plus élevées.
Les approches traditionnelles du chauffage domestique ont donc encore beaucoup à nous apprendre. Le kang et les systèmes similaires démontrent que le confort ne vient pas toujours d’une consommation accrue d’énergie, mais d’une conception plus intelligente de la chaleur.
Yangang Xing ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.