LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

▸ Les 50 dernières parutions

07.03.2026 à 15:39

Pourquoi certaines municipalités freinent sur les renouvelables à l’approche des élections

Sébastien Bourdin, Professeur de géographie économique, IÉSEG School of Management

À l’approche des municipales, l’éolien, le biogaz ou le solaire deviennent sensibles. Certains maires freinent les projets en ce sens par crainte du conflit local.
Texte intégral (2035 mots)

À l’approche des élections municipales 2026, l’éolien, le biogaz et le solaire deviennent des sujets à haut risque politique. Mais l’opposition des habitants n’explique pas tout : notre recherche montre que certains maires temporisent – voire bloquent les discussions – à ce sujet pendant le calendrier électoral, par crainte du conflit local. Comprendre ces mécanismes est pourtant crucial pour concevoir des projets plus faciles à « vendre » politiquement, sans renoncer à l’ambition climatique.


Les maires affichent aujourd’hui une sensibilité élevée à l’enjeu climatique. Les chiffres le confirment : 87 % se déclarent préoccupés par le changement climatique, 69 % disent vouloir en faire une priorité de leur prochain mandat, et 65 % des collectivités affirment développer des projets d’énergies renouvelables. Pourtant, au moment de décider sur un projet précis – éolien, biogaz ou solaire – la décision se grippe souvent.

Le débat tend traditionnellement à en attribuer la responsabilité aux seuls habitants, à travers le phénomène baptisé NIMBY par les sociologues (pour Not In My BackYard, en français, « pas dans mon jardin », par lequel des populations plutôt favorables à un projet donné vont s’y opposer lorsque celui-ci implique davantage de nuisances à proximité de leur domicile.

Or, l’écart entre les intentions et les actions n’est pas seulement une affaire d’acceptabilité citoyenne : il renvoie aussi à des arbitrages politiques locaux.

Notre recherche, récemment publiée dans la revue Global Environmental Change invite à changer de focale. À partir d’entretiens menés avec 30 élus et l’apport de 50 articles de presse, nous avons mis en évidence deux logiques distinctes. de temporisation et de refus, qui éclairent le ralentissement observé dans de nombreux territoires à l’approche des élections. Certains élus, tout en se disant favorables à la transition, préfèrent ainsi éviter une séquence conflictuelle au mauvais moment.

« Pas pendant mon mandat » ou « pas tant que je suis candidat », des stratégies de temporisation

Quand un maire doit se prononcer sur un parc éolien, une unité de méthanisation ou une centrale solaire, il ne tranche pas seulement une question technique. Il ouvre une séquence politique locale : réunions publiques, tribunes dans le journal municipal, pétitions, tensions au conseil, parfois menaces de recours. Dans ce type de dossier, ce qui se voit immédiatement, ce sont les nuisances perçues et le conflit. Ce qui se voit plus tard, ce sont les bénéfices : recettes pour la commune, éventuels emplois, contribution aux objectifs climatiques. Cette asymétrie pèse sur la décision.

Les méthaniseurs sont un exemple de projet renouvelable à même de provoquer une levées de boucliers chez les habitants. Jérémy-Günther-Heinz Jähnick/Wikimedia, CC BY-NC-SA

Elle devient encore plus déterminante quand une élection approche, car le coût politique est immédiat alors que les gains, eux, arrivent souvent plus tard. Certains élus choisissent alors de temporiser ou d’éviter la décision. Notre étude permet de distinguer deux logiques de report.

  • Par analogie avec NIMBY, nous avons appelé la première NIMEY (pour Not In My Electoral Year, que l’on pourrait traduire en français par « pas tant que je suis candidat »). Elle correspond à des élus favorables aux projets renouvelables sur le principe, mais qui choisissent de décaler une décision sensible. Le calcul est simple : éviter d’installer un sujet conflictuel au cœur d’une campagne municipale, avec le risque de voir un projet cristalliser le débat local, polariser le conseil municipal, ou encore alimenter une mobilisation associative structurée.

  • Nous avons appelé la seconde logique NIMTOO (pour Not In My Term Of Office, « Pas pendant mon mandat »). Celle-ci renvoie à un type de blocage plus durable : l’élu estime que le coût politique est trop élevé sur l’ensemble de son mandat. Ici, l’enjeu n’est plus le timing électoral immédiat, mais la conviction que le projet ne produira pas de bénéfice visible à court terme pour la population locale, ou qu’il exposera trop fortement la majorité municipale à un conflit permanent, ce qu’il veut éviter.

Ces deux attitudes ont un point commun : elles déplacent le niveau de l’explication du ralentissement. Le problème n’est plus seulement « l’opposition des habitants », mais l’arbitrage politique réalisé par l’élu, qui évalue ce qu’il peut gagner, ce qu’il peut perdre, et le moment où il acceptera – ou non – de porter ce risque.


À lire aussi : Au nom du paysage ? Éoliennes, méthaniseurs… pourquoi les projets renouvelables divisent


Le poids des règles et de l’administratif

Notre étude montre toutefois que ces stratégies de temporisation ne suffisent pas, à elles seules, à expliquer la prudence des maires. Même lorsqu’un élu est convaincu sur le fond, d’autres facteurs très concrets peuvent le pousser à ralentir.

En cause, d’abord la « mécanique » administrative. Un projet d’éolien, de méthanisation ou de solaire, ce n’est pas un simple oui ou non : c’est un dossier long, technique, exposé à des procédures et à des contestations.

Les maires parlent souvent de règles qui évoluent, de formulaires et d’étapes qui s’accumulent, de délais difficiles à maîtriser, et surtout de la crainte de voir le projet attaqué en justice. Dans une petite commune, ces sujets arrivent rarement sur un service juridique dédié : le maire, quelques agents, parfois une assistance extérieure, et beaucoup de temps à trouver là où il n’y en a pas. On comprend alors pourquoi un élu peut se dire favorable à la transition dans les enquêtes, et devenir nettement plus prudent quand un projet précis se présente.

Entre l’ambition générale et la décision locale, il y a un écart : celui de la gestion quotidienne d’un dossier complexe, potentiellement conflictuel, et dont les bénéfices n’apparaissent pas immédiatement.


À lire aussi : Pourquoi certains projets de méthanisation sont acceptés et d’autres pas


D’autres urgences locales prennent le dessus

Un troisième facteur revient fortement dans les discours des élus interrogés dans notre étude : la concurrence avec d’autres priorités municipales.

Dans de nombreuses communes, surtout hors des grandes métropoles, le maire doit déjà se battre sur des sujets tels que l’accès aux services publics, les tensions budgétaires, la désertification médicale, la cohésion sociale, ou encore l’entretien des infrastructures. Le temps politique et administratif est rare. Un projet d’énergies renouvelables, surtout s’il est perçu comme imposé ou difficilement maîtrisable, peut passer au second plan.

Cette hiérarchisation des urgences pèse sur les décisions. Un élu peut juger qu’il lui sera plus difficile de défendre une unité de méthanisation si, dans le même temps, l’école ferme une classe ou si l’offre de soins se dégrade. Un projet énergétique, même utile du point de vue climatique, doit s’inscrire dans un récit local crédible : que gagne concrètement la commune, ici et maintenant, et comment ce gain se compare aux tensions que le projet pourrait déclencher ?


À lire aussi : Comment une mairie peut équilibrer son budget ?


Pour dépasser les blocages, réduire le risque politique et produire des réussites visibles

Plusieurs leviers reviennent de façon récurrente dans les propos des maires interrogés.

  • Le premier concerne la sécurisation : il s’agit de réduire l’incertitude réglementaire, de stabiliser les procédures et de simplifier l’accès aux compétences juridiques et techniques. Un maire ira plus facilement de l’avant sur un dossier lorsqu’il sait que celui-ci ne va pas se transformer en feuilleton administratif incontrôlable.

  • Le deuxième touche au partage des bénéfices : il s’agit de rendre visibles les retombées locales, de mieux répartir la valeur, re clarifier l’usage des recettes et enfin d’expliquer ce qui revient au territoire. Un projet accepté se construit rarement sur des bénéfices abstraits. Il s’appuie sur des gains concrets, identifiables, discutables en conseil municipal et qu’on peut présenter aux habitants.

  • Le troisième relève du récit et de la preuve : les success stories locales sont importantes. Elles changent la perception du risque et donnent aux élus des arguments, des exemples, des formats de concertation, des trajectoires déjà empruntées par des communes comparables. Elles permettent aussi de sortir du face-à-face stérile entre « pro-transition » et « anti-projets ».

Le débat sur l’éolien, le biogaz ou le solaire ne se joue donc pas uniquement dans l’opinion des habitants. Il se joue aussi dans les contraintes politiques des maires, dans la structure des incitations au cours du mandat, et dans la capacité collective à rendre la transition compatible avec la réalité municipale. Tant que cet angle restera secondaire, le réflexe NIMBY continuera de servir d’explication commode. Mais il masquera une partie du problème – et retardera une partie des solutions.

The Conversation

Sébastien Bourdin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

07.03.2026 à 15:38

Municipales : quand le pouvoir se déplace vers les métropoles en échappant aux citoyens

Tommaso Germain, Chercheur en science politique, Sciences Po

Les élections municipales détermineront qui gouvernera les 21 métropoles françaises. Or l’élection indirecte des conseillers métropolitains pose un problème démocratique.
Texte intégral (1762 mots)

Les élections municipales ne désigneront pas seulement 34 875 maires : elles détermineront qui gouvernera les 21 métropoles, dont le pouvoir s’est considérablement accru depuis une dizaine d’années. Or, à l’exception de Lyon, les membres des conseils des métropoles sont élus indirectement, à travers les élections municipales. Ce problème démocratique n’est pas suffisamment pris en compte dans le débat public.


Les élections municipales des 15 et 22 mars 2026 prennent la température politique du pays, avec un projecteur sur les maires. Mais un paradoxe est éclatant : alors que le maire est la figure en qui les citoyens ont le plus confiance, c’est bien la question métropolitaine, souvent minorée et peu connue des électeurs, qui aura le plus d’impact réel à l’issue de ces élections. Car les municipales ne désigneront pas seulement 35 000 maires. Elles détermineront en réalité qui gouvernera, dans les grandes agglomérations, une grande partie des politiques publiques structurantes pour les six prochaines années. Derrière le scrutin municipal se trouve un enjeu décisif : celui du pouvoir métropolitain.

Les métropoles, institutions méconnues au rôle décisif

Les métropoles institutionnelles sont la forme d’établissement public de coopération intercommunale (EPCI) la plus intégrée. Créée en 2010 sous Nicolas Sarkozy et généralisée en 2014 sous François Hollande, la forme « métropole » consacre une intercommunalité intégrée, aux compétences étendues, comptant au moins 500 000 habitants. Son action dépasse largement le cadre communal et détermine amplement les conditions socioéconomiques d’un territoire. Il existe aujourd’hui 21 métropoles en France, regroupant environ 23 millions d’habitants : c’est plus d’un tiers de la population nationale.

Plus encore, les métropoles concentrent plus de 50 % du PIB national et représentent une part toujours croissante de l’investissement public local et des recettes fiscales, mutualisées. Désormais, les intercommunalités, et, en premier lieu, les métropoles ont de plus en plus tendance à investir les politiques sociales (action sociale, mobilité, jeunesse, enfance), traditionnellement réservées à la commune et au département. Pour des millions d’habitants, la réalité des politiques publiques et sociales dépend donc, avant tout, de l’action des métropoles.

Un espace politique faiblement politisé

Tandis que leur pouvoir s’accroît continuellement, les budgets se comptant de plus en plus en milliards d’euros (Lyon, Aix-Marseille, Bordeaux, Lille, Nantes…), l’organe délibératif des métropoles demeure élu indirectement, à travers les élections municipales. Par le système de fléchage, les élus communaux siègent également à l’assemblée métropolitaine. Leur mandat est donc issu d’une campagne municipale, très locale et consacrée à cet échelon, et non d’une élection à l’échelon métropolitain.

Longtemps, la dimension intercommunale des élections a été totalement mise de côté. Ce système favorisait une certaine opacité, puisque les décisions importantes n’étaient pas tranchées devant les électeurs. Les sociologues parlaient de « démocratie confisquée » par cette opacité. Tandis que la loi instituait les métropoles, la politisation de ces élections est restée faible, l’intercommunalité demeurant une « invitée discrète » lors des élections de 2014. En 2020, alors même que la métropole devenait un fait social majeur, son enjeu était mis de côté dans un contexte de crise sanitaire, ne suscitant que l’intérêt des spécialistes de l’action publique.

En 2026, la taille des enjeux stratégiquement gérés par les métropoles justifierait un débat devant les électeurs. En jeu : le renforcement d’un espace public métropolitain, la constitution d’une arène politique liée à un sentiment d’appartenance des citoyens conscients de la réalité de cet échelon. À ce jour, il n’existe pas de tel espace public, a fortiori lorsque le scrutin est indirect et conditionné légalement aux élections municipales. Toutefois, trois exceptions métropolitaines peuvent indiquer une voie métropolitaine potentiellement plus démocratique.

Les cas du Grand Paris, d’Aix-Marseille et de Lyon

Trois laboratoires institutionnels et démocratiques questionnent largement la démocratie locale et son avenir dans le cadre du système des métropoles.

D’abord, le cas de la Métropole du Grand Paris, créée par la loi du 3 juin 2010. Largement sous-dotée en investissement alors qu’il s’agit d’un pôle urbain européen de premier plan en Europe (avec Londres et Moscou), la Métropole du Grand Paris est découpée en établissements publics territoriaux (EPT) et souvent critiquée comme une « coquille vide », qui ferait doublon avec la Région Île-de-France.

Pourtant, elle regroupe plus de 7 millions d’habitants et 130 communes sur 815 km2, et une intégration métropolitaine des parties prenantes permettrait de traiter des enjeux majeurs, comme les transports, le développement économique ou l’aménagement. La composition de son conseil métropolitain et de son assemblée des maires dépend directement des élections municipales, qui façonneront les équilibres politiques et les actions pour les six années à venir.

En l’état, le Premier ministre Sébastien Lecornu a annoncé, en février 2026, consacrer l’un des trois textes de sa réforme de décentralisation à cette métropole, afin d’en revoir le périmètre. Plusieurs pistes se dessinent : une fusion de la métropole avec les départements, la transformation des EPT en EPCI autonomes, ou à l’inverse leur consécration comme échelons déconcentrés de la métropole, ou encore le rapprochement de la métropole, de la région et des grands syndicats urbains de l’agglomération parisienne. Dans tous les cas, la question démocratique se posera.

La Métropole d’Aix-Marseille est la seconde exception au droit commun. Là, l’institution regroupe 92 communes et 1,9 million d’habitants sur 3 150 km2. Gouvernée par un exécutif appuyé sur un conseil de métropole large, comptant 240 conseillers, la métropole est arrimée au centre droit, aux antipodes de la ville de Marseille ancrée à gauche. Les métropoles produisent des majorités élargies, gestionnaires, supplantant la figure du maire autrefois centrale. La cohérence de l’action métropolitaine et de l’action municipale est cruciale pour de nombreuses politiques publiques, et ces équilibres ressortiront discrètement, mais de façon directe des élections municipales. Ce cas montre un déplacement du pouvoir vers la métropole, qui réduit les affrontements idéologiques, incitant à une logique de coopération. Néanmoins, la métropole peine à s’autonomiser et reste ancrée dans des conflits multiples, que ce soit avec les communes ou avec l’État, et cela tient en partie à son manque de légitimité démocratique.

Enfin, la Métropole de Lyon regroupe 58 communes et 1,3 million d’habitants sur une zone concentrée de 538 km2. C’est sans doute le cas le plus innovant en termes institutionnels, avec d’une forme de métropole-providence, aux compétences et aux budgets étendus, qui génère une centralisation locale, et dotée d’un budget de près de 4 milliards d’euros.

Mais c’est aussi le cas le plus important en termes démocratiques, puisqu’en application de la loi MAPTAM modifiée, cette collectivité territoriale au statut particulier voit son conseil de métropole être élu directement par les citoyens. Cette élection directe par circonscriptions « métropolitaines », était portée dès 2013 par l’équipe réformatrice autour de Gérard Collomb comme un projet démocratique, l’élection permettant de légitimer la concentration de compétences dans l’institution. De plus, la métropole commence à être identifiée par les citoyens, notamment grâce à des actions de communication institutionnelle ou médiatique. Cet exemple innovant permettant le vote direct des citoyens montre que l’enjeu démocratique pourrait être traité frontalement, en généralisant les élections directes pour les 21 métropoles.

La métropolisation, un angle mort du débat public

Les élections municipales apparaissent dans les métropoles comme un scrutin à double détente : localement personnalisé et visibilisé autour du maire, mais structurellement et stratégiquement métropolitain. Ces équilibres serviront largement de baromètre au projet de décentralisation présenté par le Premier ministre, qui cible explicitement le Grand Paris mais pourrait également proposer de revoir le périmètre métropolitain commun.

Finalement, à mesure que les métropoles deviennent des centres de décision politique et budgétaire, l’enjeu démocratique se déplace sans que le débat public ne suive. Les élections de 2026 diront si les électeurs en prennent conscience en identifiant le pouvoir réel qui est en jeu.

The Conversation

Tommaso Germain ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

07.03.2026 à 15:10

Au-delà du slogan « Spain is Different » : pour en finir avec les clichés touristiques sur l’Espagne

Jorge Villaverde, Historien, professeur contractuel, Institut catholique de Lille (ICL); European University Institute

Ni fatalité historique ni coup de génie franquiste : une autre lecture de la « différence » espagnole mise en avant dans les années 1960 pour attirer les touristes.
Texte intégral (3408 mots)
Plage de Palmanova (Majorque), 1960. Antonio Verdugo/Legs Luis Fernández Fuster, Université de Saragosse, Huesca. , CC BY

L’émission « Karambolage », sur Arte, proposait récemment un récit séduisant sur l’évolution de l’image de l’Espagne à travers les siècles. Elle relie la « Légende noire » du XVIᵉ siècle au slogan touristique « Spain is Different » popularisé dans les années 1960, en suggérant une continuité presque naturelle entre stéréotypes anciens et marketing franquiste. Le propos est pédagogique et accessible. Mais c’est justement cette efficacité narrative qui pose problème.


Un récent épisode de « Karambolage », programme court proposé par Arte, retrace l’évolution de l’image de l’Espagne à l’étranger. Aujourd’hui associée au soleil et au flamenco, l’Espagne aurait longtemps souffert d’une réputation négative. Dès le XVIᵉ siècle, au moment où son empire colonial est à son apogée, ses rivaux protestants diffusent une propagande hostile à l’origine de cette « Légende noire », décrivant les Espagnols comme brutaux et arriérés. Cette vision persiste, notamment en France au XIXᵉ siècle, où l’expression doublement raciste « l’Afrique commence aux Pyrénées » situe le pays aux marges d’une Europe supposée plus civilisée.

Le programme avance l’enchaînement suivant : au XXᵉ siècle, la guerre civile puis la dictature franquiste renforcent l’isolement international du pays. Dans les années 1960, le régime ouvre l’Espagne au tourisme. Sous l’impulsion du ministre Manuel Fraga Iribarne, une campagne ambitieuse mise sur la tradition et s’accompagne du slogan « Spain is Different ».

Le problème de ce récit tient à la simplification d’un processus beaucoup plus complexe. Partir de la « Légende noire » pour aboutir à la réappropriation ironique d’un slogan franquiste peut sembler cohérent. L’angle rejoint les travaux récents sur le rôle du tourisme dans la construction de l’identité espagnole et de son image internationale.

Mais en reliant ces éléments par une ligne continue, l’émission réactive des clichés historiques que la recherche nuance aujourd’hui fortement.

Une différence séduisante mais périphérique

Si la vidéo évoque la frustration de certains Espagnols face aux images déformantes dont leur pays fait l’objet, elle tend néanmoins à reconduire l’idée d’une Espagne définie par le regard extérieur. Les procédés d’érotisation et d’exotisation élaborés au XIXᵉ siècle par les puissances hégémoniques, française et britannique, à l’égard de leur ancienne rivale, participent de cette construction.

Ces représentations ne relèvent ni d’un mépris simple ni d’une continuité linéaire entre la propagande anti-impériale et les condescendances ultérieures. Elles installent l’Espagne dans une altérité ambivalente qui relègue l’ancien empire aux marges d’une modernité définie ailleurs. Décrite comme périphérique, la Péninsule est simultanément investie comme espace romantique, source d’inspiration politique et artistique. Même si les touristes restent encore très peu nombreux par rapport ceux qu’accueillent la France, la Suisse au l’Italie, l’Espagne occupe une place centrale dans l’imaginaire européen.


À lire aussi : Tourisme culturel et mondialisation : l’Espagne, entre fiction et réalité


« L’Andalousie au temps des Maures », affiche d’Alexandre Lunois, Exposition universelle de 1900 (Paris). Bibliothèque nationale de France, CC BY

Mépris et exaltation procèdent d’un même mouvement. Les clichés articulent hiérarchisation et attraction, esthétisation et mise à distance. L’admiration elle-même participe d’un reclassement symbolique qui assigne à l’Espagne une différence séduisante mais périphérique.

Il ne suffit donc pas de complexifier le regard français. Il faut aussi éviter de réduire le pays à l’objet d’une construction symbolique extérieure. Une telle lecture occulte ses dynamiques propres. L’Espagne n’est pas seulement façonnée par des projections étrangères. Elle est aussi un espace de débats internes et de circulations intellectuelles qui dépassent ses frontières.

Dès l’époque moderne, des penseurs espagnols interrogent la légitimité de la conquête et participent pleinement aux circulations savantes européennes. Au XIXᵉ siècle, exilés et voyageurs espagnols découvrent l’industrialisation des pays plus riches et le rayonnement des grandes expositions universelles. Ces expériences alimentent des débats fondamentaux sur la place de l’Espagne dans la modernité.

Présenter le pays comme enfermé dans une réputation négative subie passivement revient à invisibiliser ces controverses internes et ces échanges transnationaux, qui ont contribué à définir sa position dans l’histoire européenne.

Un slogan ambivalent

Mais le principal angle mort de cette narration apparaît lorsque l’on examine l’histoire du slogan lui-même. Il est vrai qu’une mémoire largement partagée attribue « Spain is Different » au superministre franquiste Manuel Fraga. Pourtant, les recherches montrent que la formule surgit dès les années républicaines, circule abondamment dans les années 1940 et 1950, et que la campagne lancée sous Fraga en constitue davantage l’aboutissement que l’invention.

« Spain is Different » apparaît ainsi dès 1932-1933 dans une série d’affiches photographiques éditées sous la direction de Rafael Calleja, haut fonctionnaire conservateur maintenu en poste, de la dictature de Primo de Rivera à la République. Le slogan accompagne notamment l’image d’une « alcaldesa » de Zamarramala, figure féminine investie symboliquement d’autorité lors du jour de la fête.

Photographie de Francisco Andrada, PNT/OTC, 1932-1933. Arxiu Històric de la Ciutat de Barcelona AHCB4-205/C05.

Le choix est déjà singulier. Il intervient au moment où la République élargit la participation civique des femmes et transforme profondément le cadre politique et social.

Pendant la guerre civile (1936-1939), la formule est rapidement détournée. Au dos de la revue L’Esquella de la Torratxa, une famille de touristes anglais contemple une version très particulière de l’affiche. L’« alcaldesa » y est remplacée par un Franco dont la posture, selon les codes de l'époque, peut apparaître efféminée – manière de le dévaloriser dans un contexte historique misogyne. Entouré d’un évêque, d’un soldat colonial et d’officiers nazis et fascistes, le motif de la « différence » se transforme en satire politique. Celle-ci ne renvoie plus aux particularités nationales mais au spectacle offert aux démocraties européennes attentistes de l’alliance des putschistes avec les puissances fascistes et du recours aux troupes coloniales.

Propagande touristique internationale – « Visitez l’Espagne », David Santsalvador (1909-1938), La Esquella de la Torratxa, 13 novembre 1936. Biblioteca Virtual de Prensa Histórica, CC BY-NC-ND

Dans la presse anglophone, le slogan sert également de clé d’interprétation du conflit. Il apparaît souvent dans des récits empreints de condescendance impériale qui présentent une Espagne « différente » comme une anomalie instable au sein de l’Europe civilisée. Ce trope ancien contribue à naturaliser la violence, à la décrire comme l’expression attendue d’une altérité supposée plutôt que comme une rupture partagée de l’ordre européen.

Ni la formule ni son principal artisan ne disparaissent avec la guerre. Le slogan est réactivé dans les années 1940 et 1950, notamment dans les volumes Apologías Turísticas de España dirigés par Rafael Calleja (1943, 1957), ainsi que dans plusieurs campagnes d’affiches photographiques où on lit « Spain is Beautiful and “Different” » puis « Spain is Beautiful and Different : Visit Sunny Spain ».

Dans le contexte de l’après-guerre, la singularité accompagne l’effort du régime pour rompre l’isolement international et s’inscrire dans l’ordre occidental dominé par les États-Unis. La promotion touristique vise désormais prioritairement le public nord-américain, tandis que la singularité espagnole se transforme en ressource diplomatique destinée à présenter l’Espagne comme un partenaire fréquentable du bloc occidental.

Rencontre de Franco et du président états-unien Eisenhower à Madrid, 22 décembre 1959. WikiCommons, CC BY

Lorsque Manuel Fraga relance en 1962 une grande campagne sous le slogan « Spain is Different », l’Espagne n’est déjà plus un pays isolé. Les accords conclus avec le Saint-Siège et avec les États-Unis en 1953, l’entrée à l’ONU en 1955 et le Plan de stabilisation de 1959 ont engagé son insertion dans l’ordre occidental et ouvert une phase de croissance très rapide. Dans la conjoncture des Trente Glorieuses, le tourisme devient l’un des moteurs de la transformation économique et sociale. L’Espagne accueille déjà près de sept millions de visiteurs par an au début de la décennie et s’intègre à un marché international des loisirs au côté de l’Italie ou de la Grèce.

Le régime cherche certes à attirer des devises et à améliorer son image. Mais réduire cette politique à une simple instrumentalisation folklorique simplifie une société en pleine mutation. Administrateurs, entrepreneurs, artistes et municipalités participent à la construction de cette nouvelle image. Dans un marché touristique de plus en plus concurrentiel, la « différence » devient alors un ressort de différenciation. L’essor du tourisme espagnol s’explique surtout par des dynamiques structurelles inscrites dans l’Europe d’après-guerre plutôt que par l’action isolée d’un homme providentiel.

Enfin, l’opposition implicite entre une Espagne « arriérée » et une Europe « moderne » reconduit un schéma ancien que l’historiographie a largement déconstruit. L’histoire espagnole ne se lit pas comme une trajectoire en retard par rapport à un centre européen supposé normatif. Formulée depuis un média culturel prestigieux, comme Arte, issu de pays plus riches, cette opposition tend, malgré elle, à réactiver des logiques anciennes de hiérarchisation culturelle.

De la propagande au détournement : quand le slogan échappe à l’État

Cette même lecture linéaire apparaît dans la manière dont l’émission relie la « Légende noire » à l’usage contemporain, volontiers ironique, de « Spain is Different », comme si les clichés finissaient par être intériorisés. Or, le slogan a connu une trajectoire longue et conflictuelle.

Dès son apparition, il sert à disputer la définition de la nation : dans la réaction conservatrice aux réformes républicaines, pendant la guerre civile dans la satire antifasciste et dans des récits anglo-saxons marqués par une condescendance impériale, puis dans un franquisme d’abord en quête de protection états-unienne, ensuite soucieux de devises et de reconnaissance européenne.

Le cas espagnol montre qu’une appropriation ironique peut constituer une forme de distanciation critique. Au sens du sociologue britannique Stuart Hall, il s’agit d’une lecture oppositionnelle où un message produit par le pouvoir est repris et retourné contre lui. Ce qui pose problème n’est donc pas l’ironie, mais la trame linéaire dans laquelle on inscrit cette histoire.

Ce ne fut pas la dernière fois. En 2012, la création de « Marca España » par le gouvernement du Partido Popular (PP), fondé par Manuel Fraga à la fin du franquisme, s’inscrivait dans la logique néolibérale du nation branding. L’organisme devait améliorer l’image du pays à l’étranger et auprès des Espagnols eux-mêmes. Très vite, le nom devint objet de sarcasme. Au moindre retard de train, après une défaite sportive ou un scandale de corruption, un haussement de tête suffisait pour entendre un ironique « Marca España ».

La « différence » n’a jamais constitué une essence stable. Elle a été un enjeu, un lieu de projection et de conflit. La présenter comme un fil continu reliant stéréotype ancien et marketing franquiste efface l’essentiel : la « différence » espagnole a toujours été un objet de dispute.

The Conversation

Jorge Villaverde ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

07.03.2026 à 15:08

Notre cerveau doit faire plus d’efforts dans un open space que dans un bureau individuel

Libby (Elizabeth) Sander, MBA Director & Associate Professor of Organisational Behaviour, Bond Business School, Bond University

Le retour au bureau s’est souvent accompagné d’un retour aux open spaces. Mais une nouvelle étude utilisant des capteurs cérébraux montre que ces environnements obligent le cerveau à fournir davantage d’efforts pour maintenir la même concentration.
Texte intégral (1686 mots)
Depuis la fin du confinement, l'attention se porte principalement sur les conséquences du télétravail sur la productivité. Mais le rôle des open spaces, qui sont devenus la norme dans beaucoup d'entreprises adoptant le travail hybride, est méconnu. Arlington Research/Unsplash, CC BY

Les open spaces sont devenus la norme dans de nombreuses entreprises. Pourtant, une étude montre que ces espaces obligent le cerveau à travailler davantage pour rester concentré, même lorsque l’on pense ignorer les distractions.


Depuis la pandémie, les bureaux du monde entier ont discrètement rétréci. De nombreuses organisations n’ont plus besoin d’autant de surface ni d’autant de postes de travail, alors qu’une grande partie des salariés pratique désormais le travail hybride — entre domicile et bureau.

Mais les jours où davantage d’employés sont présents, les espaces de travail peuvent paraître nettement plus animés et plus bruyants. Malgré toute l’attention portée au retour des salariés dans les bureaux, beaucoup moins d’attention a été accordée aux effets du retour dans les espaces de travail en open space.

Or de nouvelles recherches confirment ce que beaucoup soupçonnaient : dans les open spaces, notre cerveau doit produire plus d'effort que dans des bureaux individuels.

Ce qu’a testé la dernière étude

Dans une étude récemment publiée, des chercheurs d’une université espagnole ont équipé 26 personnes, âgées d’une vingtaine à une soixantaine d’années, de casques d’électroencéphalogramme (EEG) sans fil. Les tests EEG permettent de mesurer l’intensité de l’activité cérébrale en enregistrant les signaux électriques du cerveau grâce à des capteurs placés sur le cuir chevelu.

Les participants ont réalisé des tâches simulant un travail de bureau, comme surveiller des notifications, lire et répondre à des e-mails, ou encore mémoriser puis restituer des listes de mots.

Chaque participant a été observé pendant qu’il réalisait ces tâches dans deux environnements différents : un espace de travail en open space avec des collègues à proximité, et une petite cabine de travail fermée, dotée de panneaux vitrés transparents sur un côté.

Les chercheurs se sont concentrés sur les régions frontales du cerveau, responsables de l’attention, de la concentration et de la capacité à filtrer les distractions. Ils ont mesuré différents types d’ondes cérébrales.

Comme l’explique plus en détail la neuroscientifique Susan Hillier dans cet article, les différentes ondes cérébrales correspondent à des états mentaux distincts :

  • Les ondes « gamma » sont associées aux états ou aux tâches nécessitant une forte concentration.
  • Les ondes « bêta » sont liées à un niveau d’anxiété plus élevé et à des états plus actifs, avec une attention souvent tournée vers l’extérieur.
  • Les ondes « alpha » correspondent à un état très détendu, avec une attention passive (comme lorsqu’on écoute calmement sans vraiment s’impliquer).
  • Les ondes « thêta » sont associées à une relaxation profonde et à une attention tournée vers l’intérieur.
  • Et les ondes « delta » correspondent au sommeil profond.

L’étude espagnole a montré que les mêmes tâches réalisées dans la cabine fermée et dans l’open space produisaient des schémas cérébraux complètement opposés.

Filtrer les distractions demande un effort

Dans la cabine de travail, l’étude a montré que les ondes bêta — associées au traitement mental actif — diminuaient nettement au fil de l’expérience, tout comme les ondes alpha liées à l’attention passive et, plus généralement, l’activité des régions frontales du cerveau.

Autrement dit, le cerveau des participants avait besoin de moins en moins d’efforts pour accomplir les mêmes tâches. Les tests réalisés dans l’open space ont montré exactement l’inverse.

Les ondes gamma, associées aux processus mentaux complexes, ont augmenté de façon continue. Les ondes thêta, qui reflètent à la fois la mémoire de travail et la fatigue mentale, ont elles aussi progressé. Deux indicateurs clés ont également fortement augmenté : l’éveil (le niveau d’alerte et d’activation du cerveau) et l’engagement (l’effort mental mobilisé).

Autrement dit, dans l’open space, le cerveau des participants devait travailler davantage pour maintenir le même niveau de performance. Même lorsque nous essayons d’ignorer les distractions, notre cerveau doit dépenser de l’énergie mentale pour les filtrer.

À l’inverse, la cabine de travail éliminait la plupart des bruits de fond et des perturbations visuelles, permettant au cerveau des participants de fonctionner plus efficacement.

Les chercheurs ont également observé une variabilité bien plus importante dans l’open space. Chez certaines personnes, l’activité cérébrale augmentait fortement, tandis que chez d’autres les changements restaient modestes. Cela suggère que nous ne sommes pas tous également sensibles aux distractions des espaces de travail ouverts.

Avec seulement 26 participants, il s’agit toutefois d’une étude relativement modeste. Mais ses résultats font écho à un ensemble important de recherches menées au cours de la dernière décennie.

Ce que montrent les recherches précédentes

Dans une étude menée en 2021, mes collègues et moi avons mis en évidence une relation causale significative entre le bruit des open spaces et le stress physiologique. En étudiant 43 participants dans des conditions contrôlées — à l’aide de mesures de fréquence cardiaque, de conductivité cutanée et d’une analyse des émotions faciales par intelligence artificielle — nous avons constaté que l’humeur négative augmentait de 25 % dans les bureaux ouverts et que le stress physiologique progressait de 34 %.

Une autre étude a montré que les conversations en arrière-plan et les environnements bruyants peuvent dégrader les performances dans les tâches cognitives et accroître la distraction chez les travailleurs.

Et une analyse menée en 2013 auprès de plus de 42 000 employés de bureau aux États-Unis, en Finlande, au Canada et en Australie a montré que ceux travaillant en open space étaient moins satisfaits de leur environnement de travail que ceux disposant de bureaux individuels. Cela s’expliquait principalement par l’augmentation du bruit et par le manque de confidentialité.

De la même manière que l’on reconnaît aujourd’hui que des chaises mal conçues peuvent provoquer des contraintes physiques, des années de recherche ont montré que l’aménagement des espaces de travail peut générer une charge cognitive.

Que faire ?

La capacité à se concentrer sans interruptions ni distractions est une exigence fondamentale du travail intellectuel moderne.

Pourtant, la valeur d’un travail sans interruption reste largement sous-estimée dans la conception des espaces de travail. Il est essentiel de créer des zones permettant aux salariés d’adapter leur environnement de travail à la tâche qu’ils doivent accomplir.

Pour s’adapter à la généralisation du travail hybride après la pandémie, LinkedIn a repensé son siège principal de San Francisco. L’entreprise a réduit de moitié le nombre de postes de travail en open space et a expérimenté 75 types d’espaces différents, dont des zones dédiées au travail en concentration silencieuse.

Pour les organisations qui souhaitent prendre soin du cerveau de leurs employés, plusieurs mesures concrètes peuvent être envisagées. Cela inclut la création de différentes zones de travail, des traitements acoustiques et des technologies de masquage sonore, ainsi que des cloisons judicieusement placées pour réduire les distractions visuelles et auditives.

Même si l’ajout de ces aménagements peut coûter plus cher au départ qu’un open space classique, l’investissement peut en valoir la peine. Des recherches ont montré le coût caché considérable d’une mauvaise conception des bureaux sur la productivité, la santé et la fidélisation des employés.

Offrir aux salariés davantage de choix quant à leur exposition au bruit et aux autres interruptions n’est pas un luxe. Pour travailler plus efficacement, tout en sollicitant moins notre cerveau, une meilleure conception des espaces de travail doit être considérée comme une nécessité.

The Conversation

Libby (Elizabeth) Sander a reçu un financement de recherche dans le cadre d’une bourse Industry Connections du gouvernement australien.

PDF

07.03.2026 à 10:18

Les États-Unis ont coulé un navire de guerre iranien sans secourir les survivants. Est-ce légal en temps de guerre ?

Jennifer Parker, Adjunct Professor, Defence and Security Institute, The University of Western Australia; UNSW Sydney

Le torpillage de l’IRIS Dena par un sous-marin américain pose notamment une question juridique : comment le droit international encadre-t-il les combats et les secours en mer ?
Texte intégral (1386 mots)

Une torpille tirée par un sous-marin américain a coulé le navire de guerre iranien IRIS Dena loin du golfe Persique, sur une route commerciale stratégique de l’océan Indien. L’épisode pose une question centrale : que dit le droit international sur les attaques navales et le secours aux survivants ?


L’information selon laquelle un sous-marin états-unien aurait torpillé et coulé le navire de guerre iranien IRIS Dena, à environ 40 milles nautiques au large du Sri Lanka cette semaine, a surpris de nombreux observateurs. Une attaque de ce type, aussi loin du golfe Persique – et sur une route commerciale clé reliant la Chine au Moyen-Orient – suggère que le théâtre de cette guerre pourrait être en train de s’élargir.

Mais cet incident met aussi en lumière un point rarement bien compris en dehors des cercles militaires et juridiques : le droit de la guerre navale. Cette attaque était-elle légale ? Et qui avait l’obligation de secourir les survivants ?

Quand le droit de la guerre navale s’applique-t-il ?

Le droit de la guerre navale est un sous-ensemble du droit des conflits armés. Il définit les autorisations et les protections applicables aux combattants, aux civils et aux acteurs neutres engagés dans un conflit en mer. Point important : il s’applique quelle que soit la légalité du recours à la force. Autrement dit, on est censé respecter le droit de la guerre en mer même si la justification de la guerre n’est pas légale au regard du droit international.

De plus, la conduite des opérations en mer est régie par le droit de la guerre navale, qu’une guerre ait été formellement déclarée ou non. Et le droit de la guerre navale prime également sur la Convention des Nations unies sur le droit de la mer (lorsque les deux entrent en tension).

Cela reflète le principe de lex specialis en droit international, selon lequel la règle la plus spécifique s’applique.

Ces règles se sont développées au fil des siècles, à mesure que les États cherchaient à encadrer la conduite des conflits en mer tout en permettant aux marines de guerre d’opérer efficacement.

Était-il légal pour les États-Unis de couler le navire de guerre iranien ?

Oui, il s’agissait d’une cible légitime. Selon le droit de la guerre navale, les navires de guerre appartenant à un État engagé dans un conflit armé international constituent par nature des objectifs militaires. Les règles prévoient qu’ils peuvent être légalement pris pour cibles.

De telles attaques peuvent avoir lieu en haute mer ou dans les eaux territoriales (12 milles nautiques) des États parties au conflit armé international (les belligérants). Concrètement, cela signifie qu’une attaque de ce type peut se produire partout en dehors des eaux territoriales de 12 milles nautiques des États neutres.

Si le navire de guerre iranien se trouvait dans les eaux sri-lankaises (c’est-à-dire à moins de 12 milles nautiques des côtes du Sri Lanka) au moment de l’attaque, celle-ci n’aurait pas été légale. Mais dans ce cas précis, l’IRIS Dena opérait apparemment en dehors des eaux territoriales du Sri Lanka et constituait donc une cible militaire légitime.

Que dit le droit sur le secours aux survivants ?

Le droit de la guerre navale prévoit également des obligations concernant le secours aux survivants. En vertu de la Deuxième Convention de Genève de 1949, les parties à un conflit doivent – après chaque engagement – prendre toutes les mesures possibles pour rechercher et recueillir les naufragés, les blessés et les malades. Ces règles s’appliquent à la guerre navale et exigent que les belligérants, dans la mesure où les circonstances militaires le permettent, portent assistance aux survivants en mer.

Dans la pratique, toutefois, les sous-marins sont confrontés à des difficultés particulières pour remplir cette obligation. Faire surface pour secourir des survivants peut les exposer à des risques importants. De plus, il est généralement impossible d’accueillir un grand nombre de rescapés à bord d’un sous-marin.

Si un sous-marin ne peut pas faire surface en toute sécurité pour secourir des survivants, il peut faciliter leur sauvetage en signalant leur position à d’autres navires ou aux autorités. Cette pratique a été relevée dans certains commentaires juridiques importants sur la guerre sous-marine.

La réaction rapide de la marine sri-lankaise, qui a secouru 32 marins de l’IRIS Dena, suggère que les autorités ont été informées rapidement de l’incident. (Les autorités sri-lankaises indiquent également que 87 corps ont été retrouvés).

On ne sait pas encore comment les autorités sri-lankaises ont été informées, mais il semble probable que la marine américaine ait transmis la position des survivants. Compte tenu des dommages subis par l’IRIS Dena et des pertes humaines signalées, il est peu probable que l’équipage ait été en mesure de transmettre lui-même sa position.

Cela pourrait aussi expliquer pourquoi les premiers rapports indiquaient qu’un sous-marin avait coulé le navire, avant même que les États-Unis ne confirment leur implication. Car il est également peu probable que l’équipage de l’IRIS Dena ait immédiatement su qu’il avait été touché par une torpille lancée depuis un sous-marin. Une telle attaque est généralement menée à très grande distance, au-delà de la portée de détection du sonar de coque d’un navire.

Une cible militaire légitime

En conclusion, si le débat se poursuit sur la justification juridique de l’entrée des États-Unis dans le conflit avec l’Iran, la conduite des hostilités en mer, elle, reste régie par le droit de la guerre navale. Et dans ce cadre, l’IRIS Dena constituait bien une cible militaire légitime, et les efforts visant à faciliter le sauvetage des survivants sont conformes à ces obligations.

The Conversation

Jennifer Parker ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

07.03.2026 à 08:32

Enseignement supérieur : le piège de la massification low cost

Nicolas Charles, Sociologue, Université de Bordeaux

En France, la massification de l’enseignement supérieur a contribué à renforcer la tyrannie du diplôme initial. Comment lutter contre cette irréversibilité des parcours ?
Texte intégral (1641 mots)

En France, la massification de l’enseignement supérieur a contribué à renforcer une forme de course contre la montre dans les parcours d’études, intensifiant le poids du diplôme initial sur les carrières. Comment réduire cette irréversibilité des trajectoires et proposer un nouveau pacte de démocratisation universitaire ?


L’observation des politiques publiques depuis deux décennies souligne l’existence d’un compromis partagé par l’ensemble de l’échiquier politique : massifier l’accès aux études supérieures pour la jeunesse tout en acceptant une forme de privatisation rampante, faute de moyens publics à la hauteur des ambitions affichées. C’est ainsi que les frais de scolarité dans les écoles d’ingénieurs et les instituts d’études politiques se sont développés de façon progressive dans les années 2000.

Ce modèle de massification à bas coût – dont le risque pointait déjà il y a dix ans – est désormais entériné et s’avère aujourd’hui perdant, dans la mesure où il renforcerait une forme de tyrannie du diplôme initial et favoriserait le développement de formations de qualité médiocre.

Comment proposer un autre pacte reconnaissant le droit de se tromper et la possibilité d’une seconde chance, tout en améliorant la qualité des parcours ?

La massification low cost, une politique par défaut

Pour occuper une jeunesse exposée au chômage structurel et lui permettre de faire face aux exigences renforcées du marché du travail, les pouvoirs publics ont ouvert les vannes de l’enseignement supérieur, en accueillant des flux croissants de nouveaux bacheliers depuis 2010. Malgré cette explosion démographique des années 2010/2020, l’investissement n’a pas suivi, et les dépenses moyennes par étudiant baissent de façon régulière depuis 2010, comme le montrent les statistiques ministérielles.

Parmi ces dépenses, la part du financement public dans l’enseignement supérieur est tombée de 81,9 % en 2010 à 66,6 % en 2022, un taux plus bas désormais que la moyenne des pays membres de l’Organisation de coopération et de développement économiques (OCDE).

En parallèle de ce désengagement relatif, l’État a pourtant alimenté à partir de 2018 l’essor d’un secteur privé de l’enseignement supérieur, massivement soutenu par des aides publiques à l’alternance qui ont produit un véritable appel d’air pour le développement de l’apprentissage dans le secteur privé.

Dans un contexte de tensions budgétaires où la défense ou la santé s’imposent comme des priorités régaliennes, l’université publique – qui a développé l’alternance à une vitesse plus réduite – voit ses dépenses par étudiant continuer à diminuer.

C’est dans cette situation que resurgit régulièrement l’idée d’une hausse des frais de scolarité, qui ne constituerait qu’une étape supplémentaire dans cette logique de privatisation par nécessité et de sacrifice de la jeunesse.

La tyrannie du diplôme initial : une exception française

La massification à la française représente une forme très particulière de démocratisation des études. Cette scolarisation massive de la jeunesse n’implique pas que des avantages. En effet, elle contribue à renforcer un mal profond en France : l’emprise absolue du diplôme obtenu à vingt ans sur l’ensemble de la carrière.

En comparant les données d’enquêtes nationales sur les étudiants, les données comparatives Eurostudent 8 sont sans appel. Avec un âge moyen de 22,4 ans, les étudiants français sont les plus jeunes d’Europe. Seuls 4 % d’entre eux entrent dans le supérieur avec un décalage de plus de deux ans après le baccalauréat, soit la proportion la plus faible du continent. La France est par ailleurs l’un des rares pays qui ne produit pas de statistiques fiables sur les pauses effectuées entre la licence et le master, ou encore sur les études à temps partiel.


À lire aussi : Le développement des études supérieures entre « faux procès » et vraies questions…


Nombre de travaux de sociologues ont par le passé montré que cette course contre la montre crée une pression sociale immense. L’université devient alors un sas d’attente pour gérer l’angoisse de l’insertion professionnelle. C’est pourquoi on observe un taux de « mastérisation » record. Tout semble se jouer à 18 ans, créant une injustice majeure pour ceux dont la maturité ou les projets bifurquent tardivement.

Le modèle suédois propose une vision alternative du parcours académique. Là-bas, les études ressemblent à un métro où l’on peut monter et descendre à différentes stations de sa vie. Contrairement au « TGV français », caractérisé par une trajectoire linéaire, ultrarapide et sans arrêt possible sous peine de déclassement, le système suédois repose sur une logique de réseau. Environ 70 % des étudiants y commencent leurs études vers 21 ou 22 ans, après une ou plusieurs années d’expériences professionnelles ou de césures. Cette flexibilité permet aux individus de construire leur parcours « à la carte », en articulant périodes d’études, emploi salarié et vie personnelle.

Dans ce système de « seconde chance permanente », l’erreur d’aiguillage n’est plus une fatalité, mais une étape normale de la construction de soi. Cette maturité change radicalement la donne. Les étudiants, plus âgés et forts d’un projet réfléchi, sont souvent déjà installés sur le marché du travail lors de l’obtention de leur diplôme. La question de l’insertion post-études, si anxiogène en France, s’y pose avec beaucoup moins d’acuité.

Redonner plus de lisibilité au système

Il est impératif de réduire l’irréversibilité des parcours de vie. Déscolariser le temps de la jeunesse serait un moyen de réduire l’irréversibilité des parcours de vie, pour ne pas figer les réussites ou les échecs à la fin de l’adolescence.


À lire aussi : Choix d’études, orientation professionnelle : « Donnons aux jeunes le droit de se tromper »


Pour délinéariser les parcours et favoriser une forme renouvelée de démocratisation, plusieurs leviers peuvent être activés :

  • Valoriser l’expérience dans les procédures de sélection, en introduisant dans les algorithmes de Parcoursup et de Mon Master des bonus significatifs pour les candidats justifiant d’une expérience extra-académique longue, ou instaurer des quotas de reprise d’étude. L’objectif est de cesser de punir le temps long.

  • Favoriser l’activité des plus jeunes, en recentrant les exonérations et réductions de charges patronales existantes sur les jeunes de moins de 21 ans, et en promouvant des formes d’engagement (service civique…).

  • Démanteler les barrières financières à la reprise d’études, en réformant le statut de stagiaire de la formation continue et en transformant les bourses sur critères sociaux en un capital-temps formation, activable tout au long de la vie. Un citoyen de 25 ans reprenant ses études doit bénéficier des mêmes droits qu’un bachelier de 18 ans.

Cette rationalisation des parcours engendrerait mécaniquement une baisse de l’échec en licence, car l’entrée à l’université ne serait plus une réponse par défaut mais un choix mûri. Elle mettrait fin à la dérive des poursuites d’étude après l’obtention d’un master vers une nouvelle licence ou un nouveau master – ces parcours redondants étant souvent utilisés comme stratégie de repli pour différer une confrontation anxieuse avec le marché du travail. En réduisant le volume global d’étudiants en master, le système regagnerait en lisibilité et en valeur.

Si le modèle actuel semble avoir atteint ses limites budgétaires et pédagogiques, le passage à une démocratisation tout au long de la vie offre une perspective de résolution : celle d’un système où l’université devient un levier d’émancipation activable à chaque étape du parcours. Réduire l’irréversibilité des trajectoires apparaît alors non seulement comme un vecteur de justice sociale, mais aussi comme une réponse structurelle aux mutations du marché du travail et aux difficultés de financement public des études supérieures.

The Conversation

Nicolas Charles ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

06.03.2026 à 17:02

Des élections municipales test pour la présidentielle : comprendre la « nationalisation » du scrutin

Rémi Lefebvre, Professeur de science politique université Lille 2, Université de Lille

Les élections municipales 2026 sont largement « nationalisées » dans le récit médiatique qui en fait un test en vue de la présidentielle. Pourtant, la plupart des électeurs demeurent fidèles à une logique locale et non partisane.
Texte intégral (2132 mots)

À un an de la présidentielle, les élections municipales 2026 sont « nationalisées » dans le récit médiatique et par certains partis politiques. Pourtant, les candidats locaux, comme la plupart des électeurs, demeurent fidèles à une logique locale et non partisane. Analyse.


Les élections municipales de 2026 se tiennent un an avant l’élection présidentielle. La précampagne présidentielle a d’ailleurs déjà commencé : des candidats sont déjà déclarés à une primaire de gauche (François Ruffin, Marine Tondelier…) ou à l’élection elle-même (Bruno Retailleau, Jérôme Guedj…). La configuration fait penser aux élections municipales de 2001 qui avaient précédé de quelques mois l’élection présidentielle (avril 2002). Cet effet de calendrier contribue à nationaliser les élections municipales.

Alors que ces élections sont locales par excellence et se jouent dans 35 000 communes et des contextes spécifiques (taille de communes, poids des maires sortants, variété de l’offre et des enjeux), les élections municipales sont construites comme un test pour mesurer les rapports de force politiques avant l’échéance présidentielle de 2027. Les soirs du premier et du second tour, un sens national va être donné à ces milliers de scrutins locaux.

La nationalisation des scrutins locaux, un phénomène ancien

En science politique, la thèse de la « nationalisation » de la vie politique locale a été formalisée dès les années 1980. Elle met en évidence un processus d’unification tendancielle des marchés électoraux. Selon ce modèle, le caractère « local » des élections tend à régresser ; les élus sont de plus en plus liés à un parti. Alors que, sous la IVᵉ République, et dans les années 1960, les coalitions sont variables selon les consultations et les régions, l’Union de la gauche dans les années 1970 tend à homogénéiser les alliances sur le territoire national, et les modes de fonctionnement partisan se centralisent : l’implantation des partis, de gauche puis de droite, progresse sur l’ensemble du territoire national, le nombre de candidats et élus non inscrits ou « apolitiques » baissent ainsi, y compris dans les petites communes.

Les élections locales tendent alors à être construites comme des mesures de rapports de force nationaux entre deux élections générales. Elles obéissent de plus en plus au modèle des « élections intermédiaires ». Celui-ci se construit autour d’une classification et d’une hiérarchisation, entre des « élections décisives » et des « élections intermédiaires », articulées dans un cycle électoral. Les élections intermédiaires, dites de « second rang », sont le plus souvent des élections locales. Plus une élection locale est éloignée d’une élection de renouvellement national, plus grande est la probabilité qu’elle revête une dimension nationale, surtout quand la majorité en place est impopulaire. La logique des élections intermédiaires » se manifeste par un recul du parti au pouvoir, un abstentionnisme plus fort chez les électeurs de la majorité, la progression des oppositions.

À partir de 2002, les cycles politiques nationaux ont de plus en plus d’influence sur les élections locales qui sont systématiquement défavorables au pouvoir en place ; l’Union pour un mouvement populaire (UMP) puis le Parti socialiste (PS) en ont fait les frais en 2008 et en 2014.

Les élections locales sont devenues un exutoire pour exprimer la défiance à l’égard des gouvernements en place selon un mécanisme de vote sanction. En conséquence, la stratégie des partis varie selon qu’ils sont dans la majorité gouvernementale ou dans l’opposition. Christophe Borgel, secrétaire national aux élections du PS, déclarait ainsi le 15 février 2013 au Figaro, non sans ironie :

« Évidemment, quand on est au pouvoir, on dit que les municipales sont un scrutin local, et quand on est dans l’opposition, on dit l’inverse. »

Une « nationalisation » produite par les médias

Les élections municipales de 2026 sont nationalisées, mais ne correspondent plus à ce schéma. Dans un contexte de fragmentation partisane et de confusion institutionnelle, elles ne prennent pas la forme d’une « gouvernementalisation » du scrutin.

L’enjeu n’est plus, comme en 2008 ou en 2014, de sanctionner le gouvernement en place. Même s’il est dominé par des forces proches du président de la République, sa base est plus large (il y a des ministres Les Républicains, LR) et Renaissance a très peu de maires sortants, donc susceptibles d’être sanctionnés. Les élections municipales ne sont donc pas gouvernementalisées mais présidentialisées.

La nationalisation est principalement produite par les médias qui construisent une intrigue et des enjeux nationaux ramenés aux partis dans leur globalité. Ce phénomène s’explique de deux manières : il n’est pas facile de traiter des milliers de configurations locales, les médias recherchent un effet de dramatisation. Cette nationalisation par le cadrage médiatique est d’autant plus forte que la presse locale est en crise (plus attentive aux enjeux locaux, elle est de moins en moins lue).

Les questions que les médias se posent sont du type : Combien de villes le Rassemblment nationale (RN) est-il en mesure de gagner ? Des villes vont-elles basculer à La France insoumise (LFI) ? Les écologistes peuvent-ils garder les dix grandes villes conquises en 2020 ? L’implantation territoriale des socialistes et des LR sera-elle maintenue ?… Des coups de projecteurs sont donnés sur des villes « test » qui focalisent l’attention médiatique : Paris, Marseille, Lyon, Roubaix, Le Havre… Les partis anticipent ces verdicts médiatiques de portée nationale en cherchant à investir le maximum de candidats d’autant plus que l’ancrage local est devenu essentiel pour eux.

La stratégie des partis

La nationalisation des acteurs partisans nationaux est variable. Elle est très forte à La France insoumise. En 2020, Jean-Luc Mélenchon ne cessait de déclarer pendant la campagne municipale : « Il n’y a pas de listes insoumises. » Les candidats insoumis se cachent alors derrière des listes citoyennes. A contrario, l’heure est en 2026 à une logique d’étendard et d’affichage. LFI part à la bataille en assumant sa différenciation partisane et une logique d’autonomie de ses listes au premier tour. La bataille du leadership présidentiel à gauche est engagée. Jean-Luc Mélenchon multiplie les meetings de soutien à des candidats insoumis locaux où ils abordent principalement des enjeux de politique nationale (Toulouse, Roubaix, Creil, Perpignan, Lyon…). Les écologistes et les socialistes, qui contestent fortement la candidature de Jean-Luc Mélenchon à travers un projet de primaire, sont beaucoup plus implantés localement que les insoumis. La politisation du scrutin municipal permet à LFI de peser dans le rapport de force à gauche et d’exercer un pouvoir de nuisance sur les anciens partenaires du Nouveau Front populaire (NFP). Dans de nombreuses villes, LFI pourrait être l’arbitre du second tour : les candidats écologistes et socialistes devront composer avec elle.

À la tête des écologistes, Marine Tondelier joue la légitimité de sa candidature présidentielle aux élections municipales. Elle est très présente sur le terrain pour défendre les maires sortants. Le PS cherche à garder son titre de premier parti de gauche au niveau local pour aborder le scrutin présidentiel dans les meilleures conditions de rapports de force. Il se vante de présenter 2 000 listes, un chiffre présenté comme historique.

Les dirigeants du RN nationalisent eux aussi le scrutin cherchant à provoquer « une vague » qui pourrait scander leur marche vers le scrutin présidentiel. Le président du RN, Jordan Bardella, s’offre même le luxe de se donner un objectif concret, et pas des moindres : « Je souhaite que nous puissions remporter la ville de Marseille. » Le nombre historique de listes – près de 650 – est mis en avant. « Nous entendons peser comme jamais dans notre histoire sur ce scrutin local », promet Jordan Bardella, lors de ses vœux à la presse, début janvier.

Cependant, tous les partis ne considèrent pas les élections municipales comme une rampe de lancement ou un banc d’essai pour 2027. Renaissance (ex-LREM) considère que c’est un obstacle à franchir. Le parti a peu d’élus locaux, un maillage local faible et des ambitions de victoires modestes et sans doute inaccessibles (Bordeaux, Lille, Annecy). Gabriel Attal est peu présent dans la campagne et cherche à enjamber le scrutin. Édouard Philippe, candidat Horizons au Havre, localise au maximum sa campagne dans la ville dont il est le maire, plutôt marquée électoralement à gauche.

Des candidats locaux qui n’affichent pas leurs liens partisans

Les candidats locaux mettent de manière générale très peu en avant leur étiquette partisane et mobilisent peu de considérations de politique nationale, tant la politique partisane est discréditée et le niveau local associé au pragmatisme. C’est parfois même le cas à LFI dans les villes où le parti a le plus de chances de gagner, comme Roubaix (Nord), où le candidat local David Guiraud met peu en avant le sigle, pour rassembler large.

Si le RN nationalise le scrutin municipal, ce n’est pas le cas de ses têtes de liste qui font localement souvent campagne sans même le logo du parti. Cette stratégie est un effet notamment de l’ancrage local croissant du mouvement, à travers son réseau de députés. Louis Aliot, l’actuel maire de Perpignan (Pyrénées-Orientales) est un modèle en la matière. Il a réussi à conquérir la mairie de la capitale catalane en expurgeant de ses affiches et de ses tracts de campagne toute mention de son parti. Les tracts de Laure Lavalette, tête de liste du RN à Toulon, députée du Var, ne font état d’aucune référence au parti. Le but de ces candidats est d’élargir au maximum le socle électoral, mais aussi permettre à des personnalités de la société civile, ou des ralliés de droite, de rejoindre la liste. Ils évitent ce faisant de trop se marquer politiquement et se concentrent sur des enjeux locaux.

Comment votent les électeurs ?

Enfin, qu’en est-il des électeurs ? Un sondage Odoxa du 20 février 2026 considère que les trois quarts des électeurs continuent de voter pour la liste qu’ils estiment la meilleure pour leur commune, mais que la politique nationale s’invite dans les urnes, avec 24 % (+ 5 % en trois mois) de Français qui voteront d’abord sur des enjeux nationaux. Il faut pourtant prendre ce type d’enquête avec prudence. Il n’est pas facile de démêler chez les électeurs ce qui relève de la politique locale et nationale, de l’image du candidat et de son étiquette.

La nationalisation du scrutin municipal est donc un phénomène complexe, aux ressorts multiples et contradictoires, qui porte en 2026 la marque de l’éclatement du système partisan.

The Conversation

Rémi Lefebvre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

06.03.2026 à 16:58

Parité dans les directions : la question n’est plus le nombre, mais l’impact

Loredana Ureche-Rangau, Professeur des Universités en Sciences de Gestion, spécialisation Finance, Université de Picardie Jules Verne (UPJV)

Dubois Loïc, Maître de conférences en sciences de gestion (finance d’entreprise), Université de Lille

Hind Sami, Maître de conférences HDR en Finance, Université Lumière Lyon 2

La féminisation des organes de décision des entreprises semble acquise. Son effet sur les performances financières dépend notamment du contexte culturel.
Texte intégral (1468 mots)

À l’aube d’une nouvelle réglementation en faveur de la diversité de genre dans les instances dirigeantes, une question mérite d’être posée : au-delà des chiffres, ces règles influencent-elles réellement les dynamiques décisionnelles et la création de valeur ?


En France, la loi Rixain du 24 décembre 2021 cible une zone longtemps restée en retrait des politiques de parité : les postes de direction. Pour les entreprises d’au moins 1 000 salariés, une trajectoire progressive est imposée. Un quota de 30 % de chaque genre s’imposera le 1ᵉʳ mars 2026, puis sera porté à 40 % en 2029, sous peine de sanctions financières. Cette dynamique prolonge la loi Copé-Zimmermann, qui impose 40 % de chaque sexe dans les conseils d’administration. Au niveau européen, la directive Women on boards (2022) fixe, pour les sociétés cotées, un objectif de 40 % d’administrateurs non-exécutifs du genre sous-représenté, ou 33 % de l’ensemble des administrateurs.

Ces dispositifs ne visent toutefois pas les mêmes centres de pouvoir. Alors que la loi Copé-Zimmermann et la directive européenne portent sur les conseils d’administration, la loi Rixain s’attaque au cœur de l’action managériale en ciblant le sommet exécutif. Cette distinction invite à poser deux questions : en quoi la diversité de genre transforme-t-elle le fonctionnement des conseils d’administration ? Et que change-t-elle lorsqu’elle s’installe au plus haut niveau de la décision opérationnelle ?

Davantage d’efficacité

Sur le plan statistique, le basculement est net dans de nombreux pays. La représentation des femmes au sein des conseils d’administration a fortement progressé ces dernières années. À titre d’exemple, aux États-Unis, la part des femmes est passée de 12,2 % en 2014 à 28,5 % en 2023. En Europe, elle atteint 33,8 % en 2023, contre 22,6 % en 2016. Les codes de bonne gouvernance ainsi que les législations instaurant des quotas ont largement contribué à cette évolution.


À lire aussi : Pourquoi a-t-on besoin de « Lehmann Sisters » : plus de femmes aux postes décisionnels


La présence de femmes administratrices est fréquemment associée, dans la littérature académique, à des impacts positifs. Elles seraient davantage enclines à valoriser l’interdépendance et la bienveillance, contribueraient à réduire les conflits au sein du conseil, et à renforcer l’attention des administrateurs. Des travaux suggèrent aussi une amélioration de la qualité du processus décisionnel et de la performance opérationnelle.

Un impact indéterminé sur la performance financière

Les travaux académiques convergent vers une influence positive de la présence des femmes dans les instances dirigeantes. Cela se traduit-il par de meilleures performances financières ?

À cette question, la littérature demeure partagée. Malgré l’abondance des travaux menés depuis deux décennies, aucun consensus clair ne se dégage quant à l’impact de la diversité de genre sur la performance financière des entreprises : certaines études identifient un effet positif, d’autres n’observent aucune relation significative, et quelques-unes suggèrent même des effets négatifs. Un trait commun mérite toutefois d’être souligné : la majorité de ces recherches s’inscrivent dans un cadre national unique, c’est-à-dire dans un contexte institutionnel et culturel donné.

Une question de culture

C’est précisément pour dépasser ces limites que nous montrons, dans un travail récent, que l’impact de la présence des femmes dans les conseils d’administration sur la performance financière dépend étroitement du contexte institutionnel – et en particulier de la culture nationale.

En analysant la réaction des marchés financiers à l’annonce de la nomination d’une femme, plutôt que d’un homme, à un poste de direction dans 43 pays entre 2002 et 2019, nous mettons en évidence des variations significatives des réactions boursières selon les pays. En mobilisant les dimensions culturelles du projet Global Leadership and Organizational Behavior Effectiveness (GLOBE), nous montrons que la culture nationale façonne ces réactions.

Des décisions plus prudentes ?

Dans les sociétés plus collectivistes, orientées vers l’avenir et centrées sur l’humain, les marchés financiers tendent à valoriser favorablement les nominations féminines. Nous observons également que la nature du poste concerné influence l’ampleur de la réaction. Il serait réducteur de considérer qu’une augmentation mécanique de la représentation des femmes au sommet des entreprises entraîne automatiquement une meilleure performance financière. Les règles et quotas peuvent modifier la composition des instances dirigeantes, mais ils ne suffisent pas nécessairement à transformer le sentiment des investisseurs ni les perceptions des marchés financiers. À cet égard, l’éducation, la diffusion de l’information et l’évolution progressive des normes culturelles apparaissent comme des leviers essentiels. Car au-delà des textes, ce sont aussi les représentations collectives qui influencent la valorisation des entreprises.

La littérature académique suggère que les femmes seraient plus enclines à privilégier des comportements éthiques et à adopter des prises de décision moins risquées. Peut-on en déduire que leur présence au sommet des entreprises favorise des pratiques comptables plus transparentes et plus éthiques ?

Un effet reine des abeilles

De nombreux travaux établissent un lien entre la présence de femmes dirigeantes et des pratiques plus prudentes, contribuant ainsi à améliorer la qualité de l’information publiée. Mais la réalité est plus nuancée. Dans une recherche en cours portant sur une vingtaine de pays sur vingt ans, nous montrons que le recours à la gestion des bénéfices par les femmes dirigeantes dépend fortement du contexte culturel. Dans les sociétés valorisant la performance, l’affirmation de soi ou une hiérarchie marquée, les femmes DAF peuvent y recourir autant, voire davantage, que leurs homologues masculins. Ces résultats s’interprètent à la lumière de l’effet « reine des abeilles » : dans des environnements fortement masculinisés, certaines dirigeantes adoptent des comportements alignés sur les normes dominantes.

BFM Business 2026.

Une fois encore, l’environnement institutionnel et en particulier la culture nationale apparaît déterminant : la diversité de genre ne produit ses effets que si elle s’inscrit dans un cadre culturel compatible.

De la nuance

En définitive, si l’idée selon laquelle une plus forte représentation des femmes au sein des instances dirigeantes serait nécessairement bénéfique est largement partagée, la réalité appelle à la nuance. En matière de performance financière comme de pratiques comptables, les effets ne sont ni automatiques ni universels. Le contexte institutionnel et culturel joue un rôle déterminant : il conditionne la capacité de cette diversité à produire pleinement ses effets.

Ainsi, si les nouvelles réglementations renforcent la présence des femmes dans les exécutifs des grandes entreprises, elles ne garantissent pas, à elles seules, une amélioration des performances tant que les normes sociales et les perceptions n’évoluent pas. En 2026, le débat ne porte plus sur le nombre, mais sur l’impact réel de la présence accrue des femmes au sommet des entreprises en matière de création de valeur et de solidité des pratiques financières.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

06.03.2026 à 14:42

Comment la Russie s’approche des satellites européens pour capter leurs communications

Aleix Nadal, Analyst, Defence, Security and Justice team, RAND Europe

Des satellites russes s’approchent régulièrement d’appareils européens en orbite géostationnaire. Derrière ces opérations se dessine peut-être une stratégie plus large : tester la vulnérabilité des infrastructures spatiales de l'UE.
Texte intégral (1954 mots)
Les infrastructures européennes de télécommunications figurent parmi les cibles potentielles des opérations d’interception menées par certains satellites russes. wikicommon, Fourni par l'auteur

Les activités de satellites russes près d’appareils européens inquiètent les autorités. Entre espionnage orbital et démonstration de force, ces opérations pourraient annoncer une nouvelle phase de compétition stratégique dans l’espace.


Les autorités européennes ont récemment tiré la sonnette d’alarme après l’interception par la Russie de communications transitant par des satellites européens. Mais le problème ne date pas d’hier.

Ainsi depuis la première invasion de l’Ukraine en 2014, deux satellites russes suivent discrètement des engins spatiaux européens. Ils ont manœuvré suffisamment près pour faire craindre qu’il ne s’agisse pas seulement d’opérations d’observation.

En 2018, Florence Parly, alors ministre de la Défense avait accusé la Russie d’espionnage après que l’un de ces engins avait été repéré à proximité d’un satellite militaire franco-italien de télécommunications. Deux satellites d’Intelsat avaient été visés de manière similaire auparavant.

Ces opérations dites de « proximité et de rendez-vous » (RPO), au cours desquelles un engin spatial manœuvre délibérément pour s’approcher d’un autre objet ou opérer à proximité de lui dans l’espace, deviennent de plus en plus courantes en orbite géostationnaire (GEO), où les satellites restent pratiquement immobiles au-dessus d’un même point de la Terre.

Les opérations RPO ne sont pas intrinsèquement malveillantes. Elles peuvent par exemple servir à ravitailler un satellite afin d’en prolonger la durée de vie, ou à retirer des satellites hors service et des débris pour maintenir les orbites dégagées en vue de futures missions.

Mais la technologie qui permet d’améliorer la manœuvrabilité des satellites est à double usage — elle peut avoir des applications à la fois civiles et militaires. Toute la difficulté consiste donc à déterminer l’intention derrière ces manœuvres et, le cas échéant, à y répondre de manière appropriée.

Inspection de satellites

Lancés respectivement en 2014 et en 2023, les deux « inspecteurs » russes Luch/Olymp 1 et 2, des satellites très secrets, s’inscrivent dans les efforts de Moscou pour identifier d’éventuelles vulnérabilités techniques dans les satellites des pays de l’Otan.

Si tel avait été leur seul objectif, les responsables européens auraient eu peu de raisons de s’en inquiéter ou de protester. S’approcher d’un satellite pour en analyser les caractéristiques n’a rien de nouveau et ce type de mission n’est pas propre à la Russie.

Par le passé, les satellites d’inspection du programme américain Geosynchronous Space Situational Awareness Program (GSSAP) se sont approchés à moins de dix kilomètres d’autres satellites dans certaines missions. Même des entreprises commerciales commencent désormais à proposer des services d’inspection.

Une entreprise australienne appelée HEO a récemment survolé un satellite chinois classifié afin d’en révéler certaines caractéristiques techniques. En théorie, ce type d’informations pourrait, à l’avenir, être utilisé pour perturber le fonctionnement de satellites.

Cependant, les satellites russes ont souvent suivi le même engin spatial pendant des mois, s’approchant parfois à moins de cinq kilomètres de leur cible. Un comportement qui ne correspond pas vraiment au profil d’une mission d’inspection de satellites, laquelle consiste normalement à simplement passer à proximité, prendre des images puis repartir rapidement sur une autre trajectoire.

Les satellites GSSAP, par exemple, opèrent généralement par paires, selon une approche en tenaille : l’un évolue au-dessus de l’orbite géostationnaire (GEO) pour inspecter l’arrière du satellite ciblé, tandis que l’autre se place légèrement en dessous afin d’en observer l’avant.

Les satellites Luch, eux sont essentiellement des plateformes de « renseignement d’origine électromagnétique » (ce qu'on appelle plus communément « Sigint »). En les positionnant entre un satellite cible et sa station au sol, la Russie peut intercepter le signal et espionner les communications de satellites européens, comme ceux exploités par Eutelsat, une entreprise française, ou par Intelsat, une société luxembourgo-américaine. Ces satellites européens fournissent notamment de la bande passante aux armées européennes pour leurs communications sécurisées.

Pris isolément, ces satellites doivent donc être considérés comme des outils de surveillance plutôt que comme des armes antisatellites — c’est-à-dire des engins capables de perturber ou de neutraliser un autre satellite. Les satellites russes se contentent ici de collecter des informations. À ce titre, ils ne constituent pas, en eux-mêmes, une menace majeure pour la sécurité.

Mais l’espace reste étroitement lié aux dynamiques géopolitiques qui se jouent sur Terre. Toute opération spatiale russe doit ainsi être comprise comme s’inscrivant dans une stratégie plus large visant à engranger des avantages stratégiques — qu’il s’agisse d’obtenir un avantage militaire face à l’Ukraine ou de contraindre les pays européens à retirer leur soutien à Kiev.

Menace future

Dans cette perspective, les opérations menées par les satellites Luch pourraient être interprétées non seulement comme un effort « Sigint », mais aussi comme un avertissement adressé aux pays européens : leurs satellites restent vulnérables à d’éventuelles perturbations.

Comme l’a souligné le général de division Michael Traut, commandant du Commandement spatial allemand, les satellites Luch ont probablement aussi intercepté les liaisons de commande de leurs cibles. Ces liaisons correspondent à des transmissions supposées sécurisées envoyées depuis les stations au sol vers les satellites afin de leur transmettre des instructions opérationnelles.

Si cela se confirme, la Russie pourrait potentiellement reproduire les signaux de liaison montante utilisés par les stations au sol pour contrôler les satellites, ce qui lui permettrait de perturber à l’avenir les opérations spatiales européennes.

Antennes satellites
Les satellites russes pourraient avoir intercepté des transmissions en provenance de stations au sol, ce qui leur donnerait la capacité de perturber le fonctionnement d’engins spatiaux européens. Trisna.id

Si ce scénario vous semble familier, c’est qu’il rappelle la campagne hybride menée par la Russie contre les câbles sous-marins européens. Celle-ci s’est traduite par des années de cartographie clandestine des infrastructures occidentales et, plus récemment, par une série d’actions visant à sectionner des câbles à fibre optique.

Les opérations de proximité menées ces dernières années par les deux satellites Luch pourraient ainsi annoncer des actions plus lourdes à l’avenir, si la Russie échoue à dissuader l’Europe de poursuivre son soutien à l’Ukraine.

Que peut faire l’Europe dans ce scénario ? Une première étape bienvenue a été de rendre publiques des informations sur les activités russes en orbite géostationnaire. Jusqu’ici, les opérations spatiales étaient le plus souvent enveloppées de secret.

Davantage de transparence pourrait permettre de délégitimer ces pratiques aux yeux de la communauté internationale, tout en justifiant le développement par l’Europe de ses propres capacités de contre-espace à des fins de défense.

De fait, plusieurs pays européens, dont le Royaume-Uni et l’Allemagne, plaident désormais plus ouvertement pour le déploiement de leurs propres capacités de défense spatiale. La Russie a par ailleurs déjà démontré d’autres moyens d'action en orbite reposant sur des opérations de proximité et pouvant être utilisées comme armes antisatellites.

Sans un éventail complet d’outils, incluant des moyens d’autodéfense, l’Europe pourrait se retrouver exposée à des actions spatiales plus agressives et auxquelles elle n’est pas suffisamment préparée. Protéger sa dépendance aux services spatiaux — des communications militaires à la connectivité indispensable pour l'économie — implique donc de faire de la sécurité en orbite un élément central de sa stratégie.

The Conversation

Aleix Nadal ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

06.03.2026 à 14:40

La Russie, l’autre perdante de l’opération « Epic Fury » ?

Cyrille Bret, Géopoliticien, Sciences Po

L’affaiblissement de l’allié iranien est un revers pour Moscou ; pour autant, la Russie peut en tirer certains bénéfices économiques et militaires.
Texte intégral (1693 mots)

L’attaque contre l’Iran affaiblit un allié capital de Moscou. Il y a un an déjà, ce dernier n’avait pas sauvé son autre partenaire régional, Bachar Al-Assad. La prudence russe sur l’Iran démonétise le Kremlin dans le « Sud global ». Pour autant, la Russie peut aussi tirer des bénéfices de la déstabilisation du Moyen-Orient : l’attention mondiale se détourne de l’Ukraine ; les prix des hydrocarbures augmentent ; un changement de régime à Téhéran créerait un précédent justifiant les attaques contre Volodymyr Zelensky à Kiev…


La Fédération de Russie est-elle d’ores et déjà, après la République islamique d’Iran, la grande perdante de la guerre aéronavale menée par Israël et les États-Unis tout à la fois contre le régime des mollahs, contre le programme nucléaire iranien, contre l’appareil sécuritaire et contre le réseau international de cette puissance régionale ?

Le partenariat global russo-iranien signé en janvier 2025 n’assurera pas la défense de l’Iran, hormis les protestations formulées publiquement par les autorités russes quelques heures après le début des frappes.

Après la chute de la famille Al-Assad en Syrie, la Russie semble privée d’un relais essentiel dans la région et, plus largement, sur la scène mondiale. Pour autant, il est sans doute très prématuré d’annoncer la fin de l’influence russe au Moyen-Orient.

Des revers indiscutables

Même si Moscou a enregistré, ces dernières années, certains succès diplomatiques sur le continent africain, ses réseaux d’alliances s’effritent : renversement du régime syrien en décembre 2024, enlèvement spectaculaire du président vénézuélien Nicolas Maduro en janvier 2026, mort du guide suprême iranien Ali Khamenei et possible effondrement de la République islamique… La Russie a perdu des soutiens de poids sur la scène internationale pour sa lutte d’influence contre l’Occident et pour son invasion de l’Ukraine. D’évidence, le soutien de Moscou ne donne pas d’assurance-vie aux dirigeants alliés — et cette conclusion est d’ores et déjà tirée dans le « Sud global ».

Même si la République islamique d’Iran reste en place, la Russie perd, du fait de son durable affaiblissement, un levier d’influence dans la région. Surtout, la crédibilité internationale de Moscou est plus qu’écornée : le partenariat stratégique signé en janvier 2025 avec l’Iran n’est manifestement que d’une aide limitée, malgré l’excellence reconnue des systèmes russes des systèmes de défense anti-aérienne.

Ni sur le plan stratégique (accord de défense), ni sur le plan diplomatique (actions au Conseil de Sécurité des Nations unies), ni sur le plan capacitaire (exportations de matériels de défense), l’alliance russe ne paraît efficace ou protectrice. Engagées dans des opérations militaires de grande ampleur et de haute intensité sur des théâtres disjoints, la Fédération de Russie et la République islamique d’Iran ne peuvent s’épauler car les matériels militaires de chacun des partenaires vont à leurs fronts respectifs. Cet enseignement sera tiré cette fois-ci à Delhi et à Pékin, destinations privilégiées des matériels de défense russe en vertu d’accords de défense anciens.

Ultime revers, la Russie perd, avec l’opération israélo-américaine, son rôle de médiateur pour négocier des accords de non-prolifération avec l’Iran. Après une série de discussions purement bilatérales entre États-Unis et Iran puis après les frappes lourdes contre les sites iraniens, l’Iran n’a plus besoin d’avocat sur la scène internationale et la Russie ne peut plus se poser en intermédiaire entre Téhéran et le reste de la communauté internationale. Cette évidence est manifeste aux États-Unis comme en Europe.

Impuissante, décrédibilisée, marginalisée et inutile dans les affaires iraniennes, la Russie subit en ce moment une série de revers indiscutables dans la région et dans le monde.

Des risques ambivalents

Certaines conséquences de la guerre actuelle contre l’Iran sont plus difficiles à évaluer et peuvent présenter des avantages conditionnels et inattendus pour Moscou.

Sur le plan politique, un changement de régime (hypothétique en l’état actuel) à Téhéran serait en soi une mauvaise nouvelle pour le Kremlin : la lutte constante de la présidence Poutine contre les « révolutions de couleur » des années 2000, les protestations de Moscou contre la chute de Milosevic en Serbie en 2000, celle de Kadhafi en Libye en 2011 et, plus récemment, celle de Ianoukovitch en Ukraine en 2014, constituent un axe directeur de sa diplomatie. Toutefois, le renversement de dirigeants par la force militaire à Caracas comme à Téhéran donne indiscutablement un précédent objectif pour justifier des attaques contre la présidence Zelensky en Ukraine et contre tel ou tel autre dirigeant de l’ancien espace soviétique. En d’autres termes, Donald Trump essaie de faire à Téhéran ce que Vladimir Poutine aurait voulu réaliser à Kiev.

Sur le plan des matériels de défense, Moscou avait importé des drones Shahed d’Iran dans la première phase du conflit contre l’Ukraine. Mais, à la faveur des destructions réalisées en Iran, la Russie, qui désormais produit les Shahed elle-même, peut s’imposer sur les anciennes « parts de marché » iraniennes de ce secteur en croissance — à condition toutefois de ne pas consommer tous ses matériels sur le front ukrainien.

La plus grande inconnue concerne l’inflexion que cette guerre donnera au rapprochement entre Poutine et Trump médiatisée par la rencontre en Alaska le 15 août 2025. D’un côté, Moscou est engagé diplomatiquement et militairement aux côtés de l’Iran, ciblé par les États-Unis. Mais, d’un autre côté, Moscou peut aussi instaurer avec Washington une forme de troc, qui verrait le Kremlin réagir avec modération à la chute de la République islamique en contrepartie de concessions notables de la Maison-Blanche sur le dossier ukrainien.

Des opportunités de court et moyen terme pour Moscou

Dans la crise actuelle, la Russie peut toutefois exploiter plusieurs opportunités.

À brève échéance, la hausse des prix des hydrocarbures peut augmenter les recettes des sociétés russes et, indirectement, les recettes fiscales de l’État fédéral russe. La Chine et l’Inde sont en effet déjà des clients importants pour la Russie. Elles seront tentées de solliciter encore davantage leurs fournisseurs russes en cas de blocage durable du détroit d’Ormuz. Ce bénéfice de court terme doit être tempéré : d’une part, les hausses de prix ne peuvent être répercutées que sur les achats réalisés au jour le jour, pas sur les contrats de fourniture de long terme ; d’autre part, la hausse des prix des matières énergétiques peut être enrayée par une hausse de production de la part d’acteurs majeurs des marchés du gaz (Algérie, Russie elle-même) et du pétrole.

Toujours dans l’immédiat, Moscou peut exploiter le report de l’attention internationale du théâtre ukrainien au Moyen-Orient afin de renforcer encore ses actions contre les populations et les infrastructures dans la profondeur en Ukraine. Et cela, d’autant plus que les armements utilisés par les Européens et les Américains au Moyen-Orient ne pourront pas prendre la direction de l’Ukraine (même si le soutien américain en matériels s’amenuise de toute façon pour l’Ukraine).

À la faveur de la confusion actuelle (le trop fameux brouillard de la guerre), la Russie peut également saisir l’occasion de multiplier les actions en dessous du seuil (cyberattaques, subversion, etc.) contre des États européens fortement mobilisés en faveur de l’Ukraine.

Enfin, à moyen terme, la Russie peut mettre à profit les conséquences de l’opération israélo-palestinienne pour revoir sa stratégie au Moyen-Orient. À l’égard des régimes égyptien et saoudien, elle peut se poser en alternative de stabilisation face à la suprématie militaire de la « Sparte » israélienne et à l’aventurisme guerrier de l’administration Trump. À une Turquie échaudée par la désorganisation durable des équilibres régionaux (spécialement en cas de crise des réfugiés en provenance d’Iran), elle peut proposer de renforcer les coopérations alternatives à l’Otan. Enfin, à l’allié chiite laissé seul face à l’attaque militaire massive, elle peut proposer un soutien pour la reconstruction de ses dispositifs de défense.

À court terme, la Russie a tout à perdre de l’opération contre l’Iran. Mais il convient de ne pas sous-estimer sa résilience dans la région.

The Conversation

Cyrille Bret ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

05.03.2026 à 16:34

France’s National Health system explained to U.S. citizens in 2026

Jean de Kervasdoué, Professeur d'économie de la santé, Conservatoire national des arts et métiers (CNAM)

France may not have oil reserves, but it does have a well-oiled public health service comprising doctors, state-funded hospitals, strong state regulation and medical expenses that are reimbursed.
Texte intégral (2303 mots)
A US citizen spends 12,627 euros on annual medical care compared with 6,249 euros in France. MillaF/Shuttetstock

France’s vision of universal healthcare and America’s health insurance premium-reliant system are worlds apart. On October 1 2025, the US Federal Government shut down after an insufficient number of Democrat votes amid disputes over health policy led to a federal government budget deadlock

The longest shutdown in US history could have had dramatic consequences for part of the population, particularly for millions of Americans who would have lost their health insurance. President Trump is on a mission to dismantle policies introduced by Barack Obama (and maintained under the Biden administration) to improve access to health insurance for the most disadvantaged.

On top of the anticipated decline is the incredibly questionable policy of US Secretary of State for Health, Robert Francis Kennedy Jr, and his highly controversial views on vaccines.

Meanwhile, despite a 17.5 billion deficit and a need for reform, in terms of quality and access to medical care, France’s Assurance Maladie national healthcare system remains a “land of plenty”.

Efficient medical care, ‘à la française

A good starting point for explaining France’s national health service to Americans would be to step back in time.

In 1939, a US citizen’s life expectancy at birth was seven years higher than for a French citizen. Things have changed since then. In 2024, it was more than three and a half years lower: life expectancy stood at 79 in the United States compared to 82.5 in France. In 2025, however, healthcare expenditure per capita was equivalent to 12,627 euros in the United States (14,885 dollars), and 6,249 euros in France (7,367 dollars).

At national level, this translates into so-called health costs (mainly medical fees), representing 17.2% of GDP in the US and 11.4% in France. While changes in life expectancy are linked to lifestyle and eating habits (leading to obesity and diabetes), the effectiveness of medicine is playing an increasingly important role.

It is likely that the quality of healthcare for the majority of people is both better and more accessible in France.

When it comes to paying for medical care, France has a simple system: it is a country where you are covered by health insurance from birth. All legal residents are automatically registered with the health insurance system and, therefore, receive free healthcare for the most serious conditions, or care that is largely reimbursed within the compulsory health insurance scheme and covered by top-up insurance plans.

In the US, there is a three-tier social security system: Medicare for the over 65s and people with disabilities, Medicaid for the poorest, and the Veterans Health Administration for veterans.

Breakdown of health expenditure in the United States. Healthsystemtracker

7.8% out-of-pocket expenses for French citizens

Thirty long-term serious conditions such as cancer, type 1 or 2 diabetes or psychiatric illnesses are fully covered (treatment is fully reimbursed) by the compulsory state health cover that is offered to all French citizens.

If we add top-up health insurance – now almost universal – patients in France actually only end up paying 7.8% of their healthcare costs. Admittedly, French citizens or their employers will have contributed in financing compulsory or top-up health insurance.

For most French people, there are few or no financial barriers to entry. These barriers have been further reduced for dental care, optical care and hearing care thanks to a universal policy implemented by Emmanuel Macron called “100% healthcare”.

On the whole the French system is more generous than those of comparable countries.

Patients are encouraged to register with a general practitioner with whom visits are then fully reimbursed. If they choose to consult a different health professional, it will only cost them a few euros more. Patients are can make same day appointments to see several specialists whose fees are largely reimbursed, that is unless they don’t charge rates higher than those set by the National Health Service (known as “excess fees”), a common practice in certain medical specialities.

France: a predominantly state-run health service

Like in the United States, France has public hospitals, private clinics and private non-profit clinics. All 31 of France’s university hospitals are state-funded.

France does, however have a higher percentage of private (for-profit) hospitals than the United States. In 2024, 33% of clinics in France were private compared to 20% in the US.

In France, private practice physicians are free to set up practice wherever they wish and are paid on a fee-for-service basis. In the majority of cases, doctors’ fees are set by the national health insurance system and are much lower than in the United States: 30 euros for a visit with a general practitioner in France, $150 in the United States, or 127 euros.

Strong French state regulation

It goes without saying that in France, the State is heavily involved in regulating its national health service.

Opening a pharmacy is impossible without administrative authorisation, for instance. The State, through its regional health agencies, controls all hospitals – public or private. It manages the register for all medical procedures, pricing and reimbursement rates for each medicine, X-ray or biological test a doctor prescribes. At national level, the State is responsible for appointing all directors and doctors in public hospitals, which employed nearly 1.1 million people at the end of 2021.

High-quality private establishments are present in France (they employed 315,000 people in 2022 and, I would again lay emphasis on how private doctors are free to set up their own practices and prescribe care as they see fit.

Despite everything, the French system is one of the most expensive in the Western world. Hospital stays account for a large proportion of expenditure. France has many specialists, and medication consumption is high.

TheAmerican system is is even more expensive, and, in reality, more inefficient because competition between private insurers does not lead to a reduction in the cost of services – as is often the case in a market economy – it results in inflation in insurance premiums. Backed firmly by their belief in the absolute and systematic benefits of all forms of competition, wealthy individuals in the United States take out insurance policies to cover the fees of renowned doctors and stays in luxury hospitals. In doing so, they ramp up the costs of medical goods and services.

The US healthcare system is, in essence, ‘inflationary’

Over time, US healthcare providers’ tariffs (having been made solvent by part of the demand) have increased, leading to inflation. The high expenditure of the US health service, which is an inherently inflationary system, compared to other Western countries, is mainly due to a difference in the pricing of medical goods and healthcare professionals’ fees.

The reforms during Barack Obama’s term in office did nothing to curb this inflation. Donald Trump says he wants to tackle this by putting pressure on drug prices in particular.

It is plain to see that universal health insurance allows for operational control over medical and hospital fees and the price of prescription drugs. This is the norm in OECD countries, such as France. This does not mean that doctors or nurses are poorly paid, or that there is no access to medical breakthroughs, but rather that regulation is safeguarded, i.e. not left to a market which, in the specific case of healthcare, mainly produces inflation.

Are the United States more socialist?

To conclude with a brief arithmetic demonstration: public health expenditure, financed by taxes and compulsory contributions, represents 43% of healthcare expenditure in the US, or 4,532 euros per capita per year (43% of the 10,517 euros in current healthcare expenses). In France, these expenses represent 79.4% or 4,195 euros or 4,863 dollars – 79.4% of 5,273 euros in current healthcare expenses per person per year, with the remainder being covered by patients themselves or their top-up health insurance plans.

In other words, US taxes provide more funding for the healthcare system in absolute terms! Can we safely say that this makes the United States more “socialist” in its approach? Obviously, there is no supporting evidence to suggest this, but it is clear that Americans pay twice for their healthcare: once through their taxes and a second time via their insurance premiums.

People in the US have long been aware of this and have become staunch supporters of universal health insurance, introduced by the late Senator Ted Kennedy, the youngest of the Kennedy brothers. The chances of such a reform making it onto the political agenda in the short term are nil because, to conclude with a quote from Marcel Proust’s Swann’s Way:

“The facts of life do not penetrate the sphere in which our beliefs are cherished; as it was not they that engendered those beliefs, so they are powerless to destroy them.”

Beliefs in the universal efficiency of the market are therefore as firm as they are costly, and are now more alive than ever.

The Conversation

Jean de Kervasdoué ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

05.03.2026 à 16:27

IA et cancer de la thyroïde : demain, la fin des traitements standardisés ?

Cyril Voyant, Research Director – Renewable Energy Forecasting & Applied Physics, Mines Paris - PSL

David Taieb, Professeur des universités - Praticien hospitalier. Chef du département hospitalo-universitaire de Médecine Nucléaire AP-HM, Aix-Marseille Université (AMU)

Dominique Barbolosi, Professeur des universités, Aix-Marseille Université (AMU)

Marie Fusella-Giuntini, Doctorante, Université de Corse Pascal-Paoli

En couplant intelligence artificielle et modélisation mathématique, des chercheurs français développent un outil de traitement personnalisé de certains cancers de la thyroïde.
Texte intégral (1697 mots)

En couplant intelligence artificielle et modélisation mathématique, un consortium français d’équipes de recherche développe un outil pour, à terme, administrer, en fonction du profil de chaque patient, les doses d’iode radioactif utilisées pour traiter certains types de cancers de la thyroïde. Mais le chemin est encore long avant de voir émerger cette médecine quantitative, prédictive et personnalisée.


La radiothérapie métabolique par iode radioactif repose encore sur des protocoles standardisés qui ignorent la variabilité biologique des patients. (Appelée aussi radiothérapie interne vectorisée, la radiothérapie métabolique consiste à administrer les sources radioactives pour traiter les tumeurs par voie orale ou par perfusion intraveineuse, ndlr.)

En combinant intelligence artificielle prédictive et modélisation mathématique, une équipe française propose une approche radicalement plus précise : un traitement réellement personnalisé, ajusté patient par patient.

Un même traitement, des résultats radicalement différents

Prenons un exemple fictif. Sophie, 52 ans, et Thomas, 48 ans, partagent le même diagnostic : un cancer différencié de la thyroïde avec métastases. Tous deux reçoivent le protocole standard : 3,7 gigabecquerel (GBq) d’iode radioactif (iode 131) administré par voie orale en une seule injection. Six mois plus tard, le contraste est saisissant. Chez Sophie, les marqueurs tumoraux ont chuté de 90 % et les métastases régressent. Chez Thomas, aucune amélioration : sa tumeur continue de croître, insensible au traitement. Il est devenu réfractaire à l’iode radioactif.

Cette injustice biologique n’est pas une fatalité. Elle révèle l’un des défis majeurs de la cancérologie moderne : l’immense variabilité interindividuelle dans la réponse aux traitements. Un défi que la combinaison de l’intelligence artificielle et de la modélisation mathématique commence enfin à relever.

Le problème : surtraiter certains malades, en sous-traiter d’autres

Aujourd’hui, les protocoles de radiothérapie métabolique par iode radioactif reposent essentiellement sur des schémas standardisés, établis empiriquement depuis des décennies. Ces protocoles « taille unique » ignorent une réalité biologique fondamentale : tous les cancers ne se comportent pas de la même manière.

La différence entre Sophie et Thomas tient à un paramètre invisible à l’œil nu mais déterminant : le temps de doublement tumoral sous traitement (TD). Chez les répondeurs comme Sophie, le TD est long, parfois plusieurs mois ou années. Les cellules cancéreuses se divisent lentement. L’iode radioactif a le temps d’agir, de s’accumuler dans les cellules thyroïdiennes et de les détruire par irradiation interne. Des activités modérées souvent suffisent pour y arriver à bout.

Chez les non-répondeurs comme Thomas, le TD est court, quelques semaines seulement. Les cellules prolifèrent rapidement et peuvent même exprimer des mécanismes de résistance malgré une captation d’iode. Le schéma standard n’est pas adapté et les délais inter-cures trop longs, laissent à la tumeur tout le loisir de progresser entre les traitements.

L’enjeu est double : pour Sophie, éviter le surtraitement qui entraîne toxicités inutiles et risques de séquelles radio-induites (c’est-à-dire induites par la radiothérapie, ndlr) ; pour Thomas, intensifier et fractionner le traitement pour donner une chance à sa thérapie de fonctionner.

La solution hybride : quand l’IA prédit et la simulation optimise

C’est précisément ce défi que relève un consortium de recherche français inédit. Leur approche marie deux mondes habituellement séparés : l’intelligence artificielle prédictive et la simulation mathématique directe.

Dès les premières semaines suivant un traitement initial, l’intelligence artificielle (IA) analyse les trajectoires de thyroglobuline, un marqueur sanguin reflétant l’activité de la tumeur. En croisant ces données avec l’historique clinique, les paramètres biologiques et les résultats d’imagerie, l’IA apprend à identifier les profils de patients. Son rôle consiste à prédire en amont le temps de doublement tumoral ainsi que les paramètres cellulaires clés : taux de captation de l’iode, vitesse de prolifération, sensibilité à l’irradiation.

Ces prédictions, impossibles à obtenir jusqu’à présent autrement qu’en procédant à des biopsies répétées ou en faisant appel à des techniques d’imagerie médicale lourdes (scintigraphie corps entier à l’iode 131, tomographie par émission de positons – tomodensitométrie, TEP-TDM – au FDG, ou TEP à l’iode 124, complétées par des séquences IRM spécifiques), deviennent le socle d’une médecine véritablement personnalisée.

Une fois le profil biologique du patient établi par l’IA, intervient la modélisation par équations différentielles. Il ne s’agit plus de statistiques mais de physique et de biologie : le modèle simule, en temps réel, les dynamiques couplées entre la décroissance radioactive de l’iode injecté, l’évolution de la population de cellules tumorales et les variations du marqueur sanguin qui reflète l’activité de la tumeur (la thyroglobuline).

Grâce à ce « jumeau numérique hybride » (IA et modélisation déterministe) du patient, le clinicien peut tester virtuellement des dizaines de scénarios thérapeutiques en quelques secondes : faut-il augmenter ou réduire l’activité injectée ? Vaut-il mieux une injection unique ou plusieurs doses fractionnées ? Quand administrer la dose suivante pour maximiser l’effet tout en limitant la toxicité ? Le résultat est un schéma thérapeutique sur mesure, optimisé pour chaque patient.

Les enjeux : au-delà de la technique

Bien que de nombreux patients atteints de cancer thyroïdien pourraient être traités avec des doses moindres sans perte d’efficacité, certains ne répondent pas aux protocoles standards et deviennent réfractaires à l’iode. Pour ces derniers, chaque mois perdu en traitement inefficace est un mois où la tumeur progresse. Identifier précocement ces profils et adapter rapidement le protocole peut changer le pronostic.

L’outil en cours de développement, RAIR-Sim, n’est pas une boîte noire. Il restera sous contrôle médical total. Le médecin nucléaire pourra explorer les simulations, ajuster les hypothèses, confronter les résultats à son jugement clinique. L’IA et la simulation ne remplacent pas le médecin : elles augmentent sa capacité de décision.

Perspectives : vers une médecine quantitative

Ce projet illustre une tendance de fond en oncologie : le passage d’une médecine empirique vers une médecine quantitative, prédictive et personnalisée. Mais le chemin reste long. Des essais prospectifs sont nécessaires pour prouver l’intérêt clinique à grande échelle. Il faut intégrer ces outils dans les logiciels hospitaliers existants et former les oncologues et les médecins nucléaires à ces approches. Les outils d’aide à la décision par IA doivent également obtenir les marquages CE et autorisations sanitaires.

Les opportunités sont immenses : extension à d’autres cancers comme ceux du sein, de la prostate ou les lymphomes, couplage avec l’imagerie fonctionnelle, intégration de biomarqueurs moléculaires. L’alliance de l’IA et de la modélisation mathématique n’est pas qu’un exploit technique. C’est un changement de paradigme : chaque patient devient unique, chaque traitement devient une décision éclairée par des données, des prédictions et des simulations.

Sophie et Thomas ne devraient plus recevoir le même traitement. Grâce à une entente pluridisciplinaire, ils ne le recevront bientôt plus. La médecine personnalisée sort des laboratoires. Elle entre dans les services de médecine nucléaire, une équation à la fois.


Ce travail est mené par un consortium interinstitutionnel français réunissant l’Université de Corse (Mme Marie Fusella Giuntini et le professeur Laurent Capocchi), l’Université d’Aix-Marseille et l’Inserm (le professeur Dominique Barbolosi), l’École des Mines-PSL (le professeur Cyril Voyant) ainsi que l’Hôpital de la Timone à Marseille (le professeur David Taieb).

Le logiciel RAIR-Sim sera prochainement en accès libre. Les premières versions de test sont disponibles ici.

The Conversation

DT is a cofounder, stakeholder, and the chief medical officer (CMO) of SILON Therapeutics and reports receiving advisory board honoraria from Novartis.

Cyril Voyant, Dominique Barbolosi et Marie Fusella-Giuntini ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

05.03.2026 à 16:27

Stérilet, spéculum, pilule… Retour sur l’histoire mouvementée du Planning familial en cinq objets

Bibia Pavard, Maîtresse de conférences en histoire contemporaine, Université Paris-Panthéon-Assas

Le Planning familial fête ses 70 ans. Retour en cinq objets sur l’histoire d’une association emblématique qui a promu la maîtrise de la fécondité et, ce faisant, les droits des femmes.
Texte intégral (3449 mots)

Le Planning familial fête cette année ses 70 ans. En promouvant l’accès à des contraceptifs modernes, l’association a tout au long de son histoire accompagné une des révolutions majeures de notre époque : la liberté de maîtriser sa fécondité. De la pilule au stérilet en passant par le spéculum, retour en cinq objets sur l’histoire matérielle de cette institution. Elle nous raconte une aventure politique bien plus complexe que celle d’un progrès linéaire vers la liberté des femmes.


Dès la fondation de l’association Maternité Heureuse, le 8 mars 1956, autour de la gynécologue Marie-Andrée Lagroua Weill-Hallé, 23 pionnières défient la loi de 1920 qui interdit toute propagande anticonceptionnelle. En devenant le Mouvement français pour le planning familial (MFPF) en 1960, l’association promeut l’accès à des contraceptifs modernes et est rejointe par des gynécologues hommes et femmes. L’objectif est d’éviter les grossesses non désirées, fléau pour la santé et même la vie des femmes, qui en viennent à l’avortement clandestin et ses dangers, et de permettre l’équilibre de la famille en espaçant les naissances. La liberté pour les femmes de disposer de leur corps n’est pas encore d’actualité.

Le stérilet : entre autonomie et contrôle (années 1950-1960)

Les couples pratiquent déjà le coït interrompu ou la méthode des températures, mais il s’agit de leur donner accès à des méthodes plus efficaces, au départ les diaphragmes et les gels spermicides. Le dispositif intra-utérin (DIU), baptisé « stérilet » par le docteur Pierre Simon au début des années 1960, est ensuite le symbole de cette recherche du contraceptif idéal.

L’insertion d’un objet dans l’utérus pour empêcher les naissances est une technique ancestrale. Elle a été améliorée depuis les années 1930 et fait l’objet de nombreuses recherches à partir des années 1950-1960 pour promouvoir le planning familial dans le monde dans un but de réduction des naissances. Le plastique remplace le métal, plusieurs formes sont expérimentées. Mis en place pour une période prolongée, le stérilet libère les femmes de la nécessité de prendre des précautions contraceptives au moment des rapports sexuels.

Spirales de Margulies, Centre des archives du féminisme, Fonds Pierre Simon, 17AF52. Le gynécologue Lazar Margulies est un des pionniers de l’invention des stérilets en thermo-plastique. Il met au point sa boucle et un inserteur en facilitant la pause, en 1960. Fourni par l'auteur

Mais cette autonomie a son revers, car le stérilet devient aussi un instrument de contrôle médical : devant être mis en place par un médecin, il peut être inséré sans consentement (sans que la femme en ait connaissance à l’occasion d’un examen gynécologique). Il est rapidement privilégié pour les femmes jugées incapables d’utiliser des méthodes où elles doivent être actives : les femmes pauvres, migrantes ou en situation de handicap, notamment.

En outre, si l’Hexagone reste dominé par une politique nataliste, ces dispositifs sont promus à La Réunion et en Guadeloupe par des agents de l’État pour limiter une « surpopulation » jugée indésirable. Le stérilet est ainsi une « technologie politiquement versatile », porteuse de valeurs féministes comme de leur contraire, pour reprendre l’expression de la chercheuse Chikako Takeshita.

La pilule : un choix sous contrainte (années 1960)

Le Mouvement français pour le planning familial s’étend dans les années 1960 et devient une fédération d’associations départementales – il y en a déjà presque 30 en 1962. Il s’appuie sur les militantes et les militants de divers horizons : milieux laïques, francs-maçons, socialistes, protestants notamment. Des centres de planning, animés par celles qu’on appelle alors des hôtesses d’accueil, sont ouverts dans les grandes villes pour recevoir les femmes et les couples, dispenser un conseil conjugal et prescrire des contraceptifs.

L’invention de la pilule en 1956 modifie durablement les méthodes contraceptives.

Les gynécologues du mouvement promeuvent ainsi un nouveau contraceptif auprès des couples mariés avant même qu’il soit légal : la pilule, mise au point par Grégory Pincus en 1956. Constitué d’hormones de synthèse, le médicament inhibe l’ovulation. Pris quotidiennement par les femmes, il les libère de la peur des grossesses non désirées.

Ce nouveau contraceptif, son efficacité, son innocuité occupent le centre des débats au moment où le député gaulliste Lucien Neuwirth dépose sa proposition de loi pour autoriser la vente de contraceptifs.

Le vote de la loi Neuwirth en décembre 1967, grâce aux voix de la gauche, est une victoire pour le Planning familial même si son texte est très restrictif (pas de remboursement des contraceptifs, autorisation parentale nécessaire pour les mineures) et se révèle long à être appliqué.

Archives Ina : la loi du 27 décembre 1967 relative à la régulation des naissances, dite « loi Neuwirth », autorise la vente des produits contraceptifs en pharmacie.

Progressivement à partir des années 1980, un « pilulocentrisme » s’impose en France, comme l’a montré la sociologue Alexandra Roux. Ce mode de contraception devient prépondérant, il place les femmes au centre et implique la fixation d’une « norme gynécologique », définie par Aurore Koechlin, qui impose d’aller consulter annuellement un ou une gynécologue pour obtenir la prescription et prévenir tout risque, tout au long de sa vie. Cette hégémonie n’est remise en cause qu’avec la crise des pilules de 3ᵉ et 4ᵉ génération en 2012.


À lire aussi : Contraception : est-on sorti du « tout pilule » ?


Le Mouvement français pour le planning familial a d’abord accompagné cette norme puis s’en est détaché, dans un effort constant de faire connaître la diversité des contraceptifs, destinés aux femmes et aux hommes, à travers des campagnes d’affichage et des brochures afin de permettre à chacun et à chacune de faire un choix éclairé.

La méthode Karman : l’avortement au-delà de la légalité (années 1970)

Un spéculum, de fines canules souples reliées à une seringue en plastique pour faire le vide : ces quelques objets promus par le psychologue californien Harvey Karman rendent l’avortement par aspiration, dans les premières semaines de la grossesse, simple, rapide et peu coûteux.

Seringue et canules Karman en plastique utilisées pour faire des avortements militants dans les années 1970. Archives privées. Fourni par l'auteur

La technique arrive en France en 1972, via des réseaux féministes, au moment où le mouvement pour l’avortement libre et gratuit bat son plein.

La méthode Karman devient un instrument pour défier l’interdit. Aux mains de militantes et militants du Mouvement pour la liberté de l’avortement et de la contraception (MLAC), de Choisir ou du Planning familial, la méthode permet de proposer des avortements gratuitement aux femmes qui le demandent et s’ajoutent à des voyages collectifs en Grande-Bretagne et aux Pays-Bas où l’avortement est possible.

Elle joue un rôle central dans la mise à l’agenda parlementaire de la libéralisation de la loi sur l’avortement, qui aboutit finalement à la loi Veil de 1975.

L’année 1973 marque une rupture pour le MFPF : une partie des militantes et des militants, notamment des gynécologues impliqués de longue date, quittent le mouvement qui prône désormais l’avortement libre et plus seulement la contraception.

Simone Iff incarne ce virage. Hôtesse d’accueil depuis les années 1950, puis présidente de l’association départementale de Paris, proche du Mouvement de libération des femmes et membre fondatrice du MLAC, elle devient la présidente de la fédération ; c’est la première fois qu’une non-médecin obtient ce poste. Le MFPF embrasse alors les luttes des femmes avant de faire entrer officiellement le féminisme dans ses statuts en 1983. Il continue à défendre le droit à l’avortement grâce à de nombreuses campagnes au niveau national et international, pour pérenniser les acquis et renforcer la loi, jusqu’à la constitutionnalisation de la liberté d’avorter en 2024.


À lire aussi : Pourquoi inscrire le droit à l’avortement dans la Constitution est aussi une protection symbolique


Le Mouvement s’investit aussi pour permettre un accès sur tous les territoires grâce à des consultations, un numéro d’information mis en place en 2015, l’accompagnement des femmes en délai dépassé à l’étranger, etc. Cela lui vaut d’être pris pour cible par les collectifs anti-avortement qui dégradent ses locaux ou attaquent le Planning en justice. Ces attaques ont conduit à la loi Neiertz de 1993, définissant un délit d’entrave à l’interruption volontaire de grossesse (IVG), aujourd’hui élargi au numérique.

Le préservatif masculin (années 1980 et 1990) : protéger toutes les sexualités

Ce petit capuchon a une histoire longue. D’abord réalisé en tissu et en boyaux d’animaux et réservé à une élite, il se massifie avec le commerce du caoutchouc au XIXᵉ siècle. Marketé comme un objet viril, il est associé à une sexualité vénale ou extra-conjugale, et ainsi peu utilisé au sein des couples légitimes. Sa vente est autorisée principalement pour des raisons prophylactiques : la lutte contre les maladies vénériennes.

L’épidémie du VIH-Sida marque sa banalisation à partir des années 1980. D’abord promu auprès du public homosexuel, dans un premier temps le plus touché par l’épidémie, il devient le symbole des mobilisations de patients dans des associations comme Aides et Act’up, qui font du lobbying auprès de l’industrie pharmaceutique et dénoncent l’inaction des pouvoirs publics.

Il entre alors dans l’arsenal des objets promus par le Planning familial, qui s’investit dans la lutte contre les maladies sexuellement transmissibles et s’ouvre à l’accompagnement de toutes les sexualités. Depuis les années 2000 s’y ajoute une réflexion sur l’inclusivité des publics : de tous les genres, de tous les âges et de toutes les origines.

Le spéculum en plastique : connaître le corps des femmes (des années 1950 à nos jours)

Drôle d’objet que ce bec de canard en métal impudique, utilisé pour mieux voir à l’intérieur du vagin. D’abord cylindrique et en étain, le spéculum est associé à l’invention moderne de la gynécologie au XIXᵉ siècle. Permettant d’accéder au col de l’utérus pour différents usages thérapeutiques, il est d’emblée associé au contrôle des corps des femmes, notamment des prostituées, soumises à des visites médicales obligatoires en France ou les femmes esclaves sur lesquelles expérimente James Marion Sims.

Et pourtant, à partir des années 1970, il est aussi associé au self-help féministe, c’est-à-dire à un mouvement de lutte contre l’ignorance et de réappropriation collective des savoirs sur leur corps par les femmes elles-mêmes. L’auto-observation du col de l’utérus à l’aide d’un spéculum en plastique moins froid, d’un miroir et d’une lampe de poche en sont une pratique privilégiée.

Cette ambivalence des objets médicaux se retrouve dans l’histoire du Mouvement français pour le planning familial. Dès sa création, il se donne pour mission d’éduquer le public à la contraception et de former les professions médicales et les hôtesses d’accueil à l’anatomie, à la psychologie affective et sexuelle et au fonctionnement des contraceptifs. À partir de 1967, le Planning se déclare mouvement d’éducation populaire et permanente et entend toucher tous les publics, en particulier les classes populaires.

Depuis les années 1980 et 1990, l’éducation à la sexualité devient l’un de ses domaines d’action privilégiés, notamment en milieu scolaire. Il est ainsi un lieu de diffusion et de réappropriation des savoirs sur le corps. Divers objets sont utilisés pour contribuer à cette pédagogie. Finie la planche anatomique, désormais il s’agit de représenter le corps en 3D : le clitoris ou la « chatte en mousse » créée en 2022 par une militante du Planning de Marseille permettent de visualiser avec précision tous les organes.

Le spéculum, lui aussi, fait l’objet d’une réappropriation : évoquant la douleur de l’examen gynécologique et l’absence de consentement, il est l’objet de critiques après #MeToo et la dénonciation des violences gynécologiques et obstétricales. Au Planning, on invite au contraire à s’en emparer pour revendiquer une auto-insertion. Le spéculum devient ainsi le symbole de ces soixante-dix ans d’histoire du Planning familial : un objet disputé qui, entre domination et choix, raconte la conquête inachevée de l’autonomie des femmes sur leur propre corps.

En 2026, les combats pour l’accès à la contraception, à l’avortement, à une éducation affective et sexuelle inclusive sont toujours d’actualité et rencontrent de nouveaux obstacles, que ce soit la réduction budgétaire ou le renouveau des oppositions au niveau national et international. L’histoire du Planning familial n’a pas fini de s’écrire.


Alors que le Mouvement français pour le planning familial fête ses 70 ans en 2026, une exposition retracera son histoire à l’Hôtel des pénitentes d’Angers (Maine-et-Loire), de septembre 2026 à janvier 2027. Imaginée par Bibia Pavard, Chrystel Grosso, Pauline Mortas et Laura Tatoueix et coordonnée par l’Association pour un musée des féminismes (Afémuse), elle reviendra sur sept décennies de luttes et de pratiques, à travers les objets.

The Conversation

Bibia Pavard a reçu des financements de l'Institut Universitaire de France

PDF

05.03.2026 à 16:27

Nouvelle-Calédonie : l’accord de Bougival à l’épreuve des municipales

Pierre-Christophe Pantz, Enseignant vacataire et chercheur associé à l'Université de la Nouvelle-Calédonie (UNC), Université de la Nouvelle-Calédonie

En Nouvelle-Calédonie, les élections municipales de 2026 pourraient être marquées par le clivage entre partisans et détracteurs des accords de Bougival–Élysée-Oudinot.
Texte intégral (1686 mots)

En Nouvelle-Calédonie, les élections municipales ne sont jamais tout à fait locales. Celles prévues les 15 et 22 mars 2026 ne feront pas exception. Depuis la signature de l’accord de Bougival en juillet 2025, complétée par celle d’Élysée-Oudinot en janvier 2026, la question de l’avenir institutionnel de l’archipel domine le débat politique, reléguant au second plan les enjeux strictement communaux.


Dans un territoire où les communes constituent de longue date des bastions stratégiques dans la rivalité entre indépendantistes et non-indépendantistes, le scrutin de 2026 pourrait s’enrichir d’une dimension supplémentaire. À l’opposition historique entre deux camps pourrait en effet se superposer un clivage plus récent : celui entre partisans et détracteurs des accords de Bougival–Élysée-Oudinot (BEO).

En définitive, l’enjeu est le suivant : les municipales confirmeront-elles la structuration territoriale traditionnelle du système politique calédonien ou révéleront-elles une recomposition plus complexe des rapports de force issus des récents accords ?

Des municipalités historiquement politisées

La politisation des municipalités calédoniennes s’inscrit dans une histoire longue. Héritées de l’époque coloniale, où elles étaient réservées aux populations européennes, les communes ont progressivement été réinvesties par le peuple kanak comme instruments de conquête politique et de réappropriation territoriale. La fin du régime de l’Indigénat en 1946, puis l’universalisation progressive du droit de vote jusqu’en 1956, ont transformé pour le peuple kanak, la mairie en un espace central de légitimation et de visibilité politique.

Cette évolution s’est traduite concrètement dans la sociologie et dans la cartographie des exécutifs locaux. À la fin des années 1960, 12 maires kanaks dirigeaient des communes du territoire ; en 2020, ils étaient 21 sur 33 communes, principalement situées au Nord, sur la côte Est et dans les îles Loyauté. Les municipales ont ainsi accompagné une redistribution progressive du pouvoir local, reflétant davantage les équilibres démographiques et territoriaux.

À partir des années 1970, le système politique s’est structuré autour d’une bipolarisation durable entre indépendantistes et non-indépendantistes. Cette opposition ne se limite pas à des programmes ou à des partis : elle s’incarne et se structure dans des fiefs électoraux territorialisés. De manière schématique, les indépendantistes dominent le long d’un axe est-îles Loyauté, tandis que les non-indépendantistes sont majoritaires dans le Grand Nouméa, le Sud-Ouest de la Grande Terre et conservent le fief de Koumac au Nord-Ouest. L’alternance municipale entre les deux blocs y demeure rare. Les communes fonctionnent ainsi comme des points d’ancrage et de consolidation du rapport de force territorial.

Un contexte profondément reconfiguré depuis 

2020

Ce cadre relativement stable a cependant été fragilisé par une succession de crises au cours des dernières années. Depuis 2020, la Nouvelle-Calédonie a traversé une succession de crises : pandémie de Covid, troisième référendum en 2021 puis rupture du dialogue politique entre 2020 et 2024.

En mai 2024, la tentative de réforme constitutionnelle du corps électoral est apparue comme un catalyseur de ces tensions, déclenchant dans le Grand Nouméa des violences d’ampleur et révélant la profondeur des fractures sociales et politiques. Dans le prolongement de ces émeutes, le camp indépendantiste s’est fragmenté et a perdu successivement les présidences du Congrès (août 2024) et du gouvernement (décembre 2024).

C’est dans ce contexte que les accords de Bougival puis d’Élysée-Oudinot ont été signés. Présentés comme un compromis rassemblant l’ensemble des forces politiques calédoniennes et destinés à stabiliser le cadre institutionnel, ils ont néanmoins redessiné les lignes de clivage. Le FLNKS a exprimé son hostilité aux accords et sa détermination à les contrecarrer, tandis que l’Union nationale pour l’indépendance (UNI) est restée favorable au texte, révélant une fracture interne inédite au sein du camp indépendantiste.

À l’échelle nationale, l’absence de majorité claire à l’Assemblée nationale rend incertain le calendrier d’adoption de la révision constitutionnelle, qui devra être approuvée à la majorité des trois cinquièmes du Parlement réuni en Congrès. Parallèlement, les élections provinciales, initialement prévues en mai 2024, ont été reportées à plusieurs reprises. Leur tenue en juin 2026 ou d’ici la fin de l’année dépendra directement de l’aboutissement – ou non – des accords de BEO.

Si des scrutins ont eu lieu chaque année entre 2017 et 2024, l’année 2025 est restée électoralement blanche. Les municipales de 2026 constitueront ainsi le premier rendez-vous électoral local organisé dans le climat politique né des violences et des accords. Elles pourraient offrir une lecture territorialisée des recompositions politiques en cours.

Entre stabilité et fragmentation : une recomposition au révélateur des municipales

Dans cette perspective, la cartographie électorale des communes sera scrutée avec attention. Le Grand Nouméa, marqué par les émeutes et par des changements de maire intervenus en cours de mandat dans plusieurs communes (Dumbéa, Païta et Mont-Dore), pourrait apparaître plus ouvert qu’auparavant. Une alternance dans cet espace concentrant population, activité économique et visibilité médiatique aurait une portée symbolique forte et ce, quelques mois avant d’autres échéances électorales majeures.

Dans les communes de la Brousse, certains bastions historiques de l’UNI ou de l’Union calédonienne (UC) pourraient servir d’indicateurs dans la rivalité interne au mouvement indépendantiste. Au-delà des résultats bruts, c’est la capacité de mobilisation et l’ampleur des écarts qui seront observées comme des signaux politiques.

Les recompositions ne concernent pas uniquement le camp indépendantiste. Le camp non-indépendantiste est lui traversé par des rivalités de leadership, notamment entre plusieurs formations alliées au sein de l’Avenir en confiance lors des élections provinciales de 2019. L’émergence de Générations NC dans le débat politique, issue d’une scission de Calédonie ensemble en 2019, complète ce panorama de concurrence au sein de la mouvance non-indépendantiste. Son fondateur, Nicolas Metzdorf, élu député en 2022 puis réélu en 2024, incarne cette nouvelle configuration et pourrait peser dans les équilibres à venir.

Entre les deux blocs traditionnels, certains partis signataires des accords cherchent à incarner une troisième voie intermédiaire – Calédonie Ensemble et L’Éveil océanien – en structurant un intergroupe au Congrès (8 élus sur 54) et en proposant plusieurs listes communes aux municipales.

L’enjeu n’est peut-être pas l’émergence d’un système tripolaire, mais plutôt l’effritement progressif des deux blocs historiques. Les alliances apparaissent plus mouvantes, les positionnements moins lisibles, et les majorités potentielles plus complexes à anticiper.

À première vue, cette recomposition donne l’impression d’un brouillage durable des repères politiques en Nouvelle-Calédonie. Mais on peut aussi imaginer que ces élections contribuent à une clarification à condition que les nouveaux équilibres se stabilisent.

Clarification politique… ou démobilisation ?

Toutefois, cette perspective se heurte à une inconnue majeure : la participation. Dans un contexte d’abstention structurelle observée depuis l’élection provinciale de 2004, le brouillage des clivages et la superposition des enjeux locaux et institutionnels pourraient produire un effet paradoxal. Plutôt qu’une surmobilisation, le scrutin pourrait enregistrer une démobilisation supplémentaire.

D’autant que les reports successifs des élections provinciales, conjugués à un système politique dominé par une « gérontocratie androcrate », accentuent le risque d’une crise de légitimité des responsables politiques et creusent la distance entre électorat et partis, renforçant l’incertitude autour de la mobilisation.

Ces élections municipales 2026 diront dans quelle configuration politique se situera la Nouvelle-Calédonie, dans une année 2026 décisive sur le plan institutionnel. Elles pourraient servir de baromètre de la recomposition du paysage politique, montrant dans quelle mesure les rapports de force locaux pèseront dans la balance. Confirmeront-elles la solidité des bastions traditionnels et la bipolarité classique indépendantiste-non-indépendantiste ? Ou révéleront-elles, sous l’effet des accords de BEO, une recomposition plus profonde, avec des blocs fragmentés et une participation en recul ?

The Conversation

Pierre-Christophe Pantz ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

05.03.2026 à 16:26

Quelles sont les dernières options du régime iranien ?

Pierre Firode, Professeur agrégé de géographie, membre du laboratoire Médiations (Sorbonne Université), Sorbonne Université; Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay

L’objectif de l’Iran est d’inciter l’opinion publique américaine et les monarchies du Golfe à faire pression sur Donald Trump afin de le convaincre de mettre fin aux hostilités.
Texte intégral (2270 mots)

Téhéran ne peut pas vaincre les États-Unis et Israël. En revanche, il dispose encore de plusieurs moyens d’action pour inciter Donald Trump à cesser les hostilités : chercher à retourner l’opinion publique états-unienne contre lui en suscitant une flambée des prix du pétrole, ce qui se répercutera sur le pouvoir d’achat des citoyens ; multiplier les attaques sur les bases de l’US Army dans la région, en faisant le calcul que chaque mort supplémentaire d’un soldat réduira l’appui du grand public américain à l’opération Epic Fury ; et bombarder les États du Golfe afin qu’ils implorent Washington de mettre un terme à ses attaques contre l’Iran.


L’opération « Furie épique » lancée le 28 février a déjà été couronnée de plusieurs succès spectaculaires : élimination des principaux cadres du régime et notamment du guide suprême, destruction des défenses anti-aériennes ayant survécu à la guerre des 12 jours de l’été dernier, anéantissement de la marine conventionnelle iranienne.

Maîtresse incontestée du ciel iranien, la coalition américano-israélienne peut désormais concentrer ses frappes sur ses deux principaux objectifs restants : d’une part, les lanceurs balistiques, afin de réduire la capacité de nuisance régionale de Téhéran ; d’autre part, l’appareil sécuritaire iranien (les casernes des pasdarans et de leurs auxiliaires bassidjis) pour favoriser une révolution populaire capable d’abattre définitivement le régime.

Dès lors, pour Téhéran, le rapport de force, très largement favorable à l’ennemi, invite à privilégier des réponses non conventionnelles. Or, dans ce domaine, le régime dispose de nombreux atouts et parvient à remporter des succès, comme le montre la fermeture du détroit d’Ormuz après l’attaque d’un pétrolier le 1er mars.

De même, les frappes de missiles et de drones contre les pays du Golfe, et notamment l’attaque sur la raffinerie de Ras Tanura en Arabie saoudite, illustrent le choix d’une stratégie du chaos visant à obliger les pétromonarchies à faire pression sur leur allié américain dans le but d’obtenir une paix rapide et d’éviter ainsi la paralysie de leur économie, basée sur l’exportation des hydrocarbures.

Jouer sur l’usure de l’opinion états-unienne

Dans les conflits asymétriques ou dissymétriques (on parle de guerre dissymétrique dans le cas d’un conflit asymétrique entre deux États, le terme asymétrique désignant un conflit du fort au faible entre un État et un acteur non étatique) opposant des États démocratiques à des armées beaucoup moins puissantes ou à des groupes terroristes, le faible peut toujours utiliser le temps comme un atout.

En effet, les armées de pays démocratiques comme celles d’Israël ou des États-Unis, même si elles disposent d’une capacité de frappe écrasante, peuvent rencontrer des difficultés pour maintenir leur effort militaire dans la durée. Sous la pression des opinions publiques, des médias ou des forces d’opposition, les régimes démocratiques sont contraints d’obtenir des gains, des succès stratégiques à court terme, afin de légitimer leurs offensives et ne pas perdre le soutien des opinions publiques. Or, une fois le régime iranien décapité et ses capacités balistiques réduites à peau de chagrin, il sera de plus en plus difficile, pour l’administration Trump, de justifier le maintien de l’effort de guerre auprès de son opinion publique.


Pierre Firode sera l’un des intervenants du webinaire « Face aux bouleversements du monde : quels espoirs pour la paix ? » que nous organiserons le 10 mars prochain à 18 heures, en coopération avec le Forum mondial Normandie pour la paix, et qui portera aussi bien sur la situation au Proche-Orient que sur la diplomatie par la force de Donald Trump ainsi que sur les mobilisations de la Gen Z de par le monde. Inscription gratuite ici.


Le soutien populaire à la guerre, déjà fragile aux États-Unis, pourrait s’éroder d’autant plus vite que la base MAGA, fondamentalement isolationniste, est opposée à la pratique du « regime change » et pourrait se mobiliser si les pertes américaines (six morts à ce stade) s’accumulent. Les traumatismes de la guerre d’Irak et d’Afghanistan ont laissé une trace indélébile dans l’opinion américaine qui refuse de voir ses « boys » mourir pour des guerres où les intérêts vitaux du pays ne sont pas engagés. Le régime iranien sait que chaque perte américaine, même si elle ne modifie pas le rapport de force sur le terrain, sape le soutien populaire à la guerre et fragilise Trump dans l’optique des midterms.


À lire aussi : Frappes en Iran : le risque politique de Trump à quelques mois des midterms


D’où les frappes sur toutes les cibles américaines du Moyen-Orient : plus que les infrastructures ou les capacités de frappes, ce sont les personnels américains qui sont visés par les pasdarans_afin de mobiliser l’opinion aux États-Unis contre la guerre et d’augmenter le coût politique que celle-ci représente pour Trump et pour le parti républicain.

Maintenir un danger permanent grâce aux armes dissymétriques

Dès lors, le régime pourrait s’engager dans une guerre d’usure contre Washington en attendant que le soutien à l’opération Furie épique ne s’érode inexorablement. Comme l’affirme Clausewitz, la guerre reste, par-delà l’affrontement matériel entre les armées, un « choc des volontés » et le vainqueur final, surtout dans les conflits asymétriques ou dissymétriques, demeure celui qui parvient à maintenir intacte cette volonté de prolonger la lutte. Or, des trois acteurs majeurs impliqués dans la guerre, les États-Unis sont certainement celui dont la volonté de prolonger la guerre pourrait le plus s’affaiblir car, contrairement au régime iranien ou à Israël, l’opération « Furie épique » ne revêt aucune dimension existentielle pour Washington. À cet égard, les pasdarans pourraient prioriser les cibles américaines et éviter ainsi de gâcher leurs munitions sur Israël qui, à l’inverse des États-Unis, poursuivra la lutte jusqu’à l’effondrement du régime iranien, quelles que soient ses pertes.

Forts de ces constats, les pasdarans pourraient essayer de frapper dans la durée les bases américaines afin de décourager Washington de poursuivre l’opération. Pour ce faire, ils peuvent s’appuyer sur un arsenal conséquent de drones Shahed parfaitement adaptés à cette mission consistant à maintenir dans la durée un flux constant de frappes contre les bases américaines : contrairement aux missiles balistiques dont les lanceurs sont aussitôt repérés après leur tir et détruits par l’aviation américaine, les drones laissent peu de trace lorsqu’ils sont lancés et peuvent être facilement dissimulés.

Alors que les capacités balistiques du régime flanchent de jour en jour, les stocks de drones (estimés à entre 4 000 et 6 000, sachant qu’environ 1 200 ont déjà été tirés au cours de ces derniers jours) permettent de maintenir une menace permanente sur les bases américaines et peuvent du fait de leur nombre saturer les défenses anti-aériennes protégeant les pays du Golfe.

Véritable « arme du pauvre », le drone kamikaze type Shahed est parfaitement adapté à la guerre dissymétrique puisque sa fabrication reste très facile et économique (l’Iran pourrait en produire 3 000 par mois, même si ce chiffre est amené à décroître sous l’effet des frappes qui visent les lanceurs, comme le Shahid Bagheri coulé le 28 février). Le Shahed permet donc de prolonger dans le temps les campagnes de frappes et ainsi d’user la volonté de combattre de l’ennemi.

Dans cette optique de durer dans le temps, les pasdarans pourraient d’ailleurs opter pour une organisation beaucoup plus décentralisée en cellules quasiment autonomes, sur le modèle des groupes terroriste ou des stratégies mises en place par Daech, où chaque cellule agit indépendamment des dégâts subis par la tête et dispose de son propre stock de drones.

La guerre psychologique et médiatique engagée avec les États du Golfe

Les Iraniens, constatant la faiblesse de leurs forces conventionnelles, pourraient substituer au rapport de force strictement militaire un bras de fer politique où la durée de l’engagement importe plus que son intensité.

Pour mener à bien cette stratégie, les pasdarans se sont lancés dans une véritable guerre médiatique à différentes échelles. L’offensive médiatique menée par Téhéran s’adresse d’abord aux voisins du Golfe qui ont tous été ciblés par le régime. De nombreux observateurs ont souligné, à raison, le caractère contre-productif de ces frappes qui isolent encore plus l’Iran de ses derniers partenaires diplomatiques comme l’Arabie saoudite, Oman ou le Qatar.

Derrière ces opérations se cache un calcul aisément compréhensible : inciter les États du Golfe à s’empresser d’obtenir auprès de Washington la cessation de ses attaques visant l’Iran. Par ses frappes sur des raffineries, sur des tankers dans le Golfe, Téhéran rappelle son incroyable capacité de nuisance et fait peser une menace existentielle sur les pétromonarchies dont l’économie dépend largement du détroit d’Ormuz.

À une autre échelle, ces actions de déstabilisation entraînent, dans le monde entier ou presque la crainte d’une flambée des prix du pétrole – ce qui fragilise encore plus le soutien à la guerre à l’intérieur des États-Unis. Pis, les frappes iraniennes obligent les pays du Golfe à sortir de leur neutralité ambiguë et les placent de facto dans le camp des États-Unis et d’Israël – ce qui pourrait pousser une partie de la rue arabe chiite à la révolte contre les monarchies du Golfe.

Il faut garder à l’esprit que Bahreïn, dont la population est majoritairement chiite malgré un pouvoir sunnite, ainsi que l’Arabie saoudite, sont secoués depuis le Printemps arabe par des contestations des chiites, l’épisode le plus emblématique ayant été la révolte de Qatif (Arabie saoudite) en 2011. S’il est certain qu’aucun Arabe sunnite du Golfe ne sortira dans la rue pour soutenir la République islamique, les minorités chiites pourraient, elles, se mobiliser contre l’alignement de leur gouvernement sur l’axe américano-israélien.

Une politique à double tranchant

Décapité, illégitime, isolé, le régime iranien ne peut qu’espérer une érosion politique du soutien américain à la guerre. Pour ce faire, les pasdarans utiliseront sans doute tous les moyens dissymétriques en leur possession : campagne de bombardements de drones de longue haleine contre les bases américaines dans le Golfe, dissémination des forces afin d’échapper à la puissance de feu de l’ennemi, offensive médiatique visant à terroriser les voisins arabes et les opinions occidentales.

Cette stratégie reste à double tranchant pour le régime car elle pourrait se retourner contre lui et convaincre autant les monarchies du Golfe que la classe politique américaine qu’il faut impérativement en finir une bonne fois pour toutes avec un régime dont la capacité de nuisance représente un risque trop conséquent pour la sécurité mondiale.

The Conversation

Pierre Firode ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

05.03.2026 à 16:26

Le groupe de Visegrad face à la guerre en Iran : une unité de façade

Florent Parmentier, Secrétaire général du CEVIPOF. Enseignant, Sciences Po

Les différentes réactions des quatre pays du groupe de Visegrad à la guerre en Iran mettent en évidence des divergences en matière d’intérêts et d’alignement géopolitique.
Texte intégral (1501 mots)

Les quatre années de guerre en Ukraine ont semblé épuiser les convergences et la complicité existant entre les quatre États du groupe de Visegrad (Hongrie, Pologne, Slovaquie et Tchéquie). La guerre en Iran sera-t-elle l’occasion de rassembler ce groupe ?


Alors que les États-Unis et Israël frappaient l’Iran le 28 février 2026, les quatre pays du groupe de Visegrad (V4) ont rapidement affiché des positions publiques similaires en surface, conjuguant condamnation de l’agression iranienne et soutien à Israël. Pourtant, l’analyse met en évidence des divergences profondes : leurs intérêts et leurs vulnérabilités, leurs cadres d’interprétation et leurs perceptions des menaces sont loin d’être identiques…

Un consensus de façade

Le groupe de Visegrad (ou V4) est une plate-forme de coopération régionale créée en 1991 par quatre États d’Europe centrale : la Pologne, la Hongrie, la République tchèque et la Slovaquie. Cette coopération est formalisée par des sommets réguliers des chefs de gouvernement, une coordination diplomatique, ainsi que par l’existence du Fonds international de Visegrad. Le groupe constitue ainsi un cadre institutionnel identifié de concertation politique au sein de l’Union européenne. Loin de n’être qu’un regroupement géographique (Europe centrale), il s’agit d’un espace de coordination politique revendiqué comme tel par les gouvernements concernés.

En quelques heures, Varsovie, Budapest, Prague et Bratislava ont toutes condamné les attaques de missiles et de drones iraniens contre Israël et les bases américaines dans la région, présentant l’Iran comme le principal facteur d’escalade. Ce front commun reflète une réalité géopolitique structurelle : les quatre capitales entretiennent depuis longtemps une relation étroite avec Israël et s’inscrivent dans le camp occidental face à ce qu’elles perçoivent comme un « arc révisionniste » allant de Moscou à Téhéran. Cette cohérence sur le Moyen-Orient n’est pas nouvelle : en 2003 déjà, elles avaient suivi Washington dans la guerre en Irak, malgré les conséquences catastrophiques qui allaient en découler, que ce soit en termes sécuritaires ou de crise humanitaire.

Mais sous ce vernis d’unité, les divergences sont plus notables qu’il n’y paraît. La Pologne lie explicitement la défense d’Israël à celle de l’Ukraine, réclamant des systèmes antimissiles pour les deux, quand bien même le risque d’un arbitrage défavorable à Kiev existe. Des retards de livraisons pourraient également concerner les Européens si les Américains jugent que reconstituer leurs stocks constitue leur priorité.

La position tchèque traditionnelle, majorité comme opposition, suit dans les grandes lignes la position polonaise, favorable à Israël.

La Hongrie de Viktor Orban soutient Israël dans les discours tout en maintenant des canaux diplomatiques actifs avec Téhéran, ce qui a notamment donné lieu à une invitation à intervenir dans une université à Budapest faite en 2024 à l’ancien président nationaliste-conservateur Mahmoud Ahmadinejad. En prévision des élections parlementaires d’avril 2026, Viktor Orban a relevé le niveau d’alerte terroriste du pays et renouvelé la pression sur l’Ukraine pour qu’elle autorise le transit du pétrole russe sur son territoire.

Quant au premier ministre slovaque Robert Fico, il a suivi Viktor Orban dans cette ligne visant à pousser les Ukrainiens à réparer l’oléoduc Droujba. Rappelons que Budapest comme Bratislava bénéficiant d’un régime d’exemption des sanctions relatives aux hydrocarbures russes.

Le « deux poids, deux mesures » du droit international

La comparaison avec la position de ces mêmes États sur l’Ukraine est révélatrice. Sur le front russo-ukrainien, les pays du V4 (à l’exception partielle de la Hongrie) ont recouru à un juridisme maximaliste : dénonciation d’une agression caractérisée et de la violation de l’article 2(4) de la Charte de l’ONU, appel à la mise en place d’un tribunal international. Sur le front Iran-Israël, en revanche, ce langage juridique s’efface au profit d’une lecture sécuritaire et stratégique (la légitime défense, la menace nucléaire, l’instabilité régionale) qui permet d’accepter des frappes dont la conformité au droit international est pourtant discutée par de nombreux juristes.

Dans l’ordre de l’analyse, il convient de distinguer trois plans : l’État, sujet du droit international ; le régime, forme d’organisation du pouvoir ; et le gouvernement, simple équipe dirigeante. Les pays du V4 tendent pourtant à confondre ces niveaux lorsqu’il s’agit de la Russie : dans ce cas précis, Poutine, le régime autoritaire et l’héritage impérial se confondent en une même réalité. À l’inverse, ils les dissocient volontiers dans le cas d’Israël, où la critique d’un gouvernement n’entame pas la latitude accordée à « l’État ».

Cette asymétrie ne relève pas d’une application rigoureuse des catégories juridiques, mais d’une lecture géopolitique du monde à géométrie variable, structurée par leurs affinités et leurs inquiétudes. Le risque, dès lors, est de voir se retourner contre eux un reproche désormais classique dans les relations internationales : celui du double standard occidental. Car, à mesure que ces distinctions fluctuantes entre État, régime et gouvernement deviennent lisibles, elles alimentent les critiques venues du Sud global, un ensemble dont l’unité est, certes, discutable, mais dont la sensibilité à l’incohérence normative est devenue un ressort politique majeur.

Des calculs stratégiques et économiques divergents

Inévitablement, l’imbrication avec le conflit ukrainien est centrale pour comprendre les calculs de chaque capitale, entre rejet de l’impérialisme russe et de soutien iranien à Moscou, faisant de Téhéran un maillon de la chaîne stratégique qui affaiblit l’Ukraine et menace la sécurité européenne.

Sur le plan stratégique, le commentateur polonais Marek Kutarba exprime le plus clairement les inquiétudes régionales dans un article paru dans le quotidien économique Rzeczpospolita : chaque missile Tomahawk ou JASSM utilisé contre l’Iran réduit d’autant les stocks américains disponibles pour l’Ukraine, et potentiellement pour la Pologne elle-même. Pour appuyer sa démonstration, il cite l’amiral Paparo, commandant du United States Indo-Pacific Command (Indo-PACOM), qui a reconnu publiquement que les transferts massifs d’armes vers l’Ukraine et Israël commençaient à peser sur les capacités disponibles pour le théâtre indo-pacifique.

Sur le plan économique, l’escalade au Moyen-Orient crée un choc asymétrique au sein du V4. Dans une situation tendue en matière d’approvisionnement, la Slovaquie, encore largement dépendante de l’oléoduc Droujba, est la plus exposée à une hausse durable du prix du pétrole, avec des risques d’inflation, d’augmentation des déficits publics et d’affaiblissement de la croissance. La Hongrie, malgré une dépendance similaire au brut russe (pour sa raffinerie MOL), tente de sécuriser des exemptions auprès de Bruxelles. La Tchéquie, davantage diversifiée depuis 2022, absorberait mieux le choc, même si son secteur automobile (Škoda) serait affecté. Cette asymétrie énergétique explique en partie les différences de posture diplomatique : là où la Pologne, moins dépendante des hydrocarbures russes et mieux intégrée aux réseaux atlantistes, peut se permettre un soutien ferme aux frappes, la Slovaquie et la Hongrie ont des raisons structurelles d’appeler à la désescalade.

L’opération contre l’Iran révèle moins un groupe de Visegrad uni qu’une alliance de circonstance sur un discours minimal (condamnation de l’Iran), dissimulant des fractures sur les cadres d’analyse, les intérêts économiques et le rapport au droit international. Varsovie joue la carte atlantiste totale ; Prague assume un alignement stratégique tout en ménageant les formes ; Budapest et Bratislava jouent sur plusieurs tableaux. Ces postures seront déterminantes dans les semaines à venir, à mesure que les conséquences humanitaires, économiques et militaires de la campagne contre l’Iran se préciseront.

The Conversation

Florent Parmentier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

05.03.2026 à 16:24

Quel bilan pour les nouvelles « forêts urbaines » de la Ville de Paris ?

Serge Muller, Professeur émérite, chercheur à l’Institut de systématique, évolution, biodiversité (UMR 7205), Muséum national d’histoire naturelle (MNHN)

En 2020, Anne Hidalgo s’engageait à faire naître quatre forêts urbaines à Paris. Qu’en est-il aujourd’hui ?
Texte intégral (3782 mots)
Forêt urbaine du parvis de l’Hôtel-de-Ville, à Paris, le 27 novembre 2025. Serge Muller , Fourni par l'auteur

En 2020, Anne Hidalgo s’engageait à faire naître quatre forêts urbaines à Paris. Qu’en est-il aujourd’hui ? Ces projets ont-ils vraiment fait naître des « forêts » ? Sont-ils suffisants à l’heure du changement climatique ?


Paris est une des pires villes européennes en temps de canicule. Pour changer cet état de fait, augmenter le nombre d’arbres parait plus que jamais nécessaire. D’autant plus qu’avec 14 % seulement de sa surface boisée en ne prenant pas en compte les bois périphériques de Boulogne et de Vincennes, et 21 % en les intégrant, Paris est aussi une des capitales les moins boisées d’Europe.

Afin d’améliorer cette situation, l’actuelle maire de Paris, Mme Anne Hidalgo, s’était engagée à planter 170 000 arbres au cours de la mandature 2020-2026. Parmi les opérations phares de ce projet figure la création de quatre « forêts urbaines » à Paris.

Cinq ans après ces promesses, et à quelques semaines des élections municipales, quel bilan peut-on faire de ces projets ?

Quels sont les sites concernés ?

Bien que les sites prévus aient changé du fait de difficultés techniques, trois forêts urbaines ont déjà été inaugurées : celles de la place de Catalogne en juin 2024, du bois de Charonne en septembre 2024 et du parvis de l’Hôtel-de-Ville en juin 2025, l’inauguration de la quatrième sur la place du Colonel-Fabien étant prévue début 2026.

Myrtus communis plantée dans la forêt de Charonne
Le myrte commun, arbuste méditerranéen planté dans la forêt urbaine de Charonne, 29 novembre 2025. Serge Muller, Fourni par l'auteur

Le premier site correspond à la place de Catalogne dans le XIVe arrondissement. Cette place d’environ 1 hectare (ha), qui constituait un rond-point de circulation automobile avec initialement une fontaine au milieu, était totalement minéralisée et dépourvue d’arbres. Elle a été végétalisée sur 4 000 mètres carrés (m2) par la plantation de 470 arbres correspondant à 16 espèces différentes, soit une densité de 12 arbres pour 100 m2, complétés par la plantation de 1 200 arbustes.

Le deuxième site, plutôt linéaire, nommé bois de Charonne, est situé dans le XXe arrondissement sur une ancienne voie ferrée de la petite ceinture avec ses abords. Il couvre environ 2 ha. Près de 112 arbres de haute taille y ont été plantés parmi environ 7 500 jeunes plants d’arbres de 40 essences différentes, accompagnés d’environ 2 200 arbustes également d’une quarantaine d’espèces différentes. Cette nouvelle forêt est située en continuité d’un square existant de 1,5 ha, le « jardin de la gare de Charonne ». L’opendata de la Ville de Paris y comptabilise actuellement 295 arbres pour cet ensemble de 3,5 ha, soit environ 1 arbre pour 100 m2.

Présentation du bois de Charonne.

Le troisième site est localisé sur le parvis de l’Hôtel-de-Ville. Il est composé de deux espaces végétalisés, totalisant 2 500 m2, séparés par une partie centrale restant minérale.

Présentation du parvis de l’Hôtel-de-Ville.

Y ont été plantés, selon l’open data de la Ville de Paris, 46 arbres matures (atteignant jusqu’à 10 m de hauteur) de cinq espèces différentes (charme, févier d’Amérique, chêne chevelu, micocoulier de Julian et érable de Zöschen). D’autres arbres ou arbustes plus petits, d’espèces différentes (chêne à feuilles de phillyrea, arbousier, argousier), ont été plantés en périphérie de l’ensemble sur 850 m2, afin de renforcer la végétalisation de la place.

L’arbousier (photo de gauche et du centre) et le micocoulier de Julian (photo de droite) dans la forêt urbaine de l’Hôtel-de-Ville, 27 novembre 2025. Serge Muller, Fourni par l'auteur

Le quatrième site, encore en cours d’achèvement du chantier au début de l’année 2026, est localisé à la place du Colonel-Fabien (carrefour des Xe et XIXe arrondissements). Il correspond à un projet de création de forêt urbaine sur 1 460 m2 avec la plantation prévue de 79 nouveaux arbres. Il doit être terminé au premier trimestre 2026.

Quelles caractéristiques de ces nouvelles forêts urbaines ?

Tous ces espaces ont été aménagés par désimperméabilisation de places minérales ou de friches ferroviaires, avec un apport important de terre végétale et la plantation d’arbres de taille déjà conséquente (hauteur de 3 à 7 m, voire davantage), accompagnés de plants d’arbres de plus petite taille et d’arbustes. Ces forêts ont été créées sur des superficies assez variables en fonction des disponibilités de terrain (entre 1 400 m2 pour la place du Colonel-Fabien et environ 20 000 m2 pour les nouvelles plantations du bois de Charonne). L’objectif est ainsi de constituer rapidement des espaces boisés relativement denses à partir d’un état initial de substrat minéral.

Chantier de la forêt de la place de la Catalogne
Chantier de la forêt de la place de Catalogne, 18 décembre 2023. Serge Muller, Fourni par l'auteur

Mais ces espaces végétalisés sont-ils des forêts ? Pas vraiment pour la plupart, si l’on se fie à la définition retenue par l'Organisation des Nations unies pour l’alimentaiton et l’agriculture (FAO) pour qui le terme de forêt désigne un peuplement d’arbres d’une surface d’au moins un demi-hectare (5 000 m2) et ayant un couvert arboré d’au moins 10 %, ce qui signifie que, vue du ciel, la surface du sol recouverte par les cimes des arbres, doit dépasser 10 %.

Quelles différences avec les squares et les parcs urbains ?

Ces mini-forêts urbaines se rapprochent peut-être davantage des squares, jardins et parcs urbains de Paris, de type haussmanniens ou plus récents (comme le parc Brassens, dans le XVe arrondissement), en prévoyant également des aires de quiétude et de promenade pour les citadins.

Mais les boisements sont plus denses et les espaces de récréation plus petits dans ces mini-forêts urbaines que dans les squares, sans espaces de jeu prévus pour les enfants par exemple. La forêt urbaine de Charonne est un peu particulière à cet égard puisqu’elle est adossée au « jardin de la gare de Charonne », square de 1,5 ha créé en 1986, donc il y a quarante ans, sur l’emplacement de l’ancienne gare de Charonne.

Forêt urbaine de Charonne
Forêt urbaine de Charonne, 29 novembre 2025. Serge Muller, Fourni par l'auteur

Ces forêts urbaines se veulent aussi plus « naturelles » en privilégiant comme essences de boisement celles qui sont indigènes dans le Bassin parisien ou la France hexagonale et en réduisant la part des espèces exotiques. Ainsi près de 60 % des arbres de la forêt urbaine de la place de la Catalogne correspondent à des essences indigènes dans le Bassin parisien, les autres étant de provenance subméditerranéenne, américaine ou asiatique. La même attention n’a toutefois pas été accordée aux arbustes puisque 95 % des plants introduits dans cette forêt urbaine correspondent à deux espèces originaires d’Extrême-Orient (la véronique arbustive et la menthe australienne). Quant aux plantes herbacées introduites, il s’agit principalement d’un patchwork de cultivars de fougères.

Forêt urbaine de la Place de la Catalogne
Forêt urbaine de la place de Catalogne avec fougères au premier plan, 20 avril 2024. Serge Muller, Fourni par l'auteur

Plutôt qu’un mélange hétéroclite d’ensembles floristiques de diverses provenances, on aurait pu y expérimenter un cortège exclusivement subméditerranéen, afin de tester son adaptation aux conditions climatiques des prochaines décennies.

Ni véritablement des forêts selon la définition de la FAO, pas exactement des squares non plus, ces nouveaux espaces s’éloignent aussi d’un autre modèle : celui des micro-forêts Miyawaki, qui correspondent à des plantations très denses de jeunes plants (jusqu’à trois individus au mètre carré) de moins d’un mètre de hauteur et d’essences en principe uniquement indigènes. Or, ces nouvelles mini-forêts urbaines parisiennes ont pour la plupart des hauteurs de plusieurs mètres, pouvant même dépasser 7 mètres et aussi des densités bien plus faibles, de l’ordre d’un à une dizaine d’arbres pour 100 m2, sur des superficies en principe plus grandes, allant jusqu’à 2 ha pour les plantations du bois de Charonne.

Quel intérêt de ces nouvelles mini-forêts urbaines de Paris ?

Ces nouveaux boisements, devant nécessairement être adaptés aux potentialités et contraintes locales, sont assez diversifiés dans leurs dimensions et configurations (forme plutôt arrondie pour les anciennes places comme celles de Catalogne ou du Colonel-Fabien, au contraire allongée pour l’ancienne voie ferrée du bois de Charonne).

Forêt urbaine de Charonne
Forêt urbaine de Charonne, 29 novembre 2025. Serge Muller, Fourni par l'auteur

Les compositions et structures des peuplements d’arbres et d’arbustes plantés apparaissent aussi assez variables, en fonction du contexte et des opportunités, mais avec toujours l’objectif d’adaptation aux conditions climatiques futures. L’intérêt de la prédominance d’essences régionales reste toutefois discutable dans ce contexte de changement climatique. La constitution de peuplements à forte diversité d’essences et structure hétérogène est un point fort de ces nouvelles forêts urbaines, qui doit permettre d’accroître leur résilience aux perturbations et aléas climatiques auxquels elles seront assujetties.

Ces plantations contribuent indubitablement, sur des surfaces certes modestes, à la végétalisation de la ville, ainsi qu’à l’augmentation de sa canopée et aux continuités écologiques. Il s’agit d’opérations pilotes, à fort impact médiatique et à coût relativement élevé, qui démontrent la faisabilité et l’intérêt paysager et environnemental de telles opérations de création ex nihilo de « forêts urbaines ». Il conviendra toutefois d’examiner leur évolution au cours des prochaines décennies.

Forêt urbaine de l’Hôtel de ville
Forêt urbaine du parvis de l’Hôtel-de-Ville, 27 novembre 2025. Serge Muller, Fourni par l'auteur

Ces créations de forêts urbaines doivent nécessairement, comme prévu dans le « Plan arbre 2021-2026 » de la ville, s’inscrire en complémentarité et si possible en continuité avec d’autres types de plantations tels que des alignements d’arbres, des créations ou extensions de parcs et squares urbains, la densification des peuplements d’arbres dans les cimetières, les cours d’école, les places, les talus du périphérique et autres espaces ouverts. L’objectif doit être d’accroître encore sensiblement le recouvrement de la canopée dans la ville de Paris et la métropole du Grand Paris, afin de contribuer à mieux adapter ces territoires urbains aux conditions climatiques des décennies à venir.

The Conversation

Serge Muller est membre associé de l’Autorité environnementale de l'IGEDD (Inspection Générale de l'Environnement et du Développement Durable) en France et membre du Groupe sur l’urbanisme écologique (GrUE)

PDF

05.03.2026 à 16:24

Les emprunts aux langues étrangères appauvrissent-ils les pratiques linguistiques des jeunes ?

Anne Gensane, Chercheuse en sciences du langage, Université d'Artois

Les jeunes aiment emprunter des mots à d’autres langues, notamment l’anglais. Faut-il y voir une menace pour la richesse de la langue française ou un signe de vitalité ?
Texte intégral (1811 mots)
Les trois langues auxquelles les jeunes empruntent le plus de mots sont l’anglais, l’arabe et le rromani. Adam McCoid/Unsplash, CC BY

Peut-être avez-vous entendu des adolescents parler de leur « crush », d’un style « old money » ou de leur ami qui a « glow-up », tout en utilisant « wesh » telle une virgule ? Cette jeunesse ne saurait-elle plus parler français ?


L’idée revient régulièrement dans les débats publics : la langue française serait menacée par l’invasion de mots étrangers. L’anglais notamment s’imposerait partout, et les arts et médias contemporains accéléreraient la dégradation d’un patrimoine linguistique. Chaque « smile », mais aussi chaque « wesh » prononcé dans une cour d’établissement scolaire ou dans un morceau de rap constituerait une entaille supplémentaire dans l’intégrité de la langue. Cette représentation repose en partie sur un présupposé : celui selon lequel emprunter signifierait remplacer ou dénaturer.

Mais l’observation des pratiques langagières contemporaines chez les jeunes (encore faudrait-il se mettre d’accord sur ce que sont « les jeunes ») incite à renverser cette perspective. Les emprunts, au lieu de supprimer des mots français, ne pourraient-ils pas s’ajouter à eux ?

Une peur ancienne : l’illusion de la langue pure

Ces inquiétudes ne sont pas nouvelles. Au XVIe siècle déjà, durant la période de la Renaissance, certains dénonçaient avec ferveur l’afflux de mots italiens (« balcon », « sonnet »…), dénonçant une véritable menace. Il s’avère que le français s’est historiquement construit par strates successives d’emprunts.

Y a-t-il lieu, par ailleurs, de parler d’« une » langue française ? Pendant des siècles, le territoire était traversé par une grande diversité de dialectes dont aucun ne détenait naturellement le monopole de la légitimité. Ce n’est que progressivement qu’a été imposée l’idée d’un français « standard ». Comme l’ont montré de nombreux linguistes et historiens des langues (Henriette Walter, Alain Rey, ou Erik Orsenna et Bernard Cerguiglini avec leur ouvrage vulgarisant les Mots immigrés en 2022) : la « pureté » linguistique relève davantage du mythe que de la réalité historique. Ce qui change aujourd’hui, ce n’est pas l’existence des emprunts, mais leur visibilité et la rapidité de leur circulation.

Plusieurs répertoires mobilisés

Pour comprendre ce qui se joue dans la néologie argotique contemporaine, il est utile de mobiliser la notion de « répertoire linguistique », développée en sociolinguistique. Un locuteur ne dispose pas d’une seule variété de langue, homogène et stable, mais d’un ensemble de ressources plus ou moins varié qu’il active selon son milieu social et les situations de communication : du registre formel au familier, du lexique professionnel aux expressions locales…

En d’autres termes, l’emprunt à une langue étrangère que fait un jeune locuteur n’efface pas un mot existant ; il endosse un rôle qui est nouveau pour un même signifié. « Dédicacer à » n’a pas disparu parce que « shout-out » est employé. Les termes coexistent, mais ne sont pas interchangeables en toutes circonstances. Plutôt que de parler de remplacement, il serait donc plus juste de parler de spécialisation : ils peuvent enrichir le spectre expressif sans nécessairement réduire celui des formes existantes.

Ces usages néologiques argotiques renforcent l’idée répandue que les jeunes parlent une langue difficile à comprendre.

Ces mots peuvent parfois refléter le contact avec d’autres langues connues ou entendues autour d’eux et surtout, aussi, servir à marquer l’appartenance à un groupe, à créer une forme de complicité. Il y a également une dimension ludique, voire crypto-ludique : on joue avec les mots, et le plaisir vient en partie du fait que seuls certains en saisissent le sens. L’effet d’exclusion d’un tiers n’est pas toujours une fin en soi, mais cela devient une conséquence de ce jeu de reconnaissance entre pairs.

Tous les emprunts, cependant, ne relèvent pas des mêmes processus, n’ont pas la même histoire.

Trois langues étrangères privilégiées chez les jeunes

Si l’emprunt est un phénomène ancien, son intensité actuelle tient à des facteurs contemporains. Les réseaux sociaux, la circulation nationale et internationale des productions culturelles accélèrent la diffusion des formes. Un terme popularisé dans un morceau de rap ou par le biais de l’algospeak (pratiques linguistiques stratégiques pour contourner la modération algorithmique sur les plateformes numériques) peut être repris en quelques jours dans des conversations.

L’anglais occupe une place centrale dans les parlers des jeunes, porté par la mondialisation culturelle depuis bien longtemps (le français a aussi énormément nourri l’anglais) : musique, séries, jeux vidéo, plateformes numériques… Des termes comme « flex » (crâner, mettre en avant ses atouts, notamment la richesse), ou « crush » (ressentir une attirance pour quelqu’un) circulent avec des connotations spécifiques, une charge notable. Ils ne désignent pas seulement des réalités : ils importent aussi un imaginaire, tout comme les emprunts à l’arabe qui sont particulièrement présents également. Si le contact avec le monde arabe médiéval a laissé des traces durables (« zéro », « sucre »…), les nouveaux emprunts s’expliquent pour leur part par une immigration plus récente, avec des expressions comme « khalass » (payer) ou « hess » (misère).

Enfin, on trouve en troisième place d’un trio privilégié dans les emprunts contemporains, la langue rromani avec des mots en « -ave » (à ne pas confondre avec le javanais qui est un argot à clé français encore productif aujourd’hui) comme « poucave » (mouchard), ou d’autres expressions comme les « lovés » (argent).

On observe également des emprunts aux créoles, au nouchi ivoirien, à l’espagnol… Ils sont moins nombreux mais très utilisés. Ce processus rappelle un fait souvent mentionné en histoire de la langue : le gaulois n’a laissé qu’un nombre limité de mots en français, mais certains d’entre eux (« chemin », « charrue »…) sont d’un usage fréquent et incontournable…

Une diversification plus qu’un appauvrissement

Si les emprunts aux langues étrangères connaissent aujourd’hui une progression rapide et très visible, ils ne constituent pas les seuls procédés à l’œuvre dans les parlers jeunes. D’autres formes de modifications (sémantiques ou formelles) sont en effet utilisées, tout à fait nouvelles ou héritées. C’est le cas par exemple de créations en « -zer » (tu « senzer » < tu « descends »), de suffixations en « -ax » (« stylax » < « stylé »), de siglaisons (la « D » < la « détermination »), ou encore de troncations (le « bat » < le « bâtiment »)… À cela s’ajoute le célèbre verlan : aujourd’hui peut-être moins spectaculaire que les emprunts, il continue d’être très productif.

La combinaison de ces différents procédés (emprunts récents et formes argotiques plus ancrées) peut accentuer, pour un observateur extérieur, l’impression d’envahissement et d’hermétisme.

Il est sans nul doute plus pertinent de reconnaître leur existence dans des répertoires multiples, que les locuteurs activent selon les situations, les motivations. Les parlers jeunes et/ou argotiques ne constituent évidemment pas un système concurrent destiné impérativement à remplacer le français « standard » ; ils en sont des actualisations situées, reconnues très souvent pour être porteuses d’innovations… et de jeu.

L’histoire des langues montre que nombre d’éléments autrefois étrangers finissent par être pleinement intégrés, au point que leur origine devienne invisible. Rien ne permet d’affirmer que les emprunts actuels suivent un autre destin. Certains disparaîtront, d’autres se stabiliseront ; ce qui rappelle que la langue française n’est ni figée ni homogène, mais bien un ensemble de pratiques fluctuantes.

« Défenseur de la langue française » à l’époque où sa légitimité littéraire était encore à construire (une langue si vulgaire face au latin ou au grec !), il est intéressant de noter que Joachim Du Bellay (1522-1560) affirmait :

« Ce n’est point chose vicieuse, mais grandement louable : emprunter d’une langue étrangère les sentences et les mots pour les approprier à la sienne. »


Cet article est publié en partenariat avec la Délégation générale à la langue française et aux langues de France du ministère de la Culture.

The Conversation

Anne Gensane ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

05.03.2026 à 16:22

Blocage du détroit d’Ormuz : le risque d’un choc industriel pour l’Europe ?

Patrice Geoffron, Professeur d'Economie, Université Paris Dauphine – PSL

Le blocage du détroit d’Ormuz à la suite des frappes sur l’Iran pourrait perturber durablement le marché de l’énergie. Par ricochet, l’industrie européenne pourrait payer un prix élevé.
Texte intégral (2509 mots)

Les frappes israélo-états-uniennes sur l’Iran et la réaction de ce dernier déstabilisent profondément le Moyen-Orient, mais aussi l’économie mondiale. En effet, l’Iran maîtrise le détroit d’Ormuz, un point clé du trafic d’énergie et de matières premières. Que sait-on de l’impact économique que pourrait avoir le blocage de la porte d’entrée du Golfe persique ? Quels sont les secteurs les plus exposés ? Pourquoi l’Europe y est-elle particulièrement sensible ?


Dès l’amorce des frappes américano-israéliennes sur l’Iran le 28 février 2026, les grands armateurs mondiaux ont suspendu leurs opérations dans le détroit d’Ormuz, passage essentiel du commerce international, d’hydrocarbures en premier lieu. Dans un tel contexte, vue d’Europe, la question centrale n’est pas réellement de savoir si une pénurie de pétrole ou de gaz s’annonce à court terme (à la différence de la crise énergétique 2022, au début de la guerre en Ukraine), mais de comprendre comment un choc de prix, une désorganisation logistique et une rupture d’approvisionnement en intrants se propagent dans le tissu industriel. Et, au sein d’une Europe convalescente, dans quelle mesure cette nouvelle crise révèle une vulnérabilité que les politiques conduites depuis 2022 n’auraient fait que déplacer géographiquement, sans les réduire structurellement.

Des précédents au détroit d’Ormuz

La menace de fermeture d’Ormuz prend racine dans les chocs des années 1970, lorsque l’embargo de 1973 révèle avec brutalité que le contrôle des routes énergétiques confère un pouvoir considérable, à un moment où la dépendance extérieure pétrolière des Européens atteignait 97 %. Le second choc pétrolier de 1979 renforce cette prise de conscience : l’Iran, devenant République islamique, dispose d’un levier exceptionnel, avec la rive nord du détroit d’Ormuz, désormais point de friction structurel dans la géopolitique de l’énergie.

La guerre Iran–Irak (1980–1988) transforme le détroit en théâtre d’opérations. Durant la « guerre des tankers », les deux belligérants attaquent les navires pour affaiblir l’ennemi et tenter d’internationaliser le conflit. La réponse américaine pose le principe d’une sécurisation d’Ormuz comme intérêt de premier rang : Washington déploiera, dès lors, une flotte pour garantir la liberté de navigation.


À lire aussi : Pourquoi les frappes sur l’Iran nous rappellent qu’il est urgent d’abandonner le pétrole


Dans les décennies suivantes, la fermeture du détroit devient un instrument récurrent de la diplomatie iranienne de crise – pour les négociations nucléaires, comme levier face aux sanctions… En 2011, des exercices navals iraniens dans le détroit suffisent à faire monter les primes d’assurance et à déclencher le déploiement d’une flottille occidentale en réaction. En 2019, deux pétroliers attaqués dans le golfe d’Oman produisent des effets équivalents. Même lors de la guerre israélo-iranienne de juin 2025, Téhéran avait finalement renoncé à fermer le détroit, en partie sous la pression de Pékin, dont la moitié des importations pétrolières transitent par ce même passage.

Une tension permanente

Cet historique révèle une tension permanente : fermer Ormuz est une arme à usage effectif auto-limitant, parce que l’Iran en paierait lui-même le prix économique et diplomatique. Mais la situation de mars 2026 modifie le calcul : acculé, le régime peut percevoir la fermeture du détroit comme un dernier levier de dissuasion, plutôt que comme un acte suicidaire.

L’Agence internationale de l’energie (AIE) permet de prendre la mesure de la menace en indiquant qu’« environ 20 % des approvisionnements mondiaux en pétrole et en gaz naturel liquéfié transitent par le détroit d’Ormuz, un passage maritime stratégique ». D’autant que les pipelines contournant le détroit ne peuvent acheminer collectivement plus de 40 % des barils destinés à l’export.

Plus critique encore, le gaz est totalement prisonnier derrière le verrou d’Ormuz, sans autre option logistique, alors que les installations de liquéfaction nécessitent un flux continu pour maintenir leurs systèmes opérationnels. Sans rotation de navires, le Qatar et les Émirats arabes unis pourraient être contraints de réduire, voire d’interrompre, leur production.

Enfin, autre problématique majeure, Ormuz est aussi sur une route d’import-export de produits industriels, souvent sur des marchés en croissance et à haute valeur ajoutée.

Trois canaux de transmission à l’industrie mondiale

La fermeture ou la perturbation durable du détroit d’Ormuz affecte les chaînes de valeur industrielles selon trois canaux distincts. Le premier est celui des prix de l’énergie : une interruption du trafic pétrolier et gazier se répercute immédiatement sur les cours du pétrole brut, du gaz naturel et, par ricochet, sur les prix de l’électricité.

Le deuxième canal concerne les intrants non énergétiques. Une perturbation d’Ormuz touche également les matières premières – minéraux, produits chimiques, engrais – dont dépend étroitement l’industrie européenne, fragilisant ainsi la continuité de ses processus de production.

Le troisième canal est celui de la désorganisation logistique : si les tensions à Ormuz se doublent de perturbations dans la mer Rouge (sous la pression des rebelles houthistes (Yémen), alliés de l’Iran, comme entre 2023 et 2025), le trafic maritime est dévié par le cap de Bonne-Espérance (Afrique australe). Cela allongerait les délais de transit de quinze à vingt jours, induirait des surcoûts de plusieurs centaines de milliers de dollars par voyage en raison de la consommation additionnelle de carburant, et s’accompagnerait d’une explosion des primes d’assurance pour les « risques de guerre ».

La chimie en première ligne

La chimie et la pétrochimie européennes constituent le secteur le plus directement exposé. Doublement frappée par le canal des prix du pétrole et par celui du gaz, cette industrie voit sa compétitivité-coût structurellement sous pression depuis 2022 en Allemagne, aux Pays-Bas, en Belgique et en France. Le rapport Draghi documente cet écart : le prix du gaz industriel en Europe est deux à cinq fois supérieur à celui pratiqué aux États-Unis, et l’écart avec les producteurs du Golfe est encore plus marqué. Le chimiste allemand BASF a déjà engagé des réductions de capacités européennes et réorienté ses investissements vers les États-Unis et la Chine. Un nouveau choc amplifiant le différentiel de coût peut rapidement rendre non compétitives des lignes de production entières, menaces d’impulser des décisions de délocalisation jusqu’ici différées.

La sidérurgie subit un double choc lors de toute crise énergétique majeure : hausse directe des coûts de production – hauts-fourneaux, aciéries électriques à arc vulnérables à un pic du prix de l’électricité – et contraction de la demande dans les secteurs utilisateurs (automobile, construction, machines). Environ 30 % de la production d’aluminium primaire européenne est suspendue depuis 2021, et la demande industrielle d’énergie a reculé de 6 % en volume en 2022, puis à nouveau de 6 % en 2023. Fragilisé par la concurrence des aciéries chinoises subventionnées et par les investissements requis pour la transition bas carbone, ce secteur ne disposerait pas des marges pour absorber un choc supplémentaire sans nouvelles réductions de capacités.

L’agroalimentaire frappée par ricochet

La filière des engrais azotés illustre la complexité des mécanismes de propagation. Grande consommatrice de gaz naturel et importatrice de soufre et d’ammoniac depuis le Golfe, elle avait déjà réduit ou arrêté sa production lors de la flambée du gaz de 2022. Un choc d’Ormuz reproduit ce scénario dans un contexte agricole fragilisé, avec des effets en cascade sur l’agroalimentaire – premier employeur industriel de l’Union européenne (UE) avec 4,2 millions de salariés directs – et une spirale inflationniste atteignant les prix alimentaires à la consommation, vecteur politiquement sensible en contexte post-inflationnaire.

Le ciment, le verre et les matériaux à haute température, dont les processus requièrent jusqu’à 1 550 °C et restent peu électrifiables à court terme, sont denses en PME à faibles marges. Un arrêt de four étant industriellement lourd et coûteux à inverser, ces secteurs sont à risque d’arrêts durables lors d’un choc prolongé.

Enfin, l’industrie automobile, premier secteur exportateur de l’UE, est exposée simultanément à la hausse des matières premières (acier, aluminium, plastiques), aux perturbations logistiques et à la contraction de la demande. Les équipementiers de rang 1 et 2 – souvent des PME en Allemagne, France, Espagne et Italie – ne peuvent absorber longtemps une hausse simultanée des coûts et une contraction du chiffre d’affaires, comme l’a démontré la crise des semi-conducteurs de 2020–2021.

Des facteurs aggravants ?

La situation au début du conflit de 2026 présente plusieurs facteurs aggravants par rapport à 2022, avec notamment des stocks de gaz historiquement bas. Avec environ 46 milliards de mètres cubes fin février 2026, contre 60 et 77 milliards les deux exercices précédents, la marge d’amortissement est plus limitée en entrée en crise.

Par ailleurs, les directions industrielles ayant intégré la leçon de 2022 peuvent anticiper une durée prolongée du choc et accélérer les décisions de réduction de capacité avant sa pleine matérialisation – d’autant que la Banque de France rappelle que les effets sur les ratios financiers durent deux à trois ans, rendant les entreprises, à peine sorties de la première dégradation, particulièrement vulnérables à une seconde vague.

Des marges de soutien budgétaire réduites

Et, en soutien, les marges budgétaires publiques sont plus réduites : les dispositifs d’amortissement de 2021 à 2023 ont représenté plusieurs centaines de milliards d’euros pour les États membres, creusant des déficits non entièrement résorbés, singulièrement en France. Certes, l’UE a tiré des enseignements du choc de 2022, mais l’architecture institutionnelle européenne restait incomplète.

À la fin de 2025, les points de contact sectoriels nécessaires à une réponse coordonnée aux crises industrielles liées à l’énergie n’étaient pas encore totalement opérationnels. À ce contexte déjà fragilisé s’ajoute le chaos des tarifs douaniers de l’administration Trump. Cette double exposition – choc énergétique et choc commercial simultanés – est inédite depuis la stagflation des années 1970.

France 24, mars 2026.

Décarboner pour sécuriser

La réponse structurelle est la décarbonation industrielle, entendue non comme contrainte réglementaire mais comme stratégie de sécurité économique. Électrifier les processus industriels là où la technologie le permet, développer l’hydrogène bas carbone pour les procédés à haute température non électrifiables, améliorer drastiquement l’efficacité énergétique de la production : ces leviers réduisent mécaniquement l’exposition de l’industrie aux chocs fossiles exogènes récurrents.

Le Clean Industrial Deal adopté par la Commission européenne en 2025 articule explicitement décarbonation et résilience industrielle, reconnaissant que réduire la dépendance aux hydrocarbures importés est à la fois un objectif climatique et un levier de compétitivité et de sécurité. Le général Tom Middendorp, président du Conseil militaire international sur le climat et la sécurité, formule l’objectif en termes sécuritaires :

« Développer une énergie propre et sûre au niveau national n’est pas une politique climatique, c’est une réduction stratégique des risques. »

Sortir d’un faux dilemme

Cette perspective permet de recadrer le faux dilemme entre compétitivité de court terme et transition énergétique. Dans un environnement géopolitique structurellement instable, chaque investissement dans l’efficacité énergétique ou l’électrification d’un processus industriel constitue aussi une réduction de l’exposition aux prochains chocs d’Ormuz… ou à ceux qui pourraient provenir de pressions sur l’UE du fournisseur américain de GNL. La valeur de cette assurance, systématiquement omise dans les calculs de rentabilité industrielle conventionnels, est considérable et croissante à mesure que l’instabilité géopolitique s’installe dans la durée.

La crise d’Ormuz de 2026 n’est pas une anomalie imprévisible. L’histoire du détroit – de la guerre des tankers aux crises de 2011, de 2019 et de 2025 – confirme que cette menace est centrale dans la géopolitique de l’énergie mondiale et doit être intégrée comme hypothèse normale dans toute planification industrielle européenne.

La crise de mars 2026 le révèle sans ambiguïté : la diversification post-Ukraine n’a pas résolu le problème fondamental, elle l’a simplement déplacé de la Russie vers le Golfe et les États-Unis, zones géopolitiquement « sismiques »… Chimie, sidérurgie, engrais, automobile – aucun secteur ne peut neutraliser à court terme son exposition à un choc géopolitique lointain. La sécurité industrielle de l’Europe exige non seulement de diversifier les fournisseurs d’hydrocarbures, mais aussi de réduire structurellement la quantité d’énergie fossile que son industrie doit importer.

The Conversation

Patrice Geoffron est membre fondateur de l'Alliance pour la Décarbonation de la Route. Il siège dans différents conseils scientifiques: CEA, CRE, Engie.

PDF

05.03.2026 à 16:21

« Les Hauts de Hurlevent », un roman irrigué par la poésie gothique d’Emily Brontë

Claire O'Callaghan, Senior Lecturer in English, Loughborough University

La poésie d’Emily&nbsp;Brontë est imprégnée des thèmes de l’obsession amoureuse, du chagrin et de la mort.
Texte intégral (1790 mots)

Au départ, le roman les Hauts de Hurlevent a déconcerté les lecteurs, qui l’ont trouvé étrange. Mais pour en comprendre la genèse, il faut se pencher sur les poèmes de son autrice, Emily Brontë, dans lesquels tous ses thèmes de prédilection sont déjà présents.


Ses premiers lecteurs le trouvaient « sauvage » et « confus », dépeignant un « amour à demi non civilisé ». Pourtant, en 1850, le poète et critique Sydney Dobell en a reconnu l’originalité et la puissance, louant la qualité poétique distinctive du roman. Pour Dobell, « la réflexion » derrière de nombreux passages dénotait « le chef-d’œuvre d’une poétesse, plutôt que la création hybride d’une romancière ».

Avant que Heathcliff et Cathy ne hantent les landes, Emily Brontë exerçait en effet sa magie littéraire dans des vers obsédés par la mort, imprégnés de chagrin et débordants de passion et de spectres. Ces motifs constituent le cœur battant et l’atmosphère singulière des Hauts de Hurlevent ; sans la poésie gothique de l’autrice, son célèbre roman n’aurait peut-être jamais vu le jour. Et, bien que ce roman lui soit définitivement associé, elle fut avant tout une poétesse.

Parmi tous ses poèmes, « Remembrance » (« Souvenance » (1845) se distingue comme l’ancêtre direct des Hauts de Hurlevent. La narratrice y pleure un amour perdu depuis « Quinze décembres farouches ». Le poème est rempli d’images de tombes gelées et de corps glacé « froid dans la terre », préfigurant l’enterrement de Cathy. La neige annonce également la désolation hivernale qui règne sur les Hauts de Hurlevent.

Dans « Written in Aspin Castle » (1842-43), l’errance spectrale de Lord Alfred dans la demeure familiale (Aspin Castle) n’est pas sans rappeler le retour de la petite Cathy fantomatique dans la maison de son enfance à Wuthering Heights (Yorkshire).

En réalité, les « fenêtres spectrales » d’Aspin anticipent la fenêtre qui perturbe le sommeil de M. Lockwood, gêné par ce qu’il suppose être une branche qui la frappe contre.

« “Il faut pourtant que je l’arrête !”, murmurai-je. J’enfonçai le poing à travers la vitre et allongeai le bras en dehors pour saisir la branche importune ; mais, au lieu de la trouver, mes doigts se refermèrent sur les doigts d’une petite main froide comme la glace ! »

Les fenêtres en forme de portails gothiques fascinaient manifestement Emily, une fascination que l’on retrouve clairement dans un dessin qu’elle réalisa en 1828, alors qu’elle n’avait que dix ans.

Dans « The Prisoner (A Fragment) » (1845-46), l’héroïne captive – tout comme M. Lockwood dans les Hauts de Hurlevent – est tourmentée par des visites nocturnes dans sa « crypte-donjon » où un messager spirituel incarné par le vent lui envoie des « visions » qui la « tuent de désir », ce qui ressemble beaucoup aux angoisses du personnage de Heathcliff dans le roman.

Le froid de la terre

La question centrale de « Remembrance » est toutefois de savoir si « la vague du temps qui tout désunit » a brisé le lien des amants, ce qui préfigure directement la question obsédante que Cathy lance à Heathcliff : « M’oublierez-vous ? Serez-vous heureux quand je serai sous terre ? » Cathy tourmente longuement Heathcliff sur ce point, lui demandant si « dans vingt ans », il dira :

« Voilà la tombe de Catherine Earnshaw. Je l’ai aimée, il y a longtemps, et j’ai été bien misérable quand je l’ai perdue ; mais c’est fini. »

Cependant, alors que le narrateur du poème trouve un moyen de vivre avec le souvenir douloureux de l’amour perdu, Heathcliff n’y parvient jamais. La mort est pour lui une catastrophe psychologique, et il reste prisonnier de son chagrin, incapable d’exister « sans [sa] vie » : Cathy.

« Remembrance » est né dans le monde imaginaire de Gondal, un royaume fantastique et poétique qu’Emily a créé avec sa sœur Anne pendant son enfance et sur lequel elle a continué à écrire à l’âge adulte. Située sur une île du Pacifique Nord, Gondal était une terre d’intrigues politiques et de passions destructrices, gouverné par des femmes redoutables, telles que l’énigmatique A. G. A. – un personnage profondément lié aux forces de la nature, tout comme Heathcliff.

Gondal a donné à Emily la liberté d’explorer les thèmes qui ont ensuite éclaté dans les Hauts de Hurlevent. Et bien avant d’être révisé pour être publié sous le titre « Remembrance » en 1846, le premier jet de ce poème peut être lu dans un texte se déroulant à Gondal, écrit en 1845. La narratrice de cette œuvre antérieure est le personnage féminin R. Alcona qui s’adresse à son amant décédé, Julius Brenzaida. Seuls des fragments de la saga Gondal ont survécu, mais on pense que R. Alcona est Rosina d’Alcona, un personnage puissant, et Julius le prince (plus tard empereur) de Gondal.

Poèmes de Gondal, dans un carnet d’Emily Brontë
Poèmes de Gondal, dans un carnet d’Emily Brontë. Wikimedia

Dans un autre poème s’adressant à Rosina comme à sa « reine despotique », Julius la présente comme le tyran de son âme. La rendant responsable de son emprisonnement spirituel, il se lamente d’être pris au piège de sa « beauté hautaine », trouvant que ses yeux « brillent, mais pas de la même flamme que les miens ». L’angoisse et les accusations qu’il adresse à Rosina font écho aux reproches torturés qu’Heathcliff adresse à Cathy dans les Hauts de Hurlevent, en particulier lorsqu’il lui dit qu’elle a brisé son propre cœur (« et en le brisant, tu as brisé le mien »).

Carnets secrets

Le parcours poétique d’Emily a commencé en secret. Sa sœur, Charlotte Brontë, a écrit dans sa Biographie d’Ellis et Acton Bell comment, en 1845, elle est « tombée par hasard » sur un carnet de poèmes écrits de la main de sa sœur. Ce qu’elle découvrit la stupéfia : il ne s’agissait pas « d’effusions banales », réfléchit-elle, mais de poèmes qui possédaient « une musique particulière », « sauvage, mélancolique et exaltante ».

Bien qu’Emily ait été furieuse de cette intrusion dans sa vie privée, Charlotte a insisté sur le fait que ces poèmes méritaient d’être lus. De ce moment de tension est né un projet de publication commune et, en 1846, Emily a publié 21 poèmes dans un recueil commun avec ses sœurs. Écrit sous le pseudonyme d’« Ellis Bell » (qui reprend les initiales d’Emily Brontë), le volume Poèmes, par Currer, Ellis et Acton Bell ne s’est vendu qu’à deux exemplaires, selon Charlotte, lors de sa première impression.

Quelques critiques perspicaces ont toutefois souligné « l’esprit » des vers d’Emily, y percevant un « pouvoir » poétique extraordinaire qui pourrait un jour « atteindre des sommets jamais atteints ».

The Conversation

Claire O'Callaghan ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

05.03.2026 à 10:45

À quelles conditions le télétravail peut-il bénéficier à l’environnement ?

Erwann Fangeat, Coordinateur de pole, Ademe (Agence de la transition écologique)

Les bénéfices pour l’environnement de la généralisation du télétravail sont plutôt positifs, mais restent tributaires de ses conditions de mise en œuvre.
Texte intégral (1364 mots)

Le télétravail s’est installé depuis quelques années dans nos habitudes professionnelles. Il peut contribuer à la décarbonation de l’économie… mais seulement à certaines conditions. Ses bénéfices restent par ailleurs marginaux au regard d’autres efforts à mener.


En 2024, 22 % des salariés du secteur privé télétravaillaient au moins une fois par mois, selon l’Insee. Le télétravail intensif, c’est-à-dire supérieur à trois jours hebdomadaires, qui avait connu un boom à la suite de la pandémie de Covid-19, est de son côté en diminution. Si elle n’est pas encore stabilisée, la pratique semble de toute façon appelée à s’inscrire dans le temps.

Dans le cadre d’un travail mené à la demande de l’État sur le rôle que pourrait jouer le numérique dans la décarbonation de l’économie, l’Agence de la transition écologique (Ademe) a évalué quels effets sur l’environnement pourrait avoir une généralisation du télétravail et à quelles conditions ils sont les plus bénéfiques.

Pour cela, l’Ademe a mené une analyse de cycle de vie (ACV) dite conséquentielle, qui s’intéresse aux conséquences environnementales à long terme. Le principe était de mesurer les impacts environnementaux provoqués par une massification du télétravail par rapport à un scénario de référence représentatif des pratiques de télétravail en 2025. La différence permet d’estimer les effets directs et indirects positifs et négatifs ainsi que les effets rebond.

La comparaison a ainsi porté sur trois scénarios, comparés au même scénario de référence :

  • l’un sans télétravail,
  • l’un où il serait généralisé,
  • enfin, un dernier où il serait limité.

Le scénario de massification apparaît comme intéressant sur le plan environnemental, mais le bilan des effets est très contrasté et dépend de certains facteurs précis.

Une baisse des déplacements en voiture

Le principal effet positif de la massification du télétravail concerne les émissions de gaz à effet de serre et la consommation de ressources fossiles qu’il permettrait d’éviter. Cela tient, avant tout, à la réduction des déplacements en voiture.

L’étude a été menée sur trois types de territoire : les petites « aires d’attraction » (50 000 à 200 000 habitants), les moyennes (200 000 à 700 000 habitants) et les grandes (plus de 700 000 habitants).

Elle montre que ce bénéfice se vérifie surtout dans les petites aires d’attraction, où le nombre de télétravailleurs a le plus de probabilités d’augmenter par rapport au scénario de référence, et où la dépendance à la voiture individuelle est plus forte du fait de trajets plus longs et de transports en commun moins présents. Dans ces zones, le télétravail peut éviter jusqu’à 8 kg d’équivalent CO₂ par habitant et par an.

D’autres effets positifs pourraient être observés en cas de généralisation du télétravail, comme la fermeture temporaire de certains bureaux permettant d’en abaisser le chauffage, ou encore une moindre construction de nouvelles surfaces de bureau.

Des effets indirects à prendre en compte

Le bilan n’est toutefois pas entièrement rose. Travailler chez soi induit souvent une hausse du chauffage à domicile, surtout en hiver. Cela représente en moyenne 1,4 kilowattheure (kWh) supplémentaire par jour, soit entre 3,5 % et 7 % de la consommation journalière d’un foyer, selon une étude menée en 2023 par l’Ademe et l’Institut français pour la performance du bâtiment (IFPEB) sur l’impact énergétique du télétravail.

Un autre impact négatif est l’achat de mobilier (fauteuil) ou d’équipements informatiques (écran supplémentaire) ainsi que l’utilisation de la connexion Internet du domicile. Cela peut peser sur l’épuisement des ressources, quand on sait les coûts environnementaux et les dépendances générés par la numérisation de la société : un smartphone contient à lui seul une cinquantaine de métaux, par exemple.

Par ailleurs, le télétravail peut avoir des effets indirects sur les déplacements, en engendrant des trajets supplémentaires. Par exemple pour des courses, qui autrefois étaient réalisées sur le chemin du travail, ou bien en provoquant des déménagements vers des zones plus éloignées. Tous ces effets peuvent atténuer les gains évoqués précédemment.

Une pratique à organiser

Certaines pratiques organisationnelles pourraient limiter ces effets négatifs et maximiser l’impact positif du télétravail.

Sur la gestion des bâtiments, une fermeture totale de l’édifice pendant au moins 48 heures permettrait, selon une expérimentation menée par l’Ademe et l’IFPEB sur dix bâtiments administratifs, de diminuer leur consommation énergétique quotidienne de 25 % à 40 % grâce à l’arrêt du chauffage, de l’éclairage et de la ventilation dans les locaux vides. On peut maximiser cet effet en privilégiant un télétravail total et simultané de tous les travailleurs sur certains jours de la semaine.

En outre, favoriser le télétravail en été et encourager le recours des télétravailleurs à des tiers-lieux à proximité de leur logement peut limiter son effet rebond sur le chauffage à domicile.

L’autre dimension porte sur les pratiques numériques : une meilleure gestion des outils est indispensable pour contenir leurs effets néfastes. Il s’agit, par exemple, de couper la caméra lors d’une visioconférence pour réduire par dix la consommation de données ou de privilégier le Wi-Fi au réseau mobile.

Un bilan positif à relativiser

L’analyse multicritères utilisée ici s’est intéressée à une quinzaine d’indicateurs, dont les trois principaux sont les gaz à effet de serre, l’épuisement des ressources fossiles et l’épuisement des ressources métalliques. Dans chaque cas, l’étude fait le bilan net entre les gains et les pertes. Le résultat montre que la massification du télétravail est positive sur la plupart des indicateurs d’un point de vue environnemental.

Toutefois, elle révèle aussi que ces gains sont assez modestes, en particulier sur les gaz à effet de serre, au regard des objectifs de décarbonation des déplacements en voiture à l’échelle d’une collectivité. La massification du télétravail y contribuerait, selon le type d’agglomération, à hauteur seulement de 2 % à 4 %.

En outre, ces gains risquent de diminuer dans le temps, puisqu’ils sont principalement liés à la mobilité, appelée à s’électrifier. Une moindre utilisation de la voiture aura donc moins de bénéfices à l’avenir. Par conséquent, le télétravail, s’il participe à la décarbonation, ne doit pas se substituer à des efforts de décarbonation plus profonds : il fait partie de la solution, mais dans des proportions très modestes.

The Conversation

Erwann Fangeat ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

05.03.2026 à 10:45

Le télétravail peut-il vraiment réduire nos émissions de CO₂ liées à la mobilité ?

Bérangère Legendre, Professor, Université Savoie Mont Blanc

Sarah Le Duigou, Enseignante-chercheuse en sciences économiques, Université Savoie Mont Blanc

Intuitivement, l’essor du télétravail ne peut certainement qu’avoir un effet bénéfique sur nos émissions de gaz à effet de serre, mais, lorsqu’on examine les chiffes, cela est souvent moins probant.
Texte intégral (2314 mots)
En France, aujourd’hui, plus d’un salarié du secteur privé sur cinq télétravaille au moins une fois par mois. Chris Montgomery/Unsplash, CC BY

Intuitivement, la généralisation du télétravail ne peut qu’avoir certainement un effet bénéfique sur nos émissions de gaz à effet de serre, mais, lorsqu’on examine les chiffres, cela se révèle moins probant.


Télétravailler pour réduire son empreinte carbone : l’idée semble évidente. Moins de trajets domicile-travail, moins de voitures sur les routes, donc moins d’émissions. Cette intuition a largement accompagné l’essor du télétravail depuis la crise sanitaire.

En France, plus d’un salarié du secteur privé sur cinq télétravaille aujourd’hui au moins une fois par mois. Ils n’étaient que 4 % avant la crise sanitaire. Or, les trajets entre le domicile et le travail représentent une part importante des émissions de gaz à effet de serre liées aux déplacements. Entre 1999 et 2019, la distance entre le domicile et le travail a augmenté en France, en particulier pour les habitants des zones rurales. Près du trois quarts de ces trajets se font en voiture, et cette part dépasse 90 % dans les zones peu denses. En moyenne, en 2019 un salarié émettait donc environ 700 kg de CO₂ par an pour ses seuls déplacements domicile-travail, et jusqu’à 1,3 tonne pour les personnes qui se déplacent le plus.

Dans ce contexte, le télétravail pourrait apparaître donc comme une solution évidente : en supprimant une partie de ces déplacements, les émissions devraient mécaniquement diminuer. Mais cette logique suppose que le télétravail n’affecte que les trajets entre le domicile et le travail, sans modifier les autres comportements de mobilité, ce qui est loin d’être évident.

Du côté des chiffres

Pour mieux comprendre ces dynamiques, nous avons mené une grande enquête entre décembre 2022 et février 2023 auprès de 3 530 actifs français, qui ne télétravaillaient pas avant la crise sanitaire. Une partie d’entre eux est passée au télétravail après 2020, ce qui permet de comparer leurs comportements de mobilité avant et après cette transition.

À première vue, les résultats semblent sans appel. Les télétravailleurs émettent moins d’équivalent CO₂ pour leurs déplacements entre le domicile et le travail : environ - 34 % pour les trajets directs et - 26 % lorsque l’on inclut les détours quotidiens (courses, accompagnement des enfants, etc.). À l’échelle de l’ensemble des mobilités (hors avion), leurs émissions annuelles apparaissent également plus faibles, de l’ordre de - 12 %.

Pris tels quels, ces chiffres pourraient suffire à conclure que le télétravail est bénéfique pour le climat. Pourtant, cette lecture est incomplète, et potentiellement trompeuse.

Pourquoi comparer télétravailleurs et non-télétravailleurs ne suffit pas

Déjà, il faut noter que les télétravailleurs ne sont pas des travailleurs « comme les autres ». Ils occupent plus souvent des emplois qualifiés, résident dans des zones spécifiques, ont des revenus plus élevés et des contraintes de mobilité différentes. Autrement dit ils n’auraient pas nécessairement eu les mêmes émissions que les non-télétravailleurs, même sans télétravail.

Comparer directement ces deux groupes revient donc à confondre potentiellement l’effet du télétravail avec des différences préexistantes. Pour isoler l’effet propre du télétravail, il faut raisonner en termes d’analyse d’impact : comparer ce qui s’est effectivement produit à un scénario de référence crédible, dans lequel les mêmes individus n’auraient pas télétravaillé.

Un effet réel mais plus modeste qu’il n’y paraît

Une fois cette approche mise en œuvre, le diagnostic se nuance. Le passage au télétravail, tel qu’il s’est opéré en France entre 2020 et 2023, a entraîné une baisse des émissions liées aux déplacements domicile travail, de l’ordre de 400 kg de CO₂ par an pour les personnes télétravaillant au moins deux jours par semaine. Cet effet est robuste et s’explique directement par la réduction du nombre de trajets.

En revanche, cette baisse est en partie compensée par d’autres ajustements : légère hausse des déplacements privés, réorganisation des trajets dans la semaine, ou encore disparition de certains « détours » auparavant intégrés au trajet domicile-travail. Ces effets, appelés « effets rebond » ne suffisent pas à annuler totalement les gains, mais ils en réduisent l’ampleur.

Le télétravail, un levier utile pour réduire l’empreinte carbone liée à la mobilité, mais un levier limité

Au final, le télétravail a réduit les émissions liées à la mobilité, mais dans des proportions plus modestes que ce que l’intuition initiale laisse penser. Rapporté à l’empreinte carbone moyenne d’un Français, et sachant que tous les travailleurs ne télétravaillent pas, l’effet reste limité.

Par ailleurs, si l’enquête dont sont issus ces résultats permet de renseigner finement les habitudes hebdomadaires de mobilité et l’organisation du travail d’un échantillon représentatif de la population en emploi en France, elle n’intègre pas d’autres effets qui méritent tout autant l’attention des chercheurs : l’empreinte carbone de l’usage du numérique en situation de télétravail, ou encore les comportements de consommation d’énergie à domicile et au travail des salariés.

Faut-il en conclure que le télétravail est inutile pour le climat ? Pas nécessairement. Mais ces résultats invitent à dépasser une vision simpliste.

La question n’est pas seulement de savoir si le télétravail réduit les émissions, mais dans quelles conditions il peut réellement le faire. En effet, il est important de s’intéresser également aux mécanismes économiques de long terme qui sont à l’œuvre. C’est précisément ce que permet la modélisation théorique en économie : simuler l’ajustement de l’économie lorsque de profonds changements interviennent.

Télétravail et arbitrages sur le marché du travail

Sur le marché du travail, les individus arbitrent entre le salaire proposé et les coûts associés à l’emploi, au premier rang desquels figurent les coûts de mobilité. Plus un emploi est éloigné du domicile, plus les coûts de mobilité sont élevés, ce qui peut dissuader certains travailleurs d’accepter certaines offres d’emploi.

Le télétravail modifie donc profondément les arbitrages des travailleurs. En réduisant le nombre de jours de déplacement, il diminue le coût de mobilité associé à un emploi donné. Cela permet à certains travailleurs d’accepter des emplois plus éloignés, qu’ils n’auraient pas acceptés autrement, et améliore l’accès à l’emploi pour les personnes vivant loin des centres d’activité.

Du point de vue de l’emploi, cet effet est donc théoriquement positif. Du point de vue environnemental, il est ambigu : accepter des emplois plus éloignés peut conduire à des distances domicile-travail plus longues les jours de présence sur site.

Une segmentation spatiale des travailleurs

Le télétravail induit donc une segmentation géographique. Les travailleurs vivant loin des centres d’emploi sont plus enclins à accepter des postes offrant du télétravail, tandis que ceux vivant à proximité continuent plus souvent à travailler sur site.

Cette segmentation a un double effet. D’un côté, elle concentre le télétravail chez les travailleurs pour lesquels la réduction des déplacements est la plus importante en termes de kilomètres évités. De l’autre, elle modifie la répartition spatiale des travailleurs et influence les comportements de mobilité de l’ensemble de la population active.

Peu de travaux ont pour l’instant documenté les mobilités résidentielles liées au télétravail en France. En 2022, les économistes Marie‑Laure Breuillé, Julie Le Gallo et Alexandra Verlhiac ont cependant montré que le télétravail tendait à accentuer certaines tendances de migrations des villes vers les campagnes grâce à la flexibilité offerte par le télétravail.

Un effet rebond inattendu : le choix du véhicule

Un autre mécanisme, moins intuitif, concerne le choix du type de véhicule. Si les véhicules électriques coûtent cher à l’achat, leur utilisation au quotidien est moins onéreuse : charger son véhicule électrique coûte moins cher que faire le plein d’une voiture thermique. Les véhicules électriques deviennent donc rentables au-delà d’un certain nombre de kilomètres parcourus.

En réduisant la fréquence des déplacements domicile-travail, le télétravail peut faire passer certains travailleurs en dessous de ce seuil de rentabilité. Résultat : l’adoption des véhicules électriques peut ralentir chez certains télétravailleurs, ce qui constitue un effet rebond susceptible de réduire les gains environnementaux attendus.

Intensité du télétravail : un facteur clé

Les simulations issues des modèles montrent également que l’impact environnemental du télétravail dépend fortement de l’intensité à laquelle il est pratiqué. Un scénario dans lequel une grande proportion de travailleurs télétravaille un seul jour par semaine n’est pas nécessairement le plus favorable.

À l’inverse, une part plus réduite de travailleurs télétravaillant deux ou trois jours par semaine peut conduire à des réductions d’émissions plus importantes. Autrement dit il vaut parfois mieux peu de télétravailleurs faisant beaucoup de télétravail que beaucoup de télétravailleurs en faisant peu.

Télétravail et politiques climatiques : des interactions décisives

Enfin, le télétravail n’agit pas isolément. La modélisation théorique permet de simuler l’impact du télétravail dans un contexte où sont menées des politiques environnementales qui ne sont pas actuellement en place : que se passerait-il dans une économie avec une taxe carbone respectant la trajectoire du prix du carbone initialement prévue par le rapport Quinet ? Dirigé par l’économiste Alain Quinet pour France Stratégie, ce document de référence fixe une valeur de long terme au carbone afin d’aider l’État, les entreprises et les citoyens à orienter leurs choix vers des solutions compatibles avec la lutte contre le changement climatique.

Cette valeur donne donc une trajectoire de long terme, une référence scientifique sur laquelle s’appuyer pour fixer par exemple le niveau d’une taxe carbone compatible avec des objectifs de neutralité carbone. En France, la taxe carbone actuellement en vigueur n’a pas évolué depuis le mouvement des gilets jaunes (2018-2019), elle est donc inférieure à la trajectoire identifiée par le rapport Quinet.

Que se passerait-il en particulier si les recettes d’une telle taxe étaient reversées à la population sous forme de subvention à l’adoption du véhicule électrique ?

Dans ce contexte, une politique climatique ambitieuse peut réduire l’effet marginal du télétravail sur les émissions. Mais le télétravail peut aussi améliorer l’acceptabilité sociale de ces politiques, en réduisant la part du revenu consacrée aux coûts de transport, en particulier pour les travailleurs les plus éloignés des centres d’emploi.

Penser le télétravail comme un outil parmi d’autres

Le télétravail peut donc contribuer à la décarbonation des mobilités, mais seulement sous certaines conditions : intensité suffisante, articulation avec les politiques de mobilité et prise en compte des effets rebond.

La question n’est donc pas de savoir si le télétravail est bon ou mauvais pour le climat, mais comment l’intégrer intelligemment dans une stratégie plus large de transformation des mobilités et de l’organisation du travail.

The Conversation

Bérangère Legendre a reçu des financements de la chaire de l'économie environnementale (CLEE).

Sarah Le Duigou ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.03.2026 à 16:23

A new face for ‘Little Foot’, the most complete Australopithecus skeleton to date

Amélie Beaudet, Paléoanthropologue (CNRS), Université de Poitiers

Dominic Stratford, Professor of Archaeology, University of the Witwatersrand

What did the face of our ancestors looks like 3 million years ago? Meet the reconstructed skull of “Little Foot” which provides valuable insights into how our ancestors adapted to their environment.
Texte intégral (1648 mots)

What did the face of our ancestors look like 3 million years ago? Meet the reconstructed face of “Little Foot” – the most complete biological Australopithecus specimen that ever existed.

What did the face of one of our ancestors look like more than 3 million years ago? Our international team has answered this question by virtually reconstructing the facial fragments of Little Foot, the most complete Australopithecus skeleton yet discovered. This reconstruction sheds light on the influence of the environment on how our face evolved. Our findings have just been published in the Comptes Rendus Palevol journal, and the new 3D face of Little Foot can be explored online on the MorphoSource platform.

The search for human origins has never been more fruitful, with fossil discoveries pushing back the appearance of the earliest humans (members of the genus Homo) to 2.8 million years ago, and the development of cutting-edge methods for analysing these remains such as recovering genetic information from fossils over 2 million years old.

Yet, while our knowledge of extinct human species grows with each discovery, the story of our ancestors before the first humans appeared remains blurry. It is during this pivotal period that the traits defining our humanity emerged, enabling our genus’ evolutionary success.

Although the identity of our direct pre-Homo ancestor is far from resolved, one fossil group plays a central role in this search: Australopithecus. This genus, to which the famous “Lucy” belongs (discovered 50 years ago in Ethiopia), inhabited much of Africa and survived for over 2 million years. Australopithecus is known from many fossil remains, but often these are highly fragmentary, isolated, and have sometimes been distorted over the millions of years they have been buried. Notably, only a handful of skulls preserve nearly the entire face, a part of our anatomy that has profoundly shaped who we are today.

Through digestive, visual, respiratory, olfactory and non-verbal communication systems, the face is at the heart of interactions between individuals and their physical and social environments.

Significant changes occurred in the facial region throughout human evolution, with most structures generally becoming less robust. However, the factors driving these changes remain unclear. Were they caused by shifts in diet, social behaviour, or both? Only the discovery of more complete skulls can clarify this debate, and this is why the skull of Little Foot is crucial.

The ’Cradle of Humankind’

South Africa has been and remains a crucial region for researching into human origins. A century ago, the iconic “Taung Child” was published in Nature as a representative of a new African branch of humanity, Australopithecus. While scientific attention had previously focused on Eurasia, this discovery inspired decades of exploration and major finds across Africa. In particular, South Africa saw a proliferation of palaeontological sites in a region now UNESCO-listed and known as the “Cradle of Humankind.” Among these, Sterkfontein has proven exceptionally rich in fossils, many attributed to the hominin genus Australopithecus, and including numerous remarkably preserved specimens. But it was in 1994 and 1997 that Sterkfontein yielded its most spectacular find: the skeleton of Little Foot, over 90% complete, and the oldest human ancestor found in Southern Africa. To date, it is the most complete Australopithecus skeleton ever discovered, far surpassing Lucy, of which only 40% of the anatomy is preserved.

Our team has been studying this skeleton since its complete excavation concluded in 2017. The skull, in particular, has been the focus of our attention, as it is relatively complete, preserving all parts of the head – the cranium and mandible. However, 3.7 million years of burial underground have fragmented and displaced parts of its fossilised face. This process is especially visible in the forehead and eye sockets (orbits), making it impossible to quantitatively analyse these informative areas. Given the exceptional and unique nature of this fossil, we decided to harness the most recent technological advances in imaging to restore the face of Little Foot.

‘Little Foot’ in Europe

Creating a digital copy of Little Foot was essential to allow the virtual isolation and repositioning of the fragments without damaging the original skull. However, conventional X-ray scanning technologies have limitations. Through burial and fossilisation process, cavities were created in Little Foot’s skull as soft tissues disappeared and filled with sediment. As a result, X-rays struggle to penetrate this extremely dense sedimentary matrix, limiting image contrast and quality. After several unsuccessful attempts, we turned to a more powerful alternative: synchrotron radiation scanning. A synchrotron is a high-energy particle accelerator used to produce ultra-high-resolution images (at micron or even sub-micron scale).

With this in mind, we took Little Foot’s skull to England for scanning at the I12 beamline of the Diamond Light Source synchrotron. In the summer of 2019, Little Foot made its first journey outside Africa, carefully escorted across the world and housed in a secure vault during its stay in the UK.

A new face for Australopithecus

Several days were required to scan the entire skull at a resolution of 21 microns. The exceptional images generated revealed intimate details of Little Foot’s anatomy, and also provided the necessary data for facial reconstruction. However, the high quality of the data came at a computational cost: over 9,000 images were generated, representing terabytes of information to process. To virtually isolate the fragments, these images were processed using the supercomputer at the University of Cambridge (England). Once rendered in 3D, the fragments were repositioned according to their anatomical location, and missing parts were recreated to finally restore the complete face of Little Foot.

Little Foot’s face reconstructed. Fourni par l'auteur

The size and shape of Little Foot’s orbits, previously obscured by displaced fragments, are among the most striking features of our reconstruction. In primates, the orbital region is heavily influenced by functional (visual) and behavioural (ecological) adaptations. Little Foot’s proportionally large orbits compared to other hominins suggest a strong reliance on sensory information, likely for foraging. This hypothesis is supported by a previous study showing that its visual cortex was more developed than that of modern humans.

The second major result of this study has implications for our understanding of the relationships between Australopithecus groups living in Africa between 4 and 2 million years ago. Although the comparative sample is limited, it includes specimens from both East and South Africa. Surprisingly, Little Foot, from a South African site, shows strong similarities with East African specimens. These similarities may indicate that Little Foot shared close ancestors with East African populations, while its probable descendants in South Africa later developed distinct anatomy through local evolution.

While the face provides valuable insights into our ancestors’ adaptations to their environment, the rest of Little Foot’s skull will offer further key elements for understanding our evolutionary history. Notably, the braincase, affected by “plastic” deformation, will require similar work to reconstruct and explore the neurological features of this fossil group.

The Conversation

This research was supported by the Agence Nationale de la Recherche, the Centre National de la Recherche Scientifique, the Claude Leon Foundation, the DST-NRF Center of Excellence in Palaeosciences, the French Institute of South Africa, Diamond Light Source, and the ISIS facility of the Science and Technology Facilities Council (STFC).

Dominic Stratford est membre de organisation: Department of Anatomical Sciences, Renaissance School of Medicine, Stony Brook University, Stony Brook, NY, 11794, USA Funding: Already stated by Dr Beaudet

PDF

04.03.2026 à 16:22

Dissuasion nucléaire : tournant majeur dans la stratégie française et européenne

Benoît Grémare, Chercheur associé à l'Institut d'Etudes de Stratégie et de Défense, Université Jean Moulin Lyon 3

Emmanuel Macron souhaite augmenter l’arsenal nucléaire et étendre le parapluie français à une partie de l’Europe. Un changement majeur dans la stratégie française de dissuasion.
Texte intégral (1827 mots)

Le 2 mars 2026, depuis la base opérationnelle de l’île Longue, dans le Finistère, Emmanuel Macron a présenté une actualisation de la doctrine française de dissuasion nucléaire. En annonçant une augmentation du nombre d’ogives et une participation accrue des partenaires européens, le chef de l’État concrétise l’européanisation de la dissuasion qu’il avait appelée de ses vœux en 2020 et formalise un nouveau cadre, la « dissuasion avancée ». Une inflexion qui redéfinit la place de la France dans l’architecture stratégique européenne.


Les relations entre les États ont pris ces dernières années un tournant résolument nucléaire : menaces russes d’usage de l’arme nucléaire depuis le début de la guerre d’Ukraine, couplées au déploiement de missiles nucléaires tactiques en Biélorussie depuis 2023 ; désengagement des États-Unis de la défense européenne et annonce d’une reprise immédiate des essais d’armes nucléaires (octobre 2025) ; augmentation de 45 % de l’arsenal nucléaire du Royaume-Uni depuis 2021 ; et enfin augmentation du stock d’ogives de la Chine, à hauteur d’une centaine par an depuis 2023. Dans ce monde dénué d’accords internationaux de régulation des arsenaux nucléaires, une actualisation de la doctrine nucléaire française apparaissait nécessaire.

Cette dernière connaît une évolution majeure avec le discours d’Emmanuel Macron du 2 mars 2026 sur la base de sous-marins de l’île Longue (Finistère).

La fin de la stricte suffisance

L’arme nucléaire reste réservée à un usage défensif. Cependant, le président a ordonné d’augmenter le nombre de têtes nucléaires (actuellement de 290 ogives) qui composent l’arsenal national. Cette montée en puissance est la principale annonce du discours d’Emmanuel Macron, abandonnant le concept de « stricte suffisance » qui limitait jusqu’alors le développement de la force de frappe au nom de la non-prolifération. L’augmentation du nombre d’ogives permet de lancer plusieurs bombes en même temps afin de saturer l’espace aérien d’un pays ennemi lequel, malgré ses systèmes de défense antimissiles, ne pourra pas tous les abattre. Il s’agit aussi d’étendre la couverture du parapluie nucléaire à l’échelle de l’Europe, sans toutefois dégarnir les stocks réservés à la protection du territoire national.

Afin de tenir compte des systèmes avancés de détection russe, susceptibles d’intercepter d’ici 2035 les missiles nucléaires britanniques et français, la France repousse également le risque de décrochage technologique en développant de nouveaux outils, tels que la tête océanique optimisée jointe à un missile hypersonique et manœuvrant.

Un retour à l’ambiguïté stratégique

Le discours de l’île Longue renoue avec l’ambiguïté stratégique en ne rendant plus public le nombre d’ogives qui composeront la force de dissuasion nucléaire. À l’instar des citoyens français, les partenaires européens devraient aussi être mis à l’écart de cette information pour éviter de possibles révélations.

Une doctrine se construit en fonction de ses intérêts, mais aussi en fonction des agissements des autres États. Pour définir le volume nécessaire à une force nucléaire, deux méthodes peuvent être utilisées, à savoir calculer le nombre de bombes qui suffiraient pour détruire un adversaire particulier, et le nombre dont ce dernier a besoin pour nous détruire. C’est la logique d’anéantissement, dont la peur inspire la dissuasion. Il faut forcer l’adversaire à comprendre que son attaque lui coûtera trop cher pour en tirer un bénéfice. Dans les années 1960, la France cherchait à dissuader Moscou en menaçant de causer un nombre de morts soviétiques au moins égal à la population française.

Jusqu’à la chute du mur de Berlin en 1989, l’arsenal n’a fait qu’augmenter pour atteindre 550 têtes nucléaires. Mais la fin de la guerre froide a entraîné une baisse continue. Plusieurs facteurs l’expliquent : le désarmement, la non-prolifération, la fin de la menace d’invasion soviétique, la nécessité de baisser les dépenses publiques en prenant le budget de la défense nationale comme variable d’ajustement.

Non quantifiée sous Jacques Chirac, la taille de l’arsenal nucléaire français avait été dévoilée par le président Sarkozy en 2008 à moins de 300 têtes, avant que le président Hollande ne détaille en 2015 le nombre de missiles et de lanceurs.

Or, la transparence sur les volumes des forces nucléaires implique toujours un risque pour la sécurité nationale, car elle permet à l’ennemi de calculer de manière précise les risques de son agression et sa capacité d’encaissement en cas de frappe, ce qui réduit l’incertitude et affaiblit la logique même de la dissuasion.

Une « dissuasion avancée » vers les partenaires européens

Aujourd’hui, la « dissuasion avancée » proposée par le président Macron associe huit pays européens : Royaume-Uni, Allemagne, Pologne, Pays-Bas, Belgique, Grèce, Suède et Danemark. On peut supposer que l’Autriche, l’Irlande et Malte, étant adhérents au Traité d’interdiction des armes nucléaires, ont refusé l’offre française de protection. Celle-ci se matérialise par le déploiement d’avions français équipés de leurs ogives nucléaires chez les partenaires européens afin de compliquer le calcul de l’adversaire.

En échange, afin de participer à l’effort commun, les pays hôtes devront remplir des missions d’appui en coordination avec la France : renseignement, surveillance, emploi de forces conventionnelles pour protéger les espaces délicats à défendre avec la seule dissuasion nucléaire des pays membres de l’Union européenne et de l’Organisation du traité de l’Atlantique Nord (Otan). Offrant des exercices nucléaires communs, le président Macron évoque des consultations, à savoir des dialogues entre les partenaires européens au cas où la situation internationale se dégraderait et verrait le franchissement de lignes rouges par l’ennemi.

Toutes les contributions des partenaires européens se précisent par « l’épaulement » : une sécurité répartie et partagée pour faire face à un ennemi commun. Le parapluie nucléaire français se déploie en parallèle de celui de l’Otan, les États-Unis ayant été informés du projet sans qu’aucun communiqué négatif ne soit produit. Ce partage des risques et des responsabilités semble garant d’une certaine crédibilité, illustré par une dissuasion franco-britannique et franco-allemande, compliquant les calculs stratégiques russes.

Par ailleurs, le discours de l’île Longue reste dans la lignée de la doctrine classique de la dissuasion nucléaire française établie en 1972 puisque le président de la République garde seul la décision d’emploi de l’armement nucléaire. Il n’y a pas de partage de la décision d’emploi, pas de ciblage à l’avance d’objectifs de tirs nucléaires, ni de mise en œuvre opérationnelle avec d’autres états-majors.

Financer la nouvelle doctrine

Après trois décennies de baisse budgétaire et de promotion de la non-prolifération, le discours de l’île Longue ouvre une nouvelle ère pour la doctrine nucléaire française. Emmanuel Macron se pose en rupture par rapport à ses prédécesseurs. Alors que les présidents Mitterrand et Chirac avaient réduit le nombre d’ogives et que les présidents Sarkozy et Hollande avaient publiquement révélé la taille de l’arsenal, Emmanuel Macron prend ici une voie inverse et originale, avec le principe affirmé de prépositionner une partie des forces nucléaires françaises chez nos alliés européens. La dissuasion devient une sorte de « partenariat bilatéral » dans un dialogue d’État à État.

Cette orientation de la doctrine, intervenant à un an de la fin de son double mandat, permet à Emmanuel Macron de renvoyer à ses successeurs la charge de cette montée en gamme ainsi que la question de son financement. Construite et entretenue par les fonds propres de la nation, la dissuasion nucléaire française ne peut être financée par les mécanismes européens. Paris s’y est toujours opposé afin de garder le contrôle exclusif de son armement nucléaire, sans avoir de gages à donner ou de comptes à rendre à une éventuelle commission. Devant compter sur ses propres ressources pour augmenter son arsenal nucléaire, il sera donc nécessaire de débattre du budget alloué à ce réarmement (lequel, du fait de son caractère secret et stratégique, est rarement détaillé auprès du Parlement).

Emmanuel Macron a enfin communiqué sur la construction d’un nouveau sous-marin nucléaire lanceur d’engins, L’Invincible. Ce projet sera-t-il effectivement mis en œuvre par le président qui lui succédera en 2027 ?

The Conversation

Benoît Grémare est ancien officier à l’escadrille des sous-marins nucléaires d’attaque.

PDF

04.03.2026 à 16:21

Les États-Unis, eldorado pour les riches Chinois qui souhaitent avoir une famille XXL par GPA

Allane Madanamoothoo, Associate Professor of Law, EDC Paris Business School

La GPA est illégale en Chine. De nombreux Chinois très fortunés se tournent donc vers les États-Unis pour avoir une famille nombreuse par ce moyen.
Texte intégral (3345 mots)

Certaines élites chinoises ont recours à la gestation pour autrui, ou GPA, pour avoir des enfants – et parfois des dizaines, voire des centaines d’enfants – aux États-Unis. Le marché de la GPA, en pleine expansion outre-Atlantique, où il représente plus de 17 milliards de dollars (plus de 14,6 milliards d’euros) de chiffre d’affaires, est alimenté en bonne partie par les élites de la République populaire. Dans une lettre adressée à la procureure générale des États-Unis Pam Bondi, ce 26 février, deux sénateurs républicains exhortent le Department of Justice à enquêter sur le phénomène. Le DOJ est appelé à en rendre compte d’ici le 13 mars. En attendant, et parce que la GPA soulève en soi de nombreuses questions éthiques, un récent rapport de l’ONU appelle à son interdiction universelle.


Le 13 décembre dernier, le Wall Street Journal révèle une information des plus insolites : Xu Bo, un milliardaire du secteur des jeux vidéo en Chine, affirme être le père d’une centaine d’enfants nés aux États-Unis par gestation pour autrui (GPA) – une convention par laquelle une femme (la mère porteuse) accepte de porter un enfant pour le compte d’un tiers (le ou les parents d’intention).

Le journal américain soutient également que d’autres magnats chinois ont régulièrement recours à des mères porteuses outre-Atlantique pour avoir des dizaines, voire des centaines d’enfants à l’instar de Xu Bo. Certains déclarent avoir acheté des dizaines d’ovocytes à des mannequins, des musiciennes ou des diplômées en finance, et vouloir exclusivement des filles « afin de les marier un jour à des hommes puissants ». D’autres souhaitent créer des « dynasties familiales inarrêtables ».

Comprendre les raisons qui poussent les riches Chinois à recourir à de nombreuses GPA outre-Atlantique invite d’abord à s’attarder sur la politique de natalité en Chine. Mais les États-Unis resteront-ils une destination prisée pour la GPA transnationale ? La pratique de la GPA, qu’elle soit nationale ou transnationale, restera-t-elle autorisée aux États-Unis et ailleurs ?

La limitation du nombre d’enfants en Chine, de 1979 à aujourd’hui : d’abord un, puis deux, puis trois

Au début des années 1970, le premier ministre chinois Zhou Enlai émet une directive de limitation des naissances. Une campagne sans relâche est alors menée, reposant sur le slogan « wan-xi-shao » (« Tard-Espacé-Peu »), afin d’encourager le mariage et la procréation tardifs ainsi que l’espacement et la réduction des naissances.

En 1979, la politique de l’enfant unique est instaurée sous le régime de Deng Xiaoping par crainte d’une explosion démographique et pour des raisons économiques. Très controversée, cette politique est accompagnée de mesures incitatives (avantages sociaux et médicaux) pour les parents ayant un seul enfant et coercitives (pénalités financières, privation d’aides sociales, avortements et stérilisations forcés, etc.) à l’encontre des contrevenants.

À partir de 1984, la loi est assouplie et certaines familles sont autorisées à avoir deux enfants. C’est le cas, par exemple, pour les familles rurales dans certaines provinces, lorsque l’aîné est une fille. L’objectif est de permettre aux couples d’essayer d’avoir un fils, non seulement pour assurer la lignée familiale, mais aussi pour garantir la main-d’œuvre dans les champs et la sécurité financière des parents dans leurs vieux jours (la femme chinoise, quant à elle, aura la charge de s’occuper de ses beaux-parents). Il en va de même à partir de 2013 pour les couples urbains dont l’un des deux conjoints est enfant unique.

Les enfants nés hors quotas ou en dehors des exceptions légales, appelés « enfants noirs », sont dépourvus de reconnaissance juridique et sociale à défaut de paiement d’une lourde amende – dénommée « taxe de maintenance sociale » –, pouvant aller de 500 à plus de 10 000 euros. Ces amendes permettaient, par la même occasion, de garantir à l’État des rentrées financières.

La politique de l’enfant unique aura été maintenue pendant trente-cinq ans, soit « une durée équivalant à une génération ».

En 2015, face au taux de natalité excessivement bas et au vieillissement accéléré de la population, la loi de l’enfant unique est abrogée. Dès 2016, tous les couples sont autorisés à avoir deux enfants, s’ils le souhaitent. Certains obstacles liés au retardement du mariage et de la procréation sont également levés. Cette nouvelle politique familiale n’eut toutefois pas l’effet escompté.

En 2021, la politique de planification familiale autorise finalement les familles à avoir jusqu’à trois enfants. En 2022, les pénalités financières appliquées aux familles ayant plus d’enfants que le nombre autorisé sont supprimées. On pourrait penser dès lors qu’il n’y a plus de politique de contrôle des naissances. Cependant, pour Isabelle Attané, spécialiste de la démographie de la Chine, il est à craindre que, dans la pratique, le gouvernement chinois continue d’appliquer certaines mesures coercitives du passé (amendes, sanctions professionnelles ou administratives, etc.) en cas de non-respect de cette limitation.


À lire aussi : Chine : quels effets peut-on attendre de la nouvelle politique de trois enfants ?


Les mesures incitatives mises en place ces cinq dernières années (chèques, exonérations fiscales, allongement de congés parentaux…) n’ont pas vraiment eu de succès, selon The Insider.

La dernière mesure instaurée par Pékin depuis le 1er janvier 2026 pour « réarmer » sa démographie, plus contraignante qu’incitative, consiste en l’application d’une taxe de 13 % sur les préservatifs et les pilules contraceptives (jusqu’ici exemptés de TVA).

Euronews, 31 mai 2021.

L’interdiction de la GPA v. la réalité

En Chine, la GPA est interdite depuis 2001. Cette interdiction ne concerne toutefois que les établissements de santé et le personnel médical. Les contrevenants sont passibles d’une sanction pécuniaire de 30 000 yuans (environ 3630 euros).

Mais les pénalités financières sont peu dissuasives pour les cliniques, où le coût de la GPA peut aller de 40 000 à plus de 100 000 euros. Entre 2014 et 2019, on dénombrait plus de 400 agences de GPA, et plus de 50 000 enfants sont nés d’une mère porteuse durant cette période.

Ces dix dernières années, le marché clandestin de la GPA a connu un essor considérable dans le pays. Lorsque la politique de l’enfant unique a été supprimée, de nombreuses femmes qui étaient à un âge trop avancé pour avoir un deuxième enfant se sont alors tournées vers la GPA.

À cela s’ajoutent des raisons préexistantes telles que la demande de couples infertiles et homosexuels, l’importance accordée à la perpétuation de la lignée familiale, ou encore les situations où des familles ayant eu un seul enfant durant la période de la loi de l’enfant unique ont perdu cet enfant et sont trop âgées pour en avoir un autre.

Les États-Unis, une destination prisée pour la GPA transnationale

Selon une étude publiée en 2024 dans Fertility and Sterility, 41,7 % des GPA gestationnelles (c’est-à-dire des GPA où la mère porteuse n’a aucun lien génétique avec l’enfant) aux États-Unis entre 2014-2020 étaient effectuées par des Chinois.

Le choix des Chinois de conclure une GPA aux États-Unis n’est pas anodin.

D’une part, en vertu du 14ᵉ amendement de la Constitution, tout enfant né sur le territoire des États-Unis est automatiquement un citoyen états-unien (à l’exception des enfants de diplomates). La nationalité états-unienne de l’enfant permet de contourner le quota d’enfants autorisé par famille en Chine. Qui plus est, dès sa majorité ce dernier pourra soumettre une demande de carte verte pour les membres de sa famille (parents, frères et sœurs) afin qu’ils puissent résider légalement aux États-Unis.

D’autre part, dans plusieurs États fédérés – la GPA n’étant pas réglementée au niveau fédéral –, un accès à la GPA sans condition d’état matrimonial, de nationalité, d’âge, d’orientation sexuelle ou de genre est possible. Les conventions de GPA sont également exécutoires, privant la mère porteuse du droit de changer d’avis et de garder l’enfant à sa naissance.

Dans les États les plus favorables, comme en Californie, la loi reconnaît automatiquement les parents d’intention comme étant les parents légaux de l’enfant dès sa naissance. Des ordonnances de filiation prénatales (pre-birth orders) peuvent également être obtenues par décision judiciaire.

De plus, le couplage de la fécondation in vitro avec le diagnostic préimplantatoire, quasi généralisé aux États-Unis, permet aux parents d’intention d’obtenir des designer babies (bébés à la carte ou bébés sur mesure). Non seulement ils peuvent sélectionner le sexe de leur future progéniture, mais aussi certaines de ses caractéristiques physiques (couleur des yeux, des cheveux, etc.) avant l’implantation de l’embryon dans l’utérus de la mère porteuse.

Par ailleurs, si certaines agences de GPA proposent aux parents d’intention d’avoir des twiblings (une fratrie de deux enfants nés de deux mères porteuses presque au même moment), il est quasiment impossible pour ces agences de savoir si leurs clients ont déposé plusieurs demandes de twiblings, de triblings, de quadruplings… voire de centublings, en parallèle auprès d’autres agences.

Aussi, pour attirer les clients chinois, plusieurs sites de GPA en ligne proposent des services dans plusieurs langues dont le mandarin : Extraordinary Conceptions et The Surrogacy Law Center, à titre d’exemples.

Enfin, des rapports ont récemment révélé l’existence de plus de 107 agences de GPA gérées par des Chinois dans le sud de la Californie. Ces agences s’adressent presque exclusivement à la clientèle chinoise fortunée et certaines d’entre elles sont affiliées à des entreprises publiques en Chine.

La GPA transnationale aux États-Unis et la GPA dans sa globalité : quels futurs ?

Les États-Unis sont le leader mondial de la GPA. En termes de chiffres, alors que le marché mondial de la GPA était estimé à 22,4 milliards de dollars (19,3 milliards d’euros) en 2024, les États-Unis pesaient à eux seuls 17,47 milliards de dollars (15 milliards d’euros).

Le prix global de la GPA dans le pays varie entre 120 000 et 150 000 dollars (103 300 et 129 100 euros) et peut même atteindre 200 000 dollars (172 100 euros). Pour Courtney Harper Turkington, professeure assistante en droit à Loyola University New Orleans College of Law, le montant total de la GPA peut inclure différents coûts, dont :

  • le coût de la FIV : entre 15 000 et 30 000 dollars (entre 13 000 et 25 800 euros)

  • la rémunération de la mère porteuse : entre 30 000 et 60 000 dollars (entre 25 800 et 51 600 euros)

  • la compensation de la donneuse d’ovocytes : entre 10 000 et 40 000 dollars (entre 8 600 et 34 400 euros)

  • les frais d’agence : entre 20 000 et 40 000 dollars (entre 17 200 et 34 400 euros)

  • les frais juridiques : entre 3 000 et 15 000 dollars (entre 2 600 et 13 000 euros)

Selon l’étude publiée dans Fertility and Sterility (précitée), près de la moitié des enfants nés dans le cadre d’une GPA gestationnelle aux États-Unis entre 2014-2020 étaient conçus pour le compte de parents d’intention étrangers : 41,7 % par des Chinois, 9,2 % par des Français et 8,5 % par des Espagnols (rappelons que, à l’instar de la Chine, la France et l’Espagne interdisent également la GPA). Le nombre de ces GPA conclues par des étrangers avait d’ailleurs nettement augmenté entre 2014-2019, passant de 2 758 (22,0 %) en 2014 à 4 905 (39,8 %) en 2019.

Toutefois, la GPA transnationale outre-Atlantique et la pratique de la GPA en elle-même ont toutes deux un avenir incertain.

En effet, dès son investiture, le 20 janvier 2025, Donald Trump a signé un décret revenant sur le droit du sol. Ce décret, qui devait s’appliquer dès le 19 février 2025, vise à priver de la nationalité états-unienne les enfants nés après cette date lorsqu’aucun des parents biologiques n’est un citoyen états-unien ou un résident permanent légal. Bien que le décret ne précise pas si les enfants nés d’une mère porteuse sont concernés, il est à noter que jusqu’à cinq personnes peuvent être impliquées dans leur naissance :

  • la donneuse d’ovocytes,
  • la mère porteuse,
  • la mère d’intention,
  • le donneur de sperme,
  • le père d’intention.

La Cour suprême statuera sur la constitutionnalité de ce décret dans quelques mois.

Mais d’ores et déjà, ce 26 février, deux sénateurs républicains, Tom Cotton (Arkansas) et Rick Scott (Floride), ont adressé une lettre à la procureure générale des États-Unis, Pam Bondi. Ils demandent que le Department of Justice (DOJ) mène rapidement des enquêtes afin d’identifier d’éventuelles violations des lois fédérales (fraude à l’immigration, traite d’êtres humains…), d’obtenir des informations sur les nombreuses GPA conclues par des Chinois richissimes et sur les agences de GPA gérées par les étrangers (au-delà de celles opérées par les Chinois) dans le pays, etc. Le DOJ est appelé à en rendre compte d’ici le 13 mars.

Émission « Le Grand Témoin », 3 novembre 2025.

Au niveau international, après la déclaration de Casablanca pour l’abolition universelle de la GPA signée par une centaine d’experts (médecins, juristes, psychologues, sociologues, philosophes…) de 75 nationalités différentes le 3 mars 2023, c’est au tour de l’ONU de plaider en ce sens.

Le 14 juillet 2025, la rapporteuse spéciale sur la violence contre les femmes et les filles, ses causes et ses conséquences, Reem Alsalem a présenté un rapport accablant sur la GPA à l’Assemblée générale des Nations unies. Après avoir analysé plus de 120 contributions et consulté plus de 70 parties prenantes de la GPA (parents demandeurs, agences, spécialistes de la médecine, mères porteuses, etc.), ce rapport développe un véritable plaidoyer pour l’abolition internationale de la GPA aux motifs de l’exploitation et de la marchandisation des mères porteuses et des enfants dans le cadre de cette pratique.

The Conversation

Allane Madanamoothoo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.03.2026 à 16:19

De l’accord de Paris à un capitalisme climatique porté par la Chine

Michel Damian, Professeur honoraire, Université Grenoble Alpes (UGA)

L’accord de Paris a fixé un objectif climatique sans imposer aux États d’efforts contraignants. Cela a créé un terrain favorable au leadership économique de la Chine.
Texte intégral (1664 mots)

En 2015, la COP21 se clôturait par la signature de l’accord de Paris, jugé alors historique pour sa promesse de limiter le réchauffement climatique à 1,5 °C avant la fin du siècle. Un peu plus de dix ans plus tard, l’objectif semble dur à tenir, mais le monde est désormais sur les rails d’un capitalisme climatique dont la Chine a pris la tête. C'est l'idée que défend Michel Damian dans son dernier ouvrage « Les capitalismes à l’épreuve du climat » paru en octobre 2025 aux Presses des mines, dont il présente ici l’une des principales idées.


« Paris est définitivement l’une des meilleures COP jamais organisées – les Français ont fait un boulot fantastique », écrivait, en 2015, le juriste Daniel Bodansky, qui a suivi les grandes conférences sur le climat depuis les négociations pour la convention-cadre des Nations unies sur les changements climatiques signée en 1992.

Du 30 novembre au 12 décembre 2015, il y a dix ans, la France pilotait un accord unanimement salué comme un succès. Dans son discours de clôture, Laurent Fabius, ministre des affaires étrangères, président de la conférence, ne cachait pas sa satisfaction :

« Ce texte sera […] un tournant historique. Le succès est à portée de toutes nos mains réunies. Le monde retient son souffle et il compte sur nous tous. »

Son contenu majeur, à savoir des promesses de réductions strictement nationales des émissions, sans aucun engagement contraignant de la part des États (dans le langage onusien, des « contributions déterminées au niveau national »), n’a toutefois pas été impulsé par l’Hexagone : il s’agissait, pour l’essentiel, d’une construction sino-américaine.


À lire aussi : De Rio à Dubaï : les rivalités entre les États-Unis et la Chine dans les négociations climatiques


Des promesses de réduction des émissions trop faibles

Pour la première fois, les pays parties à la Convention climat se sont officiellement dotés d’une cible d’augmentation des températures à ne pas dépasser.

L’objectif, porté dans les ultimes jours de la COP21 par une coalition de petits États insulaires et de pays particulièrement vulnérables, était désormais de « contenir le réchauffement climatique nettement en dessous de 2 °C par rapport aux niveaux préindustriels et de poursuivre l’action menée pour limiter l’élévation des températures à 1,5 °C ».

La Conférence de Paris a ainsi franchi le pas d’inscrire la décarbonation de l’économie mondiale dans le temps long. Mais elle l’a fait sans imposer aux États le moindre engagement contraignant : simplement en se convainquant que le socle de transformations nationales volontaires suffirait.

Le problème, c’est que les « contributions nationales » communiquées par les parties à la COP, à supposer qu’elles ne restent pas de vaines promesses, emmenaient de toute façon vers un réchauffement bien supérieur à l’engagement fixé : environ +3 °C minimum sur le siècle.

L’écart donne le vertige : pour coller aux 2 °C – et a fortiori aux 1,5 °C – visés, il eût fallu que les contributions nationales ne soient rien moins que, respectivement, de 30 % et de 41 % plus ambitieuses d’ici à 2030.

S’était-on naïvement imaginé qu’elles seraient rapidement relevées après ce premier tour de chauffe ? L’accord de Paris ne s’était-il pas doté, dans l’ombre, d’une porte de sortie, ou d’une échappatoire, dont on n’a probablement saisi ni la subtilité ni la teneur en 2015 ?

La capture et le stockage du carbone indispensable ?

L’adoption d’un objectif de stabilisation des températures appelait mécaniquement – c’est une contrainte physique imposée par la dynamique de la chimie atmosphérique – celui de zéro émission nette, c’est-à-dire un équilibre entre les émissions anthropiques par les sources et les absorptions anthropiques par les puits de gaz à effet de serre.

C’est par l’angle d’efforts de décarbonation colossaux que cet objectif de neutralité carbone a été introduit à l’article 4 de l’accord. Mais, insidieusement, il avait ouvert une brèche : pour faire tenir cette impossible balance entre un objectif aussi ambitieux et des « contributions nationales » aussi insuffisantes, la condition impérative était de retirer massivement du CO2 de l’atmosphère.

Et pour cela de recourir à des technologies comme la capture et le stockage du carbone. Cela n’a pas été crié sur les toits de Paris, mais sans le recours à des solutions technologiques, et en particulier à la capture du carbone, les ambitions de l’accord de Paris étaient absolument inatteignables.

Une nouvelle vague d’investissements

Les premiers investissements dans la transition énergétique et les technologies bas carbone sont déjà anciens. Mais ils ne sont manifestes que depuis le début de la décennie 2000 et n’ont enfin décollé qu’à la suite de la COP21 de Paris.

Ils ont été multipliés par 15 entre 2004 et 2020, pour s’élever à 755 milliards de dollars en 2021, soit un peu plus de 648 milliards d’euros, dont au moins la moitié en Asie. Ils ont ensuite grimpé à 1 100 milliards de dollars (859 millions d’euros) en 2022, avec la Chine premier investisseur pour 546 milliards de dollars (469,4 milliards d’euros), contre 141 milliards de dollars (121,2 milliards d’euros) pour les États-Unis. En 2024, ces investissements atteignaient 2 000 milliards de dollars (1 718 milliards d’euros).

Ces investissements, qui portent ce que nous nommons « capitalisme climatique », ont été largement mobilisés par la Conférence de Paris.

Comme l’écrit l’économiste Jean Pisani-Ferry :

« Les engagements de réduction des émissions ont ensuite atteint une crédibilité suffisante pour qu’une fraction significative des entreprises mondiales investisse dans la construction d’une économie décarbonée. S’est ainsi engagée une guerre entre un capitalisme “brun” et un nouveau capitalisme “vert”, qui parie sur le développement de technologies propres. »

Le capitalisme climatique chinois fait la course en tête

Par capitalisme climatique, nous entendons la reconfiguration des structures productives – technologies, institutions, comportements – qui inscrirait le changement climatique comme une dimension nouvelle de la production de valeur et de l’accumulation du capital, c’est-à-dire de la recherche de profit et de l’investissement.

Aujourd’hui, le capitalisme climatique chinois, alors que la Chine est le premier pays émetteur de gaz à effet de serre et le premier pays consommateur mondial de charbon, fait la course en tête pour la décarbonation et la transition écologique.

La stratégie chinoise a positionné la décarbonation industrielle comme une puissante arme géoéconomique. C’est manifeste pour la puissance installée en renouvelables, les marchés des terres rares, des panneaux photovoltaïques, des batteries, celui des véhicules électriques, mais aussi pour les dépôts de brevet sur les énergies propres et, depuis peu, l’installation et le marché des batteries géantes de stockage de l’électricité, parties pour rebattre les cartes de la transition énergétique.

Dès la fin de la décennie 2000, la Chine s’était lancée dans la diminution de la pollution atmosphérique (alors de grande ampleur), se proposant d’édifier une « société écologique », avec l’apparition des tout premiers deux-roues et bus électriques dans de grandes villes.

Dans les années précédant l’accord de Paris, elle a pensé et construit l’un des plus déterminants de ses plans de développement, officialisé au printemps 2015 sous le nom de plan « Made in China 2025 ». L’optique annoncée était de devenir un leader industriel, notamment dans le secteur des véhicules électriques et de l’énergie propre. Dix ans plus tard, ce plan s’affirme comme une réussite.

Le capitalisme climatique, qui est porté par la Chine et qui dame le pion au pétro-État que sont les États-Unis, se renforce et se sera certainement consolidé à l’horizon 2050.

The Conversation

Michel Damian ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.03.2026 à 16:18

Face à la crise climatique, l’éducation active peut-elle transformer les institutions ?

Michela Arciero, Associate research scientist, Università di Cassino e del Lazio Meridionale

Nicolas Champollion, Chargé de recherche en glaciologie, co-developpeur de l'atelier Ma Terre en 180 Minutes, Centre national de la recherche scientifique (CNRS)

Nicolas Gratiot, Deputy director IGE, Institut de recherche pour le développement (IRD)

Simon Persico, Professeur des Universités en science politique, Université Grenoble Alpes (UGA)

L’éducation active propose un changement de perspective&nbsp;: ne plus seulement sensibiliser aux enjeux climatiques, mais mettre les participants en situation de délibérer et de décider collectivement.
Texte intégral (3054 mots)
En donnant à voir immédiatement le résultat du scénario de réduction d’émissions envisagé, le numérique est une aide précieuse pour les participantes et participants. Fournis par les auteurs, CC BY

Sensibiliser ne suffit pas à changer les pratiques collectives. En plaçant les personnes participantes en situation de décider concrètement des trajectoires climatiques de leur institution, l’éducation active ouvre la voie à une transformation plus profonde, où apprentissage et gouvernance se rejoignent.


Depuis quelques années, les dispositifs de formation et de sensibilisation aux enjeux de transition socioécologique se multiplient : ateliers participatifs, jeux sérieux, fresques, conférences interactives. Jamais la prise de conscience n’a été aussi accessible sur de nombreux enjeux, du changement climatique à la crise du logement, en passant par la biodiversité ou l’organisation du travail. Pourtant, un malaise s’installe.

Plusieurs études récentes montrent que, si la sensibilisation éveille et motive, elle ne transforme pas forcément durablement les pratiques collectives. S’agissant des enjeux climatiques, l’accent mis sur les « petits gestes » individuels peut même se révéler contre-productif, en individualisant la responsabilité et en occultant le rôle des organisations sociales, économiques et institutionnelles.

Résultat : face à l’ampleur de la crise climatique, le sentiment d’impuissance domine souvent. Sentiment légitime, puisque même dans le cas d’un scénario « héroïque », où une famille adopterait toutes les actions possibles pour réduire ses émissions « carbonées » (alimentation, transport, énergie domestique), la diminution globale de son empreinte resterait limitée à 30–40 %. Mais une voie alternative existe : diffuser largement les principes de l’éducation active pour guider les décisions des institutions.

L’éducation active : passer de l’individuel au collectif

Comment l’éducation peut-elle aller au-delà de la sensibilisation individuelle pour devenir un levier de transformation collective et institutionnelle ? Il ne s’agit plus seulement d’informer sur la gravité du problème ou les solutions pour le résoudre, mais de construire une prise de conscience collective et de stimuler le « faire ensemble » en mettant le public en situation de faire des choix collectifs. De plus, l’éducation active s’appuie sur des dispositifs délibératifs qui revisitent les cadres dans lesquels les choix sont débattus et rendus possibles, en tenant compte du public, de son expérience et du temps disponible (par exemple les conventions citoyennes). Ces dispositifs délibératifs reposent sur trois principes clés :

D’abord, permettre la contextualisation des données : les ordres de grandeur et les informations utilisées sont directement liés au collectif concerné et deviennent ainsi un objet concret, ancré dans des pratiques réelles et des contraintes institutionnelles.

Ensuite, offrir un cadre délibératif structuré. Celui-ci s’appuie souvent sur des dispositifs pédagogiques stimulants, tels que la mise en situation par jeu de rôle ou l’exploration de scénarios. Les choix sont alors abordés comme des hypothèses collectives, et non comme des positions individuelles à défendre. Répétés dans le temps et intégrés à des trajectoires institutionnelles, ces dispositifs permettent de suivre l’évolution des arbitrages collectifs, des priorités et des compromis ; bien au-delà d’un événement de sensibilisation sans lendemain.

Enfin, ancrer la démarche dans un cadre décisionnel réel. Les résultats de ces expériences doivent être conçus comme des engagements concrets, destinés à guider et à contraindre les choix futurs des institutions impliquées. Ces dispositifs sont ainsi efficaces car ils rapprochent apprentissage, délibération et gouvernance, en constituant une des étapes d’un cycle de décision. L’éducation active devient alors une composante à part entière des processus de décision collective, et non un simple outil d’enseignement descendant ou de communication.

Quand l’institution entre dans le jeu

C’est pour explorer cette voie que Sciences Po Grenoble-UGA a expérimenté à grande échelle l’usage du dispositif participatif Ma Terre, qui s’appuie sur une interface graphique ergonomique, immersive et modulable, pour favoriser la prise de décision collective autour de choix concrets pour la transition socioécologique et visualiser en temps réel et de manière dynamique, les effets des scénarios. Le 20 octobre 2025, le MaTerrathon a réuni près de 300 participantes et participants – étudiantes, étudiants, personnels, animatrices et animateurs – à Sciences Po Grenoble-UGA.

Interface Ma Terre (adaptée à Sciences Po Grenoble-UGA), phase de négociation autour des « empreintes carbone » des personnages. La surface de chaque jeton est proportionnelle à l’empreinte carbone. La couleur et le logo du jeton décrivent son porteur et l’activité, respectivement. Les jetons donnant lieu à des alternatives sont reportés à droite. Fourni par les auteurs, CC BY

Le MaTerrathon a pris la forme d’un jeu de rôle participatif, fondé sur des ordres de grandeur et des données issues du bilan carbone propre à l’établissement. Les personnes participantes ont été réparties en 36 groupes de 6 à 8 personnages fictifs, mais réalistes, représentatifs de la diversité des genres, des âges et des fonctions dans l’Institut – une étudiante, un enseignant-chercheur, un agent administratif ou encore une directrice de recherche. Cela a permis de délibérer sur un pied d’égalité, chaque décision étant discutée comme une hypothèse collective : il s’agissait d’identifier des priorités concrètes d’action et de comprendre les compromis nécessaires pour réduire l’empreinte carbone. L’objectif était clair : accélérer la contribution concrète de Sciences Po Grenoble-UGA au projet bas carbone de l’Université Grenoble Alpes, avec une cible affichée de réduction de 40 % des émissions de gaz à effet de serre d’ici 2030.

L’animation en binôme a été confiée à des élèves, des personnels de l’établissement et du collectif Ma Terre. La participation de toute la promotion de troisième année a été rendue obligatoire, afin que chacun et chacune prennent part aux choix stratégiques de l’institution avec une volonté explicite : ne pas dissocier celles et ceux qui prennent les décisions de celles et ceux qui vivent au quotidien les environnements concernés.

MaTerrathon : quelques résultats

Les ateliers se sont déroulés sur une matinée, et une restitution des premiers résultats l’après-midi. Cette restitution rapide a rendu possible un débat collectif, permettant d’analyser ensemble, à chaud et de manière objective, les résultats numériques obtenus.

En tenant compte de l’objectif clé de réduire de 40 % l’empreinte carbone de l’établissement, la distribution des résultats des ateliers est très encourageante. Concrètement, 16 tables sur 36, soit environ 45 % du total, ont atteint ou dépassé cet objectif. Fait intéressant, de nombreux résultats se regroupent autour de cette valeur cible : près de la moitié des tables se situent dans une fourchette de 35 à 45 % de réduction (médiane de réduction de toutes les tables d’environ 39 %). Cela montre que l’objectif de 40 % n’est pas une cible isolée, mais bien atteignable pour une part significative des participantes et participants.

Intention de réduction de l’empreinte carbone exprimée pour les 36 ateliers du MaTerrathon, la cible indiquée par la direction de l’établissement était de 40 %. Fourni par les auteurs, CC BY

Cette distribution laisse également apparaître une variabilité naturelle entre les différents groupes de travail. Elle montre que l’atteinte de l’objectif n’est pas un coup de chance ponctuel, et est le fruit de multiples discussions dont la nature, le déroulé et les résultats sont différents construisant une dynamique collective cohérente. Enfin, les réductions observées dans différents secteurs ne sont pas le fruit du hasard : la restauration, les transports, le secteur de l’énergie et des achats ont enregistré les baisses les plus importantes en pourcentage, allant de 38 à 52 %.

Au-delà des réductions, une originalité marquante du dispositif Ma Terre consiste à produire un indicateur indirect de l’acceptabilité des mesures, en qualifiant leur spontanéité et leur popularité. En créant un cadre à la fois structuré et ludique, le MaTerrathon a favorisé l’expression des désaccords tout en limitant la polarisation. Il a rendu visibles les contraintes et les marges de manœuvre des différentes catégories d’usagers et de personnel, ainsi que celles de l’institution dans son ensemble, et a permis en définitive de qualifier l’acceptabilité du plan d’action collectif construit.

Estimation de l’acceptabilité des mesures et quantification (par la surface) de leur potentiel en termes de réduction de l’empreinte carbone. Fourni par les auteurs, Fourni par l'auteur

Cette expérience transformationnelle illustre comment un dispositif d’éducation active peut devenir une véritable mini-convention citoyenne, combinant formation, participation et décision collective, intégrant bases scientifiques, principes éducatifs et mécanismes institutionnels. Cette approche renforce la cohésion et le sentiment d’appartenance.

Il est cependant crucial de garder à l’esprit que ces chiffres reflètent des intentions de changement, qui pourront, ou pas, se transformer en actions concrètes à réaliser. Un écart peut persister entre l’intention et la mise en œuvre effective, rendant essentiels le suivi des engagements et l’évaluation du dispositif pour transformer ces ambitions en résultats tangibles.

Changer d’échelle, sans perdre le sens

Le projet ne s’arrête pas à l’université alpine. L’ENS-Lyon et d’autres ont aussi expérimenté ce dispositif délibératif dans l’enseignement supérieur. Une version intitulée « Ma Terre en classe » a été adaptée pour les élèves de collège et de lycée et des déploiements s’initient à l’échelle européenne au travers de projets transfrontaliers Erasmus+ (CitEuropass, EU Voices et EFEU).

Pour les scolaires, il s’agit de donner la parole aux générations de demain afin qu’elles comprennent, dès le plus jeune âge, l’impact de leurs choix et adoptent un mode de vie durable. Les jeunes expérimentent concrètement que leur voix compte et qu’ils peuvent agir sur l’avenir. Ces dispositifs s’inscrivent dans les recommandations du rapport Jouzel-Abbadie, qui souligne l’importance de former tôt à l’action collective, à la coopération et aux enjeux de la transition écologique. Pour l’Europe, il s’agit de se confronter à la diversité des langues et des cultures.

Pas une solution clé en main

Les expériences d’éducation active – qu’elles prennent la forme d’ateliers en milieu scolaire (Ma Terre en classe), de mini-conventions citoyennes dans l’enseignement supérieur (Ma Terre en 180 minutes, MaTerrathon), ou de projets de coopération européenne – n’offrent pas de solutions clé en main à la transition socioécologique. Elles invitent cependant à repenser le rôle de l’éducation comme un espace où se construisent des diagnostics partagés, des arbitrages discutés et des décisions prises dans un contexte clair et fondées sur des données pertinentes. En ce sens, l’éducation active apparaît comme une composante à part entière des transformations démocratiques requises par et pour la transition socioécologique, et offre la possibilité d’une évolution des normes sociales.


Cet article s’appuie tout particulièrement sur le travail de Jean Adam, chargé de mission transformation écologique, Sciences Po Grenoble-UGA et ENSAG-UGA, membre actif du comité d’organisation du MaTerrathon.

The Conversation

Nicolas Champollion a reçu des financements pour la recherche, à partir du Programme d'Investissement d'Avenir France 2030, au travers de PEPRs, et des tutelles CNRS, IRD, UGA, INRAE, Sciences-Po Grenoble-UGA. Ces soutiens permettent l'élaboration et la diffusion des ateliers Ma Terre en 180 minutes et Ma Terre en classe (suite Ma Terre). Nicolas Champollion appartient au Groupement de Recherche Labos 1point5 et est membre du comité scientifique d'ABC, l'association pour la transition bas-carbone.

Nicolas Gratiot a reçu des financements pour la recherche, à partir du Programme d'Investissement d'Avenir France 2030, au travers de PEPRs, et des tutelles CNRS, IRD, UGA, INRAE, Sciences-Po Grenoble-UGA. Ces soutiens permettent l'élaboration et la diffusion des ateliers Ma Terre en 180 minutes et Ma Terre en classe (suite Ma Terre). Nicolas Gratiot appartient au Groupement de Recherche Labos1point5 et est membre du comité scientifique d'ABC, l'association pour la transition bas-carbone.

Simon Persico est Directeur de Sciences Po Grenoble - UGA et membre du conseil de surveillance de la Fondation de l'écologie politique.

Michela Arciero ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.03.2026 à 16:17

Comment la Chine développe « l’économie de basse altitude »

Fabien M. Gargam, Associate Professor of Management, Renmin University of China et Chercheur Associé, Université Paris-Saclay

Située en dessous de 3&nbsp;000&nbsp;mètres d’altitude en Chine, l’«&nbsp;économie de basse altitude&nbsp;» représente une industrie stratégique pour l’empire du Milieu. Quels sont les enjeux de ce nouveau secteur d’activité&nbsp;?
Texte intégral (2279 mots)

Située en dessous de 3 000 mètres d’altitude en Chine, l’« économie de basse altitude » représente une industrie stratégique pour l’empire du Milieu. Drones, véhicules volants, aéronefs électriques à décollage et atterrissage verticaux, ou eVTOL, les nouveaux appareils sont légion. Comment la définir et expliquer son développement si soudain ?


En janvier 2025, l’entreprise chinoise DJI dévoile la série Matrice 4, la première gamme de drones intégrant une puissance de calcul IA ouverte. En mars 2025, l’eVTOL EH216-S de l’entreprise EHang devient le premier véhicule aérien sans pilote avec passagers à obtenir les quatre certificats – type, navigabilité, production, exploitation. Ces deux réalisations historiques s’inscrivent dans l’économie de basse altitude.

Ce concept fut proposé en 2009 par le professeur associé Weimin Li de l’Université de l’aviation civile de Chine, une période où le pays était confronté à des défis persistants au niveau de l’aviation générale.

En décembre 2023, l’économie de basse altitude est désignée comme une industrie émergente stratégique lors de la Conférence centrale sur le travail économique. En décembre 2025, la Commission nationale du développement et de la réforme chinoise la définit comme « un modèle économique global axé sur les activités aériennes à basse altitude qui stimulent l’innovation industrielle et les applications concrètes ».

Comment expliquer son développement ? Les avis divergent sur la question.

Cet article s’appuie sur deux concepts, l’avantage au premier entrant et l’avantage au dernier entrant, créés par les gestionnaires Marvin Lieberman et David Montgomery en 1988, pour caractériser le bond en avant de l’économie de basse altitude. Notre étude liée à ce sujet est en cours de publication en mandarin.

Marché de 432 milliards d’euros d’ici 2035

En janvier 2025, Zhiyong Song, directeur de l’Administration de l’aviation civile chinoise, déclare que l’économie de basse altitude est sur le point de saisir une opportunité stratégique similaire au « dépassement », observé dans le secteur des véhicules à énergie nouvelle.

Le développement de ce modèle économique global combine de manière innovante l’avantage au premier entrant et l’avantage au dernier entrant. Il présente une double caractéristique : réaliser des percées dans des secteurs émergents et combler les lacunes de l’aviation générale. Sa chaîne de valeur l’expose clairement. Aujourd’hui, le marché chinois de l’économie de basse altitude a dépassé les 500 milliards de yuans (62 milliards d’euros). Selon les projections, il atteindra les 1 000 milliards de yuans (124 milliards d’euros) d’ici 2026 et les 3 500 milliards de yuans d’ici 2035 (432 milliards d’euros).

Les puissances aéronautiques traditionnelles n’ont pas d’équivalent direct à l’économie de basse altitude, puisqu’elles possèdent déjà un marché mature de l’aviation générale. De ce fait, les États-Unis poursuivent l’initiative Advanced Air Mobility et l’Union européenne se concentre sur l’initiative Innovative Air Mobility pour améliorer les systèmes de transport et moderniser les technologies associées.

Avantage au premier entrant : rôle de moteur

La Chine mobilise l’avantage au premier entrant comme un moteur pour permettre à son économie de basse altitude un dépassement en changeant de voie. Ce concept découle de trois dimensions : (1) la domination technologique, (2) l’acquisition précoce d’actifs essentiels et (3) les coûts de transfert pour les clients.

Domination technologique

La Chine s’est assurée l’initiative en matière de brevets grâce à des percées en recherche et développement (R&D) qui tirent parti de la réutilisation intersectorielle. Si l’on prend l’exemple des véhicules volants, environ 85 % de leur chaîne industrielle est liée aux véhicules électriques dits « intelligents ».

Les entreprises de véhicules à énergie nouvelle, telles que BYD et CATL, utilisent les plateformes d’électrification éprouvées pour adapter les technologies des trois systèmes électriques et les chaînes d’approvisionnement de l’automobile aux aéronefs à basse altitude.

L’équipe du professeur Xiaobo Qu de l’Université Tsinghua estime que l’exploitation des chaînes d’approvisionnement automobiles pourrait faire baisser le coût des véhicules volants électriques de plusieurs millions à 200 000 yuans, soit 24 700 euros.

L’entreprise chinoise DJI est le leader mondial des drones. HUArtandPhotography/Shutterstock

Acquisition précoce d’actifs essentiels

La Chine a été le premier pays à investir massivement dans ce nouveau secteur d’activité. Avec un territoire de 9,6 millions de kilomètres carrés, le potentiel économique de son espace aérien à basse altitude est immense.

La base de fabrication de voitures volantes de Xpeng Aridge à Guangzhou est la première usine moderne au monde à intégrer les normes de fabrication aéronautique et les capacités de production automobile de masse. Spécialisée dans le développement d’un Land Aircraft Carrier modulaire, elle vise une capacité de production annuelle de 10 000 unités et prévoit des livraisons à grande échelle d’ici 2026.

Coûts de transfert pour les clients

La Chine a mis l’accent sur la fidélisation des utilisateurs et la création de nouveaux marchés. Par exemple, elle a consolidé sa position de premier marché mondial des drones grand public en 2024, avec un chiffre d’affaires de 1,51 milliard de dollars états-uniens. L’entreprise DJI détient régulièrement 70 à 85 % des parts du marché mondial des drones grand public, tout en dépassant 50 % des parts de marché dans les applications industrielles telles que l’agriculture, la topographie et la sécurité.


À lire aussi : Le bond en avant de l’industrie automobile chinoise de 1953 à nos jours


Cette domination remonte à 2006 lorsqu’elle a tiré parti de la base de fabrication électronique de pointe du Guangdong pour être la pionnière de l’adoption civile et de la commercialisation à l’étranger des drones de photographie aérienne.

Avantage au dernier entrant : rôle d’assise

La Chine mobilise l’avantage au dernier entrant comme une assise pour permettre à son économie de basse altitude un dépassement en changeant de voie. Ce concept découle de quatre dimensions : (1) la capacité de profiter des investissements réalisés par les acteurs en place, (2) la résolution de l’incertitude, (3) les opportunités émanant des discontinuités technologiques et (4) l’inertie des acteurs en place.

Profiter des investissements réalisés par les acteurs en place

La Chine s’aligne sur les normes de navigabilité de la Federal Aviation Administration (États-Unis), tout en se référant à des cadres réglementaires internationaux faisant autorité, afin de diminuer les coûts liés aux essais et de réduire les barrières réglementaires.

L’acquisition par l’entreprise Aviation Industry Corporation of China (AVIC), spécialisée dans la construction aéronautique, d’entreprises états-uniennes telles que Cirrus, réputée pour son système de parachute balistique CAPS, accélère le développement et le renouvellement des équipements aéronautiques nationaux.


À lire aussi : Comac : la menace chinoise pour Airbus et Boeing


Résolution de l’incertitude

La Chine a contourné les coûts initiaux et les goulets d’étranglement déjà rencontrés par les États-Unis dans le secteur des drones. Ainsi, elle est parvenue à une pénétration commerciale progressive en tirant parti notamment de la taille de son marché domestique et des avantages offerts par les réseaux de communication tels que la 5G et la 5G-A. En 2025, la Chine établit deux records mondiaux dans la catégorie des feux d’artifice tirés par des drones.

Opportunités émanant des discontinuités technologiques

La Chine possède la chaîne d’approvisionnement en batteries électriques la plus complète et la plus sophistiquée au monde. En novembre 2024, l’aéronef électrique EH216-S de EHang réalise le premier essai en vol au monde d’une batterie à l’état solide pour les eVTOL.

Inertie des acteurs en place

La Chine a publié les premières normes réglementaires de navigabilité pour les systèmes aériens sans pilote avec passagers. L’Administration de l’aviation civile a mis en place une procédure simplifiée pour accompagner les demandes simultanées de certificat de type et de certificat de production.

En revanche, pour obtenir ces deux certificats, la Federal Aviation Administration et l’Agence de l’Union européenne pour la sécurité aérienne exigent un protocole séquentiel, ce qui rend la démarche plus lente. En outre, le JAS4-1 de l’entreprise Joby a soumis sa demande de certificat de type à la Federal Aviation Administration en 2018 et se trouve encore aujourd’hui aux dernières étapes du processus de certification.


Cet article a été corédigé par Yuzhen Xie (écrivaine et conférencière), diplômée de Renmin University of China.

The Conversation

Fabien M. Gargam ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.03.2026 à 16:15

Les enfants illégitimes dans « House of the Dragon » à l'aune du médiévalisme

Mauréna Benteboula, Doctorante en histoire médiévale, Université de Lille

Dans «&nbsp;House of the Dragon&nbsp;», la bâtardise structure la société des royaumes de Westeros et en renouvelle les codes médiévaux.
Texte intégral (2412 mots)

Alors que la promotion de la troisième saison de House of the Dragon, annoncée pour 2026, s’impose progressivement dans le paysage médiatique, les premières images divulguées réaffirment le choix esthétique fondamental qui caractérise la saga : l’inscription résolue dans un imaginaire « médiévalisant ».


House of the Dragon, adaptation du roman Feu et Sang de George R. R. Martin, est le premier prequel de la série Game of Thrones sortie en 2011. Armures polies, châteaux vertigineux, alliances dynastiques fragiles et guerres de succession s’y combinent pour donner forme à un Moyen Âge de fiction, immédiatement reconnaissable mais profondément retravaillé. Dans cet univers où la référence médiévale sert moins de modèle que de réservoir symbolique, la bâtardise occupe une place particulièrement féconde.

En filigrane des pages de Feu et Sang comme dans la série, les bâtards apparaissent, disparaissent, réapparaissent, au point de constituer un réseau latent, une cartographie discrète de l’illégitimité qui structure la société westerienne. Loin d’être un simple motif pittoresque, la bâtardise devient un outil privilégié pour interroger la manière dont George R. R. Martin réélabore les codes politiques, juridiques et sociaux de la fin du Moyen Âge afin d’en tirer une matière narrative adaptée aux sensibilités contemporaines.

La bâtardise comme catégorie hybride

Dans l’Europe médiévale, la bâtardise n’est pas une condition univoque. Elle ne renvoie ni à un statut juridique homogène ni à une expérience sociale uniforme. Selon les contextes politiques, les stratégies des lignages et les cadres normatifs, l’enfant né hors mariage peut être marginalisé, toléré, intégré, voire instrumentalisé. La bâtardise constitue ainsi une catégorie souple, située à l’intersection du droit, de la morale et des pratiques sociales, dont la signification varie selon les milieux et les époques.

Feu et Sang, écrit sous la forme d’une chronique, pastiche brillamment les textes tardo-médiévaux, comme la chronique d’Olivier de La Marche (v.1425-1502) par exemple, tout en le simplifiant. Le narrateur du roman (et de la série), l’archimestre Gyldayn, dissémine dans son récit des mentions de bâtards issus de lignages variés, de seigneurs comme de servantes, et les projette dans des temporalités longues. Ce procédé fabrique une continuité pseudo-historique où la répétition des naissances illégitimes devient un fil rouge permettant de penser les logiques du pouvoir, les hiérarchies implicites et les mécanismes d’exclusion qui cimentent la société.

Mais Martin opère une transformation fondamentale : là où les documents médiévaux associaient l’épithète de « bâtard » à un individu précis (Antoine de Bourgogne dit « le Grand Bâtard de Bourgogne », v. 1430-1504, ou encore Jean bâtard de Bourbon, comte de Velay, v. 1413-1485) l’auteur systématise la dimension onomastique (liée aux noms propres). Les enfants illégitimes se voient attribuer des noms hérités non de leurs mères mais des régions dont sont issus leurs pères : Snow pour le Nord, Rivers pour le Conflans, Hill pour l’Ouest, et ainsi de suite.

Cette territorialisation ancre la bâtardise dans une logique patrilinéaire immédiatement lisible, en assignant aux enfants naturels un patronyme régional qui signale d’emblée leur naissance hors mariage. Toutefois, cette lisibilité demeure parfois trouble, car le nom désigne moins une filiation précise qu’une absence de filiation reconnue.

Alys Rivers en constitue l’emblème. Sorcière à la figure trouble, son nom, plus qu’une simple indication géographique, matérialise une identité fracturée. Née d’un père mal identifié, probablement un Fort, elle incarne la figure même de la marginalité.

Alys Rivers (interprétée par Gayle Rankin) dans la saison 2 de House of the Dragon (2024). HBO

Les femmes, principales victimes du fait bâtard

Si les hommes bâtards de Westeros peuvent, selon les circonstances, être intégrés, reconnus ou tolérés, la situation des femmes et des enfants nés d’elles révèle un tout autre régime de marginalisation. Dans Feu et Sang, les bâtards dont les mères sont des nobles sont fréquemment dissimulés, masqués par des assignations fictives de paternité lorsque l’épouse est mariée, ou abandonnés si elle ne l’est pas.

Ce traitement littéraire trouve un écho puissant dans les sociétés médiévales, où le corps féminin constitue un lieu de contrôle et de suspicion. La figure fictive de Rhaenyra Targaryen en est une démonstration éclatante. Officiellement mère de trois fils Velaryon, elle devient l’objet d’une campagne de délégitimation qui mobilise l’imaginaire sexuel comme arme politique : on attaque sa moralité, la vraisemblance de ses maternités et, par ricochet, son droit à gouverner. Elle devient « la mère des bâtards » (Jacaerys, Lucerys et Joffrey) ou « la putain de Peyredragon ».

Le parallèle historique avec Isabeau de Bavière (v. 1370-1435), dont la fidélité fut publiquement mise en cause durant les crises de folie de Charles VI (1380-1422), éclaire ce traitement. Comme Rhaenyra, Isabeau vit son rôle politique attaqué par des accusations visant la légitimité de ses enfants, en particulier le futur Charles VII (1422-1461). Son image de mauvaise reine trouve ses racines dans la campagne de propagande genrée construite par ses opposants politiques en pleine guerre civile. On tente de fragiliser son pouvoir en lui imputant des aventures, notamment avec Louis d’Orléans, propre frère du roi…

Christine de Pizan offrant la Cité des dames à Isabeau de Bavière, miniature, vers 1410-1414, Londres, British Library, Harley 4431. British Library

De même, le scandale de la tour de Nesle (1314) rappelle à quel point inouï de violence l’adultère féminin, perçu comme menace dynastique, était puni au Moyen Âge.

Martin s’inspire de ces imaginaires, mais les réordonne : ainsi, lorsque Lady Coryanne tombe enceinte d’un garçon d’écurie, c’est l’amant qui fait l’objet d’un châtiment exemplaire. On peut ici faire le parallèle avec l’adultère de Marguerite de Bourgogne (v. 1290-1315), belle fille du roi de France Philippe IV (1285-1314), qui mourut en prison. Son amant a connu les tourments de la torture – la roue, le plomb brûlant, l’émasculation – et de la décapitation. Le garçon d’écurie qui séduit la lady fictive est lui aussi émasculé, mais il a la vie sauve et il est conduit au Mur – une gigantesque muraille de glace et de pierre qui, dans la fiction, sépare le royaume des Sept Couronnes des terres glacées et sauvages situées au-delà. Mais contrairement à Marguerite, Lady Coryanne n’avait pas attenté à la majesté royale.

Westeros présente une version atténuée, mais non dépourvue de dureté, des rapports médiévaux entre genre, sexualité et pouvoir. Les bâtards issus des femmes de l’aristocratie demeurent malgré tout des figures d’ombre, rarement nommés, souvent oubliés du récit. Les enfants de la princesse Saera Targaryen (princesse déchue et prostituée) n’apparaissent qu’en marge et Hugh Marteau, son fils, refuse explicitement d’adopter un nom de bâtard pour échapper à l’héritage infamant de sa mère. Cette invisibilisation, qu’elle soit volontaire ou systémique, inscrit la bâtardise féminine dans une dynamique d’identité d’entre deux, où ces femmes se trouvent à la fois à l’écart des catégories sociales établies et sans place claire dans la hiérarchie.

La bâtardise comme outil d’émotion historique

La puissance de Feu et Sang ne réside pas tant dans sa fidélité aux réalités médiévales que dans sa capacité à créer une illusion d’authenticité. La bâtardise y devient un marqueur narratif doublement opératoire : elle signale immédiatement la coloration médiévale de l’univers tout en étant remodelée pour répondre aux attentes d’un public contemporain, sensible aux questions d’identité, de reconnaissance et de justice. La diabolisation des bâtards par le personnage d’Alicent Hightower, qui va jusqu’à faire du « sang de bâtard » un argument de déshumanisation, traduit moins les mentalités du XVᵉ siècle que nos propres inquiétudes face au stigmate et à l’altérité.

En cela, Martin s’écarte de la réalité historique. À la fin du Moyen Âge, les bâtards princiers, qu’ils soient légitimés ou non, jouent parfois des rôles majeurs : ce fut le cas de Jean de Dunois (1403-1468), dit le bâtard d’Orléans, héros de la guerre de Cent Ans, ou de César Borgia (1475-1507), dont l’ascension politique fut fulgurante. Dans Westeros, rares sont ceux qui atteignent la même stature. Orys Baratheon, un étranger, fait figure d’exception tandis que la majorité demeure cantonnée aux marges du pouvoir, témoignant du choix narratif de privilégier l’exclusion comme horizon dramatique.

Cette recomposition est au cœur du médiévalisme martinien. Feu et Sang ne cherche pas à reproduire le Moyen Âge mais à le réinventer comme espace d’intensification émotionnelle. Un lieu où la filiation devient enjeu existentiel, où la marge produit du tragique, où la bâtardise, loin d’être un simple statut, condense les tensions entre appartenance et altérité. Par ce prisme, Martin parle moins du passé que du présent : de nos obsessions pour les origines, de nos interrogations sur les frontières de l’identité, de nos propres dispositifs d’exclusion.

L’illégitimité y fonctionne comme un miroir, le miroir des sociétés médiévales, dont elle retient certains codes, et le miroir de notre temps, dont elle absorbe les sensibilités.

The Conversation

Mauréna Benteboula ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.03.2026 à 11:55

Tsunami en Méditerranée : pourquoi Nice doit se préparer à évacuer

Frédéric Leone, Professeur des Universités, Géographe des risques et des catastrophes "naturelles", Volcanographe, Cartographe, Université Paul Valéry – Montpellier III

Tsunami en Méditerranée&nbsp;: le risque existe aussi sur les côtes françaises. À Nice, la préparation et l’évacuation rapide restent les seules protections efficaces.
Texte intégral (3793 mots)
Selon l’Unesco, citée en 2022, «&nbsp;la probabilité d’une vague de tsunami de plus d’un&nbsp;mètre en Méditerranée dans les trente&nbsp;prochaines années est proche de 100&nbsp;%&nbsp;». Arno Smit/Unsplash, CC BY

La Méditerranée est souvent perçue comme peu exposée au risque de tsunami. Pourtant, l’histoire et les modélisations récentes montrent que des vagues destructrices ont déjà atteint les côtes françaises et pourraient le faire à nouveau. Les résultats d’un projet mené sur la Métropole Nice Côte d’Azur montrent pourquoi l’anticipation et l’évacuation préventive restent les seuls moyens réellement efficaces de protection.


Les tsunamis, anciennement dénommés raz-de-marées en France ou maremoti en Italie, sont parmi les phénomènes naturels les plus destructeurs. Déclenchés par des séismes, des glissements sous-marins ou des éruptions volcaniques, ils se propagent rapidement sur de longues distances avant de libérer leur énergie au voisinage des côtes, sous forme de submersions brutales et de courants extrêmement puissants.

De quelques centimètres à plusieurs mètres de hauteur, cette submersion se caractérise généralement par plusieurs trains d’ondes et les premières vagues ne sont pas forcément les plus grosses. La vitesse du courant est telle que la pression exercée sur les infrastructures littorales peut atteindre plusieurs tonnes au mètre carré.

À l’échelle mondiale, ils ont provoqué depuis 1970 plus de 250 000 décès, notamment lors des catastrophes du 26 décembre 2004 dans l’océan Indien et du 11 mars 2011 au Japon.

Un risque que l’on croit lointain, et pourtant…

Dans l’imaginaire collectif, le tsunami reste associé au Pacifique ou à l’océan Indien. En Méditerranée, il est souvent perçu comme marginal. Cette représentation est trompeuse. L’Unesco, en charge de la prévention de ce risque au niveau mondial, a déclaré en juin 2022 que :

« Les statistiques montrent que la probabilité d’une vague de tsunami de plus d’un mètre en Méditerranée dans les trente prochaines années est proche de 100 %. »

Après le Pacifique, c’est dans ce bassin que l’on recense le plus grand nombre de tsunamis historiques, dont plusieurs ont touché les côtes françaises.

Selon les données disponibles, une vingtaine d’événements ont été signalés sur le littoral méditerranéen français entre le XVIᵉ siècle et le début des années 2000, avec des hauteurs de vagues parfois supérieures à deux mètres.

Des délais d’évacuation parfois très courts

Les sources des tsunamis méditerranéens peuvent être locales ou lointaines. Dans certains scénarios, le temps d’arrivée des premières vagues peut être inférieur à dix minutes, notamment en cas de glissement sous-marin ou de séisme proche de la côte, comme en mer de Ligurie entre la Corse et les côtes italiennes. À l’inverse, des tsunamis générés plus loin de l’Hexagone, par exemple au niveau de la marge nord maghrébine, peuvent atteindre la côte d’Azur en moins de 90 minutes.

Le séisme de Boumerdès (Algérie) du 21 mai 2003 a ainsi provoqué des perturbations sur l’ensemble du littoral méditerranéen français. Une enquête de terrain a montré que huit ports de plaisance de la Côte d’Azur avaient connu des baisses importantes du niveau de la mer (de 50 cm à 1,5 m), des purges de bassins, de forts tourbillons et courants, des embarcations endommagées, compatibles avec des phénomènes de résonances portuaires. Les effets ont été observés sur le littoral azuréen une heure et quart après le séisme.

D’origine plus locale, le tsunami déclenché le 16 octobre 1979 par l’effondrement sous-marin d’une partie du chantier du nouveau port de commerce de Nice (Alpes-Maritimes), adjacent à l’aéroport, a causé la mort de huit personnes et des dégâts importants à Antibes, à Cannes et à Nice. Le phénomène a été observé à Antibes durant une trentaine de minutes.

Un autre scénario pouvant prendre naissance au plus proche des côtes est celui du tsunami d’origine sismique survenu en mer de Ligurie, le 23 février 1887, à la suite d’un séisme sous-marin de magnitude de 6,5 à 6,8. Les témoignages de l’époque relatent un retrait brutal de la mer d’environ un mètre à Antibes et Cannes, laissant à sec des bateaux de pêche, avant l’arrivée d’une vague atteignant près de deux mètres, venue recouvrir les plages.

Ces événements rappellent que l’effet de surprise peut être total, en particulier lorsque les délais sont très courts. Dans ces conditions, les dispositifs d’alerte classiques montrent leurs limites. La capacité des populations à évacuer rapidement devient alors déterminante.

Deux scénarios de tsunamis pouvant affecter les côtes méditerranéennes (rouge : séisme sous-marin proche de la côte algérienne, vert : glissement sous-marin en mer Ligure)
Deux scénarios de tsunami pouvant affecter les côtes méditerranéennes (rouge : séisme sous-marin proche de la côte algérienne ; vert : glissement sous-marin en mer de Ligurie). Sahal, Leone & Péroche, 2013, Fourni par l'auteur

Un système d’alerte opérationnel pour la France

Depuis juillet 2012, la France dispose d’un système national d’alerte aux tsunamis, opéré par le Centre d’alerte aux tsunamis (Cenalt), en lien avec le dispositif international coordonné par l’Unesco en Méditerranée. Ce système permet de détecter rapidement les séismes potentiellement tsunamigènes et de transmettre une alerte en moins de quinze minutes auprès du centre opérationnel de gestion interministérielle des crises (Cogic), et des centres d’alerte étrangers.

C’est ensuite à la charge des autorités de diffuser les messages d’alerte aux populations, en particulier au moyen de la plateforme FR-Alert qui permet d’envoyer des notifications sur les téléphones portables des personnes présentes dans la zone de danger.

Toutefois, ce dispositif global ne couvre que les tsunamis d’origine sismique lointaine et reste peu efficace face aux tsunamis locaux ou liés à des glissements sous-marins, pour lesquels le temps d’arrivée du tsunami sur les côtes peut être inférieur au délai d’alerte. C’est la raison pour laquelle il est important de sensibiliser les populations riveraines à la détection des signes précurseurs : le séisme ressenti, les mouvements anormaux de la mer, le plus souvent un retrait précédant l’arrivée du tsunami, mais pas toujours.

Nice Côte d’Azur : un territoire très exposé

Sur l’ensemble des côtes méditerranéennes françaises, une zone terrestre à évacuer a été définie par les services de l’État et l’Université de Montpellier Paul-Valéry, en croisant altitude, distance à la mer et données historiques. Elle correspond à la portion littorale dont l’altitude est inférieure à 5 mètres et dont la distance par rapport à la mer est inférieure à 200 mètres. Le long des entrées fluviales cette distance est étendue à 500 mètres par rapport à l’embouchure.

En incluant la Corse, cela concerne 1 700 km de côtes, 187 communes de Méditerranée française, et au moins 164 000 résidents. En pleine saison estivale il faut également considérer une estimation de près de 835 000 usagers des plages à évacuer en cas de tsunami.

Nombre de résidents estimés dans la zone à évacuer, pour chaque commune du littoral méditerranéen français
Nombre de résidents estimés dans la zone à évacuer, pour chaque commune du littoral méditerranéen français. Carles et coll., 2023, Fourni par l'auteur

La Métropole Nice Côte d’Azur concentre de nombreux facteurs de vulnérabilité : urbanisation dense, forte attractivité touristique, plages très fréquentées. Nos travaux de photo-interprétation et de modélisation ont permis d’estimer la présence simultanée de plusieurs dizaines de milliers de personnes dans la zone à évacuer lors des périodes de forte fréquentation (entre 10 000 et 87 000 personnes sur les plages, suivant la saison et l’heure).

Schéma de principe pour la définition de la zone à évacuer en cas de tsunami sur l’arc méditerranéen
Schéma de principe pour la définition de la zone à évacuer en cas de tsunami sur l’arc méditerranéen. MIIAM, 2019, Fourni par l'auteur

Évacuer avant le tsunami : le plan prévu pour la Métropole Nice Côte d’Azur

Face à un tsunami, l’évacuation est le seul moyen de protection efficace. L’expérience internationale montre que des évacuations rapides et bien préparées peuvent sauver l’immense majorité des populations exposées. Ces évacuations réactives ont, par exemple, permis de sauver 96 % des habitants du littoral japonais lors du grand tsunami de la côte du Tōhoku du 11 mars 2011.

À Nice Côte d’Azur, une stratégie globale d’évacuation a été élaborée avec l’appui de la recherche scientifique (Laboratoire de géographie et d’aménagement, Université de Montpellier Paul-Valéry). Elle repose sur des itinéraires pédestres optimisés, tenant compte des pentes, des obstacles, des vitesses de déplacement et des points de congestion. Des sites refuges situés hors de portée des vagues ont été identifiés et validés avec les autorités locales. Les itinéraires d’évacuation ont été modélisés au moyen d’algorithme de recherche des chemins les plus rapides.

Au total, près d’une centaine de sites refuges ont été cartographiés et intégrés dans des plans d’évacuation opérationnels, conçus pour guider les populations vers une mise en sécurité rapide.

Les tous premiers panneaux de prévention du risque tsunami posés à Nice le 27 février 2026
Les tout premiers panneaux de prévention du risque tsunami posés à Nice, le 27 février 2026. C. Thomin, MNCA, 2026, Fourni par l'auteur

De la science à l’action : préparer les populations

La prévention ne repose pas uniquement sur des cartes. Elle passe aussi par l’appropriation du risque par les populations. Des actions de sensibilisation, des exercices d’évacuation, notamment en milieu scolaire ainsi que le déploiement progressif d’une signalétique spécifique contribuent à ancrer les bons comportements. Plusieurs actions de ce type ont été réalisées à Nice avec le concours des étudiants de Montpellier.

À Nice, une plateforme d’information accessible au public avec des cartes interactives permet également de consulter les zones à évacuer, les itinéraires et les consignes à suivre en cas d’alerte. Ces outils contribuent au développement d’une véritable culture du risque tsunami.

Interface cartographique en ligne permettant de localiser la zone à évacuer, les sites refuges, et les itinéraires en cas de tsunami sur la Métropole Nice Côte d’Azur
Interface cartographique en ligne permettant de localiser la zone à évacuer, les sites refuges et les itinéraires en cas de tsunami sur le territoire de la Métropole Nice Côte d’Azur. LAGAM/UMPV, 2026, Fourni par l'auteur

Vers des territoires « Tsunami Ready »

Au-delà du cas azuréen, la méthode développée est transposable à d’autres littoraux français et européens, en Méditerranée comme en outre-mer, où les délais d’arrivée des tsunamis peuvent être tout aussi courts.

Ces démarches s’inscrivent dans l’objectif de reconnaissance internationale Tsunami Ready (territoires préparés aux tsunamis) porté par l’Unesco. Ce programme en 12 points vise à certifier les territoires capables d’anticiper le risque, de préparer leurs populations et d’organiser une réponse adaptée.

Les premières communes d’Europe dotées de ce label ont d’ailleurs bénéficié de l’accompagnement scientifique et technique de notre équipe. Il s’agit de Deshaies en Guadeloupe et de Cannes (Alpes-Maritimes), en attendant la reconnaissance toute prochaine de la Métropole Nice Côte d’Azur.

Face à une vague qui peut arriver en quelques minutes, être prêt à évacuer peut faire toute la différence.


Article écrit avec la collaboration de Louis Monnier, Monique Gherardi, Matthieu Péroche et Noé Carles, Université de Montpellier Paul-Valéry.

The Conversation

Frédéric Leone ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.03.2026 à 09:14

Artemis, Chang’e, Chandrayaan… en quoi la course à la Lune des années 2020 diffère de celle des années 1960

Alban Guyomarc'h, Doctorant en droit spatial et en droit international privé, Université Paris-Panthéon-Assas; École normale supérieure (ENS) – PSL

2026 a rendez-vous avec la Lune, et la Lune attend… Au-delà des retards traditionnels des lancements à hauts enjeux, l’actuelle course à la Lune témoigne de grands changements dans la conquête de l’espace.
Texte intégral (2447 mots)
Quelques-uns des lanceurs qui doivent propulser des sondes et des humains vers la Lune cette année ou la prochaine&nbsp;: SLS pour la Nasa, Longue Marche-5 de l’Agence spatiale chinoise (CNSA), LVM3 pour l’Agence spatiale indienne (ISRO). Nasa/ CNSA/ISRO

En 2026 est prévu un lancement très attendu – et déjà reporté plusieurs fois : celui d’Artemis-2, la deuxième mission du programme d’exploration lunaire Artemis, débuté en 2017 par la Nasa et ses partenaires. Fin 2026, c’est la Chine qui doit envoyer une mission robotisée au pôle Sud lunaire, Chang’e-7, tandis que l’Inde prépare l’alunissage de Chandrayaan-4 pour 2027.


Dans la mission Artemis-2, qui doit emmener quatre astronautes survoler notre satellite naturel avant de revenir sur Terre, tout semble baigner dans un parfum de guerre froide, comme un écho lointain du programme Apollo. La fusée SLS (pour Space Launch System), haute de cent mètres, rappelle la Saturn-5 qui propulsait autrefois les astronautes vers la Lune. La capsule Orion évoque le Command Module d’hier, panneaux solaires en plus. Même la rhétorique états-unienne réactive l’idée d’une nouvelle course lunaire : non plus contre l’URSS, mais face à l’autre hégémon du moment, la Chine. Et puis il y a la destination elle-même, la Lune, dont le sol s’apprête à être foulé de nouveau.

La pièce qui se joue devant nous paraît familière. Tout y a comme un air de déjà-vu. Pourtant derrière ce décor rétro se dessinent des lignes nouvelles. Si l’on adopte les perspectives des relations internationales et du droit, le programme Artemis permet d’illustrer deux évolutions majeures : l’émergence d’un axe de compétition Nord-Sud dans l’exploration lunaire et la disruption du cadre juridique applicable dans l’espace.

La nouvelle carte de l’exploration lunaire

Alors que la « conquête spatiale lunaire » des années 1960 ne comptait que deux superpuissances, l’URSS et les États-Unis, notre satellite naturel est aujourd’hui une destination prisée des programmes d’exploration, l’intérêt pour la Lune ayant crû au cours de la dernière décennie après un relatif désintérêt dans la période post-Apollo. Il faut prendre au sérieux cette internationalisation des ambitions d’exploration, et partant, savoir regarder les différents modèles d’exploration proposés ; tout en les rattachant à leur contexte culturel et géopolitique d’origine.

À partir de 2017, en réaction, notamment aux avancées spatiales chinoises dans les domaines de l’exploration, les États-Unis lancent progressivement le programme Artemis, visant à ramener des astronautes sur la Lune entre la fin des années 2020 et le début de la décennie 2030.

Annoncé en mars 2021, son pendant sino-russe, le programme ILRS (pour International Lunar Research Station) se propose des objectifs analogues, quoiqu’avec un calendrier différent. Il associe les compétences de deux puissances spatiales importantes que sont la Russie et la Chine. La première a déjà visé la Lune à l’été 2023 avec sa mission Luna 25 ; la seconde développe une série de missions lunaires Chang’e, depuis le début des années 2000, dont le septième opus, Chang’e-7, est une mission robotisée (et non habitée) qui doit décoller pour le pôle Sud lunaire fin 2026, avec un programme scientifique ambitieux.

Dans le sillage de ces deux programmes massifs que sont Artemis et l’ILRS, on trouve toute une série de missions plus modestes, optant pour une exploration robotisée de la surface de la Lune.

L’Inde, par exemple, poursuit ses lancements dans le cadre du programme Chandrayaan (Chandrayaan-3, a atteint le pôle Sud de la Lune en août 2023) et le pays ne cache pas ses ambitions dans le domaine du vol habité.

Parallèlement à ces projets, le Japon conduit une série de missions robotisées, dont certaines en coopération avec des start-up, et notamment ispace, une entreprise basée au Japon, aux États-Unis et au Luxembourg. Ce dernier se veut le fer-de-lance de la prospection de ressources spatiales à l’échelle européenne. L’Europe, via l’Agence spatiale européenne (ESA), développe, au-delà de ses coopérations avec la Nasa, une série de programmes lunaires futurs, et notamment l’atterrisseur lunaire Argonaut, pour début 2030.

Enfin, d’autres États se greffent à des missions lunaires existantes, c’est ainsi que la mission japonaise Hakuto-R1 embarquait en 2022 un rover émirati, Rashid ou que la mission chinoise Chang’e-6 a permis le placement en orbite lunaire du satellite pakistanais d’observation lunaire ICUBE-Q en 2024.

Les concepteurs des programmes Artemis et ILRS ont vu dans cette internationalisation des ambitions lunaires l’occasion de faire de la Lune un terrain de coopération ; ce qui constitue, là aussi, une nouveauté.

Les États-Unis coopèrent ainsi avec les États européens, notamment via l’ESA, avec le Japon ou encore avec le Canada. En face, la Chine et la Russie ont souhaité coopérer, selon des modalités qui demeurent floues, avec le Venezuela, l’Afrique du Sud, l’Azerbaïdjan, le Pakistan, la Biélorussie, l’Égypte, la Thaïlande, le Kazakhstan et le Sénégal. Si l’attention des chercheurs à l’égard d’Artemis est acquise, les travaux sur le réseau de coopération de l’ILRS sont encore assez rares.

In fine, cette carte de la coopération lunaire dit aussi beaucoup des évolutions de la géopolitique spatiale du siècle, qui ne tourne plus autour d’un axe Est-Ouest hérité de la guerre froide, mais autour d’un axe Nord global-Sud global – même s’il faut noter la participation d’États du Nord global à des missions lunaires chinoises, et notamment la participation du Cnes, l’agence spatiale française, à la mission Chang’e-6.

La disruption unilatérale du droit applicable

C’est encore dans le cadre du programme Artemis qu’il faut replacer deux innovations juridiques faisant de la Lune le terrain de ruptures majeures pour le droit de l’espace.

Ayant principalement pour objet la question de la propriété des ressources spatiales, ces ruptures sont venues troubler la relative stabilité du cadre constitué jusqu’alors par le traité de l’Espace de 1967, et dans une moindre mesure, par l’accord sur la Lune de 1979. Par l’article II du traité de l’Espace, l’espace extra-atmosphérique et notamment les corps célestes sont frappés d’un principe de non-appropriation ; tandis que dans l’article XI de l’accord sur la Lune, les ressources spatiales sont constituées en patrimoine commun de l’humanité.

Mais l’intérêt manifesté par quelques entreprises états-uniennes pour le sol lunaire et ce qu’il contiendrait d’exploitable (le conditionnel est vraiment de mise) a réveillé leur imaginaire juridique, ensuite relayé par le droit de la première puissance spatiale.

Ainsi, la première rupture date du Space Act de 2015, quand les États-Unis ont introduit en droit interne la possibilité de s’approprier légalement les ressources extraites dans l’espace. La proposition est pour le moins en délicatesse avec le droit international applicable, et notamment avec le principe de non-appropriation évoqué précédemment – ce que n’ont pas manqué de remarquer certains États aux Nations unies, dès 2016.

Néanmoins, elle a depuis fait florès, et on retrouve aujourd’hui des textes analogues en droit japonais, luxembourgeois ou encore émirati. Un groupe de travail spécifique fut même lancé aux Nations unies sur le sujet.

La seconde rupture juridique amorcée par les États-Unis concerne les accords Artemis, dont les sections 10 et 11 viennent consacrer, d’une part, la possibilité de s’approprier les ressources spatiales et, d’autre part, la possibilité de dessiner des zones de sécurité autour des installations lunaires. Là aussi, la conformité au droit de l’espace est a minima questionnable.

Mais c’est surtout la méthode employée qui interroge : les accords Artemis ne sont pas en soi un accord multilatéral concernant le droit applicable à l’exploration des corps célestes. Leur juridicité même est régulièrement questionnée. Par ailleurs, les États signataires des accords Artemis n’en ont pas négocié le contenu ; ils se sont contentés d’y adhérer, avec des contreparties variables. Néanmoins, grâce à ces signatures, l’initiative unilatérale de la première puissance spatiale mondiale prend des airs d’initiative internationale – et rend mainstream l’interprétation du droit applicable dans sa version états-unienne, ceci sachant que l’on compte aujourd’hui plus d’une cinquantaine d’États signataires des accords Artemis.

Ces deux ruptures juridiques d’origine états-unienne placent la nouvelle vague d’explorations lunaires sous l’égide d’un droit de l’espace en voie de renouvellement, tant dans son contenu que dans la fabrique de la norme spatiale. Les premières missions à toucher le sol lunaire auront donc un rôle majeur dans la définition du droit futur de l’exploration des corps célestes.

L’exploration lunaire rattrapée par les enjeux des années 2020

À côté des dynamiques nouvelles qui redessinent le paysage lunaire en ce début de siècle, d’autres facteurs rappellent combien celui-ci est aussi rattrapé par les contraintes au cœur des années 2020. Il est alors impossible de ne pas évoquer la question du coût environnemental et budgétaire de ces programmes.

Les grands programmes d’exploration ont toujours coûté cher : des 250 milliards de dollars du programme Apollo, on passe à une estimation basse du coût global du programme Artemis jusqu’à l’année 2025 de l’ordre de 93 milliards de dollars, soit plus de 78,6 milliards d’euros (un seul lancement Artemis est estimé à 4 milliards de dollars, plus de 3,3 milliards d’euros). Des montants tentaculaires comparés au budget spatial annuel français (2,5 milliards d’euros par an depuis plusieurs années) ou européen (l’ESA a voté un budget record d’environ 22 milliards d’euros pour trois ans).

D’ailleurs, la sécurisation budgétaire (et in fine politique) des programmes lunaires états-uniens a été un enjeu récurrent au cours de l’année 2025, les États-Unis finançant, puis dé-finançant, puis refinançant tout ou partie du programme lunaire, quitte à sabrer quelques-uns des domaines de coopération sur le sujet, notamment avec l’ESA.

Il faut aussi questionner la dimension écologique des programmes lunaires, quoique ce ne soit pas tellement une préoccupation états-unienne. Le lancement d’Artemis 2 intervient dans un monde marqué par l’intensification des effets du changement climatique. Cette concomitance interroge quant à l’adéquation de ces programmes à leur contexte environnemental et laisse aussi ouvert un autre chantier de réflexion, important à conduire, et notamment en Europe : qu’est-ce qu’une ambition lunaire correctement dimensionnée à notre époque, à la fois budgétairement et environnementalement ?

Car au-delà de la question classique et attendue de la priorisation des investissements, la question qui se pose est celle de la définition d’autres modèles d’exploration spatiale possibles – en ce sens, Artemis et l’ILRS ne fixent pas nécessairement le la de ce que devrait être une ambition lunaire en 2026.

The Conversation

Alban Guyomarc'h est membre du Groupe de travail "Objectif Lune" de l'Association Nationale de la Recherche et de la Technologie (ANRT), groupe de travail dont il coordonne les travaux. Dans le cadre de ses recherches, il est également membre du PEPR Origines de la vie, dans le cadre duquel il conduit ses recherches doctorales au Collège de France.

PDF

04.03.2026 à 09:14

Espace : après les drapeaux sur la Lune et une Tesla dans l’espace, une exploration postcoloniale est-elle possible ?

Jacques Arnould, Expert éthique, Centre national d’études spatiales (CNES)

L’exploration et la conquête spatiales reflètent-elles encore des doctrines colonialistes&nbsp;?
Texte intégral (2430 mots)
La Tesla Roadster d’Elon Musk, dans l’espace. Falcon Heavy Demo Mission/SpaceX

La galaxie d’Andromède, la planète Mars, les missions Apollo hier et Artémis aujourd’hui : avez-vous remarqué combien d’astres et de missions spatiales portent des noms de dieux romains ou grecs ? Certaines conceptions de la conquête spatiale reflètent des doctrines colonialistes. Comment les dépasser ?


Souvenez-vous : le 6 février 2018, Elon Musk a envoyé vers Mars sa propre Tesla, avec, à bord, un mannequin habillé d’une combinaison spatiale. Le message était clair : la colonisation de la planète rouge par le milliardaire américain avait commencé ! Certes, huit ans plus tard, les fusées de la société SpaceX n’ont pas encore atteint la surface de Mars et les projets de colonie restent à l’état de magnifiques images de synthèse ; pourtant, l’enthousiasme ne fléchit pas chez les aficionados de l’espace, et l’inquiétude chez bien d’autres : jamais nous n’avons été aussi près d’une colonisation de l’espace.

Pour la réaliser, bien des défis technologiques et humains restent à relever ; mais l’affaire est suffisamment sérieuse pour y appliquer une analyse et une critique sérieuses. Nous savons trop bien de quelle manière les humains ont colonisé notre Terre. Voulons-nous agir de même dans l’espace ?

Nous irons conquérir la Lune

Elon Musk n’est pas le premier à vouloir conquérir une planète. Ce projet a toujours été associé aux rêves et aux réalisations de voyage dans le ciel. N’en prenons que deux exemples, non dénués d’humour.

Le premier est une satire, issue d’un journal anglais, The Examiner. Le 3 janvier 1808, il prête à Napoléon des propos guerriers de conquête et de colonisation de l’espace :

« Alors je pourrai constituer une armée de ballons, dont Garnerin sera le général, et prendre possession de la Comète. Cela me permettra de conquérir le système solaire, ensuite j’irai avec mes armées dans les autres systèmes, enfin – je pense –, je rencontrerai le Diable. »

Le second exemple est sorti des archives des imageries d’Épinal : dans la forme d’un cerf-volant, un zouave grimpe hardiment une échelle appuyée sur la Lune. « Nous irons conquérir la Lune », claironne la légende ; au même moment où les frères d’armes du zouave sont engagés dans la colonisation de l’Afrique du Nord.

L’espace, une « terra nullius » à explorer, à envahir ?

Jusqu’à preuve du contraire, l’espace extra-atmosphérique présente une propriété assez rare sur notre planète : il est inhabité (je rappelle ici que les scientifiques n’ont pour l’instant aucune preuve de l’existence de la moindre forme de vie, de la moindre biosphère extraterrestre). En terme juridique, l’espace pourrait donc être considéré comme une terra nullius, selon l’expression latine qui désignait des terres « sans habitants » – à l’époque, il s’agissait plus précisément de dire « sans populations chrétiennes » – et, par suite, n’appartenant à personne.

Dans le passé, cette doctrine, validée par le pouvoir religieux, a justifié la prise de possession de ces territoires par les souverains (chrétiens) d’Europe ; et c’est une perspective que les inspirateurs du droit de l’espace et les législateurs spatiaux ont tenté d’écarter en proposant de déclarer les corps célestes patrimoine commun de l’humanité.

Ainsi, le traité de l’Espace, adopté par l’ONU en décembre 1966, a déclaré l’espace bien commun et a été signé par les grandes puissances de l’époque, États-Unis et Union soviétique en tête : l’espace appartient à tous ; son exploitation est possible… comme l’illustre la lucrative activité des satellites de communication.

vue d’artiste d’une colonie spatiale
Dans les années 1970, l’idée d’établir des colonies dans l’espace était en plein essor. Ici une vue d’artiste de champs à l’intérieur d’un vaisseau spatial. NASA Ames Research Center, CC BY

Toutefois, lorsque l’accord sur la Lune, proposée par l’ONU treize ans plus tard, propose de déclarer l’astre des nuits patrimoine commun de l’humanité et donc d’y interdire toute forme d’exploitation, les puissances spatiales refusent de le signer. Il n’est aujourd’hui ratifié que par 18 États dépourvus de grandes ambitions spatiales.

Devons-nous conclure que les puissances spatiales, établies ou en devenir, caressent des rêves de conquête et de colonisation ? La décision de l’administration Obama de l’hiver 2015 de soutenir et de préserver les initiatives de ses entreprises nationales en matière d’exploitation des ressources spatiales, suivie par des initiatives analogues de la part des gouvernements du Luxembourg, des Émirats arabes unis et du Japon, pourrait faire penser à la politique des comptoirs lancée par les puissances européennes à partir du XVᵉ siècle. Les défis technologiques à relever sont aussi importants que les débats juridiques et politiques à résoudre.

Quant à l’immense vide spatial et, notamment, le domaine des orbites autour de la Terre : ce territoire était incontestablement inhabité jusqu’à l’arrivée du premier Spoutnik, puis du premier cosmonaute. Toutefois, il possède à son tour une caractéristique singulière, celle d’être impérativement à usage commun, du simple fait de la mécanique céleste : tout corps y est en mouvement et n’occupe un point de l’espace que très brièvement. Le seul mode possible d’appropriation relève de la saturation, autrement dit d’une occupation par le nombre : fin 2025, entre 50 et 65 % des satellites en orbite autour de la Terre appartenaient à un seul opérateur, SpaceX.

S’il est inapproprié de parler d’une « colonisation des orbites circumterrestres », il est à craindre que les règles et les lois qui gouvernent l’usage de cet espace soient celles du plus fort, du plus nombreux, du premier arrivé.

Pouvons-nous décoloniser le passé spatial ?

Que pouvons-nous conclure ici ? Qu’à formellement parler la colonisation de l’espace lui-même n’a pas encore commencé et que, par voie de conséquence, l’enjeu actuel et à venir constitue moins à décoloniser l’espace qu’à en empêcher la colonisation future.

En revanche, force est de constater que l’esprit des 70 premières années de l’entreprise spatiale a bien été imprégné par certains traits communs aux politiques, aux récits, aux symboles de la colonisation. À l’époque des missions Apollo, n’était-il pas question de « conquête de l’espace », plutôt que de son exploration ? Si planter un drapeau sur le sol lunaire n’a jamais été interprété comme une volonté d’appropriation, le geste a tout de même été effectué pour affirmer la supériorité technique des États-Unis et, donc, une forme de suprématie politique.

Aussi symbolique quoique moins violente est l’habitude de baptiser les astres et leurs topographies en s’inspirant des mythologies et de l’histoire de l’Occident. Entamer la décolonisation de l’espace peut alors consister à recourir désormais à d’autres mythologies pour baptiser les corps célestes que découvrent les astronomes. Baptiser Oumuamua, en hawaïen « l’éclaireur », l’objet interstellaire repéré le 19 octobre 2017 en est une illustration.

Que dire dès lors des revendications émises par plusieurs peuples amérindiens lors de missions lunaires, qu’il s’agisse de celles des années 1960 ou celle plus récente menée début 2024 par la société états-unienne Astrobotic ? Pour ces populations, la Lune appartient au domaine du sacré : y poser des vaisseaux robotiques, habités ou transportant les cendres de Terriens, n’est-ce pas accomplir un sacrilège, autrement dit une forme extrême de colonisation ?

Vers un futur postcolonial

Les raisons ne manquent donc pas de porter dans les affaires spatiales le souci de décolonisation qui marque aujourd’hui de nombreux discours à propos de l’espace, quitte à y inclure l’apport des ingénieurs allemands (éventuellement nazis) dans le développement spatial de pays, comme les États-Unis et la France, ou encore la politique menée par la France sur le territoire guyanais afin d’y implanter la base spatiale de Kourou, qui succéderait en 1968 à celle d’Hammaguir après l’indépendance de l’Algérie.

Ce souci est indispensable ; mais il n’est pas suffisant.

Le processus de décolonisation doit conduire à une perspective postcoloniale, autrement dit à l’instauration de politiques, de gouvernances des activités humaines dans l’espace qui soient autant que possible débarrassées des principaux caractères néfastes de la colonisation : la soumission violente et l’exploitation brutale d’une partie de l’humanité par une autre, l’exploitation jusqu’au saccage de ressources communes, la destruction de cultures et de traditions ancestrales, etc.

Dans cette perspective, les discours, les revendications et les programmes spatiaux de certains acteurs du NewSpace (les stations spatiales de Jeff Bezos, les colonies martiennes d’Elon Musk) peuvent susciter bien des soucis, bien des craintes, tant ils mettent en avant les seuls intérêts de ces entrepreneurs, les seuls plaisirs ou la seule sécurité de quelques privilégiés.

De plus, l’argument de l’espèce humaine interplanétaire est loin d’être moralement convaincant. Où est-il « écrit » que nous devions nous répandre au-delà des frontières terrestres, au détriment de possibles biosphères extraterrestres ? À quel « échantillon » humain pourrions-nous confier le soin des expansions extraterrestres ? Ou, pour le dire autrement, quelle partie de l’humanité serait « laissée » sur une Terre dont nous savons l’avenir menacé ?

N’oublions pas pour autant les récits d’hier et d’aujourd’hui qui décrivent des communautés humaines installées durablement dans l’espace. Non pour alimenter les rêves de paradis retrouvé, comme ceux imaginés par le gourou du NewSpace que fut Gerard O’Neill, mais pour mener le travail critique imaginé par Thomas More dans son célèbre ouvrage, l’Utopie.

Publié dans sa version finale en 1518, ce petit ouvrage, « non moins salutaire qu’agréable » selon les mots mêmes de son auteur, invitait ses premiers lecteurs à partir pour une cité totalement imaginaire, un non-lieu aussi bien qu’un non-temps, qui servait de miroir pour porter un regard critique sur leur propre société. Le philosophe britannique ne cherchait ni à rompre brutalement les liens avec un passé ni à s’échapper dans un futur idéalisé, mais avant tout à remettre l’être humain au centre du souci commun, à lui construire un futur à la mesure de sa condition, celle éprouvée dans le passé et dans le présent, celle pensée et espérée pour le futur.

The Conversation

Jacques Arnould ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.03.2026 à 09:06

Is legal uncertainty softly killing remote-work innovation?

Kseniya Navazhylava, Associate Professor, Audencia

Flex work is proving a nightmare for HR managers in France. A new study carried out in Kazakhstan offers insight for negotiating the grey areas of “telework” legislation.
Texte intégral (1483 mots)

As France debates the “end of the golden age of remote work”, both workers and employers face growing confusion: are today’s working from home practices really compatible with emerging work habits in in the public and private employment sectors — and more importantly, with the law?

New research suggests that legal uncertainty does not empower HR managers to innovate. Instead, it pushes them to take on extra responsibilities that weren’t in their job description.

Could unclear regulations be the “silent killer” of innovation in remote-work strategies? Recent research carried out in Kazakhstan’s technical-gas industry during the healthcare crisis offers an unexpected insight from Central Asia that might shed light on the situation in France. Although far removed from the French context, the case study offers some universal common ground: when regulations lag behind reality, remote-work policies become fragile, inconsistent, and difficult to innovate.

A climate of doubt – on both sides of the employment relationship

Recent articles in The Conversation highlighted the questions that have dominated public debate since early 2024, when several major tech firms in the US publicly rolled back their remote work policies. In Europe, Danish firm [Novo Nordisk] ended remote jobs after massive layoffs, while in France, workers went on strike to protest over reduced remote work]. The result: a widespread sense of uncertainty.

Employers wonder whether remote work truly maintains productivity, and whether offering it to some workers (for example, administrative staff) but not others (such as plant workers) creates new inequalities.

In the meantime, employees are unsure about how they are monitored, how much data is collected, and whether remote work places them at greater risk of job loss.

France, grappling with these tensions, can learn from countries where legal uncertainty has long shaped HR decisions. During the Covid-19 crisis, Kazakhstan faced a similar fog surrounding unclear rules and shifting expectations around remote work — and the lessons are telling.

Improvised solutions and the limits of ‘empowerment’

In this climate of uncertainty, companies often resort to improvised and sometimes intrusive practices. Some managers judge employee performance through teams’ connection status. Others rely on constant connectivity, webcam checks, or software tracking mouse or keyboard movements. And many fall back on “management by objectives,” asking employees to retroactively justify their work.

Training exists to help managers navigate these new modes of work but it is often described as superficial, sometimes delivered by people who do not remote work themselves.

In these moments of ambiguity, a familiar concept resurfaces: empowerment. The assumption is that frontline workers “know best”, and should therefore make autonomous decisions. While autonomy can indeed boost productivity and satisfaction, it also brings risks: blurred work–life boundaries, difficulty disconnecting, and increased stress. More importantly, the rhetoric of empowerment may hide a deeper issue: it shifts responsibility downward, asking employees and HR teams to fill the gaps left by insufficient or outdated regulations.

When unclear laws block innovation

This is where the Kazakhstan study I conducted with my fellow researcher Meruyert Ibraimova offers crucial takeaways. Our research shows that when labour law is vague or overly rigid, as may currently be the case in France, companies struggle to modernise their HR practices, especially during crises.

Unclear employment regulation has several consequences:

1) It slows innovation, precisely when organisations need agility.

2) It pushes HR teams into defensive decision-making, focused on avoiding legal mistakes rather than rethinking work.

3) It can even force professionals to take legal risks, stretching or bypassing norms simply to keep operations running.

For example, our research demonstrates how during Kazakhstan’s healthcare crisis, the absence of clear rules on employee presence forced HR managers to improvise. With no legal guidance on who could work remotely and who had to remain on-site, some plant workers were required to ensure the production of oxygen and other gases, while blue-collar employees stayed at home. These decisions disrupted principles of workplace equity and put the organisation at risk legally but were made to enable employees to maintain life-saving activities. Similarly, the managers had to make executive decisions on whether oxygen would be exported to long-term strategic clients, or local hospitals. Instead of empowering HR managers, these examples show how they are obliged to take on responsibilities and absorb the burden of inadequate laws, thus bearing risks that should be shared or eliminated through clearer regulation.

France at a crossroads

While today’s debates often lament the “lack of innovation” in remote-work practices, the obstacle may not lie in managerial creativity or employee willingness. The real bottleneck may be legal uncertainty itself.

If France wants to move past improvised monitoring systems, inconsistent rules, and growing mistrust, it must address the underlying issue: its remote work regulation is out of sync with the realities of digital working practices. Despite that, examples of innovative remote-friendly working approaches exist. WeProov, one of Europe’s leading app-based providers of digital vehicle inspection solutions, attracts unique talent by enabling employees to work from anywhere in the world ,and invests in trimestrial team-building sessions to support group cohesion.

In Japan, Microsoft’s Work Life Choice Challenge rethought how work was organised and measured, from 4-day working weeks without decreasing the pay to data-driven measurement of productivity rather than presence in the workplace.

Without a clearer framework, companies will continue to experiment in isolation, workers will remain unsure of their rights, and HR teams will bear disproportionate responsibility. As a result, “innovation,” the kind that makes remote work sustainable, equitable, and productive, will remain dangerously out of reach.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Kseniya Navazhylava ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

03.03.2026 à 16:57

Arrowhead points found in Central Asia could prove the presence of ‘Homo sapiens’ 80,000 years ago

Hugues Plisson, archéologue spécialisé en tracéologie (reconstitution de la fonction des outils préhistoriques par l'analyse de leurs usures), Université de Bordeaux

Andrey I. Krivoshapkin, Permanent researcher at Institute of Archaeology & Ethnography, Russian Academy of Sciences

Tiny triangular-shaped flints from arrowheads found in Uzbekistan shed light on how the first settlement of ‘Homo sapiens’ – our modern human ancestors – came to Europe.
Texte intégral (3813 mots)
Obi-Rakhmat rock shelter in Uzbekistan, micro-point hafting and main game hunted around the site 80,000 years ago. Artwork courtest of Malvina Baumann, CC BY

Unretouched triangular microlithic projectile points have been identified from their impact traces in the oldest occupation layers of the Obi-Rakhmat site in Uzbekistan, dating to 80,000 years ago. Their size corresponds to small arrowheads, which are directly comparable to those produced by Homo sapiens during an incursion into Neanderthal territory in the Rhône Valley, 25,000 years later. This new study, published in PLOS One journal, provides a strong argument that could rewrite history on Homo sapiens‘ first settlement in Europe.

The chrono-cultural and anthropological frameworks of prehistory, along with the evolutionary models they inspired, were first created in Western Europe, especially France, in the second half of the 19th century. They were initially linear and Eurocentric: Cro-Magnons (European early modern humans), descending from Neanderthals, laid the foundations for the civilisational superiority claimed by this part of the world at the time. It was not until a century later that the African origin of Homo sapiens, as well as the technological and social features that characterised the Western Upper Palaeolithic (symbolic productions, long-distance networks, and diversified lithic and bone tools and weapons), were recognised.

The earliest evidence of Homo sapiens in Australia, dating back around 65,000 years, predates that found in Europe by 10 millennia, while the ways in which our ancestors initially colonised Western Eurasia over 45,000 years ago remain contentious. The temporal alignment of the earliest European Upper Palaeolithic settlements with those in the Levant, which are considered the closest in terms of typology and technology, is still not satisfactory. This is either because the Levantine data comes from old excavations or because it does not fit into the supposed direct lineage. Despite its geographical proximity to Africa, the origins of the Initial Upper Palaeolithic in the Levant are themselves uncertain. This is why the possibility of a Central Asian origin suggested by archaeologist Ludovic Slimak in 2023 deserves attention.

A site in Central Asia

View from the Obi-Rakhmat rock shelter on the end of the Tien Shan. Hugues Plisson. Fourni par l'auteur

Depending on climatic conditions, Central Asia has served as a corridor facilitating movement between the western and eastern parts of the continent or as a refuge zone. The archaeological record in this region is limited but includes several significant Palaeolithic sites.

Among them is the Obi-Rakhmat rock shelter in Uzbekistan, discovered in 1962, whose latest excavation campaigns were led by Andrei Krivoshapkin. At the south-western end of the Talassky Alatau range of the Tien Shan mountains, at an altitude of 1,250 metres, the settlement provides a remarkably consistent lithic industry, comprising points, large blades, and bladelets across a stratigraphic sequence spanning over 10 metres, dating from approximately 80,000 to 40,000 years ago. This industry was initially classified as part of the Initial Upper Palaeolithic but it appears to derive from the Levantine Early Middle Palaeolithic. The early Middle Palaeolithic, associated with archaic Homo sapiens at the Misliya cave, disappeared from the Near East around 100,000 years ago. At Obi-Rakhmat, the skull remains of a child found in a layer dating back ~70,000 years show features considered to be Neanderthal and others to be anatomically modern, a combination that could be the result of hybridisation.

Massive blades but microlithic points

Elements of lithic industry from layer 21 at Obi-Rakhmat: unretouched blades (1-2), large retouched blade (3), pointed retouched blades (4-5), impacted retouched points (6-8), unretouched Levallois micro-point (9), unretouched impacted micro-points (10-11). Hugues Plisson. Fourni par l'auteur

In this context, our international multidisciplinary team has identified tiny, unretouched, triangular projectile points within the lithic debris of the oldest stratigraphic layers. These points were distinguished based on their macroscopic and microscopic impact marks, which were compared to experimental reference data. Due to their small size (less than 2 cm in width and weighing only a few grams) and brittleness, they would have been unsuitable for mounting on heavy shafts. The width of their cutting edges corresponds to the diameter of arrow shafts documented ethnographically for low-poundage bows, consistent with transcultural invariants rooted in physical and ballistic constraints.

Two unretouched micro-points recovered from layer 21 of Obi-Rakhmat. One is intact, while the other is broken and shows scratches resulting from use as a projectile head. The matchstick illustrates their small size. Fourni par l'auteur

A question of ballistics

Thrown piercing weapons are complex systems whose components are not interchangeable from one type of weapon to another, as they meet different requirements in terms of intensity and nature of stress.

The significant impact force of spears held or thrown by hand makes the robustness of the weapon an essential parameter, both in terms of effectiveness and the hunter’s survival, with mass ensuring robustness, impact force and penetration. In contrast, the penetration of light projectiles shot from a long distance depends on their sharpness, because their kinetic energy, which is much lower, comes mainly from their speed, which, unlike mass, decreases very rapidly along the trajectory and in the target. As this speed cannot be achieved by the extension of the human arm alone, it necessarily depends on the use of a throwing instrument. Arrowheads and spearheads or javelin heads are therefore not designed according to the same criteria and cannot be mounted on the same shafts, the dimensions and degree of elasticity of which are also essential in terms of ballistics. Thus, as in palaeontology, where the shape of a tooth reveals the type of diet and suggests the mode of locomotion, the characteristics of a point provide clues as to the type of weapon of which it is the wounding element.

Weaponry specific to ‘Sapiens’?

The tiny size of Obi-Rakhmat’s points cannot be regarded as a default choice, not only because there is no shortage of good-quality lithic raw material on site from which large blades were made, but microscopic examination of traces of use also shows that within this same assemblage there are also much more robust retouched points (15 to 20 times heavier and 3 to 4 times thicker), similarly impacted by use as axial projectile points (the size of spearheads or javelin heads).

Returning to the bibliography and our own work on Middle Palaeolithic tools, we found that the presence in the same assemblage of various types of projectile points and inserts, some of which were microlithic and produced for this purpose, is only known at Homo sapiens sites. The oldest documented occurrences are in South Africa in the Pre-Still Bay (more than 77,000 years old) and later cultural layers of the Sibudu cave. In contrast, lithic points damaged by use as projectile heads are rare in the Neanderthal record. When present, they tend to be large and do not notably differ in size, manufacture or type from points used for activities other than hunting, such as gathering plants or butchery. This difference in the design of tools and weapons takes on anthropological significance.

Levallois points from the Um El Tlel site in Syria, from the Late Middle Palaeolithic period in the Levant attributed to Neanderthals. From left to right: graphic reconstruction based on a fragment found embedded in a donkey vertebra, plant knife blade, butcher knife blade. These multipurpose points are 2 to 3 times wider than the micro-points from Obi-Rakhmat. Hugues Plisson. Fourni par l'auteur

Given their respective dates, the distance between South Africa and Central Asia (14,000 km) and the difference in the manufacture of the Obi-Rakhmat and Sibudu weapon heads (unretouched knapped stone points vs. shaped stone points or retouched inserts, shaped bone points), the hypothesis of independent centres of invention is the most likely.

From the foothills of the Tien Shan to the Rhône Valley 25,000 years later

The micro-points from Obi-Rakhmat have no known equivalents in the Eurasian Middle Palaeolithic, except for identical projectile points identified by Traceology expert Laure Metz at the Mandrin site, in the Rhône Valley, France, in a layer dating to approximately 54,000 years ago – some ten thousand years before the disappearance of local Neanderthals. Notably, a Homo sapiens milk tooth was also recovered from this layer. The similarity between the micro-points from Obi-Rakhmat and Mandrin, despite being separated by more than 6,000 km and 25 millennia, is such that they could be interchanged without any detail other than the stone betraying the substitution.

Morphological and functional similarity between the micro-points of Obi-Rakhmat and Mandrin, broken by their use as projectile head. The location and extent of their fracture (highlighted in red and blue and macroscopic detail) are indicative of axial impact. Hugues Plisson. Fourni par l'auteur

Recent work published by paleogeneticists Leonardo Vallini and Stéphane Mazières defines the Persian Plateau, on the north-eastern edge of which Obi-Rakhmat is located, as a population hub where the ancestors of all present-day non-Africans lived between the early phases of expansion out of Africa – long before the Upper Palaeolithic – and the wider colonisation of Eurasia. This resource-rich environment may have provided a refuge conducive to demographic regeneration after the genetic bottleneck of the exit from Africa, interaction between groups and, consequently, technical innovations.

On either side of the Persian plateau (orange box), genetically identified as a refuge area for the concentration and demographic development of first Homo sapiens who left Africa, Obi-Rakhmat and Mandrin share the same micro-projectile points, 25,000 years and 6,000 km apart. Hugues Plisson. Fourni par l'auteur

Obi-Rakhmat and Mandrin may represent two geographical and temporal milestones within the same process of dispersal, as suggested by Ludovic Slimak, characterised by the dissemination of a key technological innovation unique to Homo sapiens. So far unnoticed because they are unretouched, tiny and fragmentary, it is likely that the micro-projectile points for which recognition criteria have now been defined will begin to appear at sites between Central Asia and the western Mediterranean.

Premises for a new scenario of the western peopling by ‘Homo sapiens’

This discovery is stimulating in several ways.

It validates the consistency of the research conducted at the Mandrin site, which came to the conclusion that Sapiens armed with bows made a brief incursion into Neanderthal territory. Several elements of this study had been criticised, which is, however, normal in science when a new proposal deviates too far from established knowledge – but its predictive dimension had not been considered at the time.

The similarity between Mandrin and Obi-Rakhmat’s micro-points cannot be a mere coincidence. It is not only their shape that is similar, but also the way they are made, which requires real expertise, as evidenced by the meticulous preparation of their striking platform and their function. One could debate the appropriate instrument for shooting arrows armed with such tiny tips, the bow being in filigree, or whether it is preferable to remain cautious and speak only of shooting, but this already contrasts with what we know about Neanderthal hunting weapons and their design.

Another remarkable aspect, which is still relatively uncommon, is the convergence and complementarity of data from material culture and from our genetic memory, which did not influence each other given the dates of the respective studies and publications. Together, they sketch out a rewriting of the scenario of Homo sapiens’ arrival in Europe: it was thought that he came directly from Africa by the shortest route 45,000 years ago, but we now discover that he had been established in the heart of the Eurasian continent for a long time, well before expanding in search of more territories.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

03.03.2026 à 16:57

Manipuler le climat à grande échelle ? Les questions qui se posent à la recherche publique

Éric Guilyardi, Directeur de recherche au CNRS, Laboratoire d’océanographie et du climat, LOCEAN, Institut Pierre-Simon Laplace, Sorbonne Université

Christine Noiville, Juriste, directeur de recherche CNRS, Institut des Sciences Juridique et Philosophique de la Sorbonne, Université Paris 1 Panthéon-Sorbonne

La recherche publique a un rôle capital à jouer pour éviter que les connaissances produites le soient essentiellement par des acteurs qui auraient intérêt à mettre en avant des données qui leur seraient favorables.
Texte intégral (1968 mots)
La géo-ingénierie solaire comprend des méthodes de dispersion d’aérosols dans l’atmosphère pour limiter l’arrivée à la surface de la Terre des rayons du soleil. Yohanes Dwi Arianto/Unsplash , CC BY

Certaines interventions visant à éviter les effets du réchauffement climatique génèrent des risques très importants, tout particulièrement la « modification du rayonnement solaire ». La recherche publique a un rôle capital à jouer pour éviter que les connaissances produites le soient essentiellement par des acteurs qui auraient intérêt à mettre en avant des données qui leur seraient favorables.


Face à l’intensification des effets du changement climatique, l’idée de limiter ce phénomène en manipulant volontairement le climat a surgi. Différentes interventions d’« ingénierie climatique » sont évoquées. Parmi elles notamment la géo-ingénierie solaire pour modifier l’arrivée des rayons du soleil à la surface de la Terre ; la géo-ingénierie polaire pour protéger la banquise de la fonte, par exemple en y cultivant de la neige ; la fertilisation de l’océan, en y injectant du fer pour activer la pompe biologique ; ou bien le blanchiment des nuages pour qu’ils réfléchissent les rayons solaires vers l’espace.

Ces propositions ont des efficacités et des risques très différents ; mais la géo-ingénierie par la modification du rayonnement solaire présente des risques collectifs à grande échelle (réchauffement brutal, modifications locales du climat…) et soulève des questions éthiques.

Quelle est la responsabilité des scientifiques lorsque de tels risques sont susceptibles d’être attachés à leurs recherches ? Dans un domaine désormais investi par divers États et acteurs privés désireux de multiplier les expérimentations dans un avenir proche, voire les déploiements à plus lointaine échéance, nous pensons que la recherche publique a un rôle capital à jouer : objectiver les questions en jeu, documenter des impacts potentiels, opérer un suivi de déploiements éventuels, éclairer correctement le public et les décideurs, éviter que les connaissances produites le soient essentiellement par des acteurs qui auraient intérêt à mettre en avant des données qui leur seraient favorables… comme cela a déjà été le cas dans l’histoire.

Qu’est-ce que la modification du rayonnement solaire et quels sont les risques associés ?

Les techniques de géo-ingénierie solaire consistent à vouloir limiter les effets de l’énergie du soleil qui arrive sur Terre, et sont présentées comme un outil possible pour atténuer les effets du réchauffement.

Parmi elles, la modification du rayonnement solaire (MRS) est aujourd’hui l’une des plus débattues et divise les communautés scientifiques. Elle consiste à injecter des particules, par exemple des aérosols soufrés, dans la stratosphère pour renvoyer vers l’espace une partie du rayonnement du soleil. Soutenue par un nombre croissant d’acteurs publics et privés (scientifiques, philanthropes, entreprises, États), elle comporte toutefois de nombreux risques.

Il est en effet établi qu’elle est susceptible d’entraîner une déstabilisation du climat local de régions entières, des écosystèmes et du cycle de l’eau (par exemple, en modifiant la mousson asiatique), ce qui pose des questions de justice et donc de gouvernance internationale.

En outre, l’arrêt des injections pourrait produire un effet rebond (ou « choc terminal »), c’est-à-dire un réchauffement brutal de la Terre dont les impacts pourraient être bien plus délétères que le réchauffement graduel en cours.

Il faut aussi envisager les potentielles utilisations stratégiques, voire malveillantes de la MRS – par exemple, un pays qui tenterait de réduire les précipitations sur le territoire d’un adversaire –, plus que jamais envisageables dans un monde fragmenté au plan géopolitique.

Des projets de recherches, des expérimentations et des déploiements en cours

Ces oppositions sont loin d’être purement théoriques. Aux États-Unis, des scientifiques, soutenus par leurs institutions, souvent des universités privées financées par des fonds publics autant que privés, se sont ainsi lancés dans de telles recherches, sans cadre légal, éthique ni soutien du public. C’est par exemple le cas du Harvard Solar Geoengineering Research Program qui explore différentes facettes des enjeux liés (connaissances scientifiques, enjeux sociaux et politiques), sans, pour l’instant, tenter d’expérience à grande échelle dans l’atmosphère.

Au Royaume-Uni, l’agence ARIA (qui, sur le modèle de la Defense Advanced Research Projects Agency, ou DARPA, aux États-Unis, a pour mission de soutenir des recherches « disruptives ») a décidé de promouvoir ces sujets et lancé des appels d’offres sur les « points de bascule » et la géo-ingénierie en 2024. Une partie de la communauté scientifique s’est vue acculée à réfléchir dans l’urgence aux enjeux éthiques.

En France, la communauté scientifique débat de la question de savoir s’il faut ou non donner suite ou non à la proposition de l’industriel F. Paulsen et d’autres mécènes de financer des recherches en géo-ingénierie polaire, notamment pour étendre ou épaissir la banquise.

La recherche publique doit objectiver les questions en jeu

Ces essais soulèvent d’épineuses questions pour la recherche publique. Lors des auditions que nous avons menées pour rédiger l’avis du comité d’éthique du CNRS (Comets) sur cette question, certains scientifiques ont fait valoir le principe de liberté de la recherche, mais aussi la « neutralité » de cette dernière : les chercheurs produisent des connaissances nouvelles qui seraient en elles-mêmes « neutres » ; aux politiques de choisir de mobiliser ces connaissances pour mettre en œuvre, ou pas, la modification du rayonnement solaire.

D’autres chercheurs affirment à l’inverse qu’il n’est pas responsable d’exposer les populations et l’environnement aux risques graves liés à de telles recherches. Ils font observer que la recherche en elle-même n’est pas neutre, car ses enjeux concernent la société, même si elle produit des connaissances fiables, c’est-à-dire robustes et utiles. Ils pointent notamment les impacts d’expériences dangereuses, mais aussi le risque que la recherche sur la modification du rayonnement solaire ne freine les efforts de réduction des émissions de gaz à effet de serre en nourrissant l’illusion d’un remède rapide, permettant à certains acteurs « d’acheter du temps », sans régler pour autant l’origine du problème.

Pour d’autres chercheurs enfin, il relève au contraire de la responsabilité de la recherche publique de répondre aux enjeux majeurs de notre époque, dont la lutte contre le changement climatique, y compris en empruntant des voies ou des méthodes à risques.

Au-delà de ces débats, dans un domaine désormais investi par divers acteurs désireux de multiplier les expérimentations voire les déploiements, même « contrôlés et de petite échelle », la recherche publique à la responsabilité d’objectiver les questions en jeu de façon interdisciplinaire, d’éclairer correctement le public et les décideurs, afin d’éviter que les connaissances produites le soient essentiellement par des acteurs qui auraient intérêt à mettre en avant des données qui leur seraient favorables. Ceci a déjà été le cas dans l’histoire, par exemple le financement, par l’industrie du tabac, de recherches sur d’autres sources du cancer du poumon.

Les scientifiques doivent de plus être attentifs à l’influence des financements privés de la géo-ingénierie solaire, dont les motivations peuvent correspondre moins à l’intérêt général qu’à des intérêts particuliers. Ensuite, veiller aux termes et concepts qu’ils utilisent qui peuvent être instrumentalisés dans des récits motivant le besoin « urgent » de solutions technologiques au changement climatique. À ce titre, les récits autour de potentiels « points de bascule globaux » du climat, qui engendreraient des changements brutaux et rapides, mais qui font l’objet de débats scientifiques non tranchés, sont souvent mobilisés. Que penser, par exemple, du fait que le Bezos Earth Fund, fondation d’une entreprise de la tech américaine, finance des rapports de scientifiques sur les « points de bascule globaux » ?

Comment structurer la recherche publique sur ces questions

Ainsi, le comité d’éthique du CNRS dont les deux auteurs de cet article font partie recommande de mobiliser la recherche publique sur ce sujet, avec des dispositifs solides de gouvernance et d’accompagnement : veille et suivi, dialogue interdisciplinaire, structuration d’espaces d’échanges avec la société civile, clauses de « revoyure » et « portes de sortie » afin d’évaluer, voire de stopper, des projets de recherche publique qui deviendraient dangereux.

The Conversation

Éric Guilyardi est Président de l'Office for Climate Education, organisation placée sous l'égide de l'UNESCO. Il est membre du Comité d'éthique du CNRS (COMETS) et du conseil scientifique de l'Éducation nationale. Il a reçu des financements de l'Agence Nationale de la Recherche et de l'Union Européenne.

Christine Noiville est DR au CNRS. Elle préside le COMETS, comité d'éthique du CNRS. Elle a reçu des financements de l'ANR et France 2030 (PEPR Santé numérique).

PDF

03.03.2026 à 16:56

Relations entre soignants, patients et aidants : pourquoi il faut accorder plus de place aux émotions

Judith Partouche-Sebban, Professeur - Titulaire de la chaire Living Health, membre du département Technology Interaction, strategic Marketing & Customer Experience, PSB Paris School of Business

Les émotions façonnent la relation entre patients et soignants. Elles influent sur la compréhension des diagnostics, la perception du service rendu, ou encore la résilience.
Texte intégral (1730 mots)

Ces dernières années, les chercheurs en sciences de gestion s’intéressent de plus en plus à la manière dont les émotions influencent les expériences de consommation, et le ressenti du service rendu. Dans le domaine de la santé, en revanche, cette problématique demeure sous-explorée. Et ce, alors même que les émotions façonnent chaque étape du parcours de soin, dans les hôpitaux, les cabinets médicaux ou même derrière l’écran d’une téléconsultation.


Dans les services hospitaliers, il est fréquent de voir des patients anxieux face à un diagnostic, des proches inquiets ou des soignants sous tension. Ces émotions ne sont pas de simples réactions passagères : elles déterminent la manière dont les patients perçoivent la qualité du soin, elles influencent leurs comportements, et façonnent leurs résultats de santé.

Les expériences de santé sont « émotionnellement intensives », marquées par la vulnérabilité, l’incertitude et le risque. Dès lors, comment comprendre ce rôle fondamental de l’émotion, et surtout, comment l’intégrer comme levier stratégique pour améliorer l’expérience patient ?

Les questions de santé activent des émotions fortes et persistantes

Les émotions apparaissent très tôt dans le parcours de soin. L’annonce d’un diagnostic, même lorsqu’il confirme une hypothèse déjà redoutée, déclenche un tourbillon émotionnel souvent violent : peur, détresse, colère, sentiment d’injustice. Les travaux existants montrent que ces réactions initiales influencent fortement la trajectoire émotionnelle des mois, voire des années, qui suivent.

Cette charge émotionnelle est souvent exacerbée dans les maladies chroniques ou rares. Les patients doivent intégrer dans leur quotidien une maladie visible ou non, évolutive, parfois difficile à comprendre pour l’entourage, et dont les symptômes physiques et psychologiques produisent une insécurité permanente.

Ils vivent alors une sorte de parcours ou de continuum affectif, ponctués non pas d’événements isolés, mais d’épisodes émotionnels successifs. Chaque phase dudit parcours activant des émotions différentes. Une consultation anxiogène peut réactiver des souvenirs douloureux ; une poussée de symptômes peut générer un sentiment d’impuissance ; un professionnel de santé maladroit dans son interaction peut générer frustration ou découragement.

L’émotion en santé n’est donc pas un bruit de fond : c’est une force structurante. Le patient n’est pas seulement un « usager » du système de soin. C’est un individu engagé dans un processus émotionnel complexe, qui co-construit son expérience avec les acteurs qui l’entourent.

Pourquoi les émotions transforment l’expérience patient

Les recherches en marketing et en comportement du consommateur montrent que les émotions influencent profondément les perceptions de service. En santé, cet effet est décuplé pour trois raisons principales.

Premièrement, les patients interprètent les événements du soin selon leurs préoccupations existentielles. La théorie psychologique dite de « l’évaluation cognitive » (cognitive appraisal theory, en anglais) permet de comprendre pourquoi, confrontées à une même situation, deux personnes peuvent réagir différemment. Elle postule que les émotions ne sont pas des réactions automatiques mais le résultat d’une évaluation subjective des événements : « Ce diagnostic menace-t-il ma vie ? », « Ce traitement va-t-il me permettre de redevenir moi-même ? », ou « Est-ce que je contrôle encore ce qui m’arrive ? ».

Ainsi, selon leur histoire, leurs attentes, leurs valeurs ou leurs ressources psychologiques disponibles au moment de recevoir l’information, deux patients se voyant attribuer un même diagnostic peuvent réagir très différemment, car ils lui attribueront un sens différent (menace ou défi, par exemple).

Deuxièmement, la santé touche directement à la préservation de ressources essentielles. En ce sens, une autre théorie psychologique, la théorie de la conservation des ressources (conservation of resources theory) est également éclairante. Elle montre que la perte réelle ou potentielle (autrement dit, la menace de perte) de ressources propres à l’individu génère stress et émotions négatives. Ces ressources peuvent être de nature matérielle ou non (santé, énergie, autonomie, soutien social, etc.).

Dans les maladies chroniques, ces pertes s’accumulent : fatigue durable, perte de statut, restrictions professionnelles, sentiment d’incompréhension sociale, etc. Les émotions deviennent alors un symptôme invisible, et pourtant déterminant et pesant, de l’expérience patient.

Troisièmement, les émotions influencent les comportements de santé. Des travaux soulignent que la détresse émotionnelle réduit l’observance des traitements (un patient en sécurité émotionnelle aura davantage tendance à suivre les recommandations médicales) ; elle altère la communication entre parties prenantes (patients, aidants, soignants) ; elle augmente le risque de complications ; et elle influence la capacité du patient à mobiliser ses ressources.

Reconnaître et apprendre à bien gérer ses émotions permet au patient de reprendre le contrôle sur son parcours et de mieux comprendre les enjeux thérapeutiques de sa prise en charge. D’un point de vue plus global, une meilleure gestion des émotions améliore la coordination des soins et renforce la cohésion entre les acteurs. À l’inverse, ignorer les émotions revient à ignorer un déterminant crucial de la qualité des soins.

Les émotions comme levier stratégique

Chaque interaction dans le système de santé constitue un « micro-moment émotionnel » : un rendez-vous manqué, une phrase maladroite, un manque de clarté dans l’explication d’un traitement… Ces petits événements lors des interactions entre parties prenantes déclenchent des cascades émotionnelles qui transforment la perception globale de l’expérience patient. À l’inverse, une parole rassurante, un signe d’attention ou un espace d’expression peut réduire drastiquement le stress et renforcer la confiance.

Ainsi, pour les patients, chaque interaction compte et peut être une occasion de créer de la confiance (dans les soignants, dans l’institution) ou au contraire, de générer défiance et rupture. Ceci est particulièrement vrai dans les maladies rares, où l’incertitude et la méconnaissance médicale amplifient les émotions négatives. Pour les soignants et établissements de santé, ces émotions représentent donc un levier stratégique.

Par ailleurs, contrairement à certaines idées reçues, les émotions en santé ne sont pas uniquement négatives. Elles peuvent aussi être des catalyseurs de résilience, d’adaptation ou même de changements positifs et durables vers de nouvelles priorités de vie ou de nouvelles perceptions de soi.

Plusieurs études démontrent, par exemple, que certains patients cherchent volontairement à expérimenter des situations physiquement difficiles – comme la pratique de l’escalade après un cancer – pour transformer leurs émotions douloureuses en force psychologique, dans une logique de croissance post-traumatique (en psychologie, ce concept désigne les changements psychologiques positifs qui surviennent à la suite de l’exposition à un traumatisme majeur, que ce soit en matière de perception de soi, de philosophie de vie, de relation aux autres, de développement spirituel, etc.).

Ces expériences, bien qu’éprouvantes, deviennent des espaces de reconquête du soi physique et existentiel, de son corps, d’autonomie et de sens. De ce fait, l’émotion, même négative, peut devenir un levier de valeur, pour peu que le système de soins accompagne correctement le patient.

Au-delà des diagnostics, des protocoles et des technologies, c’est bien l’émotion qui façonne la manière dont chacun vit le système de santé. Il ne s’agit pas d’un élément périphérique de l’expérience patient, mais bien de son infrastructure invisible.

Les émotions conditionnent la manière dont les patients vivent leurs soins et leur prise en charge, collaborent avec les professionnels de santé, adhèrent aux traitements, et donnent du sens à leur parcours. Les placer au centre des stratégies d’expérience patient est de ce fait une démarche nécessaire.

Cela implique de former les soignants à la compréhension des émotions, de créer des espaces de dialogue sécurisés, de développer des programmes d’accompagnement émotionnel, de considérer les émotions comme un indicateur de qualité des soins, et d’intégrer les associations de patients en tant que partenaires stratégiques.


Pour aller plus loin :

- La conférence « Les émotions : nouveau territoire de l’expérience patient », organisée dans le cadre des Matinales de la recherche, qui se tiendra le 19 mars 2026 à 9 h, sur le campus Delta de Paris School of Business Campus Delta, 16 Rue Claude Bernard à Paris.

The Conversation

Judith Partouche-Sebban ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

03.03.2026 à 16:56

Pourquoi les bombardements suffisent rarement à faire chuter un régime

Nicolas Minvielle, Docteur en économie, spécialiste des questions d’innovation et de défense, Audencia

Les frappes états-uniennes et israéliennes sur l’Iran mettront-elles à bas le régime des mollahs&nbsp;? L’histoire des guerres modernes montre que la destruction matérielle ne se convertit pas toujours en bascule politique.
Texte intégral (1973 mots)

De la Seconde Guerre mondiale à la guerre en Irak en 2003, l’histoire montre que les guerres aériennes ne sont pas forcément efficaces pour déstabiliser un pouvoir en place et briser le soutien que lui apporte une population.


Ukraine, Gaza, Syrie, et désormais Iran : les images de villes détruites saturent les écrans et montrent des destructions d’une ampleur extrême. Les bombardements contemporains poursuivent des objectifs très différents selon les contextes politiques et militaires. À Gaza, les frappes israéliennes visent officiellement à détruire le Hamas et à libérer des otages, mais on constate aussi une stratégie de terreur vis-à-vis des populations civiles. On retrouve aussi cette stratégie en Ukraine, avec pour objectif de briser le moral de la population, notamment avec le ciblage de la grille énergétique.

Dans le contexte plus large du conflit israélo-iranien, les frappes ont une logique partiellement distincte : Israël et les États-Unis ont mené des attaques contre des installations nucléaires et militaires iraniennes afin de détruire un programme perçu comme une menace stratégique, mais aussi afin d’amener à un changement de régime. 

Ces cas montrent que l’arme aérienne est utilisée pour atteindre des objectifs assez distincts. Or les réflexions sur l’usage des armes aériennes n’est pas nouvelle – elle a un siècle. Que nous enseigne cette histoire sur l’impact réel des stratégies de bombardements – notamment sur les populations ou les structures politiques – au-delà des pertes et des destructions matérielles ?

Pourquoi l’idée de campagnes aériennes à l’effet politique décisif est-elle toujours prisée, aujourd’hui encore, alors que de nombreux exemples montrent qu’elle est largement illusoire ?

Le mythe fondateur : Douhet et la guerre gagnée par le ciel

Dans les années 1920, le général italien Giulio Douhet (1869-1930) théorise la suprématie aérienne. Selon lui, la prochaine guerre se gagnera dans le ciel. En frappant directement les centres urbains, en infligeant une terreur massive aux populations civiles, on provoquerait un effondrement moral rapide. Les gouvernements, sous la pression de leurs propres citoyens, seraient alors contraints de capituler.

Cette vision repose sur une hypothèse simple : la peur détruit la volonté collective. Si Douhet structure cette doctrine, elle est déjà présente dans l’imaginaire stratégique. Dans The War in the Air (1908), H. G. Wells imagine ainsi qu’une Allemagne dotée d’une supériorité aérienne écrasante contraint Washington à capituler. Mais le roman contient un détail souvent oublié : une fois débarqués, les Allemands affrontent une résistance populaire acharnée. Dès le début du XXᵉ siècle, on pressent donc à la fois la puissance et les limites du bombardement aérien.

Qu’en est-il réellement ? Que nous dit la recherche sur cette question décisive ?

La théorie moderne de la coercition aérienne

À la fin du XXᵉ siècle, le politologue états-unien Robert A. Pape propose une analyse systématique des campagnes aériennes du XXᵉ siècle dans Bombing to Win. Air Power and Coercion in War (1996).

Il distingue trois stratégies qu’il est nécessaire de garder à l’esprit, car il s’agit d’une grille de lecture clé pour ce que nous vivons en ce moment dans le cadre des bombardements israélo-américains en Iran, mais aussi pour tout type de bombardement en général. L’idée ici est de déterminer dans un premier temps quelle est l’intentionnalité derrière le recours à l’arme aérienne, afin de pouvoir en évaluer les effets. Pour Pape, trois options sont offertes :

  1. Punishment (la punition) Il s’agit ici de frapper les civils pour infliger des souffrances et provoquer une pression politique interne. C’est la version contemporaine du modèle douhétiste.

  2. Risk (l’escalade graduelle) Il s’agit de menacer d’intensifier progressivement les frappes afin de créer incertitude et crainte d’une destruction totale.

  3. Denial (le déni) Finalement, il s’agit de détruire les capacités militaires, logistiques et stratégiques pour empêcher l’adversaire d’atteindre ses objectifs.

Les conclusions empiriques de Pape sont sans ambiguïté, et on les retrouve dans la grande majorité des recherches menées sur les bombardements : les campagnes fondées sur la punition des civils échouent presque toujours, et les campagnes efficaces sont celles qui empêchent militairement l’adversaire d’agir.

Autrement dit la coercition fonctionne lorsqu’elle modifie un calcul stratégique, non lorsqu’elle cherche à briser un moral. La différence est fondamentale car si l’on se trompe d’objectif, l’effet attendu ne sera pas obtenu.

Comment réagissent les civils face aux bombes ?

Pendant le Blitz (1940-1941), le psychiatre canadien J. T. MacCurdy analyse les réactions des civils britanniques dans The Structure of Morale (1943). Il distingue trois catégories après une explosion : les morts, les near misses (frappés de près) et les remote misses (frappés de loin). Les morts n’ont d’impact qu’à travers la perception qu’en ont les survivants. Les frappés de près peuvent être traumatisés. Mais la majorité appartient aux frappés de loin : ils ont entendu l’explosion, vu les dégâts… et sont encore en vie.

MacCurdy montre ainsi qu’après une peur initiale un processus d’adaptation rapide s’enclenche. Les survivants développent des réponses variées – du fatalisme au sentiment d’invulnérabilité. En d’autres termes, les bombardements produisent plus de survivants que de victimes, et les survivants apprennent. Par ailleurs, les individus finissent par s’habituer : la peur intense du premier choc décroît si elle n’est pas constamment associée à une destruction personnelle.

L’enquête « United States Strategic Bombing Survey », menée après la Seconde Guerre mondiale, confirme ce constat. Au-delà d’un certain seuil, la destruction supplémentaire produit des rendements décroissants. Le moral allemand ne s’effondre pas ; il évolue vers l’apathie ou l’endurance, mais pas vers la capitulation ni le soulèvement contre le régime. Plus proches de nous, les mêmes effets produisent les mêmes conséquences, avec des bombardements russes qui renforcent la population ukrainienne.

Plus encore, certaines recherches montrent des effets contre-productifs. L’étude de M. A. Kocher et ses collègues sur la guerre du Vietnam (2011) démontre que le bombardement de villages a déplacé le contrôle territorial vers le Viet Cong. Les pertes civiles délégitiment l’autorité centrale et renforcent l’insurrection. Dans ce contexte, la terreur nourrit l’adversaire, et ce jusque dans les travaux récents menés sur les campagnes américaines de lutte contre les insurrections. Il en va de même dans le cadre de l’opération états-unienne « Inherent Resolve » (« Détermination absolue », 2014) en Irak et en Syrie, où la recherche a montré que les bombardements avaient des effets incertains, avec un risque de solidarité accrue autour des insurgés dès lors que des civils sont touchés. Finalement, la violence aérienne change rarement la loyauté dans le sens espéré.

Des stratégies qui se poursuivent, malgré les enseignements de  l’histoire

Malgré un siècle de travaux empiriques montrant que la destruction matérielle se convertit rarement, à elle seule, en effondrement politique, l’idée que la pression militaire externe produisant un effet politique décisif demeure. Comment l’expliquer ?

Désormais, les dirigeants contemporains ne parlent plus de « briser une population », mais ils suggèrent souvent que la dégradation capacitaire ou la pression cumulative pourraient fragiliser durablement le pouvoir en place.

On peut d’abord expliquer la persistance de la croyance en l’efficacité de la pression externe par la fascination technologique. La puissance visible des bombes suggère une efficacité évidente. On peut mesurer les tonnes larguées, exhiber la précision des bombes dites bunker busters, compter les infrastructures détruites.

Ensuite, on peut l’expliquer par une confusion entre choc initial et effet durable. Le Shock and Awe (le choc et l’effroi) produit un impact spectaculaire, mais celui-ci ne se traduit pas nécessairement en capitulation politique. Le cas irakien est ici exemplaire : après la campagne d’ouverture extrêmement spectaculaire et l’effondrement initial du régime de Saddam Hussein (2003), la coalition a fait face dans la foulée à une guerre prolongée de contre-insurrection (2003-2011).

Il faut aussi rappeler que les effets d’un bombardement ne dépendent pas uniquement des capacités détruites mais de la nature de l’adversaire : régime autoritaire ou démocratie, guerre conventionnelle ou insurrection, société fragmentée ou fortement cohésive. Une même campagne peut produire des effets radicalement différents selon le contexte.

Enfin, la stratégie aérienne est séduisante politiquement. Elle promet des résultats sans engagement terrestre massif et sans les pertes qu’il implique. Elle offre l’illusion d’une coercition à distance. Autant d’éléments que l’on semble retrouver dans le cas du conflit en cours avec l’Iran.

En Iran, une bascule politique ?

La guerre aérienne peut détruire des infrastructures et des capacités militaires, paralyser une économie, modifier un rapport de forces militaire. Mais elle est beaucoup plus incertaine lorsqu’elle vise des effets politiques tels qu’un renversement de régime, un effondrement moral ou une insurrection populaire.

Les frappes américaines contre des cibles iraniennes s’inscrivent officiellement dans une logique de dégradation capacitaire. Pourtant, elles nourrissent aussi l’espoir d’un affaiblissement politique interne. Or l’histoire nous invite à la prudence : la destruction matérielle ne se convertit pas mécaniquement en bascule politique, et les attentes placées dans ses effets indirects sont souvent exagérées.

The Conversation

Nicolas Minvielle est membre du comité d’orientation de La Fabrique de la Cité, et du collectif Making Tomorrow. Lieutenant Colonel de réserve au sein du Commandement du Combat Futur de l’armée de terre, il a été animateur de la Red Team Défense du Ministère des Armées.

PDF

03.03.2026 à 16:55

Iran : sous les bombes, une jeunesse qui n’a rien à perdre face à un régime qui veut tenir à tout prix

Caroline Azad, Docteure en Sciences politiques, Université Libre de Bruxelles (ULB)

Chez de nombreux Iraniens, surtout les jeunes, le rejet du régime est absolu, et la situation actuelle offre peut-être l’occasion de le renverser.
Texte intégral (2314 mots)

Les frappes américano-israéliennes ont causé des dommages importants en Iran. Des centaines de personnes ont été tuées, de nombreuses villes ont été touchées, et plusieurs personnalités de premier plan du régime ont été éliminées, à commencer par le Guide suprême Ali Khamenei. Comment la société iranienne vit-elle cette séquence, qui intervient peu après l’écrasement extrêmement sanglant des manifestations de janvier dernier ? Entretien avec Caroline Azad, spécialiste de l’Iran, chercheuse associée à la Maison des sciences humaines de l’Université libre de Bruxelles.


Tout d’abord, une question personnelle : vos proches en Iran sont-ils en sécurité ?

Caroline Azad : Depuis samedi matin, nous n’avons eu que des bribes de nouvelles. Internet et le téléphone ne fonctionnent que par intermittence. Apparemment, tout le monde va bien, mais Téhéran est lourdement frappé, et beaucoup de gens ont quitté la capitale. L’inquiétude est évidemment très grande.

Le Guide suprême a été tué, de même que plusieurs personnalités de premier plan. Selon vous, le régime iranien peut-il tenir ?

C. A. : Le régime cherche à afficher un semblant de stabilité, notamment en annonçant l’instauration d’un conseil de direction intérimaire ; et il fait tout pour indiquer à la population qu’il n’entend rien céder, en poursuivant, malgré la situation actuelle, la répression épouvantable qu’il abat sur les Iraniens depuis fin décembre 2025. On sait qu’un certain nombre de personnes qui avaient célébré dans les rues l’annonce de la mort de Khamenei a été abattue par les forces de sécurité. Des vidéos nous sont parvenues montrant des gens, notamment des jeunes, qui exprimaient publiquement leur joie, avant même que la nouvelle soit officialisée par la télévision d’État.

Vidéo tournée à Téhéran après l’annonce de la mort d’Ali Khamenei. On entend des cris de joie provenir de nombreux immeubles.

Ce n’est pas étonnant : le massacre opéré par le régime contre les contestataires fin décembre et pendant tout le mois de janvier a entériné une rupture définitive entre le pouvoir et une grande partie de la population. Il n’y a pas de possibilité de retour en arrière. Tout au long du mois de janvier, les autorités ont fait tirer à balles réelles sur des civils désarmés, sur des familles, y compris sur des enfants. Les gens savaient qu’en sortant manifester, ils s’exposaient à un risque mortel. Souvent, avant d’aller rejoindre les cortèges, ils laissaient sur les réseaux sociaux des sortes de testaments, disant face caméra : « Je sors aujourd’hui, je sais que si je suis tué, je serai mort pour le salut de l’Iran et pour la liberté de mes compatriotes. »

J’insiste sur cette détermination absolue de très nombreux Iraniens à voir ce régime qu’ils honnissent disparaître. On parle de plusieurs dizaines de milliers de personnes tuées en quelques semaines. Ce carnage a généré un tel choc et un tel degré de désespoir au sein de la population qu’une bonne partie en est venue à demander, à exiger et à espérer une intervention extérieure sur son territoire.

Je crois qu’on n’a pas pris la pleine mesure, à l’extérieur du pays, de l’ampleur des crimes du régime. On parle là d’une véritable extermination de tous les segments de la population qui s’opposent. Mais les gens – et spécialement les jeunes qui n’ont pas connu l’Iran d’avant la révolution islamique, qui n’ont pas connu la longue et si meurtrière guerre contre l’Irak, qui n’ont même pas connu le vent d’espoir brièvement suscité en 2009 par le mouvement vert – continuent de protester, depuis 2022 et le mouvement Femme, Vie, Liberté, et jusqu’à aujourd’hui, malgré une répression d’une violence inouïe. La contestation de début 2026 a été plus massive que toutes les phases précédentes. Des foules colossales sont sorties dans la rue. Donc, pour répondre à votre question, même si le régime ne chute pas rapidement, il sait qu’il devra sans doute continuer de faire face à ce soulèvement généralisé.

Que souhaitent les contestataires en Iran ? La fin du régime ? Une réforme qui irait vers une sorte de démocratisation ?

C. A. : Il y a un constat qui est exprimé par de larges segments de la population, sinon la majorité depuis 2022 : c’est que ce régime est irréformable. Toute réforme de ce régime – et ça, la société, l’a compris – est incompatible avec sa survie. Résultat : le régime est dans une logique radicale de survie et la société a démontré sa détermination à refuser tout compromis avec ses bourreaux et demande un changement immédiat. L’appauvrissement croissant de la population depuis trente ans et le désespoir généralisé ont engendré une génération de jeunes qui n’ont rien à perdre puisqu’ils n’ont rien. Pour eux, la seule solution, c’est le changement total.

Ce changement peut-il passer par un retour, dans un rôle ou un autre, de la figure de Reza Pahlavi, fils du shah d’Iran renversé en 1979 ?

C. A. : S’il est resté actif durant toutes ses années d’exil et a maintenu le lien avec ses racines et son engagement patriotique, Reza Pahlavi a gagné en visibilité depuis 2022. Il a développé toute une stratégie de communication qui lui a permis de s’adresser directement à la nation iranienne à travers les réseaux sociaux. En janvier, c’est en large partie à son appel que les Iraniens ont répondu en descendant dans les rues en très grand nombre. Il n’incarne pas nécessairement le retour à la monarchie, mais il représente pour beaucoup d’Iraniens la possibilité d’un Iran différent, d’un Iran apaisé et qui aurait retrouvé sa dignité, où les droits civiques seraient respectés, où l’économie serait fonctionnelle et où la religion n’interférerait pas dans les affaires publiques et politiques.

Le système actuel est parvenu à tellement dégoûter la population que celle-ci le rejette en bloc. Et comme toute opposition organisée est impossible à l’intérieur, on regarde vers l’extérieur – et là, il y a, pour l’essentiel, deux mouvances : celle de Pahlavi, lequel affirme souhaiter contribuer à la mise en place d’un Iran démocratique à travers un plan de transition qu’il détaille sur son site et à propos duquel il communique depuis plusieurs années ; et celle de l’Organisation des moudjahidines du peuple iranien (OMPI), mais celle-ci n’a aucune légitimité aux yeux de la population, aucun slogan n’y fait référence lors des mouvements.

Pahlavi, qui était très jeune au moment où son père a été renversé en 1979, n’a pas de sang sur les mains, alors que les Moudjahidines du peuple se sont ralliés à l’Irak de Saddam Hussein pendant la guerre Iran-Irak et sont globalement perçus comme une organisation violente et sectaire qui a par ailleurs longtemps été classée comme organisation terroriste par plusieurs pays occidentaux, dont les États-Unis. Dans ce contexte, Pahlavi apparaît comme un acteur derrière lequel bon nombre d’Iraniens peuvent se ranger. Il dit depuis des décennies que ce qu’il veut, c’est accomplir sa mission patriotique et mettre en place une transition démocratique en Iran avec des points essentiels qui sont la laïcité, l’autodétermination du peuple et l’intégrité territoriale du pays. Ce sont des éléments qui résonnent très fort au sein de l’Iran actuel.

On a quand même vu aussi des rassemblements massifs, notamment à Téhéran, pour pleurer la mort de Khamenei. Est-il possible d’estimer quelle est la proportion d’Iraniens qui reste encore attachée à la République islamique, à son mode de gouvernement et à ses leaders ?

C. A. : Il est difficile d’avoir des chiffres précis puisqu’on ne peut pas réaliser de sondages crédibles dans le pays. Mais effectivement, en près de cinquante ans d’existence, le régime a travaillé à organiser une base loyale. Il y a des gens qui ont profité des largesses du régime en échange de leur loyauté. Sous la République islamique, un certain nombre de personnes ont obtenu un statut social, et toute une série d’avantages socio-économiques en échange de cette loyauté. Cette loyauté n’est pas gratuite, elle fonctionne car le ratio coûts-bénéfices semble encore à l’heure actuelle à leur avantage. Certains considèrent donc qu’ils auraient beaucoup à perdre en cas de changement. La République islamique s’est engagée depuis près d’un demi-siècle dans une vaste entreprise d’endoctrinement de la population. On constate aujourd’hui son échec. Même si certains continuent d’y croire, il reste difficile de mesurer leur proportion exacte ; elle n’est en tout cas pas majoritaire.

L’opposition n’est pas armée. Or le régime, vous l’avez dit, ne déposera pas les armes de lui-même. Est-il possible que des franges de l’armée, des forces de l’ordre, des pasdarans finissent par se retourner contre le pouvoir ?

C. A. : Il apparaît que, lors du massacre de janvier dernier, l’ensemble des forces de répression et de sécurité n’ont pas accepté de tirer sur les gens. On sait que les dirigeants du pays ont fait venir des membres du Hezbollah libanais, des milices irakiennes, des milices afghanes, des milices pakistanaises pour tuer un maximum de personnes. Ce qui peut indiquer que la loyauté des forces de sécurité iraniennes n’est pas aussi totale qu’on le croit généralement.

Avant même les bombardements, qui ont encore affaibli un régime déjà exsangue et enlisé dans son idéologie, certaines figures des pasdaran avaient d’ailleurs reconnu qu’il y avait eu des défections au sein de l’appareil de sécurité. Il y a des fractures importantes au niveau du système iranien. Comment vont-elles se traduire concrètement dans les prochains jours et dans les prochaines semaines ? Il est encore trop tôt que pour pouvoir le dire. Mais le régime ne tombera que par la volonté des Iraniens. Et pour cela, il faudrait, comme le souligne l’historien Clément Therme que je rejoins dans son analyse, à la fois une rupture effective au sein du système et une articulation stratégique entre des forces désidéologisées et cette opposition extérieure.

Contrairement à ce qui prévalait encore il y a quelques années, les massacres récents ont fait émerger une dynamique de convergence : cette opposition est désormais massivement plébiscitée, tant par les Iraniens de la diaspora que par ceux de l’intérieur. Il faut souligner à cet égard que les services de renseignement israéliens ont une connaissance approfondie de la situation interne en Iran. Ce niveau de maîtrise remonte à l’époque impériale. Cela signifie qu’ils disposent de sources et de relais à l’intérieur même du régime – ce n’est pas le signe d’un régime monolithique qui ne se fissure pas, au contraire.


Propos recueillis par Grégory Rayko.

The Conversation

Caroline Azad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

03.03.2026 à 16:55

Oser enquêter face au pouvoir turc

Pinar Selek, Maîtresse de conférences en sociologie, Université Côte d’Azur

Dans son ouvrage «&nbsp;Lever la tête. La recherche interdite sur la résistance kurde&nbsp;», la sociologue turque Pinar&nbsp;Selek revient sur l’enquête qui a bouleversé sa vie et sur l’acharnement judiciaire dont elle est la cible.
Texte intégral (1391 mots)

En 1995, alors que le conflit entre la Turquie et le Parti des travailleurs du Kurdistan (PKK) s’intensifie, la sociologue Pinar Selek décide d’enquêter sur les origines du mouvement de résistance kurde. Ce travail de recherche lui vaut d’être arrêtée par la police d’Istanbul : refusant de livrer les noms des personnes interrogées, elle est torturée et emprisonnée, avant d’être acquittée à quatre reprises, puis de nouveau poursuivie. Depuis plus de vingt-sept ans, elle incarne le combat pour la liberté de penser. Dans son ouvrage Lever la tête. La recherche interdite sur la résistance kurde, qui vient de paraître aux éditions Université Paris Cité, Pinar Selek, aujourd’hui maîtresse de conférences en sociologie à l’Université Nice Côte d’Azur et membre de l’Unité de recherche migrations et société (Urmis), revient sur ces années de persécution, et fait de son récit un acte de résistance intellectuelle. Extraits.


Extrait 1

Depuis quelques mois, je vis une expérience renversante, poignante. Elle n’est ni amoureuse ni amicale… Je sens des choses qui se cassent, qui saignent énormément, qui crient à l’intérieur de moi, mais sans être pour autant une expérience corporelle. N’attendez pas un roman policier ou un conte de fées : j’ai ouvert les pages de ma recherche disparue. Sans l’avoir retrouvée. Je ne l’ai jamais retrouvée.

Je parle de ma recherche sociologique sur le mouvement kurde. La recherche dont on m’a dépossédée, qu’on m’a arrachée et qui a disparu. J’ai découvert le plus tragique de cette histoire : son effacement de ma mémoire. Jusqu’à maintenant, je raconte dans les médias qu’en juillet 1998, les matériaux de ma recherche sont devenus l’objet d’un délit politique : pour avoir prétendument porté atteinte à la nation, ils ont été confisqués par la police turque.

Tout a commencé en 1995. J’avais 24 ans et je vivais à Istanbul, dans un pays déchiré par un conflit que personne ne pouvait nommer. Depuis 1984, une guerre opposait l’État turc au mouvement kurde. Ce mouvement portait les revendications d’un peuple dont la langue s’est alors retrouvée interdite, l’histoire niée, l’existence même contestée par le pouvoir nationaliste et militariste turc.

Estimée à plus de 45 millions de personnes, cette population était divisée par les frontières nationales de la Turquie, l’Iran, l’Irak et la Syrie. Cette guerre s’accompagnait d’une mobilisation populaire sans précédent : malgré les 35 000 prisonniers politiques, la torture systématique, les disparitions quotidiennes, de plus en plus de jeunes Kurdes gagnaient le maquis, et les funérailles de guérilleros et guérilleras se transformaient en soulèvements. Mais il était interdit d’en parler. Il fallait employer les mots imposés par le pouvoir : ennemis, terroristes, diables. Parler d’un conflit social, ou même parler d’un conflit tout court constituait un acte dangereux.

Le pouvoir politique, en marginalisant la réflexion, en favorisant le mépris de la théorie, en banalisant l’irrationnel et l’absurdité, gouvernait les émotions. Tout cela faisait très peur. Pourtant, c’était une responsabilité de démontrer que les choses étaient plus compliquées qu’on ne le supposait et que les formulations réductrices qui résumaient la réalité étaient aveuglantes. Et pour le démontrer, il fallait d’abord enquêter. Je l’ai fait. Je refusais de plier devant cette folie. J’ai réfléchi, posé des questions.

Ainsi s’est construite une recherche-responsabilité qui m’a conduite à problématiser un mouvement social interdit, porté par une population minorisée et criminalisée, dans un contexte de guerre.

Le 11 juillet 1998, j’ai été arrêtée par la police d’Istanbul. Elle a confisqué tous mes matériaux concernant ce travail. Les cahiers, les disquettes… Elle exigeait que je livre les noms de mes interlocutrices et interlocuteurs. J’ai subi des tortures qui m’ont longtemps interdit toute activité physique ou intellectuelle.

Malgré la violence de mon supplice, j’ai réussi à préserver leur sécurité sans jamais révéler la moindre information et en respectant les règles de déontologie, à l’instar du secret professionnel de l’avocat. Devant ma résistance, l’étau de l’horreur s’est resserré : un mois après mon arrestation, alors que j’étais en prison, j’ai appris à la télévision que le pouvoir turc avait décidé de faire de moi une terroriste en m’accusant fallacieusement d’être impliquée dans l’attentat du bazar aux épices à Istanbul, alors même qu’il avait été établi que l’explosion était un accident. Après deux ans et demi de prison et quatre acquittements en 2006, 2008, 2011 et 2014, je subis, encore aujourd’hui, un harcèlement politico-judiciaire : le procès dure depuis 27 ans.

Extrait 2

J’ai ouvert les pages de ma recherche disparue. Sans l’avoir retrouvée. Je ne l’ai jamais retrouvée. Je parle de ma recherche sociologique sur le mouvement kurde. La recherche dont on m’a dépossédée, qu’on m’a arrachée et qui a disparu. J’ai découvert le plus tragique de cette histoire : son effacement de ma mémoire.

Jusqu’à maintenant, je raconte dans les médias qu’en juillet 1998, les matériaux de ma recherche sont devenus l’objet d’un délit politique : pour avoir prétendument porté atteinte à la nation, ils ont été confisqués par la police turque. […]

J’avais tous les moyens nécessaires à la reprise de mon enquête inachevée. […] Mais jusqu’alors, je n’y avais pas pensé un seul instant. C’est comme si elle était terminée. Non, elle m’a été enlevée. Et je devrais l’abandonner ? Comment un travail que j’ai commencé avec une grande curiosité et que j’ai mené avec enthousiasme jusqu’à la dernière minute peut-il rester en suspens ? Pourquoi n’ai-je pas rédigé au moins tout ce que j’avais 12 appris ?

Ma recherche a vraiment été interrompue. Ce qui est étrange, c’est que je n’ai même pas pensé que ce travail était inachevé. Avais-je intériorisé l’interdiction de mes matériaux ? Est-ce mon point de non-résistance ? Si c’est le cas, comment expliquer que je m’exprime souvent sur cette question dans l’espace public ? Ça ne semble pas être la peur. Quoi d’autre ? La fatigue ? Peu probable. Mes troubles liés au stress post-traumatique ? Un blocage ?

Sinon quoi ?

J’ai réfléchi. Ma recherche est un organisme vivant. Elle est née et elle a continué à grandir. Elle a été enlevée et non pas avortée. La naissance d’une recherche n’est pas sa publication. Ses matériaux sont blessés mais toujours en vie, en transformation, en vibration. Pour les soigner, j’écris.

Pourquoi maintenant ? Comment se fait-il que je m’en sois rendu compte soudainement, après 27 ans ? Me rendre compte de ma recherche blessée en moi. Puisque rien ne tombe du ciel, comment s’est produite cette révélation ?

Je suis vraiment étonnée. Profondément étonnée. Et c’est ce profond étonnement qui me procure la force d’écrire. J’écris pour découvrir et pour me débarrasser du désarroi.

Je vais me découvrir en écrivant. Je l’écrirai, vous le lirez. Nous le découvrirons ensemble.

The Conversation

Pinar Selek ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

03.03.2026 à 16:52

Le système de santé français expliqué aux citoyens des États-Unis en 2026

Jean de Kervasdoué, Professeur d'économie de la santé, Conservatoire national des arts et métiers (CNAM)

En France, on n’a pas de pétrole mais des médecins, des hôpitaux publics, une régulation étatique forte et des soins remboursés.
Texte intégral (2774 mots)
Un habitant des États-Unis dépense 12&nbsp;627&nbsp;euros par an pour se soigner, contre 6&nbsp;249&nbsp;euros en France. MillaF/Shuttetstock

Un océan sépare la vision universelle française de son système de santé de la vision assurantielle des États-Unis. En France, on n’a pas de pétrole mais des médecins, des hôpitaux publics, une régulation étatique forte et des soins remboursés.


Le 1er octobre 2025, le gouvernement fédéral des États-Unis fermait ses portes, communément appelé un shutdown, faute d’accord avec un nombre suffisant de démocrates pour voter le budget du gouvernement fédéral.

Le plus long shutdown de l’histoire des États-Unis aurait pu avoir des conséquences dramatiques pour une partie de la population et, notamment pour des millions d’États-Uniens qui auraient perdu leur assurance santé. Le président Trump détricote activement ce qu’avait fait Barack Obama en améliorant l’accès des plus déshérités à l’assurance maladie, politique qu’avait poursuivie Joe Biden.

Il faut ajouter à ce recul annoncé, la très discutable politique du Secrétaire d’État à la Santé, Robert Francis Kennedy Jr. Il tient notamment des positions très controversées en matière de vaccins.

Pourtant, si la France creuse son déficit de l’assurance maladie (de 17,2 milliards d’euros en 2025) et doit se réformer, en matière de qualité et d’accès aux soins médicaux, ce pays demeure un pays de cocagne.

Alors, comment l’expliquer aux citoyens du pays de l’oncle Sam ?

Efficacité de la médecine française

Pour expliquer le système français aux États-Uniens, je commencerai par un retour en arrière.

En 1939, un citoyen des États-Unis avait une espérance de vie à la naissance supérieure de sept années à celle d’un Français. Les choses ont changé depuis car celle-ci est, en 2024, inférieure de plus de trois années et demie : 79 pour les États-Unis, 82,5 pour la France. Pourtant, en 2025, pour se soigner, la dépense de santé par habitant correspondait à l’équivalent de 12 627 euros par an aux États-Unis, soit 14 885 dollars, et 6 249 euros en France, soit 7 367 dollars.

À l’échelle nationale, cela se traduit par un montant des dépenses dites « de santé » (elles sont surtout des dépenses médicales) de 17,2 % du PIB aux États-Unis et de 11,4 % en France. Si l’évolution de l’espérance de vie a à voir avec les modes de vie et les habitudes alimentaires (entraînant obésité et diabète), l’efficacité de la médecine joue un rôle croissant.

Il est vraisemblable que la qualité des soins pour le plus grand nombre est à la fois meilleure et plus accessible en France.

Pour ce qui est du paiement des soins médicaux, en France c’est simple : c’est un pays où l’assurance maladie vous couvre, dès la naissance. Tout résident légal est affilié de droit à l’assurance maladie et, à ce titre, reçoit des soins, gratuits pour les pathologies les plus sévères, sinon remboursés en grande partie par le régime d’assurance obligatoire et/ou le régime d’assurance santé complémentaire.

Aux États-Unis, coexistent trois systèmes de Sécurité sociale : Medicare, pour les plus de 65 ans et les personnes en situation de handicap, Medicaid pour les plus pauvres et la Veterans Health Administration) destinée aux anciens combattants.

Près de 7,8 % du coût des soins assumé par le citoyen français

Pour trente maladies graves, les soins sont remboursés à 100 % par le régime obligatoire comme le diabète de type 1 ou 2, les maladies psychiatriques ou les cancers.

Si on ajoute les assurances complémentaires « santé » – aujourd’hui quasiment universelles –, seulement 7,8 % du coût des soins en France est in fine réglé par le patient. Bien entendu, le citoyen ou la citoyenne de l’Hexagone ou son employeur auront cotisé pour financer l’assurance maladie obligatoire ou complémentaire.

Pour la plupart des Français et des Françaises, il n’y a pas ou peu de barrière financière à l’entrée. Elles se sont encore réduites pour les soins dentaires, l’optique et l’audition grâce à une politique menée par Emmanuel Macron le « 100 % santé ».).

Si quelques barrières demeurent, le système français est plus généreux que ceux des pays comparables.

Si le patient est incité à avoir un médecin de référence, son « médecin traitant » avec lequel les soins sont entièrement remboursés, il ne lui en coûtera que quelques euros quand il souhaitera déroger à la règle. Il pourra voir dans la même journée plusieurs spécialistes dont les honoraires lui seront en grande partie remboursés, si ce dernier ne pratique pas des tarifs supérieurs à ceux fixés par l’Assurance maladie (on parle de « dépassements d’honoraires »), une pratique courante dans certaines spécialités médicales.

En France, une majorité d’établissements publics

Comme aux États-Unis, il y a en France des hôpitaux publics, des hôpitaux privés à but non lucratif et des cliniques privées à but lucratif. À noter que les 31 hôpitaux universitaires (CHU) français sont tous publics.

La France a cependant un pourcentage plus élevé d’hôpitaux privés à but lucratif que les États-Unis. En 2024, la France compte 33 % de cliniques privées, les États-Unis 20 %.

Répartition des dépenses de santé aux États-Unis. Healthsystemtracker

En France, en ville, les médecins libéraux ont la liberté d’installation et sont payés à l’acte. Dans la majorité des cas, les tarifs sont fixés par l’assurance maladie et sont très inférieurs aux tarifs états-uniens : 30 euros pour une consultation chez un généraliste en France, 150 dollars aux États-Unis, soit 127 euros.

Forte régulation par l’État en France

Bien entendu, en France, l’État est fortement impliqué dans la régulation du système.

Il n’est pas possible d’ouvrir une pharmacie sans autorisation administrative. L’État, par ses agences régionales de santé (ARS), contrôle toutes les autorisations en matière hospitalière, que les hôpitaux soient publics ou privés. L’État gère les nomenclatures de tous les actes médicaux, le tarif et le taux de remboursement de chaque médicament, radiographie ou examen de biologie. L’État, à l’échelon national nomme tous les directeurs et tous les médecins des hôpitaux publics (lesquels employaient près de 1,1 million de salariés fin 2021).

Il existe des établissements privés de grande qualité (315 000 employés en 2022) et, je le souligne encore, les médecins libéraux sont libres de leur installation et de leurs prescriptions.

Malgré tout, le système français est un des plus onéreux des pays occidentaux. L’hospitalisation y a une grande part, les spécialistes sont nombreux et la consommation de médicament y est élevée.

Si le système états-unien est plus onéreux encore, et factuellement plus inefficace, c’est parce que la concurrence entre les assurances privées produit non pas une baisse du coût des services – comme c’est souvent le cas en économie de marché – mais de l’inflation pour les primes d’assurance. Au nom d’une croyance dans les bienfaits absolus et systématiques de toute forme de concurrence, les gens aisés achètent aux États-Unis des assurances qui couvrent les honoraires des médecins réputés et les frais de séjour des hôpitaux luxueux. Ils entraînent de facto une croissance progressive du prix des biens et services médicaux.

Système états-unien inflationniste par essence

Avec le temps, les prix des producteurs de soins (ayant été rendus solvables par une partie de la demande) augmentent et cela produit de l’inflation. Le coût élevé des soins aux États-Unis, comparé aux autres pays occidentaux, est dû pour l’essentiel à une différence de prix des biens médicaux et des professionnels de santé. Le système états-unien est par essence inflationniste.

Les réformes durant le mandat de Barack Obama n’ont rien pu faire pour maîtriser cette inflation. Donald Trump dit vouloir s’y attaquer en pesant notamment sur le prix des médicaments.

À l’évidence, l’assurance maladie universelle permet le contrôle opérationnel des tarifs médicaux, du prix des médicaments et des tarifs hospitaliers. C’est la règle dans les pays de l’OCDE, à l’image de la France. Cela ne veut pas dire que les médecins ou les infirmières y soient mal payées, ou encore qu’il n’y ait pas d’accès aux découvertes médicales, mais que la régulation n’est pas laissée à un marché qui, dans le cas précis des soins médicaux, produit surtout de l’inflation.

Les États-Unis sont-ils plus socialistes ?

Pour terminer par une brève démonstration arithmétique : les dépenses publiques de santé, celles financées par les impôts et les cotisations obligatoires, représentent aux États-Unis 43 % des dépenses de santé aux États-Unis, soit 4 532 euros, soit 5 255 dollars, par habitant et par an (43 % des 10 517 euros de dépenses courantes de santé). En France, elles représentent 79,4 % de ces mêmes dépenses, soit 4 195 euros, 4 863 dollars – 79,4 % des 5 273 euros de dépenses courantes de santé au sens international par personne et par an –, le reste étant pris en charge par les complémentaires santé et les ménages.

Autrement dit, les taxes des États-Unis financent plus en valeur absolue le système de soins ! Pourrait-on considérer, de ce fait, que les États-Unis sont plus « socialistes » ? À l’évidence rien ne permet de l’affirmer, mais force est de constater que les États-Uniens payent deux fois leurs soins médicaux : une fois par leurs impôts, une fois par leur prime d’assurance.

Depuis longtemps aux États-Unis, des personnes ont fait ce constat et sont devenues de farouches partisans de l’assurance maladie universelle, à commencer par le défunt sénateur Ted Kennedy, le cadet des frères Kennedy. La probabilité qu’une telle réforme arrive sur l’agenda politique est à court terme nulle car, pour conclure par une citation de Marcel Proust, dans Du côté de chez Swann :

« Les faits ne pénètrent pas dans le monde où vivent nos croyances, ils n’ont pas fait naître celles-ci, ils ne les détruisent pas ; ils peuvent leur infliger les plus constants démentis, sans les affaiblir. »

Les croyances dans l’efficacité universelle du marché sont donc aussi fermes que coûteuses et restent plus que jamais vivantes.

The Conversation

Jean de Kervasdoué ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

03.03.2026 à 16:51

L’espace postsoviétique, un territoire lyrique au croisement d’identités et de circulations culturelles

Frédéric Lamantia, Docteur en géographie et maître de conférences, UCLy (Lyon Catholic University)

L’art lyrique des territoires postsoviétiques porte encore aujourd’hui les traces son histoire, faite d’emprunts, de circulations comme d’affirmations identitaires.
Texte intégral (2039 mots)
Projet de théâtre national de Tiflis (1881, aujourd’hui Tbilissi), en Géorgie, par l’architecte russe Victor&nbsp;Schröter (1839-1901).

D’abord art de cour, devenu au XIXe siècle vecteur d’affirmation nationale, puis instrument associé au pouvoir à l’ère soviétique, l’art lyrique des territoires postsoviétiques a connu une histoire riche de réinventions. Nous poursuivons ici notre série d’articles « L’opéra : une carte sonore du monde ».


Évoquer l’opéra dans l’espace postsoviétique ne consiste pas à décrire un patrimoine musical et architectural homogène mais demande d’analyser un vaste champ de circulations d’ordre culturel dans l’espace européen inscrites dans des territoires aux trajectoires impériales, religieuses et politiques profondément différenciées. De la Russie européenne à l’Asie centrale, du Caucase aux rives de la Baltique, l’histoire de l’opéra révèle des processus complexes d’importation, d’appropriation et de réinterprétation, où s’entrelacent dynamiques locales et projets politiques à différentes échelles.

Un art de cour importé d’Europe de l’Ouest

Tout d’abord, notons qu’avant l’implantation de l’art lyrique occidental dans ces territoires, des formes vocales préexistantes relèvent du chant liturgique orthodoxe dans les régions slaves ou de traditions orales dont le chant diphonique dans le Caucase et en Asie centrale. C’est par la suite que l’opéra s’implante dans l’Empire russe dès le XVIIIᵉ siècle comme un art de cour réservé à l’aristocratie qui en possède le monopole jusqu’en 1882.

Cette culture lyrique importée d’Italie, de France et d’une moindre mesure d’Allemagne, déborde des capitales impériales pour s’implanter progressivement sur tout le territoire. Dès le début du XIXᵉ siècle, des spectacles sont régulièrement donnés en italien. Plusieurs grandes villes se dotent de théâtres lyriques comme Kiev en 1867 ou Kharkov et Kazan en 1874.

Une esthétique liée à l’histoire et à la musique locales

L’opéra devient alors un outil important de construction identitaire tandis que son esthétique musicale tend à prendre de la distance vis-à-vis des modèles occidentaux pour mieux mettre en exergue le coloris national et la vision slavophile de l’histoire russe, caractéristiques de l’ensemble de l’opéra russe du XIXᵉ siècle.

En Russie, Mikhaïl Glinka ouvre la voie avec Une vie pour le tsar (1836), en intégrant chansons populaires et références historiques dans une forme opératique européenne. Si la matrice reste similaire, le contenu esthétique se teinte de mélodies empruntées à la vie locale.

Affirmations identitaires

Cette orientation musicale est approfondie ensuite par les compositeurs du « Groupe des cinq » : César Cui (1835-1918), Modeste Moussorgski (1839-1881), Alexandre Borodine (1833-1887), Mili Balakirev (1837-1910) et Nikolaï Rimski-Korsakov (1844-1908). Ces derniers puisent dans les chants archaïques, les modes orientalisants et les légendes nationales des matériaux rythmiques et sonores propres à souligner l’authenticité de ce lien avec le terroir et d’en affirmer l’identité. Boris Godounov, de Modeste Moussorgsky, ou le Prince Igor, d’Aleksandr Borodine, illustrent cette articulation entre identité nationale, dramaturgie historique dans un contexte de circulation des formes musicales européennes sur l’ensemble du continent.

Par ailleurs, des dynamiques comparables apparaissent dans d’autres régions de l’Empire. En Ukraine, Nikolaï Lysenko donne l’occasion à la langue et à la tradition populaire ukrainiennes de s’affirmer sur la scène lyrique, notamment avec Taras Boulba. En Azerbaïdjan, Uzeyir Hajibeyov crée Leyli et Majnun, souvent considéré comme le premier opéra dans l’Orient musulman, en combinant structure opératique occidentale et improvisation mugham. Ces œuvres témoignent d’une appropriation originale de l’art lyrique occidental via une créativité usant d’un savant métissage donnant de fait à l’identité musicale locale la possibilité de devenir un vecteur de reconnaissance culturelle.

Instrumentalisation par le pouvoir soviétique

Cependant, la révolution de 1917 marque une rupture importante. D’abord perçu comme un art bourgeois, l’opéra est rapidement instrumentalisé par le pouvoir soviétique qui l’ouvre à la classe ouvrière au sein de l’Union des républiques socialistes soviétiques (URSS). Si certaines villes, comme Bakou, ont connu la construction de théâtres d’opéra avant la révolution, les années 1920-1930 puis celles d’après-guerre voient se constituer progressivement un vaste réseau de théâtres lyriques aptes à proposer des œuvres prônant l’héroïsme de l’homme soviétique, l’amour pour les proches et pour la Patrie.

En effet, sur le plan artistique, les premiers opéras soviétiques privilégient des sujets contemporains et historiques porteurs de messages idéologiques clairs. Dans les années 1930, l’influence de la chanson « de masse », largement diffusée par le cinéma sonore et la radio, conduit à une simplification du langage musical. L’opéra le Don paisible, d’Ivan Dzerjinski, incarne un style fondée sur la mélodie populaire et le chœur, visant une large accessibilité. Cette orientation esthétique montre cependant ses limites en affaiblissant parfois la profondeur dramatique.

En outre, à partir de la fin des années 1920 et surtout après la Seconde Guerre mondiale, plusieurs compositeurs cherchent des synthèses musicales plus ambitieuses à l’image de Sergueï Prokofiev, avec Semyon Kotko (1939). Les héros des opéras de cette période – ouvriers, soldats ou paysans – incarnent la vertu collective, le courage patriotique et la fidélité aux valeurs familiales et nationales dans un cadre dramatique, exaltant la grandeur du projet socialiste.

De même, Dmitri Kabalevski parvient à concilier chant populaire et formes symphoniques dans la Famille de Taras (1950), illustrant ainsi une voie médiane entre accessibilité et exigence artistique.

De surcroît, des opéras historiques, comme les Décembristes (1925), de Yuri Shaporin, côtoient des œuvres ancrées dans les traditions locales. Cette production participe à une politique de soft power interne : en célébrant l’« amitié entre les peuples », l’État soviétique valorise la diversité culturelle tout en imposant un cadre idéologique commun et la généralisation de langue russe.

D’autre part, un relatif assouplissement idéologique s’opère à partir des années 1960 permettant une diversification des formes et un regain d’intérêt pour des œuvres contemporaines, nationales ou étrangères. L’opéra ajoute ainsi son influence à celles du théâtre dramatique et du cinéma, confirmant sa capacité d’adaptation. Loin de disparaître, il demeure un espace de dialogue entre traditions locales et langages modernes puis s’emploie à dépasser les frontières, œuvrant à sa manière à une diplomatie culturelle qui s’ouvre sur l’Occident.

Enfin, l’éclatement de l’URSS après 1991 entraîne une recomposition profonde du paysage lyrique. Chaque État suit désormais sa propre trajectoire, mais partout l’opéra reste un marqueur de prestige et un outil de soft power. Les scènes postsoviétiques alternent grand répertoire européen et œuvres nationales tandis que les tournées internationales et les coproductions prolongent les échanges culturels amorcés à l’époque impériale.

Ainsi, introduit comme art de cour, devenu au XIXᵉ siècle un vecteur d’affirmation nationale puis transformé en instrument associé au pouvoir, l’art lyrique joué dans les territoires postsoviétiques porte encore aujourd’hui les traces de ces strates successives tout en continuant à innover. Dans les œuvres de Glinka, Hajibeyov, Prokofiev et bien d’autres compositeurs soviétiques, l’opéra apparaît comme un marqueur géographique révélant une histoire où identité et échanges culturels restent indissociablement liés.


Merci à Nataliia Moroz, docteur en géographie, linguiste, traductrice, actuellement médiatrice scientifique à la Société de mathématiques appliquées et de sciences humaines (Smash), qui a co-écrit cet article.

The Conversation

Frédéric Lamantia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

03.03.2026 à 13:25

La pluie arrive en Antarctique, et ce n’est pas une bonne nouvelle

Bethan Davies, Professor of Glaciology, Newcastle University

En Antarctique, la pluie remplace peu à peu la neige. Ce n’est pas une bonne nouvelle pour les glaciers et les manchots ni même pour les scientifiques.
Texte intégral (2476 mots)
La pluie entraîne toutes sortes de changements profonds en Antarctique. Gula52/Shutterstock

Habituellement rare en Antarctique, la pluie remplace de plus en plus souvent la neige, en particulier sur la péninsule. Ce n’est pas une bonne nouvelle pour les glaciers, les manchots et même les scientifiques qui travaillent sur le terrain.


La pluie est habituellement rare en Antarctique. Les scientifiques qui y travaillent s’habillent pour affronter le froid et l’éblouissement (lié aux vastes étendues blanches qui réfléchissent la lumière du soleil, ndlt) et non pour faire face à des conditions météorologiques humides : vestes matelassées, pantalons de neige, lunettes de protection, crème solaire, etc. Les avions atterrissent sur des pistes en gravier qui sont rarement verglacées, faute de précipitations qui pourraient geler. Les cabanes historiques restent bien conservées dans l’air sec.

Mais cela commence à changer.

Il pleut déjà plus souvent qu’avant sur la péninsule antarctique, étroite et montagneuse, qui constitue la pointe la plus septentrionale du continent et qui pointe vers l’Amérique du Sud. Cette péninsule constitue la partie la plus chaude de l’Antarctique et se réchauffe plus rapidement que le reste du continent, et d’ailleurs plus rapidement que la moyenne mondiale. Elle donne un aperçu de ce que pourrait connaître la côte antarctique, en particulier la fragile calotte glaciaire de l’Antarctique occidental, au cours des prochaines décennies.

J’ai récemment dirigé une équipe de scientifiques chargée d’étudier l’évolution de la péninsule antarctique d’ici 2100 selon trois scénarios d’émissions de gaz à effet de serre : élevées, moyennes et faibles. Nous avons constaté qu’avec le réchauffement de la péninsule les précipitations augmenteront un peu.

Surtout, elles se présenteront de plus en plus sous forme de pluie plutôt que de neige. Les journées où la température dépasse 0 °C deviendront plus fréquentes, et ces précipitations modifieront fondamentalement la péninsule.

Quand la chaleur et la pluie vont de pair

Les conditions météorologiques extrêmes causent déjà des problèmes. En février 2020, une vague de chaleur avait fait grimper les températures à 18,6 °C dans la péninsule nord, permettant de ne porter qu’un t-shirt – une première en Antarctique. Pendant ce temps, les plateformes de glace ont fondu à un rythme record.

map of Antarctica
La péninsule prolonge l’Antarctique occidental en direction de l’Amérique du Sud. USGS/wiki, CC BY-SA

Les rivières atmosphériques – de longs couloirs étroits d’air chaud et humide qui prennent naissance dans les latitudes plus chaudes – jouent un rôle de plus en plus notable. En février 2022, l’une d’entre elles a entraîné une fonte record de glace en surface. Une autre, en juillet 2023, a apporté des précipitations et une hausse des températures de + 2,7 °C à la péninsule en plein cœur de l’hiver. Ces événements se produisent de plus en plus souvent, apportant de la pluie et du dégel dans des zones où aucun de ces deux phénomènes n’avait été observé auparavant.

Ce que la pluie fait à la neige et à la glace

La neige n’aime pas la pluie. Nous avons tous déjà vu de la neige fondre rapidement lorsqu’il pleut.

Dans la péninsule antarctique, la pluie s’accompagne d’une hausse des températures qui fait fondre et lessive la neige, et prive ainsi les glaciers d’apports de neige précieux. L’eau de fonte peut également atteindre le lit du glacier, lubrifiant sa base et accélérant les glissements. Cela augmente la production d’icebergs et la masse de glace perdue dans l’océan.

Sur les plateformes de glace, la pluie compacte la neige tombée à la surface, où l’eau forme rapidement des mares. Cette eau de fonte accumulée se réchauffe ensuite plus vite, car elle est moins réfléchissante que la neige et la glace environnantes et peut fondre à travers le plateau glaciaire jusqu’à l’océan. Cela conduit à un affaiblissement de la glace et donne naissance à davantage d’icebergs.

Cela peut déstabiliser ces plateformes. La formation de mares d’eau de fonte a été impliquée dans l’effondrement des plateformes glaciaires Larsen A et B au début des années 2000.

La glace de mer (constituée d’eau de mer gelée, et qui forme la banquise, ndlt) est, elle aussi, vulnérable. La pluie réduit la couverture neigeuse et la réflectivité de la surface, ce qui accélère, là aussi, la fonte de la glace. La glace de mer constitue pourtant, en temps normal, un tampon naturel qui amortit les vagues et contribue à empêcher les extrémités des glaciers de se détacher et de se transformer en icebergs. C’est aussi l’habitat des algues et du krill ainsi que les lieux de reproduction des manchots et des phoques.

Des écosystèmes en péril

Un climat plus pluvieux aura donc de nombreux impacts écologiques en Antarctique.

L’eau peut ainsi inonder les sites de nidification des manchots. Ces derniers ont évolué dans un désert polaire et ne sont pas adaptés à la pluie. Les plumes duveteuses de leurs poussins ne sont pas imperméables, de sorte que les fortes pluies les trempent, entraînant parfois une hypothermie puis la mort.

baby penguins in Antarctica
Les plumes des manchots empêchent la glace et la neige de pénétrer mais pas l’eau liquide. Vladsilver/Shutterstock

Conjuguée au réchauffement des océans, à la diminution de la surface de la banquise et à la raréfaction du krill, cette pression affectera les manchots de tout le continent. Des espèces emblématiques de l’Antarctique, telles que le manchot Adélie (Pygoscelis adeliae) et le manchot à jugulaire (Pygoscelis antarcticus), qui dépendent de la glace, risquent d’être remplacées par les manchots papous (Pygoscelis papua), plus adaptables, que l’on retrouve de plus en plus au Sud.

Les précipitations modifient également la vie à plus petite échelle. Lorsqu’elles font fondre la couche de neige, elles perturbent les algues des neiges, des plantes microscopiques qui contribuent aux écosystèmes terrestres de l’Antarctique. Ces algues nourrissent des microbes et de minuscules invertébrés et peuvent assombrir la surface de la neige, augmentant ainsi l’absorption solaire et accélérer la fonte.

La neige isole normalement le sol, ce qui permet d’amortir les variations de températures extérieures et de protéger les organismes qui vivent en dessous. Les surfaces désormais exposées sont à présent soumises à des conditions plus rudes et plus variables.

Parallèlement, le réchauffement des mers peut faciliter la colonisation de la région par des espèces marines envahissantes, telles que certaines moules ou certains crabes.

De nouveaux défis pour les scientifiques

Les humains ne sont pas non plus à l’abri des défis posés par une péninsule Antarctique plus pluvieuse.

Avec l’intérêt géopolitique croissant porté à l’Antarctique, il est probable que les infrastructures humaines se développent, avec de nouvelles colonies et bases potentielles pour servir les industries émergentes, telles que le tourisme ou la pêche au krill. Or, les infrastructures de recherche actuelles ont été conçues pour la neige, et non pour de fortes pluies. La pluie gèle sur les pistes d’atterrissage et peut les rendre inutilisables jusqu’à ce que la glace ait fondu.

La neige fondue et l’eau de fonte peuvent endommager les bâtiments, les tentes, les instruments et les véhicules. Il pourrait également être nécessaire de repenser les vêtements et les équipements.

Certains sites de recherche entiers pourraient devoir être déplacés. Sur l’île Alexander, l’augmentation de la fonte en surface a déjà perturbé les recherches écologiques menées de longue date à Mars Oasis, qui fait l’objet d’études continues depuis la fin des années 1990, ce qui a entraîné des trous dans les données scientifiques.

Un patrimoine en danger

Les sites historiques sont particulièrement vulnérables.

L’Antarctique compte 92 sites et monuments historiques, résultat de deux siècles d’exploration et de recherche. Bon nombre de ces cabanes en bois, premières installations scientifiques et entrepôts de matériel, sont regroupées sur la péninsule.

Dans un climat plus chaud et plus humide, le dégel du pergélisol et des précipitations plus abondantes menacent l’intégrité structurelle de ces sites. Le bois se détériorera plus rapidement. Les fondations s’affaisseront. Ces sites nécessiteront un entretien plus fréquent, dans une partie du monde où les travaux de conservation sont déjà difficiles sur le plan logistique.

La péninsule Antarctique subit déjà des changements rapides. Si le réchauffement climatique atteint 2 °C ou 3 °C au cours de ce siècle, les conditions météorologiques extrêmes, les précipitations et la fonte de surface s’intensifieront. Les dommages causés aux écosystèmes, aux infrastructures, aux glaciers et aux sites patrimoniaux pourraient être graves et potentiellement irréversibles.

La pluie, autrefois rare en Antarctique, devient une force capable de remodeler la vie sur la péninsule. Limiter le réchauffement à moins de 1,5 °C n’empêchera pas entièrement ces changements. Mais cela pourrait ralentir la vitesse à laquelle les précipitations transforment le continent gelé.

The Conversation

Bethan Davies a reçu des financements du département des régions polaires du Foreign, Commonwealth & Development Office britannique.

PDF

03.03.2026 à 11:03

Reinterpreting ‘awe’: why cross-cultural emotional intelligence needs to be handled with care

Craig L. Anderson, Professor, HEC Paris Business School

New research based on student journalling reveals how American and Chinese cultural standpoints wildly differ in how they make sense of awe.
Texte intégral (1378 mots)

Awe has become a kind of emotional currency in Western wellness circles – revered for its ability to boost mental and physical health and even social interactions. There are findings linking awe to increased prosocial behaviour, curiosity, humility, wellbeing, lower post-traumatic stress disorder (PTSD), and more adaptive physiological profiles. And yet across cultures, awe can provoke veneration and wonder or it can stimulate feelings of dread. What if awe does not travel?

That’s the question posed by a new set of cross-cultural studies that I co-authored with researchers from a wide range of academic institutions. The research offers direct evidence of how awe may not be a universal feel-good emotion.

Using daily emotion diaries and physiological data, we found evidence that while awe may be typically experienced as a positive emotion by people in the US in western contexts, in China, it can be experienced with some fear and tension by people in China.

Our findings challenge the assumption that awe always leads to connection or improved wellbeing – and raises big questions about how awe is used in mental health programmes, leadership training, and marketing around the world.

Awe can feel different across cultures

Psychologists and pioneers in the study of awe, Dacher Keltner and Jonathan Haidt define awe as:

“The feeling of being in the presence of something vast that transcends your current understanding of the world.”

Awe is an emotion we experience when we’re faced with something vast and mind-stretching. But this research shows that while the spark may be the same, how we actually feel can be very different depending on culture.

In two studies, we found awe took on a different emotional flavour, depending on where – and how – it was experienced. In the US, awe was more often accompanied by appreciation and amusement. In China, it came with more fear and signs of emotional pressure.

What is ‘awesome’ among student populations?

The first study was based on more than 2,500 diary entries recording moments of awe or joy among 166 university students in China and the US over a two-week period.

The pattern was clear: Chinese-born students studying in Beijing reported feeling more fear during moments of awe than students born and raised in the US.

But that difference did not show up for experiences of joy, suggesting this mixed emotional response was specific to awe.

Looking at the diary entries, we found that the US students felt more awe in response to nature, monuments, or architecture – 18% of the time, than students in China – just 10%. Chinese participants, on the other hand, were more likely to describe awe linked to other people, making up 59% of their entries versus 50% in the US.

Cultural psychology suggests that compared to the US, China’s culture tends to be more collective and more hierarchical. It is possible that feeling awe toward someone powerful may more often come with a feeling of being smaller or less in control, which could explain the higher number of diary entries relating threat-based awe among Chinese students.

Even shared experiences of awe trigger diverging reactions

To examine if these differences persisted in controlled laboratory settings, in a second laboratory-based study we showed American and Chinese participants the same nature video. The clip, taken from the film Planet Earth featured giant waterfalls and sweeping aerial shots of mountain ranges, all set to orchestral music with no narration. The Chinese students reported more fear than the US students – even though both found the video awe-inspiring. The US students, on the other hand, reported feeling more of the good stuff: appreciation, even a bit of amusement.

The physiological data we collected during the viewing backed up what the students reported. Both groups showed similar signs – such as sweating, which signals emotional arousal and steady breathing patterns. But heart rate told a different story: the US students’ heart rate showed a drop, a sign of calm, while the Chinese students’ heart rate showed a slight rise, suggesting tension or alertness.

Why awe’s emotional impact isn’t one-size-fits-all

These findings carry weighty implications. Awe is being used everywhere – in therapy, schools, and even marketing. From nature retreats to big-brand ads, there’s a whole industry built on the idea that awe makes us feel good. But if awe brings fear for some, its effects – on mental health, creativity, or team connection – might not be so straightforward.

An earlier study I co-authored in 2018 with fellow experts Maria Monroy, and Dacher Keltner, shows how awe can help ease post-traumatic stress disorder, especially for military veterans spending time in nature. But if the sense of awe comes with fear, the benefits could fade, or even flip.

This matters for business, too. Companies are using awe in ads, travel and brand events to wow people and build loyalty. But if awe feels unsettling in some cultures, those big emotional plays could fall flat or even push people away.

Our research is not saying awe doesn’t work – just that it does not feel the same for everyone. Culture shapes how we feel, even with emotions we may think are hardwired. The view of awe as purely uplifting might be the exception, not the norm. Knowing that is crucial for creating experiences that can actually work across cultures.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Craig L. Anderson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

03.03.2026 à 09:46

Électrohypersensibilité : réconcilier les personnes qui souffrent et les scientifiques

Jimmy Bordarie, Docteur, Maitre de conférences, Université de Tours

Maryse Ledent, PhD en santé publique

Dans l’électrohypersensibilité, les personnes en souffrance rapportent divers symptômes qu’elles attribuent aux champs électromagnétiques. Elles doivent être partenaires des études sur le sujet.
Texte intégral (2171 mots)

L’électrohypersensibilité, ou EHS, désigne un syndrome spécifique pour lequel les personnes concernées rapportent divers symptômes qu’elles attribuent aux champs électromagnétiques. De nombreux débats existent aujourd’hui, notamment sur la reconnaissance de l’EHS en tant que maladie, ce qui conduit parfois à des incompréhensions entre la communauté scientifique et les personnes en souffrance.


La perception de risques pour la santé en lien avec les nouvelles technologies est très répandue. Ce phénomène est appelé « préoccupations de santé modernes ». Il inclut des inquiétudes relatives aux champs électromagnétiques, aux polluants atmosphériques, à l’alimentation, aux antibiotiques ou encore au changement climatique. Ces préoccupations sont souvent citées en lien avec le report de symptômes non spécifiques.

Dans les syndromes dits médicalement inexpliqués, tels que la sensibilité chimique, l’intolérance au bruit ou encore le syndrome des bâtiments malsains, les patients se plaignent également de symptômes non spécifiques qu’ils attribuent à un agent environnemental, et ce, en l’absence d’une pathologie qui pourrait les expliquer. Ces syndromes liés à l’environnement, appelés intolérances environnementales idiopathiques sont polymorphes. L’acronyme SAEF (pour Symptoms Associated with Environmental Factors) vise à les rassembler sous un même terme.

Le cas de l’électrohypersensibilité : repérage et prévalence

L’électrohypersensibilité (EHS) est un syndrome pour lequel aucune affection médicale sous-jacente identifiée ne permet d’expliquer les symptômes associés. Elle est classée parmi les intolérances environnementales idiopathiques (IEI) par l’Organisation mondiale de la santé. On parle alors d’IEI-CEM (CEM pour champs électromagnétiques).

En France, dans un avis rendu par l’Agence nationale de sécurité sanitaire (Anses) en 2018, les IEI-CEM sont définis selon trois critères :

  1. la perception de divers symptômes (fatigue, maux de tête, difficultés de concentration, problèmes dermatologiques et digestifs, etc.) ;

  2. l’absence de troubles cliniquement identifiés susceptibles de les expliquer ;

  3. leur attribution aux champs électromagnétiques tels que les antennes de télécommunication, le Wi-Fi, les lignes électriques à haute tension, les téléphones mobiles et écrans d’ordinateur, etc. par les personnes concernées.

Difficile d’évaluer la prévalence de l’électrohypersensibilité. Selon les dernières études de prévalence au niveau international, autour de 5 % de la population se déclarerait électrohypersensible, soit, en France, plus de 3 millions de personnes. Une partie de la variabilité de ces estimations peut s’expliquer par l’absence de critères objectifs. En effet, initialement, l’évaluation reposait généralement sur une seule question dichotomique « oui/non » demandant si la personne était très sensible. Depuis, il est recommandé d’ajouter des questions supplémentaires, telles que l’apparition des symptômes et l’impact négatif sur la vie quotidienne.

Quelles conséquences pour la santé des personnes concernées ?

L’omniprésence des champs électromagnétiques anthropiques dans nos sociétés entraîne souvent ces personnes à adapter leur mode de vie. Les stratégies d’adaptation utilisées impliquent le plus souvent d’éviter l’exposition en prenant diverses mesures de protection.

Si certaines personnes rapportent alors une amélioration de leur qualité de vie, pour d’autres, cela conduit à une exclusion sociale, une incapacité de travail et des difficultés financières, souvent renforcées par un manque de compréhension de la part de leur famille et de leur entourage professionnel à l’égard des précautions qu’elles prennent.

En outre, la littérature scientifique confirme également que les personnes atteintes d’électrohypersensibilité ont tendance à se sentir inférieures aux autres et mal à l’aise dans leurs relations sociales. Elles rencontreraient également plus de difficultés à maintenir un certain niveau d’estime de soi, auraient une image de soi plus altérée et seraient plus vulnérables. Elles seraient plus sujettes aux troubles anxio-dépressifs, dont nous ne pouvons être assurés à ce jour qu’il s’agisse d’une cause ou d’une conséquence de l’électrohypersensibilité.

Les champs électromagnétiques en cause ?

Pour étudier le lien entre symptômes et champs électromagnétiques, les scientifiques s’appuient sur des méthodologies diverses :

  1. des études observationnelles ;

  2. des études d’évaluation écologique momentanée (une méthode qui consiste à recueillir, plusieurs fois par jour et en temps réel, des données, par exemple, sur les symptômes, les émotions ou les comportements d’une personne dans son environnement de vie habituel) ;

  3. des études d’intervention ;

  4. des études de provocation (une méthode dans laquelle des volontaires sont exposés de façon aléatoire et contrôlée, en double aveugle, à des champs électromagnétiques ou à une condition « fictive/simulée » sans champs électromagnétiques, afin d’observer d’éventuelles modifications de leurs symptômes ou de leur état physiologique).

À noter que, dans la lignée des recommandations de l’Anses, des protocoles de provocation innovants ont également été développés en collaboration avec les personnes concernées.

En dépit, parfois, de certaines limites méthodologiques, les résultats du corpus de littérature sur l’électrohypersensibilité (environ 350 études à ce jour) sont largement consensuels et convergent vers un rejet de l’existence de preuves cliniques ou biologiques valables permettant d’associer ces symptômes aux champs électromagnétiques.

D’autres explications possibles…

Une partie des études a permis de confirmer l’existence d’un effet nocebo ; effet qui se produit lorsqu’une personne s’attend (consciemment ou non) à des conséquences négatives de certains facteurs, comme les champs électromagnétiques, sur sa santé et/ou sa vie en général.

Le Comprehensive Model suggère que les personnes souffrant d’intolérances environnementales idiopathiques en général partageraient une croyance causale, qui conduirait à l’anticipation et à la survenue d’effets nocebo en relation avec l’exposition perçue tandis que les symptômes conduiraient à la validation de la croyance.

Cependant, cette hypothèse n’est pas pleinement satisfaisante, car elle ne peut s’appliquer qu’aux personnes qui considèrent a priori les champs électromagnétiques comme une source de risques pour la santé. Or, en s’intéressant aux trajectoires des personnes atteintes d’électrohypersensibilité, une autre partie de la littérature scientifique souligne la préexistence des symptômes dans certains cas, alors même qu’il n’y avait auparavant aucune crainte au regard des champs électromagnétiques.

Traits de personnalité en jeu

D’autres études s’intéressent au rôle de variables dispositionnelles, c’est-à-dire des variables telles que la personnalité, qui pourraient alors permettre de comprendre, soit l’apparition de ces symptômes, soit la tendance à les attribuer aux champs électromagnétiques. Par exemple, le mode de pensée holistique, c’est-à-dire la tendance à la spiritualité et aux croyances globales en matière de santé ainsi que la détresse liée aux symptômes somatiques seraient des facteurs importants dans les préoccupations de santé modernes.

Plus récemment, des études ont confirmé la relation entre l’électrohypersensibilité et l’hypersensibilité, aussi appelée sensibilité élevée du traitement sensoriel. Les personnes hautement sensibles ont des réactions plus fortes aux stimuli environnementaux, ce qui peut être vécu comme une source de stress et constitue une piste prometteuse pour proposer une prise en charge aux personnes souffrant d’électrohypersensibilité.

Les enjeux d’une collaboration nécessaire

Dans un certain nombre de cas, l’électrohypersensibilité (EHS) ne serait pas une hypersensibilité isolée, dans la mesure où plusieurs auteurs ont affirmé qu’une partie des personnes souffrant d’EHS signalent également d’autres sensibilités (par exemple, des sensibilités chimiques multiples). D’ailleurs, actuellement certains chercheurs étudient l’efficacité de traitements basés sur des thérapies cognitivo-comportementales pour réduire les symptômes associés aux facteurs environnementaux.

S’il existe un réel enjeu tant pour les personnes concernées que pour les scientifiques à comprendre les causes de ce syndrome et l’origine des symptômes, au-delà des convictions des personnes en souffrance, le rôle de la science vise à une amélioration des connaissances pour identifier les causes des troubles décrits. Aussi, ne pas converger vers la même explication ne suppose pas une opposition entre souffrants et scientifiques.

Il est donc plus qu’essentiel de continuer à travailler en collaboration pour comprendre les enjeux de ces préoccupations de santé modernes, leurs causes et leurs conséquences. Les scientifiques doivent intégrer les personnes en souffrance comme des partenaires dans leurs études. Ainsi, l’enjeu relève tout aussi bien de la prise en compte nécessaire des savoirs expérientiels des personnes concernées que du respect des critères assurant une production scientifique de qualité.

The Conversation

Certains travaux cités impliquent les auteurs de cet article et ont fait l'objet d'un financement : - Agence Nationale de Sécurité Sanitaire de l'Alimentation, de l'Environnement et du Travail (Reference: PNREST‐EST/2017/2 RF/19) - Direction Générale Opérationnelle de l'Agriculture, des Ressources Naturelles et de l'Environnement du Service Public de Wallonie.

Maryse Ledent est membre de The BioEM Society et de Belgian Association of Public Health (BAPH). Dans le cadre des travaux liés à cet article, nous avons reçu deux soutiens financiers : de l'Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Reference: PNREST‐EST/2017/2 RF/19) ainsi que de la Direction générale opérationnelle de l’agriculture, des ressources naturelles et de l’environnement du Service public de Wallonie.

PDF

02.03.2026 à 17:14

Why we shouldn’t abandon handwriting at school

Atheena Johnson, Docteure en linguistique appliquée, Université Paris Nanterre

In today’s classrooms, pens and exercise books are increasingly having to make way for screens and keyboards. Does technology help pupils write as efficiently?
Texte intégral (1279 mots)

Over the decades, technological devices have been gradually integrated into language learning, as is recently the case with generative artificial intelligence (AI).

Does the sophistication of these tools eventually render pencils and pens obsolete? Or can digital uses be combined with manual writing? How does writing keep its value for the human being?

Pen or keyboard: an impact on memorisation

Handwriting has long been associated with memory and learning. It was in 1829 that the keystroke first appeared. It, thereafter, became common in 1867 thanks to the first manual typewriter. While students of the past learned to write exclusively by hand, today’s students alternate between screens and paper. However, research shows that these modalities do not have the same effects on memorisation and retention, and essentially, the acquisition of knowledge.

In a 2014 study, students were better able to answer analytical questions if they took their notes by hand. A 2017 study found that 20-25-year-old students retained the information they wrote by hand longer than the information that they typed on a keyboard.

In addition, it was discovered that students who used artificial intelligence from the stage of their first draft remembered very little of what was actually written when they were tested for their ability to cite a text, unlike those who had composed their own texts from the draft stage. Finding a balance between written and digital production is, therefore, very important.

Less lexical richness in digitally produced written work

In an experiment conducted in 2019, before the generative AI boom that we know, we compared the handwritten and typewritten productions of students in English. We found a lesser lexical richness in typed productions, which confirmed the trends mentioned above.

There were 58 university participants in the study, each producing a typewritten text and a handwritten text at an interval of one week. The experiment took place as part of the preparation for a final evaluation. Participants could not use resources during the production: no dictionary or self-correction tools.

The objective of the study was to determine whether there were linguistic differences according to the mode of production. We were interested in the stylistic aspects, such as the informational value of the texts and the way they were arranged, as well as lexical aspects.


À lire aussi : 5 reasons kids still need to learn handwriting (no, AI has not made it redundant)


The majority of the texts showed a statistically similar informational value and textual organisation. This suggested that the mode of production did not influence the stylistic approaches used.

Regarding lexical diversity, however, the observation was not the same. Lexical richness was much greater in most handwritten productions. The typed productions had lexical weaknesses that were not present in the handwritten productions of the same participants.

These results may have implications for teaching English and how students are encouraged to produce their written texts.

Writing on screen is a learned competence

Since the digital transition has been condoning the pen to the closet, several countries have looked at the impact of digital uses on written skills: Spain, the United States and France.

However, recent studies highlight the importance of specific writing strategies for student progression, such as planning or proofreading. If handwritten production develops capabilities that the keyboard does not develop, keyboard mastery remains an essential but demanding skill.

The difficulties in writing today are primarily due to the place that it is given, receiving less priority in school curricula in Europe, the United States or China. What is of fundamental consideration is that the production methods are different at three levels.

Firstly, typewriting and handwriting take place in distinct spatial frameworks. Writing occurs in a unified space while typing takes place in two separate spaces: on the screen and on the keyboard.

Secondly, the way in which the individual composes with the spatial differences when planning, transcribing and revising a text is also very different. Finally, the perception and uses of students vary according to the production methods.

This is why it is important to continue to emphasise the cognitive benefits of handwriting at school and elsewhere, while becoming aware of the formal training that digital writing implies so that students reach the same level of fluidity on screen as on paper. In class, it is a matter of thinking about the options offered in terms of writing tools. It remains to be seen what the impact of the increasing use of AI will be on written production, where writing mastery is equally essential and demanding.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Atheena Johnson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.03.2026 à 17:12

Syndrome de Gilles de La Tourette : les patients atteints de « tics tabous » subissent une forte stigmatisation sociale

Rena Zito, Associate Professor of Sociology, Elon University

Le syndrome de Gilles de la Tourette peut se traduire par le fait de proférer involontairement des obscénités et des insultes. Cette coprolalie très stigmatisante ne concerne toutefois qu’une minorité de patients.
Texte intégral (2348 mots)
Les tics de langage obscènes dont sont atteints certains patients touchés par le syndrome de Gilles de La Tourette les poussent à dire ou à faire ce qu’ils souhaitent le plus éviter. Dominic Lipinski/Stringer via Getty Images

Le syndrome de Gilles de La Tourette est encore très mal compris du public, et fait l’objet d’une importante stigmatisation. Le réduire à une « maladie des jurons » ne reflète pas la réalité complexe de ce trouble du neurodéveloppement, puisque seule une minorité de patients est concernée par ces symptômes.


Le 22 février 2026, durant la cérémonie de la British Academy of Film and Television Arts (BAFTA), à Londres, John Davidson, dont l’existence a inspiré le biopic primé I Swear, a involontairement proféré une insulte à caractère racial lors du discours de Michael B. Jordan et Delroy Lindo. La séquence est devenue virale, et le tollé qui s’est ensuivi a ravivé le débat public sur le syndrome de Gilles de la Tourette et son symptôme le plus frappant, les tics de langage obscènes, désignés sous le terme de « coprolalie ».

M. Davidson est une figure familière du public britannique depuis son adolescence, époque à laquelle il a figuré pour la première fois dans un documentaire de la BBC consacré au syndrome de Gilles de La Tourette, dont il est atteint. Depuis lors, il a consacré des décennies à sensibiliser le public à cette pathologie, un engagement qui lui a valu une distinction honorifique en 2019, remise par la reine Elizabeth II.

Les réactions suscitées par les tics de Davidson lors de la soirée de la BAFTA révèlent que le syndrome de Gilles de La Tourette demeure une pathologie profondément méconnue. En tant que sociologue, je consacre mes recherches aux dimensions sociales de cette affection (avec lequel je vis moi-même), notamment à la stigmatisation liée à la coprolalie. Si la majorité des personnes atteintes par le syndrome de Gilles de La Tourette ne présentent jamais ces tics tabous, celles qui en souffrent doivent supporter le poids du jugement social.

Qu’est-ce que le syndrome de Gilles de La Tourette ?

Le syndrome de Gilles de La Tourette est un trouble du neurodéveloppement qui affecte environ 0,5 % à 0,7 % de la population. Il se caractérise par des mouvements et des sons involontaires, appelés tics, qui débutent généralement dans l’enfance et, pour certains individus, persistent à l’âge adulte.

Les tics peuvent être moteurs, tels que des clignements d’yeux ou des haussements d’épaules, ou vocaux, comme le raclement de gorge ou l’émission de sons brefs. Certains se limitent à un geste ou un son unique, tandis que d’autres combinent plusieurs mouvements ou impliquent des verbalisations plus longues – par exemple, un claquement de doigts suivi d’un mouvement brusque de la tête, ou la répétition de mots ou de phrases.

La coprolalie, soit l’émission involontaire de propos obscènes ou offensants, constitue l’un des aspects les plus mal compris de la pathologie. Environ 10 % à 20 % des personnes atteintes du syndrome de Gilles de La Tourette présentent ce type de tic.

Moins d’une personne sur cinq atteinte du syndrome Gilles de La Tourette présente des tics tabous, comme la coprolalie, mais leur impact sur la vie sociale est disproportionné.

L’intensité, la fréquence et la forme des tics évoluent souvent avec le temps, des périodes de calme relatif alternant avec des phases d’exacerbation des symptômes. De nombreux patients ressentent une sensation de tension désagréable avant l’apparition d’un tic, appelée besoin prémonitoire, comparable à une démangeaison qu’il faut impérativement soulager. Pour d’autres, les tics surviennent de manière plus subite, à l’instar d’un éternuement imprévisible. Certains parviennent à réprimer temporairement leurs tics, souvent au prix d’un inconfort ultérieurement accru, tandis que d’autres en sont incapables.

Les tics peuvent être physiquement éprouvants, entraînant des douleurs et des blessures aiguës ou chroniques. En outre, les personnes atteintes sont fréquemment confrontées à la stigmatisation et à la discrimination. Elles vivent sous la pression constante de devoir contrôler ou dissimuler leurs symptômes, ce qui engendre une lourde charge psychologique. Ces patients présentent un risque accru d’automutilation et de suicide.

Bien que l’étiologie du syndrome de Gilles de La Tourette ne soit pas encore totalement élucidée, une forte composante génétique est vraisemblablement en cause. Cependant, s’il s’agit souvent d’une pathologie familiale, ce syndrome peut également résulter de complications périnatales ou d’infections.

Comprendre les tics tabous tels que la coprolalie

Bien que seule une minorité de patients souffre de coprolalie, les représentations médiatiques du syndrome de Gilles de la Tourette se focalisent de manière disproportionnée sur les accès de vulgarité. Ces tics tabous, choquants et inattendus, marquent en effet davantage l’imaginaire collectif que des tics plus fréquents, mais moins spectaculaires. Ce stéréotype de la « maladie des jurons » dénature la réalité vécue par la plupart des malades.

Par ailleurs, la coprolalie n’est en effet qu’une forme de tic tabou parmi d’autres. On dénombre également la copropraxie (gestes obscènes) et les tics non obscènes, mais socialement inappropriés, tels que des bruits de baisers, des crachats ou le fait de toucher autrui.

Baylen Dupree, star de l’émission « Baylen Out Loud » de la chaîne états-unienne TLC
Baylen Dupree, vedette de l’émission « Baylen Out Loud » (TLC), souffre d’une forme sévère de syndrome de Gilles de La Tourette incluant la coprolalie. Slaven Vlasic/Stringer via Getty Images

L’un des aspects les plus déroutants des tics tabous réside dans leur capacité à être contextuellement pertinents, tout en demeurant involontaires. Un patient pourrait par exemple hurler « J’ai une arme ! », lors d’un contrôle de police. Les tics peuvent être déclenchés par certains stimuli de l’environnement social, en particulier lors de moments de stress intense.

Pourquoi la vulgarité prédomine-t-elle dans certains cas ? Les tics résultent d’un dysfonctionnement des circuits neuronaux impliqués dans le mouvement et le contrôle des impulsions. Or, les termes tabous possèdent une forte charge émotionnelle et sociale ; ils tendent donc à être plus solidement ancrés dans les réseaux langagiers et émotionnels du cerveau que les mots neutres.

Cela explique pourquoi la coprolalie peut également survenir, bien que plus rarement, chez des individus souffrant de lésions cérébrales, de maladies neurodégénératives ou de troubles épileptiques.

Les défis du quotidien avec la coprolalie

Les symptômes de tics tabous sont souvent associés à une gravité clinique accrue du trouble, à une plus grande fréquence de comorbidités ainsi qu’à des difficultés relationnelles majeures. L’insertion sociale des personnes touchées par le syndrome de Gilles de La Tourette qui en sont atteintes peut s’avérer précaire. Mes recherches sur la stigmatisation de la coprolalie mettent par ailleurs en lumière la profondeur de la détresse qu’engendrent les idées reçues.

Un préjugé courant veut que les tics révèlent le fond de la pensée de l’individu. En réalité, les tics contraignent souvent les personnes à dire ou à faire précisément ce qu’elles souhaitent le plus éviter.

La lutte contre les préjugés est un enjeu crucial, d’autant plus lorsque les tics prennent la forme d’insultes ou de calomnies.

Comme me l’a confié une des personnes que j’ai interrogées durant mes travaux : « C’est comme si mon cerveau transformait mes intentions les plus polies en armes cruelles. Sortir devient terrifiant… Savoir que j’ai en moi ce mécanisme de confrontation qui peut se manifester subitement, alors que je ne le souhaite absolument pas. »

Ces tics socialement inappropriés peuvent attirer une attention malvenue sur les patients et les conduire à l’exclusion, au harcèlement, à des altercations et constituer un obstacle à l’accès à l’emploi. Un autre participant l’a résumé ainsi : « Il n’existe aucun travail où l’on accepterait un aménagement spécifique m’autorisant à injurier mon patron. »

Anticipant ces réactions, de nombreux patients souffrant d’une coprolalie marquée se retirent de la vie publique ou vivent avec le fardeau de devoir sans cesse s’expliquer et sensibiliser leur entourage.

Une autre idée reçue est que la coprolalie se manifeste systématiquement par le fait de hurler des obscénités en public. Si tel est le cas pour certains patients, comme John Davidson à la remise des prix de la BAFTA, d’autres parviennent à réprimer, masquer ou minutieusement contrôler leurs tics en société. Toutefois, ces deux réalités sont tout aussi éprouvantes l’une que l’autre. En outre, comme tout tic, l’atteinte coprolalique peut fluctuer avec le temps.

Enfin, soulignons que le stress lié aux tics tabous s’étend au-delà de l’individu. Les membres de la famille des patients affirment fréquemment ressentir un sentiment d’impuissance face à la détresse de leur enfant. Ils se sentent également peu soutenus par les institutions scolaires, et expérimentent le poids du jugement d’autrui lorsque ces tics se manifestent.

Afin de pouvoir participer pleinement et sereinement à la vie de la cité, les personnes atteintes du syndrome de Gilles de La Tourette, et plus particulièrement celles souffrant de tics tabous, ont donc besoin de toute la compréhension et le soutien possible.

The Conversation

Rena Zito ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.03.2026 à 17:12

Polices municipales : des effectifs en hausse… sans effet évident sur la délinquance

Adrien Mével, Docteur en science politique, Université de Rennes 1 - Université de Rennes

Les effectifs des polices municipales augmentent dans les villes administrées par des maires de droite comme de gauche, sans liens avec l’évolution de la délinquance. Analyse avant les élections municipales.
Texte intégral (1975 mots)
Entre 2020 et 2024, les effectifs de police municipale ont bondi de 19&nbsp;% en France. Pourtant, la délinquance enregistrée, elle, est globalement en baisse depuis 2016&nbsp;: le nombre de vols baisse chaque année de 2 à 8&nbsp;%, selon leur niveau de violence. NeydtStock/Shutterstock

Longtemps marqueur de clivage entre droite et gauche, le développement de la police municipale s’est imposé comme une priorité à l’approche des élections de ce mois de mars, toutes tendances politiques confondues. Pourtant, cette course aux effectifs n’est pas liée à l’évolution de la délinquance enregistrée.


Les enjeux de sécurité publique s’annoncent comme un point clef des élections municipales de mars prochain. Plus précisément, ce sont les questions de polices municipales qui s’avèrent centrales, au moment où un projet de loi visant à étendre les prérogatives de ces agents est justement en navette parlementaire. Cette focalisation médiatico-politique intervient à la fin d’une mandature déjà marquée par un fort développement des polices municipales : entre 2020 et 2024 (dernière année pour laquelle les données du ministère de l’intérieur sont disponibles), le nombre de policiers municipaux a augmenté de 4 600 individus environ, soit une croissance de 19 %.

Un alignement partisan sur la question policière ?

On a pu lire par endroits que les promesses électorales en matière de police municipale ne seraient déjà presque plus liées à l’orientation partisane. Il est vrai que dans les grandes villes, des municipalités socialistes et écologistes ont fait le choix du développement de la police municipale, dans un sens que l’on pourrait rapidement qualifier de « répressif » – au sens d’une attention accrue à la répression de la délinquance, par rapport à des tâches de régulation sociale et de résolution de désordres mineurs (ce à quoi on pense généralement quand on évoque la « police de proximité » : conflits de voisinage ou d’usage de l’espace public).

Par exemple, à Lyon (Rhône), l’arrivée des écologistes n’a pas produit de net changement : la municipalité a cherché tout le long du mandat à montrer qu’elle faisait son possible pour réduire l’écart important entre effectifs théoriques et réels de la police municipale, hérité de l’ère Collomb. À Marseille (Bouches-du-Rhône), le maire, anciennement membre du Parti socialiste (PS), revendique d’avoir plus que doublé le nombre d’agents en un mandat.

Il est aussi vrai que la tendance à l’alignement politique s’accélère à l’approche des élections municipales. Le maire PS de Brest (Finistère) – seule ville de 100 000 habitants à ne pas disposer d’une police municipale (il existe cependant une brigade de tranquillité urbaine, dont les missions de contrôle des populations marginales notamment évoquent très clairement des tâches de police municipale) – a annoncé que ce pas serait franchi en cas de réélection. Si l’on reste dans l’Ouest, une aire où les polices municipales sont relativement peu développées, la maire socialiste de Rennes (Ille-et-Vilaine) veut appliquer la recette de son homologue de Nantes (Loire-Atlantique) avec une importante augmentation des effectifs.

Des distinctions persistantes entre municipalités de droite et de gauche

Les marqueurs de distinction entre politiques policières de gauche et de droite n’ont toutefois pas été abolis, mais seulement déplacés. À Bordeaux (Gironde), la décision l’année dernière du maire écologiste de constituer une brigade de policiers municipaux dotés de l’arme à feu avait fait grand bruit, indicateur paradoxal que l’arme à feu persiste à signaler l’orientation partisane des politiques de sécurité. Cela reste vrai en général, bien que les transgressions de ce principe s’accumulent et que des maires de droite, comme à Bordeaux et à Marseille jusqu’en 2020, aient, eux, refusé la dotation en arme létale.

La constitution de brigades d’intervention (des unités travaillant souvent la nuit ou en soirée, orientées vers la recherche du flagrant délit et la réponse aux appels d’urgence) est un second marqueur : les municipalités de gauche y recourent peu par rapport à celles de droite. D’autres unités, les polices intercommunales des transports en commun, sont, parmi les plus grandes villes, plutôt développées par des municipalités socialistes (Montpellier, Nantes, peut-être bientôt Rennes) et peuvent être partiellement similaires aux unités d’intervention. Elles sont en effet orientées vers un style plus confrontationnel que le service général de police municipale, ainsi que vers la recherche du flagrant délit dans les transports et l’interpellation.

Les brigades de proximité et/ou environnementales sont elles aussi plutôt créées par les socialistes et les écologistes (annonce de brigades de proximité faite à Bordeaux, brigade de l’environnement à Marseille, brigade anti-incivilités à Rennes, brigade de proximité à Nantes). Cela signale deux tendances : d’une part, la « police de proximité » est de moins en moins envisagée comme le cœur de la police municipale et de plus en plus comme une branche spécialisée ; d’autre part, la gestion des dépôts sauvages et des infractions environnementales occupe de plus en plus ces services.

Un troisième marqueur réside simplement dans les taux de couverture (effectifs de police municipale rapportés à la population communale) : s’ils augmentent partout, ils sont les plus élevés dans deux villes gouvernées par la droite depuis au moins deux mandats, Nice (Alpes-Maritimes) et Toulouse (Haute-Garonne).

Une augmentation des effectifs décorrélée de l’évolution des chiffres de la délinquance

Ce spectaculaire développement des polices municipales n’est pas impulsé par une envolée de la délinquance. Les traitements de données du Service statistique ministériel de la sécurité intérieure (SSMSI) font état d’une tendance à la baisse depuis 2016 de plusieurs types de fait enregistrés par la police nationale et la gendarmerie, notamment dans presque toutes les catégories de vol. En taux d’évolution annuel moyen entre 2016 et 2024, le SSMSI indique une baisse du nombre de faits enregistrés de 3 % pour les vols avec armes, de 8 % pour les vols violents sans armes, et de 2 % pour les vols sans violence sur des personnes. Quant aux homicides, ils affichent une certaine stabilité (+ 1 % du nombre de faits par an depuis 2016).

Si les polices municipales sont bien sûr fondées à intervenir dans ces situations, comme dans toute situation de flagrant délit, on peut toutefois douter que l’augmentation d’effectifs de sécurité publique soit la réponse la plus adaptée à ce phénomène, les chances de « tomber » au moment opportun sur ce type de situation étant faibles.

Si l’on observe les plus grandes villes françaises après Paris, les plus fortes hausses d’effectifs de police municipale ne se font pas postérieurement à des augmentations locales d’infractions. À Toulouse, une nouvelle vague d’augmentation des effectifs a lieu après 2020 (de 330 agents cette année à 380 en 2023), alors que la période préconfinement était marquée dans la ville par une baisse des vols avec et sans violence. Nantes, quant à elle, a une délinquance enregistrée plus représentative des dix plus grandes villes françaises : une faible augmentation de différents faits dans les années pré-Covid, un coup d’arrêt porté en 2020 par les mesures de confinement et de restriction de liberté, puis la reprise à partir de 2021 à des niveaux moindres que précédemment. La police municipale y connaît pourtant une forte hausse des effectifs, d’une centaine en 2020 à plus de 160 en 2023.

Renforcement de la police municipale : un impact indéterminé sur la délinquance

Renversons, pour finir, la perspective : les augmentations d’effectifs produisent-elles des baisses de la délinquance enregistrée ? Toujours sur les cas des dix plus grandes villes françaises après Paris, rien ne permet à ce stade de l’affirmer.

Nous avons testé dans chaque ville, entre 2016 et 2024, l’impact de l’évolution des effectifs de police municipale sur la délinquance enregistrée l’année suivante. Sur les faits de vols violents, vols à main armée, vols sans violence, le test ne met pas en évidence un effet des variations d’effectifs de police municipale sur la délinquance et ne permet pas de rejeter l’hypothèse d’absence d’effet. Cette absence de corrélation statistique confirme ce que la lecture graphique suggère : les taux de délinquance enregistrés suivent une évolution globalement similaire, indépendamment des changements d’effectifs de la police municipale.

Ainsi, le développement des polices municipales s’est imposé comme un incontournable de l’action municipale et des promesses électorales, avec des variations selon l’orientation partisane, mais avec aussi des traits communs : plus d’effectifs, plus de missions de répression de la délinquance, plus d’armement (létal ou sublétal). Les causes de ce phénomène politique ne résident ni dans une envolée de la délinquance enregistrée – qui n’a pas eu lieu – ni dans l’effet négatif des polices municipales sur ces faits qui n’est pas démontré.

Les sources de l’impressionnant développement des polices municipales sont à chercher du côté des mécanismes de politisation : augmenter les effectifs policiers ou promettre de le faire est un moyen clé de montrer que l’on agit en matière de sécurité publique, ou d’attaquer des élus sortants sur leur supposée inaction.

The Conversation

Adrien Mével ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.03.2026 à 17:11

Frappes en Iran : le risque politique de Trump à quelques mois des midterms

Frédérique Sandretto, Adjunct assistant professor, Sciences Po

Diversion alors que l’affaire Epstein ne cesse de prendre de l’ampleur&nbsp;? Volonté de s’inscrire dans l’Histoire&nbsp;? Quel que soit le calcul de Donald Trump, l’opération «&nbsp;Epic Fury&nbsp;» pourrait se retourner contre lui.
Texte intégral (1821 mots)

Les frappes aériennes menées par les États-Unis en coordination avec Israël en Iran surviennent à un moment où Donald Trump, qui avait pourtant promis lors de sa dernière campagne électorale qu’il n’engagerait pas son armée sur des théâtres lointains, fait face à une pression politique croissante liée aux révélations qui s’enchaînent dans l’affaire Epstein. En cas d’enlisement et de pertes importantes dans les rangs de l’armée, le Parti républicain pourrait, lors des élections de mi-mandat, être sanctionné par ses sympathisants.


L’embrasement militaire contre l’Iran a eu l’effet d’un électrochoc politique à Washington, offrant à Donald Trump une échappatoire spectaculaire au moment précis où la pression judiciaire et parlementaire menaçait de l’encercler.

Au lendemain des auditions successives de Bill Clinton et de Hillary Clinton devant une commission de la Chambre des représentants consacrée, à l’affaire Epstein les 26 et 27 février, l’exécutif états-unien apparaissait fragilisé par une séquence politique défavorable. Plusieurs responsables du Parti démocrate venaient de réclamer l’audition du président lui-même, estimant que les éléments révélés au cours de ces dépositions justifiaient l’extension de l’enquête. La réapparition dans l’espace public de la question des cinquante-trois pages manquantes d’un ancien dossier judiciaire, impliquant l’accusation formulée par une plaignante mineure de treize ans à l’époque des faits contre l’actuel occupant de la Maison-Blanche, accentuait encore la vulnérabilité politique de la présidence, malgré l’absence de conclusion judiciaire définitive.

C’est dans ce contexte de tension intérieure maximale que, quelques heures après la déposition de Bill Clinton, Trump s’est adressé à ses concitoyens pour les informer du début de l’opération « Epic Fury » contre des cibles iraniennes.

Trump se pose en libérateur du peuple iranien

La soudaineté de l’opération a immédiatement déplacé l’attention médiatique et politique vers le registre stratégique et militaire. La concomitance entre la séquence des auditions parlementaires et l’engagement armé a nourri les interrogations sur l’articulation entre politique intérieure et action extérieure.

Le discours prononcé par Donald Trump le 28 février au matin constitue le pivot de cette reconfiguration.

Le président y présente l’opération non comme une démonstration de force, mais comme une entreprise morale visant à « rendre la liberté » au peuple iranien. La rhétorique mobilisée insiste presque exclusivement sur des valeurs positives : liberté, dignité, sécurité des populations civiles, avenir démocratique. En décrivant la mission comme « noble », il ajoute à la logique géopolitique une justification éthique, se positionnant explicitement en protecteur d’un peuple décrit comme victime de l’oppression de ses dirigeants. Cette construction discursive transforme l’intervention militaire en geste de libération, inscrivant « Epic Fury » dans une tradition messianique de politique étrangère où les États-Unis se perçoivent comme porteurs de principes universels et d’une responsabilité particulière en matière de défense des droits fondamentaux de par le monde.


À lire aussi : Donald Trump et les diverses traditions de la politique étrangère américaine


L’insistance sur la libération de l’oppression iranienne constitue le cœur de la nouvelle posture présidentielle. Donald Trump évoque à plusieurs reprises le « droit du peuple iranien à vivre libre », reprenant un vocabulaire rarement associé jusque-là à sa propre doctrine. Il affirme vouloir « ouvrir une ère nouvelle » pour la région, suggérant que l’action militaire pourrait provoquer une transformation politique interne en Iran.

Cette vision, qui fait de l’usage de la force un instrument de délivrance, vise à légitimer l’opération auprès de l’opinion internationale tout en redéfinissant l’image du président sur la scène intérieure. En se posant comme le défenseur d’une population étrangère contre le propre régime de celle-ci, il endosse un rôle de libérateur qui transcende les clivages partisans américains et mobilise un imaginaire politique puissant, fondé sur la promesse d’émancipation et de renouveau historique.

Une place dans l’Histoire ?

Un autre aspect central du discours réside dans la volonté affichée de « faire l’histoire ». Trump inscrit explicitement son action dans une perspective mémorielle, affirmant que cette intervention sera jugée par les générations futures comme un tournant décisif.

Cette projection dans le temps long répond à une logique de présidentialisation du récit national : en se plaçant dans la lignée des dirigeants qui auraient redéfini l’ordre international, il cherche à transformer une décision conjoncturelle en moment fondateur.

La référence implicite aux grandes interventions américaines passées suggère une ambition de marquer durablement la politique étrangère des États-Unis et d’inscrire son mandat dans une chronologie héroïsée. Dans cette optique, la libération supposée du peuple iranien devient non seulement un objectif stratégique, mais aussi un instrument de construction d’une mémoire présidentielle destinée à survivre aux controverses du présent.

Un calcul de politique intérieure

Enfin, cette séquence peut également être interprétée comme une stratégie de communication visant à restaurer une image affaiblie et à préparer les échéances électorales de mi-mandat prévues en novembre.

En déplaçant le débat national vers la sécurité internationale et en adoptant la posture du chef de guerre humanitaire, Donald Trump pourrait chercher à recomposer une coalition électorale autour du patriotisme et du leadership présidentiel. La mise en scène d’une intervention présentée comme libératrice permet de marginaliser les controverses intérieures et de substituer au récit de la fragilité politique celui de la détermination historique. Dans cette perspective, la guerre en Iran ne serait pas seulement un épisode géopolitique, mais aussi un levier destiné à redorer le blason du locataire de la Maison-Blanche et à influencer le rapport de forces électoral à l’approche des élections de mi-mandat.

En effet, l’offensive contre l’Iran intervient en effet à un moment particulièrement sensible du calendrier politique aux États-Unis. En novembre prochain, les élections de mi-mandat détermineront l’équilibre du pouvoir au Congrès pour la seconde moitié du mandat présidentiel. En déclenchant une opération militaire d’ampleur sans autorisation préalable du Congrès, Donald Trump s’expose à une double contestation, institutionnelle et électorale. Plusieurs élus démocrates dénoncent une violation du War Powers Act, estimant que le président n’a pas le droit d’engager le pays dans un conflit sans l’accord du Congrès.

La controverse est renforcée par l’absence perçue d’une menace immédiate justifiant une action préventive, ce qui alimente l’idée d’une guerre de choix plutôt que d’une guerre de nécessité.

Dans ce contexte, l’opération iranienne pourrait devenir un enjeu central de la campagne de mi-mandat, les démocrates cherchant à transformer la question de la légalité et du contrôle parlementaire en argument électoral majeur contre l’administration.

Ralliement autour du drapeau ou rejet d’une intervention qui n’était pas indispensable ?

Sur le plan de l’opinion publique, les premiers indicateurs apparaissent ambivalents et potentiellement dangereux pour la majorité présidentielle. En effet, les conflits extérieurs peuvent produire un effet de ralliement patriotique à court terme, mais ils deviennent rapidement coûteux électoralement lorsque les pertes humaines s’accumulent sans victoire décisive. Trois militaires américains ont déjà été tués depuis le début de l’opération, et la perspective d’un nombre élevé de pertes constitue un facteur susceptible d’éroder le soutien à l’intervention et de fragiliser les candidats républicains dans les circonscriptions les plus disputées.

Si le conflit devait s’enliser ou provoquer une escalade régionale entraînant des attaques meurtrières contre des forces américaines, dont des dizaines de milliers se trouvent actuellement au Proche-Orient, le calcul politique initial pourrait se retourner contre le président. Les pertes militaires renforceraient la position de ceux qui reprochent à l’exécutif d’avoir engagé la vie de soldats sans débat national préalable. Pour les démocrates, l’argument serait stratégique : faire de la crise iranienne le symbole d’une présidence imprudente et d’un contournement des procédures constitutionnelles, afin de mobiliser un électorat inquiet d’un retour à des guerres longues et coûteuses au Moyen-Orient.

Dès lors, les élections de mi-mandat apparaissent comme un test politique indirect de la guerre elle-même. Une défaite républicaine serait interprétée comme une sanction populaire de la décision d’entrer en conflit, tandis qu’un succès pourrait être présenté par la Maison-Blanche comme une validation de la posture de fermeté adoptée face à Téhéran. Le pari de Donald Trump consiste donc à obtenir des résultats stratégiques rapides – ou du moins une perception de succès – avant que la dynamique électorale ne cristallise les critiques. À défaut, l’intervention en Iran pourrait devenir non pas un instrument de consolidation du pouvoir présidentiel, mais le catalyseur d’un rééquilibrage institutionnel imposé par les urnes.

The Conversation

Frédérique Sandretto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.03.2026 à 17:09

L’élevage intensif en France peut-il être durable ?

Philippe Chemineau, Directeur de Recherche Emérite, Inrae

Jean-Louis Peyraud, Ingénieur agronome, Inrae

Le nombre d’éleveurs en France continue de baisser, leurs activités sont l’objet de critiques sociétales et écologiques croissantes, mais la consommation de viande baisse moins vite que la production.
Texte intégral (2022 mots)
Un élevage de poulets en plein air. INRAE/EASM, Fourni par l'auteur

Alors que le nombre d’éleveurs en France continue de baisser, que leurs activités sont soumises à des critiques sociétales et écologiques croissantes, mais que la consommation de viande baisse moins vite que la production, un rapport de l’Académie d’agriculture de France tâche de répondre à la difficile question du futur de l’élevage intensif.


L’élevage intensif a-t-il un avenir ? Cette question fait l’objet de controverses et de propositions parfois radicales. Voyons comment nous pouvons apporter des éléments d’éclairage sur ce débat de société.

Un secteur de l’élevage sous pression

Commençons par un constat : le développement de l’élevage n’est aujourd’hui plus écologiquement soutenable. Du fait de la forte concentration de déjections animales dans un périmètre restreint, il est responsable d’émissions azotées dans l’air et dans l’eau, contribuant à des crises comme celles des algues vertes en Bretagne.

Les critiques concernent également la perte de biodiversité avec l’importation, pour l’alimentation du bétail, de soja brésilien issu de surfaces acquises sur la forêt, même indirectement. Les débats se focalisent aussi beaucoup sur l’importance des émissions de gaz à effet de serre et particulièrement du méthane des bovins.

Sur le plan sociétal, les conditions d’élevage ne répondent plus aux attentes de la société, les relations entre santé animale et santé humaine font débat dans un monde où l’homme et l’animal partagent une même pharmacopée et où les zoonoses et épizooties sont plus fréquentes.

Ainsi, l’image de l’élevage et, dans une moindre mesure, celles des éleveurs, qui sont sensibles à ces critiques et sont confrontés à des difficultés économiques, s’est dégradée dans la société, notamment dans le cas des systèmes d’élevage dits « intensifs ». Cette situation met en danger le renouvellement des générations dans la profession.

Dans ce contexte, il faut se demander si l’élevage intensif est nécessaire et, si oui, comment doit-il évoluer ?

Qu’est-ce que l’élevage intensif ?

Pour cela, il faut déjà voir ce que l’on entend par « intensif ». Ce terme caractérise au sens premier l’usage important de facteurs de production extérieurs à l’exploitation rendant les systèmes moins dépendants du potentiel agronomique local. Il n’a cependant pas de valeur absolue.

Aujourd’hui, la notion d’intensif s’est élargie dans le débat public. Elle est souvent utilisée pour désigner l’élevage en bâtiment, le plus souvent en claustration avec de fortes concentrations en animaux. Elle recouvre aussi la concentration des exploitations et des animaux sur certains territoires, comme en Bretagne, et la spécialisation de ceux-ci.

Enfin, elle est souvent associée à des troupeaux de grande taille, une question plus sensible en France que partout ailleurs. La « ferme des 1 000 vaches » laitières, construite en 2014 dans la Somme, a ainsi fait débat alors que des fermes de plusieurs milliers de vaches se développent sans contestation dans d’autres pays d’Europe.

Pourquoi l’élevage intensif est-il nécessaire ?

Toutes les prospectives scientifiques réalisées en France proposent de réduire l’élevage et la consommation de viande, notamment chez ceux qui en consomment beaucoup. Si l’on peut s’accorder sur le constat de limitation ou de réduction de la consommation, ces études ne permettent cependant pas de trancher sur les équilibres à trouver entre systèmes d’élevage et façons de les mettre en place au sein des territoires.

Certains types d’élevages répondant à une demande des consommateurs et ayant des effets bénéfiques sur l’environnement doivent se développer. C’est le cas par exemple des élevages de ruminants nourris à l’herbe et au foin, ou encore de ceux élaborant des produits à forte typicité (AOP, IGP, AB). Mais ces élevages ne peuvent satisfaire seuls la demande en produits standards ; c’est pourquoi des élevages plus productifs restent nécessaires.

Selon FranceAgriMer, en 2023, 21 % de la viande bovine, 42 % de la viande de poulet, 53 % de la viande de mouton et 26 % de la viande de porc consommée en France étaient importés. La part des importations augmente parce que la consommation de viande diminue bien moins vite que la production nationale.

D’un point de vue qualitatif, la consommation croissante des produits transformés va à l’encontre des injonctions de montée en gamme, d’autant que la vague inflationniste a poussé bon nombre de consommateurs à acheter moins cher (baisse de la consommation alimentaire de 7 % en valeur depuis 2021, selon l’Insee). Un élevage productif est donc nécessaire mais il ne peut être la simple perpétuation de ce qui existe actuellement.

Des propositions d’évolutions à court et moyen terme

La réduction des émissions de méthane des ruminants reste pour cela une priorité. Selon le Centre interprofessionnel technique d’études de la pollution atmosphérique (Citepa) en 2023, l’élevage français suit la trajectoire prévue de décarbonation mais essentiellement via la diminution des effectifs. Il faut donc maintenant réduire l’intensité des émissions et les experts s’accordent pour dire qu’une diminution de 30 % est atteignable à échelle de dix ans.

Pour cela, il faut notamment viser une alimentation animale plus diversifiée, valorisant des cultures de légumineuses. Ces plantes riches en protéines ont une capacité unique : celle de fixer l’azote atmosphérique et de pouvoir donc fournir aux sols ce nutriment essentiel à la croissance des plantes. Le développement de ces cultures pour nourrir le bétail favoriserait ainsi la diversification des rotations de l’agriculture tout en accroissant l’autonomie protéique des élevages et en limitant l’utilisation d’engrais azotés dans les champs.

L’élevage pourrait ainsi valoriser 2 millions d’hectares (ha) supplémentaires de légumineuses. Cette reconnexion entre cultures et élevages permettrait aussi de boucler le cycle de l’azote en gérant mieux le retour au sol des effluents de l’élevage riches en azote et utiles en agriculture afin de reconquérir la fertilité des sols, préserver la biodiversité et réduire les émissions de gaz à effet de serre.

Ce recyclage peut être réalisé localement ou via la production d’engrais normalisés transportables ou de composts permettant de décharger certaines zones en excédent et fournir des engrais ou des amendements à d’autres. On pourrait ainsi imaginer que de grandes régions d’élevage, comme la Bretagne, soient couplées avec des grandes régions céréalières où l’élevage a quasiment disparu. Enfin, et de façon plus ambitieuse, une certaine désintensification et déspécialisation des territoires et un maillage territorial bien pensé entre systèmes intensifs et cultures faciliteraient la reconnexion.

Un autre point d’amélioration souvent peu évoqué concerne le parc de bâtiment d’élevage, très ancien, qui ne répond plus aux nouvelles exigences. La conception et le financement de bâtiments en rupture avec l’existant et pensés pour les conditions de vie des animaux, les conditions de travail de l’éleveur, la biosécurité et la gestion optimisée des déjections est indispensable.

Comment progresser ?

Face à l’importance des enjeux, aux investissements nécessaires et à l’accroissement probable du prix des produits, il est aussi primordial de déterminer le niveau optimal de progrès à réaliser et trouver des trajectoires consensuelles d’évolution des systèmes de production, des niveaux de production et de consommation de produits animaux. Cela peut se réaliser dans le cadre de l’élaboration d’un pacte sociétal entre éleveurs, filières, consommateurs, citoyens et puissance publique.

Ces transitions ne pourront se faire que si un niveau de vie correct est assuré à tous les éleveurs. La création de valeur peut être favorisée par de nouveaux échanges de confiance entre producteurs et consommateurs qui se feraient de manière transparente et par des initiatives privées au sein des filières visant à mieux rémunérer les éleveurs prenant des engagements plus exigeants que la réglementation. Des politiques publiques européennes et nationales ambitieuses, soutenant les agriculteurs qui ont ces objectifs, sont indispensables, à commencer par une protection contre les importations venant de pays aux réglementations moins exigeantes.

Un élevage qui doit évoluer vers un nouveau standard

De tels élevages « standards améliorés » disposeraient d’atouts pour contribuer à des systèmes alimentaires plus durables en permettant la fourniture de produits animaux à prix abordable, tout en répondant aux enjeux sociétaux concernant le respect des animaux et de la santé des consommateurs. Sur le plan environnemental, leur principal atout résiderait dans une moindre empreinte carbone par kg de produit que les systèmes plus extensifs. Cependant, les élevages intensifs de demain devront pouvoir résister à la concurrence internationale et leur compétitivité restera donc de mise.

Ils devront s’adapter au changement climatique et s’inscrire dans des complémentarités entre les différents modes d’élevage et les autres productions agricoles pour équilibrer les cycles biogéochimiques, réduire les dépendances et produire des services environnementaux. Des pistes et outils sont déjà disponibles et il faut accélérer et généraliser leur déploiement, d’autres nécessitent des recherches et une réorganisation du secteur en levant les freins aux changements.


Cet article a été rédigé sous la coordination de Philippe Chemineau, Jean-Louis Peyraud et Michel Rieu, avec Pascale Magdelaine, Michel Duru, Claude Vermot-Desroches, Jacques Brulhet et Jean-Yves Le Déaut de l’Académie d’agriculture. Tous ont contribué au rapport « L’élevage intensif en France peut-il être durable ? Quelle conciliation entre producteurs, citoyens et consommateurs ? » (Académie d’agriculture de France, juin 2025).

The Conversation

Philippe Chemineau est membre de l'Académie d'Agriculture de France et de l'Association Française de Zootechnie. Il a été président de l'European Association of Animal Production, puis de la World Association of Animal Production. Il a bénéficié, dans le passé récent, de financements INRAE, ANR et Conseil Régional du Centre Val-de-Loire. Il est actuellement Directeur de Recherche Emérite à l'INRAE.

Jean Louis Peyraud est Directeur de recherche honoraire de INRAE. Il est membre de l’Académie d’Agriculture de France et a été président de l’animal Task Force et du GIS Avenir Elevage. Il ne possède pas de parts et ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article

PDF

02.03.2026 à 17:08

Enfants non scolarisés : en France, plus de situations qu’on ne l’imagine

Benjamin Denecheau, Professeur des universités, Université Paris-Est Créteil Val de Marne (UPEC)

En France, une part non négligeable d’enfants n’est pas scolarisée ou ne bénéficie que d’un accès intermittent à l’école.
Texte intégral (1944 mots)
Les enfants qui bénéficient d’un accès très intermittent à l’école sont comptabilisés comme scolarisés. Ils disparaissent donc des statistiques de non-scolarisation. Michal Parzuchowski/Unsplash, CC BY

En France, les taux de scolarisation frôlent les 100 %. Pourtant, derrière ces chiffres rassurants, des milliers d’enfants connaissent des ruptures d’école parfois longues, parfois répétées. Placements, procédures judiciaires, hospitalisations : autant de situations où l’institution scolaire se désynchronise des parcours de vie. Si l’absence de données à leur sujet est criante, les travaux de recherche identifient progressivement ces situations, dont certaines ne sont pas inconnues des services de l’État.


En France, le taux de scolarisation est un des plus hauts d’Europe et avoisine les 100 % pour les enseignements primaire et secondaire. Il commence à décroitre à 16 ans, à la fin de l’obligation d’instruction. Toutefois ce nombre ne s’appuie que sur les situations connues : lorsque les enfants ne sont pas scolarisés, ils peuvent aussi échapper au recensement. Par ailleurs, des enfants peuvent être inclus dans la population scolarisée, tout en connaissant des périodes plus ou moins longues de non-scolarisation.

Dans un avis publié en 2024, la Commission nationale consultative des droits de l’homme (CNCDH) constate qu’en France ces situations en violation des dispositions prévues par les droits international, européen et français concernent une part non négligeable d’enfants, sans toutefois pouvoir en faire un décompte précis.

La liste des publics non scolarisés est longue : des enfants vivant en situation de grande précarité (notamment dans la rue, en bidonvilles, squats et hôtels sociaux…) ; des enfants vivant en territoires isolés, notamment en Guyane et à Mayotte ; des mineurs non accompagnés ; des enfants et jeunes allophones ; des « enfants de voyageurs » ; des enfants en situation de handicap (qu’ils bénéficient ou non d’une reconnaissance de leur handicap) ; des enfants en situation de danger ; des enfants malades ; des enfants en conflit avec la loi, dont ceux détenus en quartier pour mineurs ou en établissement pénitentiaire pour mineurs.

Une partie de ces enfants est sous les radars des institutions et les situations de non-scolarisation sont difficiles à recenser. Les sociologues Tanguy Mathon-Cécillon et Gilles Séraphin se sont attelés à cette tâche à Mayotte. Ils identifient plusieurs méthodes pour mieux compter les non-scolarisations, mais n’arrivent pas à un chiffre stable et sûr.

Toutefois, une autre partie des enfants non scolarisés est sous la responsabilité, et donc connue, de services (éducatifs, sociaux, de justice, de santé, etc.) ou d’associations qui les accueillent ou les prennent en charge.

Pourquoi des enfants connus des services de l’État sont-ils non scolarisés ?

Nos recherches sur les interventions judiciaires ou socio-éducatives permettent d’identifier plusieurs causes de non-scolarisation des enfants connus par les services de l’État.

La première est une conséquence des temps et des procédures non synchronisés entre l’école et les systèmes judiciaires et de protection de l’enfance. Ces derniers prennent des décisions qui peuvent générer des placements ou des déplacements des enfants qui changent alors de lieu de vie, et souvent de lieu de scolarisation. Pour autant, les enfants ne sont pas toujours rescolarisés aussitôt. Parfois les démarches administratives de réinscriptions ne sont pas immédiates, et génèrent un temps d’attente avant de pouvoir retrouver les bancs de l’école.

Ces multiples ruptures et difficultés peuvent également mettre à mal l’enfant et son rapport à l’école. Il peut être trop difficile d’aller dans un nouvel établissement scolaire, lorsqu’on ne connaît personne, que l’école et les apprentissages sont des épreuves quotidiennes, que l’on vient de changer de lieu d’habitation et d’être séparés de ses proches. Les données de la Direction de la recherche, des études, de l’évaluation et des statistiques (Drees, ministère de la santé) indiquent, par exemple, que 2,3 % des jeunes âgés de 6 à 16 ans hébergés au sein d’établissements de Protection de l’enfance (foyers et maisons d’enfants à caractère social) sont déscolarisés.

Du côté de la Protection judiciaire de la jeunesse (PJJ), nous avons mené une recherche dans des services de milieu ouvert : les jeunes y font l’objet d’une mesure judiciaire, mais restent au foyer familial (ils restent scolarisés dans leur établissement scolaire ou peuvent suivre une formation ou avoir un emploi, pour les plus âgés).

Sur un échantillon de 379 jeunes de moins de 18 ans, plus de la moitié n’était pas scolarisée (56 %), et une part importante n’était pas non plus en emploi ou en formation (18 %). Les changements réguliers subis par certains jeunes entraînent des écarts progressifs de l’école qui peuvent parfois s’installer dans la durée : les périodes de non-scolarisation se répètent et durent plus longtemps, ce qui augmente les difficultés scolaires.

Pourtant, ces jeunes sont suivis et parfois encadrés par des professionnels qui ont une responsabilité éducative parmi leurs fonctions. Cette contradiction peut en partie s’expliquer par le manque de moyens qui contraint l’action éducative à être intermittente (les éducateurs et éducatrices ne peuvent pas consacrer un temps suffisant pour suivre la scolarité et la soutenir, tel qu’il est attendu par l’école).

Par ailleurs, la scolarité est souvent reléguée à un statut secondaire dans ces interventions. Les professionnels privilégient d’autres entrées (la protection de l’enfant, le travail sur les liens familiaux, l’acte délinquant et le rapport à la loi pour la PJJ), et peuvent considérer l’école comme source de difficultés qui seraient supplémentaires à celles que subissent déjà les enfants. Ils peuvent donc soutenir les périodes de non-scolarisation qui permettraient à l’enfant de « souffler ».

Une demi-journée d’école par semaine = scolarisé

Par ailleurs, considérer que la situation ne peut être que de deux ordres, scolarisé ou non scolarisé, génère un chiffre noir de situations qui sont enregistrées comme une scolarisation, mais qui n’en sont pas réellement. Car si l’Insee affiche un taux de scolarisation à 100 % jusqu’à 12 ans, qui reste à 98,3 % à 15 ans, la scolarisation peut être intermittente pour certains.

C’est-à-dire qu’une part minoritaire des élèves accède à des enseignements, mais sur des temps relativement restreints. Ça n’est donc pas une scolarisation pleine, loin de là. Par exemple, les élèves hospitalisés en service de soins lourds bénéficient au mieux de quelques heures d’enseignement organisées par des associations, pour quelques disciplines, celles qui peuvent être délivrées par les enseignants impliqués. Ailleurs, ce sont les enfants de familles identifiées comme « voyageuses » qui suivent des cours dans les camions-écoles, pour une ou deux demi-journées par semaine au maximum. Enfin, une récente recherche conduite par les sociologues Hugo Bréant et Lorenn Contini dans les lieux d’enfermement a confirmé le faible nombre d’heures d’enseignement auxquelles avaient accès les mineurs : elles dépassent rarement la dizaine par semaine.

Dans son avis sur l’accès à une scolarisation effective pour tous les enfants, publié en 2024, la Commission nationale consultative des droits de l’homme (CNCDH) met en lumière l’insuffisance des moyens pour garantir l’accès à l’école pour tous les enfants. Elle relève également un manque de données et donc d’attention sur la question de la non-scolarisation en France.

Or, la non-scolarisation est une atteinte aux droits des enfants et en premier lieu au droit à l’éducation, établit dans plusieurs textes majeurs, notamment la Déclaration universelle des droits de l’homme (article 26), la Convention internationale relative aux droits de l’enfant (article 29), et enfin le Code de l’éducation, adopté en 2000, qui précise qu’il s’agit de la première priorité nationale, et que le service public de l’éducation « contribue à l’égalité des chances […]. Il reconnaît que tous les enfants partagent la capacité d’apprendre et de progresser » et qu’il vise à garantir la réussite de tous (article L111-1).

Mais cela va bien au-delà. La CNCDH souligne l’interdépendance des droits fondamentaux. Ne pas aller à l’école, c’est ne pas avoir accès aux connaissances, qui permettent aussi d’être plus au fait de ses droits et de mieux les assurer (sur la santé par exemple, qui nécessite de maîtriser des démarches administratives pour accéder aux soins, de savoir lire une notice de médicament, etc.). Faire l’expérience de périodes de non-scolarisation, c’est aussi être exclu du principal lieu de socialisation, après la famille, pour les enfants, un lieu où l’on apprend à vivre avec des personnes d’autres milieux sociaux, où l’on découvre l’histoire et les cultures, un lieu par lequel on devient pleinement citoyen.

The Conversation

Benjamin Denecheau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF
50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌓