LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

▸ Les 50 dernières parutions

19.03.2026 à 17:14

Palm oil, cocoa, coffee… who’s going to tend to tomorrow’s large tropical plantations?

Alain Rival, Agronome. Agrosystèmes Biodiversifiés,, Cirad

Plantations are having trouble finding young labourers to sustain production. Precarious working conditions that have hardly evolved since colonial times are a poignant reminder of the lack of job attractivity.
Texte intégral (1702 mots)

Palm oil plantations, for one, are increasingly struggling with the sector’s declining attractiveness, which has hardly changed since the colonial era.

Behind basic foodstuffs like palm oil, cocoa, coffee and bananas that are part of our daily diet lies a rarely asked question. Who will agree to work in the fields of the world’s large tropical plantations in years to come? Since producing countries gained independence, the sectors that deal with field crop production have relied on a model largely inherited from the colonial period when export crops were produced for global markets, and their profitability long depended on abundant, compliant, and inexpensive labour.

But this model is running out of steam. While public debate around major tropical crop production sectors has long focused on environmental issues, the central challenge today is the social attractiveness of these horticultural systems.

Sectors shaped by their colonial history

Large-scale tropical agriculture was built on territorial specialisation and dependency on export. As we showed in a previous book about how human wellbeing is dependent on nature and how ecosystems function, independence did not fundamentally transform this productive logic, despite technical and institutional adjustments.

Power dynamics, labour organisation, and the priority given to external markets remain deeply structuring forces.

Oil palm in Southeast Asia, cacao in West Africa, and bananas in Latin America follow comparable trajectories, where environmental sustainability – supported by increasingly robust certification standards – has progressed more rapidly than the social transformation of these sectors.

This gap between a productive model inherited from colonial history and the social aspirations of contemporary rural societies in the tropics largely explains the current employment crisis that is affecting plantations.

Young people are turning away from plantation work

In Indonesia and Malaysia, the world’s leading palm oil producers, plantations are now struggling to recruit locally. Research conducted by John McCarthy, a political scientist at the Australian National University, shows that rural youth are increasingly turning away from agricultural work, which is seen as physically demanding, socially undervalued, and poorly paid.

This hardship is compounded by still insufficient mechanisation in many tropical sectors. It also deepens gender inequalities: the most physically demanding tasks continue to fall largely to men, while women are frequently relegated to insecure and undervalued positions, with restricted access to wages and social protection. Moreover, they are expected to juggle plantation work alongside domestic responsibilities, which heightens exhaustion and reinforces economic dependence.

Over the past century, work in oil palm plantations has changed very little. It remains highly physical and poorly paid, with workers cutting and carrying heavy loads in isolated areas.

To maintain production, plantations increasingly rely on migrant labour, often vulnerable. In Southeast Asia, dependence on foreign workers in oil palm plantations varies widely by country. It is particularly high in Malaysia, where migrants account for about 70–80% of workers in the sector, mainly from Indonesia, Bangladesh, Nepal, and India. When foreign labour became unavailable during the Covid-19 pandemic, some large plantations tried to attract local workers – including former offenders – and offered free housing, but this was not enough to reverse the sharp decline in production.

By contrast, in Indonesia, production relies mainly on national labour, often from internal migration between islands, and the share of foreign workers remains marginal.

The question thus becomes crucial: would young Indonesian or Malaysian people willingly choose plantation work, unless compelled by geographic isolation or the lack of viable local economic alternatives? This growing disengagement poses a serious threat to the long-term social cohesion and productive stability of the tropical plantation industry.

Certifying sustainability: limited progress

In response to criticism – particularly regarding deforestation risks – the agricultural sectors have multiplied certification schemes. Sustainable palm oil, certified cocoa, or coffee promise traceability and improved environmental practices. These tools have enabled real progress, but they often leave labour issues aside.

Palm oil certification, notably through mechanisms such as the Roundtable on Sustainable Palm Oil (RSPO), remains a long, complex, and costly process. It relies on demanding specifications, regular audits, and high traceability requirements, requiring substantial administrative and technical expertise. While large, agro-industrial companies can pool these costs and absorb the associated administrative burden, they represent a major obstacle for smallholders, who account for around 40% of Indonesia’s national palm oil production.

In many crop-producing regions, smallholders lack the time, financial resources, and support needed to achieve sustainable certification.

Audit costs, administrative complexity, and ongoing compliance requirements effectively exclude a large proportion of independent producers. The result is a paradox: the most vulnerable actors are also those who face the greatest difficulties in accessing mechanisms designed to improve sustainability, thereby reinforcing inequalities within the oil palm sector.

Sustainability is therefore still too often conceived at the level of the plot or the supply chain, without fully integrating employment conditions, career paths, and workers’ social prospects.

More demanding consumers, but not enough debate

Consumers are increasingly questioning the origin of tropical products and the transparency of production chains. However, this demand remains largely environmental. The issue of employment – its evolution and attractiveness – remains largely absent from public debate.

As Stefano Ponte, a specialist in global agricultural value chains, has analysed, this imbalance carries a major risk: without tangible improvements in working conditions, sustainability schemes may become mere compliance tools, without structural transformation of the sectors.

This reassessment also concerns organisations that monitor production and governance. Cooperatives, agro-industrial companies, and sectorial organisations play a key role in structuring employment, training, and professional recognition, yet they remain too rarely involved in sustainability strategies.

Rethinking attractiveness

The future of large plantations will depend less on yields than on their ability to attract and retain workers. Decent wages and working environment, appropriate mechanisation, access to training, and social recognition of agricultural professions are becoming essential levers.

As emphasised by the FAO, rural employment is now a key factor in the sustainability of agricultural systems in tropical countries.

This is something not only farmers must reassess but also plantation managers and executives, who are having to rethink training and become more aware of social and environmental issues.

Initiatives such as the TALENT project, supported by the French Development Agency (AFD) and Cirad – The French agricultural research and international cooperation organisation working for the sustainable development of tropical and Mediterranean regions illustrate this shift by seeking to strengthen skills, career pathways, and the attractiveness of agricultural professions in Southeast Asia within a sustainability perspective.

A political issue before an agricultural one

Behind palm oil, cocoa, and coffee lies a fundamental political question: what will the future look like for postcolonial tropical societies?

Continuing to anchor these economies in export crops governed largely by an extractivist logic undermines their social appeal and compromises their long-term resilience.

The challenge, therefore, is not only how to produce more sustainably, but also who will keep production going tomorrow – and under what social and economic conditions.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Alain Rival ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

19.03.2026 à 17:14

Comment s’explique le succès des théories complotistes ?

Pascal Lardellier, Professeur, chercheur au laboratoire CIMEOS et à IGENSIA-Education, Université Bourgogne Europe

Le complotisme est la grande affaire de ces dernières décennies. Et les choses sont parties pour durer, et même s’amplifier. Ce constat sert de point de départ au dernier essai de Pascal Lardellier.
Texte intégral (2599 mots)

Le complotisme fait un étonnant retour dans l’actualité depuis plusieurs années, tout à la fois objet de débat public et catégorie d’accusation. Pas une polémique, pas une affaire dans l’actualité sans que l’assignation ne surgisse, comme explication du problème et ostracisme disqualifiant. Car le terme « complotiste » fonctionne comme une disqualification, qui exclut du champ de la parole légitime. Comment expliquer sa récurrence ?

Nous vous proposons aujourd’hui de lire un extrait de l’essai de Pascal Lardellier, le Nouvel Âge du complotisme. Post-vérité : quand le réel vacille (éditions de l’Aube, 2026).


Pendant une large partie du XXe siècle, l’hypothèse selon laquelle des groupes influents orientaient les destinées collectives ne relevait pas de la pensée marginale. Elle constituait au contraire une grille de lecture nourrie par l’observation de certaines structures de pouvoir. L’existence de cercles d’influence comme le Groupe Bilderberg, fondé en 1954, ou le Forum économique mondial de Davos, créé en 1971, a longtemps alimenté l’idée selon laquelle des élites transnationales se concertaient à l’abri des regards. Ces institutions fonctionnent entourées d’une certaine opacité, ce qui pouvait légitimer l’inquiétude citoyenne quant à leur rôle effectif dans l’orientation des politiques publiques.

De même, certaines organisations comme la franc-maçonnerie, par leur caractère initiatique et leur culture du secret ont historiquement suscité des interrogations sur leur influence politique et sociale. L’histoire politique française, notamment sous la IIIᵉ République, témoigne de l’imbrication entre appartenance maçonnique et exercice du pouvoir. Dans ce contexte, suspecter l’existence d’influences discrètes constituait une forme de vigilance politique. Mais vigilance ne signifie pas paranoïa. Entre s’interroger sur des réseaux d’influence et imaginer un complot mondial, il y a un fossé à ne pas franchir.

À cela s’ajoute une dimension antisémite récurrente qui transforme l’observation de réalités économiques en fantasme complotiste. La figure des Rothschild a ainsi été instrumentalisée pour alimenter le mythe d’une « finance juive mondiale » contrôlant les États. Ce glissement vers le fantasmatique illustre comment des schémas idéologiques antisémites préexistaient aux faits qu’ils prétendaient expliquer. L’antisémitisme n’est jamais une lecture de la réalité, c’est toujours une grille projective plaquée sur elle – ce qui est mis en scène dans le film Borat (2006) de Sacha Baron Cohen, un film « déjanté » édifiant pour comprendre les ressorts profonds des imaginaires antisémites.

Le fait est que l’évolution du capitalisme contemporain a validé certaines interrogations relatives à la concentration du pouvoir. Les travaux économiques ont documenté l’accroissement des inégalités et la constitution d’une « hyperclasse mondiale » disposant d’une influence considérable sur les orientations politiques. Le Monde diplomatique consacre de fréquents dossiers à ces institutions transnationales au pouvoir décisionnaire élargi, dont le FMI.

En France, la possession de la quasi-totalité des grands médias par une poignée de milliardaires ou de multimillionnaires – Vincent Bolloré, Xavier Niel, Patrick Drahi, Bernard Arnault, la famille Dassault et Mathieu Pigasse – interroge légitimement sur la pluralité de l’information. Et cette réalité tangible de la concentration médiatique nourrit un soupçon : si l’information est détenue par quelques-uns ayant des intérêts économiques et politiques convergents, comment garantir son objectivité ? Cette question n’est pas déraisonnable en soi.

Fantasme du complot orchestré

Le problème surgit lorsque ce constat factuel se transforme en la certitude d’une manipulation intentionnelle, glissant de la critique raisonnée vers le fantasme du complot orchestré. Entre dire « les médias appartiennent à des milliardaires » et affirmer « les médias mentent systématiquement sur ordre », il y a un pas que les complotistes franchissent allègrement.

L’avènement des réseaux sociaux a profondément reconfiguré la circulation de l’information et, avec elle, la diffusion des théories du complot. Les plateformes numériques, par leur modèle économique fondé sur la captation de l’attention, privilégient les contenus suscitant l’engagement émotionnel, parmi lesquels les récits complotistes occupent une place de choix.

Les algorithmes, en proposant des contenus similaires à ceux déjà consultés, créent des « bulles de filtres » qui enferment les utilisateurs dans des univers informationnels homogènes. Ces mécanismes algorithmiques amplifient des biais cognitifs bien documentés par la psychologie sociale : le biais de confirmation, qui nous conduit à privilégier les informations confortant nos croyances préexistantes, et le biais de conformité, qui nous pousse à aligner nos opinions sur celles de notre groupe d’appartenance. Les réseaux sociaux ne les créent pas, mais ils en démultiplient les effets en accélérant la circulation des rumeurs et en créant l’illusion d’un consensus autour d’interprétations marginales.

Les rumeurs et légendes urbaines, phénomènes anthropologiques anciens, trouvent dans cet environnement numérique un terrain propice à leur recyclage et à leur hybridation. Des narrations autrefois cantonnées à des cercles restreints accèdent désormais à une diffusion massive et peuvent se cristalliser en fake news, terme devenu omniprésent dans le débat public depuis une dizaine d’années. La pandémie de Covid-19 a constitué un moment paroxystique dans cette dynamique. L’incertitude scientifique initiale, inhérente à toute crise sanitaire émergente, a été interprétée par certains comme la preuve d’une dissimulation délibérée.

L’hypothèse controversée de l’origine du virus, notamment la théorie de l’accident de laboratoire à Wuhan initialement écartée puis partiellement réhabilitée dans le débat scientifique, a alimenté le soupçon d’un mensonge d’État. Précisons : que l’hypothèse ait été écartée prématurément par certains ne signifie pas qu’il y a eu complot, mais cela illustre comment l’absence de transparence et la gestion maladroite de l’incertitude scientifique nourrissent la défiance.

De même, l’affaire de l’étude frauduleuse sur l’hydroxychloroquine publiée dans The Lancet puis rétractée a semblé valider l’idée que les autorités scientifiques et sanitaires pouvaient manipuler les données. Ces épisodes, en dépit de leur résolution par les mécanismes habituels de la science (rétractation, débat contradictoire), ont durablement entamé la confiance d’une partie de la population. Ils ont également fourni un argumentaire à ceux qui dénonçaient une « vérité officielle » imposée contre l’évidence. Le sentiment diffus « qu’on nous cache des choses » s’est ainsi cristallisé, trouvant dans ces controverses scientifiques une apparente légitimation.

Le « fact-checking » comme nouvelle ligne de front

Face à cette prolifération des fausses informations, les médias traditionnels ont développé des cellules de fact-checking destinées à vérifier la véracité des énoncés circulant dans l’espace public. Ces dispositifs, inspirés notamment du modèle anglo-saxon, se sont multipliés en France avec des initiatives comme celles des Décodeurs du Monde, de Libération CheckNews, ou encore de l’Agence France Presse. Leur objectif affiché est de restaurer un rapport factuel à l’information en distinguant le vrai du faux par un travail méthodique de vérification. Cependant, cette entreprise de vérification s’est rapidement heurtée à une difficulté majeure : elle a été perçue par une partie du public comme une nouvelle forme de censure exercée par les élites médiatiques. Les nombreuses critiques exprimées à leur encontre sur les réseaux sociaux vont largement en ce sens. La figure du journaliste « vérificateur » s’est vue contestée dans son autorité même, accusée de servir les intérêts des puissants plutôt que la vérité. Cette contestation a trouvé une expression particulièrement virulente dans les milieux se revendiquant de la « réinformation », où le fact-checking est systématiquement interprété comme une tentative de contrôle de la pensée.

La création d’instances d’analyse du complotisme (cf. l’Observatoire Conspiracy Watch) a accentué cette polarisation. En établissant des listes de personnalités ou de contenus « complotistes », ces initiatives ont contribué, malgré leur intention louable, à créer une frontière binaire entre pensée légitime et pensée illégitime. Cette classification manichéenne a paradoxalement renforcé le sentiment d’être persécuté chez ceux qu’elle désignait, validant à leurs yeux la thèse d’un pouvoir occulte cherchant à faire taire les dissidents. Il faut le reconnaître : le fact-checking, pour nécessaire qu’il soit, ne suffit pas à restaurer la confiance. Pire, perçu comme partial, il peut l’éroder davantage.

Cette dynamique d’opposition entre « vérité officielle » et « vérité alternative » a produit un effet pervers : l’aplatissement des controverses. Dans l’espace numérique, des affirmations de nature radicalement différente se retrouvent placées sur un même plan, agrégées sous l’étiquette unificatrice de « complotisme ». Ainsi peut-on voir juxtaposées des théories aussi hétérogènes que le platisme (la Terre serait plate), des rumeurs sur l’identité de genre de Brigitte Macron, le mythe antisémite d’une domination juive mondiale, la contestation de la sécurité des vaccins ou l’exagération des dangers de l’hydroxychloroquine.

Disparition des nuances

Cette mise en équivalence pose un problème majeur. Ces différentes affirmations ne relèvent ni des mêmes régimes de vérité, ni des mêmes enjeux, ni des mêmes degrés de dangerosité sociale. Le platisme, pour absurde qu’il soit, ne menace directement personne ; l’antisémitisme structurel a produit des génocides ; la défiance vaccinale peut avoir des conséquences sanitaires mesurables. En les agrégeant sous une même catégorie accusatoire, on brouille les lignes et on prive le débat public des nuances nécessaires à une réponse appropriée.

Voilà précisément ce que l’on reproche ordinairement aux « anti-conspi » : leur tendance à mêler des choses disparates, par facilité ou par stratégie. Cette horizontalisation du complotisme est contre-productive. Elle empêche de distinguer les questions légitimes des délires pathologiques, les inquiétudes fondées des paranoïas collectives. Cette situation configure un cercle vicieux où chaque tentative de restaurer une autorité légitime produit, chez ceux qui s’en méfient, un renforcement de leur conviction d’être les victimes d’une manipulation.

Plus les institutions s’efforcent de « lutter contre les fake news, plus elles apparaissent suspectes aux yeux de ceux qui doutent déjà d’elles. Plus les scientifiques expliquent, plus ils semblent « faire de la propagande ». Plus les médias vérifient, plus ils paraissent « au service du Système ».

Cette dynamique s’autoentretient d’autant plus que certaines des inquiétudes exprimées par les complotistes ne sont pas entièrement dénuées de fondement factuel. Car il existe effectivement une concentration oligarchique du pouvoir économique et médiatique. Et puis les institutions ont effectivement menti par le passé (on pense à l’affaire du sang contaminé en France, aux armes de destruction massive irakiennes inventées, aux révélations Snowden sur la surveillance de masse). Et les scandales sanitaires sont une réalité récurrente (Mediator, Dépakine, glyphosate).

Dès lors, comment distinguer la vigilance légitime de la paranoïa ? C’est toute la difficulté. Et c’est précisément pour cela qu’il ne faut pas disqualifier d’emblée toute question, tout doute, toute remise en cause. Le complotisme prospère sur les zones d’ombre que nous refusons collectivement d’éclairer.

Une irrationalité hyperrationalisée

Le complotisme contemporain ne peut donc se comprendre comme une simple irrationalité cognitive ni comme un phénomène uniquement imputable aux « réseaux sociaux » ou à la « post-vérité ». Il s’enracine dans une crise plus profonde de l’autorité scientifique et politique, crise elle-même liée à des transformations structurelles du capitalisme, des médias et des modes de circulation de l’information.

Il se nourrit de faits réels – la concentration du pouvoir, les mensonges avérés, les scandales documentés – qu’il surdétermine et réinterprète selon une grille paranoïaque. Le complotisme est toujours un mixte de vrai et de faux, de légitime et de délirant. C’est ce qui le rend si difficile à combattre.

Paradoxalement, la lutte contre le complotisme, telle qu’elle s’est organisée ces dernières années, participe de cette même dynamique qu’elle prétend combattre. En traçant une frontière nette entre vérité et mensonge, entre raison et déraison, entre légitimité et illégitimité, elle produit les conditions de sa propre contestation. Elle oublie que la confiance ne se décrète pas, qu’elle se construit dans la transparence et la reconnaissance des erreurs passées, et qu’elle suppose de prendre au sérieux – sans les valider – les inquiétudes de ceux que l’on prétend « éclairer ».

C’est à partir de ce constat qu’il devient possible de penser autrement la question complotiste, non plus comme un problème de « désinformation » à éradiquer par des campagnes de fact-checking, mais comme un symptôme de transformations plus profondes, qui appellent une réponse citoyenne autant qu’intellectuelle.

Le complotisme est aussi le prix que nous payons collectivement pour nos mensonges passés, silences coupables et cécités volontaires (cf. l’affaire Epstein), et notre incapacité à créer un espace de débat où la critique légitime ne soit pas immédiatement assimilée à la déraison. Tant que nous n’aurons pas compris cela, nous continuerons à alimenter le monstre que nous prétendons combattre.


Pascal Lardellier vient de publier Le Nouvel Âge du complotisme. Post-vérité : quand le réel vacille (L’Aube, 2026).

The Conversation

Pascal Lardellier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

19.03.2026 à 17:13

Pourquoi les collectivités locales s’endettent-elles ?

Serge Rouot, Maître de conférences en sciences de gestion, Université de Lorraine

Muriel Michel-Clupot, Maitre de conférences en Sciences de Gestion, Université de Lorraine

À l’heure des déficits chroniques des administrations publiques locales, les collectivités territoriales et les communes s’endettent. L’enjeu : investir pour l’avenir ?
Texte intégral (1914 mots)
Pour financer des piscines municipales, comme celle de Keller à Paris, cela nécessite de recourir à des emprunts et donc de la dette. Wikimediacommons

Même si la dette des administrations publiques locales ne représente que 7,5 % de la dette publique totale, elle s’invite au cœur des débats des élections municipales 2026. Pourquoi les collectivités recourent-elles à la dette ? Pourquoi communiquer à destination des habitants ?


Les bilans des candidats à la réélection ou les programmes des candidats d’opposition valorisent volontiers des impératifs de réduction de l’endettement. Parmi les candidats à la mairie de Paris : Emmanuel Grégoire souhaite « autofinancer les investissements de façon beaucoup plus importante », Rachida Dati explique que « la progression de la dette sera de 0 » et Pierre-Yves Bournazel estime « pouvoir diviser par deux la dette ».

L’injonction est-elle pour autant être une finalité en soi ?

D’abord, les administrations publiques locales (APUL), ce sont 262,9 milliards d’euros de dette, donc seulement 7,5 % des 3 482,2 milliards d’euros de dette des administrations publiques. Ensuite, ce sont surtout 54 % de l’investissement public en France.

Financement de l’investissement

La question n’est-elle pas tant l’endettement, que l’usage qui en est fait ?

Dans une collectivité locale, l’emprunt finance exclusivement l’investissement (équipement, travaux, biens durables), sans qu’il n’ait à être affecté à un projet précis. Globaliser le besoin de financement de la section d’investissement prévue au budget (article L 2331-8 du Code général des collectivités territoriales) ne rend pas toujours explicite l’utilisation de cet endettement.

Les montants en jeu sont conséquents : les investissements publics locaux s’élèvent à 67,9 milliards d’euros pour 2024. Imaginer les financer sur une épargne préalable (c’est-à-dire les autofinancer) est illusoire, d’autant que les placements ne sont pas possibles pour une collectivité (sauf rares exceptions). Toute trésorerie excédentaire doit être déposée au Trésor public et aucune rémunération n’est prévue (article L 1618-2 du Code général des collectivités territoriales).

Contraintes de l’endettement

La dette conduit à une charge de la dette, à savoir à des intérêts payés aux prêteurs, notamment aux établissements de crédit, sur les fonds consentis. Le niveau d’endettement est contraint à une capacité de remboursement, qui, dans le cas d’une commune, correspond largement à sa richesse fiscale. L’appartenance au secteur public n’éloigne pas le risque d’une cessation de paiement : rappelons le cas d’Angoulême en 1990.

Dette des administrations publiques locales de 1995 à 2024, en pourcentage du PIB. Fipeco

En outre, un endettement trop élevé alourdit les conditions de taux d’intérêt. En effet, une situation dégradée éveille l’inquiétude des marchés : les investisseurs acceptent de prêter en échange d’une prime de risque, qui renchérit le taux d’intérêt payé sur la dette. À l’inverse, un endettement modéré conduira à des conditions plus attractives, réduisant la charge de la dette et libérant des marges de manœuvre budgétaires pour l’action publique : moins d’intérêts, c’est plus de services publics.

Il existe un seuil de consentement à l’impôt. Il ne permet pas de financer un bâtiment municipal par des seules recettes fiscales, au cours d’une année donnée. Comme un ménage s’endette pour devenir propriétaire de sa résidence principale, une collectivité empruntera pour construire une école ou une médiathèque, servant le bien commun sur plusieurs générations. Le crédit sera remboursé sur 30 ans pour un bâtiment public qui profitera à plusieurs générations, équilibrant ainsi l’effort sur plusieurs générations également.

Communication politique et communication financière

L’emprunt est forcément une notion abstraite pour l’électeur ; il ne fait pas partie de son quotidien comme la sécurité, le logement ou les mobilités. L’expliquer n’est pas aisé, étant donné la technicité de l’analyse financière du budget des villes, plutôt réservée aux initiés.

La communication politique intègre une communication sur les finances locales, et ce, même hors échéances électorales. On devine qu’on ne communique pas de la même façon avec un bilan flatteur qu’avec une situation dégradée. En France, nous montrons que les régions aux performances les plus solides promeuvent et quantifient leurs actions dans le domaine économique, alors que les régions aux performances plus moyennes adoptent une communication plus institutionnelle, centrée sur le débat démocratique.

Les deux stratégies sont valorisantes pour l’élu en place et s’avèrent gagnantes dans un objectif de réélection.

Impératif de transparence

Au-delà, il semble indispensable de communiquer sur les finances locales, notamment pour informer sur le coût réel des services publics.

Dans une organisation privée, un taux de rendement de l’investissement supérieur au coût du financement serait exigé. Dans le secteur public, l’entrée de la piscine n’est pas tarifée à son juste coût pour des raisons de service public rendu à la population. C’est ainsi qu’une communication de crise s’est développée au moment de l’explosion des prix de l’énergie, à l’automne 2022, débutant dans la presse, se poursuivant par la communication financière de la ville.

En 2025, la mairie de Château-Thierry a communiqué sur le prix de plusieurs services publics comparé à leur véritable coût pour la collectivité locale. Communauté d’agglomération de Chateau-Thierry

Communiquer précise les programmes politiques, mais doit aussi savoir légitimer un financement par l’impôt ou par l’emprunt. Selon la théorie de l’évitement du blâme de Kent Weaver, les citoyens sont plus sensibles aux efforts qu’ils consentent qu’à ce qui leur est offert. Ils identifient bien les prélèvements obligatoires, mais ils évaluent très mal dans quelle mesure les tarifs des services publics sont subventionnés. Le constat justifie le déploiement d’une pédagogie en ce sens.

Ne pas accéder à cet impératif de transparence rompt également le principe même de la démocratie représentative : « La société a droit de demander compte à tout agent public de son administration » dans l’article 15 de la Déclaration des droits de l’homme et du citoyen de 1789. La campagne électorale en est l’expression première.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

19.03.2026 à 17:10

« Intouchables des Pyrénées », « race maudite »… Qui étaient vraiment les cagots ?

Emma Duteil, Doctorante en histoire, Aix-Marseille Université (AMU)

Population discriminée dès le Moyen-âge, objet de théorie raciste et d'intérêt touristique au 19ème, les cagots sont aujourd'hui l'objet de nouvelles recherches en histoire.
Texte intégral (4256 mots)
Article de journal assurant présenter les « derniers cagots » des Pyrénées. « Points de vue », 1962, Fourni par l'auteur

Population discriminée depuis le Moyen Âge, cibles de théories racistes et éléments d’intérêt touristique au XIXe siècle, les cagots ont été l’objet de beaucoup de fascination. Les exclusions qu’ils ont subies tout comme les origines de celles-ci sont aujourd’hui au centre de nouvelles recherches en histoire.


Dans les années 1960, à Luz (Hautes-Pyrénées), les touristes en goguette dans les Pyrénées étaient invités à venir voir la dernière famille « cagot » de la région. Ces hommes et femmes de petite taille étaient présentés comme les ultimes descendants d’une « race maudite », discriminés depuis plus de mille ans dans la région.

Sur les brochures touristiques de la région, encore aujourd’hui, on trouve mention des cagots qui sont tantôt présentés comme « les intouchables des Pyrénées », comme des « descendants des Wisigoths », ou encore comme « de petits individus difformes au lobe de l’oreille collé ». Mais qui étaient vraiment ces hommes et femmes discriminés ? Tâchons de faire le point entre les fantasmes, les sources historiques disponibles et les inconnues qui demeurent.

Carte postale présentant des « mains de cagots »
Carte postale présentant des « mains de cagots ». Henri-Marcel Fay, CC BY

Dans les Pyrénées françaises et espagnoles, les individus appelés cagots, agotes, capots ou encore gahets, sont drapés d’un voile trouble. Leur identité, leur origine et leur sort ont fait couler beaucoup d’encre depuis cinq siècles, tant dans la littérature scientifique que dans les discours populaires. Il s’agit en tout cas d’une population discriminée entre le XIVᵉ siècle et le début du XIXᵉ siècle, même si les logiques d’exclusion ont évolué au gré des périodes.

Parmi les éléments de distinction les plus fréquents, on observe que les cagots sont obligés de se marier entre eux, qu’ils ont une place à part au cimetière, qu’ils n’ont pas la possibilité de participer aux assemblées du village et qu’ils doivent rester au fond de l’église lors des offices divins. Mais que peut-on savoir de plus sur ce groupe, et qui peut réellement être appelé « cagot » ?

Mythes et fantasmes

Dès le XVIᵉ siècle, différents auteurs s’interrogent sur l’origine des cagots, afin d’expliquer leur exclusion. Les cagots sont alors renvoyés tour à tour à des descendants de lépreux, de Wisigoths, de Cathares ou de Sarrasins, sans que l’on puisse trancher. Au XIXᵉ siècle, scientifiques et folkloristes de tous bords continuent à s’intéresser à eux, au moment même où la classification des races règne sur les écrits scientifiques de l’époque. Se démultiplient alors encore les imaginaires autour des cagots, renvoyés à une « race maudite » qui constituerait un groupe ethnique particulier. Les cagots sont aussi associés de façon erronée aux « crétins des Alpes » et aux « malades de goitre », affection qui provoque une déformation du cou.

L’ouvrage du professeur Francisque-Michel au XIXᵉ siècle, considère les cagots comme une « race maudite » et entreprend une vaste enquête dans les Pyrénées, s’appuyant à la fois sur des sources textuelles et sur des rumeurs locales
Au XIXᵉ siècle, l’ouvrage du professeur Francisque Michel considère les cagots comme une « race maudite » et entreprend une vaste enquête dans les Pyrénées, s’appuyant à la fois sur des sources textuelles et sur des rumeurs locales. CC BY

À cette époque, il faut rappeler que les Pyrénées deviennent un haut lieu du tourisme thermal : l’existence des cagots permet alors de fabriquer une culture locale folklorique et de rendre la région attractive. En témoignent la diffusion de cartes postales représentant supposément des maisons de cagots, ou des cagots eux-mêmes. Des voyageurs français et anglais tentent, durant leurs balades, de trouver ces cagots, sans bien en connaître les critères d’identification.

Les cartes postales représentants les quartiers, ponts, sources des cagots se diffusent au XIXᵉ siècle. Ici deux femmes se tiennent aux abords d’une maison pyrénéenne dans le « quartier des cagots » de Saint-Savin
Les cartes postales représentants « les quartiers, les ponts, les sources des cagots » se diffusent au XIXᵉ siècle. Ici deux femmes se tiennent aux abords d’une maison pyrénéenne dans le « quartier des cagots » de Saint-Savin (Hautes-Pyrénées). Daniel Trallero, Fourni par l'auteur
Le bénitier des cagots de Saint-Savin
Le « bénitier des cagots » de Saint-Savin. Archives départementales des Hautes-Pyrénées, 5 Fi 396/24, CC BY

Tous les individus pathétiques, pauvres ou boiteux résidant dans les montagnes deviennent alors de potentiels cagots. Or, à cette époque, la discrimination a disparu un peu partout, les cagots se fondant dans la masse. Ne restent que les noms de lieux pour faire perdurer leur souvenir : les visiteurs du XIXᵉ siècle trouveront ainsi une « fontaine des cagots », un « pont des cagots »…

Mais lorsque l’on regarde de plus près les sources textuelles des siècles de discrimination (XVᵉ-XIXᵉ siècle), on constate que les cagots n’ont jamais eu aucune particularité physique. Les archives judiciaires, notariales, municipales et provinciales abondent en ce sens : les cagots sont bien portants, vivent comme les autres, ont la même langue, les mêmes noms, la même religion et sont parfois même riches.

Arrêt du Parlement de Toulouse en 1627, qui déclare que les cagots sont « exemptz de toute espèce de lèpre, ladrerie et autres semblables maladies contagieuses et, ce faizant, n’entendre empêcher qu’ils ne puissent hanter, fréquanter et converser avec toute sorte de personnes et en tous lieux ». Archives Départementales de la Haute-Garonne (1B477), Fourni par l'auteur

Une exclusion avant tout sociale

L’exclusion des cagots a dès lors plutôt une explication sociale et politique. La marginalisation des lépreux étant de mise au Moyen Âge, c’est là un premier élément qui pourrait expliquer l’éloignement de cette population considérée comme descendante de lépreux, impure et souillée « de l’intérieur ».

Mais une hypothèse plus récente dans l’historiographie postule que les cagots auraient été des nouveaux venus dans les villages au Moyen Âge, installés par des seigneurs sur leurs propres terres, puis marginalisés par les populations paysannes locales revendiquant leur autonomie à l’égard de ces terres soumises à un seigneur.

Aussi, l’insulte de « cagot » – du bas latin cacare relatif aux excréments et à la souillure – a pu permettre dans un village d’établir des hiérarchies au sein du voisinage, entre des individus établis et des marginaux. Il faut donc étudier ce phénomène en sortant d’un cadre racial hérité du XIXᵉ siècle afin d’observer les logiques d’exclusion sociale qui s’exercent dans un lieu donné. Car les différents travaux s’intéressant aux cagots ont longtemps glosé sur leur prétendue distinction physique, au détriment d’une analyse des rapports de force et des dominations qui s’exercent par le biais de cette catégorie.

Or, selon les villages, les cagots ne sont pas soumis aux mêmes interdits et provoquent plus ou moins de remous. Dans beaucoup de paroisses où existaient des « cagots », il n’y a aucune trace archéologique de ségrégation au niveau des sépultures, et le terme disparaît rapidement sans qu’on ait de traces de conflit majeur.

À Biarritz (Pyrénées-Atlantiques) au contraire, les habitants entreprennent de déterrer leurs corps, des violences interpersonnelles ont lieu et le conflit avec les cagots fait l’objet de multiples procès qui remontent jusqu’au roi. Or ce village est alors en déclin économique, et les familles dites « cagotes » accumulent des terres, acquièrent des maisons. Un dicton populaire circule d’ailleurs un peu plus tard : « Si vous devez à un cagot, payez-le tout de suite. » Le fait de renvoyer ces individus à un statut inférieur et souillé permet de marginaliser des individus qui s’enrichissent.

La désignation de cagot dissimule donc des enjeux matériels, économiques, communautaires, propres à chaque localité. Toutes choses égales par ailleurs, des travaux récents ont montré la diversité des individus compris sous le terme de cathares, catégorie péjorative qui ne renvoie pas, comme on l’a pensé, à un mouvement unifié et organisé, mais qui comprendrait un éventail d’individus très différents, dont la stigmatisation reposerait aussi sur des fondements économiques et sociaux.

Carte postale représentant une procession de cagots, les « parias des Pyrénées »
Carte postale représentant une procession de cagots, les « parias des Pyrénées ». Source : Archives départementales des Hautes-Pyrénées, 48 Fi 53/18. CC BY

Être ou ne plus être un cagot

Toutefois, peut-on savoir qui est cagot ?

Si les institutions à partir de la Renaissance parlent bien de « cagot » dans les textes, elles ne donnent à leur sujet que les interdits qui les frappent. Selon des règlements du XVIIᵉ siècle dans le Béarn, il est défendu aux « cagots » de se mélanger aux autres individus, de porter des armes, de vendre de la nourriture sur les marchés.

Mais le terme « cagot » est ensuite interdit par le pouvoir royal en 1683, car il est jugé discriminatoire et infamant, « sans que l’on puisse précisément savoir la raison de cette distinction », selon les termes de l’intendant du Béarn de l’époque. Le mot est désormais puni par la loi, et les registres de baptême et les contrats de vente font disparaître l’appellation « cagot » de leurs colonnes. On peut imaginer que les enfants de ceux qui étaient appelés « cagots » aux XVᵉ et XVIᵉ siècles continuent de l’être, mais on n’a pas toujours de preuve d’une discrimination qui continuerait pour eux. Pour retrouver la trace de cagots aux XVIIᵉ et XVIIIᵉ siècle, il faut passer par les sources judiciaires : c’est dans les procès et les moments conflictuels que l’on comprend qu’ils continuent à exister.

Archive notariale mentionnant le procès mené par un groupe d’individus de Saint-Jean-Pied-de-Port (aujourd’hui dans les Pyrénées-Atlantiques) en 1701 : on apprend qu’ils ont été traités de cagots, empêchés de participer à l’office divin et « arrêtés par les cheveux et traités à coups de pieds et de poings et autrement en injures ». Archives Départementales des Pyrénées-Atlantiques, 3E8329, Fourni par l'auteur

Lors de ces conflits, on observe que les discriminations envers des individus appelés « cagots » se poursuivent jusqu’au XIXᵉ siècle. Finalement, est cagot celui qui est désigné comme tel, qui est réputé impur par ses pairs et qui subit des marginalisations quotidiennes. Les individus ne sont pas cagots en soi, partout ; ils ne sont pas reconnaissables par un visage, un nom de famille générique ou une langue. Ceux qui sont accusés d’être cagots, dans les procès, ont des noms basques et gascons communs dans la région : Oyhamboure dans le Pays basque français, Sanchotena en Espagne, Nogué dans le Béarn…

Ils sont donc connus localement, au sein même des villages, grâce à des phénomènes d’interconnaissance et de réputation : on les identifie par un nom de maison ou par l’endroit où ils vivent. L’historien, quant à lui, peut les retrouver par les violences qu’ils subissent : sont cagots ceux qui sont toujours contraints à se marier entre eux, à avoir une place à part au cimetière, à être exclus des fonctions de maire, à rester au fond de l’église lors des offices divins.

Le terme de « cagot » est toujours donné de l’extérieur et n’est d’ailleurs jamais revendiqué. Lorsque les « cagots » vont eux-mêmes au tribunal, du XVIIᵉ au XIXᵉ siècle, c’est pour faire punir ceux qui les ont appelés ainsi, obtenir réparation et faire disparaître ce terme – ce qui sera un succès. En somme, le terme de « cagot » est à l’époque moderne un réceptacle pour exclure une fraction de la population, et une insulte qui permet de réinjecter de la différence quand celle-ci disparaît.

Cette exclusion sociale basée sur un argument biologique – celui d’une généalogie qui serait souillée – se retrouve hors du contexte pyrénéen, comme en Bretagne où les sources attestent de l’existence des caqueux. À l’origine malades de la lèpre, les caqueux sont au XVᵉ siècle contraints de porter un morceau de drap rouge et ne peuvent exercer d’autres métiers que celui de cordier. À partir du XVIIᵉ siècle, bien qu’ils ne soient plus lépreux, les caqueux voient les sépultures de leurs défunts se retrouver, dans certaines paroisses bretonnes, aux prises avec des violences villageoises. À Pluvigner en 1687, l’enterrement d’un caqueux provoque une émeute de la part des habitants.

L’historien Alain Croix postule de la même façon que cette exclusion est nourrie par des animosités liées à des privilèges économiques, puisque les caqueux ne cotisent pas comme les autres paroissiens. Le caractère extraordinaire de ces violences montre ainsi, à l’instar des cagots, que des questions matérielles régissent aussi les logiques d’exclusion.

The Conversation

Emma Duteil est historienne, doctorante contractuelle à Aix-Marseille Université et à la Casa de Velázquez (Madrid), membre du laboratoire TELEMME (UMR 7303 AMU-CNRS).

PDF

19.03.2026 à 17:10

Du cowboy au croisé : comment Trump dévoie les vieux mythes américains dans la guerre contre l’Iran

Jérôme Viala-Gaudefroy, Spécialiste de la politique américaine, Sciences Po

La communication de Donald Trump, spécialement depuis le début de la guerre contre l’Iran, reprend à son compte plusieurs mythes essentiels de la psyché états-unienne.
Texte intégral (2331 mots)

Le récit national des États-Unis repose sur de nombreux mythes que le président actuel recycle sans cesse dans ses discours en les centrant sur sa propre personne. C’était notable durant son premier mandat ; c’est devenu frappant depuis le début du second et, particulièrement flagrant, depuis le 28 février dernier. Face à l’Iran, Trump se présente comme un cowboy intrépide qui combat des « sauvages » le long d’une « nouvelle frontière », certain que sa violence est justifiée car la Providence l’a choisi.


La guerre contre l’Iran ne révèle pas seulement une escalade militaire. Elle éclaire la manière dont Donald Trump réactive de vieux mythes américains comme la « frontière » (The Frontier, en anglais, le récit mythique de la conquête de l’Ouest), le cowboy, la violence régénératrice et la Providence, en les vidant de leur part civique pour les convertir en récits de domination.

C’est là ce qui le distingue de ses prédécesseurs : il ne mobilise pas ces mythes pour exalter l’effort collectif ou l’idéal démocratique, mais pour mettre en scène la domination, l’épuration et la toute-puissance personnelle.

Une guerre nourrie par les mythes

Depuis le début de la guerre contre l’Iran, Trump parle moins comme un président que comme un conquérant. Il exige la « reddition sans condition » de Téhéran, promet que « des bombes tomberont partout » et évoque le choix de dirigeants « grands et acceptables » pour l’après-guerre. Ce langage ne décrit pas seulement une opération militaire : il réactive une vieille grammaire de la puissance américaine, sous une forme brutalement durcie.

Dans Republics of Myth (2022), Hussein Banai, Malcolm Byrne et John Tirman montrent que le conflit avec l’Iran n’est pas seulement alimenté par des intérêts stratégiques, mais par deux récits nationaux incompatibles qui transforment chaque crise en confirmation des humiliations, peurs et hostilités déjà présentes.

Du côté américain, le récit national reste structuré par le mythe de la « frontière » : un espace à dompter, des « sauvages » à vaincre, une mission à accomplir. Appliqué au Moyen-Orient, ce schème transforme l’Iran en frontière extérieure à discipliner. Trump ne crée pas ce récit ; il le radicalise.

La « frontière », de l’expansion à la prédation

Dans son discours d’investiture du 20 janvier 2025, Trump présente la « frontière » comme l’un des grands mythes fondateurs de la nation. Les États-Unis doivent redevenir « une nation qui accroît sa richesse, étend son territoire » et poursuit sa « destinée manifeste ». Il ajoute que « l’esprit de la “frontière” est gravé dans nos cœurs ». La « frontière » n’est plus ici une métaphore du progrès collectif : elle redevient un langage de puissance et d’appropriation.

Cette rhétorique n’est d’ailleurs pas restée théorique : dès les premières semaines du second mandat, Trump répète que le Canada devrait devenir le 51ᵉ État et affirme à propos du Groenland :

« Je pense que nous allons l’avoir, d’une manière ou d’une autre. »

Ce récit est enraciné dans un imaginaire puritain de mission dans les contrées sauvages (wilderness), de « Nouvelle Jérusalem » et de conquête violente d’un territoire peuplé de figures traitées comme des « barbares ». Republics of Myth montre aussi comment cette grammaire a été projetée vers l’extérieur, de l’Amérique latine au Moyen-Orient. Trump ne reprend donc pas une vieille image américaine ; il en réactive la version la plus expansionniste.

Le même mécanisme vaut à l’intérieur – à la frontière sud, Trump parle d’« invasion », d’« occupation migrante » et de « sauvages », là encore – comme à l’extérieur, puisque l’Iran est décrit en termes apocalyptiques comme une « force du mal » à abattre qui représentait un danger existentiel imminent.

Dans les deux cas, il s’agit moins de protéger une frontière que de théâtraliser une reconquête à travers un récit moral de lutte du Bien contre le Mal.

Le cowboy devenu culte du chef

Le deuxième mythe est celui du cowboy, tel que l’analyse l’historienne Heather Cox Richardson qui incarne l’idéal d’un « vrai » Américain, toujours blanc, qui agit seul, n’attend rien du gouvernement, protège les siens et impose sa volonté en dominant les autres. Richardson montre que ce mythe, recyclé depuis Barry Goldwater et surtout Ronald Reagan, est devenu central dans la culture politique du Parti républicain. Sous Trump, il passe à l’extrême.

Cette phrase prononcée lors de l’annonce du début des frappes contre l’Iran, le 28 février dernier, résume cette logique :

« Aucun président n’a été prêt à faire ce que moi, je suis prêt à faire ce soir. »

Le cowboy n’est plus une figure d’autonomie populaire ; il devient l’homme d’exception, celui qui ose seul, au-dessus des prudences institutionnelles. Trump absorbe le mythe dans sa propre personne. Ayant en tête le possible complot iranien visant à l’assassiner pendant la campagne de 2024, il présente même la mort de l’ayatollah Ali Khamenei comme un duel à OK Corral (dont l’un des protagonistes historiques, Wyatt Earp, est souvent érigé en héros par Donald Trump) :

« Je l’ai eu avant qu’il ne m’ait. »

Là où d’autres présidents pouvaient mobiliser des images pionnières pour raconter un effort national, Trump transforme le cowboy en matrice du chef charismatique et transgressif. Le héros ne représente plus un ordre collectif ; il externalise le conflit, polarise le monde en Bien et Mal, et ne se justifie plus que par sa capacité à vaincre.

Ce schéma n’est pas sans précédent : de l’« empire du Mal » dénoncé par Ronald Reagan à l’« axe du Mal » que George W. Bush disait combattre, la tradition présidentielle états-unienne a souvent opposé un « nous » vertueux à un « eux » menaçant, mais chez le président Trump, le récit moral ne sert plus seulement à défendre des valeurs ou le « monde libre », mais à magnifier un chef qui se légitime par sa seule capacité à vaincre.

La violence comme promesse de régénération

Le troisième mythe est celui de la violence régénératrice, identifié depuis longtemps par l’historien Richard Slotkin. Il montre combien l’idée selon laquelle la violence peut purger le désordre et restaurer l’ordre perdu se trouve au cœur du récit national dans l’histoire politique moderne des États-Unis. Cette violence n’est pas un accident de la « frontière » ; elle en est le moteur symbolique. Elle détruit l’obstacle, répare l’humiliation – par exemple, celle laissée par la crise des otages de 1979 que Trump rappelle dans son allocution du 28 février 2026 –, purifie l’espace et régénère la communauté.

Dès 2017, lors de son discours d’investiture, Trump parle de « carnage américain » et peint le portrait d’un pays ravagé qu’il faudrait restaurer par la rupture – un récit emprunté à la tradition rhétorique de la Jérémiade. En 2025-2026, cette logique s’étend à la politique étrangère. À West Point, s’adressant aux jeunes diplômés de l’Académie militaire des États-Unis, il exprime sa détermination à « tuer les ennemis de l’Amérique », à « écraser tout adversaire » et à « anéantir toute menace ».

Depuis le commencement de son second mandat, ce mythe est encore plus théâtralisé par une fusion assumée entre divertissement et réalité, comme en témoigne une vidéo publiée par la Maison-Blanche mêlant des images des frappes contre l’Iran à des scènes de films hollywoodiens et de jeux vidéo sous le slogan « Justice à l’américaine ». À ses ennemis, Trump promet la « mort certaine » et relie la destruction à une prétendue libération politique.

La violence n’est donc plus seulement un moyen ; elle devient la condition du renouveau. C’est ici que Trump s’écarte le plus visiblement d’un usage présidentiel plus classique de la puissance.

Là où ses prédécesseurs associaient la force à un projet explicite de transformation politique – démocratisation, state-building, refonte régionale –, Trump exprime une croyance bien plus radicale : la puissance y devient une vertu en tant que telle, et l’écrasement de l’ennemi sa preuve la plus éclatante. La violence ne prépare pas un ordre nouveau ; elle devient un objectif, comme si la seule démonstration de puissance suffisait à produire une solution politique.

Chez Trump, le vieux mythe américain de la violence est donc débarrassé de ses habillages universalistes : il ne reste que la destruction comme preuve de puissance.

La Providence réduite à la mission du leader

Le quatrième mythe est religieux, puisque la « frontière » américaine est, dès l’origine, liée à un imaginaire providentialiste : mission dans les contrées sauvages, peuple élu, rapport protestant direct à Dieu. Trump reprend cette tradition, mais en la déplaçant vers sa propre personne. Dans son discours d’investiture de 2025, il affirme que Dieu l’a sauvé pour une raison : rendre sa grandeur à l’Amérique.

Au National Prayer Breakfast, il déclare encore que Dieu a « un plan spécial et une mission glorieuse pour l’Amérique ».

Là encore, le mythe d’origine est perverti. La Providence n’est plus mobilisée pour rappeler une vocation collective de la nation, mais pour sacraliser la personne du président dans un rôle quasi messianique. Les soutiens de Trump aggravent cette dérive : une partie du trumpisme évangélique lit son rôle à travers l’onction, la prophétie ou la guerre du Bien contre le Mal. Le religieux sacralise la force.

Pete Hegseth, le ministre de la guerre, en est l’incarnation parfaite. Figure du croisé moderne, il associe christianisme nationaliste, virilité martiale et légitimation sacrale de la force.

Ce que révèle vraiment la guerre en Iran

Le récit que sous-tend la guerre contre l’Iran agit comme un révélateur. Il se fonde sur de vieux mythes américains qui ne sont pas seulement réutilisés par Trump, mais durcis et dévoyés. La « frontière » se mue en prédation, le cowboy en culte du chef, la violence en écrasement rédempteur et la religion en sacralisation du leader.

Trump ne s’inscrit pas simplement dans la tradition présidentielle états-unienne : il en radicalise les ressorts les plus sombres, en vidant ces récits de leur part civique, morale ou universaliste pour n’en garder que le noyau le plus brutal – conquête, force, droit divin, annihilation de l’ennemi –, ce qui semble séduire une majorité de sympathisants républicains.

The Conversation

Jérôme Viala-Gaudefroy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

19.03.2026 à 17:09

Les coopérations entre services de renseignement européens et américains à l’épreuve de Trump

Hager Ben Jaffel, Docteure en relations internationales spécialisée dans la sociologie du renseignement et de la sécurité, Institut catholique de Lille (ICL)

Malgré les tensions politiques transatlantiques, les services de renseignement continuent de coopérer étroitement, portés par des intérêts communs et une forte autonomie.
Texte intégral (2007 mots)

Les services de renseignement des États-Unis et des pays membres de l’Union européenne entretiennent depuis longtemps des coopérations internationales denses, fondées sur des échanges d’informations et des intérêts communs. Malgré les tensions politiques entre les deux rives de l’Atlantique sous l’administration Trump, ces relations se poursuivent à ce jour.


Les menaces répétées d’annexion du Groenland, les sorties diplomatiques controversées et, plus généralement, la posture ouvertement antagoniste de l’exécutif américain à l’égard des Européens témoignent d’un climat de défiance inédit entre alliés transatlantiques dont le dernier forum de Davos a fourni un exemple révélateur. Mais qu’en est-il des alliances entre services de renseignement ?

Souvent perçus comme des acteurs domestiques au service du pouvoir politique, les services de renseignement sont en réalité largement internationalisés et disposent, dans leurs rapports avec leurs homologues étrangers, d’une autonomie significative… même si celle-ci peut parfois être perturbée par des interférences politiques.

Des collaborations de longue date

Les collaborations entre services de renseignement sont anciennes, certaines remontant au moins à la Première Guerre mondiale, et résultent davantage d’accords entre services que de décisions de leurs gouvernements respectifs. Qu’elles soient bilatérales ou multilatérales, ces alliances cimentent de nombreuses activités : présence d’officiers de liaison auprès de pays partenaires, stations d’écoute, participation à des conférences internationales et, plus simplement, échanges routiniers d’informations.

Plusieurs études en sciences sociales ont ainsi montré comment s’est constitué, au fil du temps, un réseau de relations très étroit autour d’intérêts communs. La lutte contre le terrorisme, contre la prolifération nucléaire et contre d’autres menaces jugées imminentes a ainsi permis aux services de justifier la nécessité de travailler ensemble et d’échanger des données sur des individus, organisations ou États perçus comme « dangereux ». L’idée, largement admise, que le partage d’informations permettrait de prévenir des attentats et autres incidents a favorisé l’essor de dispositifs de surveillance, au détriment d’un contrôle démocratique contraignant.

Un exemple de ces dynamiques est celui des partenariats noués par la National Security Agency (NSA) avec plusieurs homologues européens, qui ont permis de mettre en commun des technologies de pointe — comme l’intelligence artificielle ou encore l’analyse algorithmique — pour collecter et analyser massivement des communications privées. Le recours à ces technologies repose aussi sur des alliances étroites des agences de renseignement avec les géants du numérique, devenus des intermédiaires incontournables qui mettent, bon gré mal gré, les données de leurs consommateurs à la disposition des services de renseignement.

La solidarité et la confiance affichées ne doivent pas faire oublier que les collaborations internationales restent un univers marqué par de fortes rivalités. Les services y sont en concurrence pour accéder à l’information, pour imposer les problèmes qu’ils jugent prioritaires et, plus largement, pour occuper une position avantageuse dans des relations où tous ne disposent pas des mêmes moyens financiers, humains ou techniques. Dans ce contexte, l’espionnage entre services et autres manœuvres déloyales font aussi partie du jeu.

Ces éléments suggèrent que les alliances en matière de renseignement obéissent à leurs propres logiques plutôt qu’à une loyauté indéfectible envers l’autorité politique. C’est dans ce contexte que le renseignement militaire danois a surveillé les communications de plusieurs dirigeants politiques européens pour le compte de la NSA. Mais surtout, parce qu’ils possèdent un savoir approfondi sur les dangers qui menacent le monde, les services de renseignement s’imposent au cœur des décisions en matière de sécurité, rendant les dirigeants politiques dépendants de leur expertise.

Une continuité malgré des interférences politiques

Cela étant dit, les alliances entre services de renseignement ne sont pas étanches et peuvent faire l’objet d’interférences politiques. Si les disputes entre les services de renseignement et les professionnels de la politique ont toujours existé, l’attitude ouvertement hostile de l’internationale réactionnaire incarnée par l’administration Trump et ses partisans MAGA a fait craindre une rupture ou, du moins, une fragilisation significative de la coopération. Seulement, les discours alarmistes font souvent l’impasse sur les capacités d’adaptation et de résilience des services de renseignement.

Confrontés à un contexte politique défavorable, ils parviennent le plus souvent à retourner la situation à leur avantage et à se réorganiser habilement. Ainsi, plusieurs services de renseignement européens ont renforcé leurs échanges, évoquant même la possibilité de créer un Five Eyes européen (en référence à l’alliance réunissant les services de renseignement de l’Australie, du Canada, de la Nouvelle-Zélande, du Royaume-Uni et des États-Unis, et coopérant régulièrement avec plusieurs autres pays, essentiellement européens et asiatiques).

D’autres ont développé des cellules de veille pour mieux anticiper l’imprévisibilité de l’exécutif américain, avec des bénéfices concrets : le personnel de l’unité en charge des États-Unis à la DGSE a été augmenté, et le budget de plusieurs services européens est prévu à la hausse, tirant parti des retombées de l’augmentation des dépenses de défense.

Plus largement, l’histoire montre que les liens entre services restent solides même lorsque les gouvernements ont des positions divergentes. Au début de ce siècle, les échanges entre la DGSE et la CIA se sont poursuivis malgré les désaccords sur la guerre en Irak. Un exemple plus récent est celui du Brexit, qui n’a pas entraîné de rupture majeure dans les relations entre la police britannique et ses homologues européens, lesquels continuent d’assurer le transit d’une grande partie du renseignement.

Comme dans toute relation, il peut se manifester des signes de prudence, de méfiance, ou encore d’ambivalence. Ainsi, les services britanniques et danois ont indiqué freiner, sans pour autant interrompre complètement, leurs échanges avec leurs homologues américains, s’inquiétant des implications légales et plus largement de la politisation du renseignement américain. Irrité par les provocations répétées envers le Groenland, le service du renseignement militaire danois n’a, quant à lui, pas hésité à désigner les États-Unis comme une menace à la sécurité du pays, au même titre que la Chine et la Russie.

Pour autant, il serait faux de croire que, dans un climat apaisé, l’échange de renseignements se ferait sans restriction. Les services ne partagent pas tous leurs secrets, tout le temps et avec tout le monde. Au contraire, la retenue observée chez certains traduit plutôt une asymétrie habituelle dans les échanges qui perdure et peut être accentuée en période de turbulences.

Les signes de continuité sont bien là et rappellent une réalité essentielle : le renseignement relève avant tout des professionnels du métier, et non des politiques. Le forum de Davos a ainsi accueilli un autre rendez-vous important, celui des chefs des services de renseignement européens et anglo-saxons, dont la CIA, soucieuse de préserver ses liens avec le Vieux continent.

Trump et le « deep state » : je t’aime, moi non plus

Les réticences exprimées par plusieurs services européens s’expliquent, en partie, par la volonté de Donald Trump de démanteler le « deep state » et par ses conséquences. S’il a mis à exécution certaines de ses menaces en procédant à une vague de licenciements au sein des services de renseignement, il n’en demeure pas moins qu’ils n’ont ni disparu ni cessé de fonctionner. Dans les faits, le pouvoir exécutif reste dépendant d’eux. Les nominations de figures controversées à la tête de plusieurs agences, au détriment de fonctionnaires de carrière, répondent à une volonté d’aligner la direction sur l’agenda politique et idéologique.

Par ailleurs, l’actualité internationale montre que les services de renseignement restent essentiels à la mise en œuvre de la politique étrangère. Longtemps décriée, la CIA semble désormais être revenue dans les bonnes grâces de la Maison-Blanche, tirant profit des opportunités offertes par la lutte contre le narcotrafic et la guerre en Iran pour réaffirmer sa pertinence et utilité auprès du pouvoir politique. Autant d’éléments qui illustrent la complexité des relations entre les services de renseignement et le pouvoir politique, faites à la fois de distance et de proximité.

The Conversation

Hager Ben Jaffel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

19.03.2026 à 17:08

Médias : les atteintes à la liberté de la presse de plus en plus fréquentes en région

Pauline Amiel, Head of school EJCAM, Aix-Marseille Université (AMU); Université de Toulouse

Les menaces, les violences ou les entraves d’accès à l’information sont en hausse, empêchant certains journalistes de couvrir la campagne municipale.
Texte intégral (1660 mots)

Les menaces, les violences ou les entraves d’accès à l’information sont en hausse, empêchant parfois les journalistes de presse locale de couvrir correctement la campagne pour les élections municipales.


« On vire la presse et on évite de la lire ; comme ça, on vivra mieux ! » Ces propos, prononcés par Christian Poiret, président du conseil départemental du Nord, le 10 janvier 2026, à l’occasion des vœux du maire de Féchain, est un exemple des nombreuses atteintes à la liberté de la presse locale relevées ces derniers mois.

Procédures-bâillons, entraves d’accès à l’information, intimidations verbales ou menaces judiciaires, cyberharcèlements, dénonciations publiques, agressions au cours d’une manifestation, vols ou casses de matériel, violences physiques, retrait ou conditionnement des financements publics, pressions politiques… En 2024, l’Observatoire français des atteintes à la liberté de la presse recensait 91 atteintes au niveau national. Entre 2018 et 2023, plus de 220 incidents liés à la sécurité des journalistes locaux ont été recensés par le Mapping Media Freedom.

Cette tendance est à la hausse, selon le rapport de Reporters sans frontières qui dénonce en outre des menaces de mort, des prises de position publique hostiles estimant que « l’information locale est de plus en plus cadenassée avec des interdictions d’accès à des événements d’intérêt général ou des restrictions d’accès par les forces de l’ordre ». Cette hausse n’est, pour l’heure, pas encore chiffrée précisément.

Des atteintes provenant de personnes ou de groupes détenteurs de l’autorité publique ou de mandats représentatifs

Les agressions récentes sont particulièrement marquantes, notamment parce qu’elles proviennent parfois de personnes détentrices de mandat représentatif ou de l’autorité publique. En octobre 2025, le président de la région Auvergne-Rhône-Alpes Fabrice Pannekoucke traitait Médiacités de « torchon » en plein hémicycle du conseil régional, car le média d’investigation locale avait révélé que son test d’un portail électronique à l’entrée des lycées était illégal.

Le 5 janvier, une cinquantaine d’ostréiculteurs, dont des représentants syndicaux, encagoulés, ont brûlé des pneus, bloqué le portail d’accès aux locaux et insulté des journalistes de Midi libre pendant plusieurs heures, manifestant leur mécontentement à la suite des articles qu’ils jugeaient à charge. Quelques semaines avant, des agriculteurs avaient pris pour cible ce média et ces journalistes dans le cadre d’une manifestation.

Plusieurs élus choisissent délibérément de ne plus communiquer avec les journalistes et préfèrent utiliser les réseaux sociaux ou les outils de communication de leurs institutions. Reporters sans frontières assure qu’« empêcher les journalistes d’avoir accès à des événements ou à des documents d’intérêt public est désormais chose courante en France : une atteinte caractérisée à la liberté de la presse et in fine au droit du public à l’information ».

L’ONG pointe également l’augmentation des procédures-bâillons. Ces poursuites judiciaires disproportionnées, excessives ou déraisonnables, qui visent à faire taire des personnes physiques ou morales, touchent particulièrement les médias d’investigation locale indépendants, tels que Médiacités, Marsactu ou encore Splann !. Elles jouent alors sur le déséquilibre de pouvoir, financier ou politique, pour faire pression sur le média.

Une couverture locale des élections municipales entravée

Cette situation est particulièrement préoccupante dans le contexte des élections municipales où la presse locale demeure un vecteur d’information de premier plan. Alors que la défiance envers les médias progresse, la presse locale est toujours un repère : 63 % des sondés du baromètre de la Croix font confiance aux médias locaux. C’est notamment le rôle d’animateur de débats publics qui est utile en temps de municipales.

Ainsi, l’Est éclair a lancé une consultation citoyenne pour mettre en avant les souhaits des habitants et les faire valoir auprès des candidats. De son côté, le Télégramme a créé une plateforme pour aider le public à se repérer dans les propositions. La Provence, quant à elle, a envoyé une équipe spéciale de journalistes pendant deux mois sur les marchés pour « demander aux habitants ce qu’ils attendent de cette élection municipale ».

Les médias locaux, à l’image de la Provence toujours, travaillent à renforcer le dialogue entre les candidats et les habitants, notamment dans l’espoir de lutter contre l’abstention. Dans le Vaucluse, les Alpes-de-Haute-Provence et les Bouches-du-Rhône, le quotidien régional organise 30 débats pour permettre ce dialogue.

Par ailleurs, les médias indépendants ne cessent d’innover pour lutter contre la désinformation, proposer du « fact-checking » des annonces des candidats et autres formats de vulgarisation des fonctions des mairies, comme le montre un partenariat de Médiacités, Marsactu, le Poulpe, Splann ! et Rue89 Strasbourg.

Maillage du territoire qui s’amenuise : vers des déserts informationnels en France ?

En France, 7 000 journalistes produisent l’information locale (presse quotidienne régionale ou départementale et presse hebdomadaire régionale, télévision locale) alors que les effectifs de la presse départementale ont été réduits de 20 % et ceux de la presse quotidienne régionale (PQR) de 9 % entre 2013 et 2023, selon les chiffres du ministère de la culture et de l’Arcom de janvier 2026.

La presse locale est menacée par la diminution des abonnements, des revenus issus de la publicité, par la non-rémunération des droits voisins par les Gafam, alors que les coûts d’impression et de distribution ne cessent d’augmenter. La bascule numérique et la diversification des activités engagées depuis longtemps, avec plus ou moins de succès, par les médias locaux traditionnels, ne parviennent pas à compenser cette érosion.

La question des déserts informationnels, qui désignent des territoires dans lesquels l’accès à une information fiable et de qualité est insuffisant, commence aussi à se poser en France. Ces deux dernières années, les deux rapports du Centre pour le pluralisme et la liberté dans les médias et de la Fondation Jean-Jaurès sur le sujet ont été clairs : la situation des territoires est fragile mais, pour le moment, aucun désert médiatique n’est recensé.

Pour autant, le maillage territorial s’érode : depuis dix ans, une centaine d’agences locales a disparu, la plupart dans des zones rurales. Ces fermetures, qui se couplent à la diminution du nombre de journalistes ou à la disparition de médias locaux d’investigation, satiriques ou indépendants, sont liées à la forte concentration du secteur.

Cette concentration n’est pas nouvelle, mais elle s’est renforcée ces dix dernières années. À tel point que le Centre pour le pluralisme et la liberté des médias indique dans son rapport de 2024 que le paysage médiatique français est considéré à « risque haut » pour son insuffisance d’infrastructures de médias locaux, la faiblesse de l’indépendance éditoriale et l’insuffisance de son inclusivité sociale. Là encore, les effets de cette concentration sont clairement identifiés : fragilisation de la crédibilité de l’information, biais idéologiques, risques d’autocensure, perte d’indépendance des journalistes et des rédactions, fragilisation économique, renforcement de la crise de confiance des publics.

The Conversation

Pauline Amiel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

19.03.2026 à 17:07

Quand le sourire devient un enjeu électoral pour les femmes candidates

Iona Astier, PhD Candidate in Economics, Université Paris 1 Panthéon-Sorbonne

Quentin Lippmann, Professeur des universités en sciences économiques, Aix-Marseille Université (AMU)

Léa Dispa, Chargée de médiation scientifique, Aix-Marseille Université (AMU)

Plus encore que de la part d’un homme politique, on attend d’une femme politique qu’elle sourie. Cette attente a-t-elle un effet électoral ?
Texte intégral (2091 mots)

Durant les municipales, les panneaux électoraux fleurissent dans nos communes. Regards francs, promesses locales, slogans calibrés. Et presque toujours, un sourire. Anodin ? Pas vraiment. Derrière cette expression du visage se joue une partition bien plus complexe qu’une simple question d’esthétique. Pour les femmes candidates, sourire est même une exigence politique silencieuse.


En 2016, lors de la convention démocrate, Hillary Clinton est davantage commentée pour son absence supposée de sourire et de chaleur que pour son programme. Quelques années plus tard, Élisabeth Borne, alors Première ministre, est à plusieurs reprises décrite comme « froide » ou « raide ». Dans son livre Vingt Mois à Matignon (2024), elle relate avoir été jugée plus sévèrement qu’un homme sur son attitude. Elle arbore d’ailleurs un franc sourire sur la couverture de son livre. Dans les deux cas, le reproche ne porte pas sur les idées, mais sur l’apparence, l’allure.

L’absence de sourire est donc plus souvent reprochée aux femmes. Mais est-ce que cette attente a un effet électoral ? Autrement dit, est-ce que l’absence de sourire est plus coûteuse électoralement pour une femme que pour un homme ?

Mesurer le sourire des candidats et candidates

Une récente étude menée à partir de plus de 9 000 professions de foi des législatives françaises de 2022 et 2024, met ce phénomène à l’épreuve de la réalité statistique (Lippmann, 2026). Ces professions de foi sont un support d’analyse précieux. En France, chaque électeur et électrice le reçoit avant le scrutin. Il présente à la fois le programme et la photographie du candidat ou de la candidate aux côtés des principaux cadors du parti politiques auxquels ils sont affiliés.

À l’aide d’outils d’intelligence artificielle, les émotions affichées sur les photographies ainsi que la présence ou non d’un sourire ont été mesurées. Près de 80 % des femmes sont classées comme « souriantes » sur leur photo contre moins de 60 % des hommes, soit un écart de 19 points de pourcentage. Les femmes apparaissent donc nettement plus souriantes que leurs homologues masculins.

Ce que coûte un sourire

L’analyse statistique montre également que cette différence n’est pas neutre électoralement. En exploitant les mêmes données issues des législatives de 2022 et 2024, nous avons mesuré l’impact du sourire sur les résultats électoraux en tenant compte de l’âge du candidat, de son parti politique, de sa profession, du département et du type de circonscription, ainsi que du contenu de la profession de foi.

À caractéristiques comparables, les hommes souriants et les femmes souriantes obtiennent environ deux points supplémentaires dans les urnes par rapport aux hommes ne souriant pas. Mais l’asymétrie apparaît chez les candidats qui ne sourient pas : une femme qui ne sourit pas obtient environ deux points de moins qu’un homme ne souriant pas. Pour un homme, sourire est donc un atout. Pour une femme, c’est davantage une condition pour éviter une pénalité.

graphique représentant l’effet estimé du sourire et du genre sur la part des voix au 1ᵉʳ tour
Effet estimé du sourire et du genre sur la part des voix au 1ᵉʳ tour DR. Fourni par l'auteur

Pour confirmer ces résultats, nous avons mené une expérience en ligne auprès de 1 000 personnes représentatives de la population française. Nous avons soumis aux participants des paires de photographies de candidats et candidates fictifs générées par intelligence artificielle. Pour chaque candidat fictif, deux versions de la même photographie ont été créées, l’une souriante et l’autre neutre, puis présentées aux participants afin de mesurer l’effet du sourire sur leurs intentions de vote.

À chaque participant, nous avons posé la question : « Si vous deviez choisir entre ces deux candidats, quelle est la probabilité que vous votiez pour le candidat A plutôt que pour le candidat B ? »

Les résultats préliminaires indiquent qu’une expression neutre réduit les intentions de vote pour tous les candidats, mais que cet effet est plus marqué pour les femmes. Ne pas sourire réduit leurs chances d’être choisies d’environ trois points de pourcentage supplémentaires par rapport aux hommes. Ces résultats, cohérents avec l’analyse des professions de foi, font actuellement l’objet d’un article scientifique en cours de rédaction.

Exemples de deepfakes utilisés dans l’expérience afin d’étudier l’effet du sourire sur les intentions de vote. DR. Fourni par l'auteur

La « double contrainte » des femmes en politique

Pourquoi cette injonction au sourire vise-t-elle plus fortement les femmes ? La psychologie a établi que les stéréotypes de genre font des femmes des personnes naturellement chaleureuses, attentives aux autres et peu enclines à l’agressivité, tandis que les hommes seraient associés à la compétitivité, à l’assurance et à la maîtrise émotionnelle. Mais lorsque les femmes accèdent à des positions de pouvoir, ces attentes entrent en tension.

Les femmes font face à une « double contrainte » : en tant que femmes, elles sont attendues sur le registre de la chaleur et de l’empathie alors qu’en tant que responsables politiques, elles doivent incarner l’autorité, la fermeté, qui sont des qualités associées au masculin. Si elles affichent trop de chaleur, elles risquent d’être jugées insuffisamment crédibles ou moins compétentes.

À l’inverse, si elles adoptent les codes de sérieux et de distance, valorisés en politique, elles s’exposent aux critiques de froideur, de « raideur » ou de manque d’empathie, comme l’ont vécu Hillary Clinton ou Élisabeth Borne. Cette double contrainte soulève une question stratégique : faut-il sourire pour être élue, quitte à devoir ensuite recomposer son image une fois en fonction ? Nos données ne permettent pas de répondre à cette question. Elle pointent néanmoins vers un paradoxe : les ressorts de la victoire électorale ne sont pas nécessairement ceux de l’exercice du pouvoir.

Pour les hommes, ce conflit est bien moins marqué. Les stéréotypes qui leur sont associés correspondent d’emblée à ceux liés à l’exercice du pouvoir. Cette concordance leur offre une plus grande liberté émotionnelle. Se montrer chaleureux n’est pas considéré comme une transgression, c’est une simple marque d’accessibilité, qui ne retire rien à leur crédibilité.

À l’inverse, si une femme répond aux attentes de chaleur et d’empathie traditionnellement associées au féminin, elle risque d’être perçue comme moins compétente. Le sourire devient alors un outil d’ajustement qui réduit la tension entre ces exigences contradictoires, une manière de « compenser » l’accès à une fonction de pouvoir encore perçue comme une transgression du rôle féminin. Cette contrainte oblige les femmes à investir davantage dans le contrôle de leur image.

À la charge politique s’ajoute alors une charge émotionnelle, une forme de « taxe invisible » qui représenterait une dépense d’énergie et de ressources que leurs homologues masculins n’ont pas à supporter. Si ce coût émotionnel est bien documenté théoriquement, les enquêtes menées directement auprès de femmes politiques sur ce vécu restent encore rares.

Composer avec les attentes

Face à ces contraintes, les femmes politiques peuvent adopter différentes stratégies. La première est la conformité : afficher chaleur et sourire pour répondre aux attentes genrées, au prix d’un effort supplémentaire. La seconde est la contestation en refusant ces normes et en assumant neutralité ou distance. Mais cette voie est électoralement risquée. Comme le montrent nos données, une candidate qui ne sourit pas s’expose à une pénalité dans les urnes que ses homologues masculins ne subissent pas.

Une troisième stratégie consiste à instrumentaliser ces contraintes. La politiste Frédérique Matonti a montré que le traitement médiatique stéréotypé des femmes politiques peut, dans certains contextes, se retourner en avantage. Dans le cas de Marine Le Pen, ce traitement a contribué à l’humaniser par contraste avec son père, servant ainsi sa stratégie de dédiabolisation du parti.

Un sourire peut sembler anodin. Mais lorsqu’on observe chez qui il est demandé, et à quel moment il est valorisé, alors il devient un révélateur des normes qui encadrent encore l’accès des femmes aux positions de pouvoir. Comprendre ces mécanismes, c’est ouvrir la voie à la réflexion et interroger ce que nous attendons, souvent inconsciemment, de celles et ceux qui nous gouvernent.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

19.03.2026 à 09:43

Dans le Var, la progression de la cochenille-tortue du pin menace les paysages méditerranéens

Romain Garrouste, Chercheur à l’Institut de systématique, évolution, biodiversité (ISYEB), Muséum national d’histoire naturelle (MNHN)

Cette espèce exotique a déjà eu dans le passé des effets dévastateurs sur les forêts de pin italiennes.
Texte intégral (2752 mots)
Deux femelles adultes de _Toumeyella parvicornis_ fixées sur une tige de pin maritime protégées par une fourmi (_Crematogaster scutellaris_), à Grimaud dans le massif des Maures, en octobre 2023. Romain Garrouste, Fourni par l'auteur

Le département du Var, en France, est touché par l’arrivée de cet insecte venu d’Amérique du Nord qui s’attaque au pin maritime et au pin parasol. Si la cochenille-tortue du pin se propage, elle pourrait transformer durablement les paysages et l’écologie du pourtour méditerranéen.


Des terrasses qui collent, des voitures poisseuses… On croirait d’abord à une histoire de pollution, puis on lève la tête vers les pins parasols caractéristiques du littoral méditerranéen. On voit alors leurs aiguilles noircir, leurs silhouettes familières se dégarnir, leurs grosses branches dépérir puis se rompre.

Derrière ces symptômes constatés dans le Var se cache un minuscule insecte, qui prend une place gigantesque dans les préoccupations locales : la cochenille-tortue du pin (Toumeyella parvicornis). Venue d’Amérique du Nord, on l’a détectée pour la première fois en France en 2021 dans le golfe de Saint-Tropez, dans le Var – un département en première ligne pour les espèces exotiques.

Discrètes, célèbres ou redoutées

Mais qu’est-ce donc qu’une cochenille ? Insectes de l’ordre des hémiptères, apparentés aux pucerons, aux cigales ou encore aux punaises, elles se caractérisent par une biologie souvent discrète. Les femelles adultes sont peu mobiles et restent fixées sur la plante hôte pour se nourrir de sève, tandis que les rares mâles sont souvent de petite taille, ailés, et d’une courte durée de vie.

Beaucoup d’espèces portent une cuticule épaissie ou cireuse, parfois en forme de petit bouclier – d’où l’impression de petite écaille collée au rameau. Certaines cochenilles sont célèbres pour un usage ancien comme colorant – la cochenille du carmin, par exemple. D’autres sont redoutées en agriculture, en horticulture et en foresterie, car elles peuvent pulluler, affaiblir les plantes et favoriser des champignons par l’intermédiaire du miellat qu’elles produisent.

Il y a plus de soixante ans, le massif des Maures dans le Var avait déjà vu arriver une cochenille, Matsucoccus feytaudi. Alors qu’on ne lui connaît pas de dégâts notoires en région atlantique dont elle est endémique (Landes en France, Espagne, Portugal, etc.), elle a détruit dans ce massif 120 000 hectares de pins maritimes en vingt ans de présence.

Biologie et mécanismes de dégâts de la cochenille-tortue du pin

Mais venons-en à celle qui nous intéresse, la cochenille-tortue du pin. Originaire d’Amérique du Nord, Toumeyella parvicornis appartient à la famille des Coccidae.

Elle se fixe volontiers sur les jeunes rameaux de pins, perce les tissus végétaux et se nourrit directement de la sève. Ce vol de ressources affaiblit l’arbre, mais le mécanisme le plus visible est ailleurs : l’insecte rejette en quantité un miellat sucré qui rend tout collant, attire souvent les fourmis… et, surtout, nourrit la fumagine, un champignon noirâtre qui recouvre aiguilles et rameaux, y compris les strates inférieures.

gros plan sur une colonie de cochenilles sur une branche
Colonie de Toumeyella parvicornis avec femelles adultes et petites larves fixées (rougeâtres), à Grimaud dans le massif des Maures, octobre 2023. Romain Garrouste, Fourni par l'auteur

Résultat : la photosynthèse est freinée et empêchée, l’arbre s’épuise, il perd des aiguilles et voit sa croissance stoppée. Des infestations fortes et répétées peuvent mener jusqu’au dépérissement et à la mort de l’arbre, souvent précédés de chutes de branches qui rendent les abords dangereux.

La France prudente après l’expérience italienne

Comme beaucoup d’espèces exotiques, les raisons de la diffusion de la cochenille tient à un « alignement des planètes » défavorable : augmentation des échanges commerciaux de végétaux et de matériels, densité d’hôtes (plantations notamment) et hivers plus doux.

En France, les foyers actuellement identifiés se concentrent encore dans le Var, mais un premier cas a été relevé à Martigues, dans les Bouches-du-Rhône. Les impacts visibles ont été identifiés sur le pin parasol (Pinus pinea) et le pin maritime (Pinus pinaster).

Face à ce constat, les autorités sanitaires ont mis en place une surveillance et des recommandations de gestion : un repérage précoce, des précautions lors des travaux d’élagage, une limitation des déplacements de végétaux potentiellement infestés, et le signalement des symptômes.

Les dégâts restent encore relativement localisés à l’échelle nationale, mais l’expérience antérieure de l’Italie nous invite à la prudence. La cochenille-tortue du pin a été signalée dès 2014 en Campanie, dans la région de Naples, avant de gagner d’autres régions jusqu’à atteindre Rome, où le pin parasol constitue une icône paysagère et culturelle.

Les infestations ont entraîné des dépérissements massifs, et les gestionnaires ont dû intervenir sur des arbres adultes, parfois patrimoniaux. Plusieurs études récentes utilisant des indicateurs de croissance, des mesures physiologiques et de la télédétection ont pu mettre en évidence les liens entre l’intensité de l’attaque à la baisse de vitalité des pins et au risque de mortalité en Italie.

Après l’Italie et la France, l’espèce a aussi été signalée dans d’autres pays du bassin (par exemple, dans les Balkans), ce qui alimente la crainte d’une diffusion à l’échelle méditerranéenne, d’autant que le pin parasol est présent sur une large partie du pourtour méditerranéen.

Une menace écologique majeure

Le point crucial, souvent sous-estimé dans le débat public, tient au rôle du pin parasol et du pin maritime. Loin d’être de simples arbres d’ornement urbain, ils structurent les milieux naturels, parfois au cœur d’aires protégées.

Dans la réserve naturelle nationale de la plaine des Maures (Var), les pins parasols participent à des paysages uniques et à la structuration écologique locale. Ils façonnent une ambiance de plaine ouverte arborée très caractéristique.

La disparition ou le dépérissement de ces arbres n’aurait pas seulement un effet esthétique : elle affecterait la structure du milieu, les microclimats locaux et toute une biodiversité associée aux pins – faune, champignons, cortèges d’invertébrés, etc. Une grande partie du littoral du Var fait partie de l’aire du parc national de Port-Cros, directement menacée par cet insecte.


À lire aussi : Derrière les invasions biologiques, un remodelage silencieux des écosystèmes


Le pin maritime, comme le pin parasol, dépasse en outre largement le cadre méditerranéen. Il est présent également sur la façade atlantique, où il constitue l’essence dominante du massif landais et l’un des plus vastes ensembles forestiers d’Europe occidentale. Une extension de la cochenille-tortue vers ces régions – si elle s’y acclimatait et y trouvait les conditions propices – poserait donc des questions écologiques, paysagères et économiques à une tout autre échelle : santé des forêts, gestion sylvicole, risque d’affaiblissement face aux sécheresses et coûts de surveillance.

Plus largement, ce cas illustre comment un insecte de quelques millimètres peut, en interaction avec la mondialisation des échanges et le changement climatique, devenir un facteur de transformation durable des paysages et des écosystèmes, en s’associant aux modifications en cours, en modifiant l’identité visuelle et écologique de régions entières. L’enjeu dépasse donc la seule nuisance : il interroge notre capacité à anticiper et gérer les invasions biologiques avant qu’elles ne redessinent, silencieusement, nos horizons.

La cochenille-tortue des pins (Toumeyella parvicornis, Coccidae, Hemiptera). Source : Ysyeb/YouTube.

Des pistes de solutions au cas par cas

Face à cette invasion, les solutions restent jusqu’ici limitées, surtout sur de grands arbres. Il n’existe pas de « recette miracle » universelle. La gestion implique une approche intégrée, qui combine détection précoce, réduction des sources de dispersion, tailles ciblées quand c’est possible et maintien de la vitalité des arbres : arrosage raisonné en période sèche, protection des racines en contexte urbain, limitation des blessures.

paysage d’arbre rompu par les dégâts causés par un insecte
Dégâts de Toumeyella parvicornis sur pin parasol, défoliation et chute de branches, à Grimaud dans le massif des Maures, en octobre 2023. Romain Garrouste, Fourni par l'auteur

Des pistes existent aussi du côté des ennemis naturels de ces insectes. Comme pour d’autres cochenilles, certains prédateurs, notamment des coccinelles, peuvent consommer des cochenilles jeunes, et des communes testent parfois des lâchers d’auxiliaires. Mais l’efficacité à grande échelle dépend du bon choix d’espèces, du calendrier d’intervention et de la capacité des auxiliaires à suivre le rythme des pullulations.

Collectivités et particuliers, les bons réflexes à adopter

En tant que collectivités et en qualité de citoyens, comment contribuer à cette lutte ? Il s’agit d’abord d’apprendre à reconnaître les symptômes : miellat collant, fumagine noire, rameaux couverts de « petites carapaces » brunâtres, puis jaunissement.

Il faut ensuite éviter de déplacer des branches, rameaux ou végétaux de pins depuis une zone infestée vers une zone saine, et signaler les cas aux services compétents lorsqu’un nouveau foyer est suspecté.

Enfin, dans les espaces gérés, il s’agit de prioriser les arbres les plus sensibles (pins parasols, sujets en bord de route ou en ville) et intervenir le plus tôt possible : une fois l’arbre très affaibli, les chances d’inverser la trajectoire sont minces.

Une autre difficulté tient au manque de connaissances scientifiques produites en France sur Toumeyella parvicornis. Les données sur sa dynamique locale (nombre de générations par an selon les microclimats et les espèces d’arbres), ses ennemis naturels réellement efficaces, ses voies de dissémination et ses interactions avec le stress hydrique et les effets post-incendies restent encore à établir. Cette lacune contraste avec la situation italienne, où plusieurs travaux récents décrivent déjà la progression, les impacts sur la croissance des pins et des outils de suivi (dont la télédétection) qui peuvent aider les gestionnaires.

L’urgence en France, pour la recherche, est donc de cartographier finement l’extension du phénomène, en utilisant la télédétection et des drones par exemple, de mesurer l’impact sur la croissance des pins et, surtout, d’identifier les régulations naturelles efficaces, qui passent par l’identification génétique des arbres.

Par exemple, quelles coccinelles et autres prédateurs ou parasitoïdes attaquent réellement la cochenille dans le Var ? À quelle période de l’année ? Avec quel niveau de contrôle ? Sans ces données, il est difficile d’évaluer ce qui marche, ce qui coûte cher pour peu d’effets, et ce qui pourrait être déployé à grande échelle sans risques écologiques secondaires.

The Conversation

Romain Garrouste a reçu des financements de MNHN, CNRS, Sorbonne Université, Labex BCDIV (ANR), MRAE, MTE, National Geographic,

PDF

19.03.2026 à 09:42

Le scarabée japonais à la conquête de l’Europe : un insecte sous haute surveillance

Sylvain Poggi, Chercheur en écologie quantitative et analyse de données, Inrae

Davide Martinetti, Chercheur en Biostatistique et Processus Spatiaux, Inrae

Leyli Borner, Ecologue et statisticienne

Sans une surveillance efficace et des mesures de lutte appropriées, le scarabée japonais pourrait coloniser une grande partie de l’Europe continentale dans les prochaines années.
Texte intégral (2671 mots)
Le scarabée japonais _Popillia japonica_ a été détecté pour la première fois dans le Grand-Est en juillet 2025. Inrae/Borner, Fourni par l'auteur

Sans une surveillance efficace et des mesures de lutte appropriées, le scarabée japonais (Popillia japonica), détecté en France pour la première fois dans la région Grand-Est en juillet 2025, pourrait coloniser une grande partie de l’Europe continentale dans les prochaines années.


C’est un coléoptère au régime varié. Le scarabée japonais peut s’alimenter sur plus de 400 espèces de plantes hôtes. Ses larves se nourrissent principalement des racines de graminées, en particulier celles des gazons, des prairies et surfaces enherbées, tandis que les adultes attaquent de nombreuses cultures agricoles (vignes, fruits à noyau, etc.), mais également des espèces ornementales telles que les rosiers.

Les dégâts potentiels sont considérables : aux États-Unis, les dégâts sont estimés à plusieurs centaines de millions de dollars par an, en incluant à la fois les pertes de production et les coûts de lutte.

Le scarabée japonais est de ce fait sous haute surveillance en France, où il a été détecté pour la première fois dans le Grand-Est en juillet 2025. Cette détection a de quoi inquiéter, mais elle était hélas prévisible : dès mai 2022, un rapport d’expertise collective de l’Agence nationale de sécurité sanitaire (Anses) anticipait son introduction comme inéluctable en France hexagonale.

Une espèce exotique envahissante bien documentée

Originaire du Japon, le scarabée japonais est une espèce exotique envahissante dont les routes d’invasion sont bien connues (Figure 1). Accidentellement introduit aux États-Unis en 1916, il s’y est progressivement installé et s’est disséminé jusqu’au Canada.

À partir des années 1970, il a colonisé l’archipel des Açores, puis fut signalé pour la première fois en Europe continentale près de Milan (Italie) en 2014. Il s’est propagé en Suisse, dès 2017, et a été intercepté dans d’autres pays européens : Pays-Bas (2019), Allemagne (2022), Slovénie (2024) et, en 2025, en France, en Espagne, en Belgique et en Autriche.

Figure 1 : Historique d’invasion du scarabée japonais. Fourni par l'auteur

Cette invasion a suivi trois étapes classiques : l’entrée, l’établissement et la dissémination de l’espèce. Dans le cadre du projet européen IPM-Popillia, nous avons développé des cartes de risque pour chacune de ces étapes à l’échelle de l’Europe, afin d’aider les services phytosanitaires et les décideurs à mettre en place des stratégies de surveillance efficaces. Voici ce que nous avons appris.

Le scarabée japonais : une invasion à nos portes

Le scarabée japonais se déplace principalement grâce aux activités humaines : il s’introduit dans de nouvelles régions par le transport de personnes et de marchandises, ce qui est caractéristique d’un insecte « auto-stoppeur ».

Nous avons évalué le risque d’introduction dans chaque région européenne (Figure 2) en analysant les flux de voyageurs et de marchandises par avion, par train et en camion, à partir du foyer principal d’invasion (localisé en Italie du Nord et au sud de la Suisse). Les zones étudiées correspondent aux unités NUTS3, définies par l’Union européenne, qui correspondent à des zones de la taille d’un département ou d’une petite province.

Figure 2 : Cartes de risque d’introduction du scarabée japonais en Europe continentale depuis le foyer principal d’invasion (en noir) par voie aérienne (A), ferroviaire (B), routière (C), et par une combinaison de ces trois modes (indice composite, D). Les couleurs chaudes correspondent à un risque plus élevé. Adapté de Borner et al. (2024). Fourni par l'auteur

Où le scarabée japonais pourrait-il s’établir ?

Une fois introduite, une population de scarabées peut-elle survivre et se reproduire ? C’est ce que l’on appelle l’étape d’établissement. Les conditions climatiques, l’usage des sols et l’environnement local déterminent si ces populations peuvent se maintenir durablement.

Grâce à des modèles de distribution d’espèces, nous avons relié les données de présence du scarabée dans les zones colonisées, issues notamment des plateformes de sciences citoyennes, avec des informations environnementales géoréférencées.

La carte de risque d’établissement (Figure 3) montre que les contreforts des Alpes, le nord des Balkans et les rives orientales de la mer Noire sont très favorables à l’insecte. Le sud-ouest de la France, la Bretagne, l’Allemagne, l’Autriche, la Belgique et les Pays-Bas présentent un risque plus modéré.

Figure 3 : Carte de risque d’établissement du scarabée japonais en Europe continentale. Les couleurs chaudes correspondent à un risque plus élevé. Adapté de Borner et al. (2023). Fourni par l'auteur

Comment l’espèce continue-t-elle de se propager ?

Les scarabées japonais émergent une fois par an sous les latitudes tempérées et sont responsables de la progression du front d’invasion en été via leur vol actif. Ils se déplacent pour se nourrir, s’accoupler et pondre leurs œufs, qui poursuivent ensuite leur développement dans le sol tout l’hiver.

L’interaction entre le cycle de vie de l’insecte et les conditions locales gouverne la vitesse à laquelle il se propage dans différentes régions d’Europe (Figure 4).

Figure 4 : Carte de vitesse locale de propagation du front de colonisation du scarabée japonais en Europe continentale. Fourni par l'auteur

Des cartes de risque pour mieux prévenir

Nos cartes de risque permettent de visualiser trois aspects essentiels :

  1. Risque d’introduction : où l’espèce peut arriver via les transports humains.

  2. Risque d’établissement : où les conditions environnementales sont favorables à sa survie et sa reproduction.

  3. Risque de dispersion active : où l’insecte peut se déplacer naturellement grâce à son vol.

Considérées séparément, mais plus encore combinées, ces cartes constituent un outil précieux pour anticiper et limiter la progression du scarabée japonais. Elles aident à définir des zones prioritaires pour la surveillance, à coordonner les actions transfrontalières et à adapter les mesures de confinement selon la vitesse de propagation locale.

La surveillance des espèces exotiques envahissantes : un enjeu crucial

Les invasions biologiques sont en forte croissance depuis deux siècles, et la tendance devrait se poursuivre avec l’intensification du commerce, des transports et du changement climatique. Entre 1980 et 2019, les dommages liés aux invasions se sont élevés à 1 208 milliards de dollars (plus de 1 049 milliards d’euros) à l’échelle mondiale, avec une augmentation de 702 % des pertes déclarées entre 1980-1999 et 2000-2019.

Dans ce contexte, il est donc crucial d’améliorer la prévention, la surveillance et la réponse rapide afin de stabiliser, voire de réduire à terme, le nombre de nouvelles invasions. Nos cartes de risque viennent compléter les outils existants pour optimiser les stratégies de surveillance permettant d’activer les mesures appropriées pour lutter contre les espèces exotiques envahissantes.

En pratique, toute observation d’un scarabée japonais doit être signalée à votre Direction régionale de l’alimentation, de l’agriculture et de la forêt (Draaf), en précisant le lieu de l’observation.

The Conversation

Sylvain Poggi a reçu des financements de I'Union Européenne dans le cadre du projet IPM-Popillia (European Union Horizon 2020 Research and Innovation Programme, Grant No. 861852).

Davide Martinetti a reçu des financements de IPM-Popillia project, (European Union Horizon 2020 Research and Innovation Programme, Grant No. 861852).

Leyli Borner a reçu des financements de l'Union Européenne dans le cadre du projet IPM-Popillia (European Union Horizon 2020 Research and Innovation Programme, Grant No. 861852).

PDF

19.03.2026 à 09:42

Le nématode du pin, un redoutable globe-trotteur

Hervé Jactel, Directeur de recherche, Inrae

Partout où il s'est installé, le nématode du pin a tué des millions d'arbres. Son arrivée dans les Landes françaises ne présage donc rien de bon.
Texte intégral (2616 mots)
Un nématode du pin _Bursaphelenchus xylophilus_ mâle, un _Monochamus galloprovincialis_, l’insecte vecteur de la maladie du flétrissement, et un pin desséché. L. D. Dwinell, USDA Forest Service/Gilles San Martin /Mateinsixtynine, CC BY

Partout où il s’est installé, le nématode du pin Bursaphelenchus xylophilus a tué des millions d’arbres. Son arrivée dans les Landes françaises ne présage donc rien de bon. Pour lutter contre cette espèce invasive, il faut bien sûr connaître son cycle de vie et la façon dont la maladie qu’il véhicule se transmet d’arbre en arbre. C’est ce que nous explique le spécialiste d’entomologie forestière Hervé Jactel.


Le nématode du pin Bursaphelenchus xylophilus, responsable de la maladie du flétrissement, est sans conteste le pire agent pathogène pour les forêts de pin du continent eurasiatique. Il s’agit d’un ver microscopique qui, une fois dans l’arbre, se nourrit des vaisseaux du bois, et bloque la circulation de la sève. Les symptômes sont, dans un premier temps, le rougissement des aiguilles puis leur chute, ensuite la courbure des pousses (d’où le nom de flétrissement), puis enfin la mort de l’arbre en quelques semaines seulement.

Bursaphelenchus xylophilus (adulte mâle). David Pires (INIAV, PT), Fourni par l'auteur

Partout où il a été introduit, il a provoqué la mort de millions d’arbres. Cette espèce exotique envahissante (classée organisme de quarantaine en Europe) est originaire d’Amérique du Nord où elle ne cause pas de dégâts, car les pins nord-américains sont résistants. En revanche, elle s’avère très agressive envers les espèces de conifères avec lesquelles elle n’a pas longtemps cohabité.

Une série d’invasions en Asie

Comme pour toutes les espèces invasives, le nématode du pin se joue des frontières terrestres ou maritimes. Il est arrivé en 1905 au Japon sans doute par l’intermédiaire d’une cargaison de bois venue des États-Unis. Il a, depuis, causé la perte de 95 % de la ressource en pins du pays. Il a ensuite été détecté en Chine en 1982, à Nankin (Nanjing en chinois), possiblement à cause de l’importation depuis les États-Unis de matériaux de construction d’un grand télescope. Il est désormais présent dans 18 provinces et a tué plus de 50 millions d’arbres.

Des travaux de modélisation ont montré que cette rapide expansion est surtout due à une propagation assistée par l’humain, avec des déplacements de plusieurs centaines de kilomètres par an sans doute liés au transport de matériaux en bois contaminés. Les dégâts sont tout aussi considérables en Corée (10 millions d’arbres morts en dix ans) malgré toutes les mesures d’éradication et de contrôle mises en place.

Détecté en Europe depuis 1999

Au Portugal, où il a été détecté en 1999, il occupe désormais plus de la moitié de la surface des forêts de pin maritime et a réduit de 30 % leur production. Des analyses génétiques ont montré que les populations de nématode du pin arrivées au Portugal étaient d’origine asiatique et non américaine. L’hypothèse est que du bois contaminé aurait été utilisé pour la construction de l’un des pavillons asiatiques de l’Exposition universelle de Lisbonne en 1998.

Des foyers sont également présents en Espagne depuis 2008, non loin de la frontière portugaise. Alors que certains semblent éradiqués, le foyer en Galice connu depuis une dizaine d’années est officiellement hors de contrôle et progresse de manière inquiétante.

Dans tous ces pays, le rythme de mortalité est d’environ un  million d’arbres par an.

Autant dire que la menace est grave pour la forêt des Landes en France, où le pin maritime est omniprésent et où un premier foyer vient d’être découvert fin 2025 à Seignosse. Les 500 kilomètres qui séparent les foyers du nord du Portugal et de Galice du sud des Landes indiquent que, là encore, c’est le transport par l’être humain qui est à l’origine de cette invasion.

Un coléoptère qui transmet la maladie d’arbre en arbre

La maladie du flétrissement du pin est une maladie à transmission vectorielle. Le nématode du pin ne peut pas passer d’un arbre à l’autre sans l’aide de son insecte vecteur, capable de voler, qui est dans tous les pays infectés un coléoptère longicorne xylophage du genre Monochamus.

En Europe du Sud, il s’agit de l’espèce méditerranéenne Monochamus galloprovincialis. L’insecte vecteur transporte les nématodes dans ses trachées (tubes conduisant l’air aux différents organes) et les dissémine d’un arbre à l’autre à deux étapes de son cycle de développement.

Deux modes de transmission

À leur émergence de l’arbre où ils se sont développés, les jeunes adultes doivent se nourrir sur de jeunes pousses de pin en bonne santé pour acquérir l’énergie nécessaire pour faire fonctionner leurs muscles moteurs du vol et produire des ovocytes (les œufs avant leur fécondation).

C’est pendant cette phase de maturation sexuelle que l’essentiel de la charge en nématode est transmise à l’arbre. Cette transmission est passive, car les nématodes ne sont pas injectés mais sortent d’eux-mêmes des trachées, attirés par l’odeur de la résine qui s’écoule des morsures de l’insecte sur l’écorce des pousses de pin.

Monochamus galloprovincialis (adulte femelle), se nourrissant sur une pousse verte de pin maritime. Inge van Halder, Fourni par l'auteur

Les nématodes gagnent alors le réseau de canaux de résine où ils peuvent se multiplier si l’arbre n’est pas résistant et si les températures sont suffisamment élevées. Le nématode du pin produit une nouvelle génération tous les quatre et cinq jours à 25 °C. En quelques semaines, la population de nématodes peut donc augmenter de façon exponentielle, conduisant à une obstruction des canaux de sève et à la mort de l’arbre par embolie.

Le deuxième mode de transmission des nématodes par les insectes vecteurs intervient, mais dans une moindre mesure, lorsque la femelle fécondée cherche un arbre hôte dépérissant pour effectuer sa ponte, car c’est l’habitat le plus favorable au développement de sa descendance.

Cet arbre peut être dépérissant parce qu’affaibli par une grave sécheresse, le passage d’un feu (les Monochamus sont attirés par l’odeur de la fumée), une attaque de scolytes (des coléoptères xylophages), une infection par un champignon ou par le nématode lui-même (si un Monochamus l’avait auparavant contaminé lors de son repas de maturation). La femelle pond ses œufs un par un dans des encoches creusées dans l’écorce des arbres. Les nématodes qui restaient dans ses trachées peuvent alors pénétrer dans l’arbre par ces blessures de l’écorce. Les jeunes larves de l’insecte creusent ensuite une galerie sous l’écorce pour se nourrir aux dépens des tissus où circule la sève de l’arbre chargée de sucres. C’est pourquoi les arbres supports de ponte ne doivent pas être morts (pas complètement secs) mais seulement moribonds.

Ensuite, les autres stades larvaires se développent lentement dans les tissus du bois alors que les nématodes survivent en se nourrissant de champignons à l’intérieur de ces mêmes tissus. Attirés par l’odeur des insectes, les nématodes présents dans le bois se regroupent dans la loge où la larve s’est transformée en nymphe et s’insèrent dans les trachées du jeune adulte avant que celui-ci n’émerge de l’arbre, emportant avec lui quelques centaines à quelques milliers de nématodes. Au total, le cycle de reproduction de l’insecte vecteur Monochamus dure un an, avec une période d’arrêt du développement pendant l’hiver.

Des coléoptères qui peuvent voler sur plusieurs dizaines de kilomètres dans leur vie

Pour boucler le cycle de la maladie, un arbre hôte doit donc être visité deux fois par des Monochamus, une fois par un Monochamus jeune adulte (mâle ou femelle) qui transmet les nématodes lors de son repas et induit donc le dépérissement de l’arbre, et une deuxième fois par un Monochamus femelle fécondée, attirée par l’arbre dépérissant, et dont les insectes de la génération fille assurent la récupération puis le transport des nématodes hors de l’arbre infecté.

Les insectes vecteurs de l’espèce M. galloprovincialis sont doués d’une grande capacité de vol, capables de se déplacer sur plusieurs dizaines de kilomètres durant toute leur vie d’adulte.

Monochamus galloprovincialis (adulte mâle) prêt à s’envoler
Monochamus galloprovincialis (adulte mâle), prêt à s’envoler. Gilles San Martin, Fourni par l'auteur

Contrairement aux incendies de forêt qui ravagent en quelques jours des grandes surfaces de plantations de pin, si elle n’est pas éradiquée, la maladie du flétrissement provoquée par le nématode progresse inéluctablement mais lentement, de quelques kilomètres par an, avec une petite proportion d’arbres morts par parcelle chaque année (5 à 10 %). Il conviendrait donc d’envisager d’ores et déjà des mesures pour ralentir le front de progression de la maladie, en cas d’échec de l’éradication, et pour reconstituer les forêts impactées.

Le temps long du dépérissement des forêts infectées par le nématode du pin devrait donc permettre d’évaluer différentes options de renouvellement forestier.

The Conversation

Hervé Jactel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

18.03.2026 à 18:12

Retraite repoussée, dépression avancée ? Ce que la qualité de l’emploi change pour la santé mentale des seniors

Alexandra Lugova, Doctorante en économie, Université Savoie Mont Blanc

Bérangère Legendre, Professor, Université Savoie Mont Blanc

Jérémy Tanguy, Maître de conférences en Economie, Université Savoie Mont Blanc

Michele Belloni, Associate Professor, Università di Torino

Une étude qui a mobilisé des données dans 14 pays européens montre que repousser l’âge de départ à la retraite peut nuire à la santé mentale de celles et ceux qui avancent en âge.
Texte intégral (1728 mots)

La question de reculer, ou non, l’âge de la retraite fait débat en France. Dans ce cadre, une étude qui a mobilisé des données dans 14 pays européens montre que rester plus longtemps en emploi peut nuire à la santé mentale après 50 ans… sauf si ces personnes bénéficient de bonnes conditions de travail.


La dépression affecte environ 280 millions de personnes dans le monde, ce qui en fait l’un des troubles en santé mentale les plus répandus. En Europe, près de 7 % de la population souffre de dépression chronique, soit environ 1 personne sur 14.

Selon une étude de la Drees publiée en 2025, qui s’appuie sur des chiffres de 2019, la France serait le pays d’Europe le plus touché par les syndromes dépressifs, avec un taux estimé à 11 % de sa population.

Si toutes les générations sont concernées, la prévalence de la dépression est particulièrement élevée chez les personnes en emploi qui avancent en âge, car elles sont souvent confrontées à l’isolement, à la perte de repères ou à la dégradation de leurs conditions de travail.

Retraite repoussée : quelle santé mentale des travailleurs âgés ?

Cette réalité soulève des inquiétudes alors que de nombreux pays européens allongent la durée de vie professionnelle pour garantir la viabilité de leurs systèmes de retraite.

Depuis plus d’une décennie, la plupart des pays européens ont mené des réformes repoussant l’âge de départ à la retraite pour garantir la soutenabilité financière de leurs systèmes de pension. Mais quelles sont les répercussions sur la santé mentale des travailleurs âgés ?

Nous avons voulu répondre à cette question en mobilisant les données de 14 pays européens et en mettant en lumière un facteur souvent négligé dans le débat public : la qualité des conditions de travail.

Nos résultats montrent que travailler plus longtemps nuit à la santé mentale… sauf si les conditions de travail sont bonnes. Autrement dit l’impact d’une réforme ne dépend pas uniquement de son contenu, mais aussi des conditions dans lesquelles elle est déployée. Le type d’emploi qu’occupent les travailleurs ciblés par l’allongement de la durée d’activité conditionne l’impact de la réforme sur la santé mentale.

Travailler plus longtemps nuit à la santé mentale… en moyenne

Nous avons croisé deux grandes bases de données européennes afin de dresser un panorama exhaustif de l’effet des réformes allongeant la carrière sur la santé mentale des travailleurs européens :

Les données de plus de 10 000 travailleurs européens âgés de 50 à 54 ans entre 2011 et 2015 ont ainsi pu être mobilisées.

Le score Euro-D constitue l’indicateur principal de santé mentale utilisé dans cette étude. Il permet de comptabiliser les symptômes de dépression sur une échelle en 12 points. Un score supérieur à 3 indique une dépression chronique. Résultat : chaque année supplémentaire imposée avant la retraite augmente le nombre de symptômes de dépression et la probabilité d’avoir une dépression chronique, en particulier lorsque la prolongation dépasse un an.

Des disparités selon le métier et les conditions de travail

Mais cette moyenne cache de fortes disparités. Le métier exercé et les conditions de travail influencent l’impact des réformes rallongeant la carrière. On observe également des écarts frappants selon la qualité de l’environnement de travail.

Pour comprendre ces écarts, nous avons classé les emplois selon six dimensions de qualité :

  • environnement physique (bruit, températures, substances dangereuses),

  • environnement social (harcèlement, soutien des collègues, qualité du management),

  • autonomie et usage des compétences,

  • qualité du temps de travail (horaires, flexibilité),

  • intensité du travail (rythme, pression),

  • perspectives de carrière (sécurité de l’emploi, évolution de carrière possible).

Nous avons alors comparé les effets des réformes entre deux groupes pour chacune de ces dimensions : un premier groupe exerçant dans des conditions de travail que nous qualifierons de dégradées, un second groupe exerçant dans de bonnes conditions de travail.

Les résultats sont sans appel. Chez les personnes exposées à un environnement social dégradé (absence de soutien, harcèlement, management toxique), repousser le départ à la retraite de plus d’un an entraîne une hausse de 22 % des symptômes dépressifs par rapport à la moyenne observée dans le groupe non exposé à la réforme.

À l’inverse, les travailleurs évoluant dans un environnement social favorable voient leur santé mentale s’améliorer lorsque l’âge de départ augmente. Travailler plus longtemps peut alors renforcer leur sentiment d’utilité et de lien social.

L’analyse des perspectives de carrière aboutit à un résultat similaire : dans des emplois précaires, l’allongement de la vie professionnelle accroît les symptômes dépressifs de 28 %, alors qu’elle les réduit dans les métiers offrant de la stabilité et des perspectives d’évolution. Les effets délétères, bien que moins forts, sont également marqués dans les emplois à faible autonomie.

Des réformes perçues comme injustes et difficiles à encaisser

Pourquoi une même réforme peut-elle engendrer des effets aussi contrastés ? Parce que prolonger l’activité dans un emploi pénible, sans perspectives d’évolution, sous pression ou dans un environnement hostile, accroît la détresse. Or, à 50 ou 55 ans, la tolérance face à ces pressions diminue, en particulier lorsque l’horizon de la retraite, perçu comme proche, est repoussé.

Des études antérieures ont montré que le ressenti d’injustice et d’insécurité est central : les personnes proches de la retraite, confrontées à un changement de règles du jeu, se sentent flouées. La perception de ne pas avoir de contrôle sur leur avenir professionnel provoque stress, frustration et symptômes dépressifs.

Notre étude confirme également que les emplois sans autonomie ni reconnaissance (faible usage des compétences, peu de marges de manœuvre) accentuent les effets délétères. À l’inverse, les travailleurs en capacité de décider, de s’adapter, d’apprendre ou de transmettre souffrent moins, voire bénéficient de cette prolongation, notamment en termes de bien-être psychologique.

Quelles politiques publiques pour concilier travail et santé mentale ?

Faut-il pour autant renoncer à toute réforme des retraites ? Non. Mais il faut intégrer pleinement la santé mentale dans les politiques d’emploi des seniors. Cela implique d’aller au-delà du seul âge de départ et d’anticiper les conditions dans lesquelles les travailleurs vieillissent au travail.

Cela passe par :

  • la réduction du stress professionnel dans les métiers les plus exposés ;

  • l’adaptation des postes aux compétences et à la santé des seniors ;

  • le développement de la formation continue pour faciliter les transitions au cours de la carrière ;

  • et, surtout, l’amélioration de l’environnement social au travail, en formant les managers et en favorisant le soutien professionnel.

Ces mesures sont essentielles non seulement pour le bien-être des individus, mais aussi pour éviter des départs anticipés coûteux pour le système de protection sociale : arrêts de travail, invalidité, chômage, etc.

Vers une réforme juste et soutenable

Notre étude apporte un message clair : l’impact des réformes des retraites sur la santé mentale dépend de la qualité du travail. Un allongement de carrière imposé dans de mauvaises conditions peut engendrer une vague silencieuse de mal-être et de dépressions. À l’inverse, un emploi de qualité peut faire de la fin de carrière une période utile et satisfaisante.

Alors que le vieillissement de la population rend inévitable l’adaptation des systèmes de retraite, il est urgent que les pouvoirs publics articulent les politiques de retraite avec celles du maintien en emploi.

Travailler plus longtemps, oui, mais dans des conditions adaptées.

The Conversation

Bérangère Legendre a reçu des financements de la chaire Bien être et santé mentale (BEST).

Alexandra Lugova, Jérémy Tanguy et Michele Belloni ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

18.03.2026 à 18:11

Pourquoi les femmes restent-elles minoritaires dans la politique locale ?

Zineb Abidi Perier, Maitresse de Conférences, Université Paris-Est Créteil Val de Marne (UPEC)

Zéphirin Nganmeni, Maître de Conférences en Sciences Économiques, Université Paris 8 – Vincennes Saint-Denis

Les femmes restent minoritaires dans les intercommunalités, là où se décident les orientations budgétaires et stratégiques des territoires.
Texte intégral (1679 mots)

Les femmes occupent aujourd’hui 42,1 % des sièges dans les conseils municipaux. Pourtant, elles restent minoritaires dans les intercommunalités, là où se décident les orientations budgétaires et stratégiques des territoires.


La France affiche une ambition claire en matière d’égalité femmes-hommes en politique. Depuis la loi sur la parité de 2000, les listes électorales dans de nombreuses communes doivent alterner femmes et hommes. Résultat, les conseils municipaux ont profondément changé de visage. Alors qu’en 1995, les femmes ne représentaient qu’environ 21 % des conseillers municipaux, en 2020, elles en représentent 42,1 %. Cette progression confirme l’efficacité des quotas pour transformer la représentation descriptive des assemblées locales). Mais derrière ce progrès visible se cache une réalité plus nuancée. Dans les structures intercommunales, là où se prennent des décisions clés sur les finances locales, l’aménagement du territoire ou le développement économique, les femmes restent nettement sous-représentées.

Notre recherche, fondée sur les données exhaustives des élections municipales de 2020 et sur plus de 64 000 délégués intercommunaux, met en évidence un mécanisme central : les inégalités observées dans les intercommunalités ne naissent pas à ce niveau, elles prolongent celles qui structurent déjà l’accès aux fonctions exécutives municipales.

Les intercommunalités, un lieu de pouvoir discret mais stratégique

Depuis 2014, chaque commune française doit intégrer l’une des 1 254 structures intercommunales, appelées établissements publics de coopération intercommunale. Ils exercent des compétences majeures en matière de fiscalité économique, de transports, de politique de l’habitat, de développement durable ou encore de planification urbaine. Ils constituent un niveau décisif de coordination et de mutualisation de l’action publique locale.

Pourtant, leurs membres ne sont pas élus directement par les citoyens. Ils sont désignés parmi les élus municipaux, selon des règles largement dépendantes de la taille des communes et du nombre de sièges attribués. La majorité des structures intercommunales se situent entre 30 % et 45 % de femmes, et les cas dépassant 50 % restent minoritaires. Cette distribution confirme que la parité n’est pas devenue la norme à l’échelle intercommunale.

Le verrou des postes exécutifs municipaux

Le point clé se situe au niveau des maires et des adjoints. Dans plus de 70 % des communes, l’intercommunalité ne dispose que d’un seul siège. Ce siège est presque systématiquement occupé par le maire. Or les maires demeurent très majoritairement des hommes. Le mécanisme est institutionnellement simple mais politiquement décisif. Lorsque la commune ne dispose que d’un représentant, celui-ci est issu de l’exécutif, le plus souvent le maire. La sous-représentation des femmes à la tête des municipalités se transmet donc directement à l’échelon intercommunal.

Les recherches consacrées à la désignation des maires montrent que cette phase, qui se déroule au sein même du conseil municipal, constitue un véritable point de blocage pour l’accès des femmes aux fonctions exécutives locales. Plus largement, les études sur la sélection des candidats et les carrières politiques mettent en évidence le poids de l’ancienneté, des réseaux partisans et de l’avantage des sortants. Ces mécanismes tendent à consolider la position de ceux déjà en place, le plus souvent des hommes.

Selon nos recherches, lorsque le nombre de sièges augmente, l’écart entre la part de femmes parmi les conseillers municipaux et leur part parmi les postes exécutifs se réduit, mais il ne disparaît pas. À l’échelle nationale, les femmes occupent 35,1 % des sièges intercommunaux, mais seulement 31,7 % des positions les plus stratégiques L’accès au pouvoir exécutif reste plus inégal que l’accès aux sièges ordinaires.

Taille et fragmentation : des effets institutionnels puissants

Tous les territoires ne se ressemblent pas. Nos analyses montrent que la taille démographique des intercommunalités est positivement associée à la présence féminine. Dans les 20 % d’intercommunalités les moins peuplées, la part moyenne de femmes est d’environ 31,6 %. Dans les 20 % les plus peuplées, elle atteint près de 39 %. L’effet est croissant mais non linéaire. La montée en population favorise la représentation féminine, puis l’effet marginal s’atténue dans les plus grandes structures. Ce résultat est cohérent avec les travaux montrant que les systèmes proportionnels et les contextes urbains plus politisés offrent un environnement plus favorable à l’émergence de candidatures féminines. Les grandes intercommunalités regroupent davantage de communes soumises à des règles de parité strictes et à une compétition partisane structurée.

À l’inverse, la fragmentation territoriale pénalise la représentation des femmes. À population équivalente, une intercommunalité composée d’un grand nombre de petites communes présente une proportion plus faible de femmes. La règle du délégué unique renforce mécaniquement le poids des maires, donc celui des hommes. Deux territoires démographiquement comparables peuvent ainsi produire des conseils intercommunaux très différents selon leur degré de fragmentation.

Le poids du statut juridique et du régime fiscal

Le type d’intercommunalité joue également un rôle significatif. Les métropoles atteignent en moyenne plus de 40 % de femmes, tandis que les communautés de communes, plus rurales et plus fragmentées, se situent autour de 34 %. Les structures à fiscalité professionnelle unique affichent une proportion plus élevée de femmes que celles à fiscalité additionnelle.

Ces différences traduisent des effets combinés de taille, d’intégration financière et de structuration institutionnelle. Les environnements plus intégrés tendent à s’accompagner de pratiques politiques plus formalisées et d’une mise en œuvre plus effective des normes de parité.

L’orientation politique : un effet réel mais limité

L’orientation politique a également un impact. Les intercommunalités à majorité de gauche comptent en moyenne davantage de femmes que celles orientées à droite. Ce résultat est cohérent avec la littérature montrant que les partis de gauche soutiennent plus fortement les quotas et les politiques d’égalité.

Cependant, cet effet reste secondaire par rapport aux contraintes institutionnelles. Les différences idéologiques existent, mais elles ne compensent pas les mécanismes structurels liés à la sélection des exécutifs municipaux et à la fragmentation territoriale.

Des assemblées plus paritaires, un pouvoir encore inégal

La France a profondément transformé la composition de ses conseils municipaux au cours des vingt dernières années. Dans les communes de plus de 1 000 habitants, la loi impose un équilibre entre femmes et hommes sur les listes électorales, ce qui a permis une progression nette de la présence féminine. Mais cette avancée reste incomplète. D’une part, ces obligations ne s’appliquent pas aux communes de moins de 1 000 habitants. D’autre part, elles encadrent la composition des listes, pas l’attribution des fonctions exécutives. Le choix des maires, des adjoints ou des représentants envoyés à l’intercommunalité, notamment lorsqu’il n’y a qu’un seul siège, n’est pas soumis aux mêmes règles. Or ce sont précisément ces fonctions qui concentrent l’essentiel du pouvoir décisionnel.

Ainsi, si les assemblées se sont féminisées, les postes où se prennent les décisions stratégiques demeurent majoritairement occupés par des hommes. La démocratie ne se limite pas à l’équilibre des chiffres. Elle suppose un accès réel et égal aux responsabilités et aux lieux où s’exerce effectivement le pouvoir.

Un enjeu démocratique

Les intercommunalités gèrent des budgets importants et structurent durablement l’action publique locale. Elles façonnent le quotidien des citoyens en matière de mobilité, d’habitat et de développement économique. Leur composition reflète imparfaitement la société qu’elles administrent. Les femmes représentent plus de la moitié de la population et près de la moitié des conseillers municipaux, mais elles restent minoritaires là où se concentrent les leviers exécutifs. Comprendre les mécanismes institutionnels qui produisent ces écarts permet de dépasser les explications culturalistes ou individualisantes. Les règles de désignation, les structures territoriales et les procédures de sélection interne façonnent profondément les trajectoires politiques.

La question n’est donc pas seulement celle de la présence des femmes en politique locale. Elle est celle de leur accès effectif, à égalité, aux positions où s’exerce réellement le pouvoir.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

18.03.2026 à 18:10

Est-ce la fin du multilatéralisme ? Les organisations internationales, victimes collatérales de la guerre en Iran

Theresa Reinold, Professeure assistante de droit international, EDHEC Business School

Une nouvelle fois, l’ONU et l’UE ne se font guère entendre dans une crise majeure. Le multilatéralisme n’est pas mort, mais il est très mal en point…
Texte intégral (1852 mots)

La guerre en Iran met en évidence la faiblesse de l’ordre international fondé sur des règles, car elle démontre une fois de plus que les grandes puissances peuvent agir unilatéralement tout en paralysant les institutions censées garantir la sécurité collective. Le Conseil de sécurité de l’ONU apparaît incapable de réagir de manière équilibrée, notamment en raison du droit de veto et de doubles standards qui évitent de remettre en cause les actions des États-Unis et de leurs alliés. L’Union européenne, malgré son poids économique et diplomatique, reste marginalisée par ses divisions internes, sa dépendance sécuritaire envers Washington et son manque de volonté politique d’assumer un rôle géopolitique plus affirmé.


L’un des aspects les plus frappants de la guerre en Iran est la mesure dans laquelle elle a mis en évidence l’inefficacité des organisations internationales et des approches multilatérales pour résoudre les conflits mondiaux. Si nous considérons ce conflit comme un indicateur de la viabilité de l’ordre international fondé sur des règles établi après la Seconde Guerre mondiale, nous pouvons conclure que le patient présente un pouls très faible.

L’Organisation des Nations unies (ONU) et l’Union européenne (UE) sont deux organisations qui incarnent l’ordre normatif mondial d’après 1945, un ordre fondé sur des principes tels que la règle de droit, la non-agression et le respect de l’intégrité territoriale et de l’indépendance politique des États souverains.

Ces principes, et les différentes organisations internationales qui les incarnent, sont parmi les premières victimes de la campagne militaire américano-israélienne. Comment en est-on arrivé là et que pourrait-on faire pour donner un nouveau souffle au multilatéralisme ?

Les Nations unies : une histoire de rivalité entre grandes puissances et de doubles standards

La guerre en Iran a clairement montré que le système de sécurité collective mis en place après 1945 est largement paralysé lorsqu’une grande puissance décide d’agir seule. Le Conseil de sécurité de l’ONU a été désigné comme le gardien de la paix et de la sécurité internationales, mais il a été paralysé par le droit de veto de ses membres permanents qui ont maintes fois utilisé leur influence pour protéger du regard international leurs propres actions et celles de leurs alliés.

Lorsque les États-Unis et Israël ont lancé des frappes contre l’Iran fin février 2026, le Conseil de sécurité n’a dans un premier temps pas réussi à trouver de réponse significative, et encore moins à autoriser des mesures visant à désamorcer la crise. Au contraire, le conflit s’est déroulé en dehors du cadre du droit international, les actions militaires unilatérales devenant la norme plutôt que l’exception.

Il a finalement, le 11 mars, adopté une résolution qui se concentrait uniquement sur la condamnation des attaques de l’Iran contre les États du Golfe. La résolution, adoptée par 13 voix pour et les abstentions de la Russie et de la Chine, qualifiait les actions de l’Iran d’« attaques flagrantes » et exigeait l’arrêt immédiat de cette agression régionale.

Si cette résolution est un signal important indiquant que l’institution est toujours active et que l’ONU a encore une certaine volonté de protéger les normes fondamentales sur lesquelles elle a été fondée, son approche unilatérale souligne le double standard persistant du Conseil de sécurité : la résolution ne fait aucune mention des frappes initiales américano-israéliennes contre l’Iran qui ont déclenché l’escalade, ni ne traite du contexte plus large du conflit, tel que la légalité de ces frappes ou l’assassinat du guide suprême iranien. Le silence assourdissant du Conseil de sécurité de l’ONU face aux violations du droit international par les États-Unis et Israël suggère une fois de plus l’utilisation d’un double standard et sape davantage sa crédibilité en tant que gardien de la paix et de la sécurité internationales.

Cependant, alors que le Conseil est actuellement plus ou moins paralysé, il existe une procédure qui pourrait redynamiser l’ONU dans cette crise géopolitique, à savoir la procédure « Uniting for Peace » (Unis pour la paix). Ce mécanisme donne des pouvoirs à l’Assemblée générale des Nations unies en cas d’impasse au Conseil de sécurité.

« Uniting for Peace » est une résolution adoptée par l’Assemblée générale des Nations unies en 1950 (résolution 377[V]). Elle a été conçue pour permettre à l’Assemblée générale d’agir dans les cas où le Conseil de sécurité est dans l’incapacité de le faire en raison d’un veto émis par l’un de ses membres permanents. L’objectif est de contourner un blocage du Conseil de sécurité et de permettre à l’Assemblée générale de recommander des mesures collectives – y compris l’emploi de la force armée – afin de maintenir ou de rétablir la paix et la sécurité internationales. Si cette procédure n’a pas encore été utilisée dans la crise iranienne, c’est parce que la volonté politique nécessaire à cet effet n’est pas suffisante.

L’Union européenne : une actrice dotée d’une réelle puissance géopolitique… mais qui n’est pas disposée à l’utiliser

Un autre aspect notable (mais sans surprise) de cette guerre est l’absence totale de pertinence de l’Union européenne en tant que médiatrice et artisane de la paix. L’impulsion fondatrice de l’UE était de construire la paix sur la base de la coopération multilatérale et de la résolution non violente des conflits. L’UE se considère comme une puissance normative qui cherche à projeter ses valeurs dans le monde entier en utilisant le soft power, mais qui a tendance à éviter de recourir à la coercition.

Malheureusement, la période dans laquelle nous vivons est celle où les États les plus puissants ont décidé que la violence était désormais l’outil privilégié pour atteindre leurs objectifs de politique étrangère, soit en renversant les régimes hostiles, soit en s’emparant de territoires étrangers par la force armée.

Dans ce monde où règne la loi du plus fort, l’Europe semble impuissante. L’UE n’a pas été consultée avant la guerre en Iran et ne participe pas activement aux hostilités. Au contraire, elle observe depuis les coulisses, lançant des appels futiles à la retenue et se sabotant elle-même dans des querelles internes. Cela est regrettable, compte tenu du rôle historique joué par l’Europe dans la négociation de l’accord sur le nucléaire iranien.

Pourquoi l’UE se retrouve-t-elle spectatrice dans l’événement géopolitique le plus important de 2026 ? D’une part, parce qu’elle n’a – une fois de plus – pas réussi à parler d’une seule voix. Les États membres ont adopté des positions divergentes, certains exprimant leur soutien aux actions américano-israéliennes et d’autres appelant à la retenue. L’Espagne, par exemple, a pris le risque d’un conflit ouvert avec l’administration Trump au sujet de l’utilisation de ses bases militaires pour l’effort de guerre, tandis que d’autres acteurs importants, dont l’Allemagne et la France, ont exprimé une certaine compréhension pour les frappes aériennes.

S’il est facile de critiquer l’UE pour son manque d’unité sur des questions géopolitiques majeures, cette multiplicité de voix est en réalité une caractéristique voulue de cette entité hybride, qui combine à la fois des éléments supranationaux et intergouvernementaux dans son architecture institutionnelle. Dans le même temps, cette caractéristique sape activement l’action de l’UE sur la scène internationale.

Un autre facteur qui condamne l’UE à l’inefficacité dans les crises géopolitiques est la dépendance de l’Europe vis-à-vis des États-Unis en matière de sécurité et l’absence d’une politique de défense commune soutenue par une armée européenne.

Cependant, le plus grand obstacle à l’action de l’UE en matière de géopolitique n’est ni institutionnel ni matériel. Il est d’ordre psychologique. Il n’y a aucune volonté de diriger, aucune volonté d’utiliser une approche musclée pour contrer le mépris flagrant de Trump pour le multilatéralisme et le droit international (valeurs qui sont au cœur de l’identité européenne), et une croyance naïve que les relations transatlantiques se répareront d’elles-mêmes. Au lieu de tirer parti de son poids économique et diplomatique pour contrer les actions unilatérales des États-Unis, l’UE a souvent eu recours à des gestes réactifs et conciliants, dans l’espoir que l’harmonie transatlantique serait rétablie d’une manière ou d’une autre par la seule bonne volonté. Cela reflète une erreur de calcul fondamentale : la conviction que les États-Unis, sous Trump ou sous tout autre dirigeant, finiront par reconnaître et récompenser la loyauté européenne, même si les actions de Washington démontrent le contraire.

La bonne nouvelle, c’est que cela peut changer. Les mentalités peuvent évoluer, les identités peuvent être reconstruites et l’autonomie peut être renforcée.

Le patient est faible, mais il y a de l’espoir

Non, le multilatéralisme n’est pas mort. Les organisations internationales telles que l’ONU et l’UE ont non seulement mis en place des normes et des mécanismes qui les autoriseraient à jouer un rôle essentiel dans les crises géopolitiques, mais elles disposent également d’énormes ressources qui leur permettraient de jouer un tel rôle.

Le pouls du patient est donc faible, mais il existe des remèdes efficaces pour le renforcer. Nous devons maintenant rassembler la volonté politique nécessaire pour les appliquer.

The Conversation

Theresa Reinold a reçu des financements de Thyssen Foundation.

PDF

18.03.2026 à 18:09

Du détroit d’Ormuz à l’Europe : comprendre la rapidité de la propagation de l’insécurité énergétique

Kambiz Zare, Professor of International Business and Geostrategy, Kedge Business School

Le prix du pétrole a nettement augmenté depuis le début de la crise dans le golfe Persique. Même si elle a diversifié ses fournisseurs d’énergie, l’Europe demeure très vulnérable.
Texte intégral (2045 mots)

Les tensions dans le golfe Persique mettent en évidence la vulnérabilité structurelle des pays de l’union européenne, qui importent environ 58 % de leur énergie, ce qui les rend très sensibles à toute perturbation des routes maritimes ou de la production des pays membres du Conseil de coopération du Golfe. La réponse ne peut être exclusivement militaire : l’UE doit accélérer sa transition énergétique et s’engager plus activement sur le plan diplomatique pour stabiliser la région.


Dans le contexte actuel, les marchés, comme toujours, continuent de réagir aux informations qu’ils reçoivent. Ils montent, ils baissent, ils peuvent créer des épisodes de panique, mais aussi des opportunités d’arbitrage, tout en incitant les investisseurs à rechercher des placements jugés plus sûrs. Au fond, cette réactivité immédiate est la nature même des marchés.

En ce qui concerne la crise iranienne, à ce stade il faut distinguer deux niveaux. Le premier est déjà visible : un choc de volatilité. Le second serait beaucoup plus grave : un choc systémique majeur. Pour l’instant, le premier est réel ; le second reste un risque, pas une certitude.

Pour l’Union européenne, l’enjeu ne se limite pas à une accalmie boursière ou à une baisse ponctuelle du prix du baril de Brent. Le problème est plus profond : l’Europe reste fortement exposée aux chocs énergétiques extérieurs, en particulier lorsque les tensions géopolitiques menacent les routes maritimes, le trafic des tankers et la confiance des producteurs du golfe Persique. L’énergie n’est pas un sujet périphérique pour l’économie européenne. Elle se situe au cœur de l’inflation, de la production industrielle, des coûts de transport et de la compétitivité.

Figure 1 : Taux d’inflation des prix de l’énergie dans l’Union européenne entre 2019 et 2025, par produit. Statista

En d’autres termes, même lorsque les prix reculent temporairement, le signal stratégique reste inchangé : la sécurité énergétique de l’Europe demeure vulnérable à des perturbations que cette dernière ne contrôle pas.

Une vulnérabilité structurelle de l’Europe

La fragilité européenne n’est pas conjoncturelle ; elle est structurelle. Depuis longtemps, la demande énergétique de l’UE dépasse sa production intérieure, ce qui rend le bloc durablement dépendant des importations. Le taux global de dépendance énergétique de l’UE se situe autour de 58 %. Surtout, l’Union importe plus de 90 % du pétrole qu’elle consomme et entre environ 80 % et 90 % de son gaz, selon les indicateurs retenus. Cette réalité place l’Europe en situation de forte exposition dès qu’un conflit menace les voies maritimes, les flux pétroliers ou la production des régions exportatrices.

Figure 2 : Approvisionnement en énergie primaire dans l’Union européenne de 2023 à 2024, par combustible. Statista

L’Europe a certes diversifié une partie de ses fournisseurs. Pour le pétrole, ses principaux partenaires sont aujourd’hui les États-Unis, la Norvège et le Kazakhstan. Pour le gaz, la Norvège occupe une place centrale, suivie par l’Algérie et le Royaume-Uni. En matière de gaz naturel liquéfié, les États-Unis dominent très largement, devant la Russie puis le Qatar.

Cette diversification a réduit certains risques, mais elle n’a pas supprimé la dépendance. Elle a simplement changé sa géographie. L’Europe dépend moins d’un fournisseur unique qu’auparavant, mais elle reste profondément insérée dans un marché mondial où les prix réagissent immédiatement aux tensions géopolitiques.

Le détroit d’Ormuz : un choc qui dépasse le seul pétrole

Le risque lié au détroit d’Ormuz ne concerne pas uniquement le pétrole. Toute perturbation durable dans le golfe Persique peut aussi affecter d’autres matières premières et intrants stratégiques pour l’industrie européenne : engrais, produits chimiques, pétrochimiques, plastiques et divers produits intermédiaires indispensables aux chaînes de production.

Pour l’Europe, les secteurs les plus vulnérables sont ceux qui sont déjà très énergivores ou fortement dépendants d’intrants importés. On pense notamment à la chimie, à la pétrochimie, au ciment, au verre, à la céramique, au papier, mais aussi à certaines branches de l’agroalimentaire via la question des engrais et du transport. Ce qu’il faut bien comprendre, c’est que ces secteurs se situent souvent en amont de l’économie. Lorsqu’ils subissent une hausse des coûts, celle-ci se diffuse ensuite dans le reste du système productif. Le choc ne reste donc pas limité à l’énergie. Il passe aussi par le fret, l’assurance maritime, les coûts de production et, à terme, par les prix à la consommation.

Autrement dit, l’Europe ne fait pas face à une simple tension énergétique, mais à une chaîne de transmission inflationniste beaucoup plus large. Il n’est même pas nécessaire qu’Ormuz soit totalement fermé pour produire cet effet. Le simple risque de perturbation peut suffire à faire grimper les prix, parce que les marchés réagissent autant à l’anticipation d’un choc qu’au choc lui-même.

Prix du pétrole, croissance et risque stagflationniste

Le retour d’un pétrole au-dessus de 100 dollars (85,5 euros) est un marqueur très préoccupant pour l’Europe. Une telle hausse renchérit immédiatement le transport, pèse sur les marges industrielles, fragilise la compétitivité et réduit le pouvoir d’achat. L’Europe n’est peut-être pas au centre géographique de la crise, mais elle en supporte très directement les conséquences économiques.

La Commission européenne a évoqué le risque d’un choc stagflationniste majeur. Le scénario est crédible – l’expérience de l’invasion de l’Ukraine n’est pas loin –, mais il ne doit pas être présenté comme inévitable. Il devient sérieux si trois conditions se cumulent : un choc énergétique durable, une remontée de l’inflation et un ralentissement de l’activité sous l’effet de coûts élevés prolongés.

Pour la zone euro, la vulnérabilité est réelle, car la croissance y est déjà plus modérée que dans d’autres grands blocs, notamment les États-Unis ou certaines économies asiatiques. Cela signifie que l’Europe dispose de moins de marge pour absorber un nouveau choc d’offre. Nous ne sommes pas automatiquement dans une répétition du choc de 2022. Tout dépendra de la durée de la crise, de l’intensité de la perturbation et de la capacité de l’Europe à sécuriser ses approvisionnements.

Ce que l’Europe peut faire : d’Ormuz à Bruxelles, deux priorités

Le déploiement d’une flotte européenne peut contribuer à sécuriser les routes commerciales et à rassurer les marchés. Mais il faut rester lucide : cela ne fera ni baisser durablement les prix ni disparaître le risque géopolitique. La réponse européenne ne peut donc pas être uniquement militaire. Elle doit aussi être diplomatique, énergétique et stratégique.

La leçon est claire : tant que l’Europe restera dépendante du pétrole et du gaz importés, toute crise majeure dans le golfe Persique continuera d’affecter directement ses prix, son inflation, son industrie et sa croissance. L’instabilité du Moyen-Orient n’est plus un sujet périphérique ; elle fait partie intégrante de la sécurité économique européenne.

L’Union européenne doit d’abord accélérer sa sortie de la dépendance aux énergies fossiles, en misant davantage sur les renouvelables, l’électrification, les réseaux et l’efficacité énergétique. Elle doit ensuite contribuer plus activement à la stabilité régionale. La sécurité de l’économie européenne dépend aussi de sa capacité à défendre un environnement géopolitique plus stable.

The Conversation

Kambiz Zare est membre du conseil scientifique du Spirales Institute Think Tank

PDF

18.03.2026 à 18:08

Comment le réchauffement climatique nourrit la violence

Oliver Vanden Eynde, Professeur titulaire d'une chaire et directeur de recherche CNRS, Paris School of Economics – École d'économie de Paris; Centre national de la recherche scientifique (CNRS)

Juan Vargas, Professor of Economics, Università di Torino

Le changement climatique peut nourrir, indirectement, les violences. En cause, des tensions sur l’agriculture et l’exploitation des ressources minières.
Texte intégral (1628 mots)

Le changement climatique peut aussi nourrir, indirectement, les violences. En cause, des tensions sur l’agriculture et l’exploitation des ressources minières requise pour la transition énergétique, notamment. De quoi mieux comprendre les risques de conflit armés dans le monde.


Les événements météorologiques extrêmes deviennent de plus en plus fréquents et intenses. Ces chocs climatiques ne se contentent pas de perturber les écosystèmes : ils redessinent les dynamiques sociales, économiques et politiques à l’échelle mondiale. En parallèle, la transition vers une économie sobre en carbone, bien que nécessaire, engendre une demande sans précédent en ressources minières, comme le lithium ou les terres rares. Celles-ci sont souvent extraites dans des régions déjà fragilisées par des tensions sociales ou des conflits armés.

Le cas du conflit entre la République démocratique du Congo et le Rwanda, par exemple, dans lequel chacun accuse l’autre d’armer des groupes rebelles, arbitré finalement par les États-Unis, constitue un cas emblématique. Ce sont des terres riches en cobalt et en cuivre, marquées par des sécheresses de plus en plus prolongées et des pluies de plus en plus abondantes, sur lesquelles les populations vivent majoritairement encore de l’agriculture.

Depuis les années 2010, les économistes s’intéressent de plus en plus aux liens complexes entre toutes ces composantes : changement climatique, exploitation des ressources naturelles et risque de conflits. Aujourd’hui, nous disposons de résultats robustes, même si des zones d’ombre persistent, et de pistes concrètes pour guider l’action des décideurs publics.

L’agriculture au cœur des conflits

C’est d’abord par le truchement de l’agriculture que le mécanisme a pu être mis en évidence. Sécheresses, vagues de chaleur et inondations augmentent systématiquement la probabilité que des violences surviennent ainsi que leur intensité, en particulier dans les régions où les moyens de subsistance dépendent de l’agriculture pluviale – autrement dit directement des pluies.

Cela se joue à travers plusieurs leviers :

  • la baisse des revenus agricoles peut rendre plus attractif le fait de rejoindre des groupes armés ;

  • la rareté des ressources peut intensifier la compétition entre communautés ;

  • la chaleur elle-même peut accroître l’agressivité, même en milieu urbain.

La causalité peut cependant aussi fonctionner dans l’autre sens. En effet, les conflits dégradent souvent l’environnement : exploitation minière illégale, expansion de cultures illégales pour produire des drogues (par exemple, le pavot ou la coca), déforestation, destruction des infrastructures, pollution des rivières…

Des cercles vicieux se mettent en place, dans lesquels la détérioration environnementale et la violence s’entretiennent mutuellement.


À lire aussi : Pourquoi les femmes souffrent davantage des catastrophes naturelles et des migrations


Quand la transition verte exacerbe les violences

Si les chocs climatiques redéfinissent ainsi les opportunités localement, les hausses du cours des ressources naturelles augmentent les enjeux des conflits. Les hausses des prix du pétrole et des métaux ont souvent intensifié les violences dans les zones de production, en particulier lorsque l’extraction est intensive en capital et que les ressources peuvent être pillées. La transition verte risque d’exacerber ces dynamiques.

La demande en « minéraux de la transition » (aussi appelés « minerais critiques ») augmente rapidement, menaçant d’amplifier cette forme de rapacité dans certaines régions, tandis que les revenus des énergies fossiles diminuent ailleurs.

Les mécanismes précis par lesquels l’activité minière déclenche des conflits dépendent également du type d’exploitation. Dans le cas d’une exploitation minière artisanale, l’emploi de la population locale joue un rôle bien plus important que dans une exploitation industrielle. En outre, la pollution due à l’extraction de ces minéraux – en particulier la contamination de l’eau – peut aussi réduire les rendements agricoles bien au-delà des sites miniers. Des moyens de subsistance sont ainsi perdus, ce qui alimente doublement les risques de conflit.

Les facteurs de risque, ainsi, se chevauchent souvent. Les régions sujettes à la sécheresse se trouvent fréquemment au-dessus de gisements minéraux. Les risques climatiques et les risques liés aux ressources pourraient s’aggraver mutuellement pour déclencher des violences, bien que ces complémentarités soient encore mal comprises.


À lire aussi : Comment échapper à la malédiction de la rente fossile ?


Comment atténuer les risques ?

Quelles politiques publiques pourraient donc atténuer les risques de conflit ? Grâce à des évaluations rigoureuses, nous avons identifié des dispositifs qui pourraient s’avérer les plus efficaces. Les assurances individuelles et la protection sociale, tout d’abord, peuvent briser le lien entre sécheresses et recrutement par les groupes armés.

Mais leur bonne conception est cruciale : une assurance qui stabilise les revenus lors des mauvaises années peut involontairement encourager la prédation lors des meilleures récoltes. Cela requiert donc une conception minutieuse des contrats et des mécanismes de suivi crédibles.

L’irrigation, le choix de semis résistants à la sécheresse et le développement de liaisons de transport peuvent également atténuer les chocs météorologiques locaux et réduire les risques de famine. Routes et marchés peuvent néanmoins aussi aider les groupes armés à taxer le commerce ou à déplacer des marchandises de contrebande. Les choix d’infrastructures devraient donc être accompagnés de renforcements de la gouvernance.


À lire aussi : Les routes d'Afrique de l'Ouest, terrain d'affrontements privilégié des groupes terroristes


Même avec ces protections, certains chocs nécessiteront toujours une aide humanitaire rapide. Son ciblage et le timing de son déploiement sont cruciaux. Les preuves sont mitigées sur le fait de savoir si elle atténue ou aggrave la violence, soulignant le besoin de systèmes d’alerte précoce et d’évaluation des modèles de distribution.

Réguler l’extraction des minerais et partager les bénéfices de manière crédible paraît également essentiel. La transparence et la certification peuvent réduire le financement des groupes armés dans certains contextes : caractère industriel ou artisanal de l’exploitation, proximité de frontières ou capacité de l’État, par exemple. Les mesures complémentaires comptent aussi : le partage local des revenus, les campagnes d’information qui fixent des attentes réalistes et la gestion décentralisée de l’eau et des forêts peuvent amplifier les effets positifs d’une régulation bien conçue et réduire les possibilités de capture politique.

Deux précisions s’imposent à ce stade.

  • Premièrement, atténuer les risques de conflit par des actions publiques est onéreux. Une grande partie de ces mesures coûte cependant moins cher qu’un conflit prolongé et peut apporter des bénéfices supplémentaires en termes de croissance économique.

  • Deuxièmement, la conception de politiques efficaces nécessite des preuves scientifiques supplémentaires. Des facteurs, comme la perte de biodiversité ou les migrations, sont notamment sous-étudiés comme causes de conflits. Les connaissances scientifiques à ces sujets peinent parfois à suivre le rythme des débats politiques.


Cette contribution est publiée en partenariat avec le Printemps de l’économie, cycle de conférences-débats qui se tiennent du 17 au 20 mars au Conseil économique social et environnemental (Cese) à Paris. Retrouvez ici le programme complet de l’édition 2026, « Le temps des rapports de force ».

The Conversation

Oliver Vanden Eynde est Head of Engagement pour l'initiative de recherche conjointe FCDO-CEPR sur la réduction des conflits et l'amélioration des performances économiques (ReCIPE). Il est également Theme Leader du thème du programme de recherche ReCIPE « Changement climatique, ressources naturelles et conflits ». Il a également reçu des financements de l'ANR ANR-17-EURE-0001.

Juan Vargas et Oliver Vanden Eynde ont reçu des financements, dans le cadre des travaux présentés ici, de l'initiative de recherche conjointe FCDO-CEPR sur la réduction des conflits et l'amélioration des performances économiques (ReCIPE).

PDF

18.03.2026 à 18:08

Maths en classe : la confiance en soi, une clé de la réussite ?

Nathalie Braun, Chercheur en sciences de l'éducation et de la formation et en didactique des mathématiques, CY Cergy Paris Université

La réussite en maths n’est pas qu’une question de programmes et de compétences, elle est aussi affaire d’émotions. Mais comment lutter contre la peur de se tromper et le stress face aux maths ?
Texte intégral (1646 mots)

La réussite en maths n’est pas qu’une affaire de programmes et de compétences. Elle repose aussi sur des émotions. Le stress face à de nouvelles notions, la peur de se tromper ou l’impression de « ne pas être fait pour les maths » nourrissent les inégalités entre les élèves. Des expérimentations autour de jeux mathématiques ouvrent des pistes pour diminuer la pression de « la bonne réponse immédiate » et transformer l’erreur en ressource.


Une étude française, publiée en 2025 dans la revue Nature et réalisée sur plus de 2,6 millions d’élèves de CP et de CE1, montre qu’un écart de performance en maths apparaît entre filles et garçons dès les premiers mois de scolarité.

Ces résultats alimentent les débats sur les inégalités face à cette discipline. Cependant, derrière les notes et les moyennes se cache une autre réalité, moins visible : le rapport émotionnel des élèves aux mathématiques, entre stress face aux évaluations, peur de se tromper au tableau, ou encore impression durable de « ne pas être fait pour les maths ».

Une menée en 2026 auprès de lycéens aux Philippines, montre que, plus l’anxiété est élevée, plus les résultats tendent à baisser. Elle indique également que les filles tendent à ressentir davantage d’anxiété mathématique, tandis que les garçons réussissent mieux dans cette discipline.


À lire aussi : L’anxiété mathématique des parents influence les résultats scolaires des enfants – nouvelle recherche


Ces travaux trouvent un écho dans les analyses des tests internationaux Pisa de 2022 qui soulignent le rôle essentiel des attitudes, de la confiance en soi et du sentiment d’efficacité dans la réussite en mathématiques.

Et si réussir en mathématiques ne dépendait pas seulement des programmes ou du niveau d’exigence demandé mais aussi du bien-être dans cette discipline ?

Se pose alors une question supplémentaire : comment enseigner les mathématiques de manière à soutenir à la fois l’exigence des apprentissages dans cette discipline et le bien-être des élèves ?

Le bien-être en contexte scolaire peut être défini comme un état global positif comprenant une dimension émotionnelle (plaisir et sécurité affective), une dimension cognitive (sentiment de compétence et d’efficacité) et enfin une dimension relationnelle avec qualité des interactions et sentiment d’appartenance à un groupe.

Des jeux pour changer l’enseignement des maths

Au cours de deux années scolaires, nous avons observé et analysé le travail d’un collectif de cinq professeurs de mathématiques de collège, qui évolue de manière autonome pour apprendre à enseigner les raisonnements mathématiques via les jeux mathématiques. Les différentes expérimentations ont été conduites dans des classes de cinquième d’un même collège. Ces classes sont constituées d’élèves aux profils variés tant dans les résultats scolaires en mathématiques que dans le rapport de confiance des élèves à la discipline.


À lire aussi : Les maths pour les garçons, le français pour les filles ? Comment les stéréotypes de genre se perpétuent à l’école


En quoi ces pratiques se distinguent-elles d’un enseignement plus traditionnel ? Et que révèlent-elles sur le lien entre bien-être et apprentissage des raisonnements mathématiques ?

Les jeux mathématiques mis en œuvre dans ces différentes classes ne relèvent pas d’une simple transformation ludique des apprentissages, ils appartiennent aux « situations de recherche pour la classe (SiRC) », où les élèves sont placés en position de chercheurs, de mathématiciens. Dans ces situations la solution n’est pas donnée d’emblée, plusieurs stratégies sont possibles, et la validation émerge progressivement de l’exploration et de la confrontation des points de vue.

Les élèves ne cherchent pas à appliquer une technique déjà apprise : ils font des essais, ils émettent des conjectures, ils testent et ils argumentent. Ainsi, dans ces situations, le jeu devient un milieu structurant qui organise les interactions, stimule la recherche et soutient la construction progressive des raisonnements mathématiques.

Diminuer la pression de la « bonne réponse »

Le jeu choisi, Le Jeu de Nim, en est une illustration. C’est un jeu de stratégie à deux joueurs dans lequel plusieurs tas d’objets sont disposés et où chacun, à tour de rôle, retire un nombre quelconque d’éléments d’un seul tas, le vainqueur étant celui qui prend le dernier objet ou inversement. Derrière sa règle simple, ce jeu mobilise divers raisonnements mathématiques : il conduit les élèves à repérer des régularités, formuler des conjectures, anticiper les coups des adversaires et justifier leurs choix.

Pourquoi tant d’anxiété avec les maths ? (Leçon d’Orly Rubinsten, animation d’Adriatic Animation).

Ces situations de jeux mathématiques nous ont permis d’observer le développement du bien-être des élèves dans ses trois dimensions.

Tout d’abord, les SiRC ont permis d’engendrer du bien-être émotionnel, à savoir le plaisir ressenti dans la tâche mathématique. L’erreur a été perçue comme un élément du jeu et non comme une faute scolaire, la pression de la « bonne réponse immédiate » a été diminuée, les élèves ont osé davantage proposer des hypothèses et l’anxiété initiale face à la tâche s’est atténuée. Ainsi, le cadre ludique agit comme un espace sécurisé pour les élèves où la prise de risque intellectuelle devient possible.

Ces situations ont permis aussi de développer le bien-être cognitif des collégiens. Ces derniers ne se sont pas contentés d’appliquer une méthode connue : ils ont cherché, testé, comparé des stratégies. Cette dynamique a favorisé l’engagement des élèves dans la tâche mathématique, même ceux ayant habituellement des difficultés en mathématiques. Le sentiment d’apprendre et celui de progresser par soi-même ont été aussi développés.

Enfin, ces situations ont renforcé le bien-être relationnel, c’est-à-dire la qualité des interactions au sein de la classe : les échanges entre élèves sont devenus centraux, l’argumentation a été valorisée, les stratégies ont été discutées collectivement, et les enseignants ont adopté une posture de régulation plutôt que de simple correction.

Créer une sécurité émotionnelle

Ces trois dimensions ne fonctionnent pas isolément, elles sont complémentaires. Le cadre des SiRC en permet une articulation dynamique en mettant en jeu un climat émotionnel sécurisant qui favorise l’engagement des élèves dans la tâche, une activité cognitive qui renforce la confiance et des interactions qui soutiennent à la fois la compréhension et le sentiment d’appartenance au groupe.

Dans ces dispositifs, le bien-être n’est pas un objectif secondaire, il constitue une condition structurante du développement des raisonnements mathématiques des collégiens.

Lorsqu’on parle de réussite en mathématiques, le débat public se focalise sur les programmes, des horaires ou des méthodes d’évaluation. Ces dimensions sont évidemment importantes. Mais elles ne suffisent pas. Nos travaux montrent qu’on ne peut dissocier l’apprentissage des raisonnements mathématiques du climat dans lequel les élèves les construisent. En effet, raisonner suppose d’oser : oser formuler une hypothèse, oser se tromper, oser argumenter devant les autres… Sans un minimum de sécurité émotionnelle, cette prise de risque des élèves devient difficile, voire impossible.

Les SiRC mises en œuvre à travers des jeux comme le jeu de Nim, ne simplifient pas les mathématiques. Elles ne réduisent pas l’exigence mais la rendent accessible. En transformant l’erreur en ressource, en valorisant la recherche plutôt que la réponse immédiate, elles créent les conditions d’un engagement plus profond des élèves en mathématiques.

Le bien-être en mathématiques ne consiste donc pas à rendre la discipline plus divertissante. Il permet aux élèves, même ceux ayant des difficultés, de ressentir du plaisir en mathématiques et de s’engager davantage.

The Conversation

Nathalie Braun ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

18.03.2026 à 18:07

Le réseau portuaire de la Chine se concentre autour des routes les plus risquées de la planète… et ce n’est pas un hasard

Dylan Spencer, Assistant Professor of Criminology, Georgia Southern University

Gohar Petrossian, Professor of Criminal Justice, John Jay College of Criminal Justice

Stephen Pires, Associate Professor of Criminal Justice, Florida International University

Du canal de Panama au détroit de Malacca, les ports liés à des entreprises chinoises se multiplient le long des passages clés du commerce mondial. Et des routes les plus dangereuses…
Texte intégral (2104 mots)

La Chine a pris pied dans plus de 90 ports à travers le monde. Une nouvelle étude montre que ces investissements ne sont pas répartis au hasard : ils se concentrent près des grands goulets d’étranglement du commerce mondial et dans des corridors maritimes exposés à la piraterie.


Fin février 2026, le gouvernement panaméen a pris le contrôle de deux ports du canal de Panama qui étaient exploités depuis deux décennies par un conglomérat hongkongais. Cette décision constitue le dernier épisode d’un long bras de fer juridique, après que la Cour suprême du Panama a annulé les contrats de l’entreprise.

Mais l’affaire dépasse largement le cadre d’un simple différend local. Elle a attiré l’attention des États-Unis et de la Chine, dont la rivalité autour des ports mondiaux et des routes commerciales s’est intensifiée ces dernières années, notamment dans la zone stratégique du canal de Panama, où la présence chinoise a, à plusieurs reprises, suscité l’ire de l’administration Trump.

Des entreprises chinoises possèdent ou exploitent désormais des terminaux dans plus de 90 ports à travers le monde, dont beaucoup figurent parmi les plus fréquentés. Ce réseau s’étend de l’Afrique à l’Europe, en passant par le Moyen-Orient et l’Asie, avec une activité en croissance en Amérique du Sud.

L’ampleur de l’implication chinoise dans les ports à l’étranger a alimenté le débat sur la nature réelle de ces investissements : s’agit-il d’opérations strictement commerciales ou servent-ils des objectifs stratégiques plus larges ?

Une grande partie de ce débat s’est appuyée sur des études de cas et des analyses politiques, notamment dans le cas du canal de Panama. Pourtant, comprendre où se situent ces ports et déterminer s’il existe des caractéristiques communes aux pays qui les accueillent est essentiel, car des perturbations des grandes routes maritimes peuvent se répercuter sur l’ensemble de l’économie mondiale.

Dans une étude récente, nous – chercheurs en sécurité maritime, en infrastructures mondiales et en commerce international – avons constitué la première base de données mondiale des ports liés à des entreprises chinoises. Nous avons ensuite analysé 133 pays côtiers afin de comprendre pourquoi certains accueillent des investissements portuaires chinois tandis que d’autres n’en ont pas.

Nous avons constaté que l’expansion des ports chinois à l’étranger n’est pas aléatoire. Loin d’être principalement déterminés par le climat général des affaires, ces investissements se concentrent près des points d’étranglement maritimes et des corridors maritimes exposés à la piraterie, avec des indices plus modestes suggérant que les pays riches en ressources ont également davantage de chances d’accueillir ces ports.

L’importance des points d’étranglement

Certaines routes maritimes sont plus importantes que d’autres. Le canal de Suez, le détroit d’Ormuz et le détroit de Malacca sont des exemples de points d’étranglement – des passages étroits par lesquels transitent d’énormes volumes du commerce mondial et des flux d’énergie.

Selon nos résultats, les pays situés à proximité de points d’étranglement majeurs ou secondaires, comme le Panama ou ceux bordant le détroit du Pas-de-Calais – dont la France – sont nettement plus susceptibles d’accueillir un port lié à des entreprises chinoises. En termes simples, la proximité avec des goulets d’étranglement essentiels du commerce mondial constitue un fort prédicteur des investissements chinois.

Carte des points d’étranglement
Les points d’étranglement se situent le long de corridors maritimes particulièrement sensibles. Spencer/Christiansen/Pires/Tsai/Gondhali/Petrossian

Cette disposition a une logique économique. La Chine dépend fortement du commerce maritime pour soutenir sa croissance. Or les ports situés près des points d’étranglement se trouvent le long des corridors maritimes les plus sensibles du monde et offrent un accès commercial durable dans des emplacements stratégiques.

Malgré les inquiétudes en Occident, selon lesquelles Pékin développerait des ports à des fins militaires, tous ne constituent pas pour autant des bases navales déguisées.

La plupart des installations liées à des entreprises chinoises sont des terminaux commerciaux. Cependant, des infrastructures commerciales peuvent aussi avoir une valeur stratégique. Ainsi la première base logistique militaire à l’étranger de la Chine, à Djibouti, se trouve à côté du complexe portuaire de Doraleh exploité par… une entreprise chinoise. Un rapport du Congressional Research Service souligne que cette installation soutient les opérations navales et l’accès régional dans l’ouest de l’océan Indien.

Cela ne signifie pas que les autres ports détenus ou exploités par des entreprises chinoises soient des installations militaires. Mais le contrôle de terminaux, de plateformes logistiques et de données sur les chaînes d’approvisionnement peut, avec le temps, influencer les relations économiques et sécuritaires.

Le rôle de la piraterie et des ressources

Les mêmes corridors maritimes dans lesquels Pékin concentre ses investissements portuaires sont aussi des points chauds de la criminalité maritime. Dans une recherche distincte, nous avons montré que les ports maritimes peuvent faciliter la pêche illégale, non déclarée et non réglementée lorsque les mécanismes de contrôle sont faibles. Nos derniers résultats indiquent que les ports liés à des entreprises chinoises sont plus fréquents dans des pays déjà confrontés à la piraterie et à l’insécurité maritime.

Ce chevauchement ne signifie pas que les ports provoquent des activités illicites, mais il montre que ces investissements se produisent souvent dans des environnements maritimes à plus haut risque. L’un des résultats les plus surprenants de notre étude concerne précisément cette relation entre la piraterie et les investissements portuaires.

Entre 1991 et 2018, des milliers d’incidents de piraterie ont été enregistrés dans le monde. Pourtant, au lieu d’éviter les zones à risque, les ports liés à des entreprises chinoises sont plus fréquents dans les pays où les niveaux de piraterie sont les plus élevés.

Pourquoi investir dans des corridors instables ? Parce que la piraterie signale les routes commerciales à la fois vulnérables et précieuses. Investir dans des ports dans des régions comme le golfe de Guinée ou certaines parties de l’Asie du Sud-Est peut aider Pékin à protéger ses intérêts maritimes. En ce sens, la piraterie peut signaler non seulement un risque, mais aussi une opportunité.

Parallèlement, nous avons examiné la richesse en ressources naturelles des pays hôtes à l’aide d’un indicateur incluant les ressources extractives, minières et agricoles. Nous avons trouvé des indices suggérant que les pays disposant de ressources plus abondantes étaient davantage susceptibles d’accueillir au moins un port lié à des entreprises chinoises, mais si cette relation n’apparaissait pas de manière constante dans tous les modèles.

De fait, certaines explications souvent avancées pour expliquer où et pourquoi la Chine investit dans des ports ne résistent pas à notre analyse.

Les indicateurs généraux du climat des affaires et de la gouvernance, tels que la facilité à faire des affaires ou la stabilité institutionnelle, ne sont pas, après examen, des prédicteurs constants de la présence de ports liés à des entreprises chinoises. Cela suggère que la géographie et les facteurs de risque maritimes comptent davantage que les indicateurs économiques ou de gouvernance plus généraux.

Implications plus larges

Quelles que soient les motivations derrière les investissements chinois, leurs effets dépassent le simple cadre du commerce local et de la logistique. Les ports ne sont plus seulement des infrastructures locales. Ils sont devenus des nœuds des chaînes d’approvisionnement mondiales et, de plus en plus, des éléments de la compétition géopolitique. Et si tous les investissements ne traduisent pas une ambition militaire dissimulée, il serait naïf de considérer que tous les projets portuaires sont politiquement neutres.

Les récentes réponses politiques américaines reflètent ces inquiétudes croissantes. Début 2026, la Maison-Blanche a présenté un plan visant à renforcer l’industrie maritime américaine et à réduire la dépendance à l’égard d’infrastructures maritimes contrôlées par des acteurs étrangers. L’administration s’est également penchée de plus près sur l’implication d’entreprises étrangères dans des installations clés de l’hémisphère occidental, notamment des ports liés au canal de Panama.

De telles initiatives suggèrent qu’à Washington, le contrôle des infrastructures maritimes n’est plus considéré comme une simple question commerciale, mais de plus en plus comme un enjeu de sécurité économique et nationale. Et comme le montre la carte des pays accueillant des ports liés à des entreprises chinoises, les investissements de Pékin suivent les routes commerciales les plus stratégiques du monde – non pas par hasard, mais par choix.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

18.03.2026 à 18:06

En France, la gastronomie des Alpes tutoie les sommets

Nathalie Louisgrand, Enseignante-chercheuse, GEM

Magnifiée par de grands chefs depuis le début des années 1990, la cuisine de montagne atteint des sommets.
Texte intégral (1761 mots)
Trois générations à La Bouitte, en Savoie : René Meilleur et son fils Maxime, les deux chefs, et les deux fils de Maxime, Oscar et Calixte, qui travaillent dans la brigade. Site du restaurant La Bouitte

Comment expliquer que les tables étoilées se multiplient dans les stations de haute montagne ? Parallèlement à la nécessité de diversifier les options destinées à une clientèle fortunée dans le contexte du réchauffement climatique (la neige se fait plus rare), cette ascension fulgurante est liée à la revalorisation des recettes et des produits locaux par des chefs particulièrement créatifs et inspirés, depuis une trentaine d’années.


Au cœur des Alpes, à 3 032 mètres d’altitude, la nouvelle saison de « Top Chef » (diffusée sur M6) s’ouvre sur la terrasse du restaurant Le Panoramic qui côtoie le glacier de la Grande Motte. La production de l’émission n’a pas choisi ce décor spectaculaire par hasard : les Alpes sont devenues un lieu emblématique de la haute gastronomie.

En 2026, les départements de l’Isère, de la Savoie et de la Haute-Savoie totalisent 41 restaurants étoilés, contre 139 pour la région Paris-Île de France et 104 pour l’ensemble d’Auvergne-Rhône-Alpes. La station de Courchevel regroupe à elle seule sept établissements distingués par le guide Michelin et totalisant 13 étoiles dont le triple-étoilé 1947 à Cheval Blanc dirigé par le chef Yannick Alléno.

D’autre part, 12 restaurants alpins figurent parmi les 1 000 meilleures tables mondiales selon le classement de référence La Liste. Il apparaît cependant clairement que la haute gastronomie demeure un univers majoritairement masculin puisque que seules 7 % des femmes sont étoilées et aucune n’est distinguée dans les Alpes.

Le triomphe de cette haute gastronomie dans un environnement montagnard aux conditions extrêmes n’avait pourtant rien d’une évidence. Comment expliquer cette incroyable ascension en une trentaine d’années seulement, et par quels mécanismes une cuisine paysanne, initialement rudimentaire, s’est-elle hissée au sommet de l’art culinaire ?

De la cuisine de survie au trio « raclette-fondue-tartiflette »

La cuisine alpine puise sa force dans la nécessité, façonnée par la rudesse du climat. Jusqu’au XXᵉ siècle, elle avait d’abord pour fonction de rassasier après une journée de dur labeur dans un environnement souvent hostile. À haute altitude, l’élevage domine tandis que l’agriculture représente un véritable défi, de nombreuses cultures ne pouvant y prospérer. Tout ce qui parvient à pousser et à se conserver devient alors crucial pour affronter des hivers longs et rigoureux.

Cette cuisine de montagne s’inscrit dans une tradition paysanne, avec des plats économiques et roboratifs, fondés sur l’utilisation de produits locaux tels que les céréales, les pommes de terre, les légumes et les ressources de la cueillette. Le cochon élevé à la ferme fournissait la charcuterie et, contrairement à ce que l’on pourrait croire, le fromage constituait avant tout une source précieuse de revenus pour le foyer et était donc plus souvent vendu que consommé sur place.

À partir du milieu du XXe siècle, avec l’essor du ski et l’apparition des stations de sport d’hiver, les Alpes deviennent un nouvel Eldorado touristique, et l’alimentation locale connaît un premier bouleversement, car il faut désormais rassasier les skieurs affamés. La fondue et la raclette, toutes deux d’origine Suisse, sont alors érigés en emblèmes nationaux. Quant à la célèbre tartiflette, souvent considérée comme un plat traditionnel, elle n’est en réalité qu’une création marketing des années 1980-1990 destinée à relancer les ventes de reblochon, bien qu’elle s’inspire directement de la « péla », un plat paysan savoyard cuit dans une poêle, à base de pommes de terre et de fromage.

Dans le même temps, les restaurants gastronomiques que l’on trouve alors en station sont marqués par un véritable complexe d’infériorité. Certains chefs éprouvent presque une forme de « honte » à l’égard de leurs produits locaux, jugés trop frustes ou insuffisamment valorisant pour figurer sur la carte. À cette époque, la plupart d’entre eux se désintéressent du terroir alentour. Pour répondre aux besoins d’une clientèle urbaine et internationale fortunée, ils calquent leurs offres sur des standards parisiens avec des viandes acheminées depuis Rungis, des homards et des poissons venant de la mer, autant d’ingrédients importés qui relèguent au second plan les richesses abondantes des lacs et des alpages environnants.

Révolution végétale et retour au biotope

La véritable métamorphose de la gastronomie de montagne s’opère au début des années 1990, portée par l’emblématique Marc Veyrat. Son apport majeur tient dans la réhabilitation de la cueillette alpine. Le chef sillonne les alpages et les sous-bois, à la recherche d’herbes sauvages, comme la berce, l’angélique ou la reine-des-prés. Cette « révolution végétale » bouleverse la gastronomie qui devient plus naturelle, plus locale, enracinée dans son environnement.

Parallèlement, Marc Veyrat remet à l’honneur les poissons des lacs alpins, comme la féra ou l’omble chevalier, tout en éduquant peu à peu le palais de sa clientèle. Enfin, sa philosophie rompt avec les codes traditionnels de la cuisine de montagne jugée souvent trop lourde. Il allège les plats en profondeur : moins de crème, moins de gratin, davantage de bouillons et d’infusions. La cuisine gagne alors en lisibilité, en finesse et en élégance.

Veyrat contribue ainsi à l’émergence d’une identité culinaire alpine authentique. Cette approche novatrice sera couronnée en 1995 par l’obtention de trois étoiles au guide Michelin pour l’Auberge de l’Éridan sur les rives du lac d’Annecy.

La démarche du chef savoyard a décomplexé toute une génération de cuisiniers qui, à sa suite, ont décidé de s’engager pleinement dans une haute gastronomie en lien direct avec la nature alpine, attentive au rythme des saisons.

C’est ainsi qu’aujourd’hui une véritable constellation de tables d’exception portent cette identité au plus haut. À Megève, Emmanuel Renaut, chef trois étoiles du Flocon de Sel propose une cuisine entièrement tournée vers la nature, magnifiant poisson du Léman, gibiers et fromages locaux au gré d’une carte en perpétuelle évolution. Sur les rives du lac d’Annecy, Jean Sulpice développe à l’Auberge du père Bise (deux étoiles) un univers à la fois sensible et percutant en étroite collaboration avec artisans, pêcheurs et maraîchers locaux. À Saint-Martin-de-Belleville, la famille Meilleur fait de La Bouitte (deux étoiles) un lieu où le patrimoine savoyard s’élève au rang d’art.

Cette quête de l’excellence s’accompagne d’un véritable défi scientifique : cuisiner en altitude. À 1 500 mètres, la pression atmosphérique, plus faible, fait bouillir l’eau autour de 95 °C, ce qui allonge les temps de cuisson, accélère l’évaporation et rend les pochages délicats. L’air sec accentue le dessèchement des préparations et, en pâtisserie, provoque une dilatation trop rapide des gaz de levure pouvant amener les gâteaux à s’affaisser.

Pour contourner ces contraintes, les chefs alpins ont développé une véritable créativité technique avec des cuissons lentes, braisées, mijotées à l’étouffée, du fumage, ainsi que l’usage de l’autocuiseur pour rétablir une pression stable. Cette maîtrise des lois physiques propres à la montagne est devenue l’un des fondements de la haute cuisine alpine.

Cette concentration exceptionnelle d’étoiles est le fruit d’une alchimie unique entre un territoire d’une immense richesse, l’audace de chefs locaux et une clientèle au fort pouvoir d’achat. Aujourd’hui, le tourisme culinaire est devenu un moteur économique à part entière, et de nombreux visiteurs viennent autant pour l’expérience culinaire que pour le ski.

En réinventant une cuisine de survie paysanne en véritables œuvres d’art, ces chefs ont redéfini la notion de luxe. Ils démontrent que l’excellence contemporaine repose sur l’authenticité, l’ancrage local et un profond respect de la nature. Et la nouvelle vague de jeunes cuisiniers – mais aussi désormais de cheffes à l’image des cheffes pâtissières de montagne Tess Evans-Miallet et Aurélie Collomb-Cler – s’inscrit dans cette lignée, tout en y apportant sa propre sensibilité.

The Conversation

Nathalie Louisgrand ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

18.03.2026 à 14:03

Why Europe’s ‘open’ economy of innovation is exposed to global trade shifts

Regis Coeurderoy, Professor in Strategic Management and Innovation, ESCP Business School

As new targets designed to help the EU economy work towards autonomy are unveiled, Europe’s “old growth” model and its R&D multinationals’ reliance on foreign markets come under review.
Texte intégral (1445 mots)

Last month the European Commission unveiled its new “Made in Europe” targets, tying access to subsidies in clean technology heavy industry and carmaking to local production and stricter conditions on foreign investment.

The objective of the new Industrial Accelerator Act is to strengthen the industrial base and strategic autonomy of the European economy. But its impact on European Research & Development multinationals that have grown in overseas markets should not be underestimated. Evidence shows that Europe is hit harder by external shocks than its rivals because its firms depend more heavily on foreign markets and cross-border supply chains.

Consider, for example, Asia accounted for 41% of German carmaker Mercedes‑Benz in 2025, while UK-headquartered drugmaker AstraZeneca generated about 43% of its 2024 sales in the US.

Such exposure leaves a sizeable chunk of European multinationals particularly sensitive to shifts in trade policy: as protectionist measures proliferate, the backlash can quickly translate into weaker demand, disrupted supply chains and pressure on profits.

This has already become visible as trade tensions with China and the United States have intensified and governments have moved to shield strategic industries from subsidised competition, via the Made in Europe targets.

A historically overseas market-led economy

European groups are often described as global champions; many expand abroad earlier than their American or Asian peers. Part of the reason is structural: Europe’s home market remains less integrated than the US or China. It also reflects a long tradition of building businesses internationally.

American and Asian companies can often scale at home before expanding abroad. European firms rarely have that luxury. Their global reach is a strength, but in a more fragmented world it also creates exposure.

New research I carried out on the world’s largest corporate Research & Development spenders helps explain Europe’s position.

Vying for the top tiers of the global R&D landscape

The global race for innovation is dominated by the Americas and Asia: firms headquartered in Asia-Pacific account for about 37% of the leading R&D multinationals and those in the Americas roughly 36%, compared with about 27% in Europe, the Middle East and Africa.

Bridging the R&D spending gap

The gap is even wider in spending: companies based in the Americas account for about 45% of total corporate R&D investment, compared with roughly 29% in Asia-Pacific and 26% in EMEA.

Yet European firms tend to operate more globally. The research shows only about 26% of EMEA-based firms earn most of their revenues in their home region.

Nearly a third operate globally, roughly twice the share of American or Asian companies. By contrast, about 76% of US firms and 75% of Asia-Pacific firms remain focused mainly on their domestic regions, supported by larger and more integrated home markets.

Navigating the impacts of trade uncertainty

Truly global companies remain rare. Only about 17% of these firms generate balanced sales across the Americas, Europe and Asia-Pacific. Half of them are headquartered in EMEA, compared with roughly a quarter for each in the Americas and Asia-Pacific.

This makes European groups more exposed when trade relations sour. Illustrating this point, German carmaker BMW warned last month that tariffs imposed by the EU, the US and China could wipe around €1 billion from its profits this year, underscoring how quickly geopolitical shifts translate into financial strain for Europe’s multinationals.

If Europe wants to reduce such vulnerability, it should look beyond protectionism. For firms that already operate globally, tighter rules at home could push them to move assets abroad. That would weaken Europe’s own industrial base at the very moment policymakers are trying to strengthen it.

In other words, the end of the liberal trading era may have exposed an Achilles heel in Europe’s economic model. The continent’s multinationals are unusually dependent on markets outside Europe. In a more fragmented world, that creates two clear risks: disruption to global value chains and the gradual relocation of investment and innovation away from Europe itself.

What’s the alternative? Not retreat, but reform

Former European Central Bank President Mario Draghi’s report in 2024 for the European Commission set out an urgent agenda to restore Europe’s competitiveness through deeper single market integration, regulatory reform and investment. It addresses part of the challenge. But Europe must go further, strengthening its own base for research, innovation and industry. That requires action at a European level. Completing the single market is not just about harmonising rules. It is about ensuring that investment, supply chains and innovation remain anchored in Europe.

As ECB President Christine Lagarde warned last year, Europe’s growth model was built for a different world. Heavy reliance on exports once underpinned prosperity. In a more fragmented global economy, it leaves Europe exposed.

The lesson is clear: Europe’s problem is not so much globalisation, but too little regional integration. Until the efforts to create a single market truly pave the way for sound economic foundations, Europe’s multinationals will remain highly globalised and exposed. But such an ambition goes beyond economic goals: it is a political ambition that is at loggerheads with nationalist sentiments to achieve the right level of territorial growth, which would ultimately secure greater independence.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Regis Coeurderoy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

18.03.2026 à 11:32

Pêche récréative et pollution plastique : créer des leurres souples qui disparaissent vraiment

Erwan Vasseur, Doctorant en Sciences et technologie industrielles, Université Bretagne Sud (UBS)

Chaque année, des millions de pêcheurs perdent une partie de leur matériel dans l’eau dont les leurres souples, de petits bouts de plastique très efficaces… mais très persistants.
Texte intégral (2413 mots)
Des millions de leurres finissent dans la nature chaque année en France. Verlin Auliane / Unsplash, CC BY-SA

Chaque année, des millions de pêcheurs perdent (sans le vouloir) une partie de leur matériel dans l’eau. Parmi les objets les plus souvent « abandonnés » : les leurres souples, petits bouts de plastique très efficaces… mais très persistants.


Mon travail de thèse, mené en collaboration avec l’entreprise FiiiSH, a consisté à développer des formulations à base de PHA capables de réduire la persistance des leurres souples dans l’environnement. La solution la plus prometteuse identifiée à ce jour n’est pas encore assez souple pour un usage pleinement satisfaisant, mais elle montre déjà de forts signes de biodégradation et de non-toxicité. Il reste donc du travail pour atteindre le bon compromis mécanique, mais la piste est sérieuse.

Une pratique massive et des pertes invisibles

Illustration de la pollution des leurres souples
Illustration de la pollution des leurres souples. Fourni par l'auteur

La pêche de loisir est un loisir très répandu en France, en mer comme en eau douce. Les estimations institutionnelles évoquent environ 3,8 millions de pratiquants en mer en 2024, et plusieurs millions de cartes de pêche sont délivrées chaque année en eau douce. À cette échelle, même si la grande majorité des pêcheurs adopte de bonnes pratiques, une part de pertes reste inévitable : accrochage sur roches, branches, épaves, casse de ligne, courant, houle… À force de répétitions, un « petit » objet perdu involontairement devient un flux collectif.

Illustration de la souplesse d’un leurre souple. Black Minnow FIIISH, Fourni par l'auteur

Un leurre souple doit « vivre » dans l’eau. Sa nage dépend de sa forme, mais aussi de sa viscoélasticité : trop rigide, il nage mal ; trop mou, il se déchire ; instable, il durcit ou devient poisseux avec le temps. En bref, le matériau doit être à la fois flexible, résistant, stable au stockage et transformable industriellement. C’est un cahier des charges très strict et complexe pour un matériau.

La pollution liée à la pêche est multiple : emballages, fils, plombs, mais aussi fragments de leurres. Un leurre souple ne pèse que quelques grammes : pris isolément, l’impact paraît négligeable. Mais dans des zones très fréquentées (digues, estuaires, embouchures, postes en rivière…), les pertes se concentrent et s’additionnent. On estime qu’un pêcheur perd en moyenne 10 leurres par an, pour environ 15 g par leurre, ce qui donne un ordre de grandeur de cette pollution plastique. Ces chiffres restent toutefois à prendre avec précaution, car ils sont difficiles à mesurer précisément. Avec le temps, les plastiques conventionnels peuvent s’abîmer sous l’effet des UV, de l’abrasion et des contraintes mécaniques, et générer des fragments plus petits : les microplastiques. Dans certains cas, des composés peuvent aussi migrer depuis l’objet en plastique vers l’eau. L’enjeu n’est donc pas seulement esthétique : il touche à la persistance des débris et à leur interaction avec les écosystèmes.

Les PHA : des plastiques produits par des bactéries

Les polyhydroxyalcanoates (PHA) sont une famille de polyesters que certaines bactéries fabriquent naturellement comme réserve de carbone et d’énergie. Industriellement, on retrouve une logique de fermentation : on nourrit des microorganismes avec une source de carbone (par exemple, sucres, huiles), on pilote les conditions pour favoriser l’accumulation de PHA dans les cellules, puis on récupère la biomasse et on extrait/purifie le polymère. On obtient alors une « résine » utilisable en plasturgie, sous forme de granulés. Les PHA sont donc bien des plastiques à part entière. En revanche, dans leur état initial, leurs propriétés sont souvent trop rigides pour des applications comme les leurres souples de pêche, ce qui impose d’ajouter des additifs, notamment des plastifiants, afin d’assouplir la matière.

L’intérêt des PHA est double. D’une part, ils peuvent être biosourcés (selon le procédé et les substrats). D’autre part, leur structure de polyester est favorable à la biodégradation dans certains milieux. Mais ce « peut être biodégradable » est important : tout dépend des conditions et de la formulation finale.

Un plastique biodégradable ne disparaît pas comme un comprimé effervescent. Il ne fond pas au contact de l’eau. La biodégradation est un processus biologique : des microorganismes, via des enzymes, transforment progressivement le matériau en produits simples (CO2, eau, sels minéraux et biomasse en conditions aérobies).

La clé, c’est la conversion finale : un matériau qui ne fait que se fragmenter plus vite peut produire des microplastiques sans réellement être biodégradé. Autre point essentiel : « biodégradable » n’est pas synonyme de « biosourcé ». Un matériau peut être biosourcé sans être biodégradable, et l’inverse. Pour éviter le greenwashing, il faut toujours préciser le milieu (sol, compost, eau douce, mer), la méthode de mesure et l’ordre de grandeur du temps de l’essai dans lequel l’échantillon se dégrade.

Comment transformer un PHA en leurre ?

Le défi est d’obtenir une matière suffisamment souple. Beaucoup de PHA sont naturellement plutôt rigides. Pour approcher la sensation d’un leurre conventionnel, on peut jouer sur la chimie du copolymère, mais aussi sur la formulation : plastifiants compatibles, mélanges, ou architectures internes qui stabilisent la souplesse.

C’est ici que mon travail de recherche s’inscrit, dans le cadre d’une collaboration avec l’entreprise FiiiSH : développer des formulations PHA adaptées à la pêche au leurre souple, en intégrant dès le départ les contraintes industrielles (mise en forme, reproductibilité, stabilité au stockage) et les exigences environnementales. Aujourd’hui, ces travaux ont déjà permis d’identifier plusieurs formulations prometteuses et de les évaluer à l’échelle laboratoire à travers des essais de caractérisation thermique, mécanique et rhéologique (la rhéologie est l’étude de la déformation et de l’écoulement de la matière sous l’effet d’une contrainte appliquée). L’enjeu est désormais de confirmer leur robustesse, leur stabilité dans le temps et leur pertinence pour un usage réaliste en leurre souple.

Différence de souplesse entre la matière actuellement utilisée (a) et la matière finale formulée à partir de PHA (b). Fourni par l'auteur

Même avec un PHA prometteur, tout se joue souvent dans sa plastification. Obtenir un matériau souple ne suffit pas : il faut une souplesse stable et une bonne tenue mécanique. Or la compatibilité entre un PHA et un plastifiant est délicate : un plastifiant non miscible peut provoquer des hétérogénéités qui induisent une déchirure plus facile et une tenue mécanique qui chute. À l’inverse, un plastifiant trop compatible avec la résine peut « trop bien » s’y intégrer : il assouplit tellement le polymère qu’il relâche une partie du réseau d’enchevêtrements, et on obtient alors un matériau certes mou, mais très sensible à la déchirure. Pour se représenter la structure d’un plastique, on peut imaginer un plat de spaghettis bien emmêlés : les « nœuds » formés par les fils de pâte correspondent aux enchevêtrements, ces points d’accroche qui donnent au matériau sa cohésion.

Un petit objet mais une grande preuve à apporter

Rendre un leurre souple biodégradable ne consiste pas à « changer de plastique » dans une fiche technique. C’est un compromis délicat entre performance, stabilité et preuve environnementale. Les PHA offrent une piste crédible, à condition de rester rigoureux sur les mots (« biodégradable » n’est ni « soluble » ni « effervescent ») et sur les mesures. La suite se joue autant en laboratoire qu’en industrie : formulation, mise à l’échelle, transparence sur les compositions et validation dans des scénarios réalistes.

Si cette transition réussit sur un objet aussi exigeant qu’un leurre souple, elle pourrait inspirer d’autres produits exposés à la nature, où l’on ne peut pas éliminer totalement les pertes mais où l’on peut réduire, concrètement, la persistance.

À ce stade, un premier prototype de leurre a déjà vu le jour. Il reste désormais à l’éprouver en conditions réelles de pêche pour juger de sa performance sur le terrain. La solution n’est pas encore totalement aboutie, notamment parce qu’elle doit encore gagner en souplesse, mais elle n’est plus seulement une idée de laboratoire : elle commence déjà à prendre la forme d’un leurre.

The Conversation

Erwan Vasseur a reçu des financements de l'entreprise Fiiish et IRDL (Institut de Recherche Dupuy De Lôme).

PDF

18.03.2026 à 09:58

La théorie des cordes a-t-elle été découverte par accident ?

Piotr Tourkine, Physicien théoricien, Université Savoie Mont Blanc

Quand une solution trouvée pour un problème donné éclaire en réalité un domaine bien plus vaste.
Texte intégral (1707 mots)
Gabriele Veneziano au bord du lac d’Annecy (Haute-Savoie), l’été où il mit le doigt par hasard sur une formule qui allait mener à la découverte de la théorie des cordes. G. Veneziano, avec son aimable autorisation, Fourni par l'auteur

Une plongée dans l’histoire de la théorie des cordes, ou quand une solution suggérée pour un problème donné éclaira en réalité un domaine bien plus vaste.


La physique théorique a connu trois grandes révolutions au tournant du XXᵉ siècle : la mécanique quantique et les deux théories de la relativité, restreinte et généralisée. La mécanique quantique décrit l’infiniment petit. La relativité restreinte et sa célèbre formule E = mc² décrivent la physique des objets se déplaçant aux vitesses proches de la lumière. La relativité générale décrit la force de gravité comme provenant de la courbure de l’espace-temps.

Prises ensemble, elles ont bouleversé notre compréhension de l’espace-temps, de la matière, et des interactions fondamentales. Les implications de ce bouleversement ne sont encore aujourd’hui pas totalement comprises.

En effet, on ne sait pas utiliser ce cadre pour décrire certaines situations extrêmes, comme l’espace-temps à l’intérieur des trous noirs, ou au moment du Big Bang – deux situations où les effets quantiques et gravitationnels sont simultanément importants. C’est dans cet entrelacs que réside le mystère central de la « gravité quantique », que la physique moderne cherche à élucider, et pour lequel la théorie des cordes propose un cadre qui unifie relativité générale et physique quantique.

Du point de vue de l’histoire des sciences, un élément remarquable de cette théorie sophistiquée est qu’elle a, en fait, été découverte par hasard, au sein d’un domaine bien différent de la gravité quantique : celui de la physique des particules subatomiques !

Gabriele Veneziano et les particules subatomiques

Genève, fin des années 1960. Gabriele Veneziano a 26 ans, il vient de finir son doctorat de physique nucléaire en Israël et se trouve en visite au CERN. À l’époque, les physiciens théoriciens du monde entier se heurtaient à un problème coriace : la méthode qui avait permis de comprendre les interactions entre électrons et lumière (qu’on appelle aujourd’hui la théorie quantique des champs) semblait ne pas fonctionner pour décrire les interactions entre les autres particules subatomiques.

En particulier, on ne comprenait pas l’interaction nucléaire forte, qui régit les interactions entre les briques élémentaires de la matière : protons, neutrons, etc. Celles-ci forment un véritable zoo de particules qu’on nomme les hadrons.

Une nouvelle approche est alors explorée : le « bootstrap ». Ne pouvant trouver la bonne théorie pour décrire les hadrons individuellement, les physiciens se posèrent la question dans l’autre sens : quelles sont les propriétés générales que doit satisfaire n’importe quelle théorie ? La réponse : au minimum, elle doit satisfaire simultanément aux exigences de la mécanique quantique et de la relativité restreinte.

Cette approche par exemple permet de montrer qu’une interaction fondamentale ne peut excéder une certaine intensité sans briser les lois de la mécanique quantique (un peu comme il existe une vitesse maximale en relativité). En clair : si l’on mélange les lois de la mécanique quantique et celles de la relativité restreinte, tout n’est pas permis, et les lois physiques possibles deviennent fortement contraintes.

C’est dans ce cadre que Gabriele Veneziano proposa en 1968 une fonction mathématique très particulière – la fonction bêta d’Euler – pour modéliser les hadrons et leurs interactions. À ce moment, on ne connaissait pas la théorie qui permettrait d’expliquer d’où sort cette formule : on savait seulement qu’elle satisfaisait, pour la première fois, toutes les propriétés mathématiques recherchées. Son papier eut un succès immédiat, car la formule répondait à de nombreuses questions en même temps.

Sérendipité et théorie des cordes

La sérendipité est souvent idéalisée comme un heureux hasard. Mais, en science, elle prend une forme plus subtile : elle naît de l’interaction entre un contexte de recherche fertile et une capacité à reconnaître qu’une solution trouvée pour un problème donné éclaire en réalité un domaine bien plus vaste.

Le cas de la formule de Veneziano est emblématique. Quelques années après l’article de Veneziano, les physiciens Leonard Susskind, Yoichiro Nambu et Holger Bech Nielsen comprirent (indépendamment) que cette formule décrivait en fait non pas des hadrons mais des « cordes quantiques », c’est-à-dire des objets microscopiques filiformes, qui vibrent à la manière de minuscules cordes de violon.

Et c’est là que ça devient vraiment intéressant.

Les cordes et le… graviton ?

Depuis les années 1970, à mesure que l’on explore cette interprétation, d’autres indices troublants apparaissent. La théorie semble invariablement contenir une particule particulière : le graviton, censé véhiculer la force de gravitation quantique. De plus, elle exige l’existence de dimensions d’espace supplémentaires – un prix qui semble alors trop élevé pour une théorie censée décrire les hadrons !

Et surtout, comment une théorie inventée pour décrire les interactions de la matière à l’intérieur du noyau atomique pouvait-elle contenir une théorie qui décrit tout autre chose – la gravité quantique ?

Comme, à la même époque (autour de 1973), la théorie quantique des champs finit par expliquer les interactions fortes grâce à la découverte de la chromodynamique quantique, et notamment de la liberté asymptotique, le modèle de Veneziano est laissé de côté dans ce contexte.

Mais quelques physiciens visionnaires, comme Joël Scherk et John Schwarz, pressentirent que cette théorie, à cause de son mystérieux graviton, possédait un potentiel unique pour s’attaquer à la gravité quantique.

Dix ans plus tard, en 1984, Michael Green et John Schwarz confirmèrent cette intuition et démontrèrent que la théorie des cordes est bel et bien une véritable théorie de gravité quantique.

On voit donc que la découverte de la théorie des cordes est l’illustration même de la sérendipité : une théorie née d’un certain questionnement éclaire le cœur d’un aspect tout autre de la science.

Gabriele Veneziano lui aussi contribuera notablement au développement de la théorie des cordes, notamment en étudiant les liens entre celle-ci et la structure microscopique de l’espace-temps.

La théorie de cordes aujourd’hui

Aujourd’hui, la théorie des cordes est bien plus qu’une simple théorie candidate de la gravité quantique. Aux côtés de la théorie quantique des champs, elle constitue un cadre conceptuel et mathématique d’une richesse inégalée, capable d’unifier des idées venues de la physique des particules, de la relativité, de la théorie des champs, du chaos et des mathématiques pures et produire des avancées conceptuelles et techniques dans ces domaines.

Par exemple, le modèle de Veneziano et ses généralisations, dont on sait aujourd’hui qu’ils proviennent de la théorie des cordes, exhibent des propriétés mathématiques remarquables liées à la fonction zêta de Riemann. Ces propriétés s’expliquent physiquement par la façon dont deux cordes ouvertes s’attachent pour former une corde fermée.

Plus encore, le programme du « bootstrap », qui avait donné naissance à la théorie des cordes, connaît aujourd’hui une nouvelle vie : grâce à la puissance des ordinateurs modernes et à des idées venues de la théorie des cordes et de la théorie des champs, les physiciens appliquent ces idées pour décrire des phénomènes très divers, allant des transitions de phase à la physique hadronique et même à la gravité quantique.

Mais il reste un mystère fondamental : pourquoi cette théorie, née « par hasard », semble-t-elle si naturellement adaptée à décrire la gravité quantique ? Était-ce vraiment un hasard… ou un indice que la seule façon d’unifier les trois théories qui forment le socle de la physique du XXᵉ siècle est la théorie des cordes ? On pourrait bien avoir une réponse à cette question mathématique dans les années qui viennent.

The Conversation

Piotr Tourkine a reçu des financements de l'Agence Nationale de la Recherche (ANR-22-CE31-0017).

PDF

17.03.2026 à 16:33

Yellowstone, merveille géologique : aux frontières du feu, de l’eau et du vivant

Olivier Pourret, Enseignant-chercheur en géochimie et responsable intégrité scientifique et science ouverte, UniLaSalle

Elodie Pourret-Saillet, Enseignante-chercheuse en géologie structurale, UniLaSalle

Derrière des paysages fascinants se dissimule l’un des systèmes volcaniques les plus actifs de la planète, où se trouvent plus de la moitié des geysers du monde.
Texte intégral (2939 mots)
La Morning Glory Pool du Yellowstone National Park, aux États-Unis. Olivier Pourret, CC BY

Le parc national de Yellowstone, aux États-Unis, présente l’un des spectacles géologiques les plus fascinants au monde : geysers en éruption, bassins aux couleurs intenses, terrasses de travertin sculptées par des eaux thermales. Derrière ces paysages se dissimule l’un des systèmes volcaniques les plus actifs de la planète, dont la chaleur souterraine façonne chaque fontaine, chaque couleur, chaque dépôt minéral, et rappelle que la Terre est une planète vivante.


Le parc national de Yellowstone est le plus ancien parc national du monde et est situé dans l’ouest des États-Unis, entre le Wyoming, le Montana et l’Idaho. Inscrit sur la liste du patrimoine mondial de l’Unesco, il est célèbre pour sa faune et ses paysages, mais surtout pour une activité géothermique exceptionnelle, unique par son intensité et sa diversité.

Le parc se situe sur une large caldeira volcanique (c’est-à-dire une vaste dépression circulaire formée par l’effondrement du toit d’une chambre magmatique après une éruption), formée par plusieurs éruptions majeures qui se sont produites il y a 2,1 millions, 1,3 million et environ 640 000 ans. Même en l’absence d’éruptions explosives actuellement, le volcan reste actif : son activité se traduit par une augmentation de température en profondeur et une série de phénomènes hydrothermaux observables en surface.

L’entrée ouest du parc national de Yellowstone, aux États-Unis. Olivier Pourret, CC BY

Une chaudière souterraine toujours en activité

Des réservoirs magmatiques partiellement fondus se situent sous Yellowstone, alimentés par un flux venant du manteau, à grande profondeur. La chaleur émise réchauffe les eaux de pluie et de fonte des neiges qui s’infiltrent dans le sous-sol. Ces eaux peuvent atteindre des températures supérieures à 200 °C tout en restant liquides grâce à la forte pression.

Lorsque les conditions sont réunies, avec un approvisionnement en eau suffisant, des fractures suffisamment étroites et une chaleur stable, l’eau qui devient surchauffée est soudainement expulsée vers la surface : ce phénomène est connu sous le nom de « geyser ». Plus de la moitié des geysers du monde se trouve à Yellowstone, le transformant en un laboratoire naturel pour les géologues.

Le plus célèbre, Old Faithful, entre en éruption toutes les 60 à 90 minutes, projetant une colonne d’eau et de vapeur pouvant dépasser 50 mètres de hauteur. D’autres geysers sont beaucoup moins prévisibles, rappelant que ces systèmes sont fragiles et sensibles à de légères variations de pression ou de circulation de fluides.

photo d’un grand geyser
Le geyser Old Faithful du Yellowstone National Park, aux États-Unis. Olivier Pourret, CC BY

Dans des régions géothermiques telles que le Norris Geyser Basin, l’hydrothermalisme n’est pas réparti aléatoirement dans la roche : il est largement guidé par le réseau de fracturation affectant la roche, véritable « route » pour l’eau chaude, qui régule la circulation des fluides et détermine la position des geysers et des sources chaudes. Les études effectuées au niveau du Steamboat Geyser démontrent que même de petites fractures ou de simples pores interconnectés peuvent être suffisants pour expulser rapidement l’eau lors des éruptions.

Le sous-sol ressemble donc moins à un système de conduits bien définis qu’à un milieu complexe, constitué d’un enchevêtrement de fractures et de pores interconnectés et de dimensions variables. Cette organisation contrôle la circulation de l’eau et de la vapeur en profondeur, et conditionne le déclenchement des éruptions hydrothermales, soulignant combien la structuration et la constitution des roches régissent le fonctionnement des systèmes hydrothermaux.

Sources chaudes et travertins : quand la géologie se fait art

Les geysers ne représentent qu’un aspect du spectacle. Les bassins aux couleurs vives sont principalement formés par l’abondance de sources chaudes. Le plus célèbre et plus large à Yellowstone (60 à 90 mètres de large) d’entre eux est Grand Prismatic Spring, il est aussi le plus photographié pour illustrer ces sources chaudes.

À l’inverse de ce que l’on pourrait penser, ces couleurs ne sont pas celles des minéraux, mais celles de micro-organismes extrémophiles. Chaque communauté microbienne, adaptée à une plage de température spécifique, forme autour des bassins de véritables cercles de couleur : les espèces qui prospèrent dans les zones plus froides en périphérie arborent des teintes jaune et orange, tandis que les températures plus élevées au centre favorisent des micro-organismes bleus ou verts. Dans les premiers cas, les couleurs résultent à la fois des pigments caroténoïdes propres aux bactéries, et des oxydes de fer et de manganèse précipités par leur activité métabolique. Ces bactéries et archées doivent ainsi leurs teintes à leurs pigments photosynthétiques (chlorophylles ou caroténoïdes) dont l’expression varie selon les conditions de température et de lumière. Lorsque la température des sources baisse, l’expansion bactérienne s’intensifie.

Des dépôts de travertin peuvent aussi se former à partir de sources abondantes en carbonate de calcium. Le travertin est une roche calcaire poreuse qui se dépose en surface lorsque de l’eau chaude, ayant dissous du CO2 et du carbonate de calcium en profondeur sous l’effet de la pression et de la température, remonte à la surface : en se refroidissant et en se décomprimant, elle libère le CO2 dissout, ce qui provoque la précipitation de calcite.

Cette calcite forme des terrasses et des cascades minérales blanches ou crème, tandis que les oxydes de fer précipités simultanément par l’activité bactérienne leur confèrent leur teinte orange caractéristique ; comme celles de Mammoth Hot Springs, qui se modifient sans cesse en fonction des changements des conditions hydrologiques et de température.

Les sources chaudes dites de « Mammoth Hot Springs », au Yellowstone National Park, aux États-Unis. Olivier Pourret, CC BY

Un volcan sous surveillance : quels dangers ?

Yellowstone est fréquemment décrit comme un « supervolcan », une expression médiatique qui fait référence à des volcans susceptibles de générer des éruptions de très grande ampleur, correspondant à l’émission d’au moins 1 000 km3 de matériaux. Deux des trois grandes éruptions de Yellowstone ont atteint ce seuil, il y a environ 2,1 millions et 640 000 ans. Les chances d’une telle éruption à Yellowstone dans les prochains millénaires sont jugées infimes par les géologues de l’USGS.

Cependant, le parc est le siège d’une activité sismique quasi permanente : chaque année, des milliers de petits séismes témoignent de la circulation des fluides et des ajustements de la croûte. Les scientifiques du service géologique américain, l’USGS, dotés d’un réseau sophistiqué d’instruments, surveillent de près ces signaux pour détecter la plus petite anomalie.

Ainsi, les dangers les plus immédiats à Yellowstone ne relèvent pas d’une éruption dévastatrice, mais plutôt d’explosions hydrothermales locales susceptibles de projeter des roches et des fluides bouillants sur quelques mètres à plusieurs dizaines de mètres autour du point d’émission. Plusieurs incidents illustrent ce risque dans l’histoire récente du parc : une série d’explosions puissantes s’est produite à Excelsior Geyser dans les années 1880–1890, projetant de gros blocs jusqu’à 15 mètres de distance, tandis qu’une explosion notable a eu lieu à Porkchop Geyser en 1989. En juillet 2024, l’explosion à Biscuit Basin a détruit une passerelle touristique, sans faire de blessés alors que l’explosion d’Echinus Geyser il y a quelques jours n’a pas fait de dégâts majeurs.

Par ailleurs, les forêts du parc restent vulnérables aux incendies, dont la fréquence et l’intensité augmentent avec le changement climatique, un facteur de risque distinct de l’activité volcanique, mais tout aussi réel pour les écosystèmes de Yellowstone.

Yellowstone, une leçon de géologie à ciel ouvert

Yellowstone nous rappelle que notre planète est vivante et en constante évolution. Les geysers, les sources thermales et les terrasses minérales qui émerveillent les visiteurs ne sont pas de simples curiosités naturelles : ils sont la manifestation visible de processus profonds, à la frontière entre le manteau terrestre, la croûte, l’eau de surface et même le vivant.

Yellowstone n’est pas une exception : en Islande, l’interaction entre un point chaud et la dorsale médio-atlantique produit des paysages analogues, à l’image du site de Geysir. En Italie, les champs Phlégréens, à l’ouest de Naples, offrent une autre démonstration de la connexion entre volcanisme, fracturation et fluides.

Le geyser Geysir, en Islande. Airflore, Flickr, CC BY-NC-ND

Ces comparaisons montrent que les phénomènes observés à Yellowstone suivent des lois universelles : partout où se rencontrent chaleur, eau et fractures, des phénomènes géologiques se manifestent parfois de façon impressionnante. Devant ces paysages en constante transformation, la géologie ne demeure plus une science abstraite confinée aux laboratoires et aux modélisations. Elle est concrète, perceptible et associée à notre compréhension des mécanismes internes de la Terre.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

17.03.2026 à 16:32

Santé publique : les incertitudes sur les financements sont préjudiciables, comme le montre l’exemple des États-Unis

Max Crowley, Professor of Human Development, Family Studies and Public Policy, Penn State

La santé publique repose sur une planification à long terme. Lorsque cette dernière est interrompue, certains programmes ne s’en remettent jamais.
Texte intégral (2211 mots)
Centres de vaccination, inspections sanitaires dans la restauration ou systèmes de surveillance des maladies sont autant de structures et de missions gérées par les services de santé publique locaux et régionaux. Sean Rayford/Stringer via Getty Images

Les incertitudes que font peser les menaces de coupes budgétaires ne sont pas sans conséquences sur la santé publique, même lorsque les financements sont en fin de compte rétablis.


Aux États-Unis, depuis le début de l’année 2025, plusieurs subventions fédérales d’envergure ont été suspendues dans le secteur de la santé, avant d’être rétablies à la suite de recours judiciaires.

Ainsi, le 13 février 2026, le gouvernement fédéral a entrepris de suspendre environ 600 millions de dollars (plus de 520 millions d’euros) de subventions de santé publique destinées à quatre États, avant qu’une cour fédérale ne vienne temporairement faire obstacle à cette mesure. Des centaines de millions de dollars, pourtant déjà alloués par le Congrès, ont ainsi été brièvement gelés avant l’intervention de la justice.

De telles annulations ne sont pas sans précédent, et pourraient, de prime abord, être considérées comme de banals différends entre les États et le gouvernement fédéral. Toutefois, dans ce secteur, ces soubresauts ont des conséquences plus lourdes, que ce soit dans les agences de l’état ou au sein des communautés concernées, et ce même si les États finissent par percevoir les fonds initialement prévus. En effet, l’incertitude qui résulte de cette situation peut entraver des programmes de santé publique vitaux.

En tant qu’universitaire, j’étudie la façon dont sont construites les infrastructures destinées à prévenir la souffrance humaine. De ce fait, je suis aux premières loges pour observer comment une telle instabilité, fût-elle transitoire, modifie les capacités de planification, de recrutement et d’investissement des agences, ainsi que des populations dont elles s’occupent.

Même lorsque le financement est, in fine, rétabli, la répétition de ce genre de cycles de gels et de déblocages partiels, lesquels dépendent des résultats des recours juridiques, peut gripper le fonctionnement des systèmes de santé publique. Cette situation érode, par ricochet, l’infrastructure de santé publique que les fonds fédéraux ont précisément vocation à bâtir et à pérenniser.

Le périmètre de ladite infrastructure est large, puisqu’il englobe notamment les centres de vaccination, les services responsables des inspections sanitaires dans le secteur de la restauration, les unités de prise en charge des addictions aux opioïdes, celles missionnées pour prévenir la violence en milieu scolaire, les programmes en lien avec la santé maternelle, ainsi que les systèmes de surveillance épidémiologique.

Tous ces dispositifs jouent un rôle cardinal en matière de santé publique. Si la plupart des perturbations qui les affectent ne font jamais la une des journaux, elles n’en influencent pas moins les services dont dépendent les citoyens. Cependant, ceux-ci étant destinés à juguler les problèmes en amont, leur caractère indispensable est méconnu d’une grande partie de la population… jusqu’à ce qu’une crise ne survienne.

En matière de santé publique la continuité est essentielle

Si, lors de crises sanitaires telles que la pandémie de Covid-19, l’attention médiatique se focalise sur la gestion de l’urgence, il faut avoir conscience qu’en matière de santé publique, l’essentiel des actions s’inscrit dans le temps long, et s’articule autour de stratégies de prévention pluriannuelles.

Aux États-Unis, les subventions fédérales permettent par exemple de rémunérer des épidémiologistes, des spécialistes de la prévention ou de l’analyse des comportements, ainsi que des analystes de données. Elles financent les systèmes de surveillance des maladies, les initiatives menées pour garantir la santé maternelle et infantile, les programmes de lutte contre les addictions et les partenariats avec les organisations communautaires. Ces projets requièrent des efforts s’inscrivant dans une temporalité longue, qui s’étire sur plusieurs années. Les mener requiert notamment de recruter du personnel, de mobiliser des prestataires externes et de mettre en place des systèmes de suivi des résultats.

Lorsque leurs financements sont subitement suspendus, ou que le cadre réglementaire fluctue, les agences ne peuvent pas se contenter d’attendre que l’horizon s’éclaircisse. Le rythme des recrutements ralentit. Les dirigeants élaborent des plans pour parer à l’éventualité d’une suspension définitive. Dans une telle situation, un nombre conséquent d’employés de l’état fédéral ou des différents États concernés commencent à chercher des opportunités d’emploi plus stables.

Diverses enquêtes nationales ont révélé qu’environ un employé sur quatre du secteur de la santé publique envisageait de quitter son poste d’ici un an. En 2023, les services de santé locaux ont perdu en moyenne 19 % de leurs effectifs, ce qui témoigne de l’épuisement qui a résulté de la pandémie de Covid-19. Or, dans un service de santé de petite taille, qui ne compte parfois que quatre à sept personnes, la perte d’une seule infirmière ou d’un enquêteur sanitaire peut être à l’origine d’une désorganisation considérable.

Si les fonds sont ultérieurement débloqués, comme ce fut le cas à plusieurs reprises en 2025 et début 2026, les agences doivent alors opérer un virage à 180 degrés. Elles doivent émettre de nouvelles directives, renégocier les contrats et rassurer leurs partenaires. Mais le mal est fait : la perturbation a déjà consommé un temps précieux. Et des deniers publics. Certains projets et certaines communautés pourraient ne jamais s’en remettre. Autrement dit, la volatilité engendre des coûts, même lorsque l’argent finit malgré tout par arriver.

Le coût financier et administratif des batailles judiciaires

Assigner le gouvernement fédéral en justice pour suspension de financement est une entreprise onéreuse. Lorsque les États contestent des décisions fédérales, les procureurs généraux y consacrent une part importante de leur temps et de leurs ressources juridiques. Les départements de la santé alors doivent se coordonner avec les juristes, compiler des dossiers volumineux et modéliser divers scénarios budgétaires. L’attention des cadres dirigeants est détournée de la supervision des programmes de santé, au profit de la gestion des risques juridiques et fiscaux.

Ce travail administratif est financé par le contribuable. Toutes ces heures passées représentent ont un coût réel, même si celui-ci ne fait que rarement l’objet de débats publics. Et, tandis que le contentieux suit son cours – souvent durant des mois – les agences doivent se préparer à la multitude d’issues possibles.

L’incertitude elle-même façonne la façon dont est menée la planification. Les agences peuvent hésiter à lancer de nouvelles initiatives, de peur de voir les fonds se tarir en cours de route. Elles tendent à privilégier des contrats courts, à différer les embauches ou à restreindre leurs plans d’expansion afin de limiter leur exposition. À terme, cette prudence peut freiner la mise en œuvre des politiques de santé, et brider l’innovation.

Une instabilité qui dépasse les seuls enjeux budgétaires

La suspension des financements n’est pas l’unique source d’instabilité. Le gouvernement fédéral a également annoncé des remaniements structurels au sein de certaines agences de santé, à commencer par une réorganisation majeure du ministère de la Santé et des Services sociaux (HHS), en mars 2025. Ces mutations introduisent, elles aussi, une part d’aléa dans le fonctionnement des systèmes de santé publique.

Des responsables fédéraux ont par exemple récemment indiqué leur intention de réduire considérablement l’activité de l’Office de planification, de recherche et d’évaluation (OPRE) au sein de l’Administration pour les enfants et les familles (ACF). Depuis 1995, cet organisme étudie l’impact des programmes destinés aux familles et aux enfants, tels que Head Start, le système de placement familial, ou l’Assistance temporaire aux familles nécessiteuses (TANF). Des organisations de recherche et de conseil indépendantes, telles que la Data Foundation et Results for America, ont averti que l’interruption de ces études pourrait compromettre la capacité des États à évaluer et améliorer ces programmes.

De même, les récentes résiliations de subventions et les restructurations au sein de la Substance Abuse and Mental Health Services Administration (SAMHSA), qui gère d’importantes aides aux États en matière de santé liés aux comportements, ont instauré un climat délétère. Lorsque les postes financés par ces subventions sont supprimés ou que les conditions de financement changent brusquement, les versements peuvent accuser du retard, les directives de signalement deviennent floues et les prestataires de soins locaux peinent à se projeter. Pour les communautés qui luttent contre les overdoses d’opioïdes ou gèrent l’augmentation des besoins en soins liés à la santé mentale, une interruption des financements, même brève, peut devenir une question de vie ou de mort.

Suspendre ou réorganiser de telles études à mi-parcours empêche de distinguer les interventions efficaces de celles qui ne le sont pas. Des experts chevronnés risquent de démissionner. Reconstruire une telle expertise pourrait prendre des années.

La prévention, maillon faible face à l’incertitude

La prévention – presque par définition – ne se remarque pas : si les programmes de vaccination, de traitement des addictions et de prise en charge des problèmes de santé mentale des jeunes sont efficaces, les crises qu’ils sont destinés à éviter n’adviennent jamais.

Cependant, la prévention est tributaire de la continuité : pérennité des effectifs, stabilité des partenariats et constance en matière de collecte de données. Les effets d’une interruption des financements sont difficiles à évaluer sur un seul cycle budgétaire, mais ils modifient la façon dont les agences peuvent investir en confiance dans des stratégies de long terme. En ce sens, l’instabilité des subventions peut devenir un problème de santé publique en soi.

Les priorités politiques continueront toujours à évoluer. Les tribunaux continueront à examiner les actions de l’exécutif, et le Congrès poursuivra les révisions des allocations. Le changement fait partie intégrante de la gouvernance. Cependant, si les décideurs aspirent à une infrastructure de santé publique plus robuste et plus résiliente, ils doivent comprendre que la stabilité n’est pas un simple confort administratif : elle est le socle même sur lequel reposent la prévention et la préparation aux crises.

The Conversation

Max Crowley ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

17.03.2026 à 16:31

Une décentralisation française toujours dans l’impasse

Daniel Behar, Géographe Professeur des Universités, Université Paris-Est Créteil Val de Marne (UPEC)

Et si le problème n’était pas le manque de décentralisation, mais la logique même de spécialisation entre État, régions, départements et communes ?
Texte intégral (1666 mots)

Faut-il croire à un « nouvel acte » de la décentralisation à la française promis par Sébastien Lecornu ? Depuis quarante ans, la promesse d’une action publique plus lisible et plus efficace se heurte à une réalité complexe et confuse. Et si le problème n’était pas le manque de décentralisation mais le modèle même que la France s’obstine à poursuivre, à rebours de ses voisins européens ?


Depuis un demi-siècle maintenant, les gouvernements successifs annoncent de façon récurrente un « nouvel acte de décentralisation ». Tous reposent sur les deux mêmes intentions : plus de décentralisation, c’est-à-dire davantage de compétences transférées par l’État (loi Raffarin en 2004 par exemple) et plus d’efficacité, par une spécialisation des échelons territoriaux (loi Notre en 2015 notamment). En dépit de cette constance et de résultats peu convaincants, les projets gouvernementaux les plus récents relatifs à la décentralisation affichent la même perspective : il faut transférer les pans de l’action publique qui relèvent encore de l’État (le logement, par exemple) et le faire autour d’un objectif de clarification des rôles de chaque niveau de collectivité.

Et s’il fallait rompre avec cette antienne et viser un autre modèle, en s’inspirant notamment de ce qu’ont fait la plupart de nos voisins européens ?

Une spécialisation illusoire

Rationnaliser tout d’abord. Dès son émergence en 1982, la décentralisation « à la française » repose sur un principe singulièrement daté, celui d’une forme de transposition au territoire du modèle du taylorisme industriel. L’action publique territoriale sera efficace si les différents niveaux de collectivités se spécialisent dans un registre sectoriel : aux régions l’économie, aux départements le social et aux communes l’aménagement. Lisible sur le papier, ce principe se heurte à une réalité où tout le monde est contraint de faire un peu de tout.

Dans une société de plus en plus complexe, il faut agir globalement, réguler les interactions entre ces approches sectorielles. Depuis des décennies, le monde de l’entreprise a abandonné ce mode d’organisation. Dès le toyotisme, la souplesse et la coordination des fonctions ont été mises avant. Depuis, le management par projet privilégie l’organisation en équipes et la « coopétition »u prix assumé de ces fréquents doublons ou redondances tant honnis en matière d’action publique. Il n’y a plus que dans ce domaine de l’action territoriale que la référence à l’ordre et la symétrie du jardin à la française fasse sens pour penser les modes d’organisation collective.

En dépit d’un cadre législatif de plus en plus contraignant (suppression, en 2015, de la clause de compétence générale pour les départements et les régions), aucune collectivité – ou presque – ne respecte ce principe de spécialisation. On ne peut à la fois imposer à telle collectivité de cantonner son intervention aux enjeux sociaux et à telle autre de se limiter aux questions environnementales, alors que dans le même temps, on attend de l’action publique qu’elle intègre étroitement ces deux dimensions de la transition écologique. Le défi de l’action publique contemporaine n’est pas celui de la répartition des rôles mais plutôt celui de la coordination et des synergies entre ses institutions et les autres opérateurs qui y contribuent – entreprises et associations notamment. Parce que, désormais, la délivrance de services collectifs prime sur la construction d’équipements, l’heure est davantage à la régulation de « chaînes de production » des politiques publiques locales qu’à la définition toujours plus fine des champs de compétences respectifs.

Par contrecoup, le législateur a peu à peu été contraint d’abandonner la spécialisation par grands domaines de compétences, tel qu’affichée dans la loi initiale de 1983, pour une spécialisation plus limitée des prestations délivrées : aux régions la fonction d’animation des filières économiques, mais aux intercommunalités les aides à l’immobilier d’entreprises ; aux régions les transports mais aux départements le transport scolaire. Cette sophistication du partage des rôles est contre-productive : on imagine les coûts de coordination générés par cette fuite en avant dans la spécialisation, au nom de la clarification…

Pourquoi un tel acharnement à poursuivre dans une voie sans issue ?

Un argument est généralement avancé : la clarification des rôles entre collectivités permettrait de renforcer le lien entre élus et citoyens. Mais peut-on considérer qu’un élu départemental est jugé au moment des élections cantonales en fonction de sa gestion des archives départementales, compétence dévolue au Conseil départemental depuis 1983 ? En réalité, plus on fragmente et technicise les champs d’intervention des collectivités, plus on les « dépolitise », et on les rabat de fait sur des fonctions assurées par des « agences » (la SNCF, la Caisse d’allocations familiales…). Les collectivités locales sont des institutions politiques, qui s’adressent autant au citoyen qu’à l’usager. Or, l’intérêt du citoyen pour la chose publique passe par l’explicitation de choix politiques globaux sur le territoire qui intègrent ces registres d’action fragmentés.

Ajoutons qu’en dépit des efforts accrus des régions et des départements pour se rendre visibles et valoriser leurs contributions financières, en multipliant les supports de communication, c’est (quasi exclusivement) le maire qui est jugé responsable des différents équipements et services mis en œuvre sur les territoires.

Il est convenu parmi les élus locaux d’invoquer la lisibilité de l’action publique aux yeux du citoyen pour justifier la nécessaire clarification (« qui fait quoi ?) ». Mais l’observation locale montre que les citoyens n’attendent pas qu’on leur rende visible le back office de l’action locale dans sa complexité. Ils sont demandeurs d’un accès et d’une réponse efficaces. Le succès des maisons France Services en constitue une illustration probante. Elles ne prétendent pas réduire la complexité de nos services publics. Elles proposent simplement d’organiser une interface efficace entre chaque citoyen et le maquis bureaucratique.

La clarification par la hiérarchisation ?

En réalité, les législateurs successifs persistent dans cette conception de la clarification des rôles parce qu’ils imaginent pouvoir ainsi préserver la spécificité française, attachée à la référence à l’égalité (ici entre collectivités territoriales) et éviter le chemin suivi par nos voisins – avec des résultats divers – dans la mise en œuvre de leurs processus de décentralisation.

Ailleurs, bien souvent, la mise en ordre du « millefeuille » s’effectue non par la spécialisation, mais par la hiérarchisation. Des formes diverses de leadership régional sont mises en place, principalement incarnées par la détention d’un pouvoir normatif, et donc d’encadrement de l’action des collectivités de rang inférieur. Cette hiérarchisation s’oppose donc radicalement au principe français d’égalité entre collectivités.

Évidemment, la hiérarchisation ne fait pas disparaître les conflits de pouvoirs et les exigences de négociation. Dans la plupart des pays européens, les communes disposent en effet de la clause de compétence générale et exercent une action généraliste. Cela nécessite des ajustements entre leurs actions et celles des régions. Mais ces transactions s’inscrivent dans un cadre politique reconnu qui fixe, en quelque sorte, les limites de ces négociations. Ainsi en Allemagne, ce sont les Länder qui établissent les champs de compétences des communes. Clarification des rôles (via la hiérarchisation des fonctions) et coopération deviennent alors les maîtres mots d’une organisation pluraliste de l’action publique territoriale.

Cette perspective devrait passer par une révision constitutionnelle pour mettre fin au principe de « non-tutelle d’une collectivité sur une autre ». Cela signifierait une évolution vers un modèle plus fédéral éloigné du jacobinisme français, qui conforterait les échelons intermédiaires, notamment les régions. Avec l’atout que constitue le changement de taille de ces dernières, n’est-il pas temps d’engager ce débat ?

The Conversation

Daniel Behar ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

17.03.2026 à 16:30

Mères et championnes : la double bataille des sportives de haut niveau

Allane Madanamoothoo, Associate Professor of Law, EDC Paris Business School

Daouda Coulibaly, PhD, Professeur-Associé, EDC Paris Business School

Moustapha Kamara, PhD Droit du Sport, EDC Paris Business School

Même enceintes ou peu après avoir accouché, certaines sportives continuent d’exceller dans leur discipline. Mais derrière ces exploits, les « motherhood penalties » viennent freiner leurs carrières.
Texte intégral (3272 mots)

La maternité n’a jamais freiné l’ambition des sportives. Certaines ont conquis des titres majeurs alors qu’elles étaient enceintes, d’autres quelques mois seulement après un accouchement. Pourtant des inégalités persistent : pertes de contrats, baisse de revenus… autant de manifestations de la motherhood penalty qui pèse encore sur les carrières féminines dans le sport professionnel.


Dans le sport professionnel de haut niveau, comme dans de nombreux autres secteurs, les femmes sont aujourd’hui encore confrontées à divers obstacles lorsqu’elles décident d’avoir un enfant.

Ces obstacles, qui dépassent les frontières, conduisent certaines sportives de haut niveau à repousser leur projet de maternité après leur retraite sportive ; ce fut le cas, parmi bien d’autres exemples, de la judokate française Frédérique Jossinet médaillée mondiale, européenne et olympique, retraitée à 37 ans et devenue mère à 43 ans.

Or, qui dit report de maternité, dit augmentation du risque de complications lors d’une future grossesse et d’infertilité liée à l’âge. C’est ainsi que Valérie Nicolas, ancienne gardienne de l’équipe de France de handball, championne du monde en 2003, n’a pas pu concrétiser son désir de maternité. Lorsqu’elle a voulu avoir un enfant une fois sa carrière sportive terminée, la voie naturelle, l’insémination artificielle et les nombreuses fécondations in vitro, dont certaines avec des dons d’ovocytes, ont toutes échoué.

Pourtant, il devrait être possible pour les femmes de conjuguer maternité et carrière sportive professionnelle de haut niveau avec suffisamment d’accompagnement médical, organisationnel et psychologique, de soutien financier, et de protection dans l’exercice de leurs droits. Si quelques avancées notables ont été réalisées par différentes parties prenantes, des progrès restent à faire.

Une équation possible avec des cas concrets

La conciliation entre maternité et carrière chez les sportives professionnelles de haut niveau n’est plus un phénomène exceptionnel, que ce soit dans les sports individuels ou dans les sports collectifs. Certaines ont participé à des compétitions alors qu’elles étaient enceintes, avant de mettre momentanément leur carrière entre parenthèses le temps d’une courte pause maternité. D’autres sont revenues de leur congé maternité au bout de plusieurs mois, parfois avec de grandes difficultés, parfois, au contraire, avec un niveau supérieur à celui d’avant leur maternité. Quelles que soient les situations – qui témoignent, par la même, de la singularité de chaque femme et de chaque grossesse –, elles sont nombreuses à avoir démontré qu’il est tout à fait faisable d’allier maternité et sport de haut niveau. Voici quelques cas emblématiques.

La sprinteuse américaine Alysia Montano, spécialiste du 800 mètres et championne des États-Unis plusieurs années consécutives, disputa sa série lors des championnats outre-Atlantique à huit mois de grossesse en 2014 et à cinq  mois de grossesse en 2017.

Sa compatriote Allyson Felix, considérée comme une légende avec ses 7 médailles d’or olympiques et ses 14 médailles mondiales d’or, arracha sa 12e médaille d’or aux championnats du monde en 2019 après une pause maternité de treize mois consécutive à la naissance de sa fille, née prématurément en 2018 par une césarienne pratiquée en urgence.

La Britannique Paula Radcliffe, ancienne recordwoman du marathon, remporta le marathon de New York neuf mois après la naissance de son premier enfant en 2007. Valérie Adams, ancienne lanceuse de poids néo-zélandaise et référence dans l’histoire de sa discipline en ayant été quatre fois championne du monde, décrocha une médaille d’argent aux Jeux du Commonwealth 2018, six mois après avoir donné naissance à sa fille et décrocha une médaille d’argent.

La judokate française Clarisse Agbegnenou, détentrice de trois médailles de bronze olympique et de six médailles d’or aux championnats du monde, reprit la compétition cinq mois après la naissance de sa fille en 2022. Sa compatriote Estelle Mossely, sacrée championne olympique en 2016, reprit la boxe trois mois après la naissance de son premier enfant en 2017.

La hockeyeuse sur gazon belge Aisling D’Hooghe reprit l’entraînement six semaines après son accouchement en 2021 et rejoua dix semaines plus tard. En 2012, la tireuse malaisienne Nur Mohamed Taibi Suryani, médaillée de bronze des Jeux asiatiques en 2010, a participé aux Jeux olympiques (JO) de Londres à huit mois de grossesse. Quelques années plus tard, la sabreuse égyptienne Nada Hafez a participé aux JO de Paris en 2024 en étant enceinte de sept mois.

La cycliste française Aude Biannic reprit la compétition deux mois et demi après avoir accouché de son fils en novembre 2024 et participa au Tour de France Femmes en août 2025. L’Américaine Kristin Armstrong, championne olympique du contre-la-montre à Pékin en 2008, conserva ses titres à Londres en 2012 et à Rio en 2016 après avoir eu un fils en 2010.

La tenniswoman britannique Dorothea Douglass, la première grande joueuse de tennis de l’histoire, remporta le tournoi de Wimbledon en simple après la naissance de son premier enfant en 1910, puis trois autres fois au cours des quatre années suivantes. En 1971, l’Australienne Margaret Court disputa la finale de Wimbledon en étant enceinte d’un mois. Après avoir donné naissance à son premier enfant en 1972, elle revint sur le circuit en 1973 et fut sacrée trois fois en Grand Chelem. Sa concitoyenne Evonne Goolagong s’imposa à l’Open d’Australie 1977 six mois après avoir donné naissance à sa fille. Elle remporta ensuite Wimbledon en 1980, devenant la deuxième mère sacrée à Wimbledon après Dorothea Douglass. La Belge Kim Clijsters connut également du succès après sa pause maternité de deux ans et demi en gagnant l’US Open 2009 et l’Open d’Australie 2011.


À lire aussi : Sydney Festival review: Sunshine Super Girl is destined to become a legacy piece of Australian theatre


Et bien sûr l’Américaine Serena Williams, l’une des plus grandes tenniswomen de tous les temps avec ses 39 titres du Grand Chelem en simple et en double, remporta l’Open d’Australie 2017 en étant enceinte de deux mois. Bien qu’elle connût dans la même année de graves problèmes de santé après la naissance de sa fille, elle revint sur les courts un an après sa maternité, de même que, tout récemment, l’Ukrainienne Elina Svitolina.


À lire aussi : Serena Williams, une icône qui dérange


Enfin, les footballeuses mères ne sont plus rares. Citons les Américaines Amy Rodriguez, Sydney Leroux, Alex Morgan et Julie Ertz, la Brésilienne Tamires, l’Espagnole Irene Paredes ou encore la Française Amel Majri.

Une équation semée de « motherhood penalties » sous différentes formes

Les motherhood penalties – littéralement « pénalités de maternité » – désignent les désavantages auxquels les femmes sont confrontées dans le cadre de leur carrière en devenant mères, que ce soit en termes de salaires, d’opportunités ou de promotions. Les sportives professionnelles de haut niveau n’y échappent pas. Certaines sont pénalisées dès l’annonce de leur grossesse. Wendy Lawson, handballeuse française, témoigne :

« Le week-end après avoir annoncé à mon président que j’attendais un bébé, j’ai dû m’asseoir en tribune. Manière de me dire, “Très bien, dans ce cas, tu ne joues plus”. »

Il en va de même pour la cycliste britannique Lizzie Deignan, qui, après avoir été lâchée par son équipe en 2018 lorsqu’elle a révélé sa grossesse, a dû rejoindre une autre équipe à six mois de grossesse. Dans un article du Times, elle révéla le sexisme quotidien dont elle a été victime :

« Je sentais que je devais m’excuser d’être enceinte. »

D’autres sont pénalisées par leur sponsor après la naissance de leur enfant. En 2018, le montant du contrat d’Allyson Felix avec Nike a été réduit de 70 % à la naissance de sa fille, en vertu d’une clause de performance post-partum insérée dans son contrat, sans compter les pressions subies pour reprendre l’entraînement rapidement en dépit des complications de grossesse et d’un accouchement par césarienne. Elle ne manquera pas de le dénoncer dans une tribune du New York Times en 2019. En 2023, la navigatrice française Clémence Crémer a été évincée par son sponsor Banque populaire après être devenue maman en 2022, au motif qu’elle n’avait pas cumulé suffisamment de miles pour participer au Vendée Globe 2024 suite à sa grossesse et son congé maternité.

Bien plus grave est le cas de la volleyeuse italienne Lara Lugli. En 2019, après avoir annoncé sa grossesse à son club, le Maniago Pordenone, la joueuse fut licenciée sans préavis ni indemnités conformément à une clause contractuelle prévue en ce sens. Un mois plus tard, elle fit une fausse couche. Par la suite, elle a été poursuivie en justice par son ancien club, qui l’accusait d’avoir dissimulé son désir de maternité lors de la signature de son contrat de la saison 2018-2019. Le club lui imputa également les mauvaises performances de l’équipe pendant la saison ainsi que la perte des fonds de sponsoring et lui réclama des dommages et intérêts pour les préjudices subis. À la suite du tollé provoqué dans les milieux sportif et politique, le club finit par retirer sa plainte mais le mal était déjà fait.

Dans toutes ces situations, la femme sportive professionnelle est « sanctionnée » pour être tombée enceinte. Privée de compétition, elle est privée de gains financiers et d’opportunités dans sa carrière sportive. Ainsi, les motherhood penalties la rattrapent, opérant des inégalités de traitement entre les mères sportives et les pères sportifs et creusant par la même occasion les inégalités de genre déjà existantes dans certaines disciplines sportives.


À lire aussi : Equal play, equal pay : des « inégalités » de genre dans le football


Quelques avancées

Incontestablement, des progrès ont été réalisés par certaines parties prenantes. En 2020, l’Union cycliste internationale (UCI) a instauré une clause de congé maternité dans les contrats entre les cyclistes indépendantes et les équipes du World Tour féminin. En vertu de cette clause, chaque équipe du World Tour féminin est tenue de rémunérer ses coureuses pendant au moins huit mois, dont trois mois à 100 % et cinq mois à 50 %.

En décembre de la même année, la FIFA a introduit une série de mesures dans son Règlement du statut et du transfert des joueurs (RSTJ) (article 18 quater), relatives à la grossesse, le congé de maternité et les droits des joueuses professionnelles. Entrées en vigueur en 2021 et renforcées en 2024, celles-ci prévoient notamment l’instauration d’un congé maternité d’au moins quatorze semaines dont huit après la naissance, rémunéré au minimum aux deux tiers du salaire contractuel de la joueuse ; l’interdiction de « soumettre la validité des contrats au fait que la joueuse soit enceinte ou le devienne », sous peine de sanction financière et sportive ; l’obligation d’intégrer la joueuse au sein du club à la fin de son congé maternité ; la fourniture d’un suivi médical et physique adapté ; ou encore la possibilité pour la joueuse d’allaiter son bébé ou de tirer son lait dans des locaux adaptés fournis par l’employeur.

Du côté des sponsors, après la polémique suscitée par les révélations d’Allyson Felix dans le New York Times, Nike a revu ses politiques liées à la maternité en supprimant les clauses de performance pendant une période post-partum de dix-huit mois.

Les perspectives

Malgré ces progrès notables, le chemin est encore long. Dans le cadre du football, par exemple, les règles adoptées par la FIFA en 2020 pour sécuriser juridiquement la maternité des sportives professionnelles ne sont pas appliquées par la totalité de ses 211 membres en dépit des sanctions prévues à cet effet.

Le litige opposant la footballeuse islandaise Sara Björk Gunnarsdóttir à son ancien club, l’Olympique lyonnais (OL), en témoigne. Enceinte en 2021, elle retourna en Islande avec l’accord de l’OL pour poursuivre sa grossesse dans sa famille. Toutefois, elle ne reçut pas l’intégralité de son salaire pendant cette période. La joueuse a dû engager une procédure auprès du Tribunal de la FIFA pour faire valoir ses droits, conformément aux réglementations relatives à la maternité mentionnées dans le RSTJ. Elle obtint gain de cause : les juges condamnèrent l’OL à lui verser le reliquat de 82 094 euros de salaire qu’il lui devait.

Pour conclure sur une note positive, en dépit des motherhood penalties qui persistent, certaines actions déployées lors des deux derniers JO méritent d’être soulignées. Durant les JO de Paris en 2024, des dispositions particulières ont été mises en place en faveur des mères allaitantes, en partie grâce à la judokate Clarisse Agbegnenou, qui avait milité en ce sens. Elles ont été logées dans des hôtels près du village des athlètes. Aussi, pour la première fois, avec le concours de l’ancienne championne olympique Allyson Felix, le Comité international olympique (CIO) avait aménagé un espace réservé aux enfants des sportives dans le village olympique, afin qu’elles puissent les voir régulièrement.

France 24.

À lire aussi : Voici comment les athlètes enceintes défient les normes en participant à des compétitions… et même aux JO !


Cette année, lors des JO d’hiver de Milan-Cortina, l’État a pris en charge la moitié des frais de logement des familles françaises participantes avec des enfants en bas âge, qui ont été logées à proximité des différents villages des athlètes. Preuve que la performance des sportives professionnelles de haut niveau passe aussi par une politique (FIFA, CIO) favorisant l’équilibre entre maternité et carrière professionnelle. Sauf avis contraire du médecin, la maternité ne doit plus être un frein à la réussite sportive…

The Conversation

Moustapha Kamara a reçu une Bourse de recherche Havelange de la FIFA.

Allane Madanamoothoo et Daouda Coulibaly ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

17.03.2026 à 16:30

Iran : une civilisation hydraulique millénaire face à la crise de l’eau

Firouzeh Nahavandi, Professeure émérite, Université Libre de Bruxelles (ULB)

En Iran, des techniques anciennes ont longtemps permis de surmonter la rareté de l’eau. Mais l’urbanisation, l’industrialisation, la surexploitation des nappes phréatiques et la corruption ont provoqué une grave crise hydrique, aggravée par la guerre.
Texte intégral (2532 mots)

Pendant des siècles, les sociétés iraniennes ont développé des techniques sophistiquées pour gérer l’eau dans un environnement aride. Aujourd’hui, la surexploitation des ressources, les choix de développement, la corruption et les tensions géopolitiques transforment cette question vitale en l’un des défis majeurs de l’Iran contemporain – un défi encore accentué par la guerre en cours.


Situé dans la grande ceinture aride qui s’étend du Sahara à l’Asie centrale, l’Iran connaît depuis toujours des conditions climatiques difficiles. Dans de vastes régions du pays, l’eau est une ressource rare et précieuse. Cette contrainte a profondément façonné l’organisation des sociétés iraniennes. Très tôt, elles ont développé une véritable culture de la gestion de l’eau fondée sur l’adaptation aux contraintes naturelles et sur la préservation de la ressource. Mais cet équilibre fragile est aujourd’hui en train de se rompre.

L’histoire et l’évolution de ces systèmes hydrauliques ont été largement étudiées par les chercheurs, notamment dans les travaux d’Henri Goblot et de Willem Floor, ainsi que dans les analyses contemporaines de Kaveh Madani sur la crise hydrique iranienne.

Le qanat : une invention révolutionnaire

Le système hydraulique le plus emblématique est celui du qanat. Mis au point il y a plus de deux millénaires, il consiste en une galerie souterraine légèrement inclinée qui capte l’eau des nappes phréatiques situées dans les piémonts montagneux et la transporte vers les zones habitées ou agricoles.

Schéma d’un qanat. Хрюша/Wikipédia

Cette technique présente plusieurs avantages décisifs dans un climat désertique : l’eau circule sous terre et échappe largement à l’évaporation, l’écoulement lent protège les nappes phréatiques et le système fonctionne sans énergie mécanique.

L’un des exemples les plus impressionnants se trouve dans la ville de Gonabad, dans l’est du pays. Son qanat, inscrit au patrimoine mondial de l’Unesco, s’étend sur plus de 30 kilomètres et certaines galeries atteignent près de 300 mètres de profondeur. Construit il y a plus de deux mille cinq cents ans, ce réseau fonctionne encore aujourd’hui, illustrant le niveau d’ingénierie hydraulique atteint par les sociétés anciennes du plateau iranien.

Le qanat de Gonabad, photographié en 2015. Mohsen Tavasoli/Wikipédia, CC BY-NC

Les qanats n’étaient pas seulement une prouesse technique : ils reposaient aussi sur une organisation sociale élaborée. Dans les villages, la distribution de l’eau était assurée par un responsable appelé mirab, chargé de répartir les droits d’irrigation entre les agriculteurs selon un calendrier précis. Chaque famille disposait d’un temps déterminé pour irriguer ses terres.

Dans ces sociétés rurales, l’eau était considérée comme un bien commun soumis à une véritable « justice de l’eau » : détourner la ressource au détriment des autres membres de la communauté était perçu comme une faute grave.

La maîtrise de l’eau a également joué un rôle essentiel dans les grandes réalisations de l’Empire achéménide (v. 550-330 avant notre ère).

Le site de Persépolis témoigne d’une planification hydraulique remarquable. Les ingénieurs achéménides y avaient aménagé, quelque cinq cents ans avant notre ère, un réseau sophistiqué de canaux et de systèmes de drainage afin de protéger les bâtiments monumentaux contre les inondations saisonnières et assurer l’approvisionnement du complexe.

Outre les qanats, les villes iraniennes avaient développé d’autres infrastructures ingénieuses pour conserver l’eau. Les ab anbar, vastes citernes souterraines destinées au stockage de l’eau potable, permettaient de constituer des réserves pour les périodes de sécheresse. Elles étaient souvent associées à des tours de ventilation appelées bâdgir, qui captaient les vents dominants et permettaient de refroidir l’air ainsi que l’eau stockée.

Réservoir d’eau réfrigéré par des bâdgirs à Yazd (centre de l’Iran). StewartMcDowall/Wikivoyage

Du savoir-faire ancien à la crise contemporaine

Malgré cet héritage hydraulique remarquable, l’Iran est aujourd’hui confronté à une crise de l’eau d’une ampleur inédite. Les équilibres environnementaux qui avaient permis pendant des siècles une gestion relativement durable des ressources hydriques ont profondément changé au cours des dernières décennies.

Au début du XXᵉ siècle, l’Iran comptait plus de 50 000 qanats actifs qui alimentaient villes et terres agricoles. Aujourd’hui, une grande partie de ces réseaux est abandonnée ou asséchée. L’urbanisation rapide, le pompage intensif dans les nappes phréatiques et la transformation des systèmes agricoles ont profondément bouleversé les équilibres hydrologiques.

La centralisation administrative, les projets hydrauliques mal planifiés et la corruption dans l’attribution des concessions agricoles ou des infrastructures ont également contribué à fragiliser ou à détruire des systèmes traditionnels qui avaient pourtant fonctionné durablement pendant des siècles.

L’Iran reçoit aujourd’hui en moyenne environ 250 millimètres de précipitations par an, soit près de trois fois moins que la moyenne mondiale. Si cette contrainte climatique est ancienne, les politiques de développement adoptées depuis plusieurs décennies ont considérablement accentué les tensions environnementales.

L’agriculture absorbe près de 90 % des ressources hydriques du pays, souvent à travers des techniques d’irrigation peu efficaces. La multiplication des barrages et l’exploitation massive des nappes phréatiques ont profondément modifié les équilibres hydrologiques.

Des tensions sociales croissantes

La dégradation de l’environnement se manifeste désormais dans plusieurs régions du pays.

Le lac d’Ourmia, dans le nord-ouest de l’Iran, a perdu de 80 à 90 % de sa surface depuis les années 1990. La ville d’Ispahan offre un autre exemple révélateur : le fleuve Zayandeh Roud, qui traversait autrefois la ville, est aujourd’hui asséché.

Dans certaines régions, l’abaissement du niveau des nappes phréatiques provoque l’affaissement des sols, phénomène qui menace les infrastructures et les zones urbaines. Parallèlement, la dégradation des ressources hydriques accentue les tensions sociales dans les zones rurales, où l’accès à l’eau devient de plus en plus difficile pour les populations et les agriculteurs.

Dans la province du Khouzestan (au sud-ouest du pays), la pénurie d’eau potable, les tempêtes de poussière et la pollution industrielle ont également provoqué, ces dernières années, de nombreuses manifestations.

Cette situation contribue aussi à des migrations internes croissantes, certaines régions devenant de moins en moins habitables en raison de la raréfaction de l’eau et de la désertification.

La crise est devenue si profonde que certains responsables iraniens ont même évoqué l’idée de déplacer la capitale hors de Téhéran – une hypothèse longtemps impensable qui révèle l’ampleur des déséquilibres environnementaux et démographiques auxquels la métropole est aujourd’hui confrontée.

La guerre actuelle pourrait transformer la crise de l’eau en catastrophe

Dans un pays déjà frappé par une pénurie d’eau structurelle, la guerre déclenchée le 28 février dernier peut agir comme un puissant accélérateur de crise. Des frappes contre les infrastructures énergétiques ou industrielles majeures, conjuguées aux désorganisations économiques, feraient peser une pression supplémentaire sur des ressources hydriques déjà au bord de l’épuisement.

Car, au-delà des affrontements militaires, c’est peut-être la bataille pour l’eau qui déterminera l’avenir du pays.

La crise hydrique que traverse l’Iran dépasse largement la seule question environnementale. Elle résulte d’un enchevêtrement de transformations profondes : croissance démographique rapide, politiques agricoles intensives, urbanisation accélérée et abandon progressif des systèmes hydrauliques traditionnels qui avaient pourtant permis pendant des siècles de gérer la rareté de l’eau sur le plateau iranien. L’assèchement de nombreux aquifères, la disparition de lacs et de zones humides ainsi que la surexploitation des nappes souterraines témoignent de l’ampleur du déséquilibre écologique auquel le pays est désormais confronté.

À ces fragilités structurelles s’ajoutent aujourd’hui des tensions économiques et géopolitiques susceptibles d’accentuer encore les pressions sur les ressources naturelles. Dans un tel contexte, la question de l’eau ne relève plus seulement de la gestion environnementale : elle devient un enjeu central de stabilité économique, sociale et politique.

Car, dans un pays façonné depuis des millénaires par la rareté de l’eau, sa disparition progressive n’est pas seulement une crise écologique : elle menace un équilibre historique entre société, territoire et ressources.

The Conversation

Firouzeh Nahavandi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

17.03.2026 à 16:29

Les microbes qui vivent sur les feuilles : un monde invisible essentiel à la santé des plantes

Mathilde Bouteiller, Chargée de recherche en microbiologie & biologie moléculaire de l'unité AGHYLE, UniLaSalle

Guillemette Garry, Enseignante chercheure en biologie option phytopathologie, associée à l'Unité de recherche Aghyle, UniLaSalle

Les plantes aussi ont un microbiote. Ces milliers de microorganismes qui vivent sur les feuilles cachent pleins de potentiels pour améliorer leur croissance ou leur rendement.
Texte intégral (3049 mots)
Plant de tomate, feuille de tomate avec du microbiote cultivable et empreinte de feuille sur boîte de Pétri. Fourni par l'auteur

Les humains ne sont pas les seuls à être dotés de microbiotes. Les plantes aussi. Les milliers de microorganismes qui vivent sur leurs feuilles sont encore peu connus, mais pleins de potentiels pour accroître leur croissance ou améliorer leur rendement, ou encore leur résistance au stress.


À l’heure où l’utilisation des pesticides et des engrais de synthèse pose de plus en plus question, des alternatives efficaces doivent être trouvées. Parmi les solutions qui sont à l’étude, l’utilisation de produits d’origine naturelle, aussi appelés biosolutions, montre des résultats prometteurs.

Les biostimulants font partie de ces alternatives. Ils peuvent être de diverses origines et contiennent par exemple des extraits d’algues, des microorganismes, comme des champignons ou des bactéries, des extraits végétaux, des acides aminés… On les applique de multiples manières, en les pulvérisant sur les feuilles, en enrobant les graines ou directement dans le sol.

Ces produits fonctionnent en stimulant les processus biologiques naturels des plantes pour améliorer leur nutrition, leur croissance, leur rendement ou leur résistance au stress. Là où un engrais va apporter directement un élément nutritif (comme l’azote, le phosphore, le potassium) propice à la croissance des plantes et où un pesticide sera utilisé pour éradiquer les agresseurs des plantes, les biostimulants vont, eux, permettre à la plante d’augmenter ses propres capacités.

Quels sont les avantages à utiliser des biostimulants foliaires ?

Il existe ainsi plusieurs avantages à utiliser des traitements foliaires plutôt que des traitements au sol.

Premièrement, ces traitements ont une activité plus rapide puisque la solution va pouvoir agir directement sur le métabolisme de la plante, sans trop dépendre de l’environnement très complexe que représente le sol. De plus, les doses utilisées en traitement foliaire sont bien moins importantes que lors d’une application au sol, ce qui rend ces traitements moins onéreux.

Par ailleurs, il est fréquent d’appliquer ce type de traitement en association avec d’autres traitements foliaires (herbicide, fongicide), dont l’effet négatif semble contrebalancé par l’effet du biostimulant.

Quelle est l’influence des biostimulants sur les microbiotes de la plante ?

Ce qui rend également les biostimulants particulièrement intéressants réside dans leur possibilité d’interagir avec le microbiote des plantes. Car les humains ne sont pas les seuls à vivre aux contacts d’une myriade de bactéries, de champignons, et autres microorganismes, qui exercent des fonctions importantes.

Les organismes présents dans les microbiotes de la plante comprennent :

  • des bactéries (microorganismes unicellulaires sans noyau) ;

  • des archées (microorganismes unicellulaires sans noyau formant un règne à part entière différent des bactéries) ;

  • des champignons pluricellulaires produisant du mycélium ;

  • des champignons unicellulaires (comme les levures) ;

  • des algues (végétaux unicellulaires) et des protistes (cellules unicellulaires non classifiables dans le règne animal, végétal ou fongique) ;

  • des virus et des bactériophages (virus qui attaque exclusivement les bactéries).

Chez les végétaux, ces microorganismes sont notamment présents au niveau des sols, des racines et des parties aériennes (tiges, feuilles, fruits et fleurs).

Les biosolutions ou les produits de lutte chimique vont être directement en contact avec ces microorganismes qui constituent le microbiote de la plante.

Plusieurs études ont déjà montré l’impact des biostimulants sur le microbiote au niveau des racines et du sol. Ces microorganismes du sol et des racines sont regroupés sous le nom de rhizosphère. Des biosolutions appliqués au sol sont, par exemple, capables de modifier les communautés microbiennes du sol, notamment en augmentant l’abondance en champignons mycorhiziens (champignons connus pour améliorer l’acquisition de nutriments par les plantes, qui favoriseraient la croissance et le rendement des cultures).

Malheureusement, à l’heure actuelle, peu d’études sur les microorganismes présents au niveau des parties aériennes des plantes, aussi appelés phyllosphère, sont recensées. Pourtant, nous savons que ces microorganismes exercent une activité globalement positive sur les plantes hôtes et qu’ils sont directement influencés par les produits appliqués sur les feuilles.

Fourni par l'auteur

Au sein de la phyllosphère, les microorganismes sont capables d’interagir entre eux ainsi qu’avec leurs plantes hôtes avec lesquelles ils entretiennent une relation symbiotique, c’est-à-dire une association biologique, durable et réciproquement profitable, entre deux organismes vivants.

De ce fait, ce microbiote joue un rôle important dans le développement et la nutrition des plantes. Par ailleurs, comme cela est observé pour le microbiote cutané chez l’humain, la présence de microorganismes sur la surface des parties aériennes permet à la plante de se protéger et de prévenir de l’attaque d’organismes pathogènes. Une étude montre par exemple que certains membres de la communauté microbienne des feuilles fournissent une protection significative contre un agent pathogène chez l’arabette des dames, une plante à fleur très commune en Europe.

Mais pour mieux comprendre toutes les potentialités des alliances bénéfiques qui se jouent au niveau des feuilles des plantes, point de mystère, il faut mieux les connaître, et les étudier.

Étudier la phyllosphère

Pour étudier les microbiotes, on analyse généralement l’ADN des microorganismes.

La métagénomique est une méthode d’analyse fondée sur la technique de séquençage des ADN (déterminer la séquence des bases de tous les gènes du génome) d’un environnement donné. Avec cette méthode, l’étude des microorganismes prédominants dans un milieu spécifique est possible grâce à l’identification de ces microorganismes, en comparant leurs séquences avec des séquences de microorganismes déjà identifiés dans des bases de données appelées BLAST. Avec la métagénomique, on peut également connaître les fonctions que jouent ces microorganismes. Ces techniques, très à la mode, sont utilisées puisqu’elles présentent l’avantage de ne pas être basées sur la mise en culture de microorganismes parfois très difficile voire impossible.

Cependant, les études basées sur l’ADN ne permettent pas de distinguer l’ADN de microorganismes morts ou vivants et de savoir si ces microorganismes sont actifs. Au sein du laboratoire AGHYLE, le microbiote de la phyllosphère est donc étudié en parallèle par la mise en culture de certains microorganismes sur boîte de Pétri, bien que ces derniers ne représentent que quelques pourcents du microbiote total.

Les bactéries obtenues et isolées de la phyllosphère présentent généralement une grande diversité de couleur, de texture et d’aspect. La coloration permet aux microorganismes de mieux résister aux UV, ce qui est un avantage sélectif, car ils doivent être capables de résister aux rayons du soleil à la différence de ceux de la rhizosphère. Certaines bactéries forment des colonies très mucoïdes (grasses) ce qui les rendent également plus résistantes à la sécheresse.

Fourni par l'auteur

Plusieurs études indiquent que des microorganismes provenant de la phyllosphère présentent des activités bénéfiques pour les plantes. Par exemple, sur la phyllosphère, les bactéries Methylobacterium sont reconnues pour stimuler la croissance des plantes et les protéger des bioagresseurs.

D’autres bactéries isolées de la phyllosphère de la tomate, comme Bacillus velezensis 83, sont également dotées de capacité de stimulation de la croissance des plantes et de protection des cultures.

Au sein du laboratoire, nous avons identifié des bactéries et les champignons isolés de la phyllosphère de la tomate Solanum lycopersicum (variété MicroTom) et du maïs (Zea mays L. variété DATABAZ). En comparant les séquences d’ADN obtenues avec une banque de données internationales (BLAST), nous avons pu identifier le genre et parfois aussi l’espèce de ces microorganismes et vérifier qu’ils s’agissaient bien de microorganismes connus et provenant de la phyllosphère.

Parmi les microorganismes identifiés, plusieurs sont connus dans la littérature et pourraient appartenir aux bactéries ou aux champignons promoteurs de la croissance des plantes et/ou présenter des effets de biocontrôle. D’autres ne sont que partiellement identifiés, et nous ne pouvons donc pas encore savoir s’ils sont bénéfiques ou pathogènes.

Fourni par l'auteur

Bien qu’il soit possible d’utiliser directement des bactéries ou des champignons isolés de l’environnement naturel pour booster la croissance et la protection des plantes, la colonisation et la capacité des microorganismes à fonctionner en champ reste difficile à prévoir.

De plus, le stockage de microorganismes est bien plus compliqué que ne l’est un biostimulant. Dans ce sens, le développement de solutions agissant directement sur les microorganismes déjà présents sur les plantes, reste une alternative prometteuse pour l’agriculture. Ainsi, pour tester des biostimulants de manière peu onéreuse et rapide, nous réalisons au laboratoire des tests in vitro (en boîte de Pétri) sur les microorganismes de la phyllosphère. Le développement des microorganismes est suivi au cours du temps et la morphologie du développement bactérien et mycélien est observée.

Fourni par l'auteur

Dans la figure ci-dessus, on observe l’effet d’un biostimulant foliaire sur un champignon, isolé de la phyllosphère du maïs. Bien que la taille du mycélium ne semble pas impactée, la présence du biostimulant semble affecter le champignon. Mais plusieurs questions restent en suspens : est-ce que ce biostimulant induit la même chose chez tous les microorganismes de la phyllosphère ? Ne va-t-il pas stimuler la croissance d’organismes pathogènes ?

Ces résultats préliminaires offrent des perspectives intéressantes, mais doivent encore être approfondis.

The Conversation

Les premières expérimentations portant sur la phyllosphère ont été initiées dans le cadre des travaux menés au sein de la Chaire Biomes, en partenariat avec l’entreprise Gaïago.

Guillemette Garry ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

17.03.2026 à 16:28

Violences sexuelles au collège : ce que ne disent pas les chiffres officiels

Margot Déage, Maîtresse de conférences en sociologie, Université Grenoble Alpes (UGA)

Début 2026, le ministère de l’éducation a lancé l’alerte sur les violences sexistes et sexuelles en milieu scolaire. Mais les données officielles permettent-elles de bien saisir l’ampleur du phénomène ?
Texte intégral (1726 mots)

Début 2026, le ministère de l’éducation nationale a lancé l’alerte sur les violences sexistes et sexuelles en milieu scolaire. Près de 15 % des filles et 12 % des garçons auraient été exposés à au moins une forme de violence sexuelle, selon la dernière enquête de victimation du ministère. Mais ces données officielles reflètent-elles toute l’ampleur du phénomène ? Une autre enquête, menée en Île-de-France pour le Centre Hubertine-Auclert pour l’égalité femmes-hommes, estime qu’environ un élève sur deux serait concerné. Explications.


Le 29 janvier 2026, le gouvernement a publié un communiqué de presse sur les violences sexistes et sexuelles en milieu scolaire. On y apprend qu’au collège, « 15 % des filles et 12 % des garçons déclarent avoir été exposés à au moins une forme de violence sexuelle ».

Ces chiffres renvoient aux données collectées dans une enquête de climat scolaire et de victimation réalisée par le ministère de l’éducation nationale au printemps 2022. Concrètement, cette enquête interroge les élèves sur des faits survenus depuis le début de l’année scolaire : atteintes aux biens, attaques physiques, psychologiques et sexuelles. Celles-ci recouvrent le voyeurisme dans les toilettes ou les vestiaires, les attouchements, les caresses au sein du collège ou à proximité et les baisers forcés. Les violences sexuelles y sont donc appréhendées essentiellement en présentiel. Les cyberviolences font l’objet d’une catégorie distincte, incluant notamment le visionnage non consenti d’images à caractère sexuel, qui concerne 4,4 % des collégiens et collégiennes.

Malgré l’absence de données sur l’effet du numérique sur les violences sexuelles, le communiqué désigne les réseaux sociaux comme « un puissant facteur d’amplification de ces violences » et appelle à une interdiction des plateformes numériques avant 15 ans. Cette lecture appelle discussion.

Des violences sexuelles plus fréquentes qu’annoncé

Au printemps 2023, nous avons conduit pour le Centre Hubertine-Auclert une étude sur les (cyber)violences de genre à l’adolescence. Celles-ci sont définies comme tout acte préjudiciable commis contre une personne en raison de son sexe ou de sa non-conformité aux rôles de genre, en face-à-face ou dans l’espace numérique. L’objectif était notamment de documenter finement les violences sexuelles et leur circulation entre espaces scolaires, extérieurs et numériques.

L’enquête a été menée dans 14 établissements d’Île-de-France, représentatifs de la région, auprès d’élèves de la sixième à la terminale. Parmi les 1 669 réponses recueillies au collège, 847 proviennent de filles, 801 de garçons et 21 de personnes non binaires.

Premier constat : 43 % des collégiens et collégiennes déclarent avoir subi au moins une forme de violence sexuelle au cours de l’année écoulée. Les filles et les personnes non binaires sont plus nombreux à rapporter au moins une forme de violence sexuelle (44 % contre 41 % des garçons).

Ces chiffres sont sans commune mesure avec ceux issus de l’enquête institutionnelle. Pourquoi un tel écart ? Essentiellement parce que le périmètre des faits étudiés diffère.

Notre enquête inclut, au-delà des agressions et attouchements, des violences souvent minimisées ou invisibilisées : les outrages sexuels (36 %), comme les mimes sexuels (22 %), les propos sexuels imposés (20 %), les sollicitations sexuelles insistantes (9 %) et le visionnage forcé d’images sexuelles (12 %) ; les agressions sexuelles (14 %), comme les attouchements (11 %) et les baisers forcés (7 %) ; ou encore, les atteintes à l’image intime (7 %), comme la réalisation forcée d’image intime (3 %), la sextorsion (4 %), la divulgation (3 %), le vol (2 %) ou encore le montage d’image intime (1 %). Par ailleurs, 2 % des collégiennes et collégiens ont déclaré avoir subi d’autres formes de violences sexuelles, un chiffre qui inclut potentiellement des viols.

Dans 71 % des cas, les auteurs sont des garçons mineurs qui agissent seuls (47 %) ou en groupe (24 %).

Autrement dit, lorsqu’on s’intéresse à l’entièreté du continuum de violences sexuelles, leur ampleur apparaît bien plus importante.

Où ces violences ont-elles lieu ?

Deuxième constat : les violences sexuelles sont plus fréquentes dans l’établissement scolaire qu’ailleurs.

Sur l’ensemble des faits rapportés, 43 % se sont produits dans l’espace scolaire, 24 % dans l’espace numérique et 5 % à la fois en ligne et au collège. Les 29 % restants ont eu lieu à l’extérieur (dans des espaces privés ou publics en présentiel).

La plupart des violences sexuelles se produisent très majoritairement dans le cadre scolaire, comme les agressions (53 % contre 3 % en ligne et 1 % en hybride) ou les outrages (46 % contre 24 % en ligne et 6 % en hybride).

Campagne de communication du gouvernement  : « Réagir peut tout changer » (2018).

Ce sont les atteintes à l’image intime qui sont les plus fréquemment commises en ligne (63 % contre 8 % au collège et 5 % en hybride). Ces violences sont en effet facilitées par les outils numériques qui permettent de capturer, de sauvegarder, d’éditer et de diffuser des images. Néanmoins, 15 % des actes de sextorsion (et 4 % en hybride) et 9 % des divulgations d’image intime (et 11 % en hybride) ont eu lieu dans l’enceinte scolaire, ce qui suggère la persistance de formes de captation et de diffusion d’images déconnectées des réseaux sociaux.

Ces résultats invitent à penser la porosité et l’imbrication des violences entre les espaces numériques et scolaires. Une image produite sous contrainte dans une chambre peut être imprimée et diffusée au collège ; un mime sexuel en classe peut être filmé et partagé sur une messagerie, etc.

Le numérique, amplificateur ou révélateur ?

Attribuer aux seuls réseaux sociaux la responsabilité des violences sexuelles pose plusieurs problèmes.

D’une part, la majorité des violences recensées se déroulent principalement dans l’espace scolaire. En d’autres termes, les violences sexuelles n’ont pas besoin des plateformes numériques pour exister, et c’est d’abord au collège qu’il faut agir. Ces plateformes jouent plutôt un rôle de révélateur des violences, qui en amplifient certaines dimensions : l’extension du public, le partage d’informations et d’images personnelles, la permanence des contenus, la vraisemblance des rumeurs, la libération des paroles toxiques ou le sentiment d’impunité.

Les (cyber)violences sexuelles s’inscrivent dans des enjeux de réputation propres aux sociabilités juvéniles. Les plateformes numériques ne créent pas ex nihilo les normes de genre, mais elles en accélèrent la circulation et en renforcent la visibilité. Une image intime diffusée sans consentement peut ainsi produire une stigmatisation durable, particulièrement pour les filles.

Interdire l’accès aux plateformes avant 15 ans ne saurait donc constituer une réponse suffisante. Une telle mesure laisse intacts les dynamiques de genre et les rapports de pouvoir qui structurent les interactions adolescentes, en ligne comme au collège.

Décloisonner les politiques de prévention

Pour changer la donne, il faut d’abord reconnaître l’ampleur réelle des violences sexuelles à l’adolescence, ce qui suppose d’en élargir la définition. Il est nécessaire également de décloisonner les dispositifs existants. Les programmes de lutte contre le harcèlement (comme le programme Phare), l’éducation aux médias et à l’information (EMI) et l’éducation à la vie affective, relationnelle et sexuelle (Evars) travaillent encore en silos. Or, nos données montrent que les violences sexuelles se situent précisément à l’intersection de ces champs : rapports de genre, usages numériques, dynamiques de groupe.

Une prévention efficace suppose d’articuler ces dimensions : travailler sur les normes de genre, sur le consentement, sur la gestion des images et des données personnelles, mais aussi sur les logiques de réputation, de confidentialité et de modération propres aux réseaux sociaux.

Enfin, les actions doivent associer les élèves eux-mêmes pour qu’elles et ils apprennent à reconnaître les violences sexuelles, qu’elles et ils se sentent légitimes pour les contester. La plateforme de sensibilisation « Gênant, surtout violent » propose des ressources pédagogiques pour objectiver des situations souvent banalisées.

En définitive, la question n’est pas de choisir entre régulation du numérique et action éducative. Elle est de comprendre que les violences sexuelles à l’adolescence forment un système relationnel qui traverse les espaces. Car, si le numérique transforme les modalités de circulation des violences, le problème premier réside dans la persistance de rapports de genre inégalitaires, que l’école a précisément pour mission de déconstruire.

The Conversation

Margot Déage a reçu des financements du Ministère de l'Éducation nationale et de la Région Île-de-France pour réaliser l'enquête présentée dans cet article.

PDF

17.03.2026 à 16:27

Les seniors au travail ne sont pas ceux que vous croyez. Et c’est aussi pour cela que la guerre des générations n’existe pas

Hippolyte d’Albis, Professeur, ESSEC

Revoyez toutes vos idées reçues. Les seniors au travail ne sont pas forcément ceux que vous croyez. Comme l’ensemble de la société, ils ont changé.
Texte intégral (1558 mots)

[Bonnes feuilles] Régulièrement, l’existence d’une opposition irréconciliable entre les seniors et les plus jeunes est mise en avant. Pour payer les retraites de premiers, on sacrifierait l’avenir de la jeunesse. Cette opinion régulièrement reprise ne résiste pas à l’examen des faits, estime l’économiste Hippolyte d’Albis.

Dans Economie des âges de la vie (Editions Odile Jacob), il décrypte, au-delà des fausses évidences et du bon sens, la réalité des flux financiers entre les générations. Dans l’extrait que nous publions, Hippolyte d’Albis revient sur le profil des salariés seniors… en opposant des faits aux clichés. À commencer par le fait que le boomer est souvent une boomeuse. OK ?


Contrairement aux pratiques managériales, les employés seniors ont changé. Le plus étonnant est finalement ce retournement de situation à la fin des années 1990, marqué par le retour des 55-64 ans sur le marché du travail. Examinons les causes profondes de cette révolution pour la comprendre et identifier ce qui permettrait de l’amplifier.

Le point crucial est que la population des seniors a changé car elle est en meilleure santé, plus qualifiée et plus féminisée. Les seniors ont tout d’abord rajeuni car ils sont en meilleure santé et physiquement plus aptes à travailler. L’état de santé d’un groupe de personnes peut être synthétisé par son risque de décès dans l’année. En 2023, le risque pour une personne de 60 ans était de 0,6 %, soit celui d’une personne de 54 ans trente ans plus tôt. Cette amélioration impressionnante de la santé humaine à ces âges explique en partie le maintien en emploi des seniors. Les progrès dans la prévention et le traitement des maladies cardiovasculaires, de certains cancers et du diabète ont directement profité à l’économie en préservant la population active. Or on oublie trop souvent que les politiques de santé publique sont aussi des politiques économiques.

Il ne faut cependant pas nier le vieillissement des corps : même s’il est faible, le risque de décès d’une personne de 60 ans reste près de cinq fois plus élevé que celui d’une personne de 40 ans. Les questions d’ergonomie, de pénibilité et d’aménagement des horaires deviennent ainsi de plus en plus cruciales avec l’âge. Elles ne doivent ni être éludées, ni considérées comme des coûts inutiles ou subis. Les organisations doivent se défaire de la représentation type du salarié, forcément trentenaire et évidemment jamais malade et toujours enthousiaste. Reconnaître la diversité physiologique est une première étape nécessaire pour une meilleure inclusion des seniors dans le monde du travail.

Des seniors de plus en plus qualifiés

L’évolution de la population des seniors est marquée par une nette élévation de leur niveau de qualification. Aujourd’hui, près de 30 % des 55-64 ans sont diplômés de l’enseignement supérieur, contre moins de 9 % il y a trente ans. Cette progression influence leur emploi de deux manières. D’une part, les études supérieures retardent mécaniquement leur entrée sur le marché du travail. D’autre part, elles renforcent leur capacité à s’adapter aux mutations organisationnelles et technologiques.


À lire aussi : Non la jeunesse n'est pas sacrifiée ! ou ce que révèle l'étude des transferts intergénérationnels


Avec des carrières qui s’étendent sur quarante ans, la nécessité de se former en continu et, parfois, de se reconvertir devient incontournable. Les pays où le taux d’emploi des seniors est le plus élevé sont d’ailleurs ceux qui ont intégré depuis longtemps la formation tout au long de la vie, notamment bien avant l’âge de 50 ans. Les reconversions professionnelles, comme celles des militaires qui quittent l’uniforme en milieu de carrière pour exercer un métier civil, montrent que ces transitions sont non seulement possibles, mais aussi bénéfiques. Elles méritent d’être mieux acceptées et valorisées afin d’être généralisées.

Des défis pour la gestion des carrières

Dans les années à venir, l’arrivée massive de seniors diplômés du supérieur – près de la moitié des 35-44 ans le sont déjà – va marquer le paysage professionnel. Si cette démocratisation des études supérieures est une tendance positive, elle présente aussi des défis pour la gestion des carrières des seniors. D’un côté, ces diplômes ouvrent l’accès à des métiers mieux rémunérés, plus stimulants ou socialement valorisants, ce qui encourage la prolongation de l’activité. Ceux qui prolongent le plus leur vie professionnelle sont typiquement les médecins, les artistes, les scientifiques ou les entrepreneurs. De l’autre, les diplômés attachent une importance croissante au sens de leur travail, ce qui explique que certaines trajectoires professionnelles génèrent des sentiments de frustration ou de déclassement.

Un exemple frappant est celui des jeunes diplômés recrutés sur des postes d’expertise qui évoluent vers des fonctions managériales, parfois avant même d’atteindre la quarantaine. Or ces postes, exigeants physiquement et psychologiquement, poussent après quelques années certains à vouloir céder leur place. En France, cependant, les opportunités pour les anciens managers restent limitées. La logique hiérarchique et une certaine conception de l’honneur rendent difficile l’idée de se retrouver sous la direction d’une personne qu’on a autrefois dirigée. Face à la prochaine arrivée massive de diplômés seniors, de nombreuses pratiques restent à réinventer.

La révolution des boomeuses

Les seniors ont aussi changé du fait de leur féminisation, décisive depuis l’arrivée des baby-boomeuses. Le taux d’emploi des femmes entre 55 et 64 ans est aujourd’hui proche de 60 %, soit près du double de ce qu’il était au début du siècle. Toutes les politiques permettant le maintien en emploi des femmes après leur maternité sont par ricochet favorables à l’emploi des seniors. Ainsi, les congés maternité courts et bien compensés, les dispositifs efficaces permettant la garde des enfants et les politiques d’entreprises conciliantes doivent être encouragés et renforcés. La féminisation du salariat a engendré une révolution dans les organisations en imposant progressivement l’idée qu’elles devaient permettre la conciliation des vies personnelles et professionnelles. Les enfants ont ainsi fait irruption dans les discussions du monde du travail et les contraintes qu’ils imposent à leurs parents sont mieux prises en compte par les managers.


À lire aussi : L’emploi des seniors : une culture des âges à faire évoluer ?


La question des équilibres de vie se pose aussi après 55 ans, mais pas dans les mêmes termes qu’à 30 ans : s’il n’y a plus d’enfants à récupérer à la crèche, il y a parfois un parent devenu dépendant dont il serait bien de se soucier. Cette réalité est encore aujourd’hui taboue dans les entreprises et administrations où l’on parle des enfants mais pas des personnes âgées. Ainsi, une mère qui a pu s’absenter pour emmener sa fille chez le médecin ne pourra pas, vingt ans plus tard, faire de même avec sa propre mère. La conciliation des vies personnelles et professionnelles doit être pensée tout au long de la carrière.

Le 14 octobre 2025, lors de sa déclaration de politique générale devant la représentation nationale, le nouveau premier ministre Sébastien Lecornu annonce la suspension jusqu’à la prochaine élection présidentielle de la réforme des retraites votée en 2023. Pour éviter la censure de son gouvernement, il offre à la cohorte 68 la possibilité de partir plus tôt en retraite, mais prive le système de ressources nécessaires au financement des pensions qu’il s’est engagé à verser. L’équilibre des régimes de retraites est une équation très simple, avec finalement peu de paramètres. L’allongement de la durée du travail en est un essentiel mais il est évident qu’il faut accompagner les personnes concernées. Profitons de cette suspension pour modifier nos organisations, écouter les attentes des travailleurs concernés, et préparer les prochains reports de l’âge de la retraite, qui inéluctablement devront être assumés.

The Conversation

Hippolyte d’Albis a reçu des financements de l'ANR.

PDF

17.03.2026 à 16:26

« Pétrole » de Pasolini adapté au théâtre : le dévoilement de l’obscénité fossile

Frédéric Caille, Maître de Conférences HDR en Science Politique, ENS de Lyon

Le texte inclassable de Pasolini, mis en scène au théâtre, démontre combien la culture occidentale contemporaine est imprégnée par les énergies fossiles.
Texte intégral (2638 mots)

Avec son texte Pétrole, récemment adapté au théâtre par Sylvain Creuzevault, Pasolini livre une œuvre visionnaire, dans laquelle l’industrie fossile apparaît comme une force de destruction implacable, imprégnant en profondeur l’imaginaire occidental.


Peu après la COP30, dix ans après la prise de conscience officielle par le genre « homo sapiens » de sa contribution active à la destruction irrémédiable de sa propre biosphère, sur la scène nationale de Bonlieu, à Annecy (Haute-Savoie), le metteur en scène Sylvain Creuzevault a inauguré son adaptation théâtrale du texte posthume et visionnaire de l’écrivain, poète et cinéaste italien Pier Paolo Pasolini, Pétrole.

Cette œuvre foisonnante, baroque, inclassable, où se mêlent l’enquête, la critique littéraire, la déconstruction de la sexualité moderne et de ses liens intimes au pouvoir et à l’ordre socio-économique du capitalisme international, est un texte qui anticipe de manière saisissante sur la mise au jour actuelle par la théorie critique anglo-saxonne des dimensions les plus sombres et inconscientes de l’imprégnation par les énergies fossiles de la culture occidentale contemporaine, telle que la décrit l’artiste et activiste Brett Bloom dans son essai Petro-Subjectivity : De-Industrializing Our Sense of Self (2015) (non traduit en français) :

« La pétro-subjectivité est quelque chose que chacun d’entre nous vit constamment. C’est une perception de soi et du monde qui façonne notre identité et notre façon de penser. Elle découle en partie du fait que l’utilisation du pétrole est présente dans tout ce que nous faisons. Elle a façonné les concepts qui régissent notre pensée. Notre utilisation du langage et les concepts fondamentaux qui structurent notre existence sont imprégnés de la logique des relations pétrolières et forment l’univers métaphorique dans lequel nous baignons lorsque nous parlons entre nous de qui nous sommes, de ce que nous faisons et de ce qui compose le monde qui nous entoure. » (Traduction de l’éditrice, ndlr)

Enquête sur le pétropouvoir

« Pétromasculinité », « pétrosexualité », « pétropornographie », « pétro ou carbofascisme », « pétrosubjectivité » : tels sont les concepts qu’évoquent et exposent, avec les mots et les visions de Pasolini, Sylvain Creuzevault et ses comédiennes et comédiens. Le propos échappe de fait à la seule évaluation esthétique et scénique, tant le texte Pétrole s’est en effet aussi construit, chez son propre auteur, sur la base d’une enquête concernant le « [ pétropouvoir] » central de l’Italie du vingtième siècle : l’ENI (Entente Nazionale Idrocarburi).

Cet organisme de supervision de la recherche, de l’achat et de la distribution des ressources énergétiques pétrolières du pays, équivalent de la Compagnie française des pétroles (CFP), ancêtre de Total, et super-major pétrolière (9e mondiale, présente dans 69 pays, 28 000 employés et première entreprise d’Italie aujourd’hui encore), est présidée à partir de 1953 par Enrico Mattei, modèle du personnage d’Ernesto Bonocore dans le texte de Pasolini. Mattei est tué dans un accident d’avion, sans doute commandité par le vice-président de la compagnie – qui lui succède en 1962 – et dans son projet « Naphta », le jeune artiste français Gaëtan Bas Lorant a mené récemment une enquête sur les lieux et témoins de cet évènement.

Corruption universelle

La corruption du monde de l’industrie pétrolière, mais surtout ses liens intimes à la corruption de la vie, des corps, des imaginaires et des idéaux des jeunes Italiennes et Italiens de l’après-guerre est au centre du roman de Pasolini. La sexualité, sous une forme provocatrice et non maîtrisée surgit en de nombreuses scènes du livre et de l’adaptation théâtrale, qui n’en contourne pas, et même parfois en surligne, la violence exercée sur les autres et sur soi-même (surtout pour le héros Carlo), ainsi que le caractère profondément insatisfaisant et destructeur.

Cette sexualité mortifère est utilisée et interrogée par Pasolini à la fois comme un corrélat logique, corporel, intime et subjectif de sa dénonciation géopolitique du capitalisme « faschisto-fossile » qu’incarne l’ENI, et comme une allégorie de l’hubris qui soutient plus profondément le développement et l’usage de l’industrie pétrolière. La transgression des limites et la démesure « s’écoulent » littéralement de « l’or noir » pour toucher les dirigeants des entreprises d’approvisionnement ou de diversification (notamment dans la pétrochimie et le plastique), en même temps que chaque Italienne ou Italien accédant à l’automobile et à la société de consommation.

Cette hubris, certes, est pour Pasolini, au moins partiellement, une hubris de classe, associée au « plus fasciste des pouvoirs que l’Italie ait connu », selon ses propres termes, dissimulé sous les apparences trompeuses de la social-démocratie. Le recyclage des dirigeants et des capitaux fascistes, au nom de la grandeur nationale, est ainsi un axe de dénonciation politique central, directement repris de l’enquête et des sources sur lesquelles s’appuie Pasolini.

Au centre du livre de Pasolini se trouve l’ouvrage du mystérieux Steimetz qui, à ce jour pourtant non identifié, contacte et rencontre Pasolini à deux reprises dans le scénario du film la Machination. L’affaire Pasolini (2019) avant d’y être assassiné. Le scénario du film tire vers la manipulation politique l’essentiel de la démarche profonde à l’origine de l’écriture de Pétrole, mais également les causes de l’assassinat de Pasolini, qui y est montré comme parfaitement prémédité. À l’inverse, quelques années plus tôt, le Pasolini d’Abel Ferrara (2014), qui se déroule durant les derniers jours de son existence, privilégie le meurtre crapuleux et homophobe.

En synthétisant de ce point de vue le propos de Pasolini, on peut dire que dans certaines des scènes récurrentes de la pièce, il s’agit pour l’auteur de nous faire prendre conscience que, quand bien même l’on appartient à la bourgeoisie libérale de gauche, que l’on soit au Parti communiste, que l’on aime le jazz, la mixité, l’art moderne, pour sa propre satisfaction hédoniste, on se trouve objectivement et structurellement complice et associé aux machinations prédatrices, néocoloniales et destructrices de la planète conduites en sous-main par les grandes entreprises pétrolières.

C’est en effet cette mise à jour que Pasolini veut exprimer durant les trois années de travail qu’il consacre à son texte. Une mise à jour inextricablement – c’est la leçon qu’il tend à notre époque – intime et collective, et où résonnent en échos les inclinations masculinistes et machistes les plus communes. Elles sont formidablement incarnées dans la pièce, par le héros lui-même en ses deux « êtres » contradictoires, ou par d’autres « hommes puissants » soumis à la peur-fascination de l’homosexualité et de la femme (extrémisé jusqu’à l’inceste avec la mère), à l’attrait de la consommation sexuelle bourgeoise tarifée de jeunes filles et garçons de catégories populaires, et même à l’humiliation-attirance pour les personnes du Moyen-Orient, lieu où se trouve le pétrole, et où les individus reprennent et endossent à leur tour l’indécence et la violence de l’hubris fossile.

Un jeu de société édité en 1973, en plein accord avec l’imaginaire de la conquête des énergies fossiles et de leurs promesses de puissance que déconstruit l’œuvre-monstre de Pier Paolo Pasolini.

Déchéance et ambivalence

Pasolini, c’est là son génie, malgré une force de propos (magnifiée par la mise en scène), qui peut décontenancer une part du public, explore la déchéance de nos êtres profonds. Il dévoile nos pantomimes et la dégradation dans laquelle nous entraîne inexorablement le pacte signé avec le diable fossile. L’inoubliable personnage d’Aldo Troya (Eugenio Cefis, 1921-2004 dans la vraie vie), commanditaire probable lié à la CIA américaine du meurtre de Mattei, l’incarne de manière inoubliable. Fasciste dissimulé et homme du moment, il mène à la fin d’une civilisation en prétendant travailler à la grandeur du pays et révèle son ambivalence par son patronyme inventé par Pasolini : « le Troyen », « la truie » (voir les « notes 36-40 » et les remarques du traducteur René de Ceccatty dans la dernière édition de Pétrole, Gallimard 2022). La pièce suit précisément son destin et son « bond en avant dû non pas tant à une volonté ambitieuse qu’à l’accumulation objective et massive des forces guidées par cette volonté », ainsi que l’écrit Pasolini.

Pétrole est donc l’histoire d’une déchéance qui est celle du personnage principal, mais en quelque mesure aussi bien entendu, telle est la force du poète-prophète dont Pasolini enfile la toge, la nôtre. Elle culmine peut-être dans ce moment de la pièce où le héros, nu et debout comme un mâle humain urinant, tient le tuyau d’une pompe à pétrole qui inonde la scène comme aujourd’hui la nuit fossile menace de recouvrir le monde.

« Tous victimes et tous coupables »

Cette part la plus politique, ou « infra-politique », est celle assurément que la mise en scène fait émerger du pétrole pasolinien, c’est-à-dire non pas seulement la dénonciation du pouvoir fossile et des multinationales apparentées, mais celle de la collaboration et de la participation profonde et semi-inconsciente de nos êtres propres et de nos subjectivités à toutes et tous.

Pasolini tisse la géopolitique et le pétrofascisme de l’or noir avec l’intime, l’avilissement, la dégradation morale. Il hybride la véritable histoire politique avec l’allégorie et les figures mythiques, au travers de l’épopée dérisoire d’un jeune bourgeois italien dédoublé, jouet d’autres puissants autant que de lui-même, lancé dans l’ascension sociale dans une société minée, « forée », « drillée » littéralement, de part en part, par le pétrole, et qui se précipite derrière les sourires, exactement comme la nôtre, vers l’effondrement.

Telle est la voie visionnaire où s’engage Pasolini sans peut-être le comprendre tout à fait : sur la voie d’une fiction s’emparant enfin de « l’impensable », de « l’irreprésentable » et du « grand dérangement » climatique. Il ramène le « non-humain » au sein même du corps, c’est-à-dire le carburant fossile et son « mal-être », barbouillé de faux plaisir, jusqu’aux entrailles, jusqu’au corps devenu insensé du héros, multi et dé-genré, incestueux, phallique et femelle tout à la fois.

« Nous sommes tous en danger », dira Pasolini dans sa toute dernière interview, quelques heures avant sa mort. « Tous victimes et tous coupables », rongés et envahis dans une société de l’hypermarchandisation par les désirs insatiables « de la possession et de la destruction ». « Il existe un désir de mort qui nous lie tous comme des frères. »

De cette étrange prophétie, un demi-siècle plus tard, emportés sans force vers l’abîme climatique par les énergies fossiles, nous pouvons mesurer la profondeur. De l’autre côté de l’Atlantique, à la même date, Donald Trump a alors 29 ans. Il entame le chemin à tous points de vue improbable, sauf pour Pasolini, par l’outrance et le virilisme devenus politiques, qui le conduira vers l’une des plus fantastiques et morbides [ ascensions sociales] de l’histoire humaine. La personnification de l’obscénité fossile.

The Conversation

Frédéric Caille ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

17.03.2026 à 16:06

Generative AI in business schools: friend or foe?

Constantin Ciachir, Associate Professor of Human Resource Management & Organizațional Behaviour, EM Lyon Business School

How can business schools best navigate the AI era? Does GenAI in higher education constitute a level playing field where educational inequality and diverse learning needs are concerned?
Texte intégral (1953 mots)

Since tools like ChatGPT burst into higher education, debate has focused on two extremes: either students are all committing underhanded academic fraud and plagiarism or Artificial Intelligence will magically revolutionise learning.

The latest research project I co-authored with Anna Holland, and carried out among recent Management graduates in the United Kingdom, suggests something more complicated and surprisingly more human.

Generative AI tools such as ChatGPT are increasingly used in business and management education for tasks like analysing cases, brainstorming ideas, and drafting reports, improving efficiency and personalised learning but also raising concerns about academic integrity and assessment design. AI literacy and ethical use of algorithmic tools are becoming essential managerial skills.

In a qualitative study focusing specifically on business students, we explored how they actually used ChatGPT in their final year and how they felt about it. To capture these experiences, we conducted 15 in-depth semi-structured interviews and thematically analysed them, focusing on how students used ChatGPT in their studies and how they perceived its impact on their academic work and their peers’ behaviour.

How much of a ‘no brainer’ is ChatGPT for research and assignments?

The students we interviewed described three overlapping concerns, which together help explain both their enthusiasm and their unease:

  • Immediacy: the practicality of a 24/7 study buddy

Students were open about the fact that ChatGPT had become part of their ordinary study toolkit, along with search engines and lecture recordings, but faster and more conversational in comparison. They used widely adopted large language model-driven technology to summarise articles, generate examples, explain complex theories in simpler language and help plan assignments. Several described it as a way to “get unstuck” when staring at a blank page.

What mattered most was not just usefulness but speed and emotional reassurance. Unlike professors’ office hours or e-mail, AI is instantly available and without judgement.

Some interviewees said they used ChatGPT to check whether they had understood a concept correctly before writing it up in their own words, or for suggestions on how to structure an essay.

For many, the new technology felt like having a private tutor who never sleeps. But whose convenience also raised deeper questions. If AI can always “rescue” you at the last minute, are you really learning, or just producing?

  • Equity: who gets the ‘good’ AI?

The students who took part in our study didn’t simply worry about whether AI was allowed. They also worried about who could access the most powerful tools. Those who paid for smarter, premium versions felt they were getting more accurate, more detailed support than peers sticking to free tools.

Some students saw this as just another form of educational inequality. Others were uneasy that success on assessments might increasingly depend on whether you could pay for better algorithms, but also whether they have the necessary skills to prompt the system for optimal results. Just because students are young, it does not automatically make them digitally native.

At the same time, several interviewees argued that AI could make higher education fairer. Students with dyslexia, ADHD or other conditions described using ChatGPT to help with planning, time management or turning rough notes into clearer sentences.

International students said it helped them write in more polished academic English. For them, AI felt less like “cheating” and more like “levelling up” – a reasonable adjustment or language support.

This tension, between AI as a leveller and AI as a new source of advantage, makes equity central to how students experience these tools.

  • Integrity: drawing the line in a grey area

All the students we spoke to knew that “copy-pasting from ChatGPT” into an assignment would be considered as cheating. But they also described a wide grey area where university rules felt vague or inconsistent.

Was it acceptable to ask ChatGPT for feedback on a draft paragraph? To suggest alternative headings? To generate a list of arguments they then follow up on themselves by accessing the original sources of information provided by ChatGPT? Different courses, and even different lecturers, gave different answers, leaving students unsure about what counts as legitimate assistance versus academic misconduct.

This uncertainty made some students anxious about being accused of misconduct even when they believed they were acting honestly.

Group work added another layer of risk: several participants feared that one team member might lean heavily on AI, triggering plagiarism-detection software or an investigation that could affect the whole group.

Is the ‘AI bias’ off-putting for graduate employers?

Beyond university rules, students worried about how employers would view their qualifications. A recurring theme was fear that future recruiters might dismiss recent graduates’ work as “AI-generated”, devaluing the years of effort they had invested. Even those who used ChatGPT sparingly felt that their cohort might be seen as “AI-made”, regardless of individual behaviour. This is an interesting finding in our study as not much empirical work has been done on this aspect. There is currently little to no evidence that employers broadly distrust university degrees because of GenAI.

The evidence we have to date suggests that hiring managers are increasingly sceptical of graduates’ application written work, but simultaneously seek graduates with AI skills.

The blurred relationship between student work and their ability may affect how credentials signal competence.

Employers have already increasingly turned to skills verification rather than credentials alone.

What universities should do next

Our findings suggest that universities need to move beyond simple messages about banning or embracing generative AI. Students are already integrating these tools into their everyday study. The question is whether institutions will help them do so transparently, equitably, and with academic integrity.

  • Firstly, rules about AI use need to be clearer and more consistent. Rather than broad warnings about “misuse of ChatGPT”, students need concrete, discipline-specific examples of what is allowed, and why. This includes acknowledging that some uses (for accessibility or language support, for instance) may be legitimate and even desirable.

  • Secondly, assessment design should focus more on process as well as product. Students could be asked to explain how they used AI in an assignment, reflect on its limitations and show the steps they took to verify information. This makes AI use visible and accountable, rather than something to hide by clearly stating where it was used in a piece of work, as students would for citing references in a footnote, for instance.

  • Thirdly, universities should consider equity explicitly. If some students can buy access to far more powerful tools than others, that has implications on fairness.

Institutions could respond by providing standardised AI tools, and teaching all students how to use them critically, or by redesigning assessments so that success depends less on access to premium systems.

In its latest Digital Education outlook report, Exploring Effective Uses of Generative AI in Education, the OECD urges education stakeholders to encourage “inclusive, trustworthy and meaningful uses of GenAI in education” in alignment with educational objectives.

Listening to students’ concerns about GenAI

The students in our study were not reckless rule-breakers or naive digital natives. They were thoughtful about the benefits and risks of AI, and keen to protect the value of their degrees.

If universities ignore this perspective, they risk sending out the message: “Integrity is only about catching cheats,” rather than about building trust. If, instead, they engage with students’ real experiences of immediacy, equity, and integrity, generative AI could become an opportunity to rethink what meaningful learning and fair assessment in higher education look like in the age of AI, rather than a threat that quietly undermines them.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Constantin Ciachir ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

16.03.2026 à 18:22

Comment lutter contre ces aliments ultratransformés poussés par des intérêts commerciaux, et non par les choix des consommateurs

Phillip Baker, ARC Future Fellow and Sydney Horizon Fellow, School of Public Health, University of Sydney, University of Sydney

Camila Corvalan, Full Professor of the Public Nutrition Unit of the Institute of Nutrition and Food Technology, Universidad de Chile

Carlos Monteiro, Professor at the Department of Nutrition of the School of Public Health, Universidade de São Paulo (USP)

Gyorgy Scrinis, Associate Professor of Food Politics and Policy, The University of Melbourne

Priscila Machado, NHMRC Emerging Leadership Fellow, Institute for Physical Activity and Nutrition, Deakin University

Sans réponse mondiale coordonnée, les aliments ultratransformés vont occuper une place croissante dans notre alimentation, et nuire à notre santé ainsi qu’à l’économie.
Texte intégral (2778 mots)
Nuggets, boissons gazeuses, chips, barres de céréales… les aliments ultratransformés sont fabriqués à partir d’ingrédients souvent modifiés par des procédés industriels, auxquels sont ajoutés additifs, colorants et autres émulsifiants. Tanya Barrow/Unsplash

Si les pouvoirs publics ne prennent pas les mesures qui s’imposent et en l’absence de réponse coordonnée au niveau mondial, les aliments ultratransformés vont occuper une place croissante dans notre alimentation et nuire à notre santé, mais aussi à l’économie. Cette mise en garde s’appuie sur trois articles scientifiques publiés dans The Lancet, une revue médicale de premier plan.


Les aliments ultratransformés sont en train de remplacer les aliments et repas traditionnels à l’échelle mondiale, en dégradant la qualité du régime alimentaire et en contribuant à l’augmentation des maladies chroniques liées à l’alimentation.

Et même si l’ensemble des dépenses publicitaires des principales entreprises qui commercialisent des aliments ultratransformés dépassent largement le budget total de l’Organisation mondiale de la santé (OMS), les gouvernements, les communautés et les professionnels de la santé peuvent faire beaucoup.

C’est ce que conclut la série de trois articles phares consacrée aux aliments ultratransformés que nous avons récemment publiés dans la revue The Lancet.

Ces produits sont fabriqués à partir d’ingrédients industriels et d’additifs alimentaires, qui contiennent généralement peu ou pas d’ingrédients intacts. On pourrait citer pour exemple les boissons gazeuses, les chips et de nombreuses céréales pour le petit-déjeuner.

Dans la classification Nova (présentées dans le schéma ci-dessous), les aliments et boissons sont répértoriés dans quatre groupes en fonction de leur degré de transformation :

  • Groupe 1 : Aliments non transformés ou transformés minimalement.
  • Groupe 2 : Ingrédients culinaires transformés.
  • Groupe 3 : Aliments transformés.
  • Groupe 4 : Aliments ultratransformés.

De notre point de vue, le problème ne réside pas dans un manque de volonté de la part des individus, mais tient avant tout à des considérations commerciales – il est le résultat d’une industrie puissante.

Ce que démontrent les données disponibles

Le premier article résume les données disponibles et montre que les aliments ultratransformés se répandent à l’échelle mondiale. La part des produits ultratransformés dans l’alimentation n’a cessé d’augmenter au fil des décennies dans les pays du monde entier.

Aux États-Unis, au Royaume-Uni et au Canada, leur part dans l’alimentation est à des niveaux élevés depuis des décennies (environ 50 % de l’apport énergétique quotidien). Les aliments ultratransformés constituent l’essentiel du régime alimentaire national. Il en va de même en Australie.

Deuxièmement, cette étude montre que les régimes riches en aliments ultratransformés favorisent la suralimentation et sont pauvres sur le plan nutritionnel : ils contiennent davantage de sucres, de graisses saturées et ont une densité énergétique plus élevée. En revanche, ils sont plus pauvres en fibres, en vitamines et minéraux essentiels, et contiennent moins d’aliments complets.

Troisièmement, cet article résume les risques que ces aliments ultratransformés font courir pour la santé. Nous avons mené une revue systématique de la littérature scientifique qui a inclus 104 études faites sur le long terme. Cette revue systématique a révélé que 92 de ces études faisaient état d’un risque accru de contracter une ou plusieurs maladies chroniques. Les méta-analyses de ces études ont confirmé des associations avec l’obésité, le diabète de type 2, l’hypertension artérielle, l’hypercholestérolémie (l’excès de cholestérol, ndlr), les maladies cardiovasculaires, la maladie rénale chronique, la maladie de Crohn, la dépression et la mortalité prématurée toutes causes confondues.

Il est essentiel de comprendre qu’il ne s’agit pas simplement d’une question d’« excès de sucre, de sel et de graisses ». Des essais cliniques ainsi que des études scientifiques montrent que quand les adultes suivent un régime alimentaire riche en aliments ultratransformés, ils consomment environ 500 à 800 calories supplémentaires par jour, prennent du poids ainsi que de la masse graisseuse, et mangent plus rapidement, par rapport à un régime non ultratransformé contenant les mêmes proportions de macronutriments. Cela s’explique probablement par la densité énergétique plus élevée, le goût appétissant et la texture moelleuse de ces aliments, qui favorisent la surconsommation.

De toute évidence, des recherches supplémentaires sont nécessaires. Cependant, les données disponibles sont désormais suffisamment solides pour justifier une réponse mondiale en matière de santé publique.

Les options sur le plan politique

Notre deuxième article présente les options politiques qui s’offrent aux gouvernements désireux de s’attaquer à ce problème. Quatre d’entre elles se distinguent particulièrement :

1. Modifier les produits : la reformulation – qui consiste à remplacer le sucre par des édulcorants ou les matières grasses par des additifs qui confèrent une texture similaire à celle des matières grasses – ne résout pas le problème. Les gouvernements pourraient plutôt fixer des limites pour une sélection d’additifs et utiliser des « marqueurs d’aliments ultratransformés » comme les colorants, les arômes et les édulcorants non sucrés (ainsi que les teneurs élevées en sucre, en graisses et en sel) pour identifier les produits ultratransformés à réglementer.

2. Améliorer l’environnement des produits alimentaires. Parmi les mesures fondées sur des données probantes, on peut citer :

  • L’adoption d’étiquettes d’avertissement obligatoires sur le devant des emballages, qui se révèlent efficaces pour informer les consommateurs et réduire les achats.

  • La protection des enfants de moins de 18 ans – en particulier sur les plateformes numériques – contre la publicité pour les aliments ultratransformés et le fait d’étendre ces protections au-delà des « heures réservées aux enfants ».

  • Des taxes sur les boissons sucrées (à 20 % minimum) ainsi que certains aliments ultratransformés ; et d’utiliser ces recettes financières pour subventionner les fruits, les légumes et les plats préparés sur place destinés aux ménages à faibles revenus.

  • La suppression des aliments ultratransformés des écoles, des hôpitaux et d’autres établissements publics, le fait de limiter la part des aliments ultratransformés dans les rayons des supermarchés et de réduire leur mise à disposition à proximité des écoles.

3. Limiter le pouvoir des entreprises : les gouvernements pourraient prendre davantage de mesures pour réglementer les gammes de produits des entreprises, ainsi que pour surveiller et limiter la part des ventes d’aliments ultratransformés ; il convient aussi de renforcer la politique de concurrence et d’envisager des réformes fiscales qui viseraient à limiter le pouvoir excessif de ce marché.

4. Réformer les subventions comme les chaînes d’approvisionnement : les gouvernements pourraient réorienter les subventions à l’agriculture afin de réduire le soutien accordé aux ingrédients issus de la monoculture utilisés dans les aliments ultratransformés (comme le maïs, le soja et le sucre), et d’aligner les politiques environnementales – concernant des questions telles que la réduction des plastiques ou l’utilisation de l’eau – sur les objectifs nutritionnels.

Le succès passera par des solutions sur mesure et coordonnées : il n’y a pas de recette miracle.

Lutter contre l’industrie des aliments ultratransformés

Notre troisième article s’interroge sur les raisons pour lesquelles les aliments ultratransformés envahissent l’alimentation humaine et sur la manière de mettre en place une réponse mondiale en matière de santé publique.

La réponse est la suivante : il faut s’attaquer au pouvoir des entreprises et à leur recherche de profit. Les aliments ultratransformés constituent le modèle économique le plus rentable du secteur alimentaire. Les plus grandes multinationales sont à la tête de réseaux mondiaux d’approvisionnement, de commercialisation et de lobbying qui élargissent les marchés, influencent la science ainsi que le débat public, et font obstacle à la réglementation.

Les fabricants d’aliments ultratransformés peuvent utiliser leurs bénéfices pour consacrer des sommes bien plus importantes au marketing, construire des usines, étendre la distribution de ces produits à l’échelle mondiale et financer des groupes de pression.

Par exemple, en 2024, les grandes entreprises agroalimentaires ont dépensé bien plus en publicité que l’ensemble du budget de fonctionnement de l’Organisation mondiale de la santé.

Les entreprises et les groupes qui y sont affiliés suivent le même scénario que les industries du tabac et des combustibles fossiles : du lobbying, du contentieux, de l’autorégulation et de la recherche scientifique qu’elles financent pour retarder la mise en place de mesures politiques.

Notre article plaide pour une réponse mondiale en matière de santé publique :

  • remettre en cause le modèle économique des aliments ultratransformés, en taxant leur production, en rendant obligatoire le recyclage des plastiques par les entreprises et en réorientant les ressources vers le soutien aux producteurs d’aliments sains et aux familles

  • protéger l’élaboration des politiques et la science contre toute ingérence, grâce à des mesures de prévention des conflits d’intérêts et à des règles d’engagement claires pour le secteur privé. Nous devons cesser de nous en remettre à l’autorégulation du secteur privé et recourir aux politiques publiques et à la législation.

  • former des coalitions pour mener des actions de plaidoyer auprès des décideurs politiques et favoriser les changements politiques, qu’il s’agisse de soutiens juridiques ou de communications stratégiques

Des sucettes disposées sur une étagère dans un magasin
Nos articles montrent que les aliments ultratransformés sont en train de supplanter les aliments et les repas traditionnels à l’échelle mondiale. Alan Pope/Unsplash

Nos études montrent que, sans mesures politiques ni réponse mondiale coordonnée, la part des aliments ultratransformés dans l’alimentation humaine continuera d’augmenter, au détriment de la santé, des économies, de la culture et de la planète. Il est temps d’agir.

The Conversation

Phillip Baker a reçu des financements de l'Australian Research Council, de Bloomberg Philanthropies et de l’Unicef pour des projets de recherche portant sur les aliments ultratransformés.

Camila Corvalan a a bénéficié de financements pour ses recherches de la part de l'Agence nationale chilienne de recherche (ANID), de Bloomberg Philanthropies et du Centre de recherches canadien pour le développement international (CRDI). Elle fait partie du groupe stratégique de la Communauté de pratique sur la nutrition et la santé en Amérique latine et dans les Caraïbes (COLANSA), du Next Generation Leadership Collective et de l'Alianza Global para la Alimentación Saludable de Niñas, Niños y Adolescentes en Amérique latine. Elle est membre du groupe de travail sur les politiques et la prévention de la Fédération mondiale de l'obésité et du groupe de travail sur les aliments ultratransformés de l'Union internationale des sciences de la nutrition (IUNS). Elle occupe actuellement le poste de présidente de la Société latino-américaine de nutrition.

Gyorgy Scrinis a reçu des financements de Bloomberg Philanthropies destinée à financer les travaux de recherche menés dans le cadre de la série publiée dans « The Lancet ».

Priscila Machado a reçu des financements accordés par le Conseil national de la santé et de la recherche médicale (NHMRC), la Fondation australienne pour le cœur, la Fondation de recherche de São Paulo et le réseau thaïlandais Sweet Enough Network/ThaiHealth pour des projets de recherche portant sur les aliments ultratransformés.

Carlos Monteiro ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

16.03.2026 à 17:53

Déterminer la forme de la Terre : une aventure scientifique et politique entre la France et le Royaume-Uni

Étienne Ghys, Mathématicien, directeur de recherche émérite CNRS, ENS de Lyon; Académie des sciences

Quelle est la forme exacte de la Terre ? Est-elle aplatie ou plutôt allongée aux pôles ? La question a agité les milieux scientifiques anglais et français pendant plusieurs siècles.
Texte intégral (2112 mots)
Charles-Marie de La Condamine, « Mesure des trois premiers degrés du méridien dans l’hémisphère austral », illustration tirée des _Observations de Messieurs de l’Académie royale des sciences, envoyés par le roi sous l’équateur_, Paris, Imprimerie royale, 1751. Archives de l’Académie des sciences, RES 126, Fourni par l'auteur

Quelle est la forme exacte de la Terre ? Est-elle aplatie ou plutôt allongée aux pôles ? La question a agité les milieux scientifiques des deux côtés de la Manche pendant plusieurs siècles. Pour tout savoir de cette controverse scientifique, l’Académie des sciences et la Royal Society de Londres présentent, du 1er avril au 20 juin 2026, l’exposition « La figure de la Terre. Un débat franco-anglais (XVIIᵉ-XXIᵉ siècle) », dans les locaux de la bibliothèque Mazarine, au cœur de l’Institut de France, à Paris.


On pourrait croire la question définitivement réglée : la Terre est ronde. Et pourtant, des enquêtes récentes indiquent qu’environ 8 % de nos concitoyens ne sont pas pleinement convaincus qu’elle le soit. Ce chiffre ne traduit pas seulement une méconnaissance. Selon moi, il révèle surtout une défiance. Ce n’est pas tant la rotondité de la Terre qui est contestée que l’autorité de ceux qui l’affirment. Le doute vise les « sachants », les institutions, les discours officiels. Face à ce phénomène, l’ironie ou l’indignation ne suffisent pas. Il faut peut-être s’interroger sur la manière dont nous racontons l’histoire des sciences, sur ce que nous transmettons, et sur ce que nous omettons.

On a longtemps enseigné que le Moyen Âge aurait cru la Terre plate et que la science moderne aurait progressivement dissipé cette erreur. Ce récit commode est historiquement faux. Depuis l’Antiquité grecque, les savants savent que la Terre est sphérique. Lors des éclipses de Lune, l’ombre projetée par la Terre est toujours circulaire (elle aurait une forme d’ellipse si la Terre était un disque plat) ; les étoiles visibles changent lorsqu’on voyage vers le nord ; au IIIᵉ siècle avant notre ère, Ératosthène mesurait déjà le périmètre terrestre avec une précision remarquable. La rotondité de la Terre n’est pas une conquête récente : elle appartient au patrimoine intellectuel de l’humanité depuis plus de deux millénaires.

Mais ce savoir était longtemps celui des lettrés. Les paysans, les artisans, les marins ordinaires, ceux qui ne lisaient ni Aristote ni les traités d’astronomie, n’avaient sans doute pas de représentation précise de la forme globale du monde. Leur univers était celui de l’horizon familier, du champ, du village, du port. La Terre était vécue, non pensée à l’échelle planétaire. Il ne s’agissait pas d’erreur, mais souvent d’indifférence : la question ne se posait pas. La science progresse d’abord dans des cercles restreints avant de devenir culture commune. Cette distance historique entre savoir savant et imaginaire ordinaire est peut-être l’une des clés de la fragilité contemporaine du consensus scientifique.

La triangulation, une affaire de patience

Au XVIIᵉ siècle, la question change de nature. On ne se contente plus de savoir que la Terre est ronde : on veut désormais la mesurer précisément. En France, sous l’impulsion de la dynastie des Cassini, l’Académie des sciences entreprend de déterminer la longueur d’un degré de latitude. La latitude se mesure par l’angle que fait l’étoile Polaire avec l’horizon : lorsqu’on se déplace vers le nord, cet angle augmente. Il suffit donc, en principe, de mesurer la distance parcourue pour une variation d’un degré afin d’estimer la dimension du globe.

La méthode employée est un chef-d’œuvre de rigueur : la triangulation. On mesure avec un soin extrême la longueur d’un segment sur le terrain puis, depuis des points élevés – collines, tours, clochers –, on observe les angles formés avec d’autres repères visibles à des dizaines de kilomètres. De triangle en triangle, on reconstitue ainsi de vastes distances. C’est une science de patience, d’équipes, d’instruments perfectionnés et d’erreurs soigneusement évaluées. La Terre devient un objet mesurable, arpenté, calculé.

Pierre Bouguer. La figure de la Terre. Déterminée par les Observations de Messieurs Bouguer & de La Condamine, de l’Académie royale des sciences, envoyés par ordre du roi au Pérou, pour observer aux environs de l’équateur. Paris : Jombert, 1749. Académie des sciences, CC BY

Au même moment, en Angleterre, Isaac Newton publie les Principia. Il y expose la théorie de la gravitation universelle et s’interroge sur la forme précise du globe. Si la Terre tourne sur elle-même en vingt-quatre heures, la force centrifuge doit légèrement l’aplatir aux pôles et la faire gonfler à l’équateur. À partir d’une observation apparemment modeste, la différence de période d’un pendule entre l’équateur et Cambridge, Newton réalise une expérience de pensée extraordinaire et estime l’ampleur de cet aplatissement. Pour la première fois, une théorie physique prétend prédire la forme même de la planète.

La rivalité entre la France et l’Angleterre devient scientifique

Les premières mesures françaises semblent pourtant indiquer l’inverse : la Terre serait allongée aux pôles. La controverse s’installe. Derrière le débat scientifique se profile une rivalité ancienne entre la France et l’Angleterre, nations proches, concurrentes et pourtant intimement liées par l’histoire. Pour trancher, l’Académie des sciences décide d’envoyer deux expéditions : l’une en Laponie, près du cercle polaire, l’autre à l’équateur. Il faut mesurer à nouveau, comparer, calculer. Les conditions sont extrêmes, les instruments fragiles, les incertitudes nombreuses. Mais le verdict tombe : la Terre est bien légèrement aplatie aux pôles. Les savants français, par leurs propres observations, confirment la prédiction newtonienne.

Cette victoire de la théorie newtonienne n’efface en rien l’héroïsme scientifique des expéditions. Voltaire, qui fut l’un des plus ardents défenseurs de Newton en France, en a donné une formule restée célèbre, s’adressant à Maupertuis :

« Vous avez trouvé dans les glaces, au milieu des ennuis, ce que Newton trouva sans sortir de chez lui. »

En quelques vers, il résume admirablement la tension féconde entre le travail de terrain, long et éprouvant, et la puissance de l’abstraction théorique. L’un ne va pas sans l’autre : sans hypothèse, pas d’expédition ; sans mesure, pas de confirmation. La science avance ainsi : en acceptant que les faits corrigent les hypothèses, même lorsque cela contredit des traditions prestigieuses.

À la fin du XVIIIᵉ siècle, la Révolution française engage une nouvelle étape. Il s’agit de créer un système de mesures universel, affranchi des usages locaux. Le mètre sera défini comme la dix-millionième partie du quart du méridien terrestre. La Terre devient l’étalon commun de l’humanité. De nouvelles campagnes de mesure sont entreprises pour fixer cette unité. La géodésie (l’étude de la forme de la Terre) rejoint alors des enjeux politiques et économiques : maîtriser la longitude en mer, c’est maîtriser les routes commerciales et la puissance navale. La mesure du globe participe désormais à l’histoire des empires.

Une aventure qui ne s’arrête pas

L’histoire ne s’achève pas avec l’ellipsoïde newtonien. La Terre réelle n’est ni parfaitement sphérique ni exactement régulière. Les masses internes, les reliefs, les océans introduisent des irrégularités que l’on regroupe sous le nom de « géoïde ». Au XIXᵉ siècle, des mathématiciens, comme Henri Poincaré, s’interrogent sur la stabilité des corps en rotation et développent des concepts qui éclairent aussi la compréhension des formes planétaires. Aujourd’hui, grâce aux satellites et à l’altimétrie spatiale, la surface moyenne des océans est connue avec une précision centimétrique. Du bâton d’Ératosthène aux instruments orbitaux, c’est une même quête intellectuelle et technique qui se poursuit.

C’est cette aventure, scientifique autant que politique, que retrace l’exposition organisée conjointement par la Royal Society et l’Académie des sciences. Présentée d’abord à Londres, elle est aujourd’hui accueillie à Paris, à la bibliothèque Mazarine de l’Institut de France. Manuscrits, cartes, instruments, carnets de terrain, correspondances témoignent de ces débats, de ces voyages et de ces calculs. On y voit comment des savants parfois rivaux ont appris au fil du temps à confronter leurs théories au réel, à mesurer leurs erreurs, à dialoguer au-delà des frontières.

À l’heure où certains doutent encore de la rotondité de la Terre, il n’est pas inutile de revenir à cette histoire longue et complexe. Elle rappelle que la science n’est ni un dogme ni une vérité révélée, mais une construction patiente, collective, souvent conflictuelle, toujours ouverte à la révision. Comprendre comment nous avons mesuré la Terre, c’est comprendre comment se fabrique la connaissance. Et c’est peut-être aussi une manière, aujourd’hui, de reconstruire la confiance dans le savoir.

The Conversation

Étienne Ghys ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

16.03.2026 à 17:52

Aliments ultratransformés : Comment aider les consommateurs à les repérer et à les éviter ?

Pierrick Gomez, Professeur associé de marketing, Neoma Business School

La liste des ingrédients sur les emballages des produits pourrait se révéler un levier intéressant pour aider les consommateurs à repérer les aliments ultratransformés. On fait le point.
Texte intégral (1724 mots)

La question de l’ultratransformation des aliments constitue aujourd’hui un enjeu majeur tant pour l’industrie agroalimentaire que pour les pouvoirs publics. La liste d’ingrédients, information obligatoire qui figure sur les emballages alimentaires, apparaît comme un outil intéressant pour aider les consommateurs à repérer ces aliments dans les rayons. Toutefois, son efficacité reste à établir.


L’offre d’aliments ultratransformés occupe une place prépondérante sur les rayons de produits alimentaires de nombreux pays occidentaux, alors même que les consommateurs demeurent encore peu nombreux à savoir ce que recouvre cette catégorie et comment l’identifier.

Cette situation est problématique car la question de l’ultratransformation des aliments constitue aujourd’hui un enjeu majeur de santé publique. De nombreuses études scientifiques mettent en évidence une association entre la consommation d’aliments ultratransformés et un risque accru de diverses maladies chroniques, voire de mortalité.

Or, en dehors de leurs croyances personnelles, les consommateurs disposent de peu d’indices tangibles leur permettant de déterminer si un produit est ultratransformé, ou non.

À retenir

  • C’est quoi les aliments ultratransformés ? Biscuits et pains industriels, barres chocolatées, soupes en poudre, nuggets… on parle d’aliments ultratransformés pour désigner des aliments obtenus à partir d’ingrédients traditionnels qui ont subi diverses transformations industrielles (ajout d’huiles hydrogénées, « cracking » ou fractionnement d’un aliment brut en plusieurs ingrédients…) et auxquels ont été ajoutés des additifs, des colorants, des émulsifiants, etc.
  • Pourquoi les industriels procèdent-ils à ces transformations ? Ces procédés ont pour but de conférer un certain nombre de propriétés aux aliments (améliorer la texture ou le goût, allonger la durée de conservation…).
  • À ce jour, il n’existe pas de consensus concernant la définition des aliments ultratransformés, selon l’Agence nationale de sécurité sanitaire (Anses). Toutefois, parmi les différentes classifications fondées sur le degré de transformation des produits, les études épidémiologiques menées pour évaluer les effets sanitaires potentiels des aliments ultratransformés utilisent le plus souvent la classification Nova, développée par des chercheurs brésiliens.

Pour l’heure, la liste d’ingrédients constitue la principale source d’information figurant sur les emballages qui permet aux consommateurs d’identifier le degré de transformation des aliments, notamment parce qu’elle leur donne accès à la composition des produits qu’ils achètent.

Pourtant, on sait encore peu de choses sur son usage réel par les consommateurs et sur sa capacité à les aider à repérer et à éviter les aliments ultratransformés. Qui lit la liste d’ingrédients ? Cette information suffit-elle à orienter les choix vers des produits moins transformés ? Des avertissements sanitaires placés sur la face avant des emballages seraient-ils plus efficaces à cet égard ?

Nous avons cherché à apporter des éléments de réponse dans un article récemment publié dans Journal of Consumer Policy qui repose sur trois études expérimentales menées auprès de 1 088 consommateurs états-uniens et britanniques.

Qui lit la liste des ingrédients sur les emballages ?

Dans une première étude, nous nous sommes intéressés aux usages de la liste d’ingrédients et avons observé qu’environ 43 % des participants déclaraient la consulter régulièrement lors de leurs achats alimentaires. Ce résultat est déjà instructif : il montre que cet usage n’est pas marginal, tout en suggérant que plus de la moitié des consommateurs ne la consultent qu’occasionnellement, voire pas du tout.

Surtout, nos analyses indiquent que cet usage est fortement influencé par des caractéristiques individuelles. Les utilisateurs fréquents déclarent de meilleures compétences culinaires et un niveau de connaissance plus élevé en matière d’aliments ultratransformés, manifestent une préférence marquée pour les aliments naturels et se montrent plus attentifs à leur santé.

Autrement dit, l’usage de la liste d’ingrédients semble associé à des facteurs qui ne sont pas également répartis au sein de la population. Dès lors, s’appuyer sur cet outil pour orienter les choix alimentaires risque de renforcer certaines inégalités. Des analyses complémentaires mettent d’ailleurs en évidence des différences d’usage significatives selon le niveau d’éducation.

Longueur ou contenu : quelle caractéristique de la liste d’ingrédients influence les intentions d’achat ?

Le caractère ultratransformé d’un aliment peut, en théorie, s’apprécier à travers deux dimensions de la liste d’ingrédients : sa longueur (plus la liste est longue, plus on peut soupçonner un degré de transformation élevé) et son contenu (présence d’additifs et d’ingrédients d’origine industrielle). Dans une deuxième étude expérimentale, nous avons précisément isolé ces deux dimensions afin d’évaluer leur influence sur les évaluations des consommateurs.

Les participants devaient évaluer un pain industriel emballé, avec la possibilité d’accéder à la liste d’ingrédients figurant au dos de l’emballage, laquelle variait selon le contenu (modérément versus fortement transformé) et la longueur (liste courte versus longue). Par rapport à la première étude, une proportion plus élevée de participants (66 %) a choisi d’examiner la liste d’ingrédients.

Les résultats sont sans ambiguïté : le contenu de la liste l’emporte largement sur sa longueur. La présence d’additifs et d’ingrédients perçus comme industriels accroît significativement la perception de transformation du produit. Ce résultat est cohérent avec un mécanisme psychologique bien documenté en comportement du consommateur, à savoir le biais de négativité : les consommateurs accordent davantage de poids à des signaux négatifs, facilement identifiables (additifs, ingrédients industriels), qu’à la longueur de la liste dont l’interprétation reste ambiguë (un aliment peut comporter un nombre conséquent d’ingrédients sans être ultratransformé).

Un autre résultat mérite toutefois d’être souligné : bien que la présence d’additifs dans la liste modifie les perceptions, elle ne réduit pas directement l’intention d’achat du produit ultratransformé.

Ainsi, le degré de transformation ne constitue qu’un critère de choix parmi d’autres : le prix, le goût, la praticité ou encore les bénéfices perçus pour la santé peuvent peser davantage dans la décision et neutraliser l’effet de la liste d’ingrédients.

Un avertissement sur la face avant de l’emballage peut-il changer la donne ?

La troisième étude examine l’effet additionnel d’un outil plus facilement accessible et interprétable par les consommateurs : un avertissement sanitaire apposé sur la face avant de l’emballage qui signale le caractère ultratransformé des produits. Les participants recrutés devaient choisir entre trois barres de céréales présentant des niveaux de transformation différents (modérément versus fortement transformé), avec ou sans avertissement. Ils avaient par ailleurs accès à leurs compositions.

Les résultats sont sans équivoque : la présence d’un avertissement accroît fortement la probabilité de choisir le produit le moins transformé. La part de choix en faveur de l’option modérément transformée passe ainsi de 39,6 % en l’absence d’avertissement à 62,7 % lorsqu’un avertissement est présent. L’avertissement renforce la capacité des consommateurs à distinguer les produits selon leur degré de transformation et à orienter leurs choix en conséquence.

Quelles implications en matière de santé publique ?

Au final, la liste d’ingrédients apparaît comme un outil utile mais insuffisant. Elle est utilisée par un nombre limité de consommateurs et si elle permet à certains d’identifier les produits transformés, davantage à travers son contenu que sa longueur, elle ne génère pas une impulsion suffisante pour influencer directement l’intention d’achat.

Ainsi, en l’absence d’outils complémentaires, son usage risque de laisser de côté les consommateurs les moins motivés, renforçant ainsi des inégalités d’accès à l’information. À l’inverse, un avertissement simple et visible apposé sur la face avant des emballages semble nettement plus efficace pour que l’identification des produits ultratransformés se traduise en choix effectifs.

Ces résultats devront être répliqués dans des situations d’achat réelles, en interaction avec d’autres dispositifs existants (par exemple l’étiquetage nutritionnel Nutri-Score présent sur les emballages des produits alimentaires, des allégations relatives au pourcentage d’ingrédients naturels dans la composition et autres « clean labels » qui promeuvent une alimentation plus saine, ainsi que dans d’autres contextes culturels.

Ces travaux dessinent néanmoins une orientation claire pour les décideurs en santé publique : si l’objectif est d’orienter les choix des consommateurs vers des aliments moins transformés, la seule liste d’ingrédients risque de ne pas suffire ; des instruments plus persuasifs, tels que des avertissements sanitaires spécifiques, apparaissent dès lors nécessaires.

The Conversation

Pierrick Gomez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

16.03.2026 à 17:50

Droits humains et droits de la nature, pivots d’un développement vraiment durable

Farid Lamara, Responsable de programmes de recherches, Agence Française de Développement (AFD)

Les droits humains et les droits de la nature sont deux chaînons manquants aux efforts de la communauté internationale pour parvenir à la réalisation des ODD.
Texte intégral (2813 mots)

Toutes les données disponibles indiquent que l’Agenda 2030 adopté en septembre 2015 par les 193 États membres de l’Organisation des Nations unies sera loin d’être mené à bien dans le délai imparti. Dans un contexte de recul massif des démocraties et des droits humains, d’explosion des inégalités, de rétrécissement de l’espace civique et de dépassement des limites planétaires, l’approche fondée sur les droits (humains et du vivant), qui n’a été que très partiellement intégrée par la communauté internationale dans la déclinaison opérationnelle des Objectifs de développement durable, apparaît comme un levier plus nécessaire que jamais.


Les États membres des Nations unies ont adopté à l’unanimité en 2015, le programme de développement durable. Il entend garantir un développement qui « répond aux besoins du présent sans compromettre la capacité des générations futures à répondre aux leurs » (rapport Brundtland de 1987, « Notre avenir commun »). Cet agenda déroule 17 Objectifs du développement durable (ODD) et décline 169 cibles à atteindre en 2030. Elles représentent le cadre de redevabilité du programme.

Aucun des 17 Objectifs de développement durable (ODD) n’est spécifiquement consacré aux droits humains. Ceux-ci, en réalité, sont partout – au cœur de la vie sociale, économique, culturelle, civile et politique de tous les habitants du monde, mais également au centre des enjeux écologiques contemporains, ce qu’a acté l’Assemblée générale des Nations unies en 2022 par une résolution historique reconnaissant le droit à un environnement sain comme un droit humain.

Selon le Danish Institute for Human Rights (DIHR), 92 % des cibles des ODD sont ancrées dans le droit international des droits humains. La promotion, le respect et la protection des droits humains constituent donc la colonne vertébrale des ODD.

La « soutenabilité forte », condition pour préserver la nature et l’universalité des droits humains

Dans l’ensemble, les ODD combinent les enjeux écologiques, économiques, de développement humain et de gouvernance. Mais plusieurs visions fondées sur des hypothèses économiques et écologiques différentes se confrontent sur la manière de les réaliser. On parle de soutenabilité faible ou forte. Cette dernière est un concept qui vise à renforcer le développement durable en évitant que les politiques économiques compromettent (ou sacrifient) le développement humain, l’environnement ou la nature. Contrairement à la soutenabilité faible (technosolutionniste, fondée sur les concepts de la substituabilité du capital naturel), la soutenabilité forte pose pour principe que le capital naturel est irremplaçable et doit être préservé.

On retiendra trois principes de la soutenabilité forte : la finitude de la nature ; la justice sociale ; et les limites de la croissance économique. Dans cette vision, l’approche fondée sur les droits humains et celle fondée sur les droits de la nature sont essentielles pour un développement véritablement durable. Il s’agit ici de reconnaître la nature — écosystèmes et entités naturelles – comme sujet de droit. Aujourd’hui, plus de 650 initiatives de reconnaissance des droits de la nature sont répertoriées. Sans ces approches, le système actuel aggrave les inégalités et menace l’habitabilité de la planète.

C’est ce que documentent plusieurs recherches et conférences internationales de l’Agence française de développement (AFD) consacrées à l’analyse des enjeux croisés entre les droits humains et le développement durable, avec des angles d’études spécifiques tels que la transition écologique, les inégalités multidimensionnelles ou encore les droits de la nature. Mais également les travaux conduits par l’AFD avec le DIHR sur les questions relatives aux droits humains et aux politiques climatiques.

De cet ensemble, il ressort que la crise écologique (anthropique) aggrave les inégalités et affaiblit massivement les droits humains tant substantifs (droit à la vie, à la santé, à l’alimentation, à l’habitat, etc.) que procéduraux (droit de participation, d’information, de réparation), et en premier lieu ceux des populations en situation de vulnérabilité : enfants, femmes, peuples autochtones et communautés locales, défenseurs des droits humains et de l’environnement, migrants et déplacés.

Pourtant, la gouvernance environnementale reste défaillante, les États et le secteur privé se limitant généralement à une démarche de réduction des risques (« ne pas nuire ») sans redevabilité ni vision intégrée et pro-active des droits humains, du droit à un environnement sain et des droits de la nature. Il apparaît ainsi urgent de proposer des modèles alternatifs intégrant redevabilité, justice (sociale et environnementale) et participation citoyenne pour concilier écologie et droits humains dans une approche écocentrée et non plus anthropocentrée.

En particulier à l’heure où les limites planétaires sont largement dépassées.

Les limites planétaires sous le prisme des droits humains

Ces limites (voir graphiques ci-dessous) définissent l’espace opérationnel sûr pour l’humanité par rapport au système terrestre et sont associées aux sous-systèmes ou processus biophysiques de la planète. Aujourd’hui, 7 limites sur 9 sont dépassées. Et depuis l’adoption des ODD en 2015, 3 l’ont été.

Stockholm Resilience Centre. Cliquer pour zoomer

Au-delà de l’impact majeur sur la nature, les impacts sur les droits humains sont systémiques. Pour le droit à la santé par exemple, il est démontré que chaque limite planétaire a des conséquences directes sur la santé humaine, animale et des écosystèmes.

Pour la santé humaine, les pollutions chimiques (pesticides, plastiques, polluants éternels) génèrent des maladies chroniques multiples et une croissance des cancers. La seule pollution de l’air provoque plus de 4 millions de décès annuels à l’échelle planétaire. Les décès prématurés liés aux vagues de chaleur (climat), à la malnutrition (changement du cycle de l’eau) ou encore à la dégradation des sols ou à la chute de la biodiversité alourdissent plus encore le bilan sanitaire et la mortalité humaine, en premier lieu pour les populations les plus pauvres, qui plus est dans un monde régi par un modèle profondément asymétrique et inégalitaire.

Les inégalités comme moteur de la crise écologique et du recul des droits humains

Selon le rapport 2025 sur les inégalités climatiques du World Inequality Lab, les 50 % les plus pauvres de la population mondiale émettent 10 % des gaz à effet de serre (GES), soit bien moins que les émissions des 1 % les plus riches. Ces derniers sont par ailleurs responsables à eux seuls de 41 % des GES liés à la détention d’actifs (financiers et non financiers).

Par ailleurs, les 50 % les plus pauvres ne sont pas seulement les moins responsables. Ils sont également les plus exposés aux pertes et dommages tout en ayant le moins de capacités financières pour y faire face. Et si l’on regarde les inégalités en matière de revenu et de patrimoine, on constate que les 10 % les plus riches de la planète captent plus de revenus que les 90 % restants. Au global, bien que les inégalités croissent fortement à l’intérieur des pays depuis plusieurs décennies, ces résultats indiquent de très fortes asymétries Nord/Sud. Or plus les inégalités croissent, plus les capacités à faire valoir ses droits diminuent.

Les inconséquences d’un modèle asymétrique et inégal sur l’Agenda 2030

Dans ces conditions, les résultats attendus de l’agenda 2030 sont loin d’être atteints. Le rapport 2025 des Nations unies sur les ODD montre que sur les 169 cibles des ODD, seules 18 % sont atteintes ou en passe de l’être en 2030. Et 66 % d’entre elles indiquent des progrès marginaux, en stagnation ou en régression.

The Sustainable Development Goals Report 2025

L’analyse plus détaillée, ODD par ODD, indique que plusieurs d’entre eux n’atteindront aucune cible d’ici à 2030. C’est le cas notamment pour les ODD 1 (pauvreté), 5 (genre), 6 (eau), 16 (Paix, justice et institution fortes). Alors que les ODD 2 (faim), 3 (santé), 4 (éducation), 10 (inégalités) et 13 (climat) ne devraient n’en atteindre qu’une seule.

Considérant que les droits humains sont la colonne vertébrale des ODD, ces résultats démontrent que les enjeux de justice restent marginaux dans leur déclinaison opérationnelle. Or, le recul des démocraties, le déclin des droits humains et le rétrécissement extrême de l’espace civique — qui se traduit par exemple par la censure, la répression violente des journalistes, des défenseurs des droits et de l’environnement, des manifestants pacifiques, etc. — dans le monde sont autant de freins supplémentaires à leur réalisation.

Aujourd’hui, selon le Civicus Monitor, seuls 7,2 % de la population mondiale vit dans un espace civique « ouvert » ou « rétréci ». Le reste dans un espace « entravé » (19,9 %), réprimé (42,3 %) ou fermé (30,7 %).

Il devient ainsi urgent que la communauté internationale en général et les acteurs du développement en particulier donnent toute leur place aux approches fondées sur les droits humains et du vivant dans la réalisation de l’Agenda 2030.

Civicus Monitor

Droits humains et droits de la nature, une symbiose vitale pour les générations futures

Pour ce faire, il faudra considérer les enjeux liés au modèle économique dominant ainsi qu’à la gouvernance mondiale. Ce qui dépasse largement la sphère juridique. Néanmoins, les droits de la nature constituent des leviers puissants pour renforcer les droits humains et vice versa, ce qu’a récemment reconnu l’Union internationale pour la conservation de la nature (IUCN) par l’adoption de plusieurs résolutions.

Ainsi, l’approche fondée sur les droits humains et du vivant devrait être intégrée dans toutes les politiques publiques pour la réalisation des ODD dans une optique de soutenabilité forte. C’est bien ce que dit la décision de la COP15 de Kunming-Montréal sur la diversité biologique qui appelle à des actions en faveur de la Terre nourricière, c’est-à-dire d’une « approche écocentrique et fondée sur les droits, propice à la mise en œuvre d’actions visant à établir des relations harmonieuses et complémentaires entre les populations et la nature, à promouvoir la pérennité de tous les êtres vivants et de leurs communautés et à éviter la marchandisation des fonctions environnementales de la Terre nourricière ».

The Conversation

Farid Lamara ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

16.03.2026 à 17:45

La position délicate de la Turquie face à la guerre en Iran

Albert Kandemir, Chercheur doctorant contractuel en Relations internationales, Université Paris-Panthéon-Assas

Membre de l’Otan, hostile à bien des égards à l’Iran qu’elle a longuement affronté par « proxys » interposés en Syrie, la Turquie ne souhaite pas pour autant une chute de la République islamique.
Texte intégral (3175 mots)

Pour la Turquie, la République islamique d’Iran est à la fois une rivale en matière de suprématie régionale et un modèle idéologique très différent du sien. Mais Téhéran est aussi un fournisseur d’énergie important, un partenaire en matière de répression des combattants kurdes. Globalement, c’est un voisin encombrant, mais dont Ankara a appris à s’accommoder. Une éventuelle chute du régime iranien pourrait, en outre, s’accompagner d’un afflux de réfugiés sur le territoire turc. Au-delà de la condamnation de la guerre, d’autant que celle-ci est conduite en large partie par Israël, avec qui la Turquie est à couteaux tirés, le gouvernement d’Erdogan cherche donc à jouer les médiateurs pour éviter une déstabilisation majeure de l’ensemble du Proche-Orient.


Lorsque l’on décrit la nature des relations pluriséculaires entre l’Iran et la Turquie, de nombreux analystes considèrent que le traité de Zuhab (1639) a été un point de bascule. En effet, cet accord mit fin à près de 150 ans de conflits entre l’Empire ottoman et l’Empire safavide et fixa la frontière entre les deux États. Certains vont jusqu’à affirmer que ce traité a survécu aux hommes et aux siècles, et n’a jamais été remis en cause. En réalité, de nombreux conflits ont surgi après le traité de Zuhab. Seulement, à l’issue de chacune des guerres, les deux empires sont systématiquement revenus à une frontière proche de celle définie en 1639. Ainsi s’est établi un équilibre des puissances structurel entre le monde turc et le monde perse : ni l’un ni l’autre n’a jamais réussi à absorber ou à détruire le voisin.

Cet équilibre a favorisé l’émergence d’une culture diplomatique complexe de la coexistence contrainte qui perdure aujourd’hui et qui explique le sang-froid et la prudence de la Turquie vis-à-vis de la guerre initiée par Israël et les États-Unis contre l’Iran le 28 février 2026.

La coexistence contrainte : des relations oscillant entre méfiance structurelle et pragmatisme

Si la Turquie et l’Iran étaient après la Seconde Guerre mondiale des partenaires enracinés dans le camp occidental et unis par le Pacte de Bagdad (1955), cette alliance prit fin après la révolution islamique (1979), Téhéran ayant érigé une théocratie aux frontières de la Turquie, dont la laïcité est un pilier national. Cependant, les divergences idéologiques furent rapidement mises au second plan au bénéfice d’un pragmatisme qui perdure encore aujourd’hui et qui repose sur quatre fondements.

Tout d’abord, l’interdépendance économique. En effet, lors de la guerre Iran-Irak (1980-1988), la Turquie fut un débouché économique majeur pour l’Iran. Aujourd’hui encore, l’Iran est le troisième fournisseur de gaz d’Ankara derrière la Russie et l’Azerbaïdjan. Dans un contexte où l’économie iranienne fonctionne au ralenti et où la Turquie est totalement dépendante des fournisseurs d’énergie étrangers, les deux pays se trouvent donc dans une situation de besoins mutuels.

Ensuite, l’Iran, bien qu’il entretienne des relations économiques et stratégiques avec la Russie et la Chine, est un pays plus ou moins isolé à l’échelle internationale en raison des sanctions américaines et de son soutien à des organisations considérées comme terroristes par des pays occidentaux comme le Hezbollah libanais ou les Houthis yéménites. La Turquie, en revanche, est à la fois partenaire économique de la Russie, intégrée aux nouvelles routes de la soie chinoises… et membre de l’OTAN. La relation avec Ankara offre donc à l’Iran une forme de désenclavement régional et international. D’ailleurs, la Turquie s’est largement impliquée en tant qu’intermédiaire dans les négociations entre la République islamique et les Occidentaux sur le nucléaire iranien.

En outre, les deux pays partagent une culture répressive contre toute velléité d’autonomie politique kurde (rappelons que les Kurdes représentent environ un quart de la population en Turquie et un cinquième de la population en Iran).

Zones où les Kurdes sont présents en nombre. Jacques Leclerc, 2023/Université Laval

Ainsi, pendant la guerre civile syrienne, malgré leurs divergences, Ankara et Téhéran ont parfois collaboré afin de neutraliser des positions kurdes. De façon générale, les autorités turques et iraniennes assument leur coopération afin de lutter contre les organisations kurdes classifiées comme terroristes, notamment le PKK (Parti des travailleurs du Kurdistan) et le PJAK (Parti pour une vie libre au Kurdistan), les deux organisations appartenant à l’Union des communautés du Kurdistan, accusée d’œuvrer au démembrement de la Turquie et de l’Iran et d’être soutenue par des puissances extérieures, notamment Israël et les États-Unis.

C’est là qu’un autre déterminant apparaît dans les relations entre Ankara et Téhéran : la méfiance vis-à-vis de l’État hébreu.

Pourquoi la Turquie craint une victoire politique et militaire israélienne contre l’Iran

Pour comprendre la position turque vis-à-vis de la guerre en Iran, il faut donc partir de trois postulats. Tout d’abord, la prudence turque ne traduit en rien une affinité idéologique d’Ankara à l’endroit de Téhéran. Comme évoqué ci-dessus, la Turquie est largement dépendante des fournitures de gaz en provenance d’Iran. De plus, en raison des différents conflits régionaux, la Turquie est devenue le deuxième pays comptant le plus de réfugiés au monde – spécialement des Syriens. Cette situation provoque de nombreuses tensions sociales, économiques et politiques. L’une des motivations du soutien turc aux groupes rebelles ayant contribué au renversement de Bachar Al-Assad syriens résidait d’ailleurs dans le refus persistant de ce dernier de négocier les conditions d’un retour des trois millions de réfugiés syriens présents en Turquie. Or l’Iran est le pays accueillant le plus de réfugiés au monde, très majoritairement des Afghans. Un renversement du régime menant à un vide de pouvoir est donc vu par la Turquie comme un danger imminent qui pourrait provoquer un nouvel afflux de réfugiés sur son territoire. Ces derniers jours, la Turquie a militarisé sa frontière avec l’Iran pour prévenir ce risque.

De plus, Israël et les États-Unis ont plusieurs fois évoqué la possibilité d’utiliser des groupes rebelles kurdes pour renverser le régime iranien. Pour l’instant, aucune source fiable confirme l’implication de ces derniers contre le régime. En revanche, si cela se matérialisait, il est probable que la Turquie fournira des renseignements à Téhéran afin de neutraliser ces forces. Ankara affirme déjà qu’elle surveille de près les activités du PJAK. S’il semble peu probable que la Turquie mène une opération directe sur le sol iranien, c’est toutefois une possibilité à prendre en compte. Rappelons que l’objectif de la première opération militaire turque en Syrie (« Bouclier de l’Euphrate ») le 24 août 2016 fut de prévenir une autonomisation politique kurde dans le nord de la Syrie, à la frontière turque.

Enfin, en Turquie, il existe ainsi une conviction trans-partisane, à savoir que Tel-Aviv cherche à neutraliser toute puissance du Proche et du Moyen-Orient ayant des intérêts contraires aux siens. Alors que le chef de l’État, Recep Tayyip Erdogan, s’est dit « profondément attristé et inquiet » de l’attaque lancée contre l’Iran par les États-Unis et Israël, qu’il a attribuée à « une provocation de Benyamin Nétanyahou », le président du CHP (principal parti d’opposition), Özgür Özel, a tenu des propos similaires : « Israël a attaqué l’Iran. Notre parti condamne ces attaques avec la plus grande fermeté. Nous transmettons nos sentiments de solidarité au peuple iranien. »

Si la Turquie a été le premier pays à majorité musulmane à reconnaître l’État d’Israël, depuis la fin des années 2000, avec le « One minute speech » d’Erdogan et l’attaque de la flottille de Marmara par Israël, les relations entre Ankara et Tel-Aviv se sont profondément dégradées. Malgré des tentatives ponctuelles de reprise du dialogue, les tensions se sont intensifiées ces dernières années – notamment du fait de la condamnation très forte par la Turquie de la guerre menée par Israël à Gaza en représailles aux attaques du Hamas du 7 octobre 2023 – et ont culminé après la chute de Bachar Al-Assad en décembre 2024.

En effet, la Turquie prétend œuvrer à l’intégrité du territoire syrien et accuse Israël d’œuvrer à son morcellement, en soutenant des groupes factieux tels que les Druzes ou les Kurdes, et sa spoliation, en ayant étendu son emprise illégale sur le plateau du Golan. Ainsi, les deux pays se trouvent en compétition hégémonique en Syrie. Par conséquent, du point de vue de la Turquie, si l’Iran tombe, en raison de sa propre montée en puissance, Ankara serait le prochain sur la liste d’Israël.

De nombreuses déclarations de responsables israéliens abondent dans ce sens. Naftali Bennet, ancien premier ministre (2021-2022), a ainsi déclaré le 17 février 2026 : « Une nouvelle menace turque émerge. La Turquie est le nouvel Iran. Erdogan est dangereux et cherche à encercler Israël ». Sans être aussi explicites, des personnalités politiques actuellement au pouvoir préparent l’opinion publique israélienne à faire face à la « menace turque ». Par exemple, Benyamin Nétanyahou a déclaré le 22 février 2026 :

« L’objectif est de créer un axe de nations qui partagent la même vision de la réalité, des défis et des objectifs face aux axes radicaux – tant l’axe chiite radical, que nous avons frappé de plein fouet, que l’axe sunnite radical émergent. »

Depuis au moins le début des années 2020, de nombreuses opérations des services du renseignement turc ont été menées contre des agents clandestins accusés de collaborer avec Israël et d’utiliser le territoire turc comme un terrain de lutte contre des agents d’influence palestiniens ou iraniens. Ces opérations sont donc un révélateur de tensions croissantes mais encore diffuses et tacites.

Dans une région où plusieurs régimes définis comme des menaces par Israël ont été neutralisés (Saddam Hussein en Irak, Mouammar Khadafi en Libye, Bachar Al-Assad en Syrie) et où certains pays ont normalisé leurs relations avec l’État hébreu à travers les Accords d’Abaraham, la Turquie considère avec inquiétude la perspective d’une victoire politique et militaire israélienne en Iran, qui mènerait à la chute du régime des ayatollahs.

Des nuances importantes à apporter

La Turquie a été le seul pays de l’OTAN (avec l’Espagne) à dénoncer sans ambages le bellicisme israélo-américain et le seul à avoir présenté ses condoléances à l’Iran à la suite de l’assassinat de l’ayatollah Ali Khamenei. Pour autant, la Turquie et l’Iran se sont livré de véritables guerres d’influence, notamment en Syrie où l’Iran soutenait Bachar Al-Assad tandis que la Turquie armait les rebelles de l’Armée nationale syrienne ; en Irak, les Iraniens développaient leur réseau d’influence chiite là où la Turquie appuyait les partis sunnites, ou encore, plus récemment, dans le Caucase.

En effet, la Turquie a fourni un soutien actif à l’Azerbaïdjan dans la guerre menée contre les Arméniens du Haut-Karabakh, alors que l’Iran voit avec beaucoup de méfiance la montée en puissance de Bakou. L’Iran s’est d’ailleurs explicitement opposé à la création du corridor de Zangezur – là encore soutenu par la Turquie – censé faire la jonction entre l’Azerbaïdjan et la province autonome azerbaïdjanaise du Nakhitchevan, car cela marginaliserait Téhéran, ce dernier perdant son rôle de transit. Or l’Azerbaïdjan est l’un des plus grands alliés d’Israël. De nombreuses sources iraniennes affirment que le pays sert de point de départ à des opérations israéliennes visant l’Iran, dont l’Azerbaïdjan est frontalier.

Récemment, des drones iraniens se sont écrasés sur la province du Nakhitchevan. La réaction du président Ilham Aliev a été très virulente et il a promis une réponse forte. Si pour l’heure, Bakou semble privilégier la prudence, une implication dans le conflit contraindrait la Turquie à composer à la fois avec son allié azerbaïdjanais, avec une déstabilisation de l’Iran et avec sa rivalité avec Tel-Aviv.

Un rôle de médiateur pour Ankara ?

La Turquie a elle-même été touchée par deux missiles iraniens. Si Téhéran a nié la responsabilité de ces frappes, Recep Tayyip Erdogan a averti l’Iran que la patience de la Turquie « avait ses limites ». Si Ankara veut empêcher une déstabilisation de l’Iran, elle ne souhaite pas pour autant que la riposte iranienne se fasse à ses dépens, n’étant pas dans une posture passive et attentiste, contrairement aux pays du Golfe.

De plus, à la différence des autres pays définis comme des menaces par Israël, la Turquie est un membre de l’OTAN et un allié des États-Unis. Depuis l’élection de Donald Trump, les relations américano-turques ont été valorisées et l’ambassadeur américain en Turquie, Tom Barrack, œuvre à un renforcement des liens entre Ankara et Washington. Une proximité qui tempère les ardeurs israéliennes. Si les déclarations du secrétaire d’État Marco Rubio sur les raisons de l’entrée en guerre des États-Unis semblent indiquer un suivisme de l’administration Trump vis-à-vis d’Israël, le président américain a plusieurs fois rappelé qu’il espérait une guerre courte. Or la Turquie cherche précisément à prévenir un embrasement régional. Dès lors, Ankara cherche plutôt à jouer un rôle de médiateur dans ce conflit qui oppose l’Iran et Israël, deux pays qu’elle perçoit comme des rivaux géopolitiques au Moyen-Orient et dans le Caucase.

La prudence turque vis-à-vis de cette guerre s’explique donc par un souhait de maintenir un équilibre des puissances et d’empêcher une hégémonie israélienne, mais également iranienne.

The Conversation

Albert Kandemir ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

16.03.2026 à 17:44

Les hérissons ont l’ouïe fine, et cette découverte pourrait nous aider à les sauver

Sophie Lund Rasmussen, Research fellow in Ecology and Conservation, University of Oxford

En Europe, des millions de hérissons meurent en traversant les routes, mais une découverte ouvre la voie à un système d’alerte qui pourrait les empêcher de traverser à des moments dangereux.
Texte intégral (1493 mots)

En Europe, des millions de hérissons meurent en traversant les routes, mais une découverte ouvre la voie à un système d’alerte qui pourrait les empêcher de traverser à des moments dangereux.


Le hérisson est l’un des mammifères sauvages les plus connus et les plus appréciés d’Europe. Beaucoup de personnes les rencontrent dans leur jardin, entendent leur reniflement au crépuscule ou aperçoivent leur silhouette épineuse se déplacer dans la nuit.

Malheureusement, partout en Europe, les populations de hérissons diminuent rapidement. Le hérisson européen est désormais classé comme « quasi menacé » sur la liste rouge de l’Union internationale pour la conservation de la nature (IUCN) pour l’Europe. Il est devenu urgent de comprendre pourquoi cela se produit et ce qui peut être fait de manière réaliste pour enrayer ou inverser cette tendance.

Les nouvelles recherches que j’ai effectuées avec mon équipe montrent que les hérissons peuvent entendre des ultrasons. Grâce à cette découverte, il serait possible de concevoir des dispositifs sonores dissuasifs ciblant spécifiquement les hérissons, sans déranger les humains ni leurs animaux de compagnie. Ainsi, les signaux ultrasonores pourraient à l’avenir avertir les hérissons de l’approche de véhicules ou les éloigner des machines dangereuses.

C’est important, car l’une des plus grandes menaces pour les hérissons provient de la circulation routière. On estime que les voitures tuent chaque année un nombre considérable de hérissons à travers l’Europe, certaines études suggérant que jusqu’à un sur trois de ces animaux pourrait mourir chaque année sur les routes.

Les hérissons ne sont tout simplement pas adaptés aux infrastructures modernes. Leur principale stratégie de défense a évolué pour leur permettre d’échapper aux prédateurs naturels qui détectent les mouvements dans l’obscurité. Ils se figent, évaluent la menace, puis s’enfuient ou se recroquevillent en une boule épineuse. Face à un véhicule roulant à grande vitesse, cette stratégie leur est fatale.

Le naturaliste et réalisateur britannique David Attenborough liste des moyens d’aider les hérissons à survivre.

Les routes fragmentent également les paysages, ce qui, chez les hérissons, provoque des difficultés de trouver de la nourriture, des partenaires et de nouveaux habitats. Lorsque cela s’ajoute à des obstacles tels que des clôtures massives, une agriculture intensive, des jardins où l’on utilise des pesticides et l’utilisation généralisée de machines, comme les débroussailleuses et les tondeuses à gazon robotisées, il devient évident que le problème ne réside pas dans le comportement des hérissons. C’est l’environnement créé par les humains qui est en cause.

Le son peut-il être une solution ?

Pendant des années, je me suis posé la même question : les humains pourraient-ils avertir les hérissons avant qu’un danger ne survienne ? Pourrions-nous les éloigner des routes et des machines sans déranger les gens ?

Pour explorer cette possibilité, j’ai dû commencer par une question étonnamment simple : que peuvent réellement entendre les hérissons ?

J’ai constitué une équipe pluridisciplinaire composée d’experts spécialisés dans l’imagerie, la bioacoustique (étude de ce que les animaux entendent), le comportement animal, l’écologie des hérissons, l’expérimentation animale et l’anesthésie chez les hérissons.

À l’aide de microscanners haute résolution d’un hérisson qui avait été euthanasié dans un centre de sauvetage de la faune sauvage pour des raisons de bien-être, l’équipe a construit un modèle tridimensionnel de l’oreille moyenne et interne.

Le modèle a montré que les hérissons ont des os de l’oreille moyenne très petits et denses ainsi qu’une articulation partiellement fusionnée entre le tympan et le premier de ces os. Cela rend l’ensemble de la chaîne osseuse plus rigide, ce qui lui permet de transmettre efficacement les sons très aigus, une caractéristique des animaux, tels que les chauves-souris écholocalisatrices, qui peuvent entendre les ultrasons.

Les scans ont également révélé que les hérissons ont un petit étrier (le plus petit os de l’oreille moyenne qui relie la chaîne des os de l’oreille à la cochlée remplie de liquide de l’oreille interne). Or, un étrier plus petit et plus léger peut vibrer plus rapidement, ce qui lui permet de transmettre des ondes sonores à haute fréquence. La cochlée s’est également avérée relativement courte et compacte, ce qui lui permet de mieux traiter les vibrations ultrasoniques.

Les ultrasons désignent les fréquences sonores supérieures à 20 kHz, au-delà de la limite supérieure de l’audition humaine. Mais l’anatomie seule ne suffit pas à prouver quoi que ce soit. Pour confirmer ce que les hérissons pouvaient réellement entendre, nous avions besoin de mesures directes. Mais comment mesurer l’audition d’un hérisson ?

La mesure de l’audition des hérissons

Nous avons testé l’audition de 20 hérissons européens à l’aide d’enregistrements de réponses auditives du tronc cérébral. Sous anesthésie légère, de petites électrodes placées juste sous la peau des hérissons ont mesuré leur activité cérébrale pendant leur sommeil profond. Pendant ce temps, nous avons diffusé des sons couvrant une large gamme de fréquences et de pulsations. Si les hérissons pouvaient les entendre, leur activité cérébrale l’indiquait. Après ces tests, les hérissions étaient en bonne santé et prêts à être relâchés dans la nature le lendemain soir.

Les résultats ont été frappants. Les hérissons entendaient des sons compris entre environ 4 kHz et au moins 85 kHz, avec une sensibilité maximale autour de 40 kHz, soit bien au-delà de la gamme des ultrasons. Les hérissons peuvent donc entendre des sons que les humains, les chiens et les chats ne peuvent pas entendre. Tout cela pourrait changer la donne pour la conservation des hérissons.

En théorie, cela permettrait aux scientifiques d’utiliser des signaux ultrasoniques pour avertir les hérissons de l’approche de véhicules ou les éloigner de machines potentiellement dangereuses.

De nombreuses questions restent toutefois en suspens. Quels sons sont efficaces ? Les hérissons s’habituent-ils à certains bruits et finissent-ils par les ignorer ? Quelle est la portée des signaux ultrasoniques ?

Des recherches supplémentaires sont désormais nécessaires pour concevoir des répulsifs sonores efficaces et bénéfiques pour les hérissons, mais il s’agit là d’un pas en avant significatif. Qui sait, peut-être que l’industrie automobile pourrait contribuer au financement de ces recherches ?

The Conversation

Sophie Lund Rasmussen ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

16.03.2026 à 17:44

Les poussières atmosphériques, cause sous-estimée de pollution de l’air dans les villes

Emmanouil Proestakis, National Observatory of Athens

De nouvelles recherches montrent que les poussières atmosphériques ont des effets néfastes pour l’environnement et la santé de la population des mégapoles mondiales.
Texte intégral (2068 mots)

Transportées dans l’atmosphère parfois sur de longues distances, les poussières atmosphériques (particules en suspension dans l’air) constituent une source de pollution encore trop peu prise en compte, au regard des polluants classiques. Une analyse menée sur quinze ans de données satellitaires montre l’ampleur du risque pour les populations des mégapoles urbaines.


Les villes sont en train de devenir le principal lieu de vie humaine. En 2018, plus de 55 % de la population mondiale vivait dans des zones urbaines, une proportion qui devrait atteindre près de 68 % d’ici à 2050, selon les Nations unies.

Cette croissance urbaine sans précédent stimule l’innovation et l’activité économique, mais elle concentre également l’exposition humaine aux facteurs de stress environnementaux et intensifie la pression sur l’environnement urbain. Dans ce contexte, l’Organisation mondiale de la santé (OMS) a souligné les défis multiples et les risques graves que la mauvaise qualité de l’air fait peser sur les activités socio-économiques et la santé humaine. On ne considère généralement, dans les études, la dégradation de la qualité de l’air qu’à travers les émissions de polluants tels le dioxyde d’azote (NO₂), le dioxyde de soufre (SO₂), le dioxyde de carbone (CO₂) et l’ozone (O₃).

Dans une étude récente, nous avons donc pris en compte la poussière atmosphérique (celle-ci est principalement produite par les déserts et par certaines pratiques agricoles et transportée par les vents, ndlt). Cette dernière s’accumule dans les zones urbaines et représente un facteur de risque supplémentaire trop souvent négligé, alors qu’il a des effets sanitaires délétères.

Les poussières atmosphériques, un enjeu de santé publique

Parmi les types d’aérosols contribuant à la dégradation de la qualité de l’air, les poussières atmosphériques provenant de sources naturelles et des activités humaines sont souvent considérées comme moins dangereuses. Le problème ? Cette hypothèse néglige un nombre croissant de preuves scientifiques démontrant que les poussières en suspension dans l’air constituent un danger pour la santé.

Tout d’abord, la masse de ces poussières n’est pas négligeable. En termes de masse, elles sont le deuxième type d’aérosols le plus abondant au monde, surpassé uniquement par les particules de sel marin. Dans les larges zones continentales, elles deviennent le principal composant de la charge d’aérosols atmosphériques.

Plus précisément, on estime que les sources naturelles, principalement les zones arides et semi-arides, émettent environ 4 680 téragrammes (Tg) (1 Tg = 1 milliard de kilogrammes) de poussière dans l’atmosphère chaque année. Cette estimation ne tient pas compte de la poussière déjà présente dans l’atmosphère.

À l’échelle mondiale, les processus naturels contribuent à environ trois quarts de la charge totale de poussière, le quart restant étant lié aux activités humaines, en particulier autour des zones urbaines et hautement industrialisées. Les transports, le développement des infrastructures, le changement d’affectation des sols, la déforestation, le pâturage et les pratiques agricoles peuvent être en cause.

Mettons ce chiffre en perspective : la masse de poussières en suspension dans l’air rejeté chaque année dans l’atmosphère à l’échelle mondiale correspond à 615 000 fois le poids de la tour Eiffel


À lire aussi : Les poussières du Sahara qui remontent en Europe sont-elles radioactives du fait des essais nucléaires des années 1960 ?


Particules fines, grandes questions

De plus, ces particules sont loin d’être uniformes en taille. Des expériences à grande échelle menées pour étudier les polluants atmosphériques ont révélé que les particules présentes dans les couches atmosphériques transportées par le vent ont des tailles très variables, allant de moins de 0,1 micromètre (μm, environ la taille d’un virus SARS-CoV-2 , ou coronavirus) à plus de 100 μm (environ le diamètre d’un cheveu humain).

Plus inquiétant encore, les données issues d’études épidémiologiques établissent un lien entre les poussières en suspension dans l’air et des risques sanitaires. Les poussières minérales de grande taille sont souvent considérées comme relativement inoffensives, ne provoquant que des irritations cutanées mineures ou des réactions allergiques, même en cas d’exposition prolongée. Il en va autrement des particules fines. En raison de leur petite taille, ces particules fines peuvent pénétrer profondément dans les poumons, ce qui peut déclencher des maladies respiratoires et cardiovasculaires, des réactions allergiques plus graves, voire des cancers.

Au-delà de ces effets directs, les scientifiques continuent d’étudier le rôle de la poussière en tant que vecteur de bactéries, comme le suggèrent les épidémies de méningite dans le désert du Sahel.

Ces préoccupations soulèvent de nombreuses questions. Dans quelle mesure la répartition (entre particules fines et particules de grande taille) des poussières en suspension dans l’air a-t-elle évolué au cours des deux dernières décennies dans les zones urbaines fortement industrialisées et densément peuplées ?

Pouvons-nous détecter des tendances significatives, à la hausse ou à la baisse, dans ces données ? Quelles grandes villes connaissent actuellement, ou sont susceptibles de connaître dans un avenir proche, des concentrations de poussières dépassant les seuils de sécurité de la qualité de l’air fixés par l’OMS ?


À lire aussi : Pollution de l'air : toutes les particules fines n’ont pas les mêmes effets sur la santé


Ce que montrent quinze années d’observations satellites dans les mégapoles

Afin de mieux comprendre la quantité de poussière que respirent quotidiennement les populations urbaines, notre récente étude a examiné les observations satellitaires de la Terre sur une période de plus de quinze ans. Nous avons étudié l’accumulation et les dynamiques temporelles des transports de poussière dans la couche atmosphérique la plus basse, au-dessus de 81 des plus grandes villes et zones urbaines du monde. Concrètement, nous avons retenu les zones où la population excède 5 millions d’habitants.

Les résultats révèlent plusieurs conclusions importantes :

  1. La poussière atmosphérique représente, sans aucun doute possible, une menace pour la santé publique dans un nombre important de grandes zones urbaines dans le monde. D’après les données démographiques et les projections fournies par l’ONU, environ 9 personnes sur 10, parmi les quelque 800 millions d’habitants des 81 plus grandes villes, sont exposées à des niveaux de poussière supérieurs aux seuils annuels de risque en matière de qualité de l’air. Une tendance géographique claire se dessine : les zones urbaines les plus touchées se situent au Moyen-Orient, dans le sous-continent indien (Asie du Sud), en Asie de l’Est et au Sahel.

  2. Les niveaux de poussière semblent diminuer dans la plupart des grandes villes. Cependant, cette nouvelle encourageante s’accompagne de deux réserves importantes : dans de nombreux cas, ces tendances temporelles à la baisse ne sont pas statistiquement significatives et, souvent, la charge globale de poussière reste considérable. En d’autres termes, même lorsque des réductions sont observées, elles ne se traduisent pas nécessairement par une diminution significative des risques pour la santé.

  3. À court terme, ce problème ne devrait pas disparaître. Selon les estimations de l’ONU, la population urbaine de ces mégapoles devrait augmenter pour atteindre plus d’un milliard de personnes au milieu des années 2030.

Par conséquent, la poussière atmosphérique restera un danger environnemental pour la santé. Même si les tendances à la baisse devaient se confirmer, cette pollution touchera davantage d’habitants du fait de l’augmentation des populations dans les villes.

De la science à la politique

En réponse aux preuves scientifiques de plus en plus nombreuses qui montrent que les poussières en suspension dans l’air constituent un risque pour la santé humaine, les pays renforcent peu à peu leurs législations en matière de qualité de l’air. Des initiatives nationales et internationales ont été lancées.

Des initiatives telles que le SDS-WAS de l’Organisation météorologique mondiale, l’alliance DANA et le programme CAMS NCP reflètent une collaboration croissante pour améliorer la surveillance, la modélisation et la traduction de la science en solutions pratiques. Parallèlement, les gouvernements s’efforcent d’aligner leurs réglementations sur les recommandations de l’OMS.

Par exemple, la directive révisée de l’Union européenne (UE) sur la qualité de l’air ambiant reconnaît explicitement les aérosols naturels tels que la poussière comme un danger pour la santé. Les progrès de la recherche, la coordination des politiques et l’amélioration de la réglementation constituent, ensemble, une base plus solide pour agir.

Avec l’accélération de l’urbanisation, la lutte contre la pollution de l’air, notamment la poussière atmosphérique, est essentielle pour protéger la santé publique, renforcer la résilience des villes et garantir un avenir plus durable aux villes du monde entier qui connaissent une croissance rapide.


Créé, en 2007, pour aider à accélérer et à partager les recherches scientifiques sur des enjeux sociaux majeurs, le Fonds d’Axa pour la recherche soutient près de 700 projets dans le monde. Pour en savoir plus, visiter le site ou bien sa page LinkedIn.

The Conversation

Emmanouil Proestakis a reçu des financements du Fonds AXA pour la recherche postdoctorale dans le cadre du projet intitulé « Observation de la Terre pour la qualité de l'air – Mode fin de la poussière » (EO4AQ-DustFM).

PDF

16.03.2026 à 17:43

Pour apprendre une langue étrangère, il n’y a pas d’âge limite ! Enfants et adultes ont leurs propres stratégies

Karen Stollznow, Senior Research Fellow of linguistics, University of Colorado Boulder; Griffith University

Les enfants ont bien plus de facilité que leurs aînés à se familiariser avec un nouvel accent lorsqu’ils découvrent une langue. Mais les adultes peuvent compter sur d’autres atouts dans leur apprentissage.
Texte intégral (2102 mots)

Les enfants ont bien plus de facilité que leurs aînés à se familiariser avec un nouvel accent lorsqu’ils apprennent une langue. Cependant, devenir plurilingue n’est pas hors de portée des adultes, qui peuvent compter sur tout un ensemble d’autres compétences développées au fil du temps.


Si les jeunes apprenants peuvent acquérir plus facilement un accent natif, les adultes conservent la capacité d’apprendre de nouvelles langues jusqu’à un âge avancé.

On a tendance à supposer qu’en apprenant une langue dès le plus jeune âge, on la maîtrisera rapidement.

Beaucoup de gens pensent également qu’il est beaucoup plus difficile d’apprendre une langue si l’on s’y met tardivement.

Les recherches sur l’apprentissage des langues montrent que l’âge auquel une personne s’initie à une langue a son importance, mais il n’existe pas d’âge limite auquel la capacité d’apprendre une langue s’éteindrait.

Si les jeunes apprenants acquièrent plus facilement l’accent des locuteurs natifs, les adultes conservent la capacité d’apprendre de nouvelles langues jusqu’à un âge avancé. Tout le monde peut continuer à apprendre et à perfectionner son vocabulaire et sa grammaire. D’autres facteurs, tels que la motivation, peuvent également jouer un rôle pour les apprenants de tous âges.

Je suis linguiste et autrice d’un ouvrage à paraître, intitulé Beyond Words : How We Learn, Use, and Lose Language, qui examine comment une langue est apprise, utilisée et oubliée tout au long de la vie, et pourquoi l’âge seul ne fixe pas de limites strictes à nos capacités linguistiques.

Au contraire, les stratégies utilisées par les apprenants, les résultats qu’ils atteignent le plus facilement et la façon dont les autres évaluent leurs progrès peuvent tous évoluer au fil du temps.

Comment l’âge influence l’apprentissage des langues

L’âge d’une personne peut influencer sa capacité à apprendre une langue de différentes manières.

Les scientifiques parlent parfois de « périodes sensibles », c’est-à-dire d’une période précoce du développement pendant laquelle le cerveau est particulièrement réceptif à certains types d’informations.

En matière de langage, les bébés et les enfants sont particulièrement sensibles aux schémas sonores. Ils peuvent également percevoir des distinctions phonétiques subtiles que les adultes ont du mal à percevoir ou à reproduire.

Cela explique pourquoi les enfants qui grandissent dans un environnement bilingue parlent souvent les deux langues comme des natifs. Les accents, plus que le vocabulaire ou la grammaire, sont le domaine où les différences liées à l’âge sont les plus prononcées.

Les périodes sensibles existent également chez d’autres animaux, en particulier les oiseaux, qui ont une période sensible précoce pour apprendre le chant spécifique à leur espèce auprès d’un tuteur adulte.

Une fois cette période passée, il est toujours possible d’apprendre une nouvelle langue. Mais cela demande généralement plus d’efforts conscients et de pratique.

Des études montrent également que les enfants exposés à une deuxième langue dès leur plus jeune âge, généralement avant la puberté, ont plus de chances d’acquérir une prononciation et une intonation proches de celles d’un locuteur natif.

Des recherches en imagerie cérébrale montrent que les personnes qui apprennent deux langues dès le plus jeune âge ont tendance à les traiter dans les mêmes parties du cerveau. Ceux qui apprennent une deuxième langue plus tard utilisent souvent des zones cérébrales légèrement différentes pour chaque langue.

Concrètement, les personnes bilingues précoces sont plus susceptibles de passer d’une langue à l’autre sans effort. Les apprenants tardifs peuvent devoir travailler plus consciemment leur deuxième langue, surtout au début.

Les avantages d’apprendre une langue à l’âge adulte

La prononciation ne représente qu’une part de la maîtrise d’une langue. Les adultes bénéficient aussi d’atouts qui leur sont propres pour y parvenir.

Contrairement aux jeunes enfants, les apprenants adultes peuvent déjà s’appuyer sur une langue maternelle pleinement développée. Ils possèdent également des compétences de raisonnement et de reconnaissance des schémas, ainsi qu’une conscience du fonctionnement du langage.

Cela permet aux adultes d’apprendre de manière plus réfléchie, car ils étudient les règles grammaticales et comparent consciemment les langues. Les adultes ont également davantage tendance à s’appuyer sur des stratégies délibérées, telles que la mémorisation, pour apprendre une langue.


À lire aussi : À partir de quand devient-on bilingue ?


En classe, les adultes surpassent souvent les enfants dans les premières étapes de l’apprentissage, en particulier en lecture et en écriture.

L’apprentissage des langues ne s’arrête jamais vraiment. Même à l’âge adulte, les gens continuent à développer et à perfectionner leur langue maternelle, façonnée par leur éducation, leur travail, leur environnement social et la façon dont ils l’utilisent au quotidien.

S’il peut être plus difficile pour les adultes d’acquérir un accent proche de celui d’un locuteur natif à un âge avancé, la bonne nouvelle est que la grammaire, le vocabulaire et la fluidité restent à la portée de la plupart des apprenants adultes.

Les avantages d’apprendre une langue dès l’enfance

Les enfants, quant à eux, ont tendance à apprendre les langues de manière implicite, par immersion et interaction, souvent sans prêter attention aux règles.

Les facteurs sociaux et émotionnels jouent également un rôle majeur dans la réussite de l’apprentissage d’une langue.

Les enfants sont généralement moins timides que les adultes et plus disposés à prendre des risques lorsqu’ils s’expriment.

Les adultes, en revanche, sont souvent très conscients de leurs erreurs et peuvent hésiter à s’exprimer, par crainte de paraître ridicules ou d’être jugés.

Les recherches montrent systématiquement que la disposition à communiquer est un facteur prédictif important de la réussite dans l’apprentissage d’une nouvelle langue. L’anxiété, l’inhibition et les commentaires négatifs des autres peuvent ralentir considérablement les progrès, quel que soit l’âge.

Accent, préjugés et pression sociale

D’autres facteurs, tels que la pression sociale et la discrimination, jouent également un rôle important lorsqu’une personne tente d’apprendre une nouvelle langue.

Les recherches sur la langue et l’identité montrent que les auditeurs associent souvent un fort accent à une intelligence ou une compétence moindre, bien qu’il n’y ait aucun lien entre l’accent et les capacités cognitives.

Les locuteurs non natifs sont souvent victimes de stigmatisation, de discrimination et de préjugés de la part des locuteurs natifs.

Ce préjugé peut décourager les apprenants adultes et renforcer la fausse croyance selon laquelle, pour réussir l’apprentissage d’une langue, il faut parler comme un natif.

La motivation et les aptitudes comptent aussi

La motivation est un autre facteur clé qui influence les apprenants de tous âges.

Les gens apprennent de nouvelles langues pour de nombreuses raisons : un nouveau pays, le travail, les études, les relations ou l’intérêt pour une autre culture.

La recherche distingue les différentes raisons qui poussent les gens à apprendre une langue. Certaines sont pratiques, comme l’évolution de carrière ou la réussite d’un examen. D’autres sont personnelles, comme le désir de se rapprocher d’une communauté, d’une culture ou d’une famille.


À lire aussi : Apprendre une nouvelle langue : pourquoi on ne doit pas considérer l’âge comme un frein


Les apprenants qui ressentent un lien personnel ou émotionnel fort avec la langue sont plus enclins à persévérer même lorsque cela devient difficile, et ils atteignent souvent des niveaux de maîtrise plus élevés que ceux qui n’ont pas ce lien.

D’autres personnes ont une aptitude naturelle pour l’apprentissage des langues et peuvent les assimiler facilement. Peut-être remarquent-elles rapidement les schémas sonores, ou peuvent-elles mémoriser de nouveaux mots après les avoir entendus une ou deux fois.

L’aptitude linguistique est différente de l’intelligence et varie d’une personne à l’autre. L’aptitude augmente les chances de réussite dans l’apprentissage d’une langue, mais ne la garantit pas.

Les apprenants ayant une aptitude moyenne peuvent tout de même devenir très compétents dans de nouvelles langues à l’âge adulte s’ils y sont exposés de manière régulière, s’ils s’entraînent et s’ils sont motivés.

À chaque âge ses atouts

Alors, vaut-il mieux apprendre une deuxième langue quand on est enfant ou quand on est adulte ? Les recherches suggèrent que la question la plus pertinente est de savoir quels aspects de l’apprentissage d’une langue, tels que la prononciation, la fluidité ou la maîtrise à long terme, sont les plus importants.

Apprendre une nouvelle langue dès le plus jeune âge permet de parler plus facilement comme un locuteur natif et d’utiliser la langue avec aisance, sans avoir à réfléchir aux règles.

Apprendre une langue plus tard dans la vie fait appel aux points forts dont disposent les adultes, tels que la planification, la résolution de problèmes et une pratique soutenue.

En fin de compte, certaines personnes apprennent rapidement les langues tandis que d’autres ont plus de difficultés, quel que soit leur âge.

Les croyances relatives à l’apprentissage des langues influencent les politiques éducatives, les choix parentaux et la manière dont les personnes multilingues sont traitées dans la vie quotidienne.

Lorsque les adultes s’entendent dire qu’ils ont raté leur chance d’apprendre une langue, beaucoup ne prennent même plus la peine de se lancer. Lorsque les accents étrangers sont considérés comme des imperfections, des locuteurs pourtant compétents peuvent être injustement victimes de discriminations.

En réalité, des recherches montrent qu’il est possible d’apprendre une langue à tout âge. Il s’agit d’un parcours réalisable tout au long de la vie, plutôt que d’une course contre la montre.

The Conversation

Karen Stollznow ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

16.03.2026 à 17:41

La « silver economy » pour les marques, ou comment faire du neuf avec les vieux ?

Jean-Baptiste Welté, Professeur de Sciences de Gestion, Université Paris-Panthéon-Assas

Anne Bontour, Maitre de conférences en sciences de gestion, Université Marie et Louis Pasteur (UMLP)

Pour séduire la clientèle senior, les marques se mobilisent. Pour cela, elles disposent de nombreuses stratégies possibles pour entrer en relation avec ce segment de clientèle.
Texte intégral (1280 mots)

Les seniors qui cumulent temps libre et pouvoir d’achat sont une cible de choix pour les marques. Quelles stratégies déploient ces dernières pour les séduire, les attirer et les fidéliser ? Du pur hédonisme à la marque « apprenante »… l’imagination est (toujours) au pouvoir !


La « silver economy » ne cesse de croître. Voyages, assurances, santé, alimentation, cosmétique, le vieillissement de la population entraîne l’émergence de davantage de produits et de services à destination des personnes âgées. L’économie à destination des seniors pourrait ainsi générer un chiffre d’affaires de plus de 130 milliards d’euros à l’horizon 2030 ».

Un nouvel hédonisme

Ce marché du vieillissement est en réalité un marché du « bien vieillir ». Les personnes âgées sont invitées à profiter de ce nouveau « plus bel âge de la vie », que représente notamment la soixantaine. Certes, elles présentent des vulnérabilités, mais des produits et services associés au « bien vieillir » les invitent à un nouvel hédonisme.

En bonne santé pour beaucoup grâce aux progrès de la médecine, libérées des contraintes du travail, elles peuvent jouir pleinement de leur temps libre. Dans ce contexte, les marques, pourvoyeuses de sens des sociétés de consommation, leur offrent des imaginaires auxquels se rattacher. Alors que leur public cible était plutôt les jeunes générations en quête de modèle identitaire, elles peuvent accompagner les nouvelles exigences sociales du « bien vieillir ».


À lire aussi : Mode : les consommateurs seniors encore loin de l’inclusion


Les marques aident les personnes âgées dans leur rôle de grand-parents, et accompagnent plus généralement la transmission sociale au sein de la famille, au travers de récits valorisant des compétences, un savoir-faire ou un savoir-être, comme, par exemple, la campagne « Générations » de Patek Philippe.

Mais cette transmission n’est pas automatique. Les seniors ont un pouvoir de régulateur, et peuvent contredire certaines marques, par exemple remettre en question le rôle fédérateur de Nutella (en limitant l’usage auprès de leur famille, ou alors s’opposer aux marques de jeux vidéo, pour « garder un lien » avec leurs petits-enfants).

Des marques apprenantes

La relation peut être inversée, et des marques « apprenantes » aident les personnes âgées à maintenir le lien avec les jeunes générations. Ils ont alors plaisir à continuer à apprendre tout en restant socialement en lien avec leur entourage. Les marques technologiques comme Apple ont ainsi intégré un mode senior à partir d’Ios 17 qui leur permet d’accéder plus facilement aux applications, et de pouvoir rester connecté avec leurs petits-enfants.

Certaines marques « béquille » sont utilisées par les personnes âgées pour gérer plus aisément les effets du vieillissement. Mais cette fonction de « béquille » ne doit pas représenter uniquement un marché destiné aux seniors, sous peine de les stigmatiser. Par exemple, la marque suisse, On, destinée aux sportifs souhaitant allier innovation et performance, s’est développée sur ce nouveau segment de marché tout en gardant son offre pour sa cible d’origine.

Les marques coups de cœur

La marque peut également servir aux coups de cœur des personnes âgées, preuve que leur désir peut encore être stimulé. Certaines marques peuvent avoir été fantasmées plus jeunes, puis leur consommation décalée à cause des contraintes économiques ou financières de chacun.

France 24, 2020.

Les seniors profitent d’autant plus pleinement de ces marques « hédoniques » que le report de jouissance a créé une attente et amplifié le désir. Plus généralement, la marque fonctionne alors comme une envie de « se faire plaisir ». Des pulls en cachemire, comme Bompard, qui associent aux bénéfices fonctionnels de multiples coloris favorisent par exemple ces achats coups de cœur.

« Pépé gâteux » ou « Mamie Nova »

La relation entre les marques et les personnes âgées illustrent qu’ils restent pleinement acteurs de la société de consommation. Les marques sont, comme pour les plus jeunes générations, un outil d’expression sociale. Ces relations dynamiques invitent à reconsidérer la place des seniors dans les représentations publicitaires et plus généralement médiatiques.

Même si ces dernières ont tendance à évoluer et mettre en avant des exemples de « bien-vieillir », les visions stéréotypées associées au déclin physique ou cognitif restent prégnantes. Or, les marques peuvent contribuer à les modifier, et tisser une relation client spécifique avec cette cible, en comprenant ses multiples facettes (sa vulnérabilité mais également sa capacité à être prescripteur, et à craquer pour des achats impulsifs). Elles renouvellent alors leur imaginaire fécond avec les identités protéiformes des personnes âgées.


Cet article est publié en partenariat avec Décisions Marketing, la revue scientifique de l’Association française du marketing. La version intégrale a paru dans le numéro 120 qui avait pour thème « La place des marques dans la société. ».

The Conversation

Jean-Baptiste Welté est Professeur associé à l'école Polytechnique

Anne Bontour ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

16.03.2026 à 17:41

Mesures anti-évitement fiscal : quel bilan dix ans après le plan d’action de l’OCDE ?

Flora Bellone, Professeure des Universités en Sciences économiques, Université Côte d’Azur

Charlie Joyez, Maitre de Conférence en économie, Université Côte d’Azur

En 2015, les pays de l’OCDE adoptaient un plan d’action (BEPS) contre l’érosion de la base et le transfert de bénéfices. Le BEPS a-t-il vraiment permis d’endiguer ces pratiques ?
Texte intégral (1511 mots)
Les recettes fiscales mondiales perdues du fait du transfert de bénéfices sont passées de 9 à 10 % depuis 2015. Elnur/Shutterstock

En 2015, les pays de l’Organisation de coopération et de développement économiques, soutenue par le G20, adoptaient un plan d’action contre l’érosion de la base et le transfert de bénéfices (« Base Erosion and Profit Shifting »). Cette initiative internationale constituait une réponse au phénomène de l’évitement fiscal des entreprises, qui s’était fortement amplifié au cours des trente dernières années, en parallèle de l’expansion mondiale des chaînes de valeur et de la croissance des multinationales.


Les entreprises multinationales ont tiré parti des différences au sein du système fiscal international pour mettre en place des schémas d’organisation fondés, notamment, sur des choix d’implantation dans des juridictions à faible fiscalité et des transferts de bénéfices via divers mécanismes dont le plus important est l’ajustement des prix de transfert intra-groupe. Une entreprise va facturer une prestation à une autre entreprise du même groupe, mais d’un autre pays, afin de déplacer des fonds.

En dix ans, le plan « Base Erosion and Profit Shifting » (BEPS) a-t-il permis d’endiguer ces pratiques ? Les études sur le sujet font pour l’heure actuelle un bilan mitigé. Dans notre récent working paper « Tax avoidance by small multinationals as a side effect of anti tax avoidance policy » (« L’évasion fiscale des petites multinationales comme effet secondaire de la politique anti-évasion fiscale »), nous contribuons à en évaluer les effets, tout en mettant l’accent sur les différences de comportements des grandes et des petites multinationales en matière d’évitement fiscal.

Pas de diminution significative

Sur le plan macroéconomique, d’abord, des analyses empiriques récentes montrent que l’évitement fiscal international n’a pas connu de diminution significative depuis 2015. Gabriel Zucman et son confrère de l’Université de Berkley Ludvig Wier documentent, en particulier, ont montré que, sur la période 2015-2019, les profits des multinationales ont continué de croître plus rapidement que les profits mondiaux, que la part des profits déclarés dans les paradis fiscaux est restée stable autour de 37 %, et que la fraction de recettes fiscales mondiales perdues du fait du transfert de bénéfices est passée de 9 à 10 %.

Ces constats illustrent un paradoxe. Alors que la réglementation internationale s’est renforcée, aucune baisse nette de l’évitement fiscal n’a été observable à l’échelle agrégée, du moins dans les années qui ont juste suivi la mise en œuvre de la réforme.

Comment l’expliquer ? Les travaux des économistes Ruby Doeleman, Dominika Langenmayr et Dirk Schindler montrent que cette stabilité globale masque des ajustements stratégiques fins. Les grandes multinationales ont tendance à réorienter leurs profits hors des paradis fiscaux les plus visibles.

Elles auraient tendance à les réorienter vers des juridictions à faible fiscalité, mais présentant davantage de substance économique, ce qui rend l’effet net sur les recettes fiscales des pays à forte imposition ambigu.

Réallocation vers des juridictions fiscalement avantageuses

De même, Olbert et De Simone, respectivement chercheurs aux universités de Rotterdam et d’Austin, soulignent que la mise en place du « Country by Country Reporting » (CbCR, qui implique une transparence accrue sur l’allocation du profit imposable) prévu dans le plan BEPS a induit des réallocations réelles des investissements et de l’emploi vers des juridictions fiscalement avantageuses, reflétant un ajustement des structures organisationnelles plutôt qu’une simple modification comptable. Ces études convergent vers une idée clé : si les incitations fiscales demeurent, le cadre BEPS et le CbCR conduisent désormais les entreprises à opérer leurs arbitrages en articulant les gains fiscaux avec une plus grande substance économique.

Dans nos travaux, nous avançons l’hypothèse que les pratiques d’organisation fiscale se seraient déplacées progressivement vers les entreprises multinationales de taille moyenne. Le plan BEPS, bien qu’orienté vers la lutte contre l’évitement fiscal, aurait en effet involontairement réduit les barrières à l’entrée de ces pratiques pour les petites multinationales.

Multinationales de plus petites tailles

Dès sa conception, le texte s’est focalisé sur les grandes entreprises, en instaurant un seuil de chiffre d’affaires consolidé de 750 millions d’euros pour déterminer les obligations de reporting. Seules les firmes dépassant ce seuil ont été soumises à des exigences strictes et à des sanctions significatives en cas de non-conformité, cette stratification visant à concentrer la surveillance fiscale sur les acteurs les plus capables d’engager des stratégies fiscales agressives et à limiter les coûts administratifs pour les entreprises plus modestes. En parallèle, les petites et moyennes multinationales ont pu bénéficier d’un choc informationnel positif leur permettant de réestimer à la baisse leur risque de contrôle fiscal, tout en gagnant en expertise sur les schémas complexes de manipulation des prix de transferts explicités dans le cadre de la réglementation.

Ainsi, notre travail en cours sur les multinationales françaises semble révéler un phénomène complémentaire. Tandis que les grandes multinationales (au-dessus du seuil de 750 millions d’euros de chiffre d’affaires) sont partiellement sorties des paradis fiscaux du fait de la réforme, des multinationales de plus petite taille ont augmenté leur présence dans des juridictions à fiscalité avantageuses après 2015, profitant des clarifications et de la standardisation introduites par le BEPS pour réduire l’incertitude et les coûts fixes liés aux pratiques internationales d’organisation fiscale.

Si ces résultats se confirment, ils pointeraient un canal d’apprentissage et d’imitation des pratiques des grandes firmes par les entreprises de plus petite taille qui aurait pu être facilité par la législation.

Améliorer la compétitivité des entreprises domestiques

Ces résultats suggèrent que les politiques anti-évitement fiscal des multinationales doivent prêter attention non seulement à la marge intensive de ces pratiques, c’est-à-dire la propension des entreprises engagées dans ces pratiques à les intensifier ou à les atténuer, mais aussi à la marge extensive, c’est-à-dire les incitations de nouveaux acteurs à adopter ces pratiques dans le nouveau cadre législatif. En particulier, ces politiques doivent veiller à ne pas faciliter l’adoption de pratiques d’optimisation fiscale par des entreprises initialement moins sophistiquées.

Cependant, les études sur les évolutions de l’évitement fiscal lors de la dernière décennie suggèrent une autre conséquence du plan BEPS et des obligations de CbCR pour les multinationales au-dessus du seuil de 750 millions d’euros de chiffre d’affaires consolidés : en plus du renchérissement de leurs coûts fiscaux effectifs, leurs ventes diminueraient.

Les multinationales perdraient ainsi du pouvoir de marché lorsque leurs stratégies d’évitement fiscal sont limitées, améliorant la compétitivité des entreprises domestiques. Il s’agit toutefois d’un domaine de recherche récent et en développement. Les effets à long terme sur la structure des marchés nécessitent davantage de données empiriques.


Cette contribution est publiée en partenariat avec le Printemps de l’économie, cycle de conférences-débats qui se tiennent du 17 au 20 mars au Conseil économique social et environnemental (Cese) à Paris.

Retrouvez ici le programme complet de l’édition 2026, « Le temps des rapports de force ».

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

16.03.2026 à 17:40

Agatha Christie, reine des morts, reine des mots

Isabelle-Rachel Casta, Professeur émérite, culture sérielle, poicière et fantastique, Université d'Artois

Comme Conan Doyle, une femme semble marcher dans les traces mêmes de l’énigme du jeu des références cryptées : c’est Agatha Christie, « duchesse de la Mort ».
Texte intégral (1952 mots)
La prolifique Agatha Christie ne lésinait pas sur les références littéraires. Michaël Bemelmans/Wikimédia, CC BY

Dans la lignée de Conan Doyle, une femme a su maîtriser comme personne l’énigme à rebondissements et le jeu des références cryptées : c’est Agatha Christie, « duchesse de la Mort », s’il faut en croire le beau titre du critique François Rivière (Seuil, 1981). Les mots, la mort, le crime : bienvenue dans le labyrinthe Christie !


Faut-il relire Agatha Christie ? Oui, car son œuvre, immense, rassemble tous les états de la culture et de la sensibilité britanniques à travers des enquêtes qui sont autant de voyages au pays des savoirs humanistes. Ses détectives sont aussi savants qu’elle, et généralement les coupables le sont également ! Explorer son œuvre, c’est saisir la fusion des codes de l’énigme et de la culture britannique littéraire au sein du genre policier, pourtant longtemps considéré comme éloigné de la tradition classique.

Ainsi Christie fera-t-elle de chaque roman la rencontre insolite du divertissement attendu d’un bon polar avec la présence cryptique des plus notables œuvres du corpus lettré, comme on peut l’entendre dans une récente émission consacrée à l’autrice de légende. Mais les mots et les morts font-ils toujours bon ménage ?

Polars ou poèmes ?

En parcourant l’ensemble de la production d’Agatha Christie, on est frappé par l’importance des références et des citations : comptines inquiétantes (Hickory, Dickory, Dock, Pension Vanilos pour la version française) ou présence mythologique (Nemesis) : les titres plongent toujours dans un passé légendaire ou poétique.

Deux romans tardifs, le Miroir se brisa (The Mirror Crack’d from Side to Side, 1962) et La nuit qui ne finit pas (Endless Night, 1967) semblent construits selon le même système de réminiscences car ils portent, dans leurs titres mêmes, le souvenir de deux grands poètes britanniques : William Blake (1757-1827) et Alfred Tennyson (1809-1892). On a l’impression qu’ils sont les auteurs originels de ces romans, puisque chaque titre est un fragment de leurs propres écrits ! La nuit qui ne finit pas appartient à Blake (« Augures d’innocence ») et le Miroir se brisa est une citation d’un poème de Tennyson consacré à la Dame de Shalott (personnage de la geste arthurienne), poème dont la trame guide l’enquête tout au long du récit.

C’est quasiment toujours dans le passé (personnel ou collectif) qu’il faut trouver les clés des énigmes présentes : cet axiome psychanalytique et policier (mais n’est-ce pas une sorte de pléonasme ?) fonctionne pleinement dans le Miroir se brisa. Les références et les allusions y fourmillent, dominées par l’obsédante présence du poème de Tennyson.

L’intrigue est simple : Marina, une actrice, découvre qu’une admiratrice trop pressante a contaminé jadis l’enfant qu’elle portait, elle. Elle s’arrange alors pour la tuer, et la haine qui s’empare d’elle n’échappe pas à l’une des invitées, surprise de lire dans son regard la même folie que Tennyson prête à son héroïne, la pauvre Dame de Shalott. Or, selon l’universitaire Annie Combes (l’Écriture du crime) chaque référence, même la plus anodine, contient déjà toutes les réponses ! Sans cesse, les vers de « La Dame de Shalott » vont revenir scander l’enquête. Ils apparaissent une première fois dits par une vieille amie de Miss Marple, enquêtrice malgré elle et perspicace observatrice du moindre détail :

« Vous souvenez-vous de “la Dame de Shalott” ? ‘Le miroir se brisa de part en part. Je suis maudite ! cria la Dame de Shalott’. Elle me l’a rappelée. Les gens apprécient peu Tennyson, aujourd’hui, mais la “Dame de Shalott” m’a toujours beaucoup plu. »

La femme qui récite du Tennyson est déjà présente dans un autre roman, Un cadavre dans la bibliothèque : on peut ainsi parler d’autocitation ; de plus, elle dit le poème devant un tableau, donc en joignant la réminiscence littéraire à la compétence picturale. Des fragments du poème sont aussi répétés en écho par Miss Marple, toujours centrés sur la malédiction qui frappe en même temps l’héroïne de Tennyson… et l’actrice contemporaine, sans doute assassinée à la fin par son époux.

Seules de respectables dames anglaises comprennent donc pourquoi Tennyson sert d’épitaphe à la criminelle morte :

« Elle a un beau visage ;
Que Dieu dans sa miséricorde lui accorde sa grâce,
La Dame de Shalott. »

Le film inspiré de l’œuvre conserve d’ailleurs cette indécision finale. Ainsi, d’indice en élucidation, le poème aura couru tout au long du texte comme une lumière noire.

L’air du crime pour un « meurtre familier »…

On a vu que le double de l’auteur, Miss Marple, n’est pas « féminine », au sens stéréotypé du terme : elle est âgée et célibataire, donc conventionnellement asexuée. Mais elle incarne la justice et la vengeance, le Temps et, d’une certaine façon, la Mort… comme le manifeste une œuvre symétrique au roman déjà cité (et ce, même si elle n’apparaît pas spécifiquement).

La nuit qui ne finit pas se présente de fait comme le commentaire d’un texte de William Blake. Mais quelle place reste-t-il à la fiction policière ? Celle d’une parabole : revisiter la littérature anglaise à la lumière du polar contemporain. À cet égard, la disposition de l’exergue, en regard du texte, est assez étrange pour mériter une remarque :

« Chaque nuit et chaque matin, certains naissent pour le malheur. Chaque matin et chaque nuit, certains naissent pour la douce joie, certains naissent pour une nuit sans fin. William Blake.

« Chapitre premier

« J’ai souvent lu ou entendu cette chanson. Elle sonne bien, mais que signifie-t-elle au juste ? »

Il faut donc comprendre que le héros-assassin (qui dit « je ») lit ou entend le texte de Blake, puisque la mention « Chapitre premier » sépare l’exergue de la fiction proprement dite. Il est bien entendu celui qui est « né pour le malheur » ; comme par prémonition, Ellie, sa jeune et adorable femme « née pour la douce joie », fredonne elle aussi ces mots… Ainsi l’angoisse suscitée par le poème devient-elle le leitmotiv de la catastrophe imminente. Celle qui était « née pour le bonheur » périt assassinée, car dans ce monde on tue pour de l’argent (Michael ne l’a épousée que pour en hériter, d’accord avec sa maîtresse Greta) et on devient fou… La chanson la venge, et chaque apparition des fameux vers accompagne la chute vers l’abîme du criminel Michael Rogers.

L’assassin qui, à la fin, sombre dans la folie, ne jouira évidemment pas de l’argent de la femme qu’il a tuée : « […] Dans la nuit sans fin où je me suis perdu. » Dans le film qui tire son nom de celui du roman, l’interprétation sensible de Hywel Bennett renvoie d’ailleurs plutôt bien à la paranoïa du personnage.

Ce roman reprend, rappelons-le, les procédés narratifs qui firent la gloire de son auteur. En effet, en 1967, plus de quarante ans après l’affaire Ackroyd, Agatha Christie opte une nouvelle fois pour le récit au « je » du meurtrier, avec un « blanc » typographique où s’inscrit la commission du forfait : « En arrivant à un croisement… nous la découvrîmes » (le pronom « la » renvoie bien sûr au corps sans vie d’Ellie, empoisonnée par son mari juste avant une promenade à cheval).

On notera que le narrateur s’appelle Rogers, presque comme la victime du Meurtre de Roger Ackroyd ; ce fil ténu relie les œuvres, et sans doute ne faut-il pas chercher ailleurs les difficultés d’adaptation filmique des romans, notés par certains : les jeux de mots « visualisés » y sont laborieux, et la modernisation de certaines intrigues alourdit la finesse du trait… par exemple dans la mini-série de Chris Chibnall, les Sept Cadrans.

Alors restons au pied de la lettre !

Se perdre dans le labyrinthe ?

En 1971, quelques années avant sa mort, la « reine des mots » livre Nemesis, roman qui éclaire rétroactivement tout le corpus :

« II s’agissait d’une jeune fille très douce, absolument adorable. […] Cependant, elle est morte. – De quoi ?, demanda doucement miss Marple. – D’amour […], reprit sa compagne d’une voix chargée de tristesse et d’amertume. L’amour. »

Pourquoi cette histoire paraît-elle une conclusion acceptable ? Parce que s’appeler Verity (comme la jeune fille morte) et reposer dans une terre ignorée illustre la grande affaire du polar : réhumaniser la victime comme le coupable, tout en semant des indices, la plupart du temps issus de la grande culture encyclopédique ou du fonds légendaire. Tout se passe comme dans un Cluedo géant, où les bribes du passé forment un étrange rébus : celui qui le déchiffre comprend qui est le coupable.

Pourtant, conservatrice et nostalgique, Christie l’a toujours été, même si avec elle vient le temps des vieilles dames malignes et des détectives belges, qui enquêtent sans ressentiment ni complaisance. Infanticide et démence prennent ainsi les rythmes équivoques d’une comptine ou d’un poème, car « chacun lit Agatha Christie à sa manière : de la dévoration de la découverte au suçotement de celui qui connaît l’histoire » (Sophie de Mijolla-Mellor, Meurtre familier, 1995).

The Conversation

Isabelle-Rachel Casta ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

16.03.2026 à 17:10

Municipales : « Le triomphe autoproclamé du RN et de LFI ne correspond pas à la réalité »

Frédéric Sawicki, professeur de science politique, Université Paris 1 Panthéon-Sorbonne

Quels enseignements tirer des résultats du premier tour des élections municipales ? Les percées des partis « protestataires », RN et LFI, doivent être relativisées, selon le politiste Frédéric Sawicki.
Texte intégral (2104 mots)

Si les bascules potentielles de grandes villes de gauche à droite (et inversement) sont mises en avant par les médias, elles demeurent rares. Les équipes municipales seront le plus souvent reconduites dans un scrutin qui échappe largement aux partis politiques. Les percées des partis « protestataires », RN et LFI, doivent, par ailleurs, être relativisées. Analyse du premier tour des municipales 2026 avec le politiste Frédéric Sawicki.


The Conversation : Quels sont les principaux enseignements du premier tour des élections municipales 2026, notamment en ce qui concerne l’abstention ?

Frédéric Sawicki : Selon les informations disponibles, le taux d’abstention est de 42,8 %. C’est bien moins que lors des municipales de 2020 qui furent perturbées par l’épidémie de Covid (55,3 %). Mais en 2014, l’abstention était de 36 %. Ces élections confirment donc la tendance continue, depuis le début des années 1990, de baisse de la participation en France, qui touche toutes les élections, sauf la présidentielle. Bien qu’elles soient présentées comme des élections de proximité, les municipales mobilisent moins de six Français·es sur dix.

Le changement de mode de scrutin dans les communes de moins de 1 000 habitants (la loi du 21 mai 2025 leur a imposé un mode de scrutin de liste paritaire et bloquée), qui représentent 70 % des communes françaises, a eu pour effet d’augmenter le nombre de communes où il n’y avait qu’une seule liste. Est-ce que cela a contribué à démobiliser les électeurs ? Il est trop tôt pour le dire.

Dans les grandes villes, les taux de participation sont très contrastés. À Paris, on est à 58,89 %, à Lyon à 64,45 % mais à Roubaix à 37 %. Cela s’explique en partie par un turnover important des populations – avec des personnes qui ne sont pas forcément attachées au territoire et qui ont du mal à identifier les acteurs et les enjeux municipaux. Il y a aussi le fait que beaucoup de décisions importantes sont désormais prises dans l’espace intercommunal, pour lequel les électeurs ne votent pas directement.

Mon autre remarque générale est que les médias se focalisent sur les villes où il y a un suspense, un risque de bascule, en cherchant à tirer des enseignements pour la présidentielle de 2027. Or, il est difficile de déduire de ces élections municipales des tendances générales nettes et des conclusions à propos des échéances nationales de l’an prochain. Les très grandes villes sont des vitrines pour les partis politiques, et pouvoir mettre en avant deux ou trois gains spectaculaires permet très largement de masquer le fait que, globalement, la plupart des maires de France sont reconduits dans leurs fonctions. En vérité, les municipales échappent de plus en plus aux partis politiques dans un contexte où de nombreux maires ne mettent plus en avant d’appartenance partisane, d’où la multiplication des listes « divers » (gauche, centre, droite, voire extrême droite) enregistrées par le ministère de l’intérieur.

Jordan Bardella, président du Rassemblement national (RN), a fait part de sa satisfaction au soir du premier tour en déclarant : « Les Français ont exprimé leur volonté avec clarté et, ce soir encore, une aspiration profonde au changement. » Son triomphalisme est-il justifié ?

F. S. : Le Rassemblement national va disposer mécaniquement en 2026 de beaucoup plus de conseillers municipaux qu’aux élections municipales précédentes. En 2020, il n’avait présenté que 325 listes contre 482 en 2026 si l’on inclut l’UDR d’Éric Ciotti, soit un surcroît de 4 300 candidatures. En revanche, il semble que, pour l’instant, il passe de 13 mairies à environ une vingtaine, ce qui reste modeste. En outre, en dehors de Marseille, Nice et Toulon, il n’est pas en situation d’avoir des conseillers municipaux dans la plupart des grandes villes françaises. Malgré un noyau électoral stabilisé depuis 2022 autour de 30 %, le RN se heurte à un plafond de verre faute d’alliés pour conquérir plus de villes. Là où il ne parvient pas seul à engranger la majorité, il doit compter sur le maintien des listes de ses adversaires pour espérer l’emporter à la faveur d’une triangulaire. Je relativiserais donc largement le message triomphaliste de Jordan Bardella à l’issue du premier tour.

Les Républicains (LR) pourraient-ils être tentés par des alliances avec le RN ?

F. S. : LR a peu de grandes villes, plutôt des villes moyennes et, là encore, les résultats devraient être stables. Le vrai problème de LR, comme du PS, c’est de conserver des élus qui s’affilient au parti plutôt que de jouer la carte « divers droite ».

Bruno Retailleau a appelé à faire barrage à LFI, considéré comme le seul ennemi extérieur à « l’arc républicain ». Est-ce une porte ouverte à des rapprochements avec le RN ? Pour l’instant, il ne semble pas que des fusions soient envisagées, mais il pourrait y avoir des désistements stratégiques entre LR et le RN. À Roubaix, par exemple, assistera-t-on à une fusion de listes LR-RN ou à un appel de la droite à voter RN sans pour autant fusionner ? Je pense qu’il peut surtout y avoir des dérives locales, des candidats divers droite ou anciens LR qui pactisent avec le Rassemblement national contre des postes d’adjoints. Bruno Retailleau ne maîtrise pas tout ce qui se passe localement et il peut fermer les yeux en assurant « Ce ne sont pas de vrais LR ». Cela est possible dans de petites communes, beaucoup moins dans de grandes villes médiatisées, car le risque de perdre une partie des électeurs serait important.

Jean-Luc Mélenchon, pour La France insoumise (LFI), s’est félicité d’une « magnifique percée » de son parti. Partagez-vous son analyse ?

F. S. : LFI devrait gagner Roubaix et a déjà gagné Saint-Denis, la plus grande ville de la couronne parisienne, c’est considérable, même s’il faut quand même rappeler qu’à Saint-Denis, c’est grâce à une alliance avec le Parti communiste français, qui, depuis longtemps, essaye de récupérer la ville perdue au profit des socialistes. Deuxième élément, LFI dépasse 10 % dans beaucoup de grandes villes, ce qui leur assure des mandats de conseillers municipaux qu’ils n’avaient quasiment pas jusqu’alors. Cela contribue donc à l’ancrage local d’un parti qui, jusque-là, était une machine présidentielle.

Pour la première fois, LFI a essayé, partout où c’était possible, de présenter des candidats – notamment dans les grandes villes ou dans les banlieues des grandes villes. De façon assez habile, le parti a mis en avant des candidats de la diversité, ce que les autres partis de gauche ont beaucoup plus de mal à faire. Des thématiques nationales et internationales – Gaza – ont été mises en avant, notamment la dénonciation des discriminations.

Reste que la performance de LFI est très contrastée. Si l’on compare aux européennes de 2024, il y a une forte progression à Toulouse, des progrès à Brest et à Clermont-Ferrand, mais pas de progrès à Lille, par exemple. Évry, en région parisienne, était considérée comme gagnable par LFI. Or, le candidat centriste a été élu dès le premier tour. À Paris, LFI a perdu des voix. Aux européennes, LFI y avait totalisé 16,7 % des votes et, dimanche, la liste Chikirou a obtenu 11,7 % : c’est une baisse très importante. Idem pour Nantes, Lyon, Nancy, Montpellier : LFI s’implante mais est loin de réitérer ses scores des européennes où le taux de participation était à peu près identique. Est-ce un effet des prises de position polémiques de Jean-Luc Mélenchon ? Est-ce un effet de l’union de la gauche choisie par le PS, Les Écologistes et le PCF ? Difficile à dire… Dans tous les cas, je relativiserais le « succès » de LFI. Ce qui est certain, en revanche, c’est que LFI pose un problème évident au Parti socialiste et aux écologistes : dans certaines villes, ces derniers ne pourront pas gagner sans alliance ou fusion technique avec le parti de Mélenchon.

Alors qu’ils avaient gagné de nombreuses villes en 2020, Les Écologistes sont-ils en pleine déroute ?

F. S. : Pour ce qui concerne Les Écologistes, il faut rappeler que la performance des villes gagnées en 2020 était en partie le produit de circonstances exceptionnelles : faible taux de participation, succès de Yannick Jadot aux élections européennes de 2019, discrédit des socialistes, mobilisation internationale en faveur du climat. Aujourd’hui, le contexte a complètement changé, et on pouvait s’attendre à des pertes. À Grenoble, à Bordeaux, à Strasbourg, les résultats ne sont pas très bons, mais pas si catastrophiques si on les rapporte, là encore, aux résultats des élections européennes et à l’inexpérience initiale des élus écologistes. Les résultats au bout du compte dépendront des fusions de listes, et la principale ville gérée par Les Écologistes, Lyon, contre tous les pronostics devrait leur rester acquise.

Quels sont les enjeux du second tour pour le PS ?

F. S. : Les dirigeants socialistes sont pris au piège de leurs divisions stratégiques vis-à-vis de LFI. En même temps, la forte autonomie laissée aux candidats locaux par Olivier Faure ouvre la porte à des arrangements pragmatiques. Il y a quelques risques de basculement de villes vers la droite, en cas de refus de désistement ou de fusion avec la liste LFI (Nantes, Brest, Clermont-Ferrand, peut-être Rennes). À Paris, l’avance dont dispose Emmanuel Grégoire semble le mettre relativement à l’abri de Rachida Dati. À Lille, Les Écologistes s’allient au PS contre LFI. On va assister à une variété de configurations qui vont peut-être se traduire par des solutions ad hoc, des accords locaux. Ces accords vont-ils changer les relations du PS et de LFI sur le plan national d’ici 2027 ? C’est bien peu probable à court terme, tant les arènes politiques municipales et nationale sont aujourd’hui déconnectées.

Les résultats de Renaissance confirment-ils l’échec du macronisme à s’implanter localement ?

F. S. : Effectivement, Renaissance a raté le coche de l’ancrage local en refusant d’utiliser les moyens du parti pour développer des collectifs locaux. En 2020, le parti d’Emmanuel Macron a tenté de débaucher des élus sortants de centre droit ou de centre gauche sans beaucoup de succès, à la différence d’Horizons d’Édouard Philippe. Renaissance a quelques espoirs à Bordeaux ou à Annecy, mais cela restera maigre, d’autant que Christian Estrosi a de fortes chances d’être battu à Nice. Le parti de Gabriel Attal est totalement absent de Lyon, de Marseille et de Paris – alors que la capitale est un bastion électoral macroniste aux élections nationales. Les macronistes n’ont pas de quoi être optimistes, mais ils ne le sont plus depuis la dissolution de 2024. L’implantation territoriale du centrisme repose aujourd’hui surtout sur Horizons d’Édouard Philippe, l’UDI et le MoDem. Si on veut en faire un test pour 2027, je dirais que ces municipales semblent plus favorables à Édouard Philippe, bien placé au Havre, qu’à Gabriel Attal, qui dirige Renaissance.


Propos recueillis par David Bornstein.

The Conversation

Frédéric Sawicki ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

16.03.2026 à 14:47

Beyond the ‘Spain is different’ slogan: putting an end to tourist clichés about Spain

Jorge Villaverde, Historien, CRIMIC/Sorbonne Université, Institut catholique de Lille (ICL); European University Institute

A fresh look at tourism in Spain revisits the “Spain is Different” slogan, revealing a longer, more complex and contested history than the 1960s boom suggests.
Texte intégral (3433 mots)
Palma Nova beach - a popular European holiday destination in the Spanish Balearic island of Majorca, 1960. Antonio Verdugo, Legacy Luis Fernández Fuster, University of Zaragoza, Huesca. , CC BY

Spain’s image abroad and how it has evolved over the centuries was the focus of a recent episode of Karambolage, a TV show on Franco-German European culture channel Arte. It traced the evolution of the “Black Legend” from the 16th century to the tourist slogan “Spain is Different”, popularised in the 1960s, suggesting an almost natural continuity between older historical stereotypes and tourism marketing associated with the Franco regime.

In the programme’s account, Spain is today associated with sunshine and flamenco, after having long been burdened with a negative reputation. From the 16th century onwards, at the height of its colonial empire, Protestant rivals spread hostile propaganda that helped shape the so-called Black Legend, portraying Spaniards as brutal and backward. This view persisted, particularly in 19th-century France, where the doubly racist expression “Africa begins at the Pyrenees” placed the country on the margins of a supposedly more civilised Europe.

The episode presents the following sequence: the civil war, followed by the Franco dictatorship, reinforced the country’s international isolation. In the 1960s, the regime then opened Spain to tourism. Under the leadership of Minister Manuel Fraga Iribarne, an ambitious campaign centred on tradition was launched under the slogan “Spain is Different,” which is presented as the trigger for Spain’s tourism boom.

The problem with this narrative lies in the way it simplifies a much more complex process. Moving from the Black Legend to the ironic reappropriation of a Francoist slogan may appear coherent. This interpretation echoes recent research on the role of tourism in the construction of Spanish identity and its international image.

But by joining up the dots in this way, the TV programme revives historical clichés that recent scholarship has significantly nuanced.

A seductive but peripheral difference

While the video evokes the frustration of some Spaniards with the distorted images associated with their country, it nevertheless tends to reinforce the idea of a Spain defined by the external gaze. This stems from the processes of eroticisation and exoticisation developed in the 19th century by the hegemonic powers of France and Britain towards their former imperial rival.

These representations are neither simple contempt nor a linear continuity between anti-imperial propaganda and later forms of condescension. They place Spain within an ambivalent form of otherness that relegates the former empire to the margins of a modernity defined elsewhere. Described as peripheral, the peninsula is simultaneously invested as a romantic space and a source of political and artistic inspiration. Even if visitor numbers remained far lower than in France, Switzerland or Italy, Spain occupied a central place in the European imagination.


À lire aussi : Tourisme culturel et mondialisation : l’Espagne, entre fiction et réalité


The 1900 world’s fair – Andalusia under Moorish rule. Alexandre Lunois. Bibliothèque nationale de France, CC BY

Contempt and exaltation stem from the same dynamic. These clichés combine hierarchy and attraction, aestheticisation and distance. Admiration itself participates in a symbolic reclassification that assigns Spain a seductive but peripheral difference.

It is therefore not enough simply to complicate the French gaze. It is also necessary to avoid reducing Spain to the object of an external symbolic construction. Such a reading obscures the country’s own internal dynamics. Spain is not only shaped by foreign projections. It is also a space of internal debate and intellectual circulation that extends beyond its borders.

From the early modern period, Spanish thinkers questioned the legitimacy of conquest and fully participated in European intellectual exchanges. In the 19th century, Spanish exiles and travellers encountered the industrialisation of wealthier countries and the prominence of world fairs. These experiences fuelled fundamental debates about Spain’s place in modernity.

Presenting the country as trapped in a negative reputation passively endured amounts to overlooking these internal debates and transnational exchanges, which helped define its place in European history.

An ambivalent slogan

But the main blind spot of this narrative appears when we examine the history of the slogan itself. It is true that a widely shared memory attributes “Spain is Different” to the Francoist Minister Manuel Fraga. Yet research shows that the formula emerged as early as the republican years, circulated widely in the 1940s and 1950s, and that the campaign launched under Fraga was more its culmination than its invention.

“Spain is Different” appeared as early as 1932–1933 in a series of photographic posters produced under the direction of Rafael Calleja, a conservative senior civil servant who remained in office from the Primo de Rivera dictatorship to the Republic. The slogan notably accompanied the image of an alcaldesa of Zamarramala, a female figure symbolically invested with authority during the annual festival.

SPAIN – Spain is Different PNT/OTC. Photo Francisco Andrada, 1932-1933. Arxiu Històric de la Ciutat de Barcelona AHCB4-205/C05

The choice is already singular and came at a time when the Republic was expanding women’s civic participation and profoundly transforming the political and social order.

During the civil war, the formula was quickly reappropriated. On the back cover of the magazine L’Esquella de la Torratxa, a family of English tourists contemplates a striking version of the poster. The “alcaldesa” is replaced by Franco, whose pose was meant to appear effeminate – a way of undermining him in the political culture of the time. Surrounded by a bishop, a colonial soldier and Nazi and Fascist officers, the motif of “difference” becomes political satire. It no longer refers to national particularities but to the spectacle offered to hesitant European democracies of the alliance between the putschists and the Fascist powers and their use of colonial troops.

International tourist propaganda – Visit Spain! David Santsalvador, La Esquella de la torratxa 13/11/1936. Biblioteca Virtual de Prensa Histórica, CC BY-NC-ND

In the English-speaking press, the slogan also served as a key to interpreting the conflict. It often appeared in accounts marked by imperial condescension that presented a “different” Spain as an unstable anomaly within civilised Europe. This longstanding trope helped naturalise violence, presenting it as the supposed expression of an inherent otherness rather than as part of a broader European breakdown of order.

Neither the slogan nor its main promoter disappeared after the war. The formula was revived in the 1940s and 1950s, notably in the volumes Apologías Turísticas de España, directed by Rafael Calleja (1943, 1957), as well as in several photographic poster campaigns featuring the slogans “Spain is Beautiful and Different” and “Spain is Beautiful and Different: Visit Sunny Spain.”

In the post–civil war period, the emphasis on Spain’s singularity accompanied the regime’s efforts to break its international isolation and integrate into the Western order dominated by the United States. Tourism promotion was now primarily aimed at the North American public, while this singularity became a diplomatic resource intended to present the country as an acceptable partner within the Western bloc.

Franco and Eisenhower met in Madrid, December 22, 1959. WikiCommons, CC BY

When Manuel Fraga relaunched a major campaign in 1962 under the slogan “Spain is Different,” the country was no longer isolated. The agreements concluded with the Holy See and the United States in 1953, Spain’s entry into the UN in 1955 and the Stabilisation Plan of 1959 marked its integration into the Western order and ushered in a period of very rapid growth. In the context of the post-war economic boom, tourism became one of the drivers of economic and social transformation. Spain was already welcoming nearly seven million visitors a year at the beginning of the decade and became part of an international leisure market alongside Italy and Greece.

The regime certainly sought to attract foreign exchange and improve its image. But reducing this policy to simple folkloric instrumentalisation oversimplifies a society undergoing rapid change. Administrators, entrepreneurs, artists and municipalities all participated in the construction of this new image. In an increasingly competitive tourism market, “difference” became a tool of differentiation. The rise of Spanish tourism is better explained by structural dynamics in post-war Europe than by the isolated action of a supposed providential figure.

Finally, implicitly contrasting a supposedly “backward” Spain with a “modern” Europe reproduces an old pattern that historiography has largely deconstructed. Spanish history should not be read as a trajectory lagging behind a supposedly normative European centre. Formulated in a prestigious cultural media outlet from wealthier countries, this opposition inadvertently revives older logics of cultural hierarchy.

From propaganda to reappropriation: when the slogan escapes the state

This same linear reading appears in the way the programme connects the Black Legend to the contemporary use of “Spain is Different,” as if these clichés had ultimately been internalised. Yet the slogan has had a long and contested history. From its earliest uses, it served to dispute the definition of the nation: in the conservative reaction to republican reforms, in antifascist satire during the civil war, in Anglo-Saxon narratives marked by imperial condescension, and later in a Franco regime first seeking US protection and then concerned with attracting foreign exchange and European recognition.

The Spanish example shows that ironic appropriation can constitute a form of critical distance. In the terms proposed by British sociologist Stuart Hall, this corresponds to an oppositional reading, in which a message produced by those in power is taken up and turned against them. The problem lies not in the irony itself but in the linear framework in which this history is placed.

It was not the last time. In 2012, the creation of “Marca España” by the Popular Party government – a party founded by Manuel Fraga at the end of Francoism – formed part of the neoliberal logic of nation branding. The organisation aimed to improve the country’s image abroad and among Spaniards themselves. Very quickly, the name became an object of sarcasm. At the slightest train delay, after a sporting defeat or a corruption scandal, a simple shrug was enough to prompt an ironic, “Marca España.”

Spanish distinctiveness has never constituted a stable essence. It has been a stake, a site of projection and conflict. Presenting it as a continuous thread linking longstanding stereotypes and Francoist marketing erases what matters most: Spanish “difference” has always been an object of dispute.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Jorge Villaverde ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

16.03.2026 à 11:33

Des appétits militaires à ceux des multinationales, l'épopée de la mine de lithium d'Échassières

Mathieu Bidaux, chercheur associé au laboratoire GRHIS, Université de Rouen Normandie

L’État vient d’investir 50 millions d’euros dans un projet de mine de lithium dans l’Allier. Le site a déjà une histoire industrielle, depuis la Première Guerre mondiale, notamment d’armement.
Texte intégral (1598 mots)

Alors que le groupe minier Eramet traverse une crise majeure, le projet de mine de lithium d’Échassières porté par Imerys, dans l’Allier, électrise le débat public. Ce que l’on oublie, c’est que ce site stratégique a une longue histoire industrielle, notamment dans le secteur de la défense, de 1913 à 1962.


L’État vient d’investir 50 millions d’euros dans EMILI, le projet de mine de lithium porté par la multinationale française Imerys au sud de l’Allier. Il comporterait environ un million de tonnes de lithium. Près de 34 000 tonnes pourraient être produites par an à partir de 2030, permettant de facto d’équiper 700 000 véhicules de fabrication européenne.

Le contexte actuel montre combien les ressources du sous-sol redeviennent un enjeu géopolitique majeur. Les minerais ukrainiens – terres rares et métaux non ferreux – suscitent l’appétit de Donald Trump. La présence de cuivre, graphite, ilménite, molybdène, fer, plomb, nickel ou d’or au Groenland ont transformé le territoire arctique en eldorado minier.

« Les mines du groupe Worms & Cie : une histoire de l’exploitation des minerais non ferreux en France (1938-1962) ». Wormstecie

Le lithium fait partie de ces matières premières stratégiques. La Chine en regorge et l’Occident en est dépendant, notamment pour les batteries électriques de son industrie automobile.

Ce n’est pas la première fois que le site minier d’Échassières attire l’attention. Pendant la Première Guerre mondiale, il avait suscité l’intérêt de l’armée française pour le wolframite, tungstate de fer et de manganèse, recherchés pour la fabrication d’aciers spéciaux. À l’approche de la Seconde Guerre mondiale, il est remis en exploitation puis aiguise l’appétit des Allemands en 1941 sous l’Occupation.

Alors, quelle est cette histoire industrielle ? Quelles leçons en tirer ?

Wolfram et Première Guerre mondiale

Une étrange roche noire et lourde est découverte en 1913 par un habitant de ce bourg rural. Le paysan est allé rendre compte de sa trouvaille au médecin local – le docteur Trapenard – qui en a conclu qu’il s’agissait d’un minerai de tungstène : le wolfram, utile à l’industrie de l’armement. Associé à la fabrication de l’acier en petite quantité, il peut servir à fabriquer des aciers blindés, des obus perforants et des outils de coupe.

Une première société, au capital de 50 000 F est fondée le 16 novembre 1913. En mai 1914, le capital est élevé à 250 000 F. En juin 1915, alors que la Grande Guerre fait des ravages, les premières livraisons de concentrés ont lieu. Fin 1915, le capital est élevé à 500 000 F. Le tri manuel du minerai débute en 1916. Ayant montré tout le potentiel de l’entreprise, la concession pour l’exploitation du wolfram lui est attribuée en juin 1917. La mine est en activité jusqu’à la fin de la Première Guerre mondiale et s’arrête en 1919. La laverie, permettant de laver et trier le minerai avant de le concasser et le fondre, avait produit 207 tonnes de concentré.

De la menace allemande au sauvetage par la Setem

Après être tombée en désuétude entre 1919 et 1937, l’entreprise regagne l’intérêt des pouvoirs publics et des sociétés consommatrices de wolfram. En 1941, le site attire l’attention des occupants allemands entrés en guerre contre la Russie soviétique. Alors que la direction des mines de wolfram d’Échassières est sur le point de vendre des parts de capital à l’IG Farbenindustrie, la Société d’études et d’explorations minières (Setem), département minier de la maison financière Worms & Cie, s’interpose et réussit à prendre le contrôle de la mine à la place des Allemands.

Worms & Cie est fondée par Hypolite Worms dans les années 1840. Quatre départements représentent alors ses activités : importation de charbon, transport maritime, construction navale et services bancaires. Le secteur des métaux non ferreux lui était ainsi étranger. Auprès des Allemands, sous l’Occupation, « nos dirigeants et le personnel d’encadrement durent déployer des trésors d’imagination pour justifier la nécessité de notre emploi à ne rien faire », estime Roger Barrel, chef d’exploitation de la mine d’Échassières (Pierre-Christian Guiollard, L’Industrie minière de l’antimoine et du tungstène, Éditions Atlantica, 2010, p. 222).

Dès lors, la mine parvient à ne pas vendre le moindre gramme de minerai à l’ennemi. Après la guerre, la mine de wolfram vend au Girm de tungstène, un organisme d’État, qui revendait ensuite. Alors que l’argument de l’indépendance nationale est sans cesse invoquée pour justifier l’existence de la mine, en réalité, environ 90 % de la production est vendue à l’étranger : États-Unis, République fédérale d’Allemagne (RFA) ou Royaume-Uni.

La guerre de Corée soutient alors le cours du tungstène. Les difficultés financières interviennent à partir de 1953-1954. En 1956, Worms & Cie décide de fusionner toutes ses mines de métaux non ferreux pour faire face à une féroce concurrence chinoise et soviétique, États à la main-d’œuvre moins chère et où l’on trouvait des gisements gigantesques.

Une multinationale a été créée par Worms – la Compagnie minière du M’Zaïta – qui mise sur des mines de cuivre du Chili et d’Algérie faisant partie du portefeuille de la Setem. M’Zaïta doit les mettre en exploitation, avant que les nationalisations chiliennes et la guerre d’Algérie ne mettent un terme à ces projets. Finalement, en 1959, M’Zaïta fusionne avec Peñarroya dont est issue, en partie, la société Imerys…

Naissance d’entreprises françaises multinationales

À qui profite cette industrie minière, indispensable et irremplaçable, comme le souligne le journaliste Guillaume Pitron dans la Guerre des métaux rares ? Imerys ? La population locale ? La France ?

Ce qui est certain, c’est que l’histoire du site d’Échassières montre qu’un gisement s’épuise. Sur le long terme, les sacrifices consentis peuvent donner naissance à une entreprise puissante, forte d’un rare savoir-faire. Worms & Cie a converti la mine d’Échassières en puissance financière en fusionnant toutes ses mines de métaux non ferreux.

Aujourd’hui, le site d’Échassières est lié à l’entreprise Imerys, issue de Peñarroya, société fondée par la Maison Rothschild et présente dans 40 pays, employant 12 300 salariés et réalisant 3,4 milliards de chiffre d’affaires. Imerys investit 180 millions d’euros dans la production de lithium et compte sur les projets d’EMILI, dans l’Allier et Imerys British Lithium, dans les Cornouailles au Royaume-Uni, pour « contribuer aux objectifs ambitieux de transition énergétique de l’Union européenne ».

Le site d’Échassières n’est pas près de disparaître que ce soit dans les débats publics ou dans les imaginaires collectifs.

The Conversation

Mathieu Bidaux travaille comme responsable histoire et patrimoine pour Worms & Cie.

PDF

16.03.2026 à 11:33

Entre capital-risque et capital patient : la stratégie des banques coopératives dans les fintech

Valérie Lelièvre, Maître de conférences en Sciences économiques, Chercheur au BETA et membre de la Chaire EFNUM, Université de Lorraine

Jean-Noël Ory, Professeur des Universités en finance, Université de Lorraine

Les banques coopératives ont développé une approche originale vis-à-vis des fintech. Dans ce paysage, le Crédit agricole a adopté la stratégie de capital investisseur patient.
Texte intégral (1791 mots)

Entre les banques sociétés anonymes et les banques coopératives, la différence concerne notamment la structure du capital et, ce faisant, la gouvernance. Cela a-t-il un impact sur leur manière d’aborder les fintech ? Quelles approches ont développé les banques coopératives pour devenir des investisseurs pas comme les autres ?


Pour faire face à la montée en puissance des fintech, les banques françaises explorent de nouvelles formes d’investissement. L’enjeu est de s’adapter au contexte de transformation numérique, où l’offre innovante restructure la demande de services financiers. Les banques coopératives se distinguent en entrant très tôt au capital de jeunes start-up de la finance, parfois dès la phase d’incubation.

Cette stratégie risquée leur permet d’apprendre, de tester des technologies et d’ajuster leurs choix dans le temps. Elle les rapproche d’une logique de capital-risque. Si cette logique est a priori en contradiction avec le modèle coopératif originel, qu’elles revendiquent comme davantage ancré sur la relation de long terme et la proximité avec la clientèle, elle constitue néanmoins une réponse cohérente.

Nous avons recensé 177 entrées au capital de fintech provenant des cinq grands groupes bancaires français depuis 2005, dont 85 émanant des groupes coopératifs (BPCE, Crédit mutuel et Crédit agricole). Relativement aux groupes SA (BNPP et Société générale), ils entrent à des stades de développement plus précoces : 62 % en phase d’amorçage, dont 22 % en période d’incubation


À lire aussi : Banques coopératives contre banques traditionnelles : deux modèles, deux visions de la finance


La théorie des options réelles comme grille de lecture

Cette différence de stratégie peut s’analyser au regard de la théorie des options réelles (TOR) qui souligne l’intérêt de pouvoir ajuster les décisions d’investissement au fil du temps dans un environnement où les trajectoires technologiques sont peu prévisibles et où l’information s’acquiert progressivement, ce qui est typique des jeunes fintech. Y investir s’apparente à un mécanisme d’apprentissage qui permet de révéler progressivement la qualité du projet, d’observer les évolutions réglementaires, technologiques et d’ajuster la stratégie en fonction des évolutions du marché. La TOR conceptualise ces engagements comme des droits conditionnels : la décision d’investir dans un projet risqué est vue comme l’achat d’une option (d’un droit) à reporter, à maintenir, à faire évoluer ou à abandonner le partenariat.

Investir dans une fintech présente un caractère fortement irréversible, car les ressources engagées sont en grande partie spécifiques, peu redéployables et difficilement récupérables en cas d’échec. Il s’agit des capitaux investis dans des actifs immatériels (algorithmes, compétences, données) dont la valeur est contingente au projet, et de coûts organisationnels (temps managérial, apprentissage conjoint, alignement des processus). Ces coûts seront d’autant plus élevés que la fintech est jeune.

Investir dans les fintech : les enjeux liés à l’incertitude

La stratégie et les objectifs des banques coopératives, répondant davantage à une gouvernance partenariale, sont moins sensibles à la rentabilité immédiate et s’ancrent davantage dans des relations durables, au sein des territoires. Leur horizon est plus long que celui des banques ayant le statut de sociétés anonymes et est davantage compatible avec des retours sur investissement plus étalés dans le temps.

Elles peuvent alors accepter des coûts d’irréversibilité plus élevés et intervenir à un stade plus précoce de la fintech, en exerçant une option d’apprentissage. Ainsi, elles peuvent avoir un accès privilégié à l’information et à la technologie, suivre l’évolution de la fintech et profiter des retombées positives que cette dernière génère pour acquérir et diffuser des compétences en interne.

Une logique de capital-risque ?

L’option d’apprentissage permet d’affiner l’évaluation stratégique du projet : si les signaux sont favorables, la banque peut augmenter son engagement. C’est le principe des options de croissance séquencées (par escaliers) : l’option peut être une montée au capital, une acquisition future ou une intégration industrielle. Les banques coopératives ayant de larges réseaux, une solution technologique peut potentiellement émerger au niveau local puis être déployée à grande échelle, permettant une mutualisation des coûts pour les caisses régionales.

À l’inverse, en cas de signaux négatifs (échec technologique, inadéquation stratégique…), l’intervention de la banque coopérative à un stade précoce de la fintech lui permet d’abandonner à un coût limité, c’est l’option d’abandon. Ainsi, BPCE est sorti de Payplug et de FundsDTL, le Crédit agricole est sorti de Setl, le Crédit mutuel est sorti de Linxo et a fermé Omax et Pumpkin.

Les banques coopératives se comporteraient dès lors comme des capitaux-risqueurs jouant un rôle de révélateurs d’informations, en sélectionnant, en finançant et en accompagnant les jeunes fintech jusqu’à un stade où elles pourraient exercer d’autres options. Avec des tickets d’entrée plus faibles, les partenariats avec des fintech au stade précoce permettent de multiplier les expériences, de tester plusieurs technologies et d’abandonner rapidement les projets non viables ou qui ne correspondent pas à la stratégie de la banque.

En d’autres termes, leurs investissements dans les fintech naissantes peuvent s’analyser comme un portefeuille d’opportunités (d’options) à saisir progressivement.

Un investisseur patient

Notre étude montre, qu’au sein des groupes coopératifs, le Crédit agricole (CA) se démarque. En effet, si la moitié des entrées au capital de fintech de BPCE et du Crédit mutuel (CM) se fait aux premiers stades de développement de la fintech, CA intervient encore plus en amont. À travers les Villages by CA et La Fabrique, la banque verte joue le rôle d’incubateur et d’accompagnatrice aux tout premiers stades de développement des fintech : 51 % de ses premières entrées en relation se font en phase d’incubation (0 pour BPCE et pour CM) et 78 % au stade d’amorçage.

Le Crédit agricole pourrait donc être davantage qualifié d’« investisseur patient ». En engageant du capital sur le long terme sans exiger de rendements rapides et en maintenant son investissement même en contexte d’incertitude, il privilégie la création de valeur durable plutôt qu’une sortie rapide. Il accompagne ainsi les start-up sur le plan stratégique au-delà du simple financement. En échange, il peut bénéficier d’une valorisation future de la fintech, lors des levées de fonds ultérieures.

Le CA peut soutenir des projets innovants grâce à des structures spécifiques. Dans son « start-up studio » La Fabrique, créé en 2018, des start-up sont conçues et développées en interne (c’est le cas de Blank, la néobanque consacrée aux indépendants). Dans ses 47 « Villages by CA », accélérateurs de start-up implantés dans les territoires, il accompagne de très jeunes start-up en leur apportant des ressources multiformes. Investisseur patient, le CA est encore présent dans le capital de 19 fintech passées par ces structures.

Fnege Médias – 2025.

Deux types de gouvernance, deux stratégies

Si les banques coopératives investissent aux premiers stades de développement des fintech, les banques sociétés anonymes (BNP Paribas et Société générale) interviennent généralement plus tard, exerçant une option d’attente. Davantage soumises à une exigence de rentabilité des fonds propres à court terme, elles privilégient une logique d’intervention moins risquée, plutôt au stade de capital-développement de la fintech, lorsque l’innovation s’est déjà transformée en un actif plus sûr.

Leur stratégie s’apparente davantage à celle d’un capital-investisseur privé, limitant le risque au départ tout en visant la valorisation future, via des entrées en bourse ou des sorties ultérieures. Cette complémentarité des financements reflète une division des rôles cohérente avec les contraintes de gouvernance des deux types de banques.

Au final, les spécificités des banques coopératives constituent toujours un socle favorable à des relations de long terme qui prennent la forme d’investissements en capital risque patient. Cela les différencie d’un capital risqueur classique, au sens où l’enjeu principal n’est pas la valorisation financière de la fintech, mais la capacité à absorber, à diffuser et à recombiner l’innovation dans des réseaux bancaires par nature décentralisés.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

16.03.2026 à 11:33

Charles Ponzi nous permet-il de comprendre la bulle de l’IA ?

Paul David Richard Griffiths, Professor of Finance; (Banking, Fintech, Corporate Governance, Intangible Assets), EM Normandie

Les bulles technologiques ont souvent dissimulé de grandes fraudes. Du boom ferroviaire à l’affaire Madoff, y a-t-il des signes avant-coureurs pour comprendre la frénésie actuelle autour de l’IA ?
Texte intégral (2518 mots)
L’escroc Charles Ponzi (né Carlo Pietro Giovanni Guglielmo Tebaldo Ponzi en 1882 en Italie et mort au Brésil en 1949) se fait connaître dès 1920 pour ses manœuvres financières frauduleuses. Wikimedia Commons

Les bulles technologiques ont souvent dissimulé de grandes fraudes. Du boom ferroviaire britannique au XIXᵉ siècle à l’affaire Madoff, y a-t-il des signes avant-coureurs qui peuvent nous permettre de comprendre la frénésie actuelle autour de l’IA et sa potentielle bulle ?


De nombreux investisseurs se demandent si nous vivons dans une bulle IA ; d’autres vont plus loin et se posent la question de savoir jusqu’à quand. Pourtant, la bulle continue de gonfler, alimentée par ce sentiment dangereux de « peur de passer à côté » (FOMO pour Fear Of Missing Out). L’histoire et l’expérience récente nous montrent que les bulles financières naissent souvent de l’enthousiasme excessif des investisseurs pour les nouvelles technologies « révolutionnaires » qui, lorsqu’elles éclatent, révèlent des systèmes frauduleux surréalistes qui se sont développés sous couvert de la bulle.

Concrètement, un système de Ponzi consiste à rémunérer les investisseurs existants avec l’argent apporté par de nouveaux investisseurs plutôt qu’avec de vrais profits, ce qui nécessite un recrutement continu jusqu’à son effondrement inévitable. L’une des caractéristiques de ces systèmes est qu’ils sont difficiles à détecter avant l’éclatement de la bulle, mais étonnamment simples à comprendre avec le recul.

Dans cet article, nous abordons la question suivante : quelles traces les systèmes de Ponzi laissent-ils dans les bulles financières alimentées par la technologie ? Comment pourraient-elles nous aider à anticiper la prochaine bulle qui émergera dans le tumulte de l’IA ?

Pour ce faire, nous comparerons le Ponzi du « roi du chemin de fer » George Hudson, dans les années 1840, à celui de Bernie Madoff, rendu possible par les technologies de l’information et de la communication (TIC) et les dotcoms des années 1990-2000, puis soutenu par la bulle immobilière qui a suivi aux États-Unis.

« Railway Mania » de George Hudson

La « Railway Mania » débute au Royaume-Uni en 1829. Elle émerge sous l’effet à la fois des attentes des investisseurs quant à la croissance de cette nouvelle technologie et du manque d’alternatives d’investissement provoqué par l’arrêt de l’émission d’obligations par le gouvernement. La promesse de la technologie ferroviaire entraîne un afflux de compagnies ferroviaires avec l’enregistrement de plus de 50 entreprises au cours des quatre premiers mois de 1845 seulement.

George Hudson (1800–1871), caricaturé ironiquement « hors des sentiers battus » dans la revue Punch. Wikimédia

À cette époque, les estimations des coûts de développement ferroviaire sont sous-évaluées de plus de 50 %, et les prévisions de recettes sont estimées entre 2 000 et 3 000 livres sterling par mile, alors que les recettes réelles se situent plutôt entre 1 000 et 1 500 livres par mile. (Cent livres sterling en 1845 équivalent à 15 782,99 livres sterling en 2026, soit 18 216,73 euros, ndlt) Les normes comptables rudimentaires permettent une certaine liberté dans la présentation des comptes, comme le report de la comptabilisation des dépenses. La responsabilité des directeurs incombe aux actionnaires et non à des auditeurs externes ou à des représentants de l’État.

George Hudson, qui est également membre du Parlement, encourage la déréglementation du secteur ferroviaire.

Ponzi de Bernard Madoff

La réputation de Bernard Madoff s’est construite sur son succès dans les années 1970 grâce à l’informatisation et à l’innovation technologique dans le domaine du trading. La bulle Internet est alimentée par l’expansion rapide des entreprises technologiques, avec plus de 1 900 sociétés TIC cotées sur les bourses américaines entre 1996 et 2000, ce qui permet à son fonds BLMIS de détenir 300 millions de dollars d’actifs en 2000 (alors plus de 300 millions d’euros, ndlr).


À lire aussi : En finir avec la finance Ponzi, vraiment ? Le cas « Martin Shkreli »


Bernard Madoff (1938-2021), président fondateur de Bernard L Madoff Investment Securities LLC, l’une des principales sociétés d’investissement de Wall Street. En 2008, il est arrêté par le FBI pour escroquerie de type « système de Ponzi ». Wikimédia

Le système de Madoff se développe dans un contexte de croissance rapide des produits dérivés, tels que les credit default swaps (CDS) et les collateralized debt obligations (CDO), qui augmentent de 452 % entre 2001 et 2007. La forte volatilité des marchés engendre une normalisation des rendements exceptionnellement élevés, masquant le caractère irréalisable des performances promises par Bernard Madoff. Ces rendements sont considérés comme modérés par les investisseurs, qui ne perçoivent pas l’invraisemblance d’une telle constance sur le long terme, ce qui permet au système de durer sans être détecté.

Les activités de Bernard Madoff sont facilitées par le fait qu’avant la loi Dodd-Frank de 2010 sur la supervision des banques, l’enregistrement des hedge funds (fonds spéculatifs) auprès de la Securities and Exchange Commission (SEC, l’organisme de régulation des marchés financiers) est volontaire. De plus, après les attentats du 11 septembre 2001, les ressources gouvernementales sont réorientées vers la sécurité nationale, entraînant une baisse de plus de 25 % des enquêtes ouvertes pour crimes financiers entre 2000 et 2003.

L’invraisemblance des rendements de Bernard Madoff est négligée par la SEC, malgré les signalements de lanceurs d’alerte qui ont déclenché une enquête – ce qui reflète son manque de connaissances et celui d’autres organismes de réglementation en matière de trading des hedge funds. Cela a également pu être le résultat de l’influence des relations étroites de Madoff avec les autorités de régulation, compte tenu de ses fonctions passées de président du Nasdaq et de conseiller en structure de marché auprès de la SEC.

Au moment de l’éclatement de la bulle ferroviaire, les taux d’intérêt de la Banque d’Angleterre sont à leur plus bas niveau depuis près d’un siècle. De même, la baisse des taux d’intérêt par la Réserve fédérale états-unienne (Fed) dans les années 2000 réduit le coût des crédits immobiliers, stimulant la demande et contribuant à l’inflation des prix de l’immobilier. Dans les deux cas, les marchés sont inondés d’argent bon marché et lorsque tout le monde gagne de l’argent (ou pense en gagner), les questions qui dérangent ne sont pas posées.

De l’ascension à la chute des fraudeurs

George Hudson de même que Bernard Madoff communiquent très peu sur leurs opérations auprès de leurs collègues directeurs et actionnaires. Le premier lève notamment 2,5 millions de livres sans fournir de plan d’investissement détaillé. Madoff, quant à lui, emploie et surpaye des collaborateurs peu qualifiés afin de décourager les questions sur le fonctionnement interne, et évite les réunions de présentation aux investisseurs pour ne pas avoir à répondre aux interrogations de professionnels avertis. Il recrute plutôt ses investisseurs par le biais de relations philanthropiques et de réseaux personnels. Des éléments suggèrent que certains actionnaires sont en partie conscients des pratiques commerciales douteuses de Hudson, mais ils ne s’y opposent pas initialement.

Lorsque leurs bulles respectives éclatent, ces pratiques commerciales douteuses sont révélées, et il apparaît clairement qu’ils utilisent, selon le système classique de Ponzi, des capitaux frais – et non les bénéfices des investissements – pour verser des dividendes aux investisseurs. Il a également été révélé qu’ils utilisent les fonds des investisseurs pour financer leurs trains de vie luxueux. Hudson aurait détourné environ 750 000 livres (soit environ 74 millions de livres actuelles, soit 85,4 millions d’euros, ndlt), tandis que la fraude de Bernard Madoff a atteint 65 milliards de dollars de pertes déclarées, avec des pertes réelles pour les investisseurs estimées à environ 18 milliards.

Tous deux ont terminé dans la disgrâce : Hudson s’est enfui en France et Madoff est mort en prison.

Sur la piste du renard

Méfiez-vous lorsque vous voyez des entreprises d’IA dont la valeur marchande ne cesse d’augmenter, dirigées par des leaders charismatiques et influents – il est préoccupant que les dirigeants des géants de l’IA entretiennent des relations aussi étroites avec la Maison-Blanche.

Dans ces cas, il est impératif d’analyser la qualité des communications avec les actionnaires et les investisseurs potentiels, notamment en termes d’allocation du capital et de transparence sur les flux de trésorerie détaillés. Il ne suffit pas de se fier aux états financiers audités ; il faut aller beaucoup plus loin dans l’examen de la stratégie d’investissement – ce qui exigera évidemment des auditeurs qu’ils redoublent d’efforts.

Lorsque les investisseurs sont pris dans la frénésie, au coin de la rue attend un Ponzi.


Geneva Walman-Randall a contribué à cet article en tant qu’assistante de recherche sur les conditions entourant les systèmes de Ponzi de Bernie Madoff et de George Hudson. Elle a mené cette recherche en tant qu’étudiante invitée au St. Catherine’s College d’Oxford.

The Conversation

Paul David Richard Griffiths ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

16.03.2026 à 11:33

Télétravail à Tahiti, un décor de rêve et des risques RH importants

Caroline Diard, Professeur associé - Département Droit des Affaires et Ressources Humaines, TBS Education

Romain Sohier, Enseignant-chercheur en Marketing - Laboratoire Métis, EM Normandie

Virginie Hachard, Doyenne associée de la Faculté, Enseignant-chercheur en entrepreneuriat, Laboratoire Metis, EM Normandie

Télétravail à 15 000 km depuis Tahiti. Ce cas limite bouscule le management et les risques RH. Une étude inédite révèle les risques cachés de l’hyperflexibilité.
Texte intégral (2222 mots)

Après Ubisoft, c’est au tour de Stellantis France de revenir sur la pratique du télétravail. C’est l’heure du ressac de la vague de ces dernières années favorable au travail à distance dans certaines entreprises. Mais quelles sont les motivations de ce retour au monde d’avant « le monde d’après » ? Tous les risques juridiques du télétravail ont-ils été bien anticipés ? Illustration avec un cas extrême : le télétravail depuis… Tahiti !


Quand il est minuit à Tahiti… il est midi à Paris. Dans ce contexte, imaginez un collaborateur qui télétravaille depuis Tahiti (Polynésie française), soit à 15 000 kilomètres de son employeur. Pas de bureau partagé, pas d’open space, pas de machine à café…

Si avoir une famille installée sous les cocotiers peut sembler désirable, la médaille a aussi un revers : des réunions à minuit, en raison du décalage horaire, une connexion Internet parfois capricieuse. Tahiti rêve ou cauchemar du salarié en télétravail ? Et qu’en est-il pour l’employeur ?

Quand la fiction devient réalité

Ce scénario, loin d’être un une fiction, est une situation réelle, étudiée dans une recherche inédite sur le télétravail « hyperflexible ». Par ce terme, on s’intéresse à une forme atypique de télétravail, où la distance géographique et la durée bousculent tous les repères traditionnels du management.


À lire aussi : Et si on apprenait à télétravailler plutôt que d’y renoncer


Dans l’organisation étudiée, le télétravail a été mis en place en dehors du contexte pandémique. L’entreprise étudiée a choisi d’encadrer le télétravail à travers une charte déposée auprès de la Dreets (Direction régionale de l’économie, de l’emploi, du travail et des solidarités) dès 2019. Un avenant a été signé en janvier 2021. Le collaborateur concerné a sollicité en janvier 2021, après une première expérience de télétravail à temps plein en confinement, la possibilité d’exercer son activité en Polynésie française. Le collaborateur a obtenu de son employeur un détachement de deux ans. Des entretiens semi-directifs ont été réalisés mensuellement avec son n + 1.

Télétravail hyperflexible

Avec une posture de recherche-intervention, nous avons étudié le cas particulier de ce collaborateur, en ayant formulé la question de recherche suivante : le télétravail exercé à temps plein et outre-mer, comporte-t-il des risques sur l’engagement et l’intention de rester dans l’entreprise ? Peut-il produire des risques potentiels particuliers ?

Nous avons considéré une forme de télétravail hyperflexible compte tenu de l’éloignement géographique (la distance entre Tahiti et la métropole est de 15 706 kilomètres), de l’organisation du nombre de jours en présentiel en métropole très réduit (trois semaines en novembre et quatre en janvier) et la durée du détachement (deux ans).

De manière générale, la notion de flexibilité est multidimensionnelle. Elle concerne parfois la flexibilité dans la relation d’emploi (contrat de travail précaire, autoentrepreneur). Elle peut aussi renvoyer au temps de travail (forfait-jours, temps partiel) ou au le lieu de travail (à domicile, en mode nomade, en espace de coworking). Ces trois dimensions peuvent être isolées ou cohabiter.

Des formes variées de flexibilité

L’hyperflexibiltié prend aussi des formes variées. Ainsi, Stich et Mairesse ont observé un chef d’entreprise parti 40 jours télétravailler sur une île déserte, physiquement isolé mais virtuellement connecté à une communauté immergée dans ses aventures.

De même, le Working From Anywhere (WFA), où les salariés ne sont plus tenus de résider près de leur employeur redessine les frontières du travail et marque une flexibilité accrue pour choisir le lieu de vie des salariés. Ce modèle, déjà observé dans les métiers des systèmes d’information, exige cependant une culture organisationnelle adaptée pour préserver productivité et efficacité.

Un recul en France et à l’étranger

Plusieurs expériences de télétravail à temps plein aussi bien en France (Boursorama, Mutuelle générale) qu’à l’international (Amazon, Apple, GitHub, Nasa, Facebook, Twitter, Slack, Glassdoor) ont pour certaines été abandonnées.

Les dirigeants, pour justifier ce retour en arrière, ont invoqué diverses raisons comme, par exemple, les inégalités de traitement. Les différences de conditions de travail entre les collaborateurs créeraient des frustrations chez certains. Un autre argument est parfois mobilisé : l’altération de la culture d’entreprise et la dilution du collectif. Ces reculs de certaines entreprises suggèrent une prise de conscience tardive mais réelle des risques RH inhérents à la pratique du télétravail.

Des risques multiples

Notre étude de cas complète la littérature sur les risques en situation de télétravail, en s’intéressant spécifiquement à une situation extrême. À travers notre approche longitudinale sur deux ans nous avons ainsi identifié plusieurs types de risques inhérents à la distance, le décalage horaire et les conditions techniques d’exercice des missions.

En premier lieu, les risques techniques et logistiques (connexion difficile, manque de certains outils, difficulté pour revenir en métropole pendant la crise sanitaire). Ces difficultés peuvent engendrer une situation anxiogène, notamment en raison de l’isolement et de la dépendance aux outils numériques. La dépendance à ces outils technologiques devient critique, car les problèmes ne peuvent pas être résolus par un simple déplacement. La personne qui télétravaille à Tahiti témoigne :

« Avant le télétravail, cela ne me dérangeait pas d’avoir de nombreux dossiers de data sur mon bureau d’ordinateurs, car j’avais accès à toutes les ressources à mon domicile et j’habitais à quelques kilomètres de mon lieu de travail. Dorénavant, j’optimise mes données, car un incident peut vite arriver à distance, et je préfère avoir un accès simple à mes données, car je n’ai que deux ordinateurs portables actuellement.
Un incident ce mois-ci : le problème de mise à jour Windows sur l’ordinateur, qui ne peut se faire que via le réseau de l’organisation : l’ordi n’était plus utilisable. Or on ne peut pas joindre la métropole par téléphone car pas d’abonnement. Je suis passé par What’s app en contactant un collègue pour contacter le technicien informatique pour une mise à jour. »

En second lieu, les risques psychosociaux :

  • l’isolement professionnel : l’éloignement géographique et le manque d’interactions ;

« En étant à distance, il est moins aisé de discuter en direct avec une personne pour avoir de l’information. Des tutoriels et vidéos en ligne sont donc importants pour satisfaire certaines de mes requêtes. »

  • le stress accru : le décalage horaire et la nécessité d’être hyperconnecté pour compenser la distance créent un déséquilibre entre les contraintes perçues et les ressources disponibles en mode asynchrone ;

  • l’hyperconnectivité : le collaborateur doit souvent travailler en dehors des horaires classiques, ce qui peut nuire à l’équilibre entre la vie professionnelle et personnelle.

« J’optimise mon temps de travail avec la métropole, le matin je traite les mails reçus la nuit, puis après je travaille non stop sur mes missions. »

Une relation managériale bousculée

Les enjeux pour l’employeur incluent également des risques liés à la gestion de la relation managériale. Dans notre étude, nous avons retrouvé des difficultés à anticiper les tâches, un risque d’inégalité de traitement entre les salariés en mobilité et ceux restés en métropole, une possible diminution de la performance, une érosion de la confiance, ainsi qu’un sentiment d’exclusion vis-à-vis de l’équipe.

Enfin, il existe des risques liés aux doubles carrières : contrairement aux études classiques sur les conjoints d’expatriés, le conjoint du salarié étudié s’est bien adapté à la vie locale et n’a pas subi de perturbation majeure de sa carrière. Le risque apparaît progressivement lorsqu’il faut évoquer d’un retour dans l’Hexagone, où les arbitrages entre vie familiale et professionnelle deviennent conflictuels.

La carrière du conjoint

La double carrière pose ici un défi particulier : si le conjoint s’adapte bien sur place, le retour en métropole peut devenir une source de tension majeure. La littérature décrit les conflits travail/famille mais le défi posé en cas de télétravail hyperflexible n’est pas documenté. La question des doubles carrières est apparue dès la première année du détachement en Outre-mer. Pour le salarié, ce choix a généré un dilemme entre vie professionnelle et vie familiale : rentrer en métropole et laisser sa famille à distance, avec des arbitrages difficiles à faire.

Le Monde, 2022.

Bien que le salarié ait envisagé de quitter l’entreprise, cette intention n’était pas liée au travail, mais à la situation familiale. Finalement, le salarié est rentré en métropole. Cette situation met en lumière un conflit classique des couples à doubles carrières : le choix entre la stabilité professionnelle et l’équilibre familial. Malgré les tensions, son engagement envers l’entreprise n’a pas été remis en cause, mais plutôt renforcé par cette expérience.

Le collectif de travail et l’institution ont alors été contraints à une forme d’agilité organisationnelle.

« Deux de mes collègues ont trouvé un système adapté pour l’accès aux dossiers en papier et ont proposé une numérisation. Il y a beaucoup de bienveillance. »

Les horaires des réunions d’équipe ont aussi été adaptés pour tenir compte du décalage horaire.

Quand la distance exacerbe les tensions

Tous les risques RH apparus au fil de l’étude longitudinale semblent exacerbés par la distance. Le départ sous forme de détachement vers Tahiti a pourtant été anticipé avec une formalisation maximale par le service RH tendant à minimiser les risques (notamment au moyen d’un avenant au contrat de travail et de mise en place des garanties sociales et fiscales).

En revanche, la réponse aux aléas conjoncturels a dépendu largement de liens informels coconstruits au fil de l’expérience avec certains collègues. Par exemple, le retour initialement prévu en métropole pour trois semaines (ce que prévoyait l’avenant au contrat) n’a pas été possible pour des raisons sanitaires (escale aux États-Unis depuis Tahiti). Le collaborateur a vécu une période difficile à ce moment-là avec le sentiment de ne pas avoir « rempli le contrat ».

Ceci peut laisser supposer que la mise en place d’une situation extrême, inédite à titre expérimental a révélé une bienveillance du collectif de travail. D’autres salariés de l’organisation ont, quant à eux, bénéficié de la possibilité de résider dans leur pays d’origine pour des raisons fiscales dans le cadre cette fois d’une formalisation induite. L’organisation avec cette formalisation a tenté d’éviter des comportements déviants et du télétravail informel, non déclaré, hors du territoire et ainsi de limiter les risques de contentieux, notamment en matière d’accident du travail, redressement social ou fiscal.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

15.03.2026 à 17:39

Pourquoi les émissions de méthane ont-elles bondi de 2020 à 2023 ? Une étude permet enfin de répondre

Philippe Ciais, Directeur de recherche au Laboratoire des science du climat et de l’environnement, Institut Pierre-Simon Laplace, Commissariat à l’énergie atomique et aux énergies alternatives (CEA); Université Paris-Saclay; Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay

Une étude revient sur les causes de l’augmentation rapide des émissions de méthane entre 2020 et 2023. En cause, des phénomènes naturels aggravés par le changement climatique.
Texte intégral (2799 mots)

Pendant que le monde était confiné du fait de la pandémie de Covid-19 en 2020, puis au cours des deux années suivantes, la croissance du méthane dans l’atmosphère a été plus élevée que tout ce qui avait été observé depuis le début des années 1980. Toutes sortes d’hypothèses ont alors surgi – certains chercheurs avaient, par exemple, imaginé un rôle « protecteur » aux émissions d’oxydes d’azote résultant du transport routier, alors considérablement ralenti.

Dans une étude publiée début février 2026 dans la revue Science, le spécialiste des gaz à effet de serre Philippe Ciais et ses collègues ont reconstitué ce qui s’est réellement passé lors de cet épisode. En cause, des phénomènes naturels aggravés par le changement climatique. Le chercheur répond ici à nos questions.


The Conversation : Replongeons-nous brièvement dans le contexte de 2020. En quoi la pandémie et, surtout, les confinements mis en place un peu partout dans le monde ont-ils représenté une expérience à large échelle unique pour les spécialistes de l’atmosphère ?

Philippe Ciais : Les confinements, en particulier, ont eu des répercussions globales. La pollution atmosphérique, et notamment les émissions de dioxyde de carbone (CO₂), a été réduite à l’apogée des mesures de confinement. Cette baisse a toutefois été faible – environ 6 % seulement en moyenne pour le CO₂ – et de courte durée, avec un rebond rapide des émissions dès la reprise des activités économiques normales.

Mais ce moment a constitué une expérience unique pour nous, chercheurs : nous n’avons pas souvent l’occasion d’étudier la réaction du système atmosphérique à une telle réduction des activités humaines. On s’en souvient, de nombreuses villes étaient alors devenues plus respirables grâce à l’arrêt des transports routiers.

Nous avons ainsi pu nous intéresser à l’impact de cette réduction sur la chimie atmosphérique et, en particulier, sur l’augmentation du méthane dans l’atmosphère. À noter, toutefois, que cette augmentation s’est poursuivie en 2021 et en 2022 : les mesures de confinement de 2020 ne pouvaient donc, à elles seules, l’expliquer.

En effet, entre 2020 et 2022, les concentrations de méthane ont bondi. En quoi cela a-t-il surpris la communauté scientifique ?

P. C. : Le méthane est un gaz à effet de serre puissant, son augmentation à cause des activités humaines est le deuxième principal facteur responsable du réchauffement climatique. Nous surveillons en continu les concentrations atmosphériques de ce gaz grâce à plusieurs réseaux d’observation atmosphérique. Cela permet de calculer, chaque année, l’augmentation de la concentration de méthane.

Nous avons ainsi remarqué qu’en 2020, puis en 2021 et en 2022, le taux de croissance du méthane était très élevé. En fait, ces chiffres étaient les plus élevés jamais enregistrés depuis le début des mesures, qui remonte aux années 1980.

Nous avons donc commencé à étudier cette période inédite, et nous voulions avant tout comprendre quels étaient les mécanismes impliqués dans cette augmentation très rapide du méthane dans l’atmosphère.

La difficulté, c’est que l’augmentation de la concentration de méthane dans l’atmosphère ne peut pas être rattachée à un facteur unique, mais dépend d’une combinaison de facteurs : émissions anthropiques et naturelles de méthane, mais aussi destruction du méthane par le nettoyeur atmosphérique, les radicaux hydroxyles OH⁻.

« Ces radicaux hydroxyles sont un “Pacman”, expliquez-vous, qui détruit dans l’atmosphère plus de 95 % du méthane émis par les activités humaines. »

P. C. : En effet, des réactions de photodissociation surviennent dans l’atmosphère grâce aux rayons UV, et produisent des radicaux hydroxyles OH⁻, à partir d’ozone, mais le taux de radicaux produits dépend aussi des substances impliquées dans la pollution, notamment le monoxyde de carbone et les oxydes d’azote, qui contribuent à la pollution urbaine.

Ces radicaux hydroxyles sont les agents nettoyants du méthane dans l’atmosphère. Ils sont, en quelque sorte, le « Pacman » du méthane dans l’atmosphère, et permettent de le nettoyer. De ce fait, le méthane a une durée de vie moyenne dans l’atmosphère plus courte que celles du CO₂ : environ douze ans, contre plusieurs centaines d’années pour le CO₂. La destruction du méthane par les radicaux OH⁻ explique pourquoi cette durée de vie est surtout réduite au niveau des tropiques, où le rayonnement solaire est le plus fort.

Sa courte durée de vie fait du méthane un levier particulièrement pertinent pour lutter contre le réchauffement climatique à court terme. Si on réduisait les émissions de méthane, la température diminuerait immédiatement, alors qu’il y a davantage d’inertie pour les émissions de CO₂.


À lire aussi : Climat et agriculture : pour éviter le risque de surchauffe, le levier du méthane


Comment avez-vous rattaché ce phénomène connu de « nettoyage » atmosphérique du méthane au pic de croissance de la concentration de ce gaz à effet de serre, observé entre 2020 et 2022 ?

P. C. : Nous avions deux grandes hypothèses :

  • soit ce pic faisait suite à une augmentation très forte des émissions de méthane, liées aux activités humaines (agriculture, extraction d’énergie fossile…) ou d’origine naturelle, en pensant aux zones humides qui sont très sensibles à l’évolution du climat ;

  • soit cela voulait dire que les radicaux hydroxyles OH⁻ présents dans l’atmosphère ont été un peu réduits pendant la pandémie et un peu après. Même une petite réduction de ces radicaux pourrait causer un bond du méthane dans l’atmosphère.

D’où ce raccourci, entendu pendant la pandémie, selon lequel la pollution routière serait « bonne » pour lutter contre le méthane…

P. C. : Oui. Il s’agit bel et bien d’un raccourci, car tout dépend de l’endroit où les oxydes d’azote sont émis. Moins d’émissions impliquera moins d’hydroxyles OH⁻ et davantage de méthane, mais ces réactions sont modulées par d’autres espèces chimiques produites par la végétation et par les feux. Même la vapeur d’eau joue un rôle et augmente la concentration d’OH⁻ là où l’atmosphère est très propre.

Vous avez déjà publié un premier article sur le sujet en 2022. En quoi cette nouvelle publication va-t-elle plus loin ?

P. C. : L’article publié dans Nature en 2022 s’était intéressé au taux de croissance du méthane en 2019 et en 2020. Dans notre nouvelle étude, nous avons voulu expliquer pourquoi le taux de croissance du méthane était resté élevé en 2021, en 2022 – après la pandémie, donc –, puis n’a commencé à décroître à nouveau qu’en 2023.

Et de fait, nous avons confirmé que la raison de ce pic était principalement due à une concentration plus faible de radicaux hydroxyles, mais également à des augmentations dans les émissions naturelles de méthane par les zones humides et les émissions de l’agriculture. La combinaison de ces deux raisons est responsable du pic de croissance du méthane mesuré entre 2020 et 2022.

Comment avez-vous surmonté les difficultés méthodologiques pour bien distinguer les deux hypothèses ?

P. C. : Toute la difficulté au plan scientifique, en effet, était de pouvoir faire la part des choses entre ces deux hypothèses alors qu’elles impliquent des protagonistes pas toujours mesurables. Les radicaux hydroxyles OH⁻ ont une durée de vie très courte : moins d’une seconde.

Nous nous sommes appuyés sur les données du satellite japonais GOSAT, qui mesure les concentrations de plusieurs gaz à effet de serre, dont le méthane. Nous ne pouvions mesurer la concentration en OH⁻, mais nous avions les données pour les émissions d’oxydes d’azote (NOx) et de monoxyde de carbone.

À l’aide de modèles de chimie de l’atmosphère et de ces données, nous avons donc pu reconstituer l’évolution des radicaux OH⁻ par rapport à la concentration d’ozone sur la période. Ceci nous a permis de sortir de la logique de « double aveugle » qui nous empêchait, jusque-là, de trancher entre les deux hypothèses.

Nous avons confirmé qu’une baisse des OH⁻ entre 2020 et 2022 expliquait bien une large partie du pic de méthane, mais pas tout. Il manquait encore quelque chose pour expliquer les taux de croissance record du méthane observés, c’est-à-dire une augmentation des sources de méthane en surface.

Mais l’énigme n’était pas encore résolue pour autant. En effet, il existe de nombreuses sources de méthane :

Et donc, la dernière étape était de départager ces différentes sources potentielles d’augmentation…

P. C. : Les émissions naturelles des zones humides sont sensibles aux conditions hydriques et à la température. S’il fait un peu plus chaud sur les tourbières du Nord, un peu plus humide sur les marécages des tropiques, les émissions peuvent augmenter considérablement.

« Il existe par exemple une zone humide en Afrique, dans le Soudan du Sud, qui peut émettre autant de méthane en un an que tous les pays de l’UE. »

Nous avons confirmé que l’augmentation des émissions entre 2020 et 2023 provenait principalement des zones humides tropicales du nord des tropiques, principalement en Afrique et en Asie. Nous n’avons toutefois pas de vision plus précise, même si nous savons qu’il y existe des zones humides très importantes, notamment les tourbières du bassin du Congo, le lac Tchad, et le marécage géant Sudd, dans le Soudan du Sud.

Cette dernière zone humide, en particulier, est gigantesque. Lors de l’arrivée de la saison des pluies, cela peut entraîner des émissions de méthane soudaines et considérables : parfois 10 millions de tonnes de méthane par an, ce qui est presque autant que celles des pays de l’Union européenne en un an (13 millions) !

Ces pluies ont, en retour, pu faciliter l’agriculture, en particulier la culture du riz et la pâture des buffles sur ces terres inondables. Indirectement, cela peut aussi avoir amplifié les émissions de méthane par ce biais.


À lire aussi : Climat et agriculture : pour éviter le risque de surchauffe, le levier du méthane


La période de juin 2020 à 2023 était par ailleurs dominée par un épisode climatique La Niña, qui a tendance à aggraver les cyclones et les tempêtes tropicales… (son antagoniste El Niño étant davantage associé aux périodes de sécheresse). Pourrait-il y avoir un lien entre cet épisode et les émissions de méthane ?

P. C. : Oui, un climat plus humide donne davantage d’émissions en provenance des zones humides, mais c’est un peu plus compliqué que cela, car les zones humides sont dans des régions bien précises. S’il y a davantage de pluies ou d’apports en eau par le ruissellement et les eaux souterraines là où on a une grande zone humide, alors oui, vous avez les conditions favorables pour augmenter les émissions de méthane. Mais si un surplus de pluies tombe sur des régions sans zone humide, il ne se passera pas grand chose.


À lire aussi : Avec l’arrivée de La Niña, des ouragans plus intenses sont-ils à craindre ?


Comment peut-on s’assurer que le méthane en question ne provenait pas d’autres phénomènes, tels que les feux de forêt ?

P. C. : Parce que les molécules de méthane n’ont alors pas la même signature isotopique. Environ un pour cent des molécules de méthane sont plus lourdes, car leur atome de carbone a un neutron de plus. Il s’agit de carbone 13, un isotope plus lourd que le carbone 12, majoritaire. Le carbone 13 est un isotope stable, il ne se décompose pas par radioactivité.

Le méthane produit par les bovins et la culture du riz est d’origine bactérienne, généré par des bactéries anaérobiques. Ce méthane bactérien a une teneur plus faible en carbone 13 que celui qui est produit par les feux ou par les fuites de gaz fossile. Or justement, entre 2020 et 2023, tandis que le méthane était en forte augmentation, le carbone 13 du méthane diminuait plus rapidement. Cela veut dire que le surplus d’émissions qui a été relâché dans l’atmosphère contenait moins de carbone 13, donc qu’il était d’origine bactérienne.

En définitive, que nous dit cette étude des meilleurs moyens de réduire les émissions de méthane et de lutter contre le changement climatique ?

P. C. : L’augmentation soudaine de méthane entre 2020 et 2023 peut être vue comme un signal d’alarme. Notre étude montre que les émissions de gaz à effet de serre naturelles ne sont pas constantes d’une année à l’autre, et qu’elles sont très sensibles aux conditions climatiques. Tout cela peut accélérer considérablement le rythme des émissions.

Le dégel du pergélisol (permafrost), par exemple, devrait nous préoccuper. Nous savons, d’après des observations sur le terrain, que lorsqu’une zone humide est gelée, elle n’émet pas trop de méthane tant que l’on n’enlève pas la glace. Lorsque le pergélisol est exposé, en revanche, les émissions de méthane peuvent être multipliées par dix.

Il est donc urgent de mieux comprendre quels sont les facteurs climatiques qui déclenchent et contrôlent les émissions naturelles. Et, dans le même temps, de réduire les émissions que nous pouvons contrôler, liées à l’agriculture et à l’industrie fossile.


Cette interview, traduite, éditée et adaptée de l’anglais vers le français par The Conversation France, est issue du podcast « The Conversation Weekly », produit par The Conversation UK.

The Conversation

Philippe Ciais a reçu des financements de la Fondation BNP Paribas (don philanthropique pour le Global Carbon Altas), du projet financé par 4C EU Horizon2020 et du projet Climate Change Initiative de l'Agence spatiale européenne.

PDF
50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌓