LePartisan - 277 vues
MEDIAS REVUES BLOGS
URL du flux RSS

▸ les 50 dernières parutions

18.03.2026 à 18:11

Pourquoi les femmes restent-elles minoritaires dans la politique locale ?

Zineb Abidi Perier, Maitresse de Conférences, Université Paris-Est Créteil Val de Marne (UPEC)
Zéphirin Nganmeni, Maître de Conférences en Sciences Économiques, Université Paris 8 – Vincennes Saint-Denis
Les femmes restent minoritaires dans les intercommunalités, là où se décident les orientations budgétaires et stratégiques des territoires.
Texte intégral (1681 mots)

Les femmes occupent aujourd’hui 42,1 % des sièges dans les conseils municipaux. Pourtant, elles restent minoritaires dans les intercommunalités, là où se décident les orientations budgétaires et stratégiques des territoires.


La France affiche une ambition claire en matière d’égalité femmes-hommes en politique. Depuis la loi sur la parité de 2000, les listes électorales dans de nombreuses communes doivent alterner femmes et hommes. Résultat, les conseils municipaux ont profondément changé de visage. Alors qu’en 1995, les femmes ne représentaient qu’environ 21 % des conseillers municipaux, en 2020, elles en représentent 42,1 %. Cette progression confirme l’efficacité des quotas pour transformer la représentation descriptive des assemblées locales). Mais derrière ce progrès visible se cache une réalité plus nuancée. Dans les structures intercommunales, là où se prennent des décisions clés sur les finances locales, l’aménagement du territoire ou le développement économique, les femmes restent nettement sous-représentées.

Notre recherche, fondée sur les données exhaustives des élections municipales de 2020 et sur plus de 64 000 délégués intercommunaux, met en évidence un mécanisme central : les inégalités observées dans les intercommunalités ne naissent pas à ce niveau, elles prolongent celles qui structurent déjà l’accès aux fonctions exécutives municipales.

Les intercommunalités, un lieu de pouvoir discret mais stratégique

Depuis 2014, chaque commune française doit intégrer l’une des 1 254 structures intercommunales, appelées établissements publics de coopération intercommunale. Ils exercent des compétences majeures en matière de fiscalité économique, de transports, de politique de l’habitat, de développement durable ou encore de planification urbaine. Ils constituent un niveau décisif de coordination et de mutualisation de l’action publique locale.

Pourtant, leurs membres ne sont pas élus directement par les citoyens. Ils sont désignés parmi les élus municipaux, selon des règles largement dépendantes de la taille des communes et du nombre de sièges attribués. La majorité des structures intercommunales se situent entre 30 % et 45 % de femmes, et les cas dépassant 50 % restent minoritaires. Cette distribution confirme que la parité n’est pas devenue la norme à l’échelle intercommunale.

Le verrou des postes exécutifs municipaux

Le point clé se situe au niveau des maires et des adjoints. Dans plus de 70 % des communes, l’intercommunalité ne dispose que d’un seul siège. Ce siège est presque systématiquement occupé par le maire. Or les maires demeurent très majoritairement des hommes. Le mécanisme est institutionnellement simple mais politiquement décisif. Lorsque la commune ne dispose que d’un représentant, celui-ci est issu de l’exécutif, le plus souvent le maire. La sous-représentation des femmes à la tête des municipalités se transmet donc directement à l’échelon intercommunal.

Les recherches consacrées à la désignation des maires montrent que cette phase, qui se déroule au sein même du conseil municipal, constitue un véritable point de blocage pour l’accès des femmes aux fonctions exécutives locales. Plus largement, les études sur la sélection des candidats et les carrières politiques mettent en évidence le poids de l’ancienneté, des réseaux partisans et de l’avantage des sortants. Ces mécanismes tendent à consolider la position de ceux déjà en place, le plus souvent des hommes.

Selon nos recherches, lorsque le nombre de sièges augmente, l’écart entre la part de femmes parmi les conseillers municipaux et leur part parmi les postes exécutifs se réduit, mais il ne disparaît pas. À l’échelle nationale, les femmes occupent 35,1 % des sièges intercommunaux, mais seulement 31,7 % des positions les plus stratégiques L’accès au pouvoir exécutif reste plus inégal que l’accès aux sièges ordinaires.

Taille et fragmentation : des effets institutionnels puissants

Tous les territoires ne se ressemblent pas. Nos analyses montrent que la taille démographique des intercommunalités est positivement associée à la présence féminine. Dans les 20 % d’intercommunalités les moins peuplées, la part moyenne de femmes est d’environ 31,6 %. Dans les 20 % les plus peuplées, elle atteint près de 39 %. L’effet est croissant mais non linéaire. La montée en population favorise la représentation féminine, puis l’effet marginal s’atténue dans les plus grandes structures. Ce résultat est cohérent avec les travaux montrant que les systèmes proportionnels et les contextes urbains plus politisés offrent un environnement plus favorable à l’émergence de candidatures féminines. Les grandes intercommunalités regroupent davantage de communes soumises à des règles de parité strictes et à une compétition partisane structurée.

À l’inverse, la fragmentation territoriale pénalise la représentation des femmes. À population équivalente, une intercommunalité composée d’un grand nombre de petites communes présente une proportion plus faible de femmes. La règle du délégué unique renforce mécaniquement le poids des maires, donc celui des hommes. Deux territoires démographiquement comparables peuvent ainsi produire des conseils intercommunaux très différents selon leur degré de fragmentation.

Le poids du statut juridique et du régime fiscal

Le type d’intercommunalité joue également un rôle significatif. Les métropoles atteignent en moyenne plus de 40 % de femmes, tandis que les communautés de communes, plus rurales et plus fragmentées, se situent autour de 34 %. Les structures à fiscalité professionnelle unique affichent une proportion plus élevée de femmes que celles à fiscalité additionnelle.

Ces différences traduisent des effets combinés de taille, d’intégration financière et de structuration institutionnelle. Les environnements plus intégrés tendent à s’accompagner de pratiques politiques plus formalisées et d’une mise en œuvre plus effective des normes de parité.

L’orientation politique : un effet réel mais limité

L’orientation politique a également un impact. Les intercommunalités à majorité de gauche comptent en moyenne davantage de femmes que celles orientées à droite. Ce résultat est cohérent avec la littérature montrant que les partis de gauche soutiennent plus fortement les quotas et les politiques d’égalité.

Cependant, cet effet reste secondaire par rapport aux contraintes institutionnelles. Les différences idéologiques existent, mais elles ne compensent pas les mécanismes structurels liés à la sélection des exécutifs municipaux et à la fragmentation territoriale.

Des assemblées plus paritaires, un pouvoir encore inégal

La France a profondément transformé la composition de ses conseils municipaux au cours des vingt dernières années. Dans les communes de plus de 1 000 habitants, la loi impose un équilibre entre femmes et hommes sur les listes électorales, ce qui a permis une progression nette de la présence féminine. Mais cette avancée reste incomplète. D’une part, ces obligations ne s’appliquent pas aux communes de moins de 1 000 habitants. D’autre part, elles encadrent la composition des listes, pas l’attribution des fonctions exécutives. Le choix des maires, des adjoints ou des représentants envoyés à l’intercommunalité, notamment lorsqu’il n’y a qu’un seul siège, n’est pas soumis aux mêmes règles. Or ce sont précisément ces fonctions qui concentrent l’essentiel du pouvoir décisionnel.

Ainsi, si les assemblées se sont féminisées, les postes où se prennent les décisions stratégiques demeurent majoritairement occupés par des hommes. La démocratie ne se limite pas à l’équilibre des chiffres. Elle suppose un accès réel et égal aux responsabilités et aux lieux où s’exerce effectivement le pouvoir.

Un enjeu démocratique

Les intercommunalités gèrent des budgets importants et structurent durablement l’action publique locale. Elles façonnent le quotidien des citoyens en matière de mobilité, d’habitat et de développement économique. Leur composition reflète imparfaitement la société qu’elles administrent. Les femmes représentent plus de la moitié de la population et près de la moitié des conseillers municipaux, mais elles restent minoritaires là où se concentrent les leviers exécutifs. Comprendre les mécanismes institutionnels qui produisent ces écarts permet de dépasser les explications culturalistes ou individualisantes. Les règles de désignation, les structures territoriales et les procédures de sélection interne façonnent profondément les trajectoires politiques.

La question n’est donc pas seulement celle de la présence des femmes en politique locale. Elle est celle de leur accès effectif, à égalité, aux positions où s’exerce réellement le pouvoir.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

18.03.2026 à 18:10

Est-ce la fin du multilatéralisme ? Les organisations internationales, victimes collatérales de la guerre en Iran

Theresa Reinold, Professeure assistante de droit international, EDHEC Business School
Une nouvelle fois, l’ONU et l’UE ne se font guère entendre dans une crise majeure. Le multilatéralisme n’est pas mort, mais il est très mal en point…
Texte intégral (1872 mots)

La guerre en Iran met en évidence la faiblesse de l’ordre international fondé sur des règles, car elle démontre une fois de plus que les grandes puissances peuvent agir unilatéralement tout en paralysant les institutions censées garantir la sécurité collective. Le Conseil de sécurité de l’ONU apparaît incapable de réagir de manière équilibrée, notamment en raison du droit de veto et de doubles standards qui évitent de remettre en cause les actions des États-Unis et de leurs alliés. L’Union européenne, malgré son poids économique et diplomatique, reste marginalisée par ses divisions internes, sa dépendance sécuritaire envers Washington et son manque de volonté politique d’assumer un rôle géopolitique plus affirmé.


L’un des aspects les plus frappants de la guerre en Iran est la mesure dans laquelle elle a mis en évidence l’inefficacité des organisations internationales et des approches multilatérales pour résoudre les conflits mondiaux. Si nous considérons ce conflit comme un indicateur de la viabilité de l’ordre international fondé sur des règles établi après la Seconde Guerre mondiale, nous pouvons conclure que le patient présente un pouls très faible.

L’Organisation des Nations unies (ONU) et l’Union européenne (UE) sont deux organisations qui incarnent l’ordre normatif mondial d’après 1945, un ordre fondé sur des principes tels que la règle de droit, la non-agression et le respect de l’intégrité territoriale et de l’indépendance politique des États souverains.

Ces principes, et les différentes organisations internationales qui les incarnent, sont parmi les premières victimes de la campagne militaire américano-israélienne. Comment en est-on arrivé là et que pourrait-on faire pour donner un nouveau souffle au multilatéralisme ?

Les Nations unies : une histoire de rivalité entre grandes puissances et de doubles standards

La guerre en Iran a clairement montré que le système de sécurité collective mis en place après 1945 est largement paralysé lorsqu’une grande puissance décide d’agir seule. Le Conseil de sécurité de l’ONU a été désigné comme le gardien de la paix et de la sécurité internationales, mais il a été paralysé par le droit de veto de ses membres permanents qui ont maintes fois utilisé leur influence pour protéger du regard international leurs propres actions et celles de leurs alliés.

Lorsque les États-Unis et Israël ont lancé des frappes contre l’Iran fin février 2026, le Conseil de sécurité n’a dans un premier temps pas réussi à trouver de réponse significative, et encore moins à autoriser des mesures visant à désamorcer la crise. Au contraire, le conflit s’est déroulé en dehors du cadre du droit international, les actions militaires unilatérales devenant la norme plutôt que l’exception.

Il a finalement, le 11 mars, adopté une résolution qui se concentrait uniquement sur la condamnation des attaques de l’Iran contre les États du Golfe. La résolution, adoptée par 13 voix pour et les abstentions de la Russie et de la Chine, qualifiait les actions de l’Iran d’« attaques flagrantes » et exigeait l’arrêt immédiat de cette agression régionale.

Si cette résolution est un signal important indiquant que l’institution est toujours active et que l’ONU a encore une certaine volonté de protéger les normes fondamentales sur lesquelles elle a été fondée, son approche unilatérale souligne le double standard persistant du Conseil de sécurité : la résolution ne fait aucune mention des frappes initiales américano-israéliennes contre l’Iran qui ont déclenché l’escalade, ni ne traite du contexte plus large du conflit, tel que la légalité de ces frappes ou l’assassinat du guide suprême iranien. Le silence assourdissant du Conseil de sécurité de l’ONU face aux violations du droit international par les États-Unis et Israël suggère une fois de plus l’utilisation d’un double standard et sape davantage sa crédibilité en tant que gardien de la paix et de la sécurité internationales.

Cependant, alors que le Conseil est actuellement plus ou moins paralysé, il existe une procédure qui pourrait redynamiser l’ONU dans cette crise géopolitique, à savoir la procédure « Uniting for Peace » (Unis pour la paix). Ce mécanisme donne des pouvoirs à l’Assemblée générale des Nations unies en cas d’impasse au Conseil de sécurité.

« Uniting for Peace » est une résolution adoptée par l’Assemblée générale des Nations unies en 1950 (résolution 377[V]). Elle a été conçue pour permettre à l’Assemblée générale d’agir dans les cas où le Conseil de sécurité est dans l’incapacité de le faire en raison d’un veto émis par l’un de ses membres permanents. L’objectif est de contourner un blocage du Conseil de sécurité et de permettre à l’Assemblée générale de recommander des mesures collectives – y compris l’emploi de la force armée – afin de maintenir ou de rétablir la paix et la sécurité internationales. Si cette procédure n’a pas encore été utilisée dans la crise iranienne, c’est parce que la volonté politique nécessaire à cet effet n’est pas suffisante.

L’Union européenne : une actrice dotée d’une réelle puissance géopolitique… mais qui n’est pas disposée à l’utiliser

Un autre aspect notable (mais sans surprise) de cette guerre est l’absence totale de pertinence de l’Union européenne en tant que médiatrice et artisane de la paix. L’impulsion fondatrice de l’UE était de construire la paix sur la base de la coopération multilatérale et de la résolution non violente des conflits. L’UE se considère comme une puissance normative qui cherche à projeter ses valeurs dans le monde entier en utilisant le soft power, mais qui a tendance à éviter de recourir à la coercition.

Malheureusement, la période dans laquelle nous vivons est celle où les États les plus puissants ont décidé que la violence était désormais l’outil privilégié pour atteindre leurs objectifs de politique étrangère, soit en renversant les régimes hostiles, soit en s’emparant de territoires étrangers par la force armée.

Dans ce monde où règne la loi du plus fort, l’Europe semble impuissante. L’UE n’a pas été consultée avant la guerre en Iran et ne participe pas activement aux hostilités. Au contraire, elle observe depuis les coulisses, lançant des appels futiles à la retenue et se sabotant elle-même dans des querelles internes. Cela est regrettable, compte tenu du rôle historique joué par l’Europe dans la négociation de l’accord sur le nucléaire iranien.

Pourquoi l’UE se retrouve-t-elle spectatrice dans l’événement géopolitique le plus important de 2026 ? D’une part, parce qu’elle n’a – une fois de plus – pas réussi à parler d’une seule voix. Les États membres ont adopté des positions divergentes, certains exprimant leur soutien aux actions américano-israéliennes et d’autres appelant à la retenue. L’Espagne, par exemple, a pris le risque d’un conflit ouvert avec l’administration Trump au sujet de l’utilisation de ses bases militaires pour l’effort de guerre, tandis que d’autres acteurs importants, dont l’Allemagne et la France, ont exprimé une certaine compréhension pour les frappes aériennes.

S’il est facile de critiquer l’UE pour son manque d’unité sur des questions géopolitiques majeures, cette multiplicité de voix est en réalité une caractéristique voulue de cette entité hybride, qui combine à la fois des éléments supranationaux et intergouvernementaux dans son architecture institutionnelle. Dans le même temps, cette caractéristique sape activement l’action de l’UE sur la scène internationale.

Un autre facteur qui condamne l’UE à l’inefficacité dans les crises géopolitiques est la dépendance de l’Europe vis-à-vis des États-Unis en matière de sécurité et l’absence d’une politique de défense commune soutenue par une armée européenne.

Cependant, le plus grand obstacle à l’action de l’UE en matière de géopolitique n’est ni institutionnel ni matériel. Il est d’ordre psychologique. Il n’y a aucune volonté de diriger, aucune volonté d’utiliser une approche musclée pour contrer le mépris flagrant de Trump pour le multilatéralisme et le droit international (valeurs qui sont au cœur de l’identité européenne), et une croyance naïve que les relations transatlantiques se répareront d’elles-mêmes. Au lieu de tirer parti de son poids économique et diplomatique pour contrer les actions unilatérales des États-Unis, l’UE a souvent eu recours à des gestes réactifs et conciliants, dans l’espoir que l’harmonie transatlantique serait rétablie d’une manière ou d’une autre par la seule bonne volonté. Cela reflète une erreur de calcul fondamentale : la conviction que les États-Unis, sous Trump ou sous tout autre dirigeant, finiront par reconnaître et récompenser la loyauté européenne, même si les actions de Washington démontrent le contraire.

La bonne nouvelle, c’est que cela peut changer. Les mentalités peuvent évoluer, les identités peuvent être reconstruites et l’autonomie peut être renforcée.

Le patient est faible, mais il y a de l’espoir

Non, le multilatéralisme n’est pas mort. Les organisations internationales telles que l’ONU et l’UE ont non seulement mis en place des normes et des mécanismes qui les autoriseraient à jouer un rôle essentiel dans les crises géopolitiques, mais elles disposent également d’énormes ressources qui leur permettraient de jouer un tel rôle.

Le pouls du patient est donc faible, mais il existe des remèdes efficaces pour le renforcer. Nous devons maintenant rassembler la volonté politique nécessaire pour les appliquer.

The Conversation

Theresa Reinold a reçu des financements de Thyssen Foundation.

18.03.2026 à 18:09

Du détroit d’Ormuz à l’Europe : comprendre la rapidité de la propagation de l’insécurité énergétique

Kambiz Zare, Professor of International Business and Geostrategy, Kedge Business School
Le prix du pétrole a nettement augmenté depuis le début de la crise dans le golfe Persique. Même si elle a diversifié ses fournisseurs d’énergie, l’Europe demeure très vulnérable.
Texte intégral (2065 mots)

Les tensions dans le golfe Persique mettent en évidence la vulnérabilité structurelle des pays de l’union européenne, qui importent environ 58 % de leur énergie, ce qui les rend très sensibles à toute perturbation des routes maritimes ou de la production des pays membres du Conseil de coopération du Golfe. La réponse ne peut être exclusivement militaire : l’UE doit accélérer sa transition énergétique et s’engager plus activement sur le plan diplomatique pour stabiliser la région.


Dans le contexte actuel, les marchés, comme toujours, continuent de réagir aux informations qu’ils reçoivent. Ils montent, ils baissent, ils peuvent créer des épisodes de panique, mais aussi des opportunités d’arbitrage, tout en incitant les investisseurs à rechercher des placements jugés plus sûrs. Au fond, cette réactivité immédiate est la nature même des marchés.

En ce qui concerne la crise iranienne, à ce stade il faut distinguer deux niveaux. Le premier est déjà visible : un choc de volatilité. Le second serait beaucoup plus grave : un choc systémique majeur. Pour l’instant, le premier est réel ; le second reste un risque, pas une certitude.

Pour l’Union européenne, l’enjeu ne se limite pas à une accalmie boursière ou à une baisse ponctuelle du prix du baril de Brent. Le problème est plus profond : l’Europe reste fortement exposée aux chocs énergétiques extérieurs, en particulier lorsque les tensions géopolitiques menacent les routes maritimes, le trafic des tankers et la confiance des producteurs du golfe Persique. L’énergie n’est pas un sujet périphérique pour l’économie européenne. Elle se situe au cœur de l’inflation, de la production industrielle, des coûts de transport et de la compétitivité.

Figure 1 : Taux d’inflation des prix de l’énergie dans l’Union européenne entre 2019 et 2025, par produit. Statista

En d’autres termes, même lorsque les prix reculent temporairement, le signal stratégique reste inchangé : la sécurité énergétique de l’Europe demeure vulnérable à des perturbations que cette dernière ne contrôle pas.

Une vulnérabilité structurelle de l’Europe

La fragilité européenne n’est pas conjoncturelle ; elle est structurelle. Depuis longtemps, la demande énergétique de l’UE dépasse sa production intérieure, ce qui rend le bloc durablement dépendant des importations. Le taux global de dépendance énergétique de l’UE se situe autour de 58 %. Surtout, l’Union importe plus de 90 % du pétrole qu’elle consomme et entre environ 80 % et 90 % de son gaz, selon les indicateurs retenus. Cette réalité place l’Europe en situation de forte exposition dès qu’un conflit menace les voies maritimes, les flux pétroliers ou la production des régions exportatrices.

Figure 2 : Approvisionnement en énergie primaire dans l’Union européenne de 2023 à 2024, par combustible. Statista

L’Europe a certes diversifié une partie de ses fournisseurs. Pour le pétrole, ses principaux partenaires sont aujourd’hui les États-Unis, la Norvège et le Kazakhstan. Pour le gaz, la Norvège occupe une place centrale, suivie par l’Algérie et le Royaume-Uni. En matière de gaz naturel liquéfié, les États-Unis dominent très largement, devant la Russie puis le Qatar.

Cette diversification a réduit certains risques, mais elle n’a pas supprimé la dépendance. Elle a simplement changé sa géographie. L’Europe dépend moins d’un fournisseur unique qu’auparavant, mais elle reste profondément insérée dans un marché mondial où les prix réagissent immédiatement aux tensions géopolitiques.

Le détroit d’Ormuz : un choc qui dépasse le seul pétrole

Le risque lié au détroit d’Ormuz ne concerne pas uniquement le pétrole. Toute perturbation durable dans le golfe Persique peut aussi affecter d’autres matières premières et intrants stratégiques pour l’industrie européenne : engrais, produits chimiques, pétrochimiques, plastiques et divers produits intermédiaires indispensables aux chaînes de production.

Pour l’Europe, les secteurs les plus vulnérables sont ceux qui sont déjà très énergivores ou fortement dépendants d’intrants importés. On pense notamment à la chimie, à la pétrochimie, au ciment, au verre, à la céramique, au papier, mais aussi à certaines branches de l’agroalimentaire via la question des engrais et du transport. Ce qu’il faut bien comprendre, c’est que ces secteurs se situent souvent en amont de l’économie. Lorsqu’ils subissent une hausse des coûts, celle-ci se diffuse ensuite dans le reste du système productif. Le choc ne reste donc pas limité à l’énergie. Il passe aussi par le fret, l’assurance maritime, les coûts de production et, à terme, par les prix à la consommation.

Autrement dit, l’Europe ne fait pas face à une simple tension énergétique, mais à une chaîne de transmission inflationniste beaucoup plus large. Il n’est même pas nécessaire qu’Ormuz soit totalement fermé pour produire cet effet. Le simple risque de perturbation peut suffire à faire grimper les prix, parce que les marchés réagissent autant à l’anticipation d’un choc qu’au choc lui-même.

Prix du pétrole, croissance et risque stagflationniste

Le retour d’un pétrole au-dessus de 100 dollars (85,5 euros) est un marqueur très préoccupant pour l’Europe. Une telle hausse renchérit immédiatement le transport, pèse sur les marges industrielles, fragilise la compétitivité et réduit le pouvoir d’achat. L’Europe n’est peut-être pas au centre géographique de la crise, mais elle en supporte très directement les conséquences économiques.

La Commission européenne a évoqué le risque d’un choc stagflationniste majeur. Le scénario est crédible – l’expérience de l’invasion de l’Ukraine n’est pas loin –, mais il ne doit pas être présenté comme inévitable. Il devient sérieux si trois conditions se cumulent : un choc énergétique durable, une remontée de l’inflation et un ralentissement de l’activité sous l’effet de coûts élevés prolongés.

Pour la zone euro, la vulnérabilité est réelle, car la croissance y est déjà plus modérée que dans d’autres grands blocs, notamment les États-Unis ou certaines économies asiatiques. Cela signifie que l’Europe dispose de moins de marge pour absorber un nouveau choc d’offre. Nous ne sommes pas automatiquement dans une répétition du choc de 2022. Tout dépendra de la durée de la crise, de l’intensité de la perturbation et de la capacité de l’Europe à sécuriser ses approvisionnements.

Ce que l’Europe peut faire : d’Ormuz à Bruxelles, deux priorités

Le déploiement d’une flotte européenne peut contribuer à sécuriser les routes commerciales et à rassurer les marchés. Mais il faut rester lucide : cela ne fera ni baisser durablement les prix ni disparaître le risque géopolitique. La réponse européenne ne peut donc pas être uniquement militaire. Elle doit aussi être diplomatique, énergétique et stratégique.

La leçon est claire : tant que l’Europe restera dépendante du pétrole et du gaz importés, toute crise majeure dans le golfe Persique continuera d’affecter directement ses prix, son inflation, son industrie et sa croissance. L’instabilité du Moyen-Orient n’est plus un sujet périphérique ; elle fait partie intégrante de la sécurité économique européenne.

L’Union européenne doit d’abord accélérer sa sortie de la dépendance aux énergies fossiles, en misant davantage sur les renouvelables, l’électrification, les réseaux et l’efficacité énergétique. Elle doit ensuite contribuer plus activement à la stabilité régionale. La sécurité de l’économie européenne dépend aussi de sa capacité à défendre un environnement géopolitique plus stable.

The Conversation

Kambiz Zare est membre du conseil scientifique du Spirales Institute Think Tank

18.03.2026 à 18:08

Comment le réchauffement climatique nourrit la violence

Oliver Vanden Eynde, Professeur titulaire d'une chaire et directeur de recherche CNRS, Paris School of Economics – École d'économie de Paris; Centre national de la recherche scientifique (CNRS)
Juan Vargas, Professor of Economics, Università di Torino
Le changement climatique peut nourrir, indirectement, les violences. En cause, des tensions sur l’agriculture et l’exploitation des ressources minières.
Texte intégral (1672 mots)

Le changement climatique peut aussi nourrir, indirectement, les violences. En cause, des tensions sur l’agriculture et l’exploitation des ressources minières requise pour la transition énergétique, notamment. De quoi mieux comprendre les risques de conflit armés dans le monde.


Les événements météorologiques extrêmes deviennent de plus en plus fréquents et intenses. Ces chocs climatiques ne se contentent pas de perturber les écosystèmes : ils redessinent les dynamiques sociales, économiques et politiques à l’échelle mondiale. En parallèle, la transition vers une économie sobre en carbone, bien que nécessaire, engendre une demande sans précédent en ressources minières, comme le lithium ou les terres rares. Celles-ci sont souvent extraites dans des régions déjà fragilisées par des tensions sociales ou des conflits armés.

Le cas du conflit entre la République démocratique du Congo et le Rwanda, par exemple, dans lequel chacun accuse l’autre d’armer des groupes rebelles, arbitré finalement par les États-Unis, constitue un cas emblématique. Ce sont des terres riches en cobalt et en cuivre, marquées par des sécheresses de plus en plus prolongées et des pluies de plus en plus abondantes, sur lesquelles les populations vivent majoritairement encore de l’agriculture.

Depuis les années 2010, les économistes s’intéressent de plus en plus aux liens complexes entre toutes ces composantes : changement climatique, exploitation des ressources naturelles et risque de conflits. Aujourd’hui, nous disposons de résultats robustes, même si des zones d’ombre persistent, et de pistes concrètes pour guider l’action des décideurs publics.

L’agriculture au cœur des conflits

C’est d’abord par le truchement de l’agriculture que le mécanisme a pu être mis en évidence. Sécheresses, vagues de chaleur et inondations augmentent systématiquement la probabilité que des violences surviennent ainsi que leur intensité, en particulier dans les régions où les moyens de subsistance dépendent de l’agriculture pluviale – autrement dit directement des pluies.

Cela se joue à travers plusieurs leviers :

  • la baisse des revenus agricoles peut rendre plus attractif le fait de rejoindre des groupes armés ;

  • la rareté des ressources peut intensifier la compétition entre communautés ;

  • la chaleur elle-même peut accroître l’agressivité, même en milieu urbain.

La causalité peut cependant aussi fonctionner dans l’autre sens. En effet, les conflits dégradent souvent l’environnement : exploitation minière illégale, expansion de cultures illégales pour produire des drogues (par exemple, le pavot ou la coca), déforestation, destruction des infrastructures, pollution des rivières…

Des cercles vicieux se mettent en place, dans lesquels la détérioration environnementale et la violence s’entretiennent mutuellement.


À lire aussi : Pourquoi les femmes souffrent davantage des catastrophes naturelles et des migrations


Quand la transition verte exacerbe les violences

Si les chocs climatiques redéfinissent ainsi les opportunités localement, les hausses du cours des ressources naturelles augmentent les enjeux des conflits. Les hausses des prix du pétrole et des métaux ont souvent intensifié les violences dans les zones de production, en particulier lorsque l’extraction est intensive en capital et que les ressources peuvent être pillées. La transition verte risque d’exacerber ces dynamiques.

La demande en « minéraux de la transition » (aussi appelés « minerais critiques ») augmente rapidement, menaçant d’amplifier cette forme de rapacité dans certaines régions, tandis que les revenus des énergies fossiles diminuent ailleurs.

Les mécanismes précis par lesquels l’activité minière déclenche des conflits dépendent également du type d’exploitation. Dans le cas d’une exploitation minière artisanale, l’emploi de la population locale joue un rôle bien plus important que dans une exploitation industrielle. En outre, la pollution due à l’extraction de ces minéraux – en particulier la contamination de l’eau – peut aussi réduire les rendements agricoles bien au-delà des sites miniers. Des moyens de subsistance sont ainsi perdus, ce qui alimente doublement les risques de conflit.

Les facteurs de risque, ainsi, se chevauchent souvent. Les régions sujettes à la sécheresse se trouvent fréquemment au-dessus de gisements minéraux. Les risques climatiques et les risques liés aux ressources pourraient s’aggraver mutuellement pour déclencher des violences, bien que ces complémentarités soient encore mal comprises.


À lire aussi : Comment échapper à la malédiction de la rente fossile ?


Comment atténuer les risques ?

Quelles politiques publiques pourraient donc atténuer les risques de conflit ? Grâce à des évaluations rigoureuses, nous avons identifié des dispositifs qui pourraient s’avérer les plus efficaces. Les assurances individuelles et la protection sociale, tout d’abord, peuvent briser le lien entre sécheresses et recrutement par les groupes armés.

Mais leur bonne conception est cruciale : une assurance qui stabilise les revenus lors des mauvaises années peut involontairement encourager la prédation lors des meilleures récoltes. Cela requiert donc une conception minutieuse des contrats et des mécanismes de suivi crédibles.

L’irrigation, le choix de semis résistants à la sécheresse et le développement de liaisons de transport peuvent également atténuer les chocs météorologiques locaux et réduire les risques de famine. Routes et marchés peuvent néanmoins aussi aider les groupes armés à taxer le commerce ou à déplacer des marchandises de contrebande. Les choix d’infrastructures devraient donc être accompagnés de renforcements de la gouvernance.


À lire aussi : Les routes d'Afrique de l'Ouest, terrain d'affrontements privilégié des groupes terroristes


Même avec ces protections, certains chocs nécessiteront toujours une aide humanitaire rapide. Son ciblage et le timing de son déploiement sont cruciaux. Les preuves sont mitigées sur le fait de savoir si elle atténue ou aggrave la violence, soulignant le besoin de systèmes d’alerte précoce et d’évaluation des modèles de distribution.

Réguler l’extraction des minerais et partager les bénéfices de manière crédible paraît également essentiel. La transparence et la certification peuvent réduire le financement des groupes armés dans certains contextes : caractère industriel ou artisanal de l’exploitation, proximité de frontières ou capacité de l’État, par exemple. Les mesures complémentaires comptent aussi : le partage local des revenus, les campagnes d’information qui fixent des attentes réalistes et la gestion décentralisée de l’eau et des forêts peuvent amplifier les effets positifs d’une régulation bien conçue et réduire les possibilités de capture politique.

Deux précisions s’imposent à ce stade.

  • Premièrement, atténuer les risques de conflit par des actions publiques est onéreux. Une grande partie de ces mesures coûte cependant moins cher qu’un conflit prolongé et peut apporter des bénéfices supplémentaires en termes de croissance économique.

  • Deuxièmement, la conception de politiques efficaces nécessite des preuves scientifiques supplémentaires. Des facteurs, comme la perte de biodiversité ou les migrations, sont notamment sous-étudiés comme causes de conflits. Les connaissances scientifiques à ces sujets peinent parfois à suivre le rythme des débats politiques.


Cette contribution est publiée en partenariat avec le Printemps de l’économie, cycle de conférences-débats qui se tiennent du 17 au 20 mars au Conseil économique social et environnemental (Cese) à Paris. Retrouvez ici le programme complet de l’édition 2026, « Le temps des rapports de force ».

The Conversation

Oliver Vanden Eynde est Head of Engagement pour l'initiative de recherche conjointe FCDO-CEPR sur la réduction des conflits et l'amélioration des performances économiques (ReCIPE). Il est également Theme Leader du thème du programme de recherche ReCIPE « Changement climatique, ressources naturelles et conflits ». Il a également reçu des financements de l'ANR ANR-17-EURE-0001.

Juan Vargas et Oliver Vanden Eynde ont reçu des financements, dans le cadre des travaux présentés ici, de l'initiative de recherche conjointe FCDO-CEPR sur la réduction des conflits et l'amélioration des performances économiques (ReCIPE).

18.03.2026 à 18:08

Maths en classe : la confiance en soi, une clé de la réussite ?

Nathalie Braun, Chercheur en sciences de l'éducation et de la formation et en didactique des mathématiques, CY Cergy Paris Université
La réussite en maths n’est pas qu’une question de programmes et de compétences, elle est aussi affaire d’émotions. Mais comment lutter contre la peur de se tromper et le stress face aux maths ?
Texte intégral (1667 mots)

La réussite en maths n’est pas qu’une affaire de programmes et de compétences. Elle repose aussi sur des émotions. Le stress face à de nouvelles notions, la peur de se tromper ou l’impression de « ne pas être fait pour les maths » nourrissent les inégalités entre les élèves. Des expérimentations autour de jeux mathématiques ouvrent des pistes pour diminuer la pression de « la bonne réponse immédiate » et transformer l’erreur en ressource.


Une étude française, publiée en 2025 dans la revue Nature et réalisée sur plus de 2,6 millions d’élèves de CP et de CE1, montre qu’un écart de performance en maths apparaît entre filles et garçons dès les premiers mois de scolarité.

Ces résultats alimentent les débats sur les inégalités face à cette discipline. Cependant, derrière les notes et les moyennes se cache une autre réalité, moins visible : le rapport émotionnel des élèves aux mathématiques, entre stress face aux évaluations, peur de se tromper au tableau, ou encore impression durable de « ne pas être fait pour les maths ».

Une menée en 2026 auprès de lycéens aux Philippines, montre que, plus l’anxiété est élevée, plus les résultats tendent à baisser. Elle indique également que les filles tendent à ressentir davantage d’anxiété mathématique, tandis que les garçons réussissent mieux dans cette discipline.


À lire aussi : L’anxiété mathématique des parents influence les résultats scolaires des enfants – nouvelle recherche


Ces travaux trouvent un écho dans les analyses des tests internationaux Pisa de 2022 qui soulignent le rôle essentiel des attitudes, de la confiance en soi et du sentiment d’efficacité dans la réussite en mathématiques.

Et si réussir en mathématiques ne dépendait pas seulement des programmes ou du niveau d’exigence demandé mais aussi du bien-être dans cette discipline ?

Se pose alors une question supplémentaire : comment enseigner les mathématiques de manière à soutenir à la fois l’exigence des apprentissages dans cette discipline et le bien-être des élèves ?

Le bien-être en contexte scolaire peut être défini comme un état global positif comprenant une dimension émotionnelle (plaisir et sécurité affective), une dimension cognitive (sentiment de compétence et d’efficacité) et enfin une dimension relationnelle avec qualité des interactions et sentiment d’appartenance à un groupe.

Des jeux pour changer l’enseignement des maths

Au cours de deux années scolaires, nous avons observé et analysé le travail d’un collectif de cinq professeurs de mathématiques de collège, qui évolue de manière autonome pour apprendre à enseigner les raisonnements mathématiques via les jeux mathématiques. Les différentes expérimentations ont été conduites dans des classes de cinquième d’un même collège. Ces classes sont constituées d’élèves aux profils variés tant dans les résultats scolaires en mathématiques que dans le rapport de confiance des élèves à la discipline.


À lire aussi : Les maths pour les garçons, le français pour les filles ? Comment les stéréotypes de genre se perpétuent à l’école


En quoi ces pratiques se distinguent-elles d’un enseignement plus traditionnel ? Et que révèlent-elles sur le lien entre bien-être et apprentissage des raisonnements mathématiques ?

Les jeux mathématiques mis en œuvre dans ces différentes classes ne relèvent pas d’une simple transformation ludique des apprentissages, ils appartiennent aux « situations de recherche pour la classe (SiRC) », où les élèves sont placés en position de chercheurs, de mathématiciens. Dans ces situations la solution n’est pas donnée d’emblée, plusieurs stratégies sont possibles, et la validation émerge progressivement de l’exploration et de la confrontation des points de vue.

Les élèves ne cherchent pas à appliquer une technique déjà apprise : ils font des essais, ils émettent des conjectures, ils testent et ils argumentent. Ainsi, dans ces situations, le jeu devient un milieu structurant qui organise les interactions, stimule la recherche et soutient la construction progressive des raisonnements mathématiques.

Diminuer la pression de la « bonne réponse »

Le jeu choisi, Le Jeu de Nim, en est une illustration. C’est un jeu de stratégie à deux joueurs dans lequel plusieurs tas d’objets sont disposés et où chacun, à tour de rôle, retire un nombre quelconque d’éléments d’un seul tas, le vainqueur étant celui qui prend le dernier objet ou inversement. Derrière sa règle simple, ce jeu mobilise divers raisonnements mathématiques : il conduit les élèves à repérer des régularités, formuler des conjectures, anticiper les coups des adversaires et justifier leurs choix.

Pourquoi tant d’anxiété avec les maths ? (Leçon d’Orly Rubinsten, animation d’Adriatic Animation).

Ces situations de jeux mathématiques nous ont permis d’observer le développement du bien-être des élèves dans ses trois dimensions.

Tout d’abord, les SiRC ont permis d’engendrer du bien-être émotionnel, à savoir le plaisir ressenti dans la tâche mathématique. L’erreur a été perçue comme un élément du jeu et non comme une faute scolaire, la pression de la « bonne réponse immédiate » a été diminuée, les élèves ont osé davantage proposer des hypothèses et l’anxiété initiale face à la tâche s’est atténuée. Ainsi, le cadre ludique agit comme un espace sécurisé pour les élèves où la prise de risque intellectuelle devient possible.

Ces situations ont permis aussi de développer le bien-être cognitif des collégiens. Ces derniers ne se sont pas contentés d’appliquer une méthode connue : ils ont cherché, testé, comparé des stratégies. Cette dynamique a favorisé l’engagement des élèves dans la tâche mathématique, même ceux ayant habituellement des difficultés en mathématiques. Le sentiment d’apprendre et celui de progresser par soi-même ont été aussi développés.

Enfin, ces situations ont renforcé le bien-être relationnel, c’est-à-dire la qualité des interactions au sein de la classe : les échanges entre élèves sont devenus centraux, l’argumentation a été valorisée, les stratégies ont été discutées collectivement, et les enseignants ont adopté une posture de régulation plutôt que de simple correction.

Créer une sécurité émotionnelle

Ces trois dimensions ne fonctionnent pas isolément, elles sont complémentaires. Le cadre des SiRC en permet une articulation dynamique en mettant en jeu un climat émotionnel sécurisant qui favorise l’engagement des élèves dans la tâche, une activité cognitive qui renforce la confiance et des interactions qui soutiennent à la fois la compréhension et le sentiment d’appartenance au groupe.

Dans ces dispositifs, le bien-être n’est pas un objectif secondaire, il constitue une condition structurante du développement des raisonnements mathématiques des collégiens.

Lorsqu’on parle de réussite en mathématiques, le débat public se focalise sur les programmes, des horaires ou des méthodes d’évaluation. Ces dimensions sont évidemment importantes. Mais elles ne suffisent pas. Nos travaux montrent qu’on ne peut dissocier l’apprentissage des raisonnements mathématiques du climat dans lequel les élèves les construisent. En effet, raisonner suppose d’oser : oser formuler une hypothèse, oser se tromper, oser argumenter devant les autres… Sans un minimum de sécurité émotionnelle, cette prise de risque des élèves devient difficile, voire impossible.

Les SiRC mises en œuvre à travers des jeux comme le jeu de Nim, ne simplifient pas les mathématiques. Elles ne réduisent pas l’exigence mais la rendent accessible. En transformant l’erreur en ressource, en valorisant la recherche plutôt que la réponse immédiate, elles créent les conditions d’un engagement plus profond des élèves en mathématiques.

Le bien-être en mathématiques ne consiste donc pas à rendre la discipline plus divertissante. Il permet aux élèves, même ceux ayant des difficultés, de ressentir du plaisir en mathématiques et de s’engager davantage.

The Conversation

Nathalie Braun ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.03.2026 à 18:07

Le réseau portuaire de la Chine se concentre autour des routes les plus risquées de la planète… et ce n’est pas un hasard

Dylan Spencer, Assistant Professor of Criminology, Georgia Southern University
Gohar Petrossian, Professor of Criminal Justice, John Jay College of Criminal Justice
Stephen Pires, Associate Professor of Criminal Justice, Florida International University
Du canal de Panama au détroit de Malacca, les ports liés à des entreprises chinoises se multiplient le long des passages clés du commerce mondial. Et des routes les plus dangereuses…
Texte intégral (2126 mots)

La Chine a pris pied dans plus de 90 ports à travers le monde. Une nouvelle étude montre que ces investissements ne sont pas répartis au hasard : ils se concentrent près des grands goulets d’étranglement du commerce mondial et dans des corridors maritimes exposés à la piraterie.


Fin février 2026, le gouvernement panaméen a pris le contrôle de deux ports du canal de Panama qui étaient exploités depuis deux décennies par un conglomérat hongkongais. Cette décision constitue le dernier épisode d’un long bras de fer juridique, après que la Cour suprême du Panama a annulé les contrats de l’entreprise.

Mais l’affaire dépasse largement le cadre d’un simple différend local. Elle a attiré l’attention des États-Unis et de la Chine, dont la rivalité autour des ports mondiaux et des routes commerciales s’est intensifiée ces dernières années, notamment dans la zone stratégique du canal de Panama, où la présence chinoise a, à plusieurs reprises, suscité l’ire de l’administration Trump.

Des entreprises chinoises possèdent ou exploitent désormais des terminaux dans plus de 90 ports à travers le monde, dont beaucoup figurent parmi les plus fréquentés. Ce réseau s’étend de l’Afrique à l’Europe, en passant par le Moyen-Orient et l’Asie, avec une activité en croissance en Amérique du Sud.

L’ampleur de l’implication chinoise dans les ports à l’étranger a alimenté le débat sur la nature réelle de ces investissements : s’agit-il d’opérations strictement commerciales ou servent-ils des objectifs stratégiques plus larges ?

Une grande partie de ce débat s’est appuyée sur des études de cas et des analyses politiques, notamment dans le cas du canal de Panama. Pourtant, comprendre où se situent ces ports et déterminer s’il existe des caractéristiques communes aux pays qui les accueillent est essentiel, car des perturbations des grandes routes maritimes peuvent se répercuter sur l’ensemble de l’économie mondiale.

Dans une étude récente, nous – chercheurs en sécurité maritime, en infrastructures mondiales et en commerce international – avons constitué la première base de données mondiale des ports liés à des entreprises chinoises. Nous avons ensuite analysé 133 pays côtiers afin de comprendre pourquoi certains accueillent des investissements portuaires chinois tandis que d’autres n’en ont pas.

Nous avons constaté que l’expansion des ports chinois à l’étranger n’est pas aléatoire. Loin d’être principalement déterminés par le climat général des affaires, ces investissements se concentrent près des points d’étranglement maritimes et des corridors maritimes exposés à la piraterie, avec des indices plus modestes suggérant que les pays riches en ressources ont également davantage de chances d’accueillir ces ports.

L’importance des points d’étranglement

Certaines routes maritimes sont plus importantes que d’autres. Le canal de Suez, le détroit d’Ormuz et le détroit de Malacca sont des exemples de points d’étranglement – des passages étroits par lesquels transitent d’énormes volumes du commerce mondial et des flux d’énergie.

Selon nos résultats, les pays situés à proximité de points d’étranglement majeurs ou secondaires, comme le Panama ou ceux bordant le détroit du Pas-de-Calais – dont la France – sont nettement plus susceptibles d’accueillir un port lié à des entreprises chinoises. En termes simples, la proximité avec des goulets d’étranglement essentiels du commerce mondial constitue un fort prédicteur des investissements chinois.

Carte des points d’étranglement
Les points d’étranglement se situent le long de corridors maritimes particulièrement sensibles. Spencer/Christiansen/Pires/Tsai/Gondhali/Petrossian

Cette disposition a une logique économique. La Chine dépend fortement du commerce maritime pour soutenir sa croissance. Or les ports situés près des points d’étranglement se trouvent le long des corridors maritimes les plus sensibles du monde et offrent un accès commercial durable dans des emplacements stratégiques.

Malgré les inquiétudes en Occident, selon lesquelles Pékin développerait des ports à des fins militaires, tous ne constituent pas pour autant des bases navales déguisées.

La plupart des installations liées à des entreprises chinoises sont des terminaux commerciaux. Cependant, des infrastructures commerciales peuvent aussi avoir une valeur stratégique. Ainsi la première base logistique militaire à l’étranger de la Chine, à Djibouti, se trouve à côté du complexe portuaire de Doraleh exploité par… une entreprise chinoise. Un rapport du Congressional Research Service souligne que cette installation soutient les opérations navales et l’accès régional dans l’ouest de l’océan Indien.

Cela ne signifie pas que les autres ports détenus ou exploités par des entreprises chinoises soient des installations militaires. Mais le contrôle de terminaux, de plateformes logistiques et de données sur les chaînes d’approvisionnement peut, avec le temps, influencer les relations économiques et sécuritaires.

Le rôle de la piraterie et des ressources

Les mêmes corridors maritimes dans lesquels Pékin concentre ses investissements portuaires sont aussi des points chauds de la criminalité maritime. Dans une recherche distincte, nous avons montré que les ports maritimes peuvent faciliter la pêche illégale, non déclarée et non réglementée lorsque les mécanismes de contrôle sont faibles. Nos derniers résultats indiquent que les ports liés à des entreprises chinoises sont plus fréquents dans des pays déjà confrontés à la piraterie et à l’insécurité maritime.

Ce chevauchement ne signifie pas que les ports provoquent des activités illicites, mais il montre que ces investissements se produisent souvent dans des environnements maritimes à plus haut risque. L’un des résultats les plus surprenants de notre étude concerne précisément cette relation entre la piraterie et les investissements portuaires.

Entre 1991 et 2018, des milliers d’incidents de piraterie ont été enregistrés dans le monde. Pourtant, au lieu d’éviter les zones à risque, les ports liés à des entreprises chinoises sont plus fréquents dans les pays où les niveaux de piraterie sont les plus élevés.

Pourquoi investir dans des corridors instables ? Parce que la piraterie signale les routes commerciales à la fois vulnérables et précieuses. Investir dans des ports dans des régions comme le golfe de Guinée ou certaines parties de l’Asie du Sud-Est peut aider Pékin à protéger ses intérêts maritimes. En ce sens, la piraterie peut signaler non seulement un risque, mais aussi une opportunité.

Parallèlement, nous avons examiné la richesse en ressources naturelles des pays hôtes à l’aide d’un indicateur incluant les ressources extractives, minières et agricoles. Nous avons trouvé des indices suggérant que les pays disposant de ressources plus abondantes étaient davantage susceptibles d’accueillir au moins un port lié à des entreprises chinoises, mais si cette relation n’apparaissait pas de manière constante dans tous les modèles.

De fait, certaines explications souvent avancées pour expliquer où et pourquoi la Chine investit dans des ports ne résistent pas à notre analyse.

Les indicateurs généraux du climat des affaires et de la gouvernance, tels que la facilité à faire des affaires ou la stabilité institutionnelle, ne sont pas, après examen, des prédicteurs constants de la présence de ports liés à des entreprises chinoises. Cela suggère que la géographie et les facteurs de risque maritimes comptent davantage que les indicateurs économiques ou de gouvernance plus généraux.

Implications plus larges

Quelles que soient les motivations derrière les investissements chinois, leurs effets dépassent le simple cadre du commerce local et de la logistique. Les ports ne sont plus seulement des infrastructures locales. Ils sont devenus des nœuds des chaînes d’approvisionnement mondiales et, de plus en plus, des éléments de la compétition géopolitique. Et si tous les investissements ne traduisent pas une ambition militaire dissimulée, il serait naïf de considérer que tous les projets portuaires sont politiquement neutres.

Les récentes réponses politiques américaines reflètent ces inquiétudes croissantes. Début 2026, la Maison-Blanche a présenté un plan visant à renforcer l’industrie maritime américaine et à réduire la dépendance à l’égard d’infrastructures maritimes contrôlées par des acteurs étrangers. L’administration s’est également penchée de plus près sur l’implication d’entreprises étrangères dans des installations clés de l’hémisphère occidental, notamment des ports liés au canal de Panama.

De telles initiatives suggèrent qu’à Washington, le contrôle des infrastructures maritimes n’est plus considéré comme une simple question commerciale, mais de plus en plus comme un enjeu de sécurité économique et nationale. Et comme le montre la carte des pays accueillant des ports liés à des entreprises chinoises, les investissements de Pékin suivent les routes commerciales les plus stratégiques du monde – non pas par hasard, mais par choix.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

18.03.2026 à 18:06

En France, la gastronomie des Alpes tutoie les sommets

Nathalie Louisgrand, Enseignante-chercheuse, GEM
Magnifiée par de grands chefs depuis le début des années 1990, la cuisine de montagne atteint des sommets.
Texte intégral (1780 mots)
Trois générations à La Bouitte, en Savoie : René Meilleur et son fils Maxime, les deux chefs, et les deux fils de Maxime, Oscar et Calixte, qui travaillent dans la brigade. Site du restaurant La Bouitte

Comment expliquer que les tables étoilées se multiplient dans les stations de haute montagne ? Parallèlement à la nécessité de diversifier les options destinées à une clientèle fortunée dans le contexte du réchauffement climatique (la neige se fait plus rare), cette ascension fulgurante est liée à la revalorisation des recettes et des produits locaux par des chefs particulièrement créatifs et inspirés, depuis une trentaine d’années.


Au cœur des Alpes, à 3 032 mètres d’altitude, la nouvelle saison de « Top Chef » (diffusée sur M6) s’ouvre sur la terrasse du restaurant Le Panoramic qui côtoie le glacier de la Grande Motte. La production de l’émission n’a pas choisi ce décor spectaculaire par hasard : les Alpes sont devenues un lieu emblématique de la haute gastronomie.

En 2026, les départements de l’Isère, de la Savoie et de la Haute-Savoie totalisent 41 restaurants étoilés, contre 139 pour la région Paris-Île de France et 104 pour l’ensemble d’Auvergne-Rhône-Alpes. La station de Courchevel regroupe à elle seule sept établissements distingués par le guide Michelin et totalisant 13 étoiles dont le triple-étoilé 1947 à Cheval Blanc dirigé par le chef Yannick Alléno.

D’autre part, 12 restaurants alpins figurent parmi les 1 000 meilleures tables mondiales selon le classement de référence La Liste. Il apparaît cependant clairement que la haute gastronomie demeure un univers majoritairement masculin puisque que seules 7 % des femmes sont étoilées et aucune n’est distinguée dans les Alpes.

Le triomphe de cette haute gastronomie dans un environnement montagnard aux conditions extrêmes n’avait pourtant rien d’une évidence. Comment expliquer cette incroyable ascension en une trentaine d’années seulement, et par quels mécanismes une cuisine paysanne, initialement rudimentaire, s’est-elle hissée au sommet de l’art culinaire ?

De la cuisine de survie au trio « raclette-fondue-tartiflette »

La cuisine alpine puise sa force dans la nécessité, façonnée par la rudesse du climat. Jusqu’au XXᵉ siècle, elle avait d’abord pour fonction de rassasier après une journée de dur labeur dans un environnement souvent hostile. À haute altitude, l’élevage domine tandis que l’agriculture représente un véritable défi, de nombreuses cultures ne pouvant y prospérer. Tout ce qui parvient à pousser et à se conserver devient alors crucial pour affronter des hivers longs et rigoureux.

Cette cuisine de montagne s’inscrit dans une tradition paysanne, avec des plats économiques et roboratifs, fondés sur l’utilisation de produits locaux tels que les céréales, les pommes de terre, les légumes et les ressources de la cueillette. Le cochon élevé à la ferme fournissait la charcuterie et, contrairement à ce que l’on pourrait croire, le fromage constituait avant tout une source précieuse de revenus pour le foyer et était donc plus souvent vendu que consommé sur place.

À partir du milieu du XXe siècle, avec l’essor du ski et l’apparition des stations de sport d’hiver, les Alpes deviennent un nouvel Eldorado touristique, et l’alimentation locale connaît un premier bouleversement, car il faut désormais rassasier les skieurs affamés. La fondue et la raclette, toutes deux d’origine Suisse, sont alors érigés en emblèmes nationaux. Quant à la célèbre tartiflette, souvent considérée comme un plat traditionnel, elle n’est en réalité qu’une création marketing des années 1980-1990 destinée à relancer les ventes de reblochon, bien qu’elle s’inspire directement de la « péla », un plat paysan savoyard cuit dans une poêle, à base de pommes de terre et de fromage.

Dans le même temps, les restaurants gastronomiques que l’on trouve alors en station sont marqués par un véritable complexe d’infériorité. Certains chefs éprouvent presque une forme de « honte » à l’égard de leurs produits locaux, jugés trop frustes ou insuffisamment valorisant pour figurer sur la carte. À cette époque, la plupart d’entre eux se désintéressent du terroir alentour. Pour répondre aux besoins d’une clientèle urbaine et internationale fortunée, ils calquent leurs offres sur des standards parisiens avec des viandes acheminées depuis Rungis, des homards et des poissons venant de la mer, autant d’ingrédients importés qui relèguent au second plan les richesses abondantes des lacs et des alpages environnants.

Révolution végétale et retour au biotope

La véritable métamorphose de la gastronomie de montagne s’opère au début des années 1990, portée par l’emblématique Marc Veyrat. Son apport majeur tient dans la réhabilitation de la cueillette alpine. Le chef sillonne les alpages et les sous-bois, à la recherche d’herbes sauvages, comme la berce, l’angélique ou la reine-des-prés. Cette « révolution végétale » bouleverse la gastronomie qui devient plus naturelle, plus locale, enracinée dans son environnement.

Parallèlement, Marc Veyrat remet à l’honneur les poissons des lacs alpins, comme la féra ou l’omble chevalier, tout en éduquant peu à peu le palais de sa clientèle. Enfin, sa philosophie rompt avec les codes traditionnels de la cuisine de montagne jugée souvent trop lourde. Il allège les plats en profondeur : moins de crème, moins de gratin, davantage de bouillons et d’infusions. La cuisine gagne alors en lisibilité, en finesse et en élégance.

Veyrat contribue ainsi à l’émergence d’une identité culinaire alpine authentique. Cette approche novatrice sera couronnée en 1995 par l’obtention de trois étoiles au guide Michelin pour l’Auberge de l’Éridan sur les rives du lac d’Annecy.

La démarche du chef savoyard a décomplexé toute une génération de cuisiniers qui, à sa suite, ont décidé de s’engager pleinement dans une haute gastronomie en lien direct avec la nature alpine, attentive au rythme des saisons.

C’est ainsi qu’aujourd’hui une véritable constellation de tables d’exception portent cette identité au plus haut. À Megève, Emmanuel Renaut, chef trois étoiles du Flocon de Sel propose une cuisine entièrement tournée vers la nature, magnifiant poisson du Léman, gibiers et fromages locaux au gré d’une carte en perpétuelle évolution. Sur les rives du lac d’Annecy, Jean Sulpice développe à l’Auberge du père Bise (deux étoiles) un univers à la fois sensible et percutant en étroite collaboration avec artisans, pêcheurs et maraîchers locaux. À Saint-Martin-de-Belleville, la famille Meilleur fait de La Bouitte (deux étoiles) un lieu où le patrimoine savoyard s’élève au rang d’art.

Cette quête de l’excellence s’accompagne d’un véritable défi scientifique : cuisiner en altitude. À 1 500 mètres, la pression atmosphérique, plus faible, fait bouillir l’eau autour de 95 °C, ce qui allonge les temps de cuisson, accélère l’évaporation et rend les pochages délicats. L’air sec accentue le dessèchement des préparations et, en pâtisserie, provoque une dilatation trop rapide des gaz de levure pouvant amener les gâteaux à s’affaisser.

Pour contourner ces contraintes, les chefs alpins ont développé une véritable créativité technique avec des cuissons lentes, braisées, mijotées à l’étouffée, du fumage, ainsi que l’usage de l’autocuiseur pour rétablir une pression stable. Cette maîtrise des lois physiques propres à la montagne est devenue l’un des fondements de la haute cuisine alpine.

Cette concentration exceptionnelle d’étoiles est le fruit d’une alchimie unique entre un territoire d’une immense richesse, l’audace de chefs locaux et une clientèle au fort pouvoir d’achat. Aujourd’hui, le tourisme culinaire est devenu un moteur économique à part entière, et de nombreux visiteurs viennent autant pour l’expérience culinaire que pour le ski.

En réinventant une cuisine de survie paysanne en véritables œuvres d’art, ces chefs ont redéfini la notion de luxe. Ils démontrent que l’excellence contemporaine repose sur l’authenticité, l’ancrage local et un profond respect de la nature. Et la nouvelle vague de jeunes cuisiniers – mais aussi désormais de cheffes à l’image des cheffes pâtissières de montagne Tess Evans-Miallet et Aurélie Collomb-Cler – s’inscrit dans cette lignée, tout en y apportant sa propre sensibilité.

The Conversation

Nathalie Louisgrand ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.03.2026 à 14:03

Why Europe’s ‘open’ economy of innovation is exposed to global trade shifts

Regis Coeurderoy, Professor in Strategic Management and Innovation, ESCP Business School
As new targets designed to help the EU economy work towards autonomy are unveiled, Europe’s “old growth” model and its R&D multinationals’ reliance on foreign markets come under review.
Texte intégral (1447 mots)

Last month the European Commission unveiled its new “Made in Europe” targets, tying access to subsidies in clean technology heavy industry and carmaking to local production and stricter conditions on foreign investment.

The objective of the new Industrial Accelerator Act is to strengthen the industrial base and strategic autonomy of the European economy. But its impact on European Research & Development multinationals that have grown in overseas markets should not be underestimated. Evidence shows that Europe is hit harder by external shocks than its rivals because its firms depend more heavily on foreign markets and cross-border supply chains.

Consider, for example, Asia accounted for 41% of German carmaker Mercedes‑Benz in 2025, while UK-headquartered drugmaker AstraZeneca generated about 43% of its 2024 sales in the US.

Such exposure leaves a sizeable chunk of European multinationals particularly sensitive to shifts in trade policy: as protectionist measures proliferate, the backlash can quickly translate into weaker demand, disrupted supply chains and pressure on profits.

This has already become visible as trade tensions with China and the United States have intensified and governments have moved to shield strategic industries from subsidised competition, via the Made in Europe targets.

A historically overseas market-led economy

European groups are often described as global champions; many expand abroad earlier than their American or Asian peers. Part of the reason is structural: Europe’s home market remains less integrated than the US or China. It also reflects a long tradition of building businesses internationally.

American and Asian companies can often scale at home before expanding abroad. European firms rarely have that luxury. Their global reach is a strength, but in a more fragmented world it also creates exposure.

New research I carried out on the world’s largest corporate Research & Development spenders helps explain Europe’s position.

Vying for the top tiers of the global R&D landscape

The global race for innovation is dominated by the Americas and Asia: firms headquartered in Asia-Pacific account for about 37% of the leading R&D multinationals and those in the Americas roughly 36%, compared with about 27% in Europe, the Middle East and Africa.

Bridging the R&D spending gap

The gap is even wider in spending: companies based in the Americas account for about 45% of total corporate R&D investment, compared with roughly 29% in Asia-Pacific and 26% in EMEA.

Yet European firms tend to operate more globally. The research shows only about 26% of EMEA-based firms earn most of their revenues in their home region.

Nearly a third operate globally, roughly twice the share of American or Asian companies. By contrast, about 76% of US firms and 75% of Asia-Pacific firms remain focused mainly on their domestic regions, supported by larger and more integrated home markets.

Navigating the impacts of trade uncertainty

Truly global companies remain rare. Only about 17% of these firms generate balanced sales across the Americas, Europe and Asia-Pacific. Half of them are headquartered in EMEA, compared with roughly a quarter for each in the Americas and Asia-Pacific.

This makes European groups more exposed when trade relations sour. Illustrating this point, German carmaker BMW warned last month that tariffs imposed by the EU, the US and China could wipe around €1 billion from its profits this year, underscoring how quickly geopolitical shifts translate into financial strain for Europe’s multinationals.

If Europe wants to reduce such vulnerability, it should look beyond protectionism. For firms that already operate globally, tighter rules at home could push them to move assets abroad. That would weaken Europe’s own industrial base at the very moment policymakers are trying to strengthen it.

In other words, the end of the liberal trading era may have exposed an Achilles heel in Europe’s economic model. The continent’s multinationals are unusually dependent on markets outside Europe. In a more fragmented world, that creates two clear risks: disruption to global value chains and the gradual relocation of investment and innovation away from Europe itself.

What’s the alternative? Not retreat, but reform

Former European Central Bank President Mario Draghi’s report in 2024 for the European Commission set out an urgent agenda to restore Europe’s competitiveness through deeper single market integration, regulatory reform and investment. It addresses part of the challenge. But Europe must go further, strengthening its own base for research, innovation and industry. That requires action at a European level. Completing the single market is not just about harmonising rules. It is about ensuring that investment, supply chains and innovation remain anchored in Europe.

As ECB President Christine Lagarde warned last year, Europe’s growth model was built for a different world. Heavy reliance on exports once underpinned prosperity. In a more fragmented global economy, it leaves Europe exposed.

The lesson is clear: Europe’s problem is not so much globalisation, but too little regional integration. Until the efforts to create a single market truly pave the way for sound economic foundations, Europe’s multinationals will remain highly globalised and exposed. But such an ambition goes beyond economic goals: it is a political ambition that is at loggerheads with nationalist sentiments to achieve the right level of territorial growth, which would ultimately secure greater independence.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Regis Coeurderoy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.03.2026 à 11:32

Pêche récréative et pollution plastique : créer des leurres souples qui disparaissent vraiment

Erwan Vasseur, Doctorant en Sciences et technologie industrielles, Université Bretagne Sud (UBS)
Chaque année, des millions de pêcheurs perdent une partie de leur matériel dans l’eau dont les leurres souples, de petits bouts de plastique très efficaces… mais très persistants.
Texte intégral (2415 mots)
Des millions de leurres finissent dans la nature chaque année en France. Verlin Auliane / Unsplash, CC BY-SA

Chaque année, des millions de pêcheurs perdent (sans le vouloir) une partie de leur matériel dans l’eau. Parmi les objets les plus souvent « abandonnés » : les leurres souples, petits bouts de plastique très efficaces… mais très persistants.


Mon travail de thèse, mené en collaboration avec l’entreprise FiiiSH, a consisté à développer des formulations à base de PHA capables de réduire la persistance des leurres souples dans l’environnement. La solution la plus prometteuse identifiée à ce jour n’est pas encore assez souple pour un usage pleinement satisfaisant, mais elle montre déjà de forts signes de biodégradation et de non-toxicité. Il reste donc du travail pour atteindre le bon compromis mécanique, mais la piste est sérieuse.

Une pratique massive et des pertes invisibles

Illustration de la pollution des leurres souples
Illustration de la pollution des leurres souples. Fourni par l'auteur

La pêche de loisir est un loisir très répandu en France, en mer comme en eau douce. Les estimations institutionnelles évoquent environ 3,8 millions de pratiquants en mer en 2024, et plusieurs millions de cartes de pêche sont délivrées chaque année en eau douce. À cette échelle, même si la grande majorité des pêcheurs adopte de bonnes pratiques, une part de pertes reste inévitable : accrochage sur roches, branches, épaves, casse de ligne, courant, houle… À force de répétitions, un « petit » objet perdu involontairement devient un flux collectif.

Illustration de la souplesse d’un leurre souple. Black Minnow FIIISH, Fourni par l'auteur

Un leurre souple doit « vivre » dans l’eau. Sa nage dépend de sa forme, mais aussi de sa viscoélasticité : trop rigide, il nage mal ; trop mou, il se déchire ; instable, il durcit ou devient poisseux avec le temps. En bref, le matériau doit être à la fois flexible, résistant, stable au stockage et transformable industriellement. C’est un cahier des charges très strict et complexe pour un matériau.

La pollution liée à la pêche est multiple : emballages, fils, plombs, mais aussi fragments de leurres. Un leurre souple ne pèse que quelques grammes : pris isolément, l’impact paraît négligeable. Mais dans des zones très fréquentées (digues, estuaires, embouchures, postes en rivière…), les pertes se concentrent et s’additionnent. On estime qu’un pêcheur perd en moyenne 10 leurres par an, pour environ 15 g par leurre, ce qui donne un ordre de grandeur de cette pollution plastique. Ces chiffres restent toutefois à prendre avec précaution, car ils sont difficiles à mesurer précisément. Avec le temps, les plastiques conventionnels peuvent s’abîmer sous l’effet des UV, de l’abrasion et des contraintes mécaniques, et générer des fragments plus petits : les microplastiques. Dans certains cas, des composés peuvent aussi migrer depuis l’objet en plastique vers l’eau. L’enjeu n’est donc pas seulement esthétique : il touche à la persistance des débris et à leur interaction avec les écosystèmes.

Les PHA : des plastiques produits par des bactéries

Les polyhydroxyalcanoates (PHA) sont une famille de polyesters que certaines bactéries fabriquent naturellement comme réserve de carbone et d’énergie. Industriellement, on retrouve une logique de fermentation : on nourrit des microorganismes avec une source de carbone (par exemple, sucres, huiles), on pilote les conditions pour favoriser l’accumulation de PHA dans les cellules, puis on récupère la biomasse et on extrait/purifie le polymère. On obtient alors une « résine » utilisable en plasturgie, sous forme de granulés. Les PHA sont donc bien des plastiques à part entière. En revanche, dans leur état initial, leurs propriétés sont souvent trop rigides pour des applications comme les leurres souples de pêche, ce qui impose d’ajouter des additifs, notamment des plastifiants, afin d’assouplir la matière.

L’intérêt des PHA est double. D’une part, ils peuvent être biosourcés (selon le procédé et les substrats). D’autre part, leur structure de polyester est favorable à la biodégradation dans certains milieux. Mais ce « peut être biodégradable » est important : tout dépend des conditions et de la formulation finale.

Un plastique biodégradable ne disparaît pas comme un comprimé effervescent. Il ne fond pas au contact de l’eau. La biodégradation est un processus biologique : des microorganismes, via des enzymes, transforment progressivement le matériau en produits simples (CO2, eau, sels minéraux et biomasse en conditions aérobies).

La clé, c’est la conversion finale : un matériau qui ne fait que se fragmenter plus vite peut produire des microplastiques sans réellement être biodégradé. Autre point essentiel : « biodégradable » n’est pas synonyme de « biosourcé ». Un matériau peut être biosourcé sans être biodégradable, et l’inverse. Pour éviter le greenwashing, il faut toujours préciser le milieu (sol, compost, eau douce, mer), la méthode de mesure et l’ordre de grandeur du temps de l’essai dans lequel l’échantillon se dégrade.

Comment transformer un PHA en leurre ?

Le défi est d’obtenir une matière suffisamment souple. Beaucoup de PHA sont naturellement plutôt rigides. Pour approcher la sensation d’un leurre conventionnel, on peut jouer sur la chimie du copolymère, mais aussi sur la formulation : plastifiants compatibles, mélanges, ou architectures internes qui stabilisent la souplesse.

C’est ici que mon travail de recherche s’inscrit, dans le cadre d’une collaboration avec l’entreprise FiiiSH : développer des formulations PHA adaptées à la pêche au leurre souple, en intégrant dès le départ les contraintes industrielles (mise en forme, reproductibilité, stabilité au stockage) et les exigences environnementales. Aujourd’hui, ces travaux ont déjà permis d’identifier plusieurs formulations prometteuses et de les évaluer à l’échelle laboratoire à travers des essais de caractérisation thermique, mécanique et rhéologique (la rhéologie est l’étude de la déformation et de l’écoulement de la matière sous l’effet d’une contrainte appliquée). L’enjeu est désormais de confirmer leur robustesse, leur stabilité dans le temps et leur pertinence pour un usage réaliste en leurre souple.

Différence de souplesse entre la matière actuellement utilisée (a) et la matière finale formulée à partir de PHA (b). Fourni par l'auteur

Même avec un PHA prometteur, tout se joue souvent dans sa plastification. Obtenir un matériau souple ne suffit pas : il faut une souplesse stable et une bonne tenue mécanique. Or la compatibilité entre un PHA et un plastifiant est délicate : un plastifiant non miscible peut provoquer des hétérogénéités qui induisent une déchirure plus facile et une tenue mécanique qui chute. À l’inverse, un plastifiant trop compatible avec la résine peut « trop bien » s’y intégrer : il assouplit tellement le polymère qu’il relâche une partie du réseau d’enchevêtrements, et on obtient alors un matériau certes mou, mais très sensible à la déchirure. Pour se représenter la structure d’un plastique, on peut imaginer un plat de spaghettis bien emmêlés : les « nœuds » formés par les fils de pâte correspondent aux enchevêtrements, ces points d’accroche qui donnent au matériau sa cohésion.

Un petit objet mais une grande preuve à apporter

Rendre un leurre souple biodégradable ne consiste pas à « changer de plastique » dans une fiche technique. C’est un compromis délicat entre performance, stabilité et preuve environnementale. Les PHA offrent une piste crédible, à condition de rester rigoureux sur les mots (« biodégradable » n’est ni « soluble » ni « effervescent ») et sur les mesures. La suite se joue autant en laboratoire qu’en industrie : formulation, mise à l’échelle, transparence sur les compositions et validation dans des scénarios réalistes.

Si cette transition réussit sur un objet aussi exigeant qu’un leurre souple, elle pourrait inspirer d’autres produits exposés à la nature, où l’on ne peut pas éliminer totalement les pertes mais où l’on peut réduire, concrètement, la persistance.

À ce stade, un premier prototype de leurre a déjà vu le jour. Il reste désormais à l’éprouver en conditions réelles de pêche pour juger de sa performance sur le terrain. La solution n’est pas encore totalement aboutie, notamment parce qu’elle doit encore gagner en souplesse, mais elle n’est plus seulement une idée de laboratoire : elle commence déjà à prendre la forme d’un leurre.

The Conversation

Erwan Vasseur a reçu des financements de l'entreprise Fiiish et IRDL (Institut de Recherche Dupuy De Lôme).

18.03.2026 à 09:58

La théorie des cordes a-t-elle été découverte par accident ?

Piotr Tourkine, Physicien théoricien, Université Savoie Mont Blanc
Quand une solution trouvée pour un problème donné éclaire en réalité un domaine bien plus vaste.
Texte intégral (1709 mots)
Gabriele Veneziano au bord du lac d’Annecy (Haute-Savoie), l’été où il mit le doigt par hasard sur une formule qui allait mener à la découverte de la théorie des cordes. G. Veneziano, avec son aimable autorisation, Fourni par l'auteur

Une plongée dans l’histoire de la théorie des cordes, ou quand une solution suggérée pour un problème donné éclaira en réalité un domaine bien plus vaste.


La physique théorique a connu trois grandes révolutions au tournant du XXᵉ siècle : la mécanique quantique et les deux théories de la relativité, restreinte et généralisée. La mécanique quantique décrit l’infiniment petit. La relativité restreinte et sa célèbre formule E = mc² décrivent la physique des objets se déplaçant aux vitesses proches de la lumière. La relativité générale décrit la force de gravité comme provenant de la courbure de l’espace-temps.

Prises ensemble, elles ont bouleversé notre compréhension de l’espace-temps, de la matière, et des interactions fondamentales. Les implications de ce bouleversement ne sont encore aujourd’hui pas totalement comprises.

En effet, on ne sait pas utiliser ce cadre pour décrire certaines situations extrêmes, comme l’espace-temps à l’intérieur des trous noirs, ou au moment du Big Bang – deux situations où les effets quantiques et gravitationnels sont simultanément importants. C’est dans cet entrelacs que réside le mystère central de la « gravité quantique », que la physique moderne cherche à élucider, et pour lequel la théorie des cordes propose un cadre qui unifie relativité générale et physique quantique.

Du point de vue de l’histoire des sciences, un élément remarquable de cette théorie sophistiquée est qu’elle a, en fait, été découverte par hasard, au sein d’un domaine bien différent de la gravité quantique : celui de la physique des particules subatomiques !

Gabriele Veneziano et les particules subatomiques

Genève, fin des années 1960. Gabriele Veneziano a 26 ans, il vient de finir son doctorat de physique nucléaire en Israël et se trouve en visite au CERN. À l’époque, les physiciens théoriciens du monde entier se heurtaient à un problème coriace : la méthode qui avait permis de comprendre les interactions entre électrons et lumière (qu’on appelle aujourd’hui la théorie quantique des champs) semblait ne pas fonctionner pour décrire les interactions entre les autres particules subatomiques.

En particulier, on ne comprenait pas l’interaction nucléaire forte, qui régit les interactions entre les briques élémentaires de la matière : protons, neutrons, etc. Celles-ci forment un véritable zoo de particules qu’on nomme les hadrons.

Une nouvelle approche est alors explorée : le « bootstrap ». Ne pouvant trouver la bonne théorie pour décrire les hadrons individuellement, les physiciens se posèrent la question dans l’autre sens : quelles sont les propriétés générales que doit satisfaire n’importe quelle théorie ? La réponse : au minimum, elle doit satisfaire simultanément aux exigences de la mécanique quantique et de la relativité restreinte.

Cette approche par exemple permet de montrer qu’une interaction fondamentale ne peut excéder une certaine intensité sans briser les lois de la mécanique quantique (un peu comme il existe une vitesse maximale en relativité). En clair : si l’on mélange les lois de la mécanique quantique et celles de la relativité restreinte, tout n’est pas permis, et les lois physiques possibles deviennent fortement contraintes.

C’est dans ce cadre que Gabriele Veneziano proposa en 1968 une fonction mathématique très particulière – la fonction bêta d’Euler – pour modéliser les hadrons et leurs interactions. À ce moment, on ne connaissait pas la théorie qui permettrait d’expliquer d’où sort cette formule : on savait seulement qu’elle satisfaisait, pour la première fois, toutes les propriétés mathématiques recherchées. Son papier eut un succès immédiat, car la formule répondait à de nombreuses questions en même temps.

Sérendipité et théorie des cordes

La sérendipité est souvent idéalisée comme un heureux hasard. Mais, en science, elle prend une forme plus subtile : elle naît de l’interaction entre un contexte de recherche fertile et une capacité à reconnaître qu’une solution trouvée pour un problème donné éclaire en réalité un domaine bien plus vaste.

Le cas de la formule de Veneziano est emblématique. Quelques années après l’article de Veneziano, les physiciens Leonard Susskind, Yoichiro Nambu et Holger Bech Nielsen comprirent (indépendamment) que cette formule décrivait en fait non pas des hadrons mais des « cordes quantiques », c’est-à-dire des objets microscopiques filiformes, qui vibrent à la manière de minuscules cordes de violon.

Et c’est là que ça devient vraiment intéressant.

Les cordes et le… graviton ?

Depuis les années 1970, à mesure que l’on explore cette interprétation, d’autres indices troublants apparaissent. La théorie semble invariablement contenir une particule particulière : le graviton, censé véhiculer la force de gravitation quantique. De plus, elle exige l’existence de dimensions d’espace supplémentaires – un prix qui semble alors trop élevé pour une théorie censée décrire les hadrons !

Et surtout, comment une théorie inventée pour décrire les interactions de la matière à l’intérieur du noyau atomique pouvait-elle contenir une théorie qui décrit tout autre chose – la gravité quantique ?

Comme, à la même époque (autour de 1973), la théorie quantique des champs finit par expliquer les interactions fortes grâce à la découverte de la chromodynamique quantique, et notamment de la liberté asymptotique, le modèle de Veneziano est laissé de côté dans ce contexte.

Mais quelques physiciens visionnaires, comme Joël Scherk et John Schwarz, pressentirent que cette théorie, à cause de son mystérieux graviton, possédait un potentiel unique pour s’attaquer à la gravité quantique.

Dix ans plus tard, en 1984, Michael Green et John Schwarz confirmèrent cette intuition et démontrèrent que la théorie des cordes est bel et bien une véritable théorie de gravité quantique.

On voit donc que la découverte de la théorie des cordes est l’illustration même de la sérendipité : une théorie née d’un certain questionnement éclaire le cœur d’un aspect tout autre de la science.

Gabriele Veneziano lui aussi contribuera notablement au développement de la théorie des cordes, notamment en étudiant les liens entre celle-ci et la structure microscopique de l’espace-temps.

La théorie de cordes aujourd’hui

Aujourd’hui, la théorie des cordes est bien plus qu’une simple théorie candidate de la gravité quantique. Aux côtés de la théorie quantique des champs, elle constitue un cadre conceptuel et mathématique d’une richesse inégalée, capable d’unifier des idées venues de la physique des particules, de la relativité, de la théorie des champs, du chaos et des mathématiques pures et produire des avancées conceptuelles et techniques dans ces domaines.

Par exemple, le modèle de Veneziano et ses généralisations, dont on sait aujourd’hui qu’ils proviennent de la théorie des cordes, exhibent des propriétés mathématiques remarquables liées à la fonction zêta de Riemann. Ces propriétés s’expliquent physiquement par la façon dont deux cordes ouvertes s’attachent pour former une corde fermée.

Plus encore, le programme du « bootstrap », qui avait donné naissance à la théorie des cordes, connaît aujourd’hui une nouvelle vie : grâce à la puissance des ordinateurs modernes et à des idées venues de la théorie des cordes et de la théorie des champs, les physiciens appliquent ces idées pour décrire des phénomènes très divers, allant des transitions de phase à la physique hadronique et même à la gravité quantique.

Mais il reste un mystère fondamental : pourquoi cette théorie, née « par hasard », semble-t-elle si naturellement adaptée à décrire la gravité quantique ? Était-ce vraiment un hasard… ou un indice que la seule façon d’unifier les trois théories qui forment le socle de la physique du XXᵉ siècle est la théorie des cordes ? On pourrait bien avoir une réponse à cette question mathématique dans les années qui viennent.

The Conversation

Piotr Tourkine a reçu des financements de l'Agence Nationale de la Recherche (ANR-22-CE31-0017).

17.03.2026 à 16:33

Yellowstone, merveille géologique : aux frontières du feu, de l’eau et du vivant

Olivier Pourret, Enseignant-chercheur en géochimie et responsable intégrité scientifique et science ouverte, UniLaSalle
Elodie Pourret-Saillet, Enseignante-chercheuse en géologie structurale, UniLaSalle
Derrière des paysages fascinants se dissimule l’un des systèmes volcaniques les plus actifs de la planète, où se trouvent plus de la moitié des geysers du monde.
Texte intégral (2941 mots)
La Morning Glory Pool du Yellowstone National Park, aux États-Unis. Olivier Pourret, CC BY

Le parc national de Yellowstone, aux États-Unis, présente l’un des spectacles géologiques les plus fascinants au monde : geysers en éruption, bassins aux couleurs intenses, terrasses de travertin sculptées par des eaux thermales. Derrière ces paysages se dissimule l’un des systèmes volcaniques les plus actifs de la planète, dont la chaleur souterraine façonne chaque fontaine, chaque couleur, chaque dépôt minéral, et rappelle que la Terre est une planète vivante.


Le parc national de Yellowstone est le plus ancien parc national du monde et est situé dans l’ouest des États-Unis, entre le Wyoming, le Montana et l’Idaho. Inscrit sur la liste du patrimoine mondial de l’Unesco, il est célèbre pour sa faune et ses paysages, mais surtout pour une activité géothermique exceptionnelle, unique par son intensité et sa diversité.

Le parc se situe sur une large caldeira volcanique (c’est-à-dire une vaste dépression circulaire formée par l’effondrement du toit d’une chambre magmatique après une éruption), formée par plusieurs éruptions majeures qui se sont produites il y a 2,1 millions, 1,3 million et environ 640 000 ans. Même en l’absence d’éruptions explosives actuellement, le volcan reste actif : son activité se traduit par une augmentation de température en profondeur et une série de phénomènes hydrothermaux observables en surface.

L’entrée ouest du parc national de Yellowstone, aux États-Unis. Olivier Pourret, CC BY

Une chaudière souterraine toujours en activité

Des réservoirs magmatiques partiellement fondus se situent sous Yellowstone, alimentés par un flux venant du manteau, à grande profondeur. La chaleur émise réchauffe les eaux de pluie et de fonte des neiges qui s’infiltrent dans le sous-sol. Ces eaux peuvent atteindre des températures supérieures à 200 °C tout en restant liquides grâce à la forte pression.

Lorsque les conditions sont réunies, avec un approvisionnement en eau suffisant, des fractures suffisamment étroites et une chaleur stable, l’eau qui devient surchauffée est soudainement expulsée vers la surface : ce phénomène est connu sous le nom de « geyser ». Plus de la moitié des geysers du monde se trouve à Yellowstone, le transformant en un laboratoire naturel pour les géologues.

Le plus célèbre, Old Faithful, entre en éruption toutes les 60 à 90 minutes, projetant une colonne d’eau et de vapeur pouvant dépasser 50 mètres de hauteur. D’autres geysers sont beaucoup moins prévisibles, rappelant que ces systèmes sont fragiles et sensibles à de légères variations de pression ou de circulation de fluides.

photo d’un grand geyser
Le geyser Old Faithful du Yellowstone National Park, aux États-Unis. Olivier Pourret, CC BY

Dans des régions géothermiques telles que le Norris Geyser Basin, l’hydrothermalisme n’est pas réparti aléatoirement dans la roche : il est largement guidé par le réseau de fracturation affectant la roche, véritable « route » pour l’eau chaude, qui régule la circulation des fluides et détermine la position des geysers et des sources chaudes. Les études effectuées au niveau du Steamboat Geyser démontrent que même de petites fractures ou de simples pores interconnectés peuvent être suffisants pour expulser rapidement l’eau lors des éruptions.

Le sous-sol ressemble donc moins à un système de conduits bien définis qu’à un milieu complexe, constitué d’un enchevêtrement de fractures et de pores interconnectés et de dimensions variables. Cette organisation contrôle la circulation de l’eau et de la vapeur en profondeur, et conditionne le déclenchement des éruptions hydrothermales, soulignant combien la structuration et la constitution des roches régissent le fonctionnement des systèmes hydrothermaux.

Sources chaudes et travertins : quand la géologie se fait art

Les geysers ne représentent qu’un aspect du spectacle. Les bassins aux couleurs vives sont principalement formés par l’abondance de sources chaudes. Le plus célèbre et plus large à Yellowstone (60 à 90 mètres de large) d’entre eux est Grand Prismatic Spring, il est aussi le plus photographié pour illustrer ces sources chaudes.

À l’inverse de ce que l’on pourrait penser, ces couleurs ne sont pas celles des minéraux, mais celles de micro-organismes extrémophiles. Chaque communauté microbienne, adaptée à une plage de température spécifique, forme autour des bassins de véritables cercles de couleur : les espèces qui prospèrent dans les zones plus froides en périphérie arborent des teintes jaune et orange, tandis que les températures plus élevées au centre favorisent des micro-organismes bleus ou verts. Dans les premiers cas, les couleurs résultent à la fois des pigments caroténoïdes propres aux bactéries, et des oxydes de fer et de manganèse précipités par leur activité métabolique. Ces bactéries et archées doivent ainsi leurs teintes à leurs pigments photosynthétiques (chlorophylles ou caroténoïdes) dont l’expression varie selon les conditions de température et de lumière. Lorsque la température des sources baisse, l’expansion bactérienne s’intensifie.

Des dépôts de travertin peuvent aussi se former à partir de sources abondantes en carbonate de calcium. Le travertin est une roche calcaire poreuse qui se dépose en surface lorsque de l’eau chaude, ayant dissous du CO2 et du carbonate de calcium en profondeur sous l’effet de la pression et de la température, remonte à la surface : en se refroidissant et en se décomprimant, elle libère le CO2 dissout, ce qui provoque la précipitation de calcite.

Cette calcite forme des terrasses et des cascades minérales blanches ou crème, tandis que les oxydes de fer précipités simultanément par l’activité bactérienne leur confèrent leur teinte orange caractéristique ; comme celles de Mammoth Hot Springs, qui se modifient sans cesse en fonction des changements des conditions hydrologiques et de température.

Les sources chaudes dites de « Mammoth Hot Springs », au Yellowstone National Park, aux États-Unis. Olivier Pourret, CC BY

Un volcan sous surveillance : quels dangers ?

Yellowstone est fréquemment décrit comme un « supervolcan », une expression médiatique qui fait référence à des volcans susceptibles de générer des éruptions de très grande ampleur, correspondant à l’émission d’au moins 1 000 km3 de matériaux. Deux des trois grandes éruptions de Yellowstone ont atteint ce seuil, il y a environ 2,1 millions et 640 000 ans. Les chances d’une telle éruption à Yellowstone dans les prochains millénaires sont jugées infimes par les géologues de l’USGS.

Cependant, le parc est le siège d’une activité sismique quasi permanente : chaque année, des milliers de petits séismes témoignent de la circulation des fluides et des ajustements de la croûte. Les scientifiques du service géologique américain, l’USGS, dotés d’un réseau sophistiqué d’instruments, surveillent de près ces signaux pour détecter la plus petite anomalie.

Ainsi, les dangers les plus immédiats à Yellowstone ne relèvent pas d’une éruption dévastatrice, mais plutôt d’explosions hydrothermales locales susceptibles de projeter des roches et des fluides bouillants sur quelques mètres à plusieurs dizaines de mètres autour du point d’émission. Plusieurs incidents illustrent ce risque dans l’histoire récente du parc : une série d’explosions puissantes s’est produite à Excelsior Geyser dans les années 1880–1890, projetant de gros blocs jusqu’à 15 mètres de distance, tandis qu’une explosion notable a eu lieu à Porkchop Geyser en 1989. En juillet 2024, l’explosion à Biscuit Basin a détruit une passerelle touristique, sans faire de blessés alors que l’explosion d’Echinus Geyser il y a quelques jours n’a pas fait de dégâts majeurs.

Par ailleurs, les forêts du parc restent vulnérables aux incendies, dont la fréquence et l’intensité augmentent avec le changement climatique, un facteur de risque distinct de l’activité volcanique, mais tout aussi réel pour les écosystèmes de Yellowstone.

Yellowstone, une leçon de géologie à ciel ouvert

Yellowstone nous rappelle que notre planète est vivante et en constante évolution. Les geysers, les sources thermales et les terrasses minérales qui émerveillent les visiteurs ne sont pas de simples curiosités naturelles : ils sont la manifestation visible de processus profonds, à la frontière entre le manteau terrestre, la croûte, l’eau de surface et même le vivant.

Yellowstone n’est pas une exception : en Islande, l’interaction entre un point chaud et la dorsale médio-atlantique produit des paysages analogues, à l’image du site de Geysir. En Italie, les champs Phlégréens, à l’ouest de Naples, offrent une autre démonstration de la connexion entre volcanisme, fracturation et fluides.

Le geyser Geysir, en Islande. Airflore, Flickr, CC BY-NC-ND

Ces comparaisons montrent que les phénomènes observés à Yellowstone suivent des lois universelles : partout où se rencontrent chaleur, eau et fractures, des phénomènes géologiques se manifestent parfois de façon impressionnante. Devant ces paysages en constante transformation, la géologie ne demeure plus une science abstraite confinée aux laboratoires et aux modélisations. Elle est concrète, perceptible et associée à notre compréhension des mécanismes internes de la Terre.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

17.03.2026 à 16:32

Santé publique : les incertitudes sur les financements sont préjudiciables, comme le montre l’exemple des États-Unis

Max Crowley, Professor of Human Development, Family Studies and Public Policy, Penn State
La santé publique repose sur une planification à long terme. Lorsque cette dernière est interrompue, certains programmes ne s’en remettent jamais.
Texte intégral (2213 mots)
Centres de vaccination, inspections sanitaires dans la restauration ou systèmes de surveillance des maladies sont autant de structures et de missions gérées par les services de santé publique locaux et régionaux. Sean Rayford/Stringer via Getty Images

Les incertitudes que font peser les menaces de coupes budgétaires ne sont pas sans conséquences sur la santé publique, même lorsque les financements sont en fin de compte rétablis.


Aux États-Unis, depuis le début de l’année 2025, plusieurs subventions fédérales d’envergure ont été suspendues dans le secteur de la santé, avant d’être rétablies à la suite de recours judiciaires.

Ainsi, le 13 février 2026, le gouvernement fédéral a entrepris de suspendre environ 600 millions de dollars (plus de 520 millions d’euros) de subventions de santé publique destinées à quatre États, avant qu’une cour fédérale ne vienne temporairement faire obstacle à cette mesure. Des centaines de millions de dollars, pourtant déjà alloués par le Congrès, ont ainsi été brièvement gelés avant l’intervention de la justice.

De telles annulations ne sont pas sans précédent, et pourraient, de prime abord, être considérées comme de banals différends entre les États et le gouvernement fédéral. Toutefois, dans ce secteur, ces soubresauts ont des conséquences plus lourdes, que ce soit dans les agences de l’état ou au sein des communautés concernées, et ce même si les États finissent par percevoir les fonds initialement prévus. En effet, l’incertitude qui résulte de cette situation peut entraver des programmes de santé publique vitaux.

En tant qu’universitaire, j’étudie la façon dont sont construites les infrastructures destinées à prévenir la souffrance humaine. De ce fait, je suis aux premières loges pour observer comment une telle instabilité, fût-elle transitoire, modifie les capacités de planification, de recrutement et d’investissement des agences, ainsi que des populations dont elles s’occupent.

Même lorsque le financement est, in fine, rétabli, la répétition de ce genre de cycles de gels et de déblocages partiels, lesquels dépendent des résultats des recours juridiques, peut gripper le fonctionnement des systèmes de santé publique. Cette situation érode, par ricochet, l’infrastructure de santé publique que les fonds fédéraux ont précisément vocation à bâtir et à pérenniser.

Le périmètre de ladite infrastructure est large, puisqu’il englobe notamment les centres de vaccination, les services responsables des inspections sanitaires dans le secteur de la restauration, les unités de prise en charge des addictions aux opioïdes, celles missionnées pour prévenir la violence en milieu scolaire, les programmes en lien avec la santé maternelle, ainsi que les systèmes de surveillance épidémiologique.

Tous ces dispositifs jouent un rôle cardinal en matière de santé publique. Si la plupart des perturbations qui les affectent ne font jamais la une des journaux, elles n’en influencent pas moins les services dont dépendent les citoyens. Cependant, ceux-ci étant destinés à juguler les problèmes en amont, leur caractère indispensable est méconnu d’une grande partie de la population… jusqu’à ce qu’une crise ne survienne.

En matière de santé publique la continuité est essentielle

Si, lors de crises sanitaires telles que la pandémie de Covid-19, l’attention médiatique se focalise sur la gestion de l’urgence, il faut avoir conscience qu’en matière de santé publique, l’essentiel des actions s’inscrit dans le temps long, et s’articule autour de stratégies de prévention pluriannuelles.

Aux États-Unis, les subventions fédérales permettent par exemple de rémunérer des épidémiologistes, des spécialistes de la prévention ou de l’analyse des comportements, ainsi que des analystes de données. Elles financent les systèmes de surveillance des maladies, les initiatives menées pour garantir la santé maternelle et infantile, les programmes de lutte contre les addictions et les partenariats avec les organisations communautaires. Ces projets requièrent des efforts s’inscrivant dans une temporalité longue, qui s’étire sur plusieurs années. Les mener requiert notamment de recruter du personnel, de mobiliser des prestataires externes et de mettre en place des systèmes de suivi des résultats.

Lorsque leurs financements sont subitement suspendus, ou que le cadre réglementaire fluctue, les agences ne peuvent pas se contenter d’attendre que l’horizon s’éclaircisse. Le rythme des recrutements ralentit. Les dirigeants élaborent des plans pour parer à l’éventualité d’une suspension définitive. Dans une telle situation, un nombre conséquent d’employés de l’état fédéral ou des différents États concernés commencent à chercher des opportunités d’emploi plus stables.

Diverses enquêtes nationales ont révélé qu’environ un employé sur quatre du secteur de la santé publique envisageait de quitter son poste d’ici un an. En 2023, les services de santé locaux ont perdu en moyenne 19 % de leurs effectifs, ce qui témoigne de l’épuisement qui a résulté de la pandémie de Covid-19. Or, dans un service de santé de petite taille, qui ne compte parfois que quatre à sept personnes, la perte d’une seule infirmière ou d’un enquêteur sanitaire peut être à l’origine d’une désorganisation considérable.

Si les fonds sont ultérieurement débloqués, comme ce fut le cas à plusieurs reprises en 2025 et début 2026, les agences doivent alors opérer un virage à 180 degrés. Elles doivent émettre de nouvelles directives, renégocier les contrats et rassurer leurs partenaires. Mais le mal est fait : la perturbation a déjà consommé un temps précieux. Et des deniers publics. Certains projets et certaines communautés pourraient ne jamais s’en remettre. Autrement dit, la volatilité engendre des coûts, même lorsque l’argent finit malgré tout par arriver.

Le coût financier et administratif des batailles judiciaires

Assigner le gouvernement fédéral en justice pour suspension de financement est une entreprise onéreuse. Lorsque les États contestent des décisions fédérales, les procureurs généraux y consacrent une part importante de leur temps et de leurs ressources juridiques. Les départements de la santé alors doivent se coordonner avec les juristes, compiler des dossiers volumineux et modéliser divers scénarios budgétaires. L’attention des cadres dirigeants est détournée de la supervision des programmes de santé, au profit de la gestion des risques juridiques et fiscaux.

Ce travail administratif est financé par le contribuable. Toutes ces heures passées représentent ont un coût réel, même si celui-ci ne fait que rarement l’objet de débats publics. Et, tandis que le contentieux suit son cours – souvent durant des mois – les agences doivent se préparer à la multitude d’issues possibles.

L’incertitude elle-même façonne la façon dont est menée la planification. Les agences peuvent hésiter à lancer de nouvelles initiatives, de peur de voir les fonds se tarir en cours de route. Elles tendent à privilégier des contrats courts, à différer les embauches ou à restreindre leurs plans d’expansion afin de limiter leur exposition. À terme, cette prudence peut freiner la mise en œuvre des politiques de santé, et brider l’innovation.

Une instabilité qui dépasse les seuls enjeux budgétaires

La suspension des financements n’est pas l’unique source d’instabilité. Le gouvernement fédéral a également annoncé des remaniements structurels au sein de certaines agences de santé, à commencer par une réorganisation majeure du ministère de la Santé et des Services sociaux (HHS), en mars 2025. Ces mutations introduisent, elles aussi, une part d’aléa dans le fonctionnement des systèmes de santé publique.

Des responsables fédéraux ont par exemple récemment indiqué leur intention de réduire considérablement l’activité de l’Office de planification, de recherche et d’évaluation (OPRE) au sein de l’Administration pour les enfants et les familles (ACF). Depuis 1995, cet organisme étudie l’impact des programmes destinés aux familles et aux enfants, tels que Head Start, le système de placement familial, ou l’Assistance temporaire aux familles nécessiteuses (TANF). Des organisations de recherche et de conseil indépendantes, telles que la Data Foundation et Results for America, ont averti que l’interruption de ces études pourrait compromettre la capacité des États à évaluer et améliorer ces programmes.

De même, les récentes résiliations de subventions et les restructurations au sein de la Substance Abuse and Mental Health Services Administration (SAMHSA), qui gère d’importantes aides aux États en matière de santé liés aux comportements, ont instauré un climat délétère. Lorsque les postes financés par ces subventions sont supprimés ou que les conditions de financement changent brusquement, les versements peuvent accuser du retard, les directives de signalement deviennent floues et les prestataires de soins locaux peinent à se projeter. Pour les communautés qui luttent contre les overdoses d’opioïdes ou gèrent l’augmentation des besoins en soins liés à la santé mentale, une interruption des financements, même brève, peut devenir une question de vie ou de mort.

Suspendre ou réorganiser de telles études à mi-parcours empêche de distinguer les interventions efficaces de celles qui ne le sont pas. Des experts chevronnés risquent de démissionner. Reconstruire une telle expertise pourrait prendre des années.

La prévention, maillon faible face à l’incertitude

La prévention – presque par définition – ne se remarque pas : si les programmes de vaccination, de traitement des addictions et de prise en charge des problèmes de santé mentale des jeunes sont efficaces, les crises qu’ils sont destinés à éviter n’adviennent jamais.

Cependant, la prévention est tributaire de la continuité : pérennité des effectifs, stabilité des partenariats et constance en matière de collecte de données. Les effets d’une interruption des financements sont difficiles à évaluer sur un seul cycle budgétaire, mais ils modifient la façon dont les agences peuvent investir en confiance dans des stratégies de long terme. En ce sens, l’instabilité des subventions peut devenir un problème de santé publique en soi.

Les priorités politiques continueront toujours à évoluer. Les tribunaux continueront à examiner les actions de l’exécutif, et le Congrès poursuivra les révisions des allocations. Le changement fait partie intégrante de la gouvernance. Cependant, si les décideurs aspirent à une infrastructure de santé publique plus robuste et plus résiliente, ils doivent comprendre que la stabilité n’est pas un simple confort administratif : elle est le socle même sur lequel reposent la prévention et la préparation aux crises.

The Conversation

Max Crowley ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.03.2026 à 16:31

Une décentralisation française toujours dans l’impasse

Daniel Behar, Géographe Professeur des Universités, Université Paris-Est Créteil Val de Marne (UPEC)
Et si le problème n’était pas le manque de décentralisation, mais la logique même de spécialisation entre État, régions, départements et communes ?
Texte intégral (1686 mots)

Faut-il croire à un « nouvel acte » de la décentralisation à la française promis par Sébastien Lecornu ? Depuis quarante ans, la promesse d’une action publique plus lisible et plus efficace se heurte à une réalité complexe et confuse. Et si le problème n’était pas le manque de décentralisation mais le modèle même que la France s’obstine à poursuivre, à rebours de ses voisins européens ?


Depuis un demi-siècle maintenant, les gouvernements successifs annoncent de façon récurrente un « nouvel acte de décentralisation ». Tous reposent sur les deux mêmes intentions : plus de décentralisation, c’est-à-dire davantage de compétences transférées par l’État (loi Raffarin en 2004 par exemple) et plus d’efficacité, par une spécialisation des échelons territoriaux (loi Notre en 2015 notamment). En dépit de cette constance et de résultats peu convaincants, les projets gouvernementaux les plus récents relatifs à la décentralisation affichent la même perspective : il faut transférer les pans de l’action publique qui relèvent encore de l’État (le logement, par exemple) et le faire autour d’un objectif de clarification des rôles de chaque niveau de collectivité.

Et s’il fallait rompre avec cette antienne et viser un autre modèle, en s’inspirant notamment de ce qu’ont fait la plupart de nos voisins européens ?

Une spécialisation illusoire

Rationnaliser tout d’abord. Dès son émergence en 1982, la décentralisation « à la française » repose sur un principe singulièrement daté, celui d’une forme de transposition au territoire du modèle du taylorisme industriel. L’action publique territoriale sera efficace si les différents niveaux de collectivités se spécialisent dans un registre sectoriel : aux régions l’économie, aux départements le social et aux communes l’aménagement. Lisible sur le papier, ce principe se heurte à une réalité où tout le monde est contraint de faire un peu de tout.

Dans une société de plus en plus complexe, il faut agir globalement, réguler les interactions entre ces approches sectorielles. Depuis des décennies, le monde de l’entreprise a abandonné ce mode d’organisation. Dès le toyotisme, la souplesse et la coordination des fonctions ont été mises avant. Depuis, le management par projet privilégie l’organisation en équipes et la « coopétition »u prix assumé de ces fréquents doublons ou redondances tant honnis en matière d’action publique. Il n’y a plus que dans ce domaine de l’action territoriale que la référence à l’ordre et la symétrie du jardin à la française fasse sens pour penser les modes d’organisation collective.

En dépit d’un cadre législatif de plus en plus contraignant (suppression, en 2015, de la clause de compétence générale pour les départements et les régions), aucune collectivité – ou presque – ne respecte ce principe de spécialisation. On ne peut à la fois imposer à telle collectivité de cantonner son intervention aux enjeux sociaux et à telle autre de se limiter aux questions environnementales, alors que dans le même temps, on attend de l’action publique qu’elle intègre étroitement ces deux dimensions de la transition écologique. Le défi de l’action publique contemporaine n’est pas celui de la répartition des rôles mais plutôt celui de la coordination et des synergies entre ses institutions et les autres opérateurs qui y contribuent – entreprises et associations notamment. Parce que, désormais, la délivrance de services collectifs prime sur la construction d’équipements, l’heure est davantage à la régulation de « chaînes de production » des politiques publiques locales qu’à la définition toujours plus fine des champs de compétences respectifs.

Par contrecoup, le législateur a peu à peu été contraint d’abandonner la spécialisation par grands domaines de compétences, tel qu’affichée dans la loi initiale de 1983, pour une spécialisation plus limitée des prestations délivrées : aux régions la fonction d’animation des filières économiques, mais aux intercommunalités les aides à l’immobilier d’entreprises ; aux régions les transports mais aux départements le transport scolaire. Cette sophistication du partage des rôles est contre-productive : on imagine les coûts de coordination générés par cette fuite en avant dans la spécialisation, au nom de la clarification…

Pourquoi un tel acharnement à poursuivre dans une voie sans issue ?

Un argument est généralement avancé : la clarification des rôles entre collectivités permettrait de renforcer le lien entre élus et citoyens. Mais peut-on considérer qu’un élu départemental est jugé au moment des élections cantonales en fonction de sa gestion des archives départementales, compétence dévolue au Conseil départemental depuis 1983 ? En réalité, plus on fragmente et technicise les champs d’intervention des collectivités, plus on les « dépolitise », et on les rabat de fait sur des fonctions assurées par des « agences » (la SNCF, la Caisse d’allocations familiales…). Les collectivités locales sont des institutions politiques, qui s’adressent autant au citoyen qu’à l’usager. Or, l’intérêt du citoyen pour la chose publique passe par l’explicitation de choix politiques globaux sur le territoire qui intègrent ces registres d’action fragmentés.

Ajoutons qu’en dépit des efforts accrus des régions et des départements pour se rendre visibles et valoriser leurs contributions financières, en multipliant les supports de communication, c’est (quasi exclusivement) le maire qui est jugé responsable des différents équipements et services mis en œuvre sur les territoires.

Il est convenu parmi les élus locaux d’invoquer la lisibilité de l’action publique aux yeux du citoyen pour justifier la nécessaire clarification (« qui fait quoi ?) ». Mais l’observation locale montre que les citoyens n’attendent pas qu’on leur rende visible le back office de l’action locale dans sa complexité. Ils sont demandeurs d’un accès et d’une réponse efficaces. Le succès des maisons France Services en constitue une illustration probante. Elles ne prétendent pas réduire la complexité de nos services publics. Elles proposent simplement d’organiser une interface efficace entre chaque citoyen et le maquis bureaucratique.

La clarification par la hiérarchisation ?

En réalité, les législateurs successifs persistent dans cette conception de la clarification des rôles parce qu’ils imaginent pouvoir ainsi préserver la spécificité française, attachée à la référence à l’égalité (ici entre collectivités territoriales) et éviter le chemin suivi par nos voisins – avec des résultats divers – dans la mise en œuvre de leurs processus de décentralisation.

Ailleurs, bien souvent, la mise en ordre du « millefeuille » s’effectue non par la spécialisation, mais par la hiérarchisation. Des formes diverses de leadership régional sont mises en place, principalement incarnées par la détention d’un pouvoir normatif, et donc d’encadrement de l’action des collectivités de rang inférieur. Cette hiérarchisation s’oppose donc radicalement au principe français d’égalité entre collectivités.

Évidemment, la hiérarchisation ne fait pas disparaître les conflits de pouvoirs et les exigences de négociation. Dans la plupart des pays européens, les communes disposent en effet de la clause de compétence générale et exercent une action généraliste. Cela nécessite des ajustements entre leurs actions et celles des régions. Mais ces transactions s’inscrivent dans un cadre politique reconnu qui fixe, en quelque sorte, les limites de ces négociations. Ainsi en Allemagne, ce sont les Länder qui établissent les champs de compétences des communes. Clarification des rôles (via la hiérarchisation des fonctions) et coopération deviennent alors les maîtres mots d’une organisation pluraliste de l’action publique territoriale.

Cette perspective devrait passer par une révision constitutionnelle pour mettre fin au principe de « non-tutelle d’une collectivité sur une autre ». Cela signifierait une évolution vers un modèle plus fédéral éloigné du jacobinisme français, qui conforterait les échelons intermédiaires, notamment les régions. Avec l’atout que constitue le changement de taille de ces dernières, n’est-il pas temps d’engager ce débat ?

The Conversation

Daniel Behar ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.03.2026 à 16:30

Mères et championnes : la double bataille des sportives de haut niveau

Allane Madanamoothoo, Associate Professor of Law, EDC Paris Business School
Daouda Coulibaly, PhD, Professeur-Associé, EDC Paris Business School
Moustapha Kamara, PhD Droit du Sport, EDC Paris Business School
Même enceintes ou peu après avoir accouché, certaines sportives continuent d’exceller dans leur discipline. Mais derrière ces exploits, les « motherhood penalties » viennent freiner leurs carrières.
Texte intégral (3329 mots)

La maternité n’a jamais freiné l’ambition des sportives. Certaines ont conquis des titres majeurs alors qu’elles étaient enceintes, d’autres quelques mois seulement après un accouchement. Pourtant des inégalités persistent : pertes de contrats, baisse de revenus… autant de manifestations de la motherhood penalty qui pèse encore sur les carrières féminines dans le sport professionnel.


Dans le sport professionnel de haut niveau, comme dans de nombreux autres secteurs, les femmes sont aujourd’hui encore confrontées à divers obstacles lorsqu’elles décident d’avoir un enfant.

Ces obstacles, qui dépassent les frontières, conduisent certaines sportives de haut niveau à repousser leur projet de maternité après leur retraite sportive ; ce fut le cas, parmi bien d’autres exemples, de la judokate française Frédérique Jossinet médaillée mondiale, européenne et olympique, retraitée à 37 ans et devenue mère à 43 ans.

Or, qui dit report de maternité, dit augmentation du risque de complications lors d’une future grossesse et d’infertilité liée à l’âge. C’est ainsi que Valérie Nicolas, ancienne gardienne de l’équipe de France de handball, championne du monde en 2003, n’a pas pu concrétiser son désir de maternité. Lorsqu’elle a voulu avoir un enfant une fois sa carrière sportive terminée, la voie naturelle, l’insémination artificielle et les nombreuses fécondations in vitro, dont certaines avec des dons d’ovocytes, ont toutes échoué.

Pourtant, il devrait être possible pour les femmes de conjuguer maternité et carrière sportive professionnelle de haut niveau avec suffisamment d’accompagnement médical, organisationnel et psychologique, de soutien financier, et de protection dans l’exercice de leurs droits. Si quelques avancées notables ont été réalisées par différentes parties prenantes, des progrès restent à faire.

Une équation possible avec des cas concrets

La conciliation entre maternité et carrière chez les sportives professionnelles de haut niveau n’est plus un phénomène exceptionnel, que ce soit dans les sports individuels ou dans les sports collectifs. Certaines ont participé à des compétitions alors qu’elles étaient enceintes, avant de mettre momentanément leur carrière entre parenthèses le temps d’une courte pause maternité. D’autres sont revenues de leur congé maternité au bout de plusieurs mois, parfois avec de grandes difficultés, parfois, au contraire, avec un niveau supérieur à celui d’avant leur maternité. Quelles que soient les situations – qui témoignent, par la même, de la singularité de chaque femme et de chaque grossesse –, elles sont nombreuses à avoir démontré qu’il est tout à fait faisable d’allier maternité et sport de haut niveau. Voici quelques cas emblématiques.

La sprinteuse américaine Alysia Montano, spécialiste du 800 mètres et championne des États-Unis plusieurs années consécutives, disputa sa série lors des championnats outre-Atlantique à huit mois de grossesse en 2014 et à cinq  mois de grossesse en 2017.

Sa compatriote Allyson Felix, considérée comme une légende avec ses 7 médailles d’or olympiques et ses 14 médailles mondiales d’or, arracha sa 12e médaille d’or aux championnats du monde en 2019 après une pause maternité de treize mois consécutive à la naissance de sa fille, née prématurément en 2018 par une césarienne pratiquée en urgence.

La Britannique Paula Radcliffe, ancienne recordwoman du marathon, remporta le marathon de New York neuf mois après la naissance de son premier enfant en 2007. Valérie Adams, ancienne lanceuse de poids néo-zélandaise et référence dans l’histoire de sa discipline en ayant été quatre fois championne du monde, décrocha une médaille d’argent aux Jeux du Commonwealth 2018, six mois après avoir donné naissance à sa fille et décrocha une médaille d’argent.

La judokate française Clarisse Agbegnenou, détentrice de trois médailles de bronze olympique et de six médailles d’or aux championnats du monde, reprit la compétition cinq mois après la naissance de sa fille en 2022. Sa compatriote Estelle Mossely, sacrée championne olympique en 2016, reprit la boxe trois mois après la naissance de son premier enfant en 2017.

La hockeyeuse sur gazon belge Aisling D’Hooghe reprit l’entraînement six semaines après son accouchement en 2021 et rejoua dix semaines plus tard. En 2012, la tireuse malaisienne Nur Mohamed Taibi Suryani, médaillée de bronze des Jeux asiatiques en 2010, a participé aux Jeux olympiques (JO) de Londres à huit mois de grossesse. Quelques années plus tard, la sabreuse égyptienne Nada Hafez a participé aux JO de Paris en 2024 en étant enceinte de sept mois.

La cycliste française Aude Biannic reprit la compétition deux mois et demi après avoir accouché de son fils en novembre 2024 et participa au Tour de France Femmes en août 2025. L’Américaine Kristin Armstrong, championne olympique du contre-la-montre à Pékin en 2008, conserva ses titres à Londres en 2012 et à Rio en 2016 après avoir eu un fils en 2010.

La tenniswoman britannique Dorothea Douglass, la première grande joueuse de tennis de l’histoire, remporta le tournoi de Wimbledon en simple après la naissance de son premier enfant en 1910, puis trois autres fois au cours des quatre années suivantes. En 1971, l’Australienne Margaret Court disputa la finale de Wimbledon en étant enceinte d’un mois. Après avoir donné naissance à son premier enfant en 1972, elle revint sur le circuit en 1973 et fut sacrée trois fois en Grand Chelem. Sa concitoyenne Evonne Goolagong s’imposa à l’Open d’Australie 1977 six mois après avoir donné naissance à sa fille. Elle remporta ensuite Wimbledon en 1980, devenant la deuxième mère sacrée à Wimbledon après Dorothea Douglass. La Belge Kim Clijsters connut également du succès après sa pause maternité de deux ans et demi en gagnant l’US Open 2009 et l’Open d’Australie 2011.


À lire aussi : Sydney Festival review: Sunshine Super Girl is destined to become a legacy piece of Australian theatre


Et bien sûr l’Américaine Serena Williams, l’une des plus grandes tenniswomen de tous les temps avec ses 39 titres du Grand Chelem en simple et en double, remporta l’Open d’Australie 2017 en étant enceinte de deux mois. Bien qu’elle connût dans la même année de graves problèmes de santé après la naissance de sa fille, elle revint sur les courts un an après sa maternité, de même que, tout récemment, l’Ukrainienne Elina Svitolina.


À lire aussi : Serena Williams, une icône qui dérange


Enfin, les footballeuses mères ne sont plus rares. Citons les Américaines Amy Rodriguez, Sydney Leroux, Alex Morgan et Julie Ertz, la Brésilienne Tamires, l’Espagnole Irene Paredes ou encore la Française Amel Majri.

Une équation semée de « motherhood penalties » sous différentes formes

Les motherhood penalties – littéralement « pénalités de maternité » – désignent les désavantages auxquels les femmes sont confrontées dans le cadre de leur carrière en devenant mères, que ce soit en termes de salaires, d’opportunités ou de promotions. Les sportives professionnelles de haut niveau n’y échappent pas. Certaines sont pénalisées dès l’annonce de leur grossesse. Wendy Lawson, handballeuse française, témoigne :

« Le week-end après avoir annoncé à mon président que j’attendais un bébé, j’ai dû m’asseoir en tribune. Manière de me dire, “Très bien, dans ce cas, tu ne joues plus”. »

Il en va de même pour la cycliste britannique Lizzie Deignan, qui, après avoir été lâchée par son équipe en 2018 lorsqu’elle a révélé sa grossesse, a dû rejoindre une autre équipe à six mois de grossesse. Dans un article du Times, elle révéla le sexisme quotidien dont elle a été victime :

« Je sentais que je devais m’excuser d’être enceinte. »

D’autres sont pénalisées par leur sponsor après la naissance de leur enfant. En 2018, le montant du contrat d’Allyson Felix avec Nike a été réduit de 70 % à la naissance de sa fille, en vertu d’une clause de performance post-partum insérée dans son contrat, sans compter les pressions subies pour reprendre l’entraînement rapidement en dépit des complications de grossesse et d’un accouchement par césarienne. Elle ne manquera pas de le dénoncer dans une tribune du New York Times en 2019. En 2023, la navigatrice française Clémence Crémer a été évincée par son sponsor Banque populaire après être devenue maman en 2022, au motif qu’elle n’avait pas cumulé suffisamment de miles pour participer au Vendée Globe 2024 suite à sa grossesse et son congé maternité.

Bien plus grave est le cas de la volleyeuse italienne Lara Lugli. En 2019, après avoir annoncé sa grossesse à son club, le Maniago Pordenone, la joueuse fut licenciée sans préavis ni indemnités conformément à une clause contractuelle prévue en ce sens. Un mois plus tard, elle fit une fausse couche. Par la suite, elle a été poursuivie en justice par son ancien club, qui l’accusait d’avoir dissimulé son désir de maternité lors de la signature de son contrat de la saison 2018-2019. Le club lui imputa également les mauvaises performances de l’équipe pendant la saison ainsi que la perte des fonds de sponsoring et lui réclama des dommages et intérêts pour les préjudices subis. À la suite du tollé provoqué dans les milieux sportif et politique, le club finit par retirer sa plainte mais le mal était déjà fait.

Dans toutes ces situations, la femme sportive professionnelle est « sanctionnée » pour être tombée enceinte. Privée de compétition, elle est privée de gains financiers et d’opportunités dans sa carrière sportive. Ainsi, les motherhood penalties la rattrapent, opérant des inégalités de traitement entre les mères sportives et les pères sportifs et creusant par la même occasion les inégalités de genre déjà existantes dans certaines disciplines sportives.


À lire aussi : Equal play, equal pay : des « inégalités » de genre dans le football


Quelques avancées

Incontestablement, des progrès ont été réalisés par certaines parties prenantes. En 2020, l’Union cycliste internationale (UCI) a instauré une clause de congé maternité dans les contrats entre les cyclistes indépendantes et les équipes du World Tour féminin. En vertu de cette clause, chaque équipe du World Tour féminin est tenue de rémunérer ses coureuses pendant au moins huit mois, dont trois mois à 100 % et cinq mois à 50 %.

En décembre de la même année, la FIFA a introduit une série de mesures dans son Règlement du statut et du transfert des joueurs (RSTJ) (article 18 quater), relatives à la grossesse, le congé de maternité et les droits des joueuses professionnelles. Entrées en vigueur en 2021 et renforcées en 2024, celles-ci prévoient notamment l’instauration d’un congé maternité d’au moins quatorze semaines dont huit après la naissance, rémunéré au minimum aux deux tiers du salaire contractuel de la joueuse ; l’interdiction de « soumettre la validité des contrats au fait que la joueuse soit enceinte ou le devienne », sous peine de sanction financière et sportive ; l’obligation d’intégrer la joueuse au sein du club à la fin de son congé maternité ; la fourniture d’un suivi médical et physique adapté ; ou encore la possibilité pour la joueuse d’allaiter son bébé ou de tirer son lait dans des locaux adaptés fournis par l’employeur.

Du côté des sponsors, après la polémique suscitée par les révélations d’Allyson Felix dans le New York Times, Nike a revu ses politiques liées à la maternité en supprimant les clauses de performance pendant une période post-partum de dix-huit mois.

Les perspectives

Malgré ces progrès notables, le chemin est encore long. Dans le cadre du football, par exemple, les règles adoptées par la FIFA en 2020 pour sécuriser juridiquement la maternité des sportives professionnelles ne sont pas appliquées par la totalité de ses 211 membres en dépit des sanctions prévues à cet effet.

Le litige opposant la footballeuse islandaise Sara Björk Gunnarsdóttir à son ancien club, l’Olympique lyonnais (OL), en témoigne. Enceinte en 2021, elle retourna en Islande avec l’accord de l’OL pour poursuivre sa grossesse dans sa famille. Toutefois, elle ne reçut pas l’intégralité de son salaire pendant cette période. La joueuse a dû engager une procédure auprès du Tribunal de la FIFA pour faire valoir ses droits, conformément aux réglementations relatives à la maternité mentionnées dans le RSTJ. Elle obtint gain de cause : les juges condamnèrent l’OL à lui verser le reliquat de 82 094 euros de salaire qu’il lui devait.

Pour conclure sur une note positive, en dépit des motherhood penalties qui persistent, certaines actions déployées lors des deux derniers JO méritent d’être soulignées. Durant les JO de Paris en 2024, des dispositions particulières ont été mises en place en faveur des mères allaitantes, en partie grâce à la judokate Clarisse Agbegnenou, qui avait milité en ce sens. Elles ont été logées dans des hôtels près du village des athlètes. Aussi, pour la première fois, avec le concours de l’ancienne championne olympique Allyson Felix, le Comité international olympique (CIO) avait aménagé un espace réservé aux enfants des sportives dans le village olympique, afin qu’elles puissent les voir régulièrement.

France 24.

À lire aussi : Voici comment les athlètes enceintes défient les normes en participant à des compétitions… et même aux JO !


Cette année, lors des JO d’hiver de Milan-Cortina, l’État a pris en charge la moitié des frais de logement des familles françaises participantes avec des enfants en bas âge, qui ont été logées à proximité des différents villages des athlètes. Preuve que la performance des sportives professionnelles de haut niveau passe aussi par une politique (FIFA, CIO) favorisant l’équilibre entre maternité et carrière professionnelle. Sauf avis contraire du médecin, la maternité ne doit plus être un frein à la réussite sportive…

The Conversation

Moustapha Kamara a reçu une Bourse de recherche Havelange de la FIFA.

Allane Madanamoothoo et Daouda Coulibaly ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

17.03.2026 à 16:30

Iran : une civilisation hydraulique millénaire face à la crise de l’eau

Firouzeh Nahavandi, Professeure émérite, Université Libre de Bruxelles (ULB)
En Iran, des techniques anciennes ont longtemps permis de surmonter la rareté de l’eau. Mais l’urbanisation, l’industrialisation, la surexploitation des nappes phréatiques et la corruption ont provoqué une grave crise hydrique, aggravée par la guerre.
Texte intégral (2553 mots)

Pendant des siècles, les sociétés iraniennes ont développé des techniques sophistiquées pour gérer l’eau dans un environnement aride. Aujourd’hui, la surexploitation des ressources, les choix de développement, la corruption et les tensions géopolitiques transforment cette question vitale en l’un des défis majeurs de l’Iran contemporain – un défi encore accentué par la guerre en cours.


Situé dans la grande ceinture aride qui s’étend du Sahara à l’Asie centrale, l’Iran connaît depuis toujours des conditions climatiques difficiles. Dans de vastes régions du pays, l’eau est une ressource rare et précieuse. Cette contrainte a profondément façonné l’organisation des sociétés iraniennes. Très tôt, elles ont développé une véritable culture de la gestion de l’eau fondée sur l’adaptation aux contraintes naturelles et sur la préservation de la ressource. Mais cet équilibre fragile est aujourd’hui en train de se rompre.

L’histoire et l’évolution de ces systèmes hydrauliques ont été largement étudiées par les chercheurs, notamment dans les travaux d’Henri Goblot et de Willem Floor, ainsi que dans les analyses contemporaines de Kaveh Madani sur la crise hydrique iranienne.

Le qanat : une invention révolutionnaire

Le système hydraulique le plus emblématique est celui du qanat. Mis au point il y a plus de deux millénaires, il consiste en une galerie souterraine légèrement inclinée qui capte l’eau des nappes phréatiques situées dans les piémonts montagneux et la transporte vers les zones habitées ou agricoles.

Schéma d’un qanat. Хрюша/Wikipédia

Cette technique présente plusieurs avantages décisifs dans un climat désertique : l’eau circule sous terre et échappe largement à l’évaporation, l’écoulement lent protège les nappes phréatiques et le système fonctionne sans énergie mécanique.

L’un des exemples les plus impressionnants se trouve dans la ville de Gonabad, dans l’est du pays. Son qanat, inscrit au patrimoine mondial de l’Unesco, s’étend sur plus de 30 kilomètres et certaines galeries atteignent près de 300 mètres de profondeur. Construit il y a plus de deux mille cinq cents ans, ce réseau fonctionne encore aujourd’hui, illustrant le niveau d’ingénierie hydraulique atteint par les sociétés anciennes du plateau iranien.

Le qanat de Gonabad, photographié en 2015. Mohsen Tavasoli/Wikipédia, CC BY-NC

Les qanats n’étaient pas seulement une prouesse technique : ils reposaient aussi sur une organisation sociale élaborée. Dans les villages, la distribution de l’eau était assurée par un responsable appelé mirab, chargé de répartir les droits d’irrigation entre les agriculteurs selon un calendrier précis. Chaque famille disposait d’un temps déterminé pour irriguer ses terres.

Dans ces sociétés rurales, l’eau était considérée comme un bien commun soumis à une véritable « justice de l’eau » : détourner la ressource au détriment des autres membres de la communauté était perçu comme une faute grave.

La maîtrise de l’eau a également joué un rôle essentiel dans les grandes réalisations de l’Empire achéménide (v. 550-330 avant notre ère).

Le site de Persépolis témoigne d’une planification hydraulique remarquable. Les ingénieurs achéménides y avaient aménagé, quelque cinq cents ans avant notre ère, un réseau sophistiqué de canaux et de systèmes de drainage afin de protéger les bâtiments monumentaux contre les inondations saisonnières et assurer l’approvisionnement du complexe.

Outre les qanats, les villes iraniennes avaient développé d’autres infrastructures ingénieuses pour conserver l’eau. Les ab anbar, vastes citernes souterraines destinées au stockage de l’eau potable, permettaient de constituer des réserves pour les périodes de sécheresse. Elles étaient souvent associées à des tours de ventilation appelées bâdgir, qui captaient les vents dominants et permettaient de refroidir l’air ainsi que l’eau stockée.

Réservoir d’eau réfrigéré par des bâdgirs à Yazd (centre de l’Iran). StewartMcDowall/Wikivoyage

Du savoir-faire ancien à la crise contemporaine

Malgré cet héritage hydraulique remarquable, l’Iran est aujourd’hui confronté à une crise de l’eau d’une ampleur inédite. Les équilibres environnementaux qui avaient permis pendant des siècles une gestion relativement durable des ressources hydriques ont profondément changé au cours des dernières décennies.

Au début du XXᵉ siècle, l’Iran comptait plus de 50 000 qanats actifs qui alimentaient villes et terres agricoles. Aujourd’hui, une grande partie de ces réseaux est abandonnée ou asséchée. L’urbanisation rapide, le pompage intensif dans les nappes phréatiques et la transformation des systèmes agricoles ont profondément bouleversé les équilibres hydrologiques.

La centralisation administrative, les projets hydrauliques mal planifiés et la corruption dans l’attribution des concessions agricoles ou des infrastructures ont également contribué à fragiliser ou à détruire des systèmes traditionnels qui avaient pourtant fonctionné durablement pendant des siècles.

L’Iran reçoit aujourd’hui en moyenne environ 250 millimètres de précipitations par an, soit près de trois fois moins que la moyenne mondiale. Si cette contrainte climatique est ancienne, les politiques de développement adoptées depuis plusieurs décennies ont considérablement accentué les tensions environnementales.

L’agriculture absorbe près de 90 % des ressources hydriques du pays, souvent à travers des techniques d’irrigation peu efficaces. La multiplication des barrages et l’exploitation massive des nappes phréatiques ont profondément modifié les équilibres hydrologiques.

Des tensions sociales croissantes

La dégradation de l’environnement se manifeste désormais dans plusieurs régions du pays.

Le lac d’Ourmia, dans le nord-ouest de l’Iran, a perdu de 80 à 90 % de sa surface depuis les années 1990. La ville d’Ispahan offre un autre exemple révélateur : le fleuve Zayandeh Roud, qui traversait autrefois la ville, est aujourd’hui asséché.

Dans certaines régions, l’abaissement du niveau des nappes phréatiques provoque l’affaissement des sols, phénomène qui menace les infrastructures et les zones urbaines. Parallèlement, la dégradation des ressources hydriques accentue les tensions sociales dans les zones rurales, où l’accès à l’eau devient de plus en plus difficile pour les populations et les agriculteurs.

Dans la province du Khouzestan (au sud-ouest du pays), la pénurie d’eau potable, les tempêtes de poussière et la pollution industrielle ont également provoqué, ces dernières années, de nombreuses manifestations.

Cette situation contribue aussi à des migrations internes croissantes, certaines régions devenant de moins en moins habitables en raison de la raréfaction de l’eau et de la désertification.

La crise est devenue si profonde que certains responsables iraniens ont même évoqué l’idée de déplacer la capitale hors de Téhéran – une hypothèse longtemps impensable qui révèle l’ampleur des déséquilibres environnementaux et démographiques auxquels la métropole est aujourd’hui confrontée.

La guerre actuelle pourrait transformer la crise de l’eau en catastrophe

Dans un pays déjà frappé par une pénurie d’eau structurelle, la guerre déclenchée le 28 février dernier peut agir comme un puissant accélérateur de crise. Des frappes contre les infrastructures énergétiques ou industrielles majeures, conjuguées aux désorganisations économiques, feraient peser une pression supplémentaire sur des ressources hydriques déjà au bord de l’épuisement.

Car, au-delà des affrontements militaires, c’est peut-être la bataille pour l’eau qui déterminera l’avenir du pays.

La crise hydrique que traverse l’Iran dépasse largement la seule question environnementale. Elle résulte d’un enchevêtrement de transformations profondes : croissance démographique rapide, politiques agricoles intensives, urbanisation accélérée et abandon progressif des systèmes hydrauliques traditionnels qui avaient pourtant permis pendant des siècles de gérer la rareté de l’eau sur le plateau iranien. L’assèchement de nombreux aquifères, la disparition de lacs et de zones humides ainsi que la surexploitation des nappes souterraines témoignent de l’ampleur du déséquilibre écologique auquel le pays est désormais confronté.

À ces fragilités structurelles s’ajoutent aujourd’hui des tensions économiques et géopolitiques susceptibles d’accentuer encore les pressions sur les ressources naturelles. Dans un tel contexte, la question de l’eau ne relève plus seulement de la gestion environnementale : elle devient un enjeu central de stabilité économique, sociale et politique.

Car, dans un pays façonné depuis des millénaires par la rareté de l’eau, sa disparition progressive n’est pas seulement une crise écologique : elle menace un équilibre historique entre société, territoire et ressources.

The Conversation

Firouzeh Nahavandi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.03.2026 à 16:29

Les microbes qui vivent sur les feuilles : un monde invisible essentiel à la santé des plantes

Mathilde Bouteiller, Chargée de recherche en microbiologie & biologie moléculaire de l'unité AGHYLE, UniLaSalle
Guillemette Garry, Enseignante chercheure en biologie option phytopathologie, associée à l'Unité de recherche Aghyle, UniLaSalle
Les plantes aussi ont un microbiote. Ces milliers de microorganismes qui vivent sur les feuilles cachent pleins de potentiels pour améliorer leur croissance ou leur rendement.
Texte intégral (3051 mots)
Plant de tomate, feuille de tomate avec du microbiote cultivable et empreinte de feuille sur boîte de Pétri. Fourni par l'auteur

Les humains ne sont pas les seuls à être dotés de microbiotes. Les plantes aussi. Les milliers de microorganismes qui vivent sur leurs feuilles sont encore peu connus, mais pleins de potentiels pour accroître leur croissance ou améliorer leur rendement, ou encore leur résistance au stress.


À l’heure où l’utilisation des pesticides et des engrais de synthèse pose de plus en plus question, des alternatives efficaces doivent être trouvées. Parmi les solutions qui sont à l’étude, l’utilisation de produits d’origine naturelle, aussi appelés biosolutions, montre des résultats prometteurs.

Les biostimulants font partie de ces alternatives. Ils peuvent être de diverses origines et contiennent par exemple des extraits d’algues, des microorganismes, comme des champignons ou des bactéries, des extraits végétaux, des acides aminés… On les applique de multiples manières, en les pulvérisant sur les feuilles, en enrobant les graines ou directement dans le sol.

Ces produits fonctionnent en stimulant les processus biologiques naturels des plantes pour améliorer leur nutrition, leur croissance, leur rendement ou leur résistance au stress. Là où un engrais va apporter directement un élément nutritif (comme l’azote, le phosphore, le potassium) propice à la croissance des plantes et où un pesticide sera utilisé pour éradiquer les agresseurs des plantes, les biostimulants vont, eux, permettre à la plante d’augmenter ses propres capacités.

Quels sont les avantages à utiliser des biostimulants foliaires ?

Il existe ainsi plusieurs avantages à utiliser des traitements foliaires plutôt que des traitements au sol.

Premièrement, ces traitements ont une activité plus rapide puisque la solution va pouvoir agir directement sur le métabolisme de la plante, sans trop dépendre de l’environnement très complexe que représente le sol. De plus, les doses utilisées en traitement foliaire sont bien moins importantes que lors d’une application au sol, ce qui rend ces traitements moins onéreux.

Par ailleurs, il est fréquent d’appliquer ce type de traitement en association avec d’autres traitements foliaires (herbicide, fongicide), dont l’effet négatif semble contrebalancé par l’effet du biostimulant.

Quelle est l’influence des biostimulants sur les microbiotes de la plante ?

Ce qui rend également les biostimulants particulièrement intéressants réside dans leur possibilité d’interagir avec le microbiote des plantes. Car les humains ne sont pas les seuls à vivre aux contacts d’une myriade de bactéries, de champignons, et autres microorganismes, qui exercent des fonctions importantes.

Les organismes présents dans les microbiotes de la plante comprennent :

  • des bactéries (microorganismes unicellulaires sans noyau) ;

  • des archées (microorganismes unicellulaires sans noyau formant un règne à part entière différent des bactéries) ;

  • des champignons pluricellulaires produisant du mycélium ;

  • des champignons unicellulaires (comme les levures) ;

  • des algues (végétaux unicellulaires) et des protistes (cellules unicellulaires non classifiables dans le règne animal, végétal ou fongique) ;

  • des virus et des bactériophages (virus qui attaque exclusivement les bactéries).

Chez les végétaux, ces microorganismes sont notamment présents au niveau des sols, des racines et des parties aériennes (tiges, feuilles, fruits et fleurs).

Les biosolutions ou les produits de lutte chimique vont être directement en contact avec ces microorganismes qui constituent le microbiote de la plante.

Plusieurs études ont déjà montré l’impact des biostimulants sur le microbiote au niveau des racines et du sol. Ces microorganismes du sol et des racines sont regroupés sous le nom de rhizosphère. Des biosolutions appliqués au sol sont, par exemple, capables de modifier les communautés microbiennes du sol, notamment en augmentant l’abondance en champignons mycorhiziens (champignons connus pour améliorer l’acquisition de nutriments par les plantes, qui favoriseraient la croissance et le rendement des cultures).

Malheureusement, à l’heure actuelle, peu d’études sur les microorganismes présents au niveau des parties aériennes des plantes, aussi appelés phyllosphère, sont recensées. Pourtant, nous savons que ces microorganismes exercent une activité globalement positive sur les plantes hôtes et qu’ils sont directement influencés par les produits appliqués sur les feuilles.

Fourni par l'auteur

Au sein de la phyllosphère, les microorganismes sont capables d’interagir entre eux ainsi qu’avec leurs plantes hôtes avec lesquelles ils entretiennent une relation symbiotique, c’est-à-dire une association biologique, durable et réciproquement profitable, entre deux organismes vivants.

De ce fait, ce microbiote joue un rôle important dans le développement et la nutrition des plantes. Par ailleurs, comme cela est observé pour le microbiote cutané chez l’humain, la présence de microorganismes sur la surface des parties aériennes permet à la plante de se protéger et de prévenir de l’attaque d’organismes pathogènes. Une étude montre par exemple que certains membres de la communauté microbienne des feuilles fournissent une protection significative contre un agent pathogène chez l’arabette des dames, une plante à fleur très commune en Europe.

Mais pour mieux comprendre toutes les potentialités des alliances bénéfiques qui se jouent au niveau des feuilles des plantes, point de mystère, il faut mieux les connaître, et les étudier.

Étudier la phyllosphère

Pour étudier les microbiotes, on analyse généralement l’ADN des microorganismes.

La métagénomique est une méthode d’analyse fondée sur la technique de séquençage des ADN (déterminer la séquence des bases de tous les gènes du génome) d’un environnement donné. Avec cette méthode, l’étude des microorganismes prédominants dans un milieu spécifique est possible grâce à l’identification de ces microorganismes, en comparant leurs séquences avec des séquences de microorganismes déjà identifiés dans des bases de données appelées BLAST. Avec la métagénomique, on peut également connaître les fonctions que jouent ces microorganismes. Ces techniques, très à la mode, sont utilisées puisqu’elles présentent l’avantage de ne pas être basées sur la mise en culture de microorganismes parfois très difficile voire impossible.

Cependant, les études basées sur l’ADN ne permettent pas de distinguer l’ADN de microorganismes morts ou vivants et de savoir si ces microorganismes sont actifs. Au sein du laboratoire AGHYLE, le microbiote de la phyllosphère est donc étudié en parallèle par la mise en culture de certains microorganismes sur boîte de Pétri, bien que ces derniers ne représentent que quelques pourcents du microbiote total.

Les bactéries obtenues et isolées de la phyllosphère présentent généralement une grande diversité de couleur, de texture et d’aspect. La coloration permet aux microorganismes de mieux résister aux UV, ce qui est un avantage sélectif, car ils doivent être capables de résister aux rayons du soleil à la différence de ceux de la rhizosphère. Certaines bactéries forment des colonies très mucoïdes (grasses) ce qui les rendent également plus résistantes à la sécheresse.

Fourni par l'auteur

Plusieurs études indiquent que des microorganismes provenant de la phyllosphère présentent des activités bénéfiques pour les plantes. Par exemple, sur la phyllosphère, les bactéries Methylobacterium sont reconnues pour stimuler la croissance des plantes et les protéger des bioagresseurs.

D’autres bactéries isolées de la phyllosphère de la tomate, comme Bacillus velezensis 83, sont également dotées de capacité de stimulation de la croissance des plantes et de protection des cultures.

Au sein du laboratoire, nous avons identifié des bactéries et les champignons isolés de la phyllosphère de la tomate Solanum lycopersicum (variété MicroTom) et du maïs (Zea mays L. variété DATABAZ). En comparant les séquences d’ADN obtenues avec une banque de données internationales (BLAST), nous avons pu identifier le genre et parfois aussi l’espèce de ces microorganismes et vérifier qu’ils s’agissaient bien de microorganismes connus et provenant de la phyllosphère.

Parmi les microorganismes identifiés, plusieurs sont connus dans la littérature et pourraient appartenir aux bactéries ou aux champignons promoteurs de la croissance des plantes et/ou présenter des effets de biocontrôle. D’autres ne sont que partiellement identifiés, et nous ne pouvons donc pas encore savoir s’ils sont bénéfiques ou pathogènes.

Fourni par l'auteur

Bien qu’il soit possible d’utiliser directement des bactéries ou des champignons isolés de l’environnement naturel pour booster la croissance et la protection des plantes, la colonisation et la capacité des microorganismes à fonctionner en champ reste difficile à prévoir.

De plus, le stockage de microorganismes est bien plus compliqué que ne l’est un biostimulant. Dans ce sens, le développement de solutions agissant directement sur les microorganismes déjà présents sur les plantes, reste une alternative prometteuse pour l’agriculture. Ainsi, pour tester des biostimulants de manière peu onéreuse et rapide, nous réalisons au laboratoire des tests in vitro (en boîte de Pétri) sur les microorganismes de la phyllosphère. Le développement des microorganismes est suivi au cours du temps et la morphologie du développement bactérien et mycélien est observée.

Fourni par l'auteur

Dans la figure ci-dessus, on observe l’effet d’un biostimulant foliaire sur un champignon, isolé de la phyllosphère du maïs. Bien que la taille du mycélium ne semble pas impactée, la présence du biostimulant semble affecter le champignon. Mais plusieurs questions restent en suspens : est-ce que ce biostimulant induit la même chose chez tous les microorganismes de la phyllosphère ? Ne va-t-il pas stimuler la croissance d’organismes pathogènes ?

Ces résultats préliminaires offrent des perspectives intéressantes, mais doivent encore être approfondis.

The Conversation

Les premières expérimentations portant sur la phyllosphère ont été initiées dans le cadre des travaux menés au sein de la Chaire Biomes, en partenariat avec l’entreprise Gaïago.

Guillemette Garry ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.03.2026 à 16:28

Violences sexuelles au collège : ce que ne disent pas les chiffres officiels

Margot Déage, Maîtresse de conférences en sociologie, Université Grenoble Alpes (UGA)
Début 2026, le ministère de l’éducation a lancé l’alerte sur les violences sexistes et sexuelles en milieu scolaire. Mais les données officielles permettent-elles de bien saisir l’ampleur du phénomène ?
Texte intégral (1746 mots)

Début 2026, le ministère de l’éducation nationale a lancé l’alerte sur les violences sexistes et sexuelles en milieu scolaire. Près de 15 % des filles et 12 % des garçons auraient été exposés à au moins une forme de violence sexuelle, selon la dernière enquête de victimation du ministère. Mais ces données officielles reflètent-elles toute l’ampleur du phénomène ? Une autre enquête, menée en Île-de-France pour le Centre Hubertine-Auclert pour l’égalité femmes-hommes, estime qu’environ un élève sur deux serait concerné. Explications.


Le 29 janvier 2026, le gouvernement a publié un communiqué de presse sur les violences sexistes et sexuelles en milieu scolaire. On y apprend qu’au collège, « 15 % des filles et 12 % des garçons déclarent avoir été exposés à au moins une forme de violence sexuelle ».

Ces chiffres renvoient aux données collectées dans une enquête de climat scolaire et de victimation réalisée par le ministère de l’éducation nationale au printemps 2022. Concrètement, cette enquête interroge les élèves sur des faits survenus depuis le début de l’année scolaire : atteintes aux biens, attaques physiques, psychologiques et sexuelles. Celles-ci recouvrent le voyeurisme dans les toilettes ou les vestiaires, les attouchements, les caresses au sein du collège ou à proximité et les baisers forcés. Les violences sexuelles y sont donc appréhendées essentiellement en présentiel. Les cyberviolences font l’objet d’une catégorie distincte, incluant notamment le visionnage non consenti d’images à caractère sexuel, qui concerne 4,4 % des collégiens et collégiennes.

Malgré l’absence de données sur l’effet du numérique sur les violences sexuelles, le communiqué désigne les réseaux sociaux comme « un puissant facteur d’amplification de ces violences » et appelle à une interdiction des plateformes numériques avant 15 ans. Cette lecture appelle discussion.

Des violences sexuelles plus fréquentes qu’annoncé

Au printemps 2023, nous avons conduit pour le Centre Hubertine-Auclert une étude sur les (cyber)violences de genre à l’adolescence. Celles-ci sont définies comme tout acte préjudiciable commis contre une personne en raison de son sexe ou de sa non-conformité aux rôles de genre, en face-à-face ou dans l’espace numérique. L’objectif était notamment de documenter finement les violences sexuelles et leur circulation entre espaces scolaires, extérieurs et numériques.

L’enquête a été menée dans 14 établissements d’Île-de-France, représentatifs de la région, auprès d’élèves de la sixième à la terminale. Parmi les 1 669 réponses recueillies au collège, 847 proviennent de filles, 801 de garçons et 21 de personnes non binaires.

Premier constat : 43 % des collégiens et collégiennes déclarent avoir subi au moins une forme de violence sexuelle au cours de l’année écoulée. Les filles et les personnes non binaires sont plus nombreux à rapporter au moins une forme de violence sexuelle (44 % contre 41 % des garçons).

Ces chiffres sont sans commune mesure avec ceux issus de l’enquête institutionnelle. Pourquoi un tel écart ? Essentiellement parce que le périmètre des faits étudiés diffère.

Notre enquête inclut, au-delà des agressions et attouchements, des violences souvent minimisées ou invisibilisées : les outrages sexuels (36 %), comme les mimes sexuels (22 %), les propos sexuels imposés (20 %), les sollicitations sexuelles insistantes (9 %) et le visionnage forcé d’images sexuelles (12 %) ; les agressions sexuelles (14 %), comme les attouchements (11 %) et les baisers forcés (7 %) ; ou encore, les atteintes à l’image intime (7 %), comme la réalisation forcée d’image intime (3 %), la sextorsion (4 %), la divulgation (3 %), le vol (2 %) ou encore le montage d’image intime (1 %). Par ailleurs, 2 % des collégiennes et collégiens ont déclaré avoir subi d’autres formes de violences sexuelles, un chiffre qui inclut potentiellement des viols.

Dans 71 % des cas, les auteurs sont des garçons mineurs qui agissent seuls (47 %) ou en groupe (24 %).

Autrement dit, lorsqu’on s’intéresse à l’entièreté du continuum de violences sexuelles, leur ampleur apparaît bien plus importante.

Où ces violences ont-elles lieu ?

Deuxième constat : les violences sexuelles sont plus fréquentes dans l’établissement scolaire qu’ailleurs.

Sur l’ensemble des faits rapportés, 43 % se sont produits dans l’espace scolaire, 24 % dans l’espace numérique et 5 % à la fois en ligne et au collège. Les 29 % restants ont eu lieu à l’extérieur (dans des espaces privés ou publics en présentiel).

La plupart des violences sexuelles se produisent très majoritairement dans le cadre scolaire, comme les agressions (53 % contre 3 % en ligne et 1 % en hybride) ou les outrages (46 % contre 24 % en ligne et 6 % en hybride).

Campagne de communication du gouvernement  : « Réagir peut tout changer » (2018).

Ce sont les atteintes à l’image intime qui sont les plus fréquemment commises en ligne (63 % contre 8 % au collège et 5 % en hybride). Ces violences sont en effet facilitées par les outils numériques qui permettent de capturer, de sauvegarder, d’éditer et de diffuser des images. Néanmoins, 15 % des actes de sextorsion (et 4 % en hybride) et 9 % des divulgations d’image intime (et 11 % en hybride) ont eu lieu dans l’enceinte scolaire, ce qui suggère la persistance de formes de captation et de diffusion d’images déconnectées des réseaux sociaux.

Ces résultats invitent à penser la porosité et l’imbrication des violences entre les espaces numériques et scolaires. Une image produite sous contrainte dans une chambre peut être imprimée et diffusée au collège ; un mime sexuel en classe peut être filmé et partagé sur une messagerie, etc.

Le numérique, amplificateur ou révélateur ?

Attribuer aux seuls réseaux sociaux la responsabilité des violences sexuelles pose plusieurs problèmes.

D’une part, la majorité des violences recensées se déroulent principalement dans l’espace scolaire. En d’autres termes, les violences sexuelles n’ont pas besoin des plateformes numériques pour exister, et c’est d’abord au collège qu’il faut agir. Ces plateformes jouent plutôt un rôle de révélateur des violences, qui en amplifient certaines dimensions : l’extension du public, le partage d’informations et d’images personnelles, la permanence des contenus, la vraisemblance des rumeurs, la libération des paroles toxiques ou le sentiment d’impunité.

Les (cyber)violences sexuelles s’inscrivent dans des enjeux de réputation propres aux sociabilités juvéniles. Les plateformes numériques ne créent pas ex nihilo les normes de genre, mais elles en accélèrent la circulation et en renforcent la visibilité. Une image intime diffusée sans consentement peut ainsi produire une stigmatisation durable, particulièrement pour les filles.

Interdire l’accès aux plateformes avant 15 ans ne saurait donc constituer une réponse suffisante. Une telle mesure laisse intacts les dynamiques de genre et les rapports de pouvoir qui structurent les interactions adolescentes, en ligne comme au collège.

Décloisonner les politiques de prévention

Pour changer la donne, il faut d’abord reconnaître l’ampleur réelle des violences sexuelles à l’adolescence, ce qui suppose d’en élargir la définition. Il est nécessaire également de décloisonner les dispositifs existants. Les programmes de lutte contre le harcèlement (comme le programme Phare), l’éducation aux médias et à l’information (EMI) et l’éducation à la vie affective, relationnelle et sexuelle (Evars) travaillent encore en silos. Or, nos données montrent que les violences sexuelles se situent précisément à l’intersection de ces champs : rapports de genre, usages numériques, dynamiques de groupe.

Une prévention efficace suppose d’articuler ces dimensions : travailler sur les normes de genre, sur le consentement, sur la gestion des images et des données personnelles, mais aussi sur les logiques de réputation, de confidentialité et de modération propres aux réseaux sociaux.

Enfin, les actions doivent associer les élèves eux-mêmes pour qu’elles et ils apprennent à reconnaître les violences sexuelles, qu’elles et ils se sentent légitimes pour les contester. La plateforme de sensibilisation « Gênant, surtout violent » propose des ressources pédagogiques pour objectiver des situations souvent banalisées.

En définitive, la question n’est pas de choisir entre régulation du numérique et action éducative. Elle est de comprendre que les violences sexuelles à l’adolescence forment un système relationnel qui traverse les espaces. Car, si le numérique transforme les modalités de circulation des violences, le problème premier réside dans la persistance de rapports de genre inégalitaires, que l’école a précisément pour mission de déconstruire.

The Conversation

Margot Déage a reçu des financements du Ministère de l'Éducation nationale et de la Région Île-de-France pour réaliser l'enquête présentée dans cet article.

17.03.2026 à 16:27

Les seniors au travail ne sont pas ceux que vous croyez. Et c’est aussi pour cela que la guerre des générations n’existe pas

Hippolyte d’Albis, Professeur, ESSEC
Revoyez toutes vos idées reçues. Les seniors au travail ne sont pas forcément ceux que vous croyez. Comme l’ensemble de la société, ils ont changé.
Texte intégral (1560 mots)

[Bonnes feuilles] Régulièrement, l’existence d’une opposition irréconciliable entre les seniors et les plus jeunes est mise en avant. Pour payer les retraites de premiers, on sacrifierait l’avenir de la jeunesse. Cette opinion régulièrement reprise ne résiste pas à l’examen des faits, estime l’économiste Hippolyte d’Albis.

Dans Economie des âges de la vie (Editions Odile Jacob), il décrypte, au-delà des fausses évidences et du bon sens, la réalité des flux financiers entre les générations. Dans l’extrait que nous publions, Hippolyte d’Albis revient sur le profil des salariés seniors… en opposant des faits aux clichés. À commencer par le fait que le boomer est souvent une boomeuse. OK ?


Contrairement aux pratiques managériales, les employés seniors ont changé. Le plus étonnant est finalement ce retournement de situation à la fin des années 1990, marqué par le retour des 55-64 ans sur le marché du travail. Examinons les causes profondes de cette révolution pour la comprendre et identifier ce qui permettrait de l’amplifier.

Le point crucial est que la population des seniors a changé car elle est en meilleure santé, plus qualifiée et plus féminisée. Les seniors ont tout d’abord rajeuni car ils sont en meilleure santé et physiquement plus aptes à travailler. L’état de santé d’un groupe de personnes peut être synthétisé par son risque de décès dans l’année. En 2023, le risque pour une personne de 60 ans était de 0,6 %, soit celui d’une personne de 54 ans trente ans plus tôt. Cette amélioration impressionnante de la santé humaine à ces âges explique en partie le maintien en emploi des seniors. Les progrès dans la prévention et le traitement des maladies cardiovasculaires, de certains cancers et du diabète ont directement profité à l’économie en préservant la population active. Or on oublie trop souvent que les politiques de santé publique sont aussi des politiques économiques.

Il ne faut cependant pas nier le vieillissement des corps : même s’il est faible, le risque de décès d’une personne de 60 ans reste près de cinq fois plus élevé que celui d’une personne de 40 ans. Les questions d’ergonomie, de pénibilité et d’aménagement des horaires deviennent ainsi de plus en plus cruciales avec l’âge. Elles ne doivent ni être éludées, ni considérées comme des coûts inutiles ou subis. Les organisations doivent se défaire de la représentation type du salarié, forcément trentenaire et évidemment jamais malade et toujours enthousiaste. Reconnaître la diversité physiologique est une première étape nécessaire pour une meilleure inclusion des seniors dans le monde du travail.

Des seniors de plus en plus qualifiés

L’évolution de la population des seniors est marquée par une nette élévation de leur niveau de qualification. Aujourd’hui, près de 30 % des 55-64 ans sont diplômés de l’enseignement supérieur, contre moins de 9 % il y a trente ans. Cette progression influence leur emploi de deux manières. D’une part, les études supérieures retardent mécaniquement leur entrée sur le marché du travail. D’autre part, elles renforcent leur capacité à s’adapter aux mutations organisationnelles et technologiques.


À lire aussi : Non la jeunesse n'est pas sacrifiée ! ou ce que révèle l'étude des transferts intergénérationnels


Avec des carrières qui s’étendent sur quarante ans, la nécessité de se former en continu et, parfois, de se reconvertir devient incontournable. Les pays où le taux d’emploi des seniors est le plus élevé sont d’ailleurs ceux qui ont intégré depuis longtemps la formation tout au long de la vie, notamment bien avant l’âge de 50 ans. Les reconversions professionnelles, comme celles des militaires qui quittent l’uniforme en milieu de carrière pour exercer un métier civil, montrent que ces transitions sont non seulement possibles, mais aussi bénéfiques. Elles méritent d’être mieux acceptées et valorisées afin d’être généralisées.

Des défis pour la gestion des carrières

Dans les années à venir, l’arrivée massive de seniors diplômés du supérieur – près de la moitié des 35-44 ans le sont déjà – va marquer le paysage professionnel. Si cette démocratisation des études supérieures est une tendance positive, elle présente aussi des défis pour la gestion des carrières des seniors. D’un côté, ces diplômes ouvrent l’accès à des métiers mieux rémunérés, plus stimulants ou socialement valorisants, ce qui encourage la prolongation de l’activité. Ceux qui prolongent le plus leur vie professionnelle sont typiquement les médecins, les artistes, les scientifiques ou les entrepreneurs. De l’autre, les diplômés attachent une importance croissante au sens de leur travail, ce qui explique que certaines trajectoires professionnelles génèrent des sentiments de frustration ou de déclassement.

Un exemple frappant est celui des jeunes diplômés recrutés sur des postes d’expertise qui évoluent vers des fonctions managériales, parfois avant même d’atteindre la quarantaine. Or ces postes, exigeants physiquement et psychologiquement, poussent après quelques années certains à vouloir céder leur place. En France, cependant, les opportunités pour les anciens managers restent limitées. La logique hiérarchique et une certaine conception de l’honneur rendent difficile l’idée de se retrouver sous la direction d’une personne qu’on a autrefois dirigée. Face à la prochaine arrivée massive de diplômés seniors, de nombreuses pratiques restent à réinventer.

La révolution des boomeuses

Les seniors ont aussi changé du fait de leur féminisation, décisive depuis l’arrivée des baby-boomeuses. Le taux d’emploi des femmes entre 55 et 64 ans est aujourd’hui proche de 60 %, soit près du double de ce qu’il était au début du siècle. Toutes les politiques permettant le maintien en emploi des femmes après leur maternité sont par ricochet favorables à l’emploi des seniors. Ainsi, les congés maternité courts et bien compensés, les dispositifs efficaces permettant la garde des enfants et les politiques d’entreprises conciliantes doivent être encouragés et renforcés. La féminisation du salariat a engendré une révolution dans les organisations en imposant progressivement l’idée qu’elles devaient permettre la conciliation des vies personnelles et professionnelles. Les enfants ont ainsi fait irruption dans les discussions du monde du travail et les contraintes qu’ils imposent à leurs parents sont mieux prises en compte par les managers.


À lire aussi : L’emploi des seniors : une culture des âges à faire évoluer ?


La question des équilibres de vie se pose aussi après 55 ans, mais pas dans les mêmes termes qu’à 30 ans : s’il n’y a plus d’enfants à récupérer à la crèche, il y a parfois un parent devenu dépendant dont il serait bien de se soucier. Cette réalité est encore aujourd’hui taboue dans les entreprises et administrations où l’on parle des enfants mais pas des personnes âgées. Ainsi, une mère qui a pu s’absenter pour emmener sa fille chez le médecin ne pourra pas, vingt ans plus tard, faire de même avec sa propre mère. La conciliation des vies personnelles et professionnelles doit être pensée tout au long de la carrière.

Le 14 octobre 2025, lors de sa déclaration de politique générale devant la représentation nationale, le nouveau premier ministre Sébastien Lecornu annonce la suspension jusqu’à la prochaine élection présidentielle de la réforme des retraites votée en 2023. Pour éviter la censure de son gouvernement, il offre à la cohorte 68 la possibilité de partir plus tôt en retraite, mais prive le système de ressources nécessaires au financement des pensions qu’il s’est engagé à verser. L’équilibre des régimes de retraites est une équation très simple, avec finalement peu de paramètres. L’allongement de la durée du travail en est un essentiel mais il est évident qu’il faut accompagner les personnes concernées. Profitons de cette suspension pour modifier nos organisations, écouter les attentes des travailleurs concernés, et préparer les prochains reports de l’âge de la retraite, qui inéluctablement devront être assumés.

The Conversation

Hippolyte d’Albis a reçu des financements de l'ANR.

17.03.2026 à 16:26

« Pétrole » de Pasolini adapté au théâtre : le dévoilement de l’obscénité fossile

Frédéric Caille, Maître de Conférences HDR en Science Politique, ENS de Lyon
Le texte inclassable de Pasolini, mis en scène au théâtre, démontre combien la culture occidentale contemporaine est imprégnée par les énergies fossiles.
Texte intégral (2713 mots)

Avec son texte Pétrole, récemment adapté au théâtre par Sylvain Creuzevault, Pasolini livre une œuvre visionnaire, dans laquelle l’industrie fossile apparaît comme une force de destruction implacable, imprégnant en profondeur l’imaginaire occidental.


Peu après la COP30, dix ans après la prise de conscience officielle par le genre « homo sapiens » de sa contribution active à la destruction irrémédiable de sa propre biosphère, sur la scène nationale de Bonlieu, à Annecy (Haute-Savoie), le metteur en scène Sylvain Creuzevault a inauguré son adaptation théâtrale du texte posthume et visionnaire de l’écrivain, poète et cinéaste italien Pier Paolo Pasolini, Pétrole.

Cette œuvre foisonnante, baroque, inclassable, où se mêlent l’enquête, la critique littéraire, la déconstruction de la sexualité moderne et de ses liens intimes au pouvoir et à l’ordre socio-économique du capitalisme international, est un texte qui anticipe de manière saisissante sur la mise au jour actuelle par la théorie critique anglo-saxonne des dimensions les plus sombres et inconscientes de l’imprégnation par les énergies fossiles de la culture occidentale contemporaine, telle que la décrit l’artiste et activiste Brett Bloom dans son essai Petro-Subjectivity : De-Industrializing Our Sense of Self (2015) (non traduit en français) :

« La pétro-subjectivité est quelque chose que chacun d’entre nous vit constamment. C’est une perception de soi et du monde qui façonne notre identité et notre façon de penser. Elle découle en partie du fait que l’utilisation du pétrole est présente dans tout ce que nous faisons. Elle a façonné les concepts qui régissent notre pensée. Notre utilisation du langage et les concepts fondamentaux qui structurent notre existence sont imprégnés de la logique des relations pétrolières et forment l’univers métaphorique dans lequel nous baignons lorsque nous parlons entre nous de qui nous sommes, de ce que nous faisons et de ce qui compose le monde qui nous entoure. » (Traduction de l’éditrice, ndlr)

Enquête sur le pétropouvoir

« Pétromasculinité », « pétrosexualité », « pétropornographie », « pétro ou carbofascisme », « pétrosubjectivité » : tels sont les concepts qu’évoquent et exposent, avec les mots et les visions de Pasolini, Sylvain Creuzevault et ses comédiennes et comédiens. Le propos échappe de fait à la seule évaluation esthétique et scénique, tant le texte Pétrole s’est en effet aussi construit, chez son propre auteur, sur la base d’une enquête concernant le « [ pétropouvoir] » central de l’Italie du vingtième siècle : l’ENI (Entente Nazionale Idrocarburi).

Cet organisme de supervision de la recherche, de l’achat et de la distribution des ressources énergétiques pétrolières du pays, équivalent de la Compagnie française des pétroles (CFP), ancêtre de Total, et super-major pétrolière (9e mondiale, présente dans 69 pays, 28 000 employés et première entreprise d’Italie aujourd’hui encore), est présidée à partir de 1953 par Enrico Mattei, modèle du personnage d’Ernesto Bonocore dans le texte de Pasolini. Mattei est tué dans un accident d’avion, sans doute commandité par le vice-président de la compagnie – qui lui succède en 1962 – et dans son projet « Naphta », le jeune artiste français Gaëtan Bas Lorant a mené récemment une enquête sur les lieux et témoins de cet évènement.

Corruption universelle

La corruption du monde de l’industrie pétrolière, mais surtout ses liens intimes à la corruption de la vie, des corps, des imaginaires et des idéaux des jeunes Italiennes et Italiens de l’après-guerre est au centre du roman de Pasolini. La sexualité, sous une forme provocatrice et non maîtrisée surgit en de nombreuses scènes du livre et de l’adaptation théâtrale, qui n’en contourne pas, et même parfois en surligne, la violence exercée sur les autres et sur soi-même (surtout pour le héros Carlo), ainsi que le caractère profondément insatisfaisant et destructeur.

Cette sexualité mortifère est utilisée et interrogée par Pasolini à la fois comme un corrélat logique, corporel, intime et subjectif de sa dénonciation géopolitique du capitalisme « faschisto-fossile » qu’incarne l’ENI, et comme une allégorie de l’hubris qui soutient plus profondément le développement et l’usage de l’industrie pétrolière. La transgression des limites et la démesure « s’écoulent » littéralement de « l’or noir » pour toucher les dirigeants des entreprises d’approvisionnement ou de diversification (notamment dans la pétrochimie et le plastique), en même temps que chaque Italienne ou Italien accédant à l’automobile et à la société de consommation.

Cette hubris, certes, est pour Pasolini, au moins partiellement, une hubris de classe, associée au « plus fasciste des pouvoirs que l’Italie ait connu », selon ses propres termes, dissimulé sous les apparences trompeuses de la social-démocratie. Le recyclage des dirigeants et des capitaux fascistes, au nom de la grandeur nationale, est ainsi un axe de dénonciation politique central, directement repris de l’enquête et des sources sur lesquelles s’appuie Pasolini.

Au centre du livre de Pasolini se trouve l’ouvrage du mystérieux Steimetz qui, à ce jour pourtant non identifié, contacte et rencontre Pasolini à deux reprises dans le scénario du film la Machination. L’affaire Pasolini (2019) avant d’y être assassiné. Le scénario du film tire vers la manipulation politique l’essentiel de la démarche profonde à l’origine de l’écriture de Pétrole, mais également les causes de l’assassinat de Pasolini, qui y est montré comme parfaitement prémédité. À l’inverse, quelques années plus tôt, le Pasolini d’Abel Ferrara (2014), qui se déroule durant les derniers jours de son existence, privilégie le meurtre crapuleux et homophobe.

En synthétisant de ce point de vue le propos de Pasolini, on peut dire que dans certaines des scènes récurrentes de la pièce, il s’agit pour l’auteur de nous faire prendre conscience que, quand bien même l’on appartient à la bourgeoisie libérale de gauche, que l’on soit au Parti communiste, que l’on aime le jazz, la mixité, l’art moderne, pour sa propre satisfaction hédoniste, on se trouve objectivement et structurellement complice et associé aux machinations prédatrices, néocoloniales et destructrices de la planète conduites en sous-main par les grandes entreprises pétrolières.

C’est en effet cette mise à jour que Pasolini veut exprimer durant les trois années de travail qu’il consacre à son texte. Une mise à jour inextricablement – c’est la leçon qu’il tend à notre époque – intime et collective, et où résonnent en échos les inclinations masculinistes et machistes les plus communes. Elles sont formidablement incarnées dans la pièce, par le héros lui-même en ses deux « êtres » contradictoires, ou par d’autres « hommes puissants » soumis à la peur-fascination de l’homosexualité et de la femme (extrémisé jusqu’à l’inceste avec la mère), à l’attrait de la consommation sexuelle bourgeoise tarifée de jeunes filles et garçons de catégories populaires, et même à l’humiliation-attirance pour les personnes du Moyen-Orient, lieu où se trouve le pétrole, et où les individus reprennent et endossent à leur tour l’indécence et la violence de l’hubris fossile.

Un jeu de société édité en 1973, en plein accord avec l’imaginaire de la conquête des énergies fossiles et de leurs promesses de puissance que déconstruit l’œuvre-monstre de Pier Paolo Pasolini.

Déchéance et ambivalence

Pasolini, c’est là son génie, malgré une force de propos (magnifiée par la mise en scène), qui peut décontenancer une part du public, explore la déchéance de nos êtres profonds. Il dévoile nos pantomimes et la dégradation dans laquelle nous entraîne inexorablement le pacte signé avec le diable fossile. L’inoubliable personnage d’Aldo Troya (Eugenio Cefis, 1921-2004 dans la vraie vie), commanditaire probable lié à la CIA américaine du meurtre de Mattei, l’incarne de manière inoubliable. Fasciste dissimulé et homme du moment, il mène à la fin d’une civilisation en prétendant travailler à la grandeur du pays et révèle son ambivalence par son patronyme inventé par Pasolini : « le Troyen », « la truie » (voir les « notes 36-40 » et les remarques du traducteur René de Ceccatty dans la dernière édition de Pétrole, Gallimard 2022). La pièce suit précisément son destin et son « bond en avant dû non pas tant à une volonté ambitieuse qu’à l’accumulation objective et massive des forces guidées par cette volonté », ainsi que l’écrit Pasolini.

Pétrole est donc l’histoire d’une déchéance qui est celle du personnage principal, mais en quelque mesure aussi bien entendu, telle est la force du poète-prophète dont Pasolini enfile la toge, la nôtre. Elle culmine peut-être dans ce moment de la pièce où le héros, nu et debout comme un mâle humain urinant, tient le tuyau d’une pompe à pétrole qui inonde la scène comme aujourd’hui la nuit fossile menace de recouvrir le monde.

« Tous victimes et tous coupables »

Cette part la plus politique, ou « infra-politique », est celle assurément que la mise en scène fait émerger du pétrole pasolinien, c’est-à-dire non pas seulement la dénonciation du pouvoir fossile et des multinationales apparentées, mais celle de la collaboration et de la participation profonde et semi-inconsciente de nos êtres propres et de nos subjectivités à toutes et tous.

Pasolini tisse la géopolitique et le pétrofascisme de l’or noir avec l’intime, l’avilissement, la dégradation morale. Il hybride la véritable histoire politique avec l’allégorie et les figures mythiques, au travers de l’épopée dérisoire d’un jeune bourgeois italien dédoublé, jouet d’autres puissants autant que de lui-même, lancé dans l’ascension sociale dans une société minée, « forée », « drillée » littéralement, de part en part, par le pétrole, et qui se précipite derrière les sourires, exactement comme la nôtre, vers l’effondrement.

Telle est la voie visionnaire où s’engage Pasolini sans peut-être le comprendre tout à fait : sur la voie d’une fiction s’emparant enfin de « l’impensable », de « l’irreprésentable » et du « grand dérangement » climatique. Il ramène le « non-humain » au sein même du corps, c’est-à-dire le carburant fossile et son « mal-être », barbouillé de faux plaisir, jusqu’aux entrailles, jusqu’au corps devenu insensé du héros, multi et dé-genré, incestueux, phallique et femelle tout à la fois.

« Nous sommes tous en danger », dira Pasolini dans sa toute dernière interview, quelques heures avant sa mort. « Tous victimes et tous coupables », rongés et envahis dans une société de l’hypermarchandisation par les désirs insatiables « de la possession et de la destruction ». « Il existe un désir de mort qui nous lie tous comme des frères. »

De cette étrange prophétie, un demi-siècle plus tard, emportés sans force vers l’abîme climatique par les énergies fossiles, nous pouvons mesurer la profondeur. De l’autre côté de l’Atlantique, à la même date, Donald Trump a alors 29 ans. Il entame le chemin à tous points de vue improbable, sauf pour Pasolini, par l’outrance et le virilisme devenus politiques, qui le conduira vers l’une des plus fantastiques et morbides [ ascensions sociales] de l’histoire humaine. La personnification de l’obscénité fossile.

The Conversation

Frédéric Caille ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.03.2026 à 16:06

Generative AI in business schools: friend or foe?

Constantin Ciachir, Associate Professor of Human Resource Management & Organizațional Behaviour, EM Lyon Business School
How can business schools best navigate the AI era? Does GenAI in higher education constitute a level playing field where educational inequality and diverse learning needs are concerned?
Texte intégral (1955 mots)

Since tools like ChatGPT burst into higher education, debate has focused on two extremes: either students are all committing underhanded academic fraud and plagiarism or Artificial Intelligence will magically revolutionise learning.

The latest research project I co-authored with Anna Holland, and carried out among recent Management graduates in the United Kingdom, suggests something more complicated and surprisingly more human.

Generative AI tools such as ChatGPT are increasingly used in business and management education for tasks like analysing cases, brainstorming ideas, and drafting reports, improving efficiency and personalised learning but also raising concerns about academic integrity and assessment design. AI literacy and ethical use of algorithmic tools are becoming essential managerial skills.

In a qualitative study focusing specifically on business students, we explored how they actually used ChatGPT in their final year and how they felt about it. To capture these experiences, we conducted 15 in-depth semi-structured interviews and thematically analysed them, focusing on how students used ChatGPT in their studies and how they perceived its impact on their academic work and their peers’ behaviour.

How much of a ‘no brainer’ is ChatGPT for research and assignments?

The students we interviewed described three overlapping concerns, which together help explain both their enthusiasm and their unease:

  • Immediacy: the practicality of a 24/7 study buddy

Students were open about the fact that ChatGPT had become part of their ordinary study toolkit, along with search engines and lecture recordings, but faster and more conversational in comparison. They used widely adopted large language model-driven technology to summarise articles, generate examples, explain complex theories in simpler language and help plan assignments. Several described it as a way to “get unstuck” when staring at a blank page.

What mattered most was not just usefulness but speed and emotional reassurance. Unlike professors’ office hours or e-mail, AI is instantly available and without judgement.

Some interviewees said they used ChatGPT to check whether they had understood a concept correctly before writing it up in their own words, or for suggestions on how to structure an essay.

For many, the new technology felt like having a private tutor who never sleeps. But whose convenience also raised deeper questions. If AI can always “rescue” you at the last minute, are you really learning, or just producing?

  • Equity: who gets the ‘good’ AI?

The students who took part in our study didn’t simply worry about whether AI was allowed. They also worried about who could access the most powerful tools. Those who paid for smarter, premium versions felt they were getting more accurate, more detailed support than peers sticking to free tools.

Some students saw this as just another form of educational inequality. Others were uneasy that success on assessments might increasingly depend on whether you could pay for better algorithms, but also whether they have the necessary skills to prompt the system for optimal results. Just because students are young, it does not automatically make them digitally native.

At the same time, several interviewees argued that AI could make higher education fairer. Students with dyslexia, ADHD or other conditions described using ChatGPT to help with planning, time management or turning rough notes into clearer sentences.

International students said it helped them write in more polished academic English. For them, AI felt less like “cheating” and more like “levelling up” – a reasonable adjustment or language support.

This tension, between AI as a leveller and AI as a new source of advantage, makes equity central to how students experience these tools.

  • Integrity: drawing the line in a grey area

All the students we spoke to knew that “copy-pasting from ChatGPT” into an assignment would be considered as cheating. But they also described a wide grey area where university rules felt vague or inconsistent.

Was it acceptable to ask ChatGPT for feedback on a draft paragraph? To suggest alternative headings? To generate a list of arguments they then follow up on themselves by accessing the original sources of information provided by ChatGPT? Different courses, and even different lecturers, gave different answers, leaving students unsure about what counts as legitimate assistance versus academic misconduct.

This uncertainty made some students anxious about being accused of misconduct even when they believed they were acting honestly.

Group work added another layer of risk: several participants feared that one team member might lean heavily on AI, triggering plagiarism-detection software or an investigation that could affect the whole group.

Is the ‘AI bias’ off-putting for graduate employers?

Beyond university rules, students worried about how employers would view their qualifications. A recurring theme was fear that future recruiters might dismiss recent graduates’ work as “AI-generated”, devaluing the years of effort they had invested. Even those who used ChatGPT sparingly felt that their cohort might be seen as “AI-made”, regardless of individual behaviour. This is an interesting finding in our study as not much empirical work has been done on this aspect. There is currently little to no evidence that employers broadly distrust university degrees because of GenAI.

The evidence we have to date suggests that hiring managers are increasingly sceptical of graduates’ application written work, but simultaneously seek graduates with AI skills.

The blurred relationship between student work and their ability may affect how credentials signal competence.

Employers have already increasingly turned to skills verification rather than credentials alone.

What universities should do next

Our findings suggest that universities need to move beyond simple messages about banning or embracing generative AI. Students are already integrating these tools into their everyday study. The question is whether institutions will help them do so transparently, equitably, and with academic integrity.

  • Firstly, rules about AI use need to be clearer and more consistent. Rather than broad warnings about “misuse of ChatGPT”, students need concrete, discipline-specific examples of what is allowed, and why. This includes acknowledging that some uses (for accessibility or language support, for instance) may be legitimate and even desirable.

  • Secondly, assessment design should focus more on process as well as product. Students could be asked to explain how they used AI in an assignment, reflect on its limitations and show the steps they took to verify information. This makes AI use visible and accountable, rather than something to hide by clearly stating where it was used in a piece of work, as students would for citing references in a footnote, for instance.

  • Thirdly, universities should consider equity explicitly. If some students can buy access to far more powerful tools than others, that has implications on fairness.

Institutions could respond by providing standardised AI tools, and teaching all students how to use them critically, or by redesigning assessments so that success depends less on access to premium systems.

In its latest Digital Education outlook report, Exploring Effective Uses of Generative AI in Education, the OECD urges education stakeholders to encourage “inclusive, trustworthy and meaningful uses of GenAI in education” in alignment with educational objectives.

Listening to students’ concerns about GenAI

The students in our study were not reckless rule-breakers or naive digital natives. They were thoughtful about the benefits and risks of AI, and keen to protect the value of their degrees.

If universities ignore this perspective, they risk sending out the message: “Integrity is only about catching cheats,” rather than about building trust. If, instead, they engage with students’ real experiences of immediacy, equity, and integrity, generative AI could become an opportunity to rethink what meaningful learning and fair assessment in higher education look like in the age of AI, rather than a threat that quietly undermines them.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Constantin Ciachir ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.03.2026 à 18:22

Comment lutter contre ces aliments ultratransformés poussés par des intérêts commerciaux, et non par les choix des consommateurs

Phillip Baker, ARC Future Fellow and Sydney Horizon Fellow, School of Public Health, University of Sydney, University of Sydney
Camila Corvalan, Full Professor of the Public Nutrition Unit of the Institute of Nutrition and Food Technology, Universidad de Chile
Carlos Monteiro, Professor at the Department of Nutrition of the School of Public Health, Universidade de São Paulo (USP)
Gyorgy Scrinis, Associate Professor of Food Politics and Policy, The University of Melbourne
Priscila Machado, NHMRC Emerging Leadership Fellow, Institute for Physical Activity and Nutrition, Deakin University
Sans réponse mondiale coordonnée, les aliments ultratransformés vont occuper une place croissante dans notre alimentation, et nuire à notre santé ainsi qu’à l’économie.
Texte intégral (2806 mots)
Nuggets, boissons gazeuses, chips, barres de céréales… les aliments ultratransformés sont fabriqués à partir d’ingrédients souvent modifiés par des procédés industriels, auxquels sont ajoutés additifs, colorants et autres émulsifiants. Tanya Barrow/Unsplash

Si les pouvoirs publics ne prennent pas les mesures qui s’imposent et en l’absence de réponse coordonnée au niveau mondial, les aliments ultratransformés vont occuper une place croissante dans notre alimentation et nuire à notre santé, mais aussi à l’économie. Cette mise en garde s’appuie sur trois articles scientifiques publiés dans The Lancet, une revue médicale de premier plan.


Les aliments ultratransformés sont en train de remplacer les aliments et repas traditionnels à l’échelle mondiale, en dégradant la qualité du régime alimentaire et en contribuant à l’augmentation des maladies chroniques liées à l’alimentation.

Et même si l’ensemble des dépenses publicitaires des principales entreprises qui commercialisent des aliments ultratransformés dépassent largement le budget total de l’Organisation mondiale de la santé (OMS), les gouvernements, les communautés et les professionnels de la santé peuvent faire beaucoup.

C’est ce que conclut la série de trois articles phares consacrée aux aliments ultratransformés que nous avons récemment publiés dans la revue The Lancet.

Ces produits sont fabriqués à partir d’ingrédients industriels et d’additifs alimentaires, qui contiennent généralement peu ou pas d’ingrédients intacts. On pourrait citer pour exemple les boissons gazeuses, les chips et de nombreuses céréales pour le petit-déjeuner.

Dans la classification Nova (présentées dans le schéma ci-dessous), les aliments et boissons sont répértoriés dans quatre groupes en fonction de leur degré de transformation :

  • Groupe 1 : Aliments non transformés ou transformés minimalement.
  • Groupe 2 : Ingrédients culinaires transformés.
  • Groupe 3 : Aliments transformés.
  • Groupe 4 : Aliments ultratransformés.

De notre point de vue, le problème ne réside pas dans un manque de volonté de la part des individus, mais tient avant tout à des considérations commerciales – il est le résultat d’une industrie puissante.

Ce que démontrent les données disponibles

Le premier article résume les données disponibles et montre que les aliments ultratransformés se répandent à l’échelle mondiale. La part des produits ultratransformés dans l’alimentation n’a cessé d’augmenter au fil des décennies dans les pays du monde entier.

Aux États-Unis, au Royaume-Uni et au Canada, leur part dans l’alimentation est à des niveaux élevés depuis des décennies (environ 50 % de l’apport énergétique quotidien). Les aliments ultratransformés constituent l’essentiel du régime alimentaire national. Il en va de même en Australie.

Deuxièmement, cette étude montre que les régimes riches en aliments ultratransformés favorisent la suralimentation et sont pauvres sur le plan nutritionnel : ils contiennent davantage de sucres, de graisses saturées et ont une densité énergétique plus élevée. En revanche, ils sont plus pauvres en fibres, en vitamines et minéraux essentiels, et contiennent moins d’aliments complets.

Troisièmement, cet article résume les risques que ces aliments ultratransformés font courir pour la santé. Nous avons mené une revue systématique de la littérature scientifique qui a inclus 104 études faites sur le long terme. Cette revue systématique a révélé que 92 de ces études faisaient état d’un risque accru de contracter une ou plusieurs maladies chroniques. Les méta-analyses de ces études ont confirmé des associations avec l’obésité, le diabète de type 2, l’hypertension artérielle, l’hypercholestérolémie (l’excès de cholestérol, ndlr), les maladies cardiovasculaires, la maladie rénale chronique, la maladie de Crohn, la dépression et la mortalité prématurée toutes causes confondues.

Il est essentiel de comprendre qu’il ne s’agit pas simplement d’une question d’« excès de sucre, de sel et de graisses ». Des essais cliniques ainsi que des études scientifiques montrent que quand les adultes suivent un régime alimentaire riche en aliments ultratransformés, ils consomment environ 500 à 800 calories supplémentaires par jour, prennent du poids ainsi que de la masse graisseuse, et mangent plus rapidement, par rapport à un régime non ultratransformé contenant les mêmes proportions de macronutriments. Cela s’explique probablement par la densité énergétique plus élevée, le goût appétissant et la texture moelleuse de ces aliments, qui favorisent la surconsommation.

De toute évidence, des recherches supplémentaires sont nécessaires. Cependant, les données disponibles sont désormais suffisamment solides pour justifier une réponse mondiale en matière de santé publique.

Les options sur le plan politique

Notre deuxième article présente les options politiques qui s’offrent aux gouvernements désireux de s’attaquer à ce problème. Quatre d’entre elles se distinguent particulièrement :

1. Modifier les produits : la reformulation – qui consiste à remplacer le sucre par des édulcorants ou les matières grasses par des additifs qui confèrent une texture similaire à celle des matières grasses – ne résout pas le problème. Les gouvernements pourraient plutôt fixer des limites pour une sélection d’additifs et utiliser des « marqueurs d’aliments ultratransformés » comme les colorants, les arômes et les édulcorants non sucrés (ainsi que les teneurs élevées en sucre, en graisses et en sel) pour identifier les produits ultratransformés à réglementer.

2. Améliorer l’environnement des produits alimentaires. Parmi les mesures fondées sur des données probantes, on peut citer :

  • L’adoption d’étiquettes d’avertissement obligatoires sur le devant des emballages, qui se révèlent efficaces pour informer les consommateurs et réduire les achats.

  • La protection des enfants de moins de 18 ans – en particulier sur les plateformes numériques – contre la publicité pour les aliments ultratransformés et le fait d’étendre ces protections au-delà des « heures réservées aux enfants ».

  • Des taxes sur les boissons sucrées (à 20 % minimum) ainsi que certains aliments ultratransformés ; et d’utiliser ces recettes financières pour subventionner les fruits, les légumes et les plats préparés sur place destinés aux ménages à faibles revenus.

  • La suppression des aliments ultratransformés des écoles, des hôpitaux et d’autres établissements publics, le fait de limiter la part des aliments ultratransformés dans les rayons des supermarchés et de réduire leur mise à disposition à proximité des écoles.

3. Limiter le pouvoir des entreprises : les gouvernements pourraient prendre davantage de mesures pour réglementer les gammes de produits des entreprises, ainsi que pour surveiller et limiter la part des ventes d’aliments ultratransformés ; il convient aussi de renforcer la politique de concurrence et d’envisager des réformes fiscales qui viseraient à limiter le pouvoir excessif de ce marché.

4. Réformer les subventions comme les chaînes d’approvisionnement : les gouvernements pourraient réorienter les subventions à l’agriculture afin de réduire le soutien accordé aux ingrédients issus de la monoculture utilisés dans les aliments ultratransformés (comme le maïs, le soja et le sucre), et d’aligner les politiques environnementales – concernant des questions telles que la réduction des plastiques ou l’utilisation de l’eau – sur les objectifs nutritionnels.

Le succès passera par des solutions sur mesure et coordonnées : il n’y a pas de recette miracle.

Lutter contre l’industrie des aliments ultratransformés

Notre troisième article s’interroge sur les raisons pour lesquelles les aliments ultratransformés envahissent l’alimentation humaine et sur la manière de mettre en place une réponse mondiale en matière de santé publique.

La réponse est la suivante : il faut s’attaquer au pouvoir des entreprises et à leur recherche de profit. Les aliments ultratransformés constituent le modèle économique le plus rentable du secteur alimentaire. Les plus grandes multinationales sont à la tête de réseaux mondiaux d’approvisionnement, de commercialisation et de lobbying qui élargissent les marchés, influencent la science ainsi que le débat public, et font obstacle à la réglementation.

Les fabricants d’aliments ultratransformés peuvent utiliser leurs bénéfices pour consacrer des sommes bien plus importantes au marketing, construire des usines, étendre la distribution de ces produits à l’échelle mondiale et financer des groupes de pression.

Par exemple, en 2024, les grandes entreprises agroalimentaires ont dépensé bien plus en publicité que l’ensemble du budget de fonctionnement de l’Organisation mondiale de la santé.

Les entreprises et les groupes qui y sont affiliés suivent le même scénario que les industries du tabac et des combustibles fossiles : du lobbying, du contentieux, de l’autorégulation et de la recherche scientifique qu’elles financent pour retarder la mise en place de mesures politiques.

Notre article plaide pour une réponse mondiale en matière de santé publique :

  • remettre en cause le modèle économique des aliments ultratransformés, en taxant leur production, en rendant obligatoire le recyclage des plastiques par les entreprises et en réorientant les ressources vers le soutien aux producteurs d’aliments sains et aux familles

  • protéger l’élaboration des politiques et la science contre toute ingérence, grâce à des mesures de prévention des conflits d’intérêts et à des règles d’engagement claires pour le secteur privé. Nous devons cesser de nous en remettre à l’autorégulation du secteur privé et recourir aux politiques publiques et à la législation.

  • former des coalitions pour mener des actions de plaidoyer auprès des décideurs politiques et favoriser les changements politiques, qu’il s’agisse de soutiens juridiques ou de communications stratégiques

Des sucettes disposées sur une étagère dans un magasin
Nos articles montrent que les aliments ultratransformés sont en train de supplanter les aliments et les repas traditionnels à l’échelle mondiale. Alan Pope/Unsplash

Nos études montrent que, sans mesures politiques ni réponse mondiale coordonnée, la part des aliments ultratransformés dans l’alimentation humaine continuera d’augmenter, au détriment de la santé, des économies, de la culture et de la planète. Il est temps d’agir.

The Conversation

Phillip Baker a reçu des financements de l'Australian Research Council, de Bloomberg Philanthropies et de l’Unicef pour des projets de recherche portant sur les aliments ultratransformés.

Camila Corvalan a a bénéficié de financements pour ses recherches de la part de l'Agence nationale chilienne de recherche (ANID), de Bloomberg Philanthropies et du Centre de recherches canadien pour le développement international (CRDI). Elle fait partie du groupe stratégique de la Communauté de pratique sur la nutrition et la santé en Amérique latine et dans les Caraïbes (COLANSA), du Next Generation Leadership Collective et de l'Alianza Global para la Alimentación Saludable de Niñas, Niños y Adolescentes en Amérique latine. Elle est membre du groupe de travail sur les politiques et la prévention de la Fédération mondiale de l'obésité et du groupe de travail sur les aliments ultratransformés de l'Union internationale des sciences de la nutrition (IUNS). Elle occupe actuellement le poste de présidente de la Société latino-américaine de nutrition.

Gyorgy Scrinis a reçu des financements de Bloomberg Philanthropies destinée à financer les travaux de recherche menés dans le cadre de la série publiée dans « The Lancet ».

Priscila Machado a reçu des financements accordés par le Conseil national de la santé et de la recherche médicale (NHMRC), la Fondation australienne pour le cœur, la Fondation de recherche de São Paulo et le réseau thaïlandais Sweet Enough Network/ThaiHealth pour des projets de recherche portant sur les aliments ultratransformés.

Carlos Monteiro ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.03.2026 à 17:53

Déterminer la forme de la Terre : une aventure scientifique et politique entre la France et le Royaume-Uni

Étienne Ghys, Mathématicien, directeur de recherche émérite CNRS, ENS de Lyon; Académie des sciences
Quelle est la forme exacte de la Terre ? Est-elle aplatie ou plutôt allongée aux pôles ? La question a agité les milieux scientifiques anglais et français pendant plusieurs siècles.
Texte intégral (2143 mots)
Charles-Marie de La Condamine, « Mesure des trois premiers degrés du méridien dans l’hémisphère austral », illustration tirée des _Observations de Messieurs de l’Académie royale des sciences, envoyés par le roi sous l’équateur_, Paris, Imprimerie royale, 1751. Archives de l’Académie des sciences, RES 126, Fourni par l'auteur

Quelle est la forme exacte de la Terre ? Est-elle aplatie ou plutôt allongée aux pôles ? La question a agité les milieux scientifiques des deux côtés de la Manche pendant plusieurs siècles. Pour tout savoir de cette controverse scientifique, l’Académie des sciences et la Royal Society de Londres présentent, du 1er avril au 20 juin 2026, l’exposition « La figure de la Terre. Un débat franco-anglais (XVIIᵉ-XXIᵉ siècle) », dans les locaux de la bibliothèque Mazarine, au cœur de l’Institut de France, à Paris.


On pourrait croire la question définitivement réglée : la Terre est ronde. Et pourtant, des enquêtes récentes indiquent qu’environ 8 % de nos concitoyens ne sont pas pleinement convaincus qu’elle le soit. Ce chiffre ne traduit pas seulement une méconnaissance. Selon moi, il révèle surtout une défiance. Ce n’est pas tant la rotondité de la Terre qui est contestée que l’autorité de ceux qui l’affirment. Le doute vise les « sachants », les institutions, les discours officiels. Face à ce phénomène, l’ironie ou l’indignation ne suffisent pas. Il faut peut-être s’interroger sur la manière dont nous racontons l’histoire des sciences, sur ce que nous transmettons, et sur ce que nous omettons.

On a longtemps enseigné que le Moyen Âge aurait cru la Terre plate et que la science moderne aurait progressivement dissipé cette erreur. Ce récit commode est historiquement faux. Depuis l’Antiquité grecque, les savants savent que la Terre est sphérique. Lors des éclipses de Lune, l’ombre projetée par la Terre est toujours circulaire (elle aurait une forme d’ellipse si la Terre était un disque plat) ; les étoiles visibles changent lorsqu’on voyage vers le nord ; au IIIᵉ siècle avant notre ère, Ératosthène mesurait déjà le périmètre terrestre avec une précision remarquable. La rotondité de la Terre n’est pas une conquête récente : elle appartient au patrimoine intellectuel de l’humanité depuis plus de deux millénaires.

Mais ce savoir était longtemps celui des lettrés. Les paysans, les artisans, les marins ordinaires, ceux qui ne lisaient ni Aristote ni les traités d’astronomie, n’avaient sans doute pas de représentation précise de la forme globale du monde. Leur univers était celui de l’horizon familier, du champ, du village, du port. La Terre était vécue, non pensée à l’échelle planétaire. Il ne s’agissait pas d’erreur, mais souvent d’indifférence : la question ne se posait pas. La science progresse d’abord dans des cercles restreints avant de devenir culture commune. Cette distance historique entre savoir savant et imaginaire ordinaire est peut-être l’une des clés de la fragilité contemporaine du consensus scientifique.

La triangulation, une affaire de patience

Au XVIIᵉ siècle, la question change de nature. On ne se contente plus de savoir que la Terre est ronde : on veut désormais la mesurer précisément. En France, sous l’impulsion de la dynastie des Cassini, l’Académie des sciences entreprend de déterminer la longueur d’un degré de latitude. La latitude se mesure par l’angle que fait l’étoile Polaire avec l’horizon : lorsqu’on se déplace vers le nord, cet angle augmente. Il suffit donc, en principe, de mesurer la distance parcourue pour une variation d’un degré afin d’estimer la dimension du globe.

La méthode employée est un chef-d’œuvre de rigueur : la triangulation. On mesure avec un soin extrême la longueur d’un segment sur le terrain puis, depuis des points élevés – collines, tours, clochers –, on observe les angles formés avec d’autres repères visibles à des dizaines de kilomètres. De triangle en triangle, on reconstitue ainsi de vastes distances. C’est une science de patience, d’équipes, d’instruments perfectionnés et d’erreurs soigneusement évaluées. La Terre devient un objet mesurable, arpenté, calculé.

Pierre Bouguer. La figure de la Terre. Déterminée par les Observations de Messieurs Bouguer & de La Condamine, de l’Académie royale des sciences, envoyés par ordre du roi au Pérou, pour observer aux environs de l’équateur. Paris : Jombert, 1749. Académie des sciences, CC BY

Au même moment, en Angleterre, Isaac Newton publie les Principia. Il y expose la théorie de la gravitation universelle et s’interroge sur la forme précise du globe. Si la Terre tourne sur elle-même en vingt-quatre heures, la force centrifuge doit légèrement l’aplatir aux pôles et la faire gonfler à l’équateur. À partir d’une observation apparemment modeste, la différence de période d’un pendule entre l’équateur et Cambridge, Newton réalise une expérience de pensée extraordinaire et estime l’ampleur de cet aplatissement. Pour la première fois, une théorie physique prétend prédire la forme même de la planète.

La rivalité entre la France et l’Angleterre devient scientifique

Les premières mesures françaises semblent pourtant indiquer l’inverse : la Terre serait allongée aux pôles. La controverse s’installe. Derrière le débat scientifique se profile une rivalité ancienne entre la France et l’Angleterre, nations proches, concurrentes et pourtant intimement liées par l’histoire. Pour trancher, l’Académie des sciences décide d’envoyer deux expéditions : l’une en Laponie, près du cercle polaire, l’autre à l’équateur. Il faut mesurer à nouveau, comparer, calculer. Les conditions sont extrêmes, les instruments fragiles, les incertitudes nombreuses. Mais le verdict tombe : la Terre est bien légèrement aplatie aux pôles. Les savants français, par leurs propres observations, confirment la prédiction newtonienne.

Cette victoire de la théorie newtonienne n’efface en rien l’héroïsme scientifique des expéditions. Voltaire, qui fut l’un des plus ardents défenseurs de Newton en France, en a donné une formule restée célèbre, s’adressant à Maupertuis :

« Vous avez trouvé dans les glaces, au milieu des ennuis, ce que Newton trouva sans sortir de chez lui. »

En quelques vers, il résume admirablement la tension féconde entre le travail de terrain, long et éprouvant, et la puissance de l’abstraction théorique. L’un ne va pas sans l’autre : sans hypothèse, pas d’expédition ; sans mesure, pas de confirmation. La science avance ainsi : en acceptant que les faits corrigent les hypothèses, même lorsque cela contredit des traditions prestigieuses.

À la fin du XVIIIᵉ siècle, la Révolution française engage une nouvelle étape. Il s’agit de créer un système de mesures universel, affranchi des usages locaux. Le mètre sera défini comme la dix-millionième partie du quart du méridien terrestre. La Terre devient l’étalon commun de l’humanité. De nouvelles campagnes de mesure sont entreprises pour fixer cette unité. La géodésie (l’étude de la forme de la Terre) rejoint alors des enjeux politiques et économiques : maîtriser la longitude en mer, c’est maîtriser les routes commerciales et la puissance navale. La mesure du globe participe désormais à l’histoire des empires.

Une aventure qui ne s’arrête pas

L’histoire ne s’achève pas avec l’ellipsoïde newtonien. La Terre réelle n’est ni parfaitement sphérique ni exactement régulière. Les masses internes, les reliefs, les océans introduisent des irrégularités que l’on regroupe sous le nom de « géoïde ». Au XIXᵉ siècle, des mathématiciens, comme Henri Poincaré, s’interrogent sur la stabilité des corps en rotation et développent des concepts qui éclairent aussi la compréhension des formes planétaires. Aujourd’hui, grâce aux satellites et à l’altimétrie spatiale, la surface moyenne des océans est connue avec une précision centimétrique. Du bâton d’Ératosthène aux instruments orbitaux, c’est une même quête intellectuelle et technique qui se poursuit.

C’est cette aventure, scientifique autant que politique, que retrace l’exposition organisée conjointement par la Royal Society et l’Académie des sciences. Présentée d’abord à Londres, elle est aujourd’hui accueillie à Paris, à la bibliothèque Mazarine de l’Institut de France. Manuscrits, cartes, instruments, carnets de terrain, correspondances témoignent de ces débats, de ces voyages et de ces calculs. On y voit comment des savants parfois rivaux ont appris au fil du temps à confronter leurs théories au réel, à mesurer leurs erreurs, à dialoguer au-delà des frontières.

À l’heure où certains doutent encore de la rotondité de la Terre, il n’est pas inutile de revenir à cette histoire longue et complexe. Elle rappelle que la science n’est ni un dogme ni une vérité révélée, mais une construction patiente, collective, souvent conflictuelle, toujours ouverte à la révision. Comprendre comment nous avons mesuré la Terre, c’est comprendre comment se fabrique la connaissance. Et c’est peut-être aussi une manière, aujourd’hui, de reconstruire la confiance dans le savoir.

The Conversation

Étienne Ghys ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.03.2026 à 17:52

Aliments ultratransformés : Comment aider les consommateurs à les repérer et à les éviter ?

Pierrick Gomez, Professeur associé de marketing, Neoma Business School
La liste des ingrédients sur les emballages des produits pourrait se révéler un levier intéressant pour aider les consommateurs à repérer les aliments ultratransformés. On fait le point.
Texte intégral (1752 mots)

La question de l’ultratransformation des aliments constitue aujourd’hui un enjeu majeur tant pour l’industrie agroalimentaire que pour les pouvoirs publics. La liste d’ingrédients, information obligatoire qui figure sur les emballages alimentaires, apparaît comme un outil intéressant pour aider les consommateurs à repérer ces aliments dans les rayons. Toutefois, son efficacité reste à établir.


L’offre d’aliments ultratransformés occupe une place prépondérante sur les rayons de produits alimentaires de nombreux pays occidentaux, alors même que les consommateurs demeurent encore peu nombreux à savoir ce que recouvre cette catégorie et comment l’identifier.

Cette situation est problématique car la question de l’ultratransformation des aliments constitue aujourd’hui un enjeu majeur de santé publique. De nombreuses études scientifiques mettent en évidence une association entre la consommation d’aliments ultratransformés et un risque accru de diverses maladies chroniques, voire de mortalité.

Or, en dehors de leurs croyances personnelles, les consommateurs disposent de peu d’indices tangibles leur permettant de déterminer si un produit est ultratransformé, ou non.

À retenir

  • C’est quoi les aliments ultratransformés ? Biscuits et pains industriels, barres chocolatées, soupes en poudre, nuggets… on parle d’aliments ultratransformés pour désigner des aliments obtenus à partir d’ingrédients traditionnels qui ont subi diverses transformations industrielles (ajout d’huiles hydrogénées, « cracking » ou fractionnement d’un aliment brut en plusieurs ingrédients…) et auxquels ont été ajoutés des additifs, des colorants, des émulsifiants, etc.
  • Pourquoi les industriels procèdent-ils à ces transformations ? Ces procédés ont pour but de conférer un certain nombre de propriétés aux aliments (améliorer la texture ou le goût, allonger la durée de conservation…).
  • À ce jour, il n’existe pas de consensus concernant la définition des aliments ultratransformés, selon l’Agence nationale de sécurité sanitaire (Anses). Toutefois, parmi les différentes classifications fondées sur le degré de transformation des produits, les études épidémiologiques menées pour évaluer les effets sanitaires potentiels des aliments ultratransformés utilisent le plus souvent la classification Nova, développée par des chercheurs brésiliens.

Pour l’heure, la liste d’ingrédients constitue la principale source d’information figurant sur les emballages qui permet aux consommateurs d’identifier le degré de transformation des aliments, notamment parce qu’elle leur donne accès à la composition des produits qu’ils achètent.

Pourtant, on sait encore peu de choses sur son usage réel par les consommateurs et sur sa capacité à les aider à repérer et à éviter les aliments ultratransformés. Qui lit la liste d’ingrédients ? Cette information suffit-elle à orienter les choix vers des produits moins transformés ? Des avertissements sanitaires placés sur la face avant des emballages seraient-ils plus efficaces à cet égard ?

Nous avons cherché à apporter des éléments de réponse dans un article récemment publié dans Journal of Consumer Policy qui repose sur trois études expérimentales menées auprès de 1 088 consommateurs états-uniens et britanniques.

Qui lit la liste des ingrédients sur les emballages ?

Dans une première étude, nous nous sommes intéressés aux usages de la liste d’ingrédients et avons observé qu’environ 43 % des participants déclaraient la consulter régulièrement lors de leurs achats alimentaires. Ce résultat est déjà instructif : il montre que cet usage n’est pas marginal, tout en suggérant que plus de la moitié des consommateurs ne la consultent qu’occasionnellement, voire pas du tout.

Surtout, nos analyses indiquent que cet usage est fortement influencé par des caractéristiques individuelles. Les utilisateurs fréquents déclarent de meilleures compétences culinaires et un niveau de connaissance plus élevé en matière d’aliments ultratransformés, manifestent une préférence marquée pour les aliments naturels et se montrent plus attentifs à leur santé.

Autrement dit, l’usage de la liste d’ingrédients semble associé à des facteurs qui ne sont pas également répartis au sein de la population. Dès lors, s’appuyer sur cet outil pour orienter les choix alimentaires risque de renforcer certaines inégalités. Des analyses complémentaires mettent d’ailleurs en évidence des différences d’usage significatives selon le niveau d’éducation.

Longueur ou contenu : quelle caractéristique de la liste d’ingrédients influence les intentions d’achat ?

Le caractère ultratransformé d’un aliment peut, en théorie, s’apprécier à travers deux dimensions de la liste d’ingrédients : sa longueur (plus la liste est longue, plus on peut soupçonner un degré de transformation élevé) et son contenu (présence d’additifs et d’ingrédients d’origine industrielle). Dans une deuxième étude expérimentale, nous avons précisément isolé ces deux dimensions afin d’évaluer leur influence sur les évaluations des consommateurs.

Les participants devaient évaluer un pain industriel emballé, avec la possibilité d’accéder à la liste d’ingrédients figurant au dos de l’emballage, laquelle variait selon le contenu (modérément versus fortement transformé) et la longueur (liste courte versus longue). Par rapport à la première étude, une proportion plus élevée de participants (66 %) a choisi d’examiner la liste d’ingrédients.

Les résultats sont sans ambiguïté : le contenu de la liste l’emporte largement sur sa longueur. La présence d’additifs et d’ingrédients perçus comme industriels accroît significativement la perception de transformation du produit. Ce résultat est cohérent avec un mécanisme psychologique bien documenté en comportement du consommateur, à savoir le biais de négativité : les consommateurs accordent davantage de poids à des signaux négatifs, facilement identifiables (additifs, ingrédients industriels), qu’à la longueur de la liste dont l’interprétation reste ambiguë (un aliment peut comporter un nombre conséquent d’ingrédients sans être ultratransformé).

Un autre résultat mérite toutefois d’être souligné : bien que la présence d’additifs dans la liste modifie les perceptions, elle ne réduit pas directement l’intention d’achat du produit ultratransformé.

Ainsi, le degré de transformation ne constitue qu’un critère de choix parmi d’autres : le prix, le goût, la praticité ou encore les bénéfices perçus pour la santé peuvent peser davantage dans la décision et neutraliser l’effet de la liste d’ingrédients.

Un avertissement sur la face avant de l’emballage peut-il changer la donne ?

La troisième étude examine l’effet additionnel d’un outil plus facilement accessible et interprétable par les consommateurs : un avertissement sanitaire apposé sur la face avant de l’emballage qui signale le caractère ultratransformé des produits. Les participants recrutés devaient choisir entre trois barres de céréales présentant des niveaux de transformation différents (modérément versus fortement transformé), avec ou sans avertissement. Ils avaient par ailleurs accès à leurs compositions.

Les résultats sont sans équivoque : la présence d’un avertissement accroît fortement la probabilité de choisir le produit le moins transformé. La part de choix en faveur de l’option modérément transformée passe ainsi de 39,6 % en l’absence d’avertissement à 62,7 % lorsqu’un avertissement est présent. L’avertissement renforce la capacité des consommateurs à distinguer les produits selon leur degré de transformation et à orienter leurs choix en conséquence.

Quelles implications en matière de santé publique ?

Au final, la liste d’ingrédients apparaît comme un outil utile mais insuffisant. Elle est utilisée par un nombre limité de consommateurs et si elle permet à certains d’identifier les produits transformés, davantage à travers son contenu que sa longueur, elle ne génère pas une impulsion suffisante pour influencer directement l’intention d’achat.

Ainsi, en l’absence d’outils complémentaires, son usage risque de laisser de côté les consommateurs les moins motivés, renforçant ainsi des inégalités d’accès à l’information. À l’inverse, un avertissement simple et visible apposé sur la face avant des emballages semble nettement plus efficace pour que l’identification des produits ultratransformés se traduise en choix effectifs.

Ces résultats devront être répliqués dans des situations d’achat réelles, en interaction avec d’autres dispositifs existants (par exemple l’étiquetage nutritionnel Nutri-Score présent sur les emballages des produits alimentaires, des allégations relatives au pourcentage d’ingrédients naturels dans la composition et autres « clean labels » qui promeuvent une alimentation plus saine, ainsi que dans d’autres contextes culturels.

Ces travaux dessinent néanmoins une orientation claire pour les décideurs en santé publique : si l’objectif est d’orienter les choix des consommateurs vers des aliments moins transformés, la seule liste d’ingrédients risque de ne pas suffire ; des instruments plus persuasifs, tels que des avertissements sanitaires spécifiques, apparaissent dès lors nécessaires.

The Conversation

Pierrick Gomez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.03.2026 à 17:50

Droits humains et droits de la nature, pivots d’un développement vraiment durable

Farid Lamara, Responsable de programmes de recherches, Agence Française de Développement (AFD)
Les droits humains et les droits de la nature sont deux chaînons manquants aux efforts de la communauté internationale pour parvenir à la réalisation des ODD.
Texte intégral (2835 mots)

Toutes les données disponibles indiquent que l’Agenda 2030 adopté en septembre 2015 par les 193 États membres de l’Organisation des Nations unies sera loin d’être mené à bien dans le délai imparti. Dans un contexte de recul massif des démocraties et des droits humains, d’explosion des inégalités, de rétrécissement de l’espace civique et de dépassement des limites planétaires, l’approche fondée sur les droits (humains et du vivant), qui n’a été que très partiellement intégrée par la communauté internationale dans la déclinaison opérationnelle des Objectifs de développement durable, apparaît comme un levier plus nécessaire que jamais.


Les États membres des Nations unies ont adopté à l’unanimité en 2015, le programme de développement durable. Il entend garantir un développement qui « répond aux besoins du présent sans compromettre la capacité des générations futures à répondre aux leurs » (rapport Brundtland de 1987, « Notre avenir commun »). Cet agenda déroule 17 Objectifs du développement durable (ODD) et décline 169 cibles à atteindre en 2030. Elles représentent le cadre de redevabilité du programme.

Aucun des 17 Objectifs de développement durable (ODD) n’est spécifiquement consacré aux droits humains. Ceux-ci, en réalité, sont partout – au cœur de la vie sociale, économique, culturelle, civile et politique de tous les habitants du monde, mais également au centre des enjeux écologiques contemporains, ce qu’a acté l’Assemblée générale des Nations unies en 2022 par une résolution historique reconnaissant le droit à un environnement sain comme un droit humain.

Selon le Danish Institute for Human Rights (DIHR), 92 % des cibles des ODD sont ancrées dans le droit international des droits humains. La promotion, le respect et la protection des droits humains constituent donc la colonne vertébrale des ODD.

La « soutenabilité forte », condition pour préserver la nature et l’universalité des droits humains

Dans l’ensemble, les ODD combinent les enjeux écologiques, économiques, de développement humain et de gouvernance. Mais plusieurs visions fondées sur des hypothèses économiques et écologiques différentes se confrontent sur la manière de les réaliser. On parle de soutenabilité faible ou forte. Cette dernière est un concept qui vise à renforcer le développement durable en évitant que les politiques économiques compromettent (ou sacrifient) le développement humain, l’environnement ou la nature. Contrairement à la soutenabilité faible (technosolutionniste, fondée sur les concepts de la substituabilité du capital naturel), la soutenabilité forte pose pour principe que le capital naturel est irremplaçable et doit être préservé.

On retiendra trois principes de la soutenabilité forte : la finitude de la nature ; la justice sociale ; et les limites de la croissance économique. Dans cette vision, l’approche fondée sur les droits humains et celle fondée sur les droits de la nature sont essentielles pour un développement véritablement durable. Il s’agit ici de reconnaître la nature — écosystèmes et entités naturelles – comme sujet de droit. Aujourd’hui, plus de 650 initiatives de reconnaissance des droits de la nature sont répertoriées. Sans ces approches, le système actuel aggrave les inégalités et menace l’habitabilité de la planète.

C’est ce que documentent plusieurs recherches et conférences internationales de l’Agence française de développement (AFD) consacrées à l’analyse des enjeux croisés entre les droits humains et le développement durable, avec des angles d’études spécifiques tels que la transition écologique, les inégalités multidimensionnelles ou encore les droits de la nature. Mais également les travaux conduits par l’AFD avec le DIHR sur les questions relatives aux droits humains et aux politiques climatiques.

De cet ensemble, il ressort que la crise écologique (anthropique) aggrave les inégalités et affaiblit massivement les droits humains tant substantifs (droit à la vie, à la santé, à l’alimentation, à l’habitat, etc.) que procéduraux (droit de participation, d’information, de réparation), et en premier lieu ceux des populations en situation de vulnérabilité : enfants, femmes, peuples autochtones et communautés locales, défenseurs des droits humains et de l’environnement, migrants et déplacés.

Pourtant, la gouvernance environnementale reste défaillante, les États et le secteur privé se limitant généralement à une démarche de réduction des risques (« ne pas nuire ») sans redevabilité ni vision intégrée et pro-active des droits humains, du droit à un environnement sain et des droits de la nature. Il apparaît ainsi urgent de proposer des modèles alternatifs intégrant redevabilité, justice (sociale et environnementale) et participation citoyenne pour concilier écologie et droits humains dans une approche écocentrée et non plus anthropocentrée.

En particulier à l’heure où les limites planétaires sont largement dépassées.

Les limites planétaires sous le prisme des droits humains

Ces limites (voir graphiques ci-dessous) définissent l’espace opérationnel sûr pour l’humanité par rapport au système terrestre et sont associées aux sous-systèmes ou processus biophysiques de la planète. Aujourd’hui, 7 limites sur 9 sont dépassées. Et depuis l’adoption des ODD en 2015, 3 l’ont été.

Stockholm Resilience Centre. Cliquer pour zoomer

Au-delà de l’impact majeur sur la nature, les impacts sur les droits humains sont systémiques. Pour le droit à la santé par exemple, il est démontré que chaque limite planétaire a des conséquences directes sur la santé humaine, animale et des écosystèmes.

Pour la santé humaine, les pollutions chimiques (pesticides, plastiques, polluants éternels) génèrent des maladies chroniques multiples et une croissance des cancers. La seule pollution de l’air provoque plus de 4 millions de décès annuels à l’échelle planétaire. Les décès prématurés liés aux vagues de chaleur (climat), à la malnutrition (changement du cycle de l’eau) ou encore à la dégradation des sols ou à la chute de la biodiversité alourdissent plus encore le bilan sanitaire et la mortalité humaine, en premier lieu pour les populations les plus pauvres, qui plus est dans un monde régi par un modèle profondément asymétrique et inégalitaire.

Les inégalités comme moteur de la crise écologique et du recul des droits humains

Selon le rapport 2025 sur les inégalités climatiques du World Inequality Lab, les 50 % les plus pauvres de la population mondiale émettent 10 % des gaz à effet de serre (GES), soit bien moins que les émissions des 1 % les plus riches. Ces derniers sont par ailleurs responsables à eux seuls de 41 % des GES liés à la détention d’actifs (financiers et non financiers).

Par ailleurs, les 50 % les plus pauvres ne sont pas seulement les moins responsables. Ils sont également les plus exposés aux pertes et dommages tout en ayant le moins de capacités financières pour y faire face. Et si l’on regarde les inégalités en matière de revenu et de patrimoine, on constate que les 10 % les plus riches de la planète captent plus de revenus que les 90 % restants. Au global, bien que les inégalités croissent fortement à l’intérieur des pays depuis plusieurs décennies, ces résultats indiquent de très fortes asymétries Nord/Sud. Or plus les inégalités croissent, plus les capacités à faire valoir ses droits diminuent.

Les inconséquences d’un modèle asymétrique et inégal sur l’Agenda 2030

Dans ces conditions, les résultats attendus de l’agenda 2030 sont loin d’être atteints. Le rapport 2025 des Nations unies sur les ODD montre que sur les 169 cibles des ODD, seules 18 % sont atteintes ou en passe de l’être en 2030. Et 66 % d’entre elles indiquent des progrès marginaux, en stagnation ou en régression.

The Sustainable Development Goals Report 2025

L’analyse plus détaillée, ODD par ODD, indique que plusieurs d’entre eux n’atteindront aucune cible d’ici à 2030. C’est le cas notamment pour les ODD 1 (pauvreté), 5 (genre), 6 (eau), 16 (Paix, justice et institution fortes). Alors que les ODD 2 (faim), 3 (santé), 4 (éducation), 10 (inégalités) et 13 (climat) ne devraient n’en atteindre qu’une seule.

Considérant que les droits humains sont la colonne vertébrale des ODD, ces résultats démontrent que les enjeux de justice restent marginaux dans leur déclinaison opérationnelle. Or, le recul des démocraties, le déclin des droits humains et le rétrécissement extrême de l’espace civique — qui se traduit par exemple par la censure, la répression violente des journalistes, des défenseurs des droits et de l’environnement, des manifestants pacifiques, etc. — dans le monde sont autant de freins supplémentaires à leur réalisation.

Aujourd’hui, selon le Civicus Monitor, seuls 7,2 % de la population mondiale vit dans un espace civique « ouvert » ou « rétréci ». Le reste dans un espace « entravé » (19,9 %), réprimé (42,3 %) ou fermé (30,7 %).

Il devient ainsi urgent que la communauté internationale en général et les acteurs du développement en particulier donnent toute leur place aux approches fondées sur les droits humains et du vivant dans la réalisation de l’Agenda 2030.

Civicus Monitor

Droits humains et droits de la nature, une symbiose vitale pour les générations futures

Pour ce faire, il faudra considérer les enjeux liés au modèle économique dominant ainsi qu’à la gouvernance mondiale. Ce qui dépasse largement la sphère juridique. Néanmoins, les droits de la nature constituent des leviers puissants pour renforcer les droits humains et vice versa, ce qu’a récemment reconnu l’Union internationale pour la conservation de la nature (IUCN) par l’adoption de plusieurs résolutions.

Ainsi, l’approche fondée sur les droits humains et du vivant devrait être intégrée dans toutes les politiques publiques pour la réalisation des ODD dans une optique de soutenabilité forte. C’est bien ce que dit la décision de la COP15 de Kunming-Montréal sur la diversité biologique qui appelle à des actions en faveur de la Terre nourricière, c’est-à-dire d’une « approche écocentrique et fondée sur les droits, propice à la mise en œuvre d’actions visant à établir des relations harmonieuses et complémentaires entre les populations et la nature, à promouvoir la pérennité de tous les êtres vivants et de leurs communautés et à éviter la marchandisation des fonctions environnementales de la Terre nourricière ».

The Conversation

Farid Lamara ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.03.2026 à 17:45

La position délicate de la Turquie face à la guerre en Iran

Albert Kandemir, Chercheur doctorant contractuel en Relations internationales, Université Paris-Panthéon-Assas
Membre de l’Otan, hostile à bien des égards à l’Iran qu’elle a longuement affronté par « proxys » interposés en Syrie, la Turquie ne souhaite pas pour autant une chute de la République islamique.
Texte intégral (3212 mots)

Pour la Turquie, la République islamique d’Iran est à la fois une rivale en matière de suprématie régionale et un modèle idéologique très différent du sien. Mais Téhéran est aussi un fournisseur d’énergie important, un partenaire en matière de répression des combattants kurdes. Globalement, c’est un voisin encombrant, mais dont Ankara a appris à s’accommoder. Une éventuelle chute du régime iranien pourrait, en outre, s’accompagner d’un afflux de réfugiés sur le territoire turc. Au-delà de la condamnation de la guerre, d’autant que celle-ci est conduite en large partie par Israël, avec qui la Turquie est à couteaux tirés, le gouvernement d’Erdogan cherche donc à jouer les médiateurs pour éviter une déstabilisation majeure de l’ensemble du Proche-Orient.


Lorsque l’on décrit la nature des relations pluriséculaires entre l’Iran et la Turquie, de nombreux analystes considèrent que le traité de Zuhab (1639) a été un point de bascule. En effet, cet accord mit fin à près de 150 ans de conflits entre l’Empire ottoman et l’Empire safavide et fixa la frontière entre les deux États. Certains vont jusqu’à affirmer que ce traité a survécu aux hommes et aux siècles, et n’a jamais été remis en cause. En réalité, de nombreux conflits ont surgi après le traité de Zuhab. Seulement, à l’issue de chacune des guerres, les deux empires sont systématiquement revenus à une frontière proche de celle définie en 1639. Ainsi s’est établi un équilibre des puissances structurel entre le monde turc et le monde perse : ni l’un ni l’autre n’a jamais réussi à absorber ou à détruire le voisin.

Cet équilibre a favorisé l’émergence d’une culture diplomatique complexe de la coexistence contrainte qui perdure aujourd’hui et qui explique le sang-froid et la prudence de la Turquie vis-à-vis de la guerre initiée par Israël et les États-Unis contre l’Iran le 28 février 2026.

La coexistence contrainte : des relations oscillant entre méfiance structurelle et pragmatisme

Si la Turquie et l’Iran étaient après la Seconde Guerre mondiale des partenaires enracinés dans le camp occidental et unis par le Pacte de Bagdad (1955), cette alliance prit fin après la révolution islamique (1979), Téhéran ayant érigé une théocratie aux frontières de la Turquie, dont la laïcité est un pilier national. Cependant, les divergences idéologiques furent rapidement mises au second plan au bénéfice d’un pragmatisme qui perdure encore aujourd’hui et qui repose sur quatre fondements.

Tout d’abord, l’interdépendance économique. En effet, lors de la guerre Iran-Irak (1980-1988), la Turquie fut un débouché économique majeur pour l’Iran. Aujourd’hui encore, l’Iran est le troisième fournisseur de gaz d’Ankara derrière la Russie et l’Azerbaïdjan. Dans un contexte où l’économie iranienne fonctionne au ralenti et où la Turquie est totalement dépendante des fournisseurs d’énergie étrangers, les deux pays se trouvent donc dans une situation de besoins mutuels.

Ensuite, l’Iran, bien qu’il entretienne des relations économiques et stratégiques avec la Russie et la Chine, est un pays plus ou moins isolé à l’échelle internationale en raison des sanctions américaines et de son soutien à des organisations considérées comme terroristes par des pays occidentaux comme le Hezbollah libanais ou les Houthis yéménites. La Turquie, en revanche, est à la fois partenaire économique de la Russie, intégrée aux nouvelles routes de la soie chinoises… et membre de l’OTAN. La relation avec Ankara offre donc à l’Iran une forme de désenclavement régional et international. D’ailleurs, la Turquie s’est largement impliquée en tant qu’intermédiaire dans les négociations entre la République islamique et les Occidentaux sur le nucléaire iranien.

En outre, les deux pays partagent une culture répressive contre toute velléité d’autonomie politique kurde (rappelons que les Kurdes représentent environ un quart de la population en Turquie et un cinquième de la population en Iran).

Zones où les Kurdes sont présents en nombre. Jacques Leclerc, 2023/Université Laval

Ainsi, pendant la guerre civile syrienne, malgré leurs divergences, Ankara et Téhéran ont parfois collaboré afin de neutraliser des positions kurdes. De façon générale, les autorités turques et iraniennes assument leur coopération afin de lutter contre les organisations kurdes classifiées comme terroristes, notamment le PKK (Parti des travailleurs du Kurdistan) et le PJAK (Parti pour une vie libre au Kurdistan), les deux organisations appartenant à l’Union des communautés du Kurdistan, accusée d’œuvrer au démembrement de la Turquie et de l’Iran et d’être soutenue par des puissances extérieures, notamment Israël et les États-Unis.

C’est là qu’un autre déterminant apparaît dans les relations entre Ankara et Téhéran : la méfiance vis-à-vis de l’État hébreu.

Pourquoi la Turquie craint une victoire politique et militaire israélienne contre l’Iran

Pour comprendre la position turque vis-à-vis de la guerre en Iran, il faut donc partir de trois postulats. Tout d’abord, la prudence turque ne traduit en rien une affinité idéologique d’Ankara à l’endroit de Téhéran. Comme évoqué ci-dessus, la Turquie est largement dépendante des fournitures de gaz en provenance d’Iran. De plus, en raison des différents conflits régionaux, la Turquie est devenue le deuxième pays comptant le plus de réfugiés au monde – spécialement des Syriens. Cette situation provoque de nombreuses tensions sociales, économiques et politiques. L’une des motivations du soutien turc aux groupes rebelles ayant contribué au renversement de Bachar Al-Assad syriens résidait d’ailleurs dans le refus persistant de ce dernier de négocier les conditions d’un retour des trois millions de réfugiés syriens présents en Turquie. Or l’Iran est le pays accueillant le plus de réfugiés au monde, très majoritairement des Afghans. Un renversement du régime menant à un vide de pouvoir est donc vu par la Turquie comme un danger imminent qui pourrait provoquer un nouvel afflux de réfugiés sur son territoire. Ces derniers jours, la Turquie a militarisé sa frontière avec l’Iran pour prévenir ce risque.

De plus, Israël et les États-Unis ont plusieurs fois évoqué la possibilité d’utiliser des groupes rebelles kurdes pour renverser le régime iranien. Pour l’instant, aucune source fiable confirme l’implication de ces derniers contre le régime. En revanche, si cela se matérialisait, il est probable que la Turquie fournira des renseignements à Téhéran afin de neutraliser ces forces. Ankara affirme déjà qu’elle surveille de près les activités du PJAK. S’il semble peu probable que la Turquie mène une opération directe sur le sol iranien, c’est toutefois une possibilité à prendre en compte. Rappelons que l’objectif de la première opération militaire turque en Syrie (« Bouclier de l’Euphrate ») le 24 août 2016 fut de prévenir une autonomisation politique kurde dans le nord de la Syrie, à la frontière turque.

Enfin, en Turquie, il existe ainsi une conviction trans-partisane, à savoir que Tel-Aviv cherche à neutraliser toute puissance du Proche et du Moyen-Orient ayant des intérêts contraires aux siens. Alors que le chef de l’État, Recep Tayyip Erdogan, s’est dit « profondément attristé et inquiet » de l’attaque lancée contre l’Iran par les États-Unis et Israël, qu’il a attribuée à « une provocation de Benyamin Nétanyahou », le président du CHP (principal parti d’opposition), Özgür Özel, a tenu des propos similaires : « Israël a attaqué l’Iran. Notre parti condamne ces attaques avec la plus grande fermeté. Nous transmettons nos sentiments de solidarité au peuple iranien. »

Si la Turquie a été le premier pays à majorité musulmane à reconnaître l’État d’Israël, depuis la fin des années 2000, avec le « One minute speech » d’Erdogan et l’attaque de la flottille de Marmara par Israël, les relations entre Ankara et Tel-Aviv se sont profondément dégradées. Malgré des tentatives ponctuelles de reprise du dialogue, les tensions se sont intensifiées ces dernières années – notamment du fait de la condamnation très forte par la Turquie de la guerre menée par Israël à Gaza en représailles aux attaques du Hamas du 7 octobre 2023 – et ont culminé après la chute de Bachar Al-Assad en décembre 2024.

En effet, la Turquie prétend œuvrer à l’intégrité du territoire syrien et accuse Israël d’œuvrer à son morcellement, en soutenant des groupes factieux tels que les Druzes ou les Kurdes, et sa spoliation, en ayant étendu son emprise illégale sur le plateau du Golan. Ainsi, les deux pays se trouvent en compétition hégémonique en Syrie. Par conséquent, du point de vue de la Turquie, si l’Iran tombe, en raison de sa propre montée en puissance, Ankara serait le prochain sur la liste d’Israël.

De nombreuses déclarations de responsables israéliens abondent dans ce sens. Naftali Bennet, ancien premier ministre (2021-2022), a ainsi déclaré le 17 février 2026 : « Une nouvelle menace turque émerge. La Turquie est le nouvel Iran. Erdogan est dangereux et cherche à encercler Israël ». Sans être aussi explicites, des personnalités politiques actuellement au pouvoir préparent l’opinion publique israélienne à faire face à la « menace turque ». Par exemple, Benyamin Nétanyahou a déclaré le 22 février 2026 :

« L’objectif est de créer un axe de nations qui partagent la même vision de la réalité, des défis et des objectifs face aux axes radicaux – tant l’axe chiite radical, que nous avons frappé de plein fouet, que l’axe sunnite radical émergent. »

Depuis au moins le début des années 2020, de nombreuses opérations des services du renseignement turc ont été menées contre des agents clandestins accusés de collaborer avec Israël et d’utiliser le territoire turc comme un terrain de lutte contre des agents d’influence palestiniens ou iraniens. Ces opérations sont donc un révélateur de tensions croissantes mais encore diffuses et tacites.

Dans une région où plusieurs régimes définis comme des menaces par Israël ont été neutralisés (Saddam Hussein en Irak, Mouammar Khadafi en Libye, Bachar Al-Assad en Syrie) et où certains pays ont normalisé leurs relations avec l’État hébreu à travers les Accords d’Abaraham, la Turquie considère avec inquiétude la perspective d’une victoire politique et militaire israélienne en Iran, qui mènerait à la chute du régime des ayatollahs.

Des nuances importantes à apporter

La Turquie a été le seul pays de l’OTAN (avec l’Espagne) à dénoncer sans ambages le bellicisme israélo-américain et le seul à avoir présenté ses condoléances à l’Iran à la suite de l’assassinat de l’ayatollah Ali Khamenei. Pour autant, la Turquie et l’Iran se sont livré de véritables guerres d’influence, notamment en Syrie où l’Iran soutenait Bachar Al-Assad tandis que la Turquie armait les rebelles de l’Armée nationale syrienne ; en Irak, les Iraniens développaient leur réseau d’influence chiite là où la Turquie appuyait les partis sunnites, ou encore, plus récemment, dans le Caucase.

En effet, la Turquie a fourni un soutien actif à l’Azerbaïdjan dans la guerre menée contre les Arméniens du Haut-Karabakh, alors que l’Iran voit avec beaucoup de méfiance la montée en puissance de Bakou. L’Iran s’est d’ailleurs explicitement opposé à la création du corridor de Zangezur – là encore soutenu par la Turquie – censé faire la jonction entre l’Azerbaïdjan et la province autonome azerbaïdjanaise du Nakhitchevan, car cela marginaliserait Téhéran, ce dernier perdant son rôle de transit. Or l’Azerbaïdjan est l’un des plus grands alliés d’Israël. De nombreuses sources iraniennes affirment que le pays sert de point de départ à des opérations israéliennes visant l’Iran, dont l’Azerbaïdjan est frontalier.

Récemment, des drones iraniens se sont écrasés sur la province du Nakhitchevan. La réaction du président Ilham Aliev a été très virulente et il a promis une réponse forte. Si pour l’heure, Bakou semble privilégier la prudence, une implication dans le conflit contraindrait la Turquie à composer à la fois avec son allié azerbaïdjanais, avec une déstabilisation de l’Iran et avec sa rivalité avec Tel-Aviv.

Un rôle de médiateur pour Ankara ?

La Turquie a elle-même été touchée par deux missiles iraniens. Si Téhéran a nié la responsabilité de ces frappes, Recep Tayyip Erdogan a averti l’Iran que la patience de la Turquie « avait ses limites ». Si Ankara veut empêcher une déstabilisation de l’Iran, elle ne souhaite pas pour autant que la riposte iranienne se fasse à ses dépens, n’étant pas dans une posture passive et attentiste, contrairement aux pays du Golfe.

De plus, à la différence des autres pays définis comme des menaces par Israël, la Turquie est un membre de l’OTAN et un allié des États-Unis. Depuis l’élection de Donald Trump, les relations américano-turques ont été valorisées et l’ambassadeur américain en Turquie, Tom Barrack, œuvre à un renforcement des liens entre Ankara et Washington. Une proximité qui tempère les ardeurs israéliennes. Si les déclarations du secrétaire d’État Marco Rubio sur les raisons de l’entrée en guerre des États-Unis semblent indiquer un suivisme de l’administration Trump vis-à-vis d’Israël, le président américain a plusieurs fois rappelé qu’il espérait une guerre courte. Or la Turquie cherche précisément à prévenir un embrasement régional. Dès lors, Ankara cherche plutôt à jouer un rôle de médiateur dans ce conflit qui oppose l’Iran et Israël, deux pays qu’elle perçoit comme des rivaux géopolitiques au Moyen-Orient et dans le Caucase.

La prudence turque vis-à-vis de cette guerre s’explique donc par un souhait de maintenir un équilibre des puissances et d’empêcher une hégémonie israélienne, mais également iranienne.

The Conversation

Albert Kandemir ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.03.2026 à 17:44

Les hérissons ont l’ouïe fine, et cette découverte pourrait nous aider à les sauver

Sophie Lund Rasmussen, Research fellow in Ecology and Conservation, University of Oxford
En Europe, des millions de hérissons meurent en traversant les routes, mais une découverte ouvre la voie à un système d’alerte qui pourrait les empêcher de traverser à des moments dangereux.
Texte intégral (1513 mots)

En Europe, des millions de hérissons meurent en traversant les routes, mais une découverte ouvre la voie à un système d’alerte qui pourrait les empêcher de traverser à des moments dangereux.


Le hérisson est l’un des mammifères sauvages les plus connus et les plus appréciés d’Europe. Beaucoup de personnes les rencontrent dans leur jardin, entendent leur reniflement au crépuscule ou aperçoivent leur silhouette épineuse se déplacer dans la nuit.

Malheureusement, partout en Europe, les populations de hérissons diminuent rapidement. Le hérisson européen est désormais classé comme « quasi menacé » sur la liste rouge de l’Union internationale pour la conservation de la nature (IUCN) pour l’Europe. Il est devenu urgent de comprendre pourquoi cela se produit et ce qui peut être fait de manière réaliste pour enrayer ou inverser cette tendance.

Les nouvelles recherches que j’ai effectuées avec mon équipe montrent que les hérissons peuvent entendre des ultrasons. Grâce à cette découverte, il serait possible de concevoir des dispositifs sonores dissuasifs ciblant spécifiquement les hérissons, sans déranger les humains ni leurs animaux de compagnie. Ainsi, les signaux ultrasonores pourraient à l’avenir avertir les hérissons de l’approche de véhicules ou les éloigner des machines dangereuses.

C’est important, car l’une des plus grandes menaces pour les hérissons provient de la circulation routière. On estime que les voitures tuent chaque année un nombre considérable de hérissons à travers l’Europe, certaines études suggérant que jusqu’à un sur trois de ces animaux pourrait mourir chaque année sur les routes.

Les hérissons ne sont tout simplement pas adaptés aux infrastructures modernes. Leur principale stratégie de défense a évolué pour leur permettre d’échapper aux prédateurs naturels qui détectent les mouvements dans l’obscurité. Ils se figent, évaluent la menace, puis s’enfuient ou se recroquevillent en une boule épineuse. Face à un véhicule roulant à grande vitesse, cette stratégie leur est fatale.

Le naturaliste et réalisateur britannique David Attenborough liste des moyens d’aider les hérissons à survivre.

Les routes fragmentent également les paysages, ce qui, chez les hérissons, provoque des difficultés de trouver de la nourriture, des partenaires et de nouveaux habitats. Lorsque cela s’ajoute à des obstacles tels que des clôtures massives, une agriculture intensive, des jardins où l’on utilise des pesticides et l’utilisation généralisée de machines, comme les débroussailleuses et les tondeuses à gazon robotisées, il devient évident que le problème ne réside pas dans le comportement des hérissons. C’est l’environnement créé par les humains qui est en cause.

Le son peut-il être une solution ?

Pendant des années, je me suis posé la même question : les humains pourraient-ils avertir les hérissons avant qu’un danger ne survienne ? Pourrions-nous les éloigner des routes et des machines sans déranger les gens ?

Pour explorer cette possibilité, j’ai dû commencer par une question étonnamment simple : que peuvent réellement entendre les hérissons ?

J’ai constitué une équipe pluridisciplinaire composée d’experts spécialisés dans l’imagerie, la bioacoustique (étude de ce que les animaux entendent), le comportement animal, l’écologie des hérissons, l’expérimentation animale et l’anesthésie chez les hérissons.

À l’aide de microscanners haute résolution d’un hérisson qui avait été euthanasié dans un centre de sauvetage de la faune sauvage pour des raisons de bien-être, l’équipe a construit un modèle tridimensionnel de l’oreille moyenne et interne.

Le modèle a montré que les hérissons ont des os de l’oreille moyenne très petits et denses ainsi qu’une articulation partiellement fusionnée entre le tympan et le premier de ces os. Cela rend l’ensemble de la chaîne osseuse plus rigide, ce qui lui permet de transmettre efficacement les sons très aigus, une caractéristique des animaux, tels que les chauves-souris écholocalisatrices, qui peuvent entendre les ultrasons.

Les scans ont également révélé que les hérissons ont un petit étrier (le plus petit os de l’oreille moyenne qui relie la chaîne des os de l’oreille à la cochlée remplie de liquide de l’oreille interne). Or, un étrier plus petit et plus léger peut vibrer plus rapidement, ce qui lui permet de transmettre des ondes sonores à haute fréquence. La cochlée s’est également avérée relativement courte et compacte, ce qui lui permet de mieux traiter les vibrations ultrasoniques.

Les ultrasons désignent les fréquences sonores supérieures à 20 kHz, au-delà de la limite supérieure de l’audition humaine. Mais l’anatomie seule ne suffit pas à prouver quoi que ce soit. Pour confirmer ce que les hérissons pouvaient réellement entendre, nous avions besoin de mesures directes. Mais comment mesurer l’audition d’un hérisson ?

La mesure de l’audition des hérissons

Nous avons testé l’audition de 20 hérissons européens à l’aide d’enregistrements de réponses auditives du tronc cérébral. Sous anesthésie légère, de petites électrodes placées juste sous la peau des hérissons ont mesuré leur activité cérébrale pendant leur sommeil profond. Pendant ce temps, nous avons diffusé des sons couvrant une large gamme de fréquences et de pulsations. Si les hérissons pouvaient les entendre, leur activité cérébrale l’indiquait. Après ces tests, les hérissions étaient en bonne santé et prêts à être relâchés dans la nature le lendemain soir.

Les résultats ont été frappants. Les hérissons entendaient des sons compris entre environ 4 kHz et au moins 85 kHz, avec une sensibilité maximale autour de 40 kHz, soit bien au-delà de la gamme des ultrasons. Les hérissons peuvent donc entendre des sons que les humains, les chiens et les chats ne peuvent pas entendre. Tout cela pourrait changer la donne pour la conservation des hérissons.

En théorie, cela permettrait aux scientifiques d’utiliser des signaux ultrasoniques pour avertir les hérissons de l’approche de véhicules ou les éloigner de machines potentiellement dangereuses.

De nombreuses questions restent toutefois en suspens. Quels sons sont efficaces ? Les hérissons s’habituent-ils à certains bruits et finissent-ils par les ignorer ? Quelle est la portée des signaux ultrasoniques ?

Des recherches supplémentaires sont désormais nécessaires pour concevoir des répulsifs sonores efficaces et bénéfiques pour les hérissons, mais il s’agit là d’un pas en avant significatif. Qui sait, peut-être que l’industrie automobile pourrait contribuer au financement de ces recherches ?

The Conversation

Sophie Lund Rasmussen ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.03.2026 à 17:44

Les poussières atmosphériques, cause sous-estimée de pollution de l’air dans les villes

Emmanouil Proestakis, National Observatory of Athens
De nouvelles recherches montrent que les poussières atmosphériques ont des effets néfastes pour l’environnement et la santé de la population des mégapoles mondiales.
Texte intégral (2070 mots)

Transportées dans l’atmosphère parfois sur de longues distances, les poussières atmosphériques (particules en suspension dans l’air) constituent une source de pollution encore trop peu prise en compte, au regard des polluants classiques. Une analyse menée sur quinze ans de données satellitaires montre l’ampleur du risque pour les populations des mégapoles urbaines.


Les villes sont en train de devenir le principal lieu de vie humaine. En 2018, plus de 55 % de la population mondiale vivait dans des zones urbaines, une proportion qui devrait atteindre près de 68 % d’ici à 2050, selon les Nations unies.

Cette croissance urbaine sans précédent stimule l’innovation et l’activité économique, mais elle concentre également l’exposition humaine aux facteurs de stress environnementaux et intensifie la pression sur l’environnement urbain. Dans ce contexte, l’Organisation mondiale de la santé (OMS) a souligné les défis multiples et les risques graves que la mauvaise qualité de l’air fait peser sur les activités socio-économiques et la santé humaine. On ne considère généralement, dans les études, la dégradation de la qualité de l’air qu’à travers les émissions de polluants tels le dioxyde d’azote (NO₂), le dioxyde de soufre (SO₂), le dioxyde de carbone (CO₂) et l’ozone (O₃).

Dans une étude récente, nous avons donc pris en compte la poussière atmosphérique (celle-ci est principalement produite par les déserts et par certaines pratiques agricoles et transportée par les vents, ndlt). Cette dernière s’accumule dans les zones urbaines et représente un facteur de risque supplémentaire trop souvent négligé, alors qu’il a des effets sanitaires délétères.

Les poussières atmosphériques, un enjeu de santé publique

Parmi les types d’aérosols contribuant à la dégradation de la qualité de l’air, les poussières atmosphériques provenant de sources naturelles et des activités humaines sont souvent considérées comme moins dangereuses. Le problème ? Cette hypothèse néglige un nombre croissant de preuves scientifiques démontrant que les poussières en suspension dans l’air constituent un danger pour la santé.

Tout d’abord, la masse de ces poussières n’est pas négligeable. En termes de masse, elles sont le deuxième type d’aérosols le plus abondant au monde, surpassé uniquement par les particules de sel marin. Dans les larges zones continentales, elles deviennent le principal composant de la charge d’aérosols atmosphériques.

Plus précisément, on estime que les sources naturelles, principalement les zones arides et semi-arides, émettent environ 4 680 téragrammes (Tg) (1 Tg = 1 milliard de kilogrammes) de poussière dans l’atmosphère chaque année. Cette estimation ne tient pas compte de la poussière déjà présente dans l’atmosphère.

À l’échelle mondiale, les processus naturels contribuent à environ trois quarts de la charge totale de poussière, le quart restant étant lié aux activités humaines, en particulier autour des zones urbaines et hautement industrialisées. Les transports, le développement des infrastructures, le changement d’affectation des sols, la déforestation, le pâturage et les pratiques agricoles peuvent être en cause.

Mettons ce chiffre en perspective : la masse de poussières en suspension dans l’air rejeté chaque année dans l’atmosphère à l’échelle mondiale correspond à 615 000 fois le poids de la tour Eiffel


À lire aussi : Les poussières du Sahara qui remontent en Europe sont-elles radioactives du fait des essais nucléaires des années 1960 ?


Particules fines, grandes questions

De plus, ces particules sont loin d’être uniformes en taille. Des expériences à grande échelle menées pour étudier les polluants atmosphériques ont révélé que les particules présentes dans les couches atmosphériques transportées par le vent ont des tailles très variables, allant de moins de 0,1 micromètre (μm, environ la taille d’un virus SARS-CoV-2 , ou coronavirus) à plus de 100 μm (environ le diamètre d’un cheveu humain).

Plus inquiétant encore, les données issues d’études épidémiologiques établissent un lien entre les poussières en suspension dans l’air et des risques sanitaires. Les poussières minérales de grande taille sont souvent considérées comme relativement inoffensives, ne provoquant que des irritations cutanées mineures ou des réactions allergiques, même en cas d’exposition prolongée. Il en va autrement des particules fines. En raison de leur petite taille, ces particules fines peuvent pénétrer profondément dans les poumons, ce qui peut déclencher des maladies respiratoires et cardiovasculaires, des réactions allergiques plus graves, voire des cancers.

Au-delà de ces effets directs, les scientifiques continuent d’étudier le rôle de la poussière en tant que vecteur de bactéries, comme le suggèrent les épidémies de méningite dans le désert du Sahel.

Ces préoccupations soulèvent de nombreuses questions. Dans quelle mesure la répartition (entre particules fines et particules de grande taille) des poussières en suspension dans l’air a-t-elle évolué au cours des deux dernières décennies dans les zones urbaines fortement industrialisées et densément peuplées ?

Pouvons-nous détecter des tendances significatives, à la hausse ou à la baisse, dans ces données ? Quelles grandes villes connaissent actuellement, ou sont susceptibles de connaître dans un avenir proche, des concentrations de poussières dépassant les seuils de sécurité de la qualité de l’air fixés par l’OMS ?


À lire aussi : Pollution de l'air : toutes les particules fines n’ont pas les mêmes effets sur la santé


Ce que montrent quinze années d’observations satellites dans les mégapoles

Afin de mieux comprendre la quantité de poussière que respirent quotidiennement les populations urbaines, notre récente étude a examiné les observations satellitaires de la Terre sur une période de plus de quinze ans. Nous avons étudié l’accumulation et les dynamiques temporelles des transports de poussière dans la couche atmosphérique la plus basse, au-dessus de 81 des plus grandes villes et zones urbaines du monde. Concrètement, nous avons retenu les zones où la population excède 5 millions d’habitants.

Les résultats révèlent plusieurs conclusions importantes :

  1. La poussière atmosphérique représente, sans aucun doute possible, une menace pour la santé publique dans un nombre important de grandes zones urbaines dans le monde. D’après les données démographiques et les projections fournies par l’ONU, environ 9 personnes sur 10, parmi les quelque 800 millions d’habitants des 81 plus grandes villes, sont exposées à des niveaux de poussière supérieurs aux seuils annuels de risque en matière de qualité de l’air. Une tendance géographique claire se dessine : les zones urbaines les plus touchées se situent au Moyen-Orient, dans le sous-continent indien (Asie du Sud), en Asie de l’Est et au Sahel.

  2. Les niveaux de poussière semblent diminuer dans la plupart des grandes villes. Cependant, cette nouvelle encourageante s’accompagne de deux réserves importantes : dans de nombreux cas, ces tendances temporelles à la baisse ne sont pas statistiquement significatives et, souvent, la charge globale de poussière reste considérable. En d’autres termes, même lorsque des réductions sont observées, elles ne se traduisent pas nécessairement par une diminution significative des risques pour la santé.

  3. À court terme, ce problème ne devrait pas disparaître. Selon les estimations de l’ONU, la population urbaine de ces mégapoles devrait augmenter pour atteindre plus d’un milliard de personnes au milieu des années 2030.

Par conséquent, la poussière atmosphérique restera un danger environnemental pour la santé. Même si les tendances à la baisse devaient se confirmer, cette pollution touchera davantage d’habitants du fait de l’augmentation des populations dans les villes.

De la science à la politique

En réponse aux preuves scientifiques de plus en plus nombreuses qui montrent que les poussières en suspension dans l’air constituent un risque pour la santé humaine, les pays renforcent peu à peu leurs législations en matière de qualité de l’air. Des initiatives nationales et internationales ont été lancées.

Des initiatives telles que le SDS-WAS de l’Organisation météorologique mondiale, l’alliance DANA et le programme CAMS NCP reflètent une collaboration croissante pour améliorer la surveillance, la modélisation et la traduction de la science en solutions pratiques. Parallèlement, les gouvernements s’efforcent d’aligner leurs réglementations sur les recommandations de l’OMS.

Par exemple, la directive révisée de l’Union européenne (UE) sur la qualité de l’air ambiant reconnaît explicitement les aérosols naturels tels que la poussière comme un danger pour la santé. Les progrès de la recherche, la coordination des politiques et l’amélioration de la réglementation constituent, ensemble, une base plus solide pour agir.

Avec l’accélération de l’urbanisation, la lutte contre la pollution de l’air, notamment la poussière atmosphérique, est essentielle pour protéger la santé publique, renforcer la résilience des villes et garantir un avenir plus durable aux villes du monde entier qui connaissent une croissance rapide.


Créé, en 2007, pour aider à accélérer et à partager les recherches scientifiques sur des enjeux sociaux majeurs, le Fonds d’Axa pour la recherche soutient près de 700 projets dans le monde. Pour en savoir plus, visiter le site ou bien sa page LinkedIn.

The Conversation

Emmanouil Proestakis a reçu des financements du Fonds AXA pour la recherche postdoctorale dans le cadre du projet intitulé « Observation de la Terre pour la qualité de l'air – Mode fin de la poussière » (EO4AQ-DustFM).

16.03.2026 à 17:43

Pour apprendre une langue étrangère, il n’y a pas d’âge limite ! Enfants et adultes ont leurs propres stratégies

Karen Stollznow, Senior Research Fellow of linguistics, University of Colorado Boulder; Griffith University
Les enfants ont bien plus de facilité que leurs aînés à se familiariser avec un nouvel accent lorsqu’ils découvrent une langue. Mais les adultes peuvent compter sur d’autres atouts dans leur apprentissage.
Texte intégral (2104 mots)

Les enfants ont bien plus de facilité que leurs aînés à se familiariser avec un nouvel accent lorsqu’ils apprennent une langue. Cependant, devenir plurilingue n’est pas hors de portée des adultes, qui peuvent compter sur tout un ensemble d’autres compétences développées au fil du temps.


Si les jeunes apprenants peuvent acquérir plus facilement un accent natif, les adultes conservent la capacité d’apprendre de nouvelles langues jusqu’à un âge avancé.

On a tendance à supposer qu’en apprenant une langue dès le plus jeune âge, on la maîtrisera rapidement.

Beaucoup de gens pensent également qu’il est beaucoup plus difficile d’apprendre une langue si l’on s’y met tardivement.

Les recherches sur l’apprentissage des langues montrent que l’âge auquel une personne s’initie à une langue a son importance, mais il n’existe pas d’âge limite auquel la capacité d’apprendre une langue s’éteindrait.

Si les jeunes apprenants acquièrent plus facilement l’accent des locuteurs natifs, les adultes conservent la capacité d’apprendre de nouvelles langues jusqu’à un âge avancé. Tout le monde peut continuer à apprendre et à perfectionner son vocabulaire et sa grammaire. D’autres facteurs, tels que la motivation, peuvent également jouer un rôle pour les apprenants de tous âges.

Je suis linguiste et autrice d’un ouvrage à paraître, intitulé Beyond Words : How We Learn, Use, and Lose Language, qui examine comment une langue est apprise, utilisée et oubliée tout au long de la vie, et pourquoi l’âge seul ne fixe pas de limites strictes à nos capacités linguistiques.

Au contraire, les stratégies utilisées par les apprenants, les résultats qu’ils atteignent le plus facilement et la façon dont les autres évaluent leurs progrès peuvent tous évoluer au fil du temps.

Comment l’âge influence l’apprentissage des langues

L’âge d’une personne peut influencer sa capacité à apprendre une langue de différentes manières.

Les scientifiques parlent parfois de « périodes sensibles », c’est-à-dire d’une période précoce du développement pendant laquelle le cerveau est particulièrement réceptif à certains types d’informations.

En matière de langage, les bébés et les enfants sont particulièrement sensibles aux schémas sonores. Ils peuvent également percevoir des distinctions phonétiques subtiles que les adultes ont du mal à percevoir ou à reproduire.

Cela explique pourquoi les enfants qui grandissent dans un environnement bilingue parlent souvent les deux langues comme des natifs. Les accents, plus que le vocabulaire ou la grammaire, sont le domaine où les différences liées à l’âge sont les plus prononcées.

Les périodes sensibles existent également chez d’autres animaux, en particulier les oiseaux, qui ont une période sensible précoce pour apprendre le chant spécifique à leur espèce auprès d’un tuteur adulte.

Une fois cette période passée, il est toujours possible d’apprendre une nouvelle langue. Mais cela demande généralement plus d’efforts conscients et de pratique.

Des études montrent également que les enfants exposés à une deuxième langue dès leur plus jeune âge, généralement avant la puberté, ont plus de chances d’acquérir une prononciation et une intonation proches de celles d’un locuteur natif.

Des recherches en imagerie cérébrale montrent que les personnes qui apprennent deux langues dès le plus jeune âge ont tendance à les traiter dans les mêmes parties du cerveau. Ceux qui apprennent une deuxième langue plus tard utilisent souvent des zones cérébrales légèrement différentes pour chaque langue.

Concrètement, les personnes bilingues précoces sont plus susceptibles de passer d’une langue à l’autre sans effort. Les apprenants tardifs peuvent devoir travailler plus consciemment leur deuxième langue, surtout au début.

Les avantages d’apprendre une langue à l’âge adulte

La prononciation ne représente qu’une part de la maîtrise d’une langue. Les adultes bénéficient aussi d’atouts qui leur sont propres pour y parvenir.

Contrairement aux jeunes enfants, les apprenants adultes peuvent déjà s’appuyer sur une langue maternelle pleinement développée. Ils possèdent également des compétences de raisonnement et de reconnaissance des schémas, ainsi qu’une conscience du fonctionnement du langage.

Cela permet aux adultes d’apprendre de manière plus réfléchie, car ils étudient les règles grammaticales et comparent consciemment les langues. Les adultes ont également davantage tendance à s’appuyer sur des stratégies délibérées, telles que la mémorisation, pour apprendre une langue.


À lire aussi : À partir de quand devient-on bilingue ?


En classe, les adultes surpassent souvent les enfants dans les premières étapes de l’apprentissage, en particulier en lecture et en écriture.

L’apprentissage des langues ne s’arrête jamais vraiment. Même à l’âge adulte, les gens continuent à développer et à perfectionner leur langue maternelle, façonnée par leur éducation, leur travail, leur environnement social et la façon dont ils l’utilisent au quotidien.

S’il peut être plus difficile pour les adultes d’acquérir un accent proche de celui d’un locuteur natif à un âge avancé, la bonne nouvelle est que la grammaire, le vocabulaire et la fluidité restent à la portée de la plupart des apprenants adultes.

Les avantages d’apprendre une langue dès l’enfance

Les enfants, quant à eux, ont tendance à apprendre les langues de manière implicite, par immersion et interaction, souvent sans prêter attention aux règles.

Les facteurs sociaux et émotionnels jouent également un rôle majeur dans la réussite de l’apprentissage d’une langue.

Les enfants sont généralement moins timides que les adultes et plus disposés à prendre des risques lorsqu’ils s’expriment.

Les adultes, en revanche, sont souvent très conscients de leurs erreurs et peuvent hésiter à s’exprimer, par crainte de paraître ridicules ou d’être jugés.

Les recherches montrent systématiquement que la disposition à communiquer est un facteur prédictif important de la réussite dans l’apprentissage d’une nouvelle langue. L’anxiété, l’inhibition et les commentaires négatifs des autres peuvent ralentir considérablement les progrès, quel que soit l’âge.

Accent, préjugés et pression sociale

D’autres facteurs, tels que la pression sociale et la discrimination, jouent également un rôle important lorsqu’une personne tente d’apprendre une nouvelle langue.

Les recherches sur la langue et l’identité montrent que les auditeurs associent souvent un fort accent à une intelligence ou une compétence moindre, bien qu’il n’y ait aucun lien entre l’accent et les capacités cognitives.

Les locuteurs non natifs sont souvent victimes de stigmatisation, de discrimination et de préjugés de la part des locuteurs natifs.

Ce préjugé peut décourager les apprenants adultes et renforcer la fausse croyance selon laquelle, pour réussir l’apprentissage d’une langue, il faut parler comme un natif.

La motivation et les aptitudes comptent aussi

La motivation est un autre facteur clé qui influence les apprenants de tous âges.

Les gens apprennent de nouvelles langues pour de nombreuses raisons : un nouveau pays, le travail, les études, les relations ou l’intérêt pour une autre culture.

La recherche distingue les différentes raisons qui poussent les gens à apprendre une langue. Certaines sont pratiques, comme l’évolution de carrière ou la réussite d’un examen. D’autres sont personnelles, comme le désir de se rapprocher d’une communauté, d’une culture ou d’une famille.


À lire aussi : Apprendre une nouvelle langue : pourquoi on ne doit pas considérer l’âge comme un frein


Les apprenants qui ressentent un lien personnel ou émotionnel fort avec la langue sont plus enclins à persévérer même lorsque cela devient difficile, et ils atteignent souvent des niveaux de maîtrise plus élevés que ceux qui n’ont pas ce lien.

D’autres personnes ont une aptitude naturelle pour l’apprentissage des langues et peuvent les assimiler facilement. Peut-être remarquent-elles rapidement les schémas sonores, ou peuvent-elles mémoriser de nouveaux mots après les avoir entendus une ou deux fois.

L’aptitude linguistique est différente de l’intelligence et varie d’une personne à l’autre. L’aptitude augmente les chances de réussite dans l’apprentissage d’une langue, mais ne la garantit pas.

Les apprenants ayant une aptitude moyenne peuvent tout de même devenir très compétents dans de nouvelles langues à l’âge adulte s’ils y sont exposés de manière régulière, s’ils s’entraînent et s’ils sont motivés.

À chaque âge ses atouts

Alors, vaut-il mieux apprendre une deuxième langue quand on est enfant ou quand on est adulte ? Les recherches suggèrent que la question la plus pertinente est de savoir quels aspects de l’apprentissage d’une langue, tels que la prononciation, la fluidité ou la maîtrise à long terme, sont les plus importants.

Apprendre une nouvelle langue dès le plus jeune âge permet de parler plus facilement comme un locuteur natif et d’utiliser la langue avec aisance, sans avoir à réfléchir aux règles.

Apprendre une langue plus tard dans la vie fait appel aux points forts dont disposent les adultes, tels que la planification, la résolution de problèmes et une pratique soutenue.

En fin de compte, certaines personnes apprennent rapidement les langues tandis que d’autres ont plus de difficultés, quel que soit leur âge.

Les croyances relatives à l’apprentissage des langues influencent les politiques éducatives, les choix parentaux et la manière dont les personnes multilingues sont traitées dans la vie quotidienne.

Lorsque les adultes s’entendent dire qu’ils ont raté leur chance d’apprendre une langue, beaucoup ne prennent même plus la peine de se lancer. Lorsque les accents étrangers sont considérés comme des imperfections, des locuteurs pourtant compétents peuvent être injustement victimes de discriminations.

En réalité, des recherches montrent qu’il est possible d’apprendre une langue à tout âge. Il s’agit d’un parcours réalisable tout au long de la vie, plutôt que d’une course contre la montre.

The Conversation

Karen Stollznow ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.03.2026 à 17:41

La « silver economy » pour les marques, ou comment faire du neuf avec les vieux ?

Jean-Baptiste Welté, Professeur de Sciences de Gestion, Université Paris-Panthéon-Assas
Anne Bontour, Maitre de conférences en sciences de gestion, Université Marie et Louis Pasteur (UMLP)
Pour séduire la clientèle senior, les marques se mobilisent. Pour cela, elles disposent de nombreuses stratégies possibles pour entrer en relation avec ce segment de clientèle.
Texte intégral (1301 mots)

Les seniors qui cumulent temps libre et pouvoir d’achat sont une cible de choix pour les marques. Quelles stratégies déploient ces dernières pour les séduire, les attirer et les fidéliser ? Du pur hédonisme à la marque « apprenante »… l’imagination est (toujours) au pouvoir !


La « silver economy » ne cesse de croître. Voyages, assurances, santé, alimentation, cosmétique, le vieillissement de la population entraîne l’émergence de davantage de produits et de services à destination des personnes âgées. L’économie à destination des seniors pourrait ainsi générer un chiffre d’affaires de plus de 130 milliards d’euros à l’horizon 2030 ».

Un nouvel hédonisme

Ce marché du vieillissement est en réalité un marché du « bien vieillir ». Les personnes âgées sont invitées à profiter de ce nouveau « plus bel âge de la vie », que représente notamment la soixantaine. Certes, elles présentent des vulnérabilités, mais des produits et services associés au « bien vieillir » les invitent à un nouvel hédonisme.

En bonne santé pour beaucoup grâce aux progrès de la médecine, libérées des contraintes du travail, elles peuvent jouir pleinement de leur temps libre. Dans ce contexte, les marques, pourvoyeuses de sens des sociétés de consommation, leur offrent des imaginaires auxquels se rattacher. Alors que leur public cible était plutôt les jeunes générations en quête de modèle identitaire, elles peuvent accompagner les nouvelles exigences sociales du « bien vieillir ».


À lire aussi : Mode : les consommateurs seniors encore loin de l’inclusion


Les marques aident les personnes âgées dans leur rôle de grand-parents, et accompagnent plus généralement la transmission sociale au sein de la famille, au travers de récits valorisant des compétences, un savoir-faire ou un savoir-être, comme, par exemple, la campagne « Générations » de Patek Philippe.

Mais cette transmission n’est pas automatique. Les seniors ont un pouvoir de régulateur, et peuvent contredire certaines marques, par exemple remettre en question le rôle fédérateur de Nutella (en limitant l’usage auprès de leur famille, ou alors s’opposer aux marques de jeux vidéo, pour « garder un lien » avec leurs petits-enfants).

Des marques apprenantes

La relation peut être inversée, et des marques « apprenantes » aident les personnes âgées à maintenir le lien avec les jeunes générations. Ils ont alors plaisir à continuer à apprendre tout en restant socialement en lien avec leur entourage. Les marques technologiques comme Apple ont ainsi intégré un mode senior à partir d’Ios 17 qui leur permet d’accéder plus facilement aux applications, et de pouvoir rester connecté avec leurs petits-enfants.

Certaines marques « béquille » sont utilisées par les personnes âgées pour gérer plus aisément les effets du vieillissement. Mais cette fonction de « béquille » ne doit pas représenter uniquement un marché destiné aux seniors, sous peine de les stigmatiser. Par exemple, la marque suisse, On, destinée aux sportifs souhaitant allier innovation et performance, s’est développée sur ce nouveau segment de marché tout en gardant son offre pour sa cible d’origine.

Les marques coups de cœur

La marque peut également servir aux coups de cœur des personnes âgées, preuve que leur désir peut encore être stimulé. Certaines marques peuvent avoir été fantasmées plus jeunes, puis leur consommation décalée à cause des contraintes économiques ou financières de chacun.

France 24, 2020.

Les seniors profitent d’autant plus pleinement de ces marques « hédoniques » que le report de jouissance a créé une attente et amplifié le désir. Plus généralement, la marque fonctionne alors comme une envie de « se faire plaisir ». Des pulls en cachemire, comme Bompard, qui associent aux bénéfices fonctionnels de multiples coloris favorisent par exemple ces achats coups de cœur.

« Pépé gâteux » ou « Mamie Nova »

La relation entre les marques et les personnes âgées illustrent qu’ils restent pleinement acteurs de la société de consommation. Les marques sont, comme pour les plus jeunes générations, un outil d’expression sociale. Ces relations dynamiques invitent à reconsidérer la place des seniors dans les représentations publicitaires et plus généralement médiatiques.

Même si ces dernières ont tendance à évoluer et mettre en avant des exemples de « bien-vieillir », les visions stéréotypées associées au déclin physique ou cognitif restent prégnantes. Or, les marques peuvent contribuer à les modifier, et tisser une relation client spécifique avec cette cible, en comprenant ses multiples facettes (sa vulnérabilité mais également sa capacité à être prescripteur, et à craquer pour des achats impulsifs). Elles renouvellent alors leur imaginaire fécond avec les identités protéiformes des personnes âgées.


Cet article est publié en partenariat avec Décisions Marketing, la revue scientifique de l’Association française du marketing. La version intégrale a paru dans le numéro 120 qui avait pour thème « La place des marques dans la société. ».

The Conversation

Jean-Baptiste Welté est Professeur associé à l'école Polytechnique

Anne Bontour ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.03.2026 à 17:41

Mesures anti-évitement fiscal : quel bilan dix ans après le plan d’action de l’OCDE ?

Flora Bellone, Professeure des Universités en Sciences économiques, Université Côte d’Azur
Charlie Joyez, Maitre de Conférence en économie, Université Côte d’Azur
En 2015, les pays de l’OCDE adoptaient un plan d’action (BEPS) contre l’érosion de la base et le transfert de bénéfices. Le BEPS a-t-il vraiment permis d’endiguer ces pratiques ?
Texte intégral (1547 mots)
Les recettes fiscales mondiales perdues du fait du transfert de bénéfices sont passées de 9 à 10 % depuis 2015. Elnur/Shutterstock

En 2015, les pays de l’Organisation de coopération et de développement économiques, soutenue par le G20, adoptaient un plan d’action contre l’érosion de la base et le transfert de bénéfices (« Base Erosion and Profit Shifting »). Cette initiative internationale constituait une réponse au phénomène de l’évitement fiscal des entreprises, qui s’était fortement amplifié au cours des trente dernières années, en parallèle de l’expansion mondiale des chaînes de valeur et de la croissance des multinationales.


Les entreprises multinationales ont tiré parti des différences au sein du système fiscal international pour mettre en place des schémas d’organisation fondés, notamment, sur des choix d’implantation dans des juridictions à faible fiscalité et des transferts de bénéfices via divers mécanismes dont le plus important est l’ajustement des prix de transfert intra-groupe. Une entreprise va facturer une prestation à une autre entreprise du même groupe, mais d’un autre pays, afin de déplacer des fonds.

En dix ans, le plan « Base Erosion and Profit Shifting » (BEPS) a-t-il permis d’endiguer ces pratiques ? Les études sur le sujet font pour l’heure actuelle un bilan mitigé. Dans notre récent working paper « Tax avoidance by small multinationals as a side effect of anti tax avoidance policy » (« L’évasion fiscale des petites multinationales comme effet secondaire de la politique anti-évasion fiscale »), nous contribuons à en évaluer les effets, tout en mettant l’accent sur les différences de comportements des grandes et des petites multinationales en matière d’évitement fiscal.

Pas de diminution significative

Sur le plan macroéconomique, d’abord, des analyses empiriques récentes montrent que l’évitement fiscal international n’a pas connu de diminution significative depuis 2015. Gabriel Zucman et son confrère de l’Université de Berkley Ludvig Wier documentent, en particulier, ont montré que, sur la période 2015-2019, les profits des multinationales ont continué de croître plus rapidement que les profits mondiaux, que la part des profits déclarés dans les paradis fiscaux est restée stable autour de 37 %, et que la fraction de recettes fiscales mondiales perdues du fait du transfert de bénéfices est passée de 9 à 10 %.

Ces constats illustrent un paradoxe. Alors que la réglementation internationale s’est renforcée, aucune baisse nette de l’évitement fiscal n’a été observable à l’échelle agrégée, du moins dans les années qui ont juste suivi la mise en œuvre de la réforme.

Comment l’expliquer ? Les travaux des économistes Ruby Doeleman, Dominika Langenmayr et Dirk Schindler montrent que cette stabilité globale masque des ajustements stratégiques fins. Les grandes multinationales ont tendance à réorienter leurs profits hors des paradis fiscaux les plus visibles.

Elles auraient tendance à les réorienter vers des juridictions à faible fiscalité, mais présentant davantage de substance économique, ce qui rend l’effet net sur les recettes fiscales des pays à forte imposition ambigu.

Réallocation vers des juridictions fiscalement avantageuses

De même, Olbert et De Simone, respectivement chercheurs aux universités de Rotterdam et d’Austin, soulignent que la mise en place du « Country by Country Reporting » (CbCR, qui implique une transparence accrue sur l’allocation du profit imposable) prévu dans le plan BEPS a induit des réallocations réelles des investissements et de l’emploi vers des juridictions fiscalement avantageuses, reflétant un ajustement des structures organisationnelles plutôt qu’une simple modification comptable. Ces études convergent vers une idée clé : si les incitations fiscales demeurent, le cadre BEPS et le CbCR conduisent désormais les entreprises à opérer leurs arbitrages en articulant les gains fiscaux avec une plus grande substance économique.

Dans nos travaux, nous avançons l’hypothèse que les pratiques d’organisation fiscale se seraient déplacées progressivement vers les entreprises multinationales de taille moyenne. Le plan BEPS, bien qu’orienté vers la lutte contre l’évitement fiscal, aurait en effet involontairement réduit les barrières à l’entrée de ces pratiques pour les petites multinationales.

Multinationales de plus petites tailles

Dès sa conception, le texte s’est focalisé sur les grandes entreprises, en instaurant un seuil de chiffre d’affaires consolidé de 750 millions d’euros pour déterminer les obligations de reporting. Seules les firmes dépassant ce seuil ont été soumises à des exigences strictes et à des sanctions significatives en cas de non-conformité, cette stratification visant à concentrer la surveillance fiscale sur les acteurs les plus capables d’engager des stratégies fiscales agressives et à limiter les coûts administratifs pour les entreprises plus modestes. En parallèle, les petites et moyennes multinationales ont pu bénéficier d’un choc informationnel positif leur permettant de réestimer à la baisse leur risque de contrôle fiscal, tout en gagnant en expertise sur les schémas complexes de manipulation des prix de transferts explicités dans le cadre de la réglementation.

Ainsi, notre travail en cours sur les multinationales françaises semble révéler un phénomène complémentaire. Tandis que les grandes multinationales (au-dessus du seuil de 750 millions d’euros de chiffre d’affaires) sont partiellement sorties des paradis fiscaux du fait de la réforme, des multinationales de plus petite taille ont augmenté leur présence dans des juridictions à fiscalité avantageuses après 2015, profitant des clarifications et de la standardisation introduites par le BEPS pour réduire l’incertitude et les coûts fixes liés aux pratiques internationales d’organisation fiscale.

Si ces résultats se confirment, ils pointeraient un canal d’apprentissage et d’imitation des pratiques des grandes firmes par les entreprises de plus petite taille qui aurait pu être facilité par la législation.

Améliorer la compétitivité des entreprises domestiques

Ces résultats suggèrent que les politiques anti-évitement fiscal des multinationales doivent prêter attention non seulement à la marge intensive de ces pratiques, c’est-à-dire la propension des entreprises engagées dans ces pratiques à les intensifier ou à les atténuer, mais aussi à la marge extensive, c’est-à-dire les incitations de nouveaux acteurs à adopter ces pratiques dans le nouveau cadre législatif. En particulier, ces politiques doivent veiller à ne pas faciliter l’adoption de pratiques d’optimisation fiscale par des entreprises initialement moins sophistiquées.

Cependant, les études sur les évolutions de l’évitement fiscal lors de la dernière décennie suggèrent une autre conséquence du plan BEPS et des obligations de CbCR pour les multinationales au-dessus du seuil de 750 millions d’euros de chiffre d’affaires consolidés : en plus du renchérissement de leurs coûts fiscaux effectifs, leurs ventes diminueraient.

Les multinationales perdraient ainsi du pouvoir de marché lorsque leurs stratégies d’évitement fiscal sont limitées, améliorant la compétitivité des entreprises domestiques. Il s’agit toutefois d’un domaine de recherche récent et en développement. Les effets à long terme sur la structure des marchés nécessitent davantage de données empiriques.


Cette contribution est publiée en partenariat avec le Printemps de l’économie, cycle de conférences-débats qui se tiennent du 17 au 20 mars au Conseil économique social et environnemental (Cese) à Paris.

Retrouvez ici le programme complet de l’édition 2026, « Le temps des rapports de force ».

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

16.03.2026 à 17:40

Agatha Christie, reine des morts, reine des mots

Isabelle-Rachel Casta, Professeur émérite, culture sérielle, poicière et fantastique, Université d'Artois
Comme Conan Doyle, une femme semble marcher dans les traces mêmes de l’énigme du jeu des références cryptées : c’est Agatha Christie, « duchesse de la Mort ».
Texte intégral (1954 mots)
La prolifique Agatha Christie ne lésinait pas sur les références littéraires. Michaël Bemelmans/Wikimédia, CC BY

Dans la lignée de Conan Doyle, une femme a su maîtriser comme personne l’énigme à rebondissements et le jeu des références cryptées : c’est Agatha Christie, « duchesse de la Mort », s’il faut en croire le beau titre du critique François Rivière (Seuil, 1981). Les mots, la mort, le crime : bienvenue dans le labyrinthe Christie !


Faut-il relire Agatha Christie ? Oui, car son œuvre, immense, rassemble tous les états de la culture et de la sensibilité britanniques à travers des enquêtes qui sont autant de voyages au pays des savoirs humanistes. Ses détectives sont aussi savants qu’elle, et généralement les coupables le sont également ! Explorer son œuvre, c’est saisir la fusion des codes de l’énigme et de la culture britannique littéraire au sein du genre policier, pourtant longtemps considéré comme éloigné de la tradition classique.

Ainsi Christie fera-t-elle de chaque roman la rencontre insolite du divertissement attendu d’un bon polar avec la présence cryptique des plus notables œuvres du corpus lettré, comme on peut l’entendre dans une récente émission consacrée à l’autrice de légende. Mais les mots et les morts font-ils toujours bon ménage ?

Polars ou poèmes ?

En parcourant l’ensemble de la production d’Agatha Christie, on est frappé par l’importance des références et des citations : comptines inquiétantes (Hickory, Dickory, Dock, Pension Vanilos pour la version française) ou présence mythologique (Nemesis) : les titres plongent toujours dans un passé légendaire ou poétique.

Deux romans tardifs, le Miroir se brisa (The Mirror Crack’d from Side to Side, 1962) et La nuit qui ne finit pas (Endless Night, 1967) semblent construits selon le même système de réminiscences car ils portent, dans leurs titres mêmes, le souvenir de deux grands poètes britanniques : William Blake (1757-1827) et Alfred Tennyson (1809-1892). On a l’impression qu’ils sont les auteurs originels de ces romans, puisque chaque titre est un fragment de leurs propres écrits ! La nuit qui ne finit pas appartient à Blake (« Augures d’innocence ») et le Miroir se brisa est une citation d’un poème de Tennyson consacré à la Dame de Shalott (personnage de la geste arthurienne), poème dont la trame guide l’enquête tout au long du récit.

C’est quasiment toujours dans le passé (personnel ou collectif) qu’il faut trouver les clés des énigmes présentes : cet axiome psychanalytique et policier (mais n’est-ce pas une sorte de pléonasme ?) fonctionne pleinement dans le Miroir se brisa. Les références et les allusions y fourmillent, dominées par l’obsédante présence du poème de Tennyson.

L’intrigue est simple : Marina, une actrice, découvre qu’une admiratrice trop pressante a contaminé jadis l’enfant qu’elle portait, elle. Elle s’arrange alors pour la tuer, et la haine qui s’empare d’elle n’échappe pas à l’une des invitées, surprise de lire dans son regard la même folie que Tennyson prête à son héroïne, la pauvre Dame de Shalott. Or, selon l’universitaire Annie Combes (l’Écriture du crime) chaque référence, même la plus anodine, contient déjà toutes les réponses ! Sans cesse, les vers de « La Dame de Shalott » vont revenir scander l’enquête. Ils apparaissent une première fois dits par une vieille amie de Miss Marple, enquêtrice malgré elle et perspicace observatrice du moindre détail :

« Vous souvenez-vous de “la Dame de Shalott” ? ‘Le miroir se brisa de part en part. Je suis maudite ! cria la Dame de Shalott’. Elle me l’a rappelée. Les gens apprécient peu Tennyson, aujourd’hui, mais la “Dame de Shalott” m’a toujours beaucoup plu. »

La femme qui récite du Tennyson est déjà présente dans un autre roman, Un cadavre dans la bibliothèque : on peut ainsi parler d’autocitation ; de plus, elle dit le poème devant un tableau, donc en joignant la réminiscence littéraire à la compétence picturale. Des fragments du poème sont aussi répétés en écho par Miss Marple, toujours centrés sur la malédiction qui frappe en même temps l’héroïne de Tennyson… et l’actrice contemporaine, sans doute assassinée à la fin par son époux.

Seules de respectables dames anglaises comprennent donc pourquoi Tennyson sert d’épitaphe à la criminelle morte :

« Elle a un beau visage ;
Que Dieu dans sa miséricorde lui accorde sa grâce,
La Dame de Shalott. »

Le film inspiré de l’œuvre conserve d’ailleurs cette indécision finale. Ainsi, d’indice en élucidation, le poème aura couru tout au long du texte comme une lumière noire.

L’air du crime pour un « meurtre familier »…

On a vu que le double de l’auteur, Miss Marple, n’est pas « féminine », au sens stéréotypé du terme : elle est âgée et célibataire, donc conventionnellement asexuée. Mais elle incarne la justice et la vengeance, le Temps et, d’une certaine façon, la Mort… comme le manifeste une œuvre symétrique au roman déjà cité (et ce, même si elle n’apparaît pas spécifiquement).

La nuit qui ne finit pas se présente de fait comme le commentaire d’un texte de William Blake. Mais quelle place reste-t-il à la fiction policière ? Celle d’une parabole : revisiter la littérature anglaise à la lumière du polar contemporain. À cet égard, la disposition de l’exergue, en regard du texte, est assez étrange pour mériter une remarque :

« Chaque nuit et chaque matin, certains naissent pour le malheur. Chaque matin et chaque nuit, certains naissent pour la douce joie, certains naissent pour une nuit sans fin. William Blake.

« Chapitre premier

« J’ai souvent lu ou entendu cette chanson. Elle sonne bien, mais que signifie-t-elle au juste ? »

Il faut donc comprendre que le héros-assassin (qui dit « je ») lit ou entend le texte de Blake, puisque la mention « Chapitre premier » sépare l’exergue de la fiction proprement dite. Il est bien entendu celui qui est « né pour le malheur » ; comme par prémonition, Ellie, sa jeune et adorable femme « née pour la douce joie », fredonne elle aussi ces mots… Ainsi l’angoisse suscitée par le poème devient-elle le leitmotiv de la catastrophe imminente. Celle qui était « née pour le bonheur » périt assassinée, car dans ce monde on tue pour de l’argent (Michael ne l’a épousée que pour en hériter, d’accord avec sa maîtresse Greta) et on devient fou… La chanson la venge, et chaque apparition des fameux vers accompagne la chute vers l’abîme du criminel Michael Rogers.

L’assassin qui, à la fin, sombre dans la folie, ne jouira évidemment pas de l’argent de la femme qu’il a tuée : « […] Dans la nuit sans fin où je me suis perdu. » Dans le film qui tire son nom de celui du roman, l’interprétation sensible de Hywel Bennett renvoie d’ailleurs plutôt bien à la paranoïa du personnage.

Ce roman reprend, rappelons-le, les procédés narratifs qui firent la gloire de son auteur. En effet, en 1967, plus de quarante ans après l’affaire Ackroyd, Agatha Christie opte une nouvelle fois pour le récit au « je » du meurtrier, avec un « blanc » typographique où s’inscrit la commission du forfait : « En arrivant à un croisement… nous la découvrîmes » (le pronom « la » renvoie bien sûr au corps sans vie d’Ellie, empoisonnée par son mari juste avant une promenade à cheval).

On notera que le narrateur s’appelle Rogers, presque comme la victime du Meurtre de Roger Ackroyd ; ce fil ténu relie les œuvres, et sans doute ne faut-il pas chercher ailleurs les difficultés d’adaptation filmique des romans, notés par certains : les jeux de mots « visualisés » y sont laborieux, et la modernisation de certaines intrigues alourdit la finesse du trait… par exemple dans la mini-série de Chris Chibnall, les Sept Cadrans.

Alors restons au pied de la lettre !

Se perdre dans le labyrinthe ?

En 1971, quelques années avant sa mort, la « reine des mots » livre Nemesis, roman qui éclaire rétroactivement tout le corpus :

« II s’agissait d’une jeune fille très douce, absolument adorable. […] Cependant, elle est morte. – De quoi ?, demanda doucement miss Marple. – D’amour […], reprit sa compagne d’une voix chargée de tristesse et d’amertume. L’amour. »

Pourquoi cette histoire paraît-elle une conclusion acceptable ? Parce que s’appeler Verity (comme la jeune fille morte) et reposer dans une terre ignorée illustre la grande affaire du polar : réhumaniser la victime comme le coupable, tout en semant des indices, la plupart du temps issus de la grande culture encyclopédique ou du fonds légendaire. Tout se passe comme dans un Cluedo géant, où les bribes du passé forment un étrange rébus : celui qui le déchiffre comprend qui est le coupable.

Pourtant, conservatrice et nostalgique, Christie l’a toujours été, même si avec elle vient le temps des vieilles dames malignes et des détectives belges, qui enquêtent sans ressentiment ni complaisance. Infanticide et démence prennent ainsi les rythmes équivoques d’une comptine ou d’un poème, car « chacun lit Agatha Christie à sa manière : de la dévoration de la découverte au suçotement de celui qui connaît l’histoire » (Sophie de Mijolla-Mellor, Meurtre familier, 1995).

The Conversation

Isabelle-Rachel Casta ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.03.2026 à 17:10

Municipales : « Le triomphe autoproclamé du RN et de LFI ne correspond pas à la réalité »

Frédéric Sawicki, professeur de science politique, Université Paris 1 Panthéon-Sorbonne
Quels enseignements tirer des résultats du premier tour des élections municipales ? Les percées des partis « protestataires », RN et LFI, doivent être relativisées, selon le politiste Frédéric Sawicki.
Texte intégral (2106 mots)

Si les bascules potentielles de grandes villes de gauche à droite (et inversement) sont mises en avant par les médias, elles demeurent rares. Les équipes municipales seront le plus souvent reconduites dans un scrutin qui échappe largement aux partis politiques. Les percées des partis « protestataires », RN et LFI, doivent, par ailleurs, être relativisées. Analyse du premier tour des municipales 2026 avec le politiste Frédéric Sawicki.


The Conversation : Quels sont les principaux enseignements du premier tour des élections municipales 2026, notamment en ce qui concerne l’abstention ?

Frédéric Sawicki : Selon les informations disponibles, le taux d’abstention est de 42,8 %. C’est bien moins que lors des municipales de 2020 qui furent perturbées par l’épidémie de Covid (55,3 %). Mais en 2014, l’abstention était de 36 %. Ces élections confirment donc la tendance continue, depuis le début des années 1990, de baisse de la participation en France, qui touche toutes les élections, sauf la présidentielle. Bien qu’elles soient présentées comme des élections de proximité, les municipales mobilisent moins de six Français·es sur dix.

Le changement de mode de scrutin dans les communes de moins de 1 000 habitants (la loi du 21 mai 2025 leur a imposé un mode de scrutin de liste paritaire et bloquée), qui représentent 70 % des communes françaises, a eu pour effet d’augmenter le nombre de communes où il n’y avait qu’une seule liste. Est-ce que cela a contribué à démobiliser les électeurs ? Il est trop tôt pour le dire.

Dans les grandes villes, les taux de participation sont très contrastés. À Paris, on est à 58,89 %, à Lyon à 64,45 % mais à Roubaix à 37 %. Cela s’explique en partie par un turnover important des populations – avec des personnes qui ne sont pas forcément attachées au territoire et qui ont du mal à identifier les acteurs et les enjeux municipaux. Il y a aussi le fait que beaucoup de décisions importantes sont désormais prises dans l’espace intercommunal, pour lequel les électeurs ne votent pas directement.

Mon autre remarque générale est que les médias se focalisent sur les villes où il y a un suspense, un risque de bascule, en cherchant à tirer des enseignements pour la présidentielle de 2027. Or, il est difficile de déduire de ces élections municipales des tendances générales nettes et des conclusions à propos des échéances nationales de l’an prochain. Les très grandes villes sont des vitrines pour les partis politiques, et pouvoir mettre en avant deux ou trois gains spectaculaires permet très largement de masquer le fait que, globalement, la plupart des maires de France sont reconduits dans leurs fonctions. En vérité, les municipales échappent de plus en plus aux partis politiques dans un contexte où de nombreux maires ne mettent plus en avant d’appartenance partisane, d’où la multiplication des listes « divers » (gauche, centre, droite, voire extrême droite) enregistrées par le ministère de l’intérieur.

Jordan Bardella, président du Rassemblement national (RN), a fait part de sa satisfaction au soir du premier tour en déclarant : « Les Français ont exprimé leur volonté avec clarté et, ce soir encore, une aspiration profonde au changement. » Son triomphalisme est-il justifié ?

F. S. : Le Rassemblement national va disposer mécaniquement en 2026 de beaucoup plus de conseillers municipaux qu’aux élections municipales précédentes. En 2020, il n’avait présenté que 325 listes contre 482 en 2026 si l’on inclut l’UDR d’Éric Ciotti, soit un surcroît de 4 300 candidatures. En revanche, il semble que, pour l’instant, il passe de 13 mairies à environ une vingtaine, ce qui reste modeste. En outre, en dehors de Marseille, Nice et Toulon, il n’est pas en situation d’avoir des conseillers municipaux dans la plupart des grandes villes françaises. Malgré un noyau électoral stabilisé depuis 2022 autour de 30 %, le RN se heurte à un plafond de verre faute d’alliés pour conquérir plus de villes. Là où il ne parvient pas seul à engranger la majorité, il doit compter sur le maintien des listes de ses adversaires pour espérer l’emporter à la faveur d’une triangulaire. Je relativiserais donc largement le message triomphaliste de Jordan Bardella à l’issue du premier tour.

Les Républicains (LR) pourraient-ils être tentés par des alliances avec le RN ?

F. S. : LR a peu de grandes villes, plutôt des villes moyennes et, là encore, les résultats devraient être stables. Le vrai problème de LR, comme du PS, c’est de conserver des élus qui s’affilient au parti plutôt que de jouer la carte « divers droite ».

Bruno Retailleau a appelé à faire barrage à LFI, considéré comme le seul ennemi extérieur à « l’arc républicain ». Est-ce une porte ouverte à des rapprochements avec le RN ? Pour l’instant, il ne semble pas que des fusions soient envisagées, mais il pourrait y avoir des désistements stratégiques entre LR et le RN. À Roubaix, par exemple, assistera-t-on à une fusion de listes LR-RN ou à un appel de la droite à voter RN sans pour autant fusionner ? Je pense qu’il peut surtout y avoir des dérives locales, des candidats divers droite ou anciens LR qui pactisent avec le Rassemblement national contre des postes d’adjoints. Bruno Retailleau ne maîtrise pas tout ce qui se passe localement et il peut fermer les yeux en assurant « Ce ne sont pas de vrais LR ». Cela est possible dans de petites communes, beaucoup moins dans de grandes villes médiatisées, car le risque de perdre une partie des électeurs serait important.

Jean-Luc Mélenchon, pour La France insoumise (LFI), s’est félicité d’une « magnifique percée » de son parti. Partagez-vous son analyse ?

F. S. : LFI devrait gagner Roubaix et a déjà gagné Saint-Denis, la plus grande ville de la couronne parisienne, c’est considérable, même s’il faut quand même rappeler qu’à Saint-Denis, c’est grâce à une alliance avec le Parti communiste français, qui, depuis longtemps, essaye de récupérer la ville perdue au profit des socialistes. Deuxième élément, LFI dépasse 10 % dans beaucoup de grandes villes, ce qui leur assure des mandats de conseillers municipaux qu’ils n’avaient quasiment pas jusqu’alors. Cela contribue donc à l’ancrage local d’un parti qui, jusque-là, était une machine présidentielle.

Pour la première fois, LFI a essayé, partout où c’était possible, de présenter des candidats – notamment dans les grandes villes ou dans les banlieues des grandes villes. De façon assez habile, le parti a mis en avant des candidats de la diversité, ce que les autres partis de gauche ont beaucoup plus de mal à faire. Des thématiques nationales et internationales – Gaza – ont été mises en avant, notamment la dénonciation des discriminations.

Reste que la performance de LFI est très contrastée. Si l’on compare aux européennes de 2024, il y a une forte progression à Toulouse, des progrès à Brest et à Clermont-Ferrand, mais pas de progrès à Lille, par exemple. Évry, en région parisienne, était considérée comme gagnable par LFI. Or, le candidat centriste a été élu dès le premier tour. À Paris, LFI a perdu des voix. Aux européennes, LFI y avait totalisé 16,7 % des votes et, dimanche, la liste Chikirou a obtenu 11,7 % : c’est une baisse très importante. Idem pour Nantes, Lyon, Nancy, Montpellier : LFI s’implante mais est loin de réitérer ses scores des européennes où le taux de participation était à peu près identique. Est-ce un effet des prises de position polémiques de Jean-Luc Mélenchon ? Est-ce un effet de l’union de la gauche choisie par le PS, Les Écologistes et le PCF ? Difficile à dire… Dans tous les cas, je relativiserais le « succès » de LFI. Ce qui est certain, en revanche, c’est que LFI pose un problème évident au Parti socialiste et aux écologistes : dans certaines villes, ces derniers ne pourront pas gagner sans alliance ou fusion technique avec le parti de Mélenchon.

Alors qu’ils avaient gagné de nombreuses villes en 2020, Les Écologistes sont-ils en pleine déroute ?

F. S. : Pour ce qui concerne Les Écologistes, il faut rappeler que la performance des villes gagnées en 2020 était en partie le produit de circonstances exceptionnelles : faible taux de participation, succès de Yannick Jadot aux élections européennes de 2019, discrédit des socialistes, mobilisation internationale en faveur du climat. Aujourd’hui, le contexte a complètement changé, et on pouvait s’attendre à des pertes. À Grenoble, à Bordeaux, à Strasbourg, les résultats ne sont pas très bons, mais pas si catastrophiques si on les rapporte, là encore, aux résultats des élections européennes et à l’inexpérience initiale des élus écologistes. Les résultats au bout du compte dépendront des fusions de listes, et la principale ville gérée par Les Écologistes, Lyon, contre tous les pronostics devrait leur rester acquise.

Quels sont les enjeux du second tour pour le PS ?

F. S. : Les dirigeants socialistes sont pris au piège de leurs divisions stratégiques vis-à-vis de LFI. En même temps, la forte autonomie laissée aux candidats locaux par Olivier Faure ouvre la porte à des arrangements pragmatiques. Il y a quelques risques de basculement de villes vers la droite, en cas de refus de désistement ou de fusion avec la liste LFI (Nantes, Brest, Clermont-Ferrand, peut-être Rennes). À Paris, l’avance dont dispose Emmanuel Grégoire semble le mettre relativement à l’abri de Rachida Dati. À Lille, Les Écologistes s’allient au PS contre LFI. On va assister à une variété de configurations qui vont peut-être se traduire par des solutions ad hoc, des accords locaux. Ces accords vont-ils changer les relations du PS et de LFI sur le plan national d’ici 2027 ? C’est bien peu probable à court terme, tant les arènes politiques municipales et nationale sont aujourd’hui déconnectées.

Les résultats de Renaissance confirment-ils l’échec du macronisme à s’implanter localement ?

F. S. : Effectivement, Renaissance a raté le coche de l’ancrage local en refusant d’utiliser les moyens du parti pour développer des collectifs locaux. En 2020, le parti d’Emmanuel Macron a tenté de débaucher des élus sortants de centre droit ou de centre gauche sans beaucoup de succès, à la différence d’Horizons d’Édouard Philippe. Renaissance a quelques espoirs à Bordeaux ou à Annecy, mais cela restera maigre, d’autant que Christian Estrosi a de fortes chances d’être battu à Nice. Le parti de Gabriel Attal est totalement absent de Lyon, de Marseille et de Paris – alors que la capitale est un bastion électoral macroniste aux élections nationales. Les macronistes n’ont pas de quoi être optimistes, mais ils ne le sont plus depuis la dissolution de 2024. L’implantation territoriale du centrisme repose aujourd’hui surtout sur Horizons d’Édouard Philippe, l’UDI et le MoDem. Si on veut en faire un test pour 2027, je dirais que ces municipales semblent plus favorables à Édouard Philippe, bien placé au Havre, qu’à Gabriel Attal, qui dirige Renaissance.


Propos recueillis par David Bornstein.

The Conversation

Frédéric Sawicki ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.03.2026 à 14:47

Beyond the ‘Spain is different’ slogan: putting an end to tourist clichés about Spain

Jorge Villaverde, Historien, CRIMIC/Sorbonne Université, Institut catholique de Lille (ICL); European University Institute
A fresh look at tourism in Spain revisits the “Spain is Different” slogan, revealing a longer, more complex and contested history than the 1960s boom suggests.
Texte intégral (3452 mots)
Palma Nova beach - a popular European holiday destination in the Spanish Balearic island of Majorca, 1960. Antonio Verdugo, Legacy Luis Fernández Fuster, University of Zaragoza, Huesca. , CC BY

Spain’s image abroad and how it has evolved over the centuries was the focus of a recent episode of Karambolage, a TV show on Franco-German European culture channel Arte. It traced the evolution of the “Black Legend” from the 16th century to the tourist slogan “Spain is Different”, popularised in the 1960s, suggesting an almost natural continuity between older historical stereotypes and tourism marketing associated with the Franco regime.

In the programme’s account, Spain is today associated with sunshine and flamenco, after having long been burdened with a negative reputation. From the 16th century onwards, at the height of its colonial empire, Protestant rivals spread hostile propaganda that helped shape the so-called Black Legend, portraying Spaniards as brutal and backward. This view persisted, particularly in 19th-century France, where the doubly racist expression “Africa begins at the Pyrenees” placed the country on the margins of a supposedly more civilised Europe.

The episode presents the following sequence: the civil war, followed by the Franco dictatorship, reinforced the country’s international isolation. In the 1960s, the regime then opened Spain to tourism. Under the leadership of Minister Manuel Fraga Iribarne, an ambitious campaign centred on tradition was launched under the slogan “Spain is Different,” which is presented as the trigger for Spain’s tourism boom.

The problem with this narrative lies in the way it simplifies a much more complex process. Moving from the Black Legend to the ironic reappropriation of a Francoist slogan may appear coherent. This interpretation echoes recent research on the role of tourism in the construction of Spanish identity and its international image.

But by joining up the dots in this way, the TV programme revives historical clichés that recent scholarship has significantly nuanced.

A seductive but peripheral difference

While the video evokes the frustration of some Spaniards with the distorted images associated with their country, it nevertheless tends to reinforce the idea of a Spain defined by the external gaze. This stems from the processes of eroticisation and exoticisation developed in the 19th century by the hegemonic powers of France and Britain towards their former imperial rival.

These representations are neither simple contempt nor a linear continuity between anti-imperial propaganda and later forms of condescension. They place Spain within an ambivalent form of otherness that relegates the former empire to the margins of a modernity defined elsewhere. Described as peripheral, the peninsula is simultaneously invested as a romantic space and a source of political and artistic inspiration. Even if visitor numbers remained far lower than in France, Switzerland or Italy, Spain occupied a central place in the European imagination.


À lire aussi : Tourisme culturel et mondialisation : l’Espagne, entre fiction et réalité


The 1900 world’s fair – Andalusia under Moorish rule. Alexandre Lunois. Bibliothèque nationale de France, CC BY

Contempt and exaltation stem from the same dynamic. These clichés combine hierarchy and attraction, aestheticisation and distance. Admiration itself participates in a symbolic reclassification that assigns Spain a seductive but peripheral difference.

It is therefore not enough simply to complicate the French gaze. It is also necessary to avoid reducing Spain to the object of an external symbolic construction. Such a reading obscures the country’s own internal dynamics. Spain is not only shaped by foreign projections. It is also a space of internal debate and intellectual circulation that extends beyond its borders.

From the early modern period, Spanish thinkers questioned the legitimacy of conquest and fully participated in European intellectual exchanges. In the 19th century, Spanish exiles and travellers encountered the industrialisation of wealthier countries and the prominence of world fairs. These experiences fuelled fundamental debates about Spain’s place in modernity.

Presenting the country as trapped in a negative reputation passively endured amounts to overlooking these internal debates and transnational exchanges, which helped define its place in European history.

An ambivalent slogan

But the main blind spot of this narrative appears when we examine the history of the slogan itself. It is true that a widely shared memory attributes “Spain is Different” to the Francoist Minister Manuel Fraga. Yet research shows that the formula emerged as early as the republican years, circulated widely in the 1940s and 1950s, and that the campaign launched under Fraga was more its culmination than its invention.

“Spain is Different” appeared as early as 1932–1933 in a series of photographic posters produced under the direction of Rafael Calleja, a conservative senior civil servant who remained in office from the Primo de Rivera dictatorship to the Republic. The slogan notably accompanied the image of an alcaldesa of Zamarramala, a female figure symbolically invested with authority during the annual festival.

SPAIN – Spain is Different PNT/OTC. Photo Francisco Andrada, 1932-1933. Arxiu Històric de la Ciutat de Barcelona AHCB4-205/C05

The choice is already singular and came at a time when the Republic was expanding women’s civic participation and profoundly transforming the political and social order.

During the civil war, the formula was quickly reappropriated. On the back cover of the magazine L’Esquella de la Torratxa, a family of English tourists contemplates a striking version of the poster. The “alcaldesa” is replaced by Franco, whose pose was meant to appear effeminate – a way of undermining him in the political culture of the time. Surrounded by a bishop, a colonial soldier and Nazi and Fascist officers, the motif of “difference” becomes political satire. It no longer refers to national particularities but to the spectacle offered to hesitant European democracies of the alliance between the putschists and the Fascist powers and their use of colonial troops.

International tourist propaganda – Visit Spain! David Santsalvador, La Esquella de la torratxa 13/11/1936. Biblioteca Virtual de Prensa Histórica, CC BY-NC-ND

In the English-speaking press, the slogan also served as a key to interpreting the conflict. It often appeared in accounts marked by imperial condescension that presented a “different” Spain as an unstable anomaly within civilised Europe. This longstanding trope helped naturalise violence, presenting it as the supposed expression of an inherent otherness rather than as part of a broader European breakdown of order.

Neither the slogan nor its main promoter disappeared after the war. The formula was revived in the 1940s and 1950s, notably in the volumes Apologías Turísticas de España, directed by Rafael Calleja (1943, 1957), as well as in several photographic poster campaigns featuring the slogans “Spain is Beautiful and Different” and “Spain is Beautiful and Different: Visit Sunny Spain.”

In the post–civil war period, the emphasis on Spain’s singularity accompanied the regime’s efforts to break its international isolation and integrate into the Western order dominated by the United States. Tourism promotion was now primarily aimed at the North American public, while this singularity became a diplomatic resource intended to present the country as an acceptable partner within the Western bloc.

Franco and Eisenhower met in Madrid, December 22, 1959. WikiCommons, CC BY

When Manuel Fraga relaunched a major campaign in 1962 under the slogan “Spain is Different,” the country was no longer isolated. The agreements concluded with the Holy See and the United States in 1953, Spain’s entry into the UN in 1955 and the Stabilisation Plan of 1959 marked its integration into the Western order and ushered in a period of very rapid growth. In the context of the post-war economic boom, tourism became one of the drivers of economic and social transformation. Spain was already welcoming nearly seven million visitors a year at the beginning of the decade and became part of an international leisure market alongside Italy and Greece.

The regime certainly sought to attract foreign exchange and improve its image. But reducing this policy to simple folkloric instrumentalisation oversimplifies a society undergoing rapid change. Administrators, entrepreneurs, artists and municipalities all participated in the construction of this new image. In an increasingly competitive tourism market, “difference” became a tool of differentiation. The rise of Spanish tourism is better explained by structural dynamics in post-war Europe than by the isolated action of a supposed providential figure.

Finally, implicitly contrasting a supposedly “backward” Spain with a “modern” Europe reproduces an old pattern that historiography has largely deconstructed. Spanish history should not be read as a trajectory lagging behind a supposedly normative European centre. Formulated in a prestigious cultural media outlet from wealthier countries, this opposition inadvertently revives older logics of cultural hierarchy.

From propaganda to reappropriation: when the slogan escapes the state

This same linear reading appears in the way the programme connects the Black Legend to the contemporary use of “Spain is Different,” as if these clichés had ultimately been internalised. Yet the slogan has had a long and contested history. From its earliest uses, it served to dispute the definition of the nation: in the conservative reaction to republican reforms, in antifascist satire during the civil war, in Anglo-Saxon narratives marked by imperial condescension, and later in a Franco regime first seeking US protection and then concerned with attracting foreign exchange and European recognition.

The Spanish example shows that ironic appropriation can constitute a form of critical distance. In the terms proposed by British sociologist Stuart Hall, this corresponds to an oppositional reading, in which a message produced by those in power is taken up and turned against them. The problem lies not in the irony itself but in the linear framework in which this history is placed.

It was not the last time. In 2012, the creation of “Marca España” by the Popular Party government – a party founded by Manuel Fraga at the end of Francoism – formed part of the neoliberal logic of nation branding. The organisation aimed to improve the country’s image abroad and among Spaniards themselves. Very quickly, the name became an object of sarcasm. At the slightest train delay, after a sporting defeat or a corruption scandal, a simple shrug was enough to prompt an ironic, “Marca España.”

Spanish distinctiveness has never constituted a stable essence. It has been a stake, a site of projection and conflict. Presenting it as a continuous thread linking longstanding stereotypes and Francoist marketing erases what matters most: Spanish “difference” has always been an object of dispute.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Jorge Villaverde ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.03.2026 à 11:33

Des appétits militaires à ceux des multinationales, l'épopée de la mine de lithium d'Échassières

Mathieu Bidaux, chercheur associé au laboratoire GRHIS, Université de Rouen Normandie
L’État vient d’investir 50 millions d’euros dans un projet de mine de lithium dans l’Allier. Le site a déjà une histoire industrielle, depuis la Première Guerre mondiale, notamment d’armement.
Texte intégral (1600 mots)

Alors que le groupe minier Eramet traverse une crise majeure, le projet de mine de lithium d’Échassières porté par Imerys, dans l’Allier, électrise le débat public. Ce que l’on oublie, c’est que ce site stratégique a une longue histoire industrielle, notamment dans le secteur de la défense, de 1913 à 1962.


L’État vient d’investir 50 millions d’euros dans EMILI, le projet de mine de lithium porté par la multinationale française Imerys au sud de l’Allier. Il comporterait environ un million de tonnes de lithium. Près de 34 000 tonnes pourraient être produites par an à partir de 2030, permettant de facto d’équiper 700 000 véhicules de fabrication européenne.

Le contexte actuel montre combien les ressources du sous-sol redeviennent un enjeu géopolitique majeur. Les minerais ukrainiens – terres rares et métaux non ferreux – suscitent l’appétit de Donald Trump. La présence de cuivre, graphite, ilménite, molybdène, fer, plomb, nickel ou d’or au Groenland ont transformé le territoire arctique en eldorado minier.

« Les mines du groupe Worms & Cie : une histoire de l’exploitation des minerais non ferreux en France (1938-1962) ». Wormstecie

Le lithium fait partie de ces matières premières stratégiques. La Chine en regorge et l’Occident en est dépendant, notamment pour les batteries électriques de son industrie automobile.

Ce n’est pas la première fois que le site minier d’Échassières attire l’attention. Pendant la Première Guerre mondiale, il avait suscité l’intérêt de l’armée française pour le wolframite, tungstate de fer et de manganèse, recherchés pour la fabrication d’aciers spéciaux. À l’approche de la Seconde Guerre mondiale, il est remis en exploitation puis aiguise l’appétit des Allemands en 1941 sous l’Occupation.

Alors, quelle est cette histoire industrielle ? Quelles leçons en tirer ?

Wolfram et Première Guerre mondiale

Une étrange roche noire et lourde est découverte en 1913 par un habitant de ce bourg rural. Le paysan est allé rendre compte de sa trouvaille au médecin local – le docteur Trapenard – qui en a conclu qu’il s’agissait d’un minerai de tungstène : le wolfram, utile à l’industrie de l’armement. Associé à la fabrication de l’acier en petite quantité, il peut servir à fabriquer des aciers blindés, des obus perforants et des outils de coupe.

Une première société, au capital de 50 000 F est fondée le 16 novembre 1913. En mai 1914, le capital est élevé à 250 000 F. En juin 1915, alors que la Grande Guerre fait des ravages, les premières livraisons de concentrés ont lieu. Fin 1915, le capital est élevé à 500 000 F. Le tri manuel du minerai débute en 1916. Ayant montré tout le potentiel de l’entreprise, la concession pour l’exploitation du wolfram lui est attribuée en juin 1917. La mine est en activité jusqu’à la fin de la Première Guerre mondiale et s’arrête en 1919. La laverie, permettant de laver et trier le minerai avant de le concasser et le fondre, avait produit 207 tonnes de concentré.

De la menace allemande au sauvetage par la Setem

Après être tombée en désuétude entre 1919 et 1937, l’entreprise regagne l’intérêt des pouvoirs publics et des sociétés consommatrices de wolfram. En 1941, le site attire l’attention des occupants allemands entrés en guerre contre la Russie soviétique. Alors que la direction des mines de wolfram d’Échassières est sur le point de vendre des parts de capital à l’IG Farbenindustrie, la Société d’études et d’explorations minières (Setem), département minier de la maison financière Worms & Cie, s’interpose et réussit à prendre le contrôle de la mine à la place des Allemands.

Worms & Cie est fondée par Hypolite Worms dans les années 1840. Quatre départements représentent alors ses activités : importation de charbon, transport maritime, construction navale et services bancaires. Le secteur des métaux non ferreux lui était ainsi étranger. Auprès des Allemands, sous l’Occupation, « nos dirigeants et le personnel d’encadrement durent déployer des trésors d’imagination pour justifier la nécessité de notre emploi à ne rien faire », estime Roger Barrel, chef d’exploitation de la mine d’Échassières (Pierre-Christian Guiollard, L’Industrie minière de l’antimoine et du tungstène, Éditions Atlantica, 2010, p. 222).

Dès lors, la mine parvient à ne pas vendre le moindre gramme de minerai à l’ennemi. Après la guerre, la mine de wolfram vend au Girm de tungstène, un organisme d’État, qui revendait ensuite. Alors que l’argument de l’indépendance nationale est sans cesse invoquée pour justifier l’existence de la mine, en réalité, environ 90 % de la production est vendue à l’étranger : États-Unis, République fédérale d’Allemagne (RFA) ou Royaume-Uni.

La guerre de Corée soutient alors le cours du tungstène. Les difficultés financières interviennent à partir de 1953-1954. En 1956, Worms & Cie décide de fusionner toutes ses mines de métaux non ferreux pour faire face à une féroce concurrence chinoise et soviétique, États à la main-d’œuvre moins chère et où l’on trouvait des gisements gigantesques.

Une multinationale a été créée par Worms – la Compagnie minière du M’Zaïta – qui mise sur des mines de cuivre du Chili et d’Algérie faisant partie du portefeuille de la Setem. M’Zaïta doit les mettre en exploitation, avant que les nationalisations chiliennes et la guerre d’Algérie ne mettent un terme à ces projets. Finalement, en 1959, M’Zaïta fusionne avec Peñarroya dont est issue, en partie, la société Imerys…

Naissance d’entreprises françaises multinationales

À qui profite cette industrie minière, indispensable et irremplaçable, comme le souligne le journaliste Guillaume Pitron dans la Guerre des métaux rares ? Imerys ? La population locale ? La France ?

Ce qui est certain, c’est que l’histoire du site d’Échassières montre qu’un gisement s’épuise. Sur le long terme, les sacrifices consentis peuvent donner naissance à une entreprise puissante, forte d’un rare savoir-faire. Worms & Cie a converti la mine d’Échassières en puissance financière en fusionnant toutes ses mines de métaux non ferreux.

Aujourd’hui, le site d’Échassières est lié à l’entreprise Imerys, issue de Peñarroya, société fondée par la Maison Rothschild et présente dans 40 pays, employant 12 300 salariés et réalisant 3,4 milliards de chiffre d’affaires. Imerys investit 180 millions d’euros dans la production de lithium et compte sur les projets d’EMILI, dans l’Allier et Imerys British Lithium, dans les Cornouailles au Royaume-Uni, pour « contribuer aux objectifs ambitieux de transition énergétique de l’Union européenne ».

Le site d’Échassières n’est pas près de disparaître que ce soit dans les débats publics ou dans les imaginaires collectifs.

The Conversation

Mathieu Bidaux travaille comme responsable histoire et patrimoine pour Worms & Cie.

16.03.2026 à 11:33

Entre capital-risque et capital patient : la stratégie des banques coopératives dans les fintech

Valérie Lelièvre, Maître de conférences en Sciences économiques, Chercheur au BETA et membre de la Chaire EFNUM, Université de Lorraine
Jean-Noël Ory, Professeur des Universités en finance, Université de Lorraine
Les banques coopératives ont développé une approche originale vis-à-vis des fintech. Dans ce paysage, le Crédit agricole a adopté la stratégie de capital investisseur patient.
Texte intégral (1811 mots)

Entre les banques sociétés anonymes et les banques coopératives, la différence concerne notamment la structure du capital et, ce faisant, la gouvernance. Cela a-t-il un impact sur leur manière d’aborder les fintech ? Quelles approches ont développé les banques coopératives pour devenir des investisseurs pas comme les autres ?


Pour faire face à la montée en puissance des fintech, les banques françaises explorent de nouvelles formes d’investissement. L’enjeu est de s’adapter au contexte de transformation numérique, où l’offre innovante restructure la demande de services financiers. Les banques coopératives se distinguent en entrant très tôt au capital de jeunes start-up de la finance, parfois dès la phase d’incubation.

Cette stratégie risquée leur permet d’apprendre, de tester des technologies et d’ajuster leurs choix dans le temps. Elle les rapproche d’une logique de capital-risque. Si cette logique est a priori en contradiction avec le modèle coopératif originel, qu’elles revendiquent comme davantage ancré sur la relation de long terme et la proximité avec la clientèle, elle constitue néanmoins une réponse cohérente.

Nous avons recensé 177 entrées au capital de fintech provenant des cinq grands groupes bancaires français depuis 2005, dont 85 émanant des groupes coopératifs (BPCE, Crédit mutuel et Crédit agricole). Relativement aux groupes SA (BNPP et Société générale), ils entrent à des stades de développement plus précoces : 62 % en phase d’amorçage, dont 22 % en période d’incubation


À lire aussi : Banques coopératives contre banques traditionnelles : deux modèles, deux visions de la finance


La théorie des options réelles comme grille de lecture

Cette différence de stratégie peut s’analyser au regard de la théorie des options réelles (TOR) qui souligne l’intérêt de pouvoir ajuster les décisions d’investissement au fil du temps dans un environnement où les trajectoires technologiques sont peu prévisibles et où l’information s’acquiert progressivement, ce qui est typique des jeunes fintech. Y investir s’apparente à un mécanisme d’apprentissage qui permet de révéler progressivement la qualité du projet, d’observer les évolutions réglementaires, technologiques et d’ajuster la stratégie en fonction des évolutions du marché. La TOR conceptualise ces engagements comme des droits conditionnels : la décision d’investir dans un projet risqué est vue comme l’achat d’une option (d’un droit) à reporter, à maintenir, à faire évoluer ou à abandonner le partenariat.

Investir dans une fintech présente un caractère fortement irréversible, car les ressources engagées sont en grande partie spécifiques, peu redéployables et difficilement récupérables en cas d’échec. Il s’agit des capitaux investis dans des actifs immatériels (algorithmes, compétences, données) dont la valeur est contingente au projet, et de coûts organisationnels (temps managérial, apprentissage conjoint, alignement des processus). Ces coûts seront d’autant plus élevés que la fintech est jeune.

Investir dans les fintech : les enjeux liés à l’incertitude

La stratégie et les objectifs des banques coopératives, répondant davantage à une gouvernance partenariale, sont moins sensibles à la rentabilité immédiate et s’ancrent davantage dans des relations durables, au sein des territoires. Leur horizon est plus long que celui des banques ayant le statut de sociétés anonymes et est davantage compatible avec des retours sur investissement plus étalés dans le temps.

Elles peuvent alors accepter des coûts d’irréversibilité plus élevés et intervenir à un stade plus précoce de la fintech, en exerçant une option d’apprentissage. Ainsi, elles peuvent avoir un accès privilégié à l’information et à la technologie, suivre l’évolution de la fintech et profiter des retombées positives que cette dernière génère pour acquérir et diffuser des compétences en interne.

Une logique de capital-risque ?

L’option d’apprentissage permet d’affiner l’évaluation stratégique du projet : si les signaux sont favorables, la banque peut augmenter son engagement. C’est le principe des options de croissance séquencées (par escaliers) : l’option peut être une montée au capital, une acquisition future ou une intégration industrielle. Les banques coopératives ayant de larges réseaux, une solution technologique peut potentiellement émerger au niveau local puis être déployée à grande échelle, permettant une mutualisation des coûts pour les caisses régionales.

À l’inverse, en cas de signaux négatifs (échec technologique, inadéquation stratégique…), l’intervention de la banque coopérative à un stade précoce de la fintech lui permet d’abandonner à un coût limité, c’est l’option d’abandon. Ainsi, BPCE est sorti de Payplug et de FundsDTL, le Crédit agricole est sorti de Setl, le Crédit mutuel est sorti de Linxo et a fermé Omax et Pumpkin.

Les banques coopératives se comporteraient dès lors comme des capitaux-risqueurs jouant un rôle de révélateurs d’informations, en sélectionnant, en finançant et en accompagnant les jeunes fintech jusqu’à un stade où elles pourraient exercer d’autres options. Avec des tickets d’entrée plus faibles, les partenariats avec des fintech au stade précoce permettent de multiplier les expériences, de tester plusieurs technologies et d’abandonner rapidement les projets non viables ou qui ne correspondent pas à la stratégie de la banque.

En d’autres termes, leurs investissements dans les fintech naissantes peuvent s’analyser comme un portefeuille d’opportunités (d’options) à saisir progressivement.

Un investisseur patient

Notre étude montre, qu’au sein des groupes coopératifs, le Crédit agricole (CA) se démarque. En effet, si la moitié des entrées au capital de fintech de BPCE et du Crédit mutuel (CM) se fait aux premiers stades de développement de la fintech, CA intervient encore plus en amont. À travers les Villages by CA et La Fabrique, la banque verte joue le rôle d’incubateur et d’accompagnatrice aux tout premiers stades de développement des fintech : 51 % de ses premières entrées en relation se font en phase d’incubation (0 pour BPCE et pour CM) et 78 % au stade d’amorçage.

Le Crédit agricole pourrait donc être davantage qualifié d’« investisseur patient ». En engageant du capital sur le long terme sans exiger de rendements rapides et en maintenant son investissement même en contexte d’incertitude, il privilégie la création de valeur durable plutôt qu’une sortie rapide. Il accompagne ainsi les start-up sur le plan stratégique au-delà du simple financement. En échange, il peut bénéficier d’une valorisation future de la fintech, lors des levées de fonds ultérieures.

Le CA peut soutenir des projets innovants grâce à des structures spécifiques. Dans son « start-up studio » La Fabrique, créé en 2018, des start-up sont conçues et développées en interne (c’est le cas de Blank, la néobanque consacrée aux indépendants). Dans ses 47 « Villages by CA », accélérateurs de start-up implantés dans les territoires, il accompagne de très jeunes start-up en leur apportant des ressources multiformes. Investisseur patient, le CA est encore présent dans le capital de 19 fintech passées par ces structures.

Fnege Médias – 2025.

Deux types de gouvernance, deux stratégies

Si les banques coopératives investissent aux premiers stades de développement des fintech, les banques sociétés anonymes (BNP Paribas et Société générale) interviennent généralement plus tard, exerçant une option d’attente. Davantage soumises à une exigence de rentabilité des fonds propres à court terme, elles privilégient une logique d’intervention moins risquée, plutôt au stade de capital-développement de la fintech, lorsque l’innovation s’est déjà transformée en un actif plus sûr.

Leur stratégie s’apparente davantage à celle d’un capital-investisseur privé, limitant le risque au départ tout en visant la valorisation future, via des entrées en bourse ou des sorties ultérieures. Cette complémentarité des financements reflète une division des rôles cohérente avec les contraintes de gouvernance des deux types de banques.

Au final, les spécificités des banques coopératives constituent toujours un socle favorable à des relations de long terme qui prennent la forme d’investissements en capital risque patient. Cela les différencie d’un capital risqueur classique, au sens où l’enjeu principal n’est pas la valorisation financière de la fintech, mais la capacité à absorber, à diffuser et à recombiner l’innovation dans des réseaux bancaires par nature décentralisés.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

16.03.2026 à 11:33

Charles Ponzi nous permet-il de comprendre la bulle de l’IA ?

Paul David Richard Griffiths, Professor of Finance; (Banking, Fintech, Corporate Governance, Intangible Assets), EM Normandie
Les bulles technologiques ont souvent dissimulé de grandes fraudes. Du boom ferroviaire à l’affaire Madoff, y a-t-il des signes avant-coureurs pour comprendre la frénésie actuelle autour de l’IA ?
Texte intégral (2520 mots)
L’escroc Charles Ponzi (né Carlo Pietro Giovanni Guglielmo Tebaldo Ponzi en 1882 en Italie et mort au Brésil en 1949) se fait connaître dès 1920 pour ses manœuvres financières frauduleuses. Wikimedia Commons

Les bulles technologiques ont souvent dissimulé de grandes fraudes. Du boom ferroviaire britannique au XIXᵉ siècle à l’affaire Madoff, y a-t-il des signes avant-coureurs qui peuvent nous permettre de comprendre la frénésie actuelle autour de l’IA et sa potentielle bulle ?


De nombreux investisseurs se demandent si nous vivons dans une bulle IA ; d’autres vont plus loin et se posent la question de savoir jusqu’à quand. Pourtant, la bulle continue de gonfler, alimentée par ce sentiment dangereux de « peur de passer à côté » (FOMO pour Fear Of Missing Out). L’histoire et l’expérience récente nous montrent que les bulles financières naissent souvent de l’enthousiasme excessif des investisseurs pour les nouvelles technologies « révolutionnaires » qui, lorsqu’elles éclatent, révèlent des systèmes frauduleux surréalistes qui se sont développés sous couvert de la bulle.

Concrètement, un système de Ponzi consiste à rémunérer les investisseurs existants avec l’argent apporté par de nouveaux investisseurs plutôt qu’avec de vrais profits, ce qui nécessite un recrutement continu jusqu’à son effondrement inévitable. L’une des caractéristiques de ces systèmes est qu’ils sont difficiles à détecter avant l’éclatement de la bulle, mais étonnamment simples à comprendre avec le recul.

Dans cet article, nous abordons la question suivante : quelles traces les systèmes de Ponzi laissent-ils dans les bulles financières alimentées par la technologie ? Comment pourraient-elles nous aider à anticiper la prochaine bulle qui émergera dans le tumulte de l’IA ?

Pour ce faire, nous comparerons le Ponzi du « roi du chemin de fer » George Hudson, dans les années 1840, à celui de Bernie Madoff, rendu possible par les technologies de l’information et de la communication (TIC) et les dotcoms des années 1990-2000, puis soutenu par la bulle immobilière qui a suivi aux États-Unis.

« Railway Mania » de George Hudson

La « Railway Mania » débute au Royaume-Uni en 1829. Elle émerge sous l’effet à la fois des attentes des investisseurs quant à la croissance de cette nouvelle technologie et du manque d’alternatives d’investissement provoqué par l’arrêt de l’émission d’obligations par le gouvernement. La promesse de la technologie ferroviaire entraîne un afflux de compagnies ferroviaires avec l’enregistrement de plus de 50 entreprises au cours des quatre premiers mois de 1845 seulement.

George Hudson (1800–1871), caricaturé ironiquement « hors des sentiers battus » dans la revue Punch. Wikimédia

À cette époque, les estimations des coûts de développement ferroviaire sont sous-évaluées de plus de 50 %, et les prévisions de recettes sont estimées entre 2 000 et 3 000 livres sterling par mile, alors que les recettes réelles se situent plutôt entre 1 000 et 1 500 livres par mile. (Cent livres sterling en 1845 équivalent à 15 782,99 livres sterling en 2026, soit 18 216,73 euros, ndlt) Les normes comptables rudimentaires permettent une certaine liberté dans la présentation des comptes, comme le report de la comptabilisation des dépenses. La responsabilité des directeurs incombe aux actionnaires et non à des auditeurs externes ou à des représentants de l’État.

George Hudson, qui est également membre du Parlement, encourage la déréglementation du secteur ferroviaire.

Ponzi de Bernard Madoff

La réputation de Bernard Madoff s’est construite sur son succès dans les années 1970 grâce à l’informatisation et à l’innovation technologique dans le domaine du trading. La bulle Internet est alimentée par l’expansion rapide des entreprises technologiques, avec plus de 1 900 sociétés TIC cotées sur les bourses américaines entre 1996 et 2000, ce qui permet à son fonds BLMIS de détenir 300 millions de dollars d’actifs en 2000 (alors plus de 300 millions d’euros, ndlr).


À lire aussi : En finir avec la finance Ponzi, vraiment ? Le cas « Martin Shkreli »


Bernard Madoff (1938-2021), président fondateur de Bernard L Madoff Investment Securities LLC, l’une des principales sociétés d’investissement de Wall Street. En 2008, il est arrêté par le FBI pour escroquerie de type « système de Ponzi ». Wikimédia

Le système de Madoff se développe dans un contexte de croissance rapide des produits dérivés, tels que les credit default swaps (CDS) et les collateralized debt obligations (CDO), qui augmentent de 452 % entre 2001 et 2007. La forte volatilité des marchés engendre une normalisation des rendements exceptionnellement élevés, masquant le caractère irréalisable des performances promises par Bernard Madoff. Ces rendements sont considérés comme modérés par les investisseurs, qui ne perçoivent pas l’invraisemblance d’une telle constance sur le long terme, ce qui permet au système de durer sans être détecté.

Les activités de Bernard Madoff sont facilitées par le fait qu’avant la loi Dodd-Frank de 2010 sur la supervision des banques, l’enregistrement des hedge funds (fonds spéculatifs) auprès de la Securities and Exchange Commission (SEC, l’organisme de régulation des marchés financiers) est volontaire. De plus, après les attentats du 11 septembre 2001, les ressources gouvernementales sont réorientées vers la sécurité nationale, entraînant une baisse de plus de 25 % des enquêtes ouvertes pour crimes financiers entre 2000 et 2003.

L’invraisemblance des rendements de Bernard Madoff est négligée par la SEC, malgré les signalements de lanceurs d’alerte qui ont déclenché une enquête – ce qui reflète son manque de connaissances et celui d’autres organismes de réglementation en matière de trading des hedge funds. Cela a également pu être le résultat de l’influence des relations étroites de Madoff avec les autorités de régulation, compte tenu de ses fonctions passées de président du Nasdaq et de conseiller en structure de marché auprès de la SEC.

Au moment de l’éclatement de la bulle ferroviaire, les taux d’intérêt de la Banque d’Angleterre sont à leur plus bas niveau depuis près d’un siècle. De même, la baisse des taux d’intérêt par la Réserve fédérale états-unienne (Fed) dans les années 2000 réduit le coût des crédits immobiliers, stimulant la demande et contribuant à l’inflation des prix de l’immobilier. Dans les deux cas, les marchés sont inondés d’argent bon marché et lorsque tout le monde gagne de l’argent (ou pense en gagner), les questions qui dérangent ne sont pas posées.

De l’ascension à la chute des fraudeurs

George Hudson de même que Bernard Madoff communiquent très peu sur leurs opérations auprès de leurs collègues directeurs et actionnaires. Le premier lève notamment 2,5 millions de livres sans fournir de plan d’investissement détaillé. Madoff, quant à lui, emploie et surpaye des collaborateurs peu qualifiés afin de décourager les questions sur le fonctionnement interne, et évite les réunions de présentation aux investisseurs pour ne pas avoir à répondre aux interrogations de professionnels avertis. Il recrute plutôt ses investisseurs par le biais de relations philanthropiques et de réseaux personnels. Des éléments suggèrent que certains actionnaires sont en partie conscients des pratiques commerciales douteuses de Hudson, mais ils ne s’y opposent pas initialement.

Lorsque leurs bulles respectives éclatent, ces pratiques commerciales douteuses sont révélées, et il apparaît clairement qu’ils utilisent, selon le système classique de Ponzi, des capitaux frais – et non les bénéfices des investissements – pour verser des dividendes aux investisseurs. Il a également été révélé qu’ils utilisent les fonds des investisseurs pour financer leurs trains de vie luxueux. Hudson aurait détourné environ 750 000 livres (soit environ 74 millions de livres actuelles, soit 85,4 millions d’euros, ndlt), tandis que la fraude de Bernard Madoff a atteint 65 milliards de dollars de pertes déclarées, avec des pertes réelles pour les investisseurs estimées à environ 18 milliards.

Tous deux ont terminé dans la disgrâce : Hudson s’est enfui en France et Madoff est mort en prison.

Sur la piste du renard

Méfiez-vous lorsque vous voyez des entreprises d’IA dont la valeur marchande ne cesse d’augmenter, dirigées par des leaders charismatiques et influents – il est préoccupant que les dirigeants des géants de l’IA entretiennent des relations aussi étroites avec la Maison-Blanche.

Dans ces cas, il est impératif d’analyser la qualité des communications avec les actionnaires et les investisseurs potentiels, notamment en termes d’allocation du capital et de transparence sur les flux de trésorerie détaillés. Il ne suffit pas de se fier aux états financiers audités ; il faut aller beaucoup plus loin dans l’examen de la stratégie d’investissement – ce qui exigera évidemment des auditeurs qu’ils redoublent d’efforts.

Lorsque les investisseurs sont pris dans la frénésie, au coin de la rue attend un Ponzi.


Geneva Walman-Randall a contribué à cet article en tant qu’assistante de recherche sur les conditions entourant les systèmes de Ponzi de Bernie Madoff et de George Hudson. Elle a mené cette recherche en tant qu’étudiante invitée au St. Catherine’s College d’Oxford.

The Conversation

Paul David Richard Griffiths ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

50 / 50

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌞