17.03.2026 à 16:30
Firouzeh Nahavandi, Professeure émérite, Université Libre de Bruxelles (ULB)
Pendant des siècles, les sociétés iraniennes ont développé des techniques sophistiquées pour gérer l’eau dans un environnement aride. Aujourd’hui, la surexploitation des ressources, les choix de développement, la corruption et les tensions géopolitiques transforment cette question vitale en l’un des défis majeurs de l’Iran contemporain – un défi encore accentué par la guerre en cours.
Situé dans la grande ceinture aride qui s’étend du Sahara à l’Asie centrale, l’Iran connaît depuis toujours des conditions climatiques difficiles. Dans de vastes régions du pays, l’eau est une ressource rare et précieuse. Cette contrainte a profondément façonné l’organisation des sociétés iraniennes. Très tôt, elles ont développé une véritable culture de la gestion de l’eau fondée sur l’adaptation aux contraintes naturelles et sur la préservation de la ressource. Mais cet équilibre fragile est aujourd’hui en train de se rompre.
L’histoire et l’évolution de ces systèmes hydrauliques ont été largement étudiées par les chercheurs, notamment dans les travaux d’Henri Goblot et de Willem Floor, ainsi que dans les analyses contemporaines de Kaveh Madani sur la crise hydrique iranienne.
Le système hydraulique le plus emblématique est celui du qanat. Mis au point il y a plus de deux millénaires, il consiste en une galerie souterraine légèrement inclinée qui capte l’eau des nappes phréatiques situées dans les piémonts montagneux et la transporte vers les zones habitées ou agricoles.
Cette technique présente plusieurs avantages décisifs dans un climat désertique : l’eau circule sous terre et échappe largement à l’évaporation, l’écoulement lent protège les nappes phréatiques et le système fonctionne sans énergie mécanique.
L’un des exemples les plus impressionnants se trouve dans la ville de Gonabad, dans l’est du pays. Son qanat, inscrit au patrimoine mondial de l’Unesco, s’étend sur plus de 30 kilomètres et certaines galeries atteignent près de 300 mètres de profondeur. Construit il y a plus de deux mille cinq cents ans, ce réseau fonctionne encore aujourd’hui, illustrant le niveau d’ingénierie hydraulique atteint par les sociétés anciennes du plateau iranien.
Les qanats n’étaient pas seulement une prouesse technique : ils reposaient aussi sur une organisation sociale élaborée. Dans les villages, la distribution de l’eau était assurée par un responsable appelé mirab, chargé de répartir les droits d’irrigation entre les agriculteurs selon un calendrier précis. Chaque famille disposait d’un temps déterminé pour irriguer ses terres.
Dans ces sociétés rurales, l’eau était considérée comme un bien commun soumis à une véritable « justice de l’eau » : détourner la ressource au détriment des autres membres de la communauté était perçu comme une faute grave.
La maîtrise de l’eau a également joué un rôle essentiel dans les grandes réalisations de l’Empire achéménide (v. 550-330 avant notre ère).
Le site de Persépolis témoigne d’une planification hydraulique remarquable. Les ingénieurs achéménides y avaient aménagé, quelque cinq cents ans avant notre ère, un réseau sophistiqué de canaux et de systèmes de drainage afin de protéger les bâtiments monumentaux contre les inondations saisonnières et assurer l’approvisionnement du complexe.
Outre les qanats, les villes iraniennes avaient développé d’autres infrastructures ingénieuses pour conserver l’eau. Les ab anbar, vastes citernes souterraines destinées au stockage de l’eau potable, permettaient de constituer des réserves pour les périodes de sécheresse. Elles étaient souvent associées à des tours de ventilation appelées bâdgir, qui captaient les vents dominants et permettaient de refroidir l’air ainsi que l’eau stockée.
Malgré cet héritage hydraulique remarquable, l’Iran est aujourd’hui confronté à une crise de l’eau d’une ampleur inédite. Les équilibres environnementaux qui avaient permis pendant des siècles une gestion relativement durable des ressources hydriques ont profondément changé au cours des dernières décennies.
Au début du XXᵉ siècle, l’Iran comptait plus de 50 000 qanats actifs qui alimentaient villes et terres agricoles. Aujourd’hui, une grande partie de ces réseaux est abandonnée ou asséchée. L’urbanisation rapide, le pompage intensif dans les nappes phréatiques et la transformation des systèmes agricoles ont profondément bouleversé les équilibres hydrologiques.
La centralisation administrative, les projets hydrauliques mal planifiés et la corruption dans l’attribution des concessions agricoles ou des infrastructures ont également contribué à fragiliser ou à détruire des systèmes traditionnels qui avaient pourtant fonctionné durablement pendant des siècles.
L’Iran reçoit aujourd’hui en moyenne environ 250 millimètres de précipitations par an, soit près de trois fois moins que la moyenne mondiale. Si cette contrainte climatique est ancienne, les politiques de développement adoptées depuis plusieurs décennies ont considérablement accentué les tensions environnementales.
L’agriculture absorbe près de 90 % des ressources hydriques du pays, souvent à travers des techniques d’irrigation peu efficaces. La multiplication des barrages et l’exploitation massive des nappes phréatiques ont profondément modifié les équilibres hydrologiques.
La dégradation de l’environnement se manifeste désormais dans plusieurs régions du pays.
Le lac d’Ourmia, dans le nord-ouest de l’Iran, a perdu de 80 à 90 % de sa surface depuis les années 1990. La ville d’Ispahan offre un autre exemple révélateur : le fleuve Zayandeh Roud, qui traversait autrefois la ville, est aujourd’hui asséché.
Dans certaines régions, l’abaissement du niveau des nappes phréatiques provoque l’affaissement des sols, phénomène qui menace les infrastructures et les zones urbaines. Parallèlement, la dégradation des ressources hydriques accentue les tensions sociales dans les zones rurales, où l’accès à l’eau devient de plus en plus difficile pour les populations et les agriculteurs.
Dans la province du Khouzestan (au sud-ouest du pays), la pénurie d’eau potable, les tempêtes de poussière et la pollution industrielle ont également provoqué, ces dernières années, de nombreuses manifestations.
Cette situation contribue aussi à des migrations internes croissantes, certaines régions devenant de moins en moins habitables en raison de la raréfaction de l’eau et de la désertification.
La crise est devenue si profonde que certains responsables iraniens ont même évoqué l’idée de déplacer la capitale hors de Téhéran – une hypothèse longtemps impensable qui révèle l’ampleur des déséquilibres environnementaux et démographiques auxquels la métropole est aujourd’hui confrontée.
Dans un pays déjà frappé par une pénurie d’eau structurelle, la guerre déclenchée le 28 février dernier peut agir comme un puissant accélérateur de crise. Des frappes contre les infrastructures énergétiques ou industrielles majeures, conjuguées aux désorganisations économiques, feraient peser une pression supplémentaire sur des ressources hydriques déjà au bord de l’épuisement.
Car, au-delà des affrontements militaires, c’est peut-être la bataille pour l’eau qui déterminera l’avenir du pays.
La crise hydrique que traverse l’Iran dépasse largement la seule question environnementale. Elle résulte d’un enchevêtrement de transformations profondes : croissance démographique rapide, politiques agricoles intensives, urbanisation accélérée et abandon progressif des systèmes hydrauliques traditionnels qui avaient pourtant permis pendant des siècles de gérer la rareté de l’eau sur le plateau iranien. L’assèchement de nombreux aquifères, la disparition de lacs et de zones humides ainsi que la surexploitation des nappes souterraines témoignent de l’ampleur du déséquilibre écologique auquel le pays est désormais confronté.
À ces fragilités structurelles s’ajoutent aujourd’hui des tensions économiques et géopolitiques susceptibles d’accentuer encore les pressions sur les ressources naturelles. Dans un tel contexte, la question de l’eau ne relève plus seulement de la gestion environnementale : elle devient un enjeu central de stabilité économique, sociale et politique.
Car, dans un pays façonné depuis des millénaires par la rareté de l’eau, sa disparition progressive n’est pas seulement une crise écologique : elle menace un équilibre historique entre société, territoire et ressources.
Firouzeh Nahavandi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.03.2026 à 16:29
Mathilde Bouteiller, Chargée de recherche en microbiologie & biologie moléculaire de l'unité AGHYLE, UniLaSalle
Guillemette Garry, Enseignante chercheure en biologie option phytopathologie, associée à l'Unité de recherche Aghyle, UniLaSalle

Les humains ne sont pas les seuls à être dotés de microbiotes. Les plantes aussi. Les milliers de microorganismes qui vivent sur leurs feuilles sont encore peu connus, mais pleins de potentiels pour accroître leur croissance ou améliorer leur rendement, ou encore leur résistance au stress.
À l’heure où l’utilisation des pesticides et des engrais de synthèse pose de plus en plus question, des alternatives efficaces doivent être trouvées. Parmi les solutions qui sont à l’étude, l’utilisation de produits d’origine naturelle, aussi appelés biosolutions, montre des résultats prometteurs.
Les biostimulants font partie de ces alternatives. Ils peuvent être de diverses origines et contiennent par exemple des extraits d’algues, des microorganismes, comme des champignons ou des bactéries, des extraits végétaux, des acides aminés… On les applique de multiples manières, en les pulvérisant sur les feuilles, en enrobant les graines ou directement dans le sol.
Ces produits fonctionnent en stimulant les processus biologiques naturels des plantes pour améliorer leur nutrition, leur croissance, leur rendement ou leur résistance au stress. Là où un engrais va apporter directement un élément nutritif (comme l’azote, le phosphore, le potassium) propice à la croissance des plantes et où un pesticide sera utilisé pour éradiquer les agresseurs des plantes, les biostimulants vont, eux, permettre à la plante d’augmenter ses propres capacités.
Il existe ainsi plusieurs avantages à utiliser des traitements foliaires plutôt que des traitements au sol.
Premièrement, ces traitements ont une activité plus rapide puisque la solution va pouvoir agir directement sur le métabolisme de la plante, sans trop dépendre de l’environnement très complexe que représente le sol. De plus, les doses utilisées en traitement foliaire sont bien moins importantes que lors d’une application au sol, ce qui rend ces traitements moins onéreux.
Par ailleurs, il est fréquent d’appliquer ce type de traitement en association avec d’autres traitements foliaires (herbicide, fongicide), dont l’effet négatif semble contrebalancé par l’effet du biostimulant.
Ce qui rend également les biostimulants particulièrement intéressants réside dans leur possibilité d’interagir avec le microbiote des plantes. Car les humains ne sont pas les seuls à vivre aux contacts d’une myriade de bactéries, de champignons, et autres microorganismes, qui exercent des fonctions importantes.
Les organismes présents dans les microbiotes de la plante comprennent :
des bactéries (microorganismes unicellulaires sans noyau) ;
des archées (microorganismes unicellulaires sans noyau formant un règne à part entière différent des bactéries) ;
des champignons pluricellulaires produisant du mycélium ;
des champignons unicellulaires (comme les levures) ;
des algues (végétaux unicellulaires) et des protistes (cellules unicellulaires non classifiables dans le règne animal, végétal ou fongique) ;
des virus et des bactériophages (virus qui attaque exclusivement les bactéries).
Chez les végétaux, ces microorganismes sont notamment présents au niveau des sols, des racines et des parties aériennes (tiges, feuilles, fruits et fleurs).
Les biosolutions ou les produits de lutte chimique vont être directement en contact avec ces microorganismes qui constituent le microbiote de la plante.
Plusieurs études ont déjà montré l’impact des biostimulants sur le microbiote au niveau des racines et du sol. Ces microorganismes du sol et des racines sont regroupés sous le nom de rhizosphère. Des biosolutions appliqués au sol sont, par exemple, capables de modifier les communautés microbiennes du sol, notamment en augmentant l’abondance en champignons mycorhiziens (champignons connus pour améliorer l’acquisition de nutriments par les plantes, qui favoriseraient la croissance et le rendement des cultures).
Malheureusement, à l’heure actuelle, peu d’études sur les microorganismes présents au niveau des parties aériennes des plantes, aussi appelés phyllosphère, sont recensées. Pourtant, nous savons que ces microorganismes exercent une activité globalement positive sur les plantes hôtes et qu’ils sont directement influencés par les produits appliqués sur les feuilles.
Au sein de la phyllosphère, les microorganismes sont capables d’interagir entre eux ainsi qu’avec leurs plantes hôtes avec lesquelles ils entretiennent une relation symbiotique, c’est-à-dire une association biologique, durable et réciproquement profitable, entre deux organismes vivants.
De ce fait, ce microbiote joue un rôle important dans le développement et la nutrition des plantes. Par ailleurs, comme cela est observé pour le microbiote cutané chez l’humain, la présence de microorganismes sur la surface des parties aériennes permet à la plante de se protéger et de prévenir de l’attaque d’organismes pathogènes. Une étude montre par exemple que certains membres de la communauté microbienne des feuilles fournissent une protection significative contre un agent pathogène chez l’arabette des dames, une plante à fleur très commune en Europe.
Mais pour mieux comprendre toutes les potentialités des alliances bénéfiques qui se jouent au niveau des feuilles des plantes, point de mystère, il faut mieux les connaître, et les étudier.
Pour étudier les microbiotes, on analyse généralement l’ADN des microorganismes.
La métagénomique est une méthode d’analyse fondée sur la technique de séquençage des ADN (déterminer la séquence des bases de tous les gènes du génome) d’un environnement donné. Avec cette méthode, l’étude des microorganismes prédominants dans un milieu spécifique est possible grâce à l’identification de ces microorganismes, en comparant leurs séquences avec des séquences de microorganismes déjà identifiés dans des bases de données appelées BLAST. Avec la métagénomique, on peut également connaître les fonctions que jouent ces microorganismes. Ces techniques, très à la mode, sont utilisées puisqu’elles présentent l’avantage de ne pas être basées sur la mise en culture de microorganismes parfois très difficile voire impossible.
Cependant, les études basées sur l’ADN ne permettent pas de distinguer l’ADN de microorganismes morts ou vivants et de savoir si ces microorganismes sont actifs. Au sein du laboratoire AGHYLE, le microbiote de la phyllosphère est donc étudié en parallèle par la mise en culture de certains microorganismes sur boîte de Pétri, bien que ces derniers ne représentent que quelques pourcents du microbiote total.
Les bactéries obtenues et isolées de la phyllosphère présentent généralement une grande diversité de couleur, de texture et d’aspect. La coloration permet aux microorganismes de mieux résister aux UV, ce qui est un avantage sélectif, car ils doivent être capables de résister aux rayons du soleil à la différence de ceux de la rhizosphère. Certaines bactéries forment des colonies très mucoïdes (grasses) ce qui les rendent également plus résistantes à la sécheresse.
Plusieurs études indiquent que des microorganismes provenant de la phyllosphère présentent des activités bénéfiques pour les plantes. Par exemple, sur la phyllosphère, les bactéries Methylobacterium sont reconnues pour stimuler la croissance des plantes et les protéger des bioagresseurs.
D’autres bactéries isolées de la phyllosphère de la tomate, comme Bacillus velezensis 83, sont également dotées de capacité de stimulation de la croissance des plantes et de protection des cultures.
Au sein du laboratoire, nous avons identifié des bactéries et les champignons isolés de la phyllosphère de la tomate Solanum lycopersicum (variété MicroTom) et du maïs (Zea mays L. variété DATABAZ). En comparant les séquences d’ADN obtenues avec une banque de données internationales (BLAST), nous avons pu identifier le genre et parfois aussi l’espèce de ces microorganismes et vérifier qu’ils s’agissaient bien de microorganismes connus et provenant de la phyllosphère.
Parmi les microorganismes identifiés, plusieurs sont connus dans la littérature et pourraient appartenir aux bactéries ou aux champignons promoteurs de la croissance des plantes et/ou présenter des effets de biocontrôle. D’autres ne sont que partiellement identifiés, et nous ne pouvons donc pas encore savoir s’ils sont bénéfiques ou pathogènes.
Bien qu’il soit possible d’utiliser directement des bactéries ou des champignons isolés de l’environnement naturel pour booster la croissance et la protection des plantes, la colonisation et la capacité des microorganismes à fonctionner en champ reste difficile à prévoir.
De plus, le stockage de microorganismes est bien plus compliqué que ne l’est un biostimulant. Dans ce sens, le développement de solutions agissant directement sur les microorganismes déjà présents sur les plantes, reste une alternative prometteuse pour l’agriculture. Ainsi, pour tester des biostimulants de manière peu onéreuse et rapide, nous réalisons au laboratoire des tests in vitro (en boîte de Pétri) sur les microorganismes de la phyllosphère. Le développement des microorganismes est suivi au cours du temps et la morphologie du développement bactérien et mycélien est observée.
Dans la figure ci-dessus, on observe l’effet d’un biostimulant foliaire sur un champignon, isolé de la phyllosphère du maïs. Bien que la taille du mycélium ne semble pas impactée, la présence du biostimulant semble affecter le champignon. Mais plusieurs questions restent en suspens : est-ce que ce biostimulant induit la même chose chez tous les microorganismes de la phyllosphère ? Ne va-t-il pas stimuler la croissance d’organismes pathogènes ?
Ces résultats préliminaires offrent des perspectives intéressantes, mais doivent encore être approfondis.
Les premières expérimentations portant sur la phyllosphère ont été initiées dans le cadre des travaux menés au sein de la Chaire Biomes, en partenariat avec l’entreprise Gaïago.
Guillemette Garry ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.03.2026 à 16:28
Margot Déage, Maîtresse de conférences en sociologie, Université Grenoble Alpes (UGA)
Début 2026, le ministère de l’éducation nationale a lancé l’alerte sur les violences sexistes et sexuelles en milieu scolaire. Près de 15 % des filles et 12 % des garçons auraient été exposés à au moins une forme de violence sexuelle, selon la dernière enquête de victimation du ministère. Mais ces données officielles reflètent-elles toute l’ampleur du phénomène ? Une autre enquête, menée en Île-de-France pour le Centre Hubertine-Auclert pour l’égalité femmes-hommes, estime qu’environ un élève sur deux serait concerné. Explications.
Le 29 janvier 2026, le gouvernement a publié un communiqué de presse sur les violences sexistes et sexuelles en milieu scolaire. On y apprend qu’au collège, « 15 % des filles et 12 % des garçons déclarent avoir été exposés à au moins une forme de violence sexuelle ».
Ces chiffres renvoient aux données collectées dans une enquête de climat scolaire et de victimation réalisée par le ministère de l’éducation nationale au printemps 2022. Concrètement, cette enquête interroge les élèves sur des faits survenus depuis le début de l’année scolaire : atteintes aux biens, attaques physiques, psychologiques et sexuelles. Celles-ci recouvrent le voyeurisme dans les toilettes ou les vestiaires, les attouchements, les caresses au sein du collège ou à proximité et les baisers forcés. Les violences sexuelles y sont donc appréhendées essentiellement en présentiel. Les cyberviolences font l’objet d’une catégorie distincte, incluant notamment le visionnage non consenti d’images à caractère sexuel, qui concerne 4,4 % des collégiens et collégiennes.
Malgré l’absence de données sur l’effet du numérique sur les violences sexuelles, le communiqué désigne les réseaux sociaux comme « un puissant facteur d’amplification de ces violences » et appelle à une interdiction des plateformes numériques avant 15 ans. Cette lecture appelle discussion.
Au printemps 2023, nous avons conduit pour le Centre Hubertine-Auclert une étude sur les (cyber)violences de genre à l’adolescence. Celles-ci sont définies comme tout acte préjudiciable commis contre une personne en raison de son sexe ou de sa non-conformité aux rôles de genre, en face-à-face ou dans l’espace numérique. L’objectif était notamment de documenter finement les violences sexuelles et leur circulation entre espaces scolaires, extérieurs et numériques.
L’enquête a été menée dans 14 établissements d’Île-de-France, représentatifs de la région, auprès d’élèves de la sixième à la terminale. Parmi les 1 669 réponses recueillies au collège, 847 proviennent de filles, 801 de garçons et 21 de personnes non binaires.
Premier constat : 43 % des collégiens et collégiennes déclarent avoir subi au moins une forme de violence sexuelle au cours de l’année écoulée. Les filles et les personnes non binaires sont plus nombreux à rapporter au moins une forme de violence sexuelle (44 % contre 41 % des garçons).
Ces chiffres sont sans commune mesure avec ceux issus de l’enquête institutionnelle. Pourquoi un tel écart ? Essentiellement parce que le périmètre des faits étudiés diffère.
Notre enquête inclut, au-delà des agressions et attouchements, des violences souvent minimisées ou invisibilisées : les outrages sexuels (36 %), comme les mimes sexuels (22 %), les propos sexuels imposés (20 %), les sollicitations sexuelles insistantes (9 %) et le visionnage forcé d’images sexuelles (12 %) ; les agressions sexuelles (14 %), comme les attouchements (11 %) et les baisers forcés (7 %) ; ou encore, les atteintes à l’image intime (7 %), comme la réalisation forcée d’image intime (3 %), la sextorsion (4 %), la divulgation (3 %), le vol (2 %) ou encore le montage d’image intime (1 %). Par ailleurs, 2 % des collégiennes et collégiens ont déclaré avoir subi d’autres formes de violences sexuelles, un chiffre qui inclut potentiellement des viols.
Dans 71 % des cas, les auteurs sont des garçons mineurs qui agissent seuls (47 %) ou en groupe (24 %).
Autrement dit, lorsqu’on s’intéresse à l’entièreté du continuum de violences sexuelles, leur ampleur apparaît bien plus importante.
Deuxième constat : les violences sexuelles sont plus fréquentes dans l’établissement scolaire qu’ailleurs.
Sur l’ensemble des faits rapportés, 43 % se sont produits dans l’espace scolaire, 24 % dans l’espace numérique et 5 % à la fois en ligne et au collège. Les 29 % restants ont eu lieu à l’extérieur (dans des espaces privés ou publics en présentiel).
La plupart des violences sexuelles se produisent très majoritairement dans le cadre scolaire, comme les agressions (53 % contre 3 % en ligne et 1 % en hybride) ou les outrages (46 % contre 24 % en ligne et 6 % en hybride).
Ce sont les atteintes à l’image intime qui sont les plus fréquemment commises en ligne (63 % contre 8 % au collège et 5 % en hybride). Ces violences sont en effet facilitées par les outils numériques qui permettent de capturer, de sauvegarder, d’éditer et de diffuser des images. Néanmoins, 15 % des actes de sextorsion (et 4 % en hybride) et 9 % des divulgations d’image intime (et 11 % en hybride) ont eu lieu dans l’enceinte scolaire, ce qui suggère la persistance de formes de captation et de diffusion d’images déconnectées des réseaux sociaux.
Ces résultats invitent à penser la porosité et l’imbrication des violences entre les espaces numériques et scolaires. Une image produite sous contrainte dans une chambre peut être imprimée et diffusée au collège ; un mime sexuel en classe peut être filmé et partagé sur une messagerie, etc.
Attribuer aux seuls réseaux sociaux la responsabilité des violences sexuelles pose plusieurs problèmes.
D’une part, la majorité des violences recensées se déroulent principalement dans l’espace scolaire. En d’autres termes, les violences sexuelles n’ont pas besoin des plateformes numériques pour exister, et c’est d’abord au collège qu’il faut agir. Ces plateformes jouent plutôt un rôle de révélateur des violences, qui en amplifient certaines dimensions : l’extension du public, le partage d’informations et d’images personnelles, la permanence des contenus, la vraisemblance des rumeurs, la libération des paroles toxiques ou le sentiment d’impunité.
Les (cyber)violences sexuelles s’inscrivent dans des enjeux de réputation propres aux sociabilités juvéniles. Les plateformes numériques ne créent pas ex nihilo les normes de genre, mais elles en accélèrent la circulation et en renforcent la visibilité. Une image intime diffusée sans consentement peut ainsi produire une stigmatisation durable, particulièrement pour les filles.
Interdire l’accès aux plateformes avant 15 ans ne saurait donc constituer une réponse suffisante. Une telle mesure laisse intacts les dynamiques de genre et les rapports de pouvoir qui structurent les interactions adolescentes, en ligne comme au collège.
Pour changer la donne, il faut d’abord reconnaître l’ampleur réelle des violences sexuelles à l’adolescence, ce qui suppose d’en élargir la définition. Il est nécessaire également de décloisonner les dispositifs existants. Les programmes de lutte contre le harcèlement (comme le programme Phare), l’éducation aux médias et à l’information (EMI) et l’éducation à la vie affective, relationnelle et sexuelle (Evars) travaillent encore en silos. Or, nos données montrent que les violences sexuelles se situent précisément à l’intersection de ces champs : rapports de genre, usages numériques, dynamiques de groupe.
Une prévention efficace suppose d’articuler ces dimensions : travailler sur les normes de genre, sur le consentement, sur la gestion des images et des données personnelles, mais aussi sur les logiques de réputation, de confidentialité et de modération propres aux réseaux sociaux.
Enfin, les actions doivent associer les élèves eux-mêmes pour qu’elles et ils apprennent à reconnaître les violences sexuelles, qu’elles et ils se sentent légitimes pour les contester. La plateforme de sensibilisation « Gênant, surtout violent » propose des ressources pédagogiques pour objectiver des situations souvent banalisées.
En définitive, la question n’est pas de choisir entre régulation du numérique et action éducative. Elle est de comprendre que les violences sexuelles à l’adolescence forment un système relationnel qui traverse les espaces. Car, si le numérique transforme les modalités de circulation des violences, le problème premier réside dans la persistance de rapports de genre inégalitaires, que l’école a précisément pour mission de déconstruire.
Margot Déage a reçu des financements du Ministère de l'Éducation nationale et de la Région Île-de-France pour réaliser l'enquête présentée dans cet article.
17.03.2026 à 16:27
Hippolyte d’Albis, Professeur, ESSEC
[Bonnes feuilles] Régulièrement, l’existence d’une opposition irréconciliable entre les seniors et les plus jeunes est mise en avant. Pour payer les retraites de premiers, on sacrifierait l’avenir de la jeunesse. Cette opinion régulièrement reprise ne résiste pas à l’examen des faits, estime l’économiste Hippolyte d’Albis.
Dans Economie des âges de la vie (Editions Odile Jacob), il décrypte, au-delà des fausses évidences et du bon sens, la réalité des flux financiers entre les générations. Dans l’extrait que nous publions, Hippolyte d’Albis revient sur le profil des salariés seniors… en opposant des faits aux clichés. À commencer par le fait que le boomer est souvent une boomeuse. OK ?
Contrairement aux pratiques managériales, les employés seniors ont changé. Le plus étonnant est finalement ce retournement de situation à la fin des années 1990, marqué par le retour des 55-64 ans sur le marché du travail. Examinons les causes profondes de cette révolution pour la comprendre et identifier ce qui permettrait de l’amplifier.
Le point crucial est que la population des seniors a changé car elle est en meilleure santé, plus qualifiée et plus féminisée. Les seniors ont tout d’abord rajeuni car ils sont en meilleure santé et physiquement plus aptes à travailler. L’état de santé d’un groupe de personnes peut être synthétisé par son risque de décès dans l’année. En 2023, le risque pour une personne de 60 ans était de 0,6 %, soit celui d’une personne de 54 ans trente ans plus tôt. Cette amélioration impressionnante de la santé humaine à ces âges explique en partie le maintien en emploi des seniors. Les progrès dans la prévention et le traitement des maladies cardiovasculaires, de certains cancers et du diabète ont directement profité à l’économie en préservant la population active. Or on oublie trop souvent que les politiques de santé publique sont aussi des politiques économiques.
Il ne faut cependant pas nier le vieillissement des corps : même s’il est faible, le risque de décès d’une personne de 60 ans reste près de cinq fois plus élevé que celui d’une personne de 40 ans. Les questions d’ergonomie, de pénibilité et d’aménagement des horaires deviennent ainsi de plus en plus cruciales avec l’âge. Elles ne doivent ni être éludées, ni considérées comme des coûts inutiles ou subis. Les organisations doivent se défaire de la représentation type du salarié, forcément trentenaire et évidemment jamais malade et toujours enthousiaste. Reconnaître la diversité physiologique est une première étape nécessaire pour une meilleure inclusion des seniors dans le monde du travail.
L’évolution de la population des seniors est marquée par une nette élévation de leur niveau de qualification. Aujourd’hui, près de 30 % des 55-64 ans sont diplômés de l’enseignement supérieur, contre moins de 9 % il y a trente ans. Cette progression influence leur emploi de deux manières. D’une part, les études supérieures retardent mécaniquement leur entrée sur le marché du travail. D’autre part, elles renforcent leur capacité à s’adapter aux mutations organisationnelles et technologiques.
À lire aussi : Non la jeunesse n'est pas sacrifiée ! ou ce que révèle l'étude des transferts intergénérationnels
Avec des carrières qui s’étendent sur quarante ans, la nécessité de se former en continu et, parfois, de se reconvertir devient incontournable. Les pays où le taux d’emploi des seniors est le plus élevé sont d’ailleurs ceux qui ont intégré depuis longtemps la formation tout au long de la vie, notamment bien avant l’âge de 50 ans. Les reconversions professionnelles, comme celles des militaires qui quittent l’uniforme en milieu de carrière pour exercer un métier civil, montrent que ces transitions sont non seulement possibles, mais aussi bénéfiques. Elles méritent d’être mieux acceptées et valorisées afin d’être généralisées.
Dans les années à venir, l’arrivée massive de seniors diplômés du supérieur – près de la moitié des 35-44 ans le sont déjà – va marquer le paysage professionnel. Si cette démocratisation des études supérieures est une tendance positive, elle présente aussi des défis pour la gestion des carrières des seniors. D’un côté, ces diplômes ouvrent l’accès à des métiers mieux rémunérés, plus stimulants ou socialement valorisants, ce qui encourage la prolongation de l’activité. Ceux qui prolongent le plus leur vie professionnelle sont typiquement les médecins, les artistes, les scientifiques ou les entrepreneurs. De l’autre, les diplômés attachent une importance croissante au sens de leur travail, ce qui explique que certaines trajectoires professionnelles génèrent des sentiments de frustration ou de déclassement.
Un exemple frappant est celui des jeunes diplômés recrutés sur des postes d’expertise qui évoluent vers des fonctions managériales, parfois avant même d’atteindre la quarantaine. Or ces postes, exigeants physiquement et psychologiquement, poussent après quelques années certains à vouloir céder leur place. En France, cependant, les opportunités pour les anciens managers restent limitées. La logique hiérarchique et une certaine conception de l’honneur rendent difficile l’idée de se retrouver sous la direction d’une personne qu’on a autrefois dirigée. Face à la prochaine arrivée massive de diplômés seniors, de nombreuses pratiques restent à réinventer.
Les seniors ont aussi changé du fait de leur féminisation, décisive depuis l’arrivée des baby-boomeuses. Le taux d’emploi des femmes entre 55 et 64 ans est aujourd’hui proche de 60 %, soit près du double de ce qu’il était au début du siècle. Toutes les politiques permettant le maintien en emploi des femmes après leur maternité sont par ricochet favorables à l’emploi des seniors. Ainsi, les congés maternité courts et bien compensés, les dispositifs efficaces permettant la garde des enfants et les politiques d’entreprises conciliantes doivent être encouragés et renforcés. La féminisation du salariat a engendré une révolution dans les organisations en imposant progressivement l’idée qu’elles devaient permettre la conciliation des vies personnelles et professionnelles. Les enfants ont ainsi fait irruption dans les discussions du monde du travail et les contraintes qu’ils imposent à leurs parents sont mieux prises en compte par les managers.
À lire aussi : L’emploi des seniors : une culture des âges à faire évoluer ?
La question des équilibres de vie se pose aussi après 55 ans, mais pas dans les mêmes termes qu’à 30 ans : s’il n’y a plus d’enfants à récupérer à la crèche, il y a parfois un parent devenu dépendant dont il serait bien de se soucier. Cette réalité est encore aujourd’hui taboue dans les entreprises et administrations où l’on parle des enfants mais pas des personnes âgées. Ainsi, une mère qui a pu s’absenter pour emmener sa fille chez le médecin ne pourra pas, vingt ans plus tard, faire de même avec sa propre mère. La conciliation des vies personnelles et professionnelles doit être pensée tout au long de la carrière.
Le 14 octobre 2025, lors de sa déclaration de politique générale devant la représentation nationale, le nouveau premier ministre Sébastien Lecornu annonce la suspension jusqu’à la prochaine élection présidentielle de la réforme des retraites votée en 2023. Pour éviter la censure de son gouvernement, il offre à la cohorte 68 la possibilité de partir plus tôt en retraite, mais prive le système de ressources nécessaires au financement des pensions qu’il s’est engagé à verser. L’équilibre des régimes de retraites est une équation très simple, avec finalement peu de paramètres. L’allongement de la durée du travail en est un essentiel mais il est évident qu’il faut accompagner les personnes concernées. Profitons de cette suspension pour modifier nos organisations, écouter les attentes des travailleurs concernés, et préparer les prochains reports de l’âge de la retraite, qui inéluctablement devront être assumés.
Hippolyte d’Albis a reçu des financements de l'ANR.
17.03.2026 à 16:26
Frédéric Caille, Maître de Conférences HDR en Science Politique, ENS de Lyon
Avec son texte Pétrole, récemment adapté au théâtre par Sylvain Creuzevault, Pasolini livre une œuvre visionnaire, dans laquelle l’industrie fossile apparaît comme une force de destruction implacable, imprégnant en profondeur l’imaginaire occidental.
Peu après la COP30, dix ans après la prise de conscience officielle par le genre « homo sapiens » de sa contribution active à la destruction irrémédiable de sa propre biosphère, sur la scène nationale de Bonlieu, à Annecy (Haute-Savoie), le metteur en scène Sylvain Creuzevault a inauguré son adaptation théâtrale du texte posthume et visionnaire de l’écrivain, poète et cinéaste italien Pier Paolo Pasolini, Pétrole.
Cette œuvre foisonnante, baroque, inclassable, où se mêlent l’enquête, la critique littéraire, la déconstruction de la sexualité moderne et de ses liens intimes au pouvoir et à l’ordre socio-économique du capitalisme international, est un texte qui anticipe de manière saisissante sur la mise au jour actuelle par la théorie critique anglo-saxonne des dimensions les plus sombres et inconscientes de l’imprégnation par les énergies fossiles de la culture occidentale contemporaine, telle que la décrit l’artiste et activiste Brett Bloom dans son essai Petro-Subjectivity : De-Industrializing Our Sense of Self (2015) (non traduit en français) :
« La pétro-subjectivité est quelque chose que chacun d’entre nous vit constamment. C’est une perception de soi et du monde qui façonne notre identité et notre façon de penser. Elle découle en partie du fait que l’utilisation du pétrole est présente dans tout ce que nous faisons. Elle a façonné les concepts qui régissent notre pensée. Notre utilisation du langage et les concepts fondamentaux qui structurent notre existence sont imprégnés de la logique des relations pétrolières et forment l’univers métaphorique dans lequel nous baignons lorsque nous parlons entre nous de qui nous sommes, de ce que nous faisons et de ce qui compose le monde qui nous entoure. » (Traduction de l’éditrice, ndlr)
« Pétromasculinité », « pétrosexualité », « pétropornographie », « pétro ou carbofascisme », « pétrosubjectivité » : tels sont les concepts qu’évoquent et exposent, avec les mots et les visions de Pasolini, Sylvain Creuzevault et ses comédiennes et comédiens. Le propos échappe de fait à la seule évaluation esthétique et scénique, tant le texte Pétrole s’est en effet aussi construit, chez son propre auteur, sur la base d’une enquête concernant le « [ pétropouvoir] » central de l’Italie du vingtième siècle : l’ENI (Entente Nazionale Idrocarburi).
Cet organisme de supervision de la recherche, de l’achat et de la distribution des ressources énergétiques pétrolières du pays, équivalent de la Compagnie française des pétroles (CFP), ancêtre de Total, et super-major pétrolière (9e mondiale, présente dans 69 pays, 28 000 employés et première entreprise d’Italie aujourd’hui encore), est présidée à partir de 1953 par Enrico Mattei, modèle du personnage d’Ernesto Bonocore dans le texte de Pasolini. Mattei est tué dans un accident d’avion, sans doute commandité par le vice-président de la compagnie – qui lui succède en 1962 – et dans son projet « Naphta », le jeune artiste français Gaëtan Bas Lorant a mené récemment une enquête sur les lieux et témoins de cet évènement.
La corruption du monde de l’industrie pétrolière, mais surtout ses liens intimes à la corruption de la vie, des corps, des imaginaires et des idéaux des jeunes Italiennes et Italiens de l’après-guerre est au centre du roman de Pasolini. La sexualité, sous une forme provocatrice et non maîtrisée surgit en de nombreuses scènes du livre et de l’adaptation théâtrale, qui n’en contourne pas, et même parfois en surligne, la violence exercée sur les autres et sur soi-même (surtout pour le héros Carlo), ainsi que le caractère profondément insatisfaisant et destructeur.
Cette sexualité mortifère est utilisée et interrogée par Pasolini à la fois comme un corrélat logique, corporel, intime et subjectif de sa dénonciation géopolitique du capitalisme « faschisto-fossile » qu’incarne l’ENI, et comme une allégorie de l’hubris qui soutient plus profondément le développement et l’usage de l’industrie pétrolière. La transgression des limites et la démesure « s’écoulent » littéralement de « l’or noir » pour toucher les dirigeants des entreprises d’approvisionnement ou de diversification (notamment dans la pétrochimie et le plastique), en même temps que chaque Italienne ou Italien accédant à l’automobile et à la société de consommation.
Cette hubris, certes, est pour Pasolini, au moins partiellement, une hubris de classe, associée au « plus fasciste des pouvoirs que l’Italie ait connu », selon ses propres termes, dissimulé sous les apparences trompeuses de la social-démocratie. Le recyclage des dirigeants et des capitaux fascistes, au nom de la grandeur nationale, est ainsi un axe de dénonciation politique central, directement repris de l’enquête et des sources sur lesquelles s’appuie Pasolini.
Au centre du livre de Pasolini se trouve l’ouvrage du mystérieux Steimetz qui, à ce jour pourtant non identifié, contacte et rencontre Pasolini à deux reprises dans le scénario du film la Machination. L’affaire Pasolini (2019) avant d’y être assassiné. Le scénario du film tire vers la manipulation politique l’essentiel de la démarche profonde à l’origine de l’écriture de Pétrole, mais également les causes de l’assassinat de Pasolini, qui y est montré comme parfaitement prémédité. À l’inverse, quelques années plus tôt, le Pasolini d’Abel Ferrara (2014), qui se déroule durant les derniers jours de son existence, privilégie le meurtre crapuleux et homophobe.
En synthétisant de ce point de vue le propos de Pasolini, on peut dire que dans certaines des scènes récurrentes de la pièce, il s’agit pour l’auteur de nous faire prendre conscience que, quand bien même l’on appartient à la bourgeoisie libérale de gauche, que l’on soit au Parti communiste, que l’on aime le jazz, la mixité, l’art moderne, pour sa propre satisfaction hédoniste, on se trouve objectivement et structurellement complice et associé aux machinations prédatrices, néocoloniales et destructrices de la planète conduites en sous-main par les grandes entreprises pétrolières.
C’est en effet cette mise à jour que Pasolini veut exprimer durant les trois années de travail qu’il consacre à son texte. Une mise à jour inextricablement – c’est la leçon qu’il tend à notre époque – intime et collective, et où résonnent en échos les inclinations masculinistes et machistes les plus communes. Elles sont formidablement incarnées dans la pièce, par le héros lui-même en ses deux « êtres » contradictoires, ou par d’autres « hommes puissants » soumis à la peur-fascination de l’homosexualité et de la femme (extrémisé jusqu’à l’inceste avec la mère), à l’attrait de la consommation sexuelle bourgeoise tarifée de jeunes filles et garçons de catégories populaires, et même à l’humiliation-attirance pour les personnes du Moyen-Orient, lieu où se trouve le pétrole, et où les individus reprennent et endossent à leur tour l’indécence et la violence de l’hubris fossile.
Pasolini, c’est là son génie, malgré une force de propos (magnifiée par la mise en scène), qui peut décontenancer une part du public, explore la déchéance de nos êtres profonds. Il dévoile nos pantomimes et la dégradation dans laquelle nous entraîne inexorablement le pacte signé avec le diable fossile. L’inoubliable personnage d’Aldo Troya (Eugenio Cefis, 1921-2004 dans la vraie vie), commanditaire probable lié à la CIA américaine du meurtre de Mattei, l’incarne de manière inoubliable. Fasciste dissimulé et homme du moment, il mène à la fin d’une civilisation en prétendant travailler à la grandeur du pays et révèle son ambivalence par son patronyme inventé par Pasolini : « le Troyen », « la truie » (voir les « notes 36-40 » et les remarques du traducteur René de Ceccatty dans la dernière édition de Pétrole, Gallimard 2022). La pièce suit précisément son destin et son « bond en avant dû non pas tant à une volonté ambitieuse qu’à l’accumulation objective et massive des forces guidées par cette volonté », ainsi que l’écrit Pasolini.
Pétrole est donc l’histoire d’une déchéance qui est celle du personnage principal, mais en quelque mesure aussi bien entendu, telle est la force du poète-prophète dont Pasolini enfile la toge, la nôtre. Elle culmine peut-être dans ce moment de la pièce où le héros, nu et debout comme un mâle humain urinant, tient le tuyau d’une pompe à pétrole qui inonde la scène comme aujourd’hui la nuit fossile menace de recouvrir le monde.
Cette part la plus politique, ou « infra-politique », est celle assurément que la mise en scène fait émerger du pétrole pasolinien, c’est-à-dire non pas seulement la dénonciation du pouvoir fossile et des multinationales apparentées, mais celle de la collaboration et de la participation profonde et semi-inconsciente de nos êtres propres et de nos subjectivités à toutes et tous.
Pasolini tisse la géopolitique et le pétrofascisme de l’or noir avec l’intime, l’avilissement, la dégradation morale. Il hybride la véritable histoire politique avec l’allégorie et les figures mythiques, au travers de l’épopée dérisoire d’un jeune bourgeois italien dédoublé, jouet d’autres puissants autant que de lui-même, lancé dans l’ascension sociale dans une société minée, « forée », « drillée » littéralement, de part en part, par le pétrole, et qui se précipite derrière les sourires, exactement comme la nôtre, vers l’effondrement.
Telle est la voie visionnaire où s’engage Pasolini sans peut-être le comprendre tout à fait : sur la voie d’une fiction s’emparant enfin de « l’impensable », de « l’irreprésentable » et du « grand dérangement » climatique. Il ramène le « non-humain » au sein même du corps, c’est-à-dire le carburant fossile et son « mal-être », barbouillé de faux plaisir, jusqu’aux entrailles, jusqu’au corps devenu insensé du héros, multi et dé-genré, incestueux, phallique et femelle tout à la fois.
« Nous sommes tous en danger », dira Pasolini dans sa toute dernière interview, quelques heures avant sa mort. « Tous victimes et tous coupables », rongés et envahis dans une société de l’hypermarchandisation par les désirs insatiables « de la possession et de la destruction ». « Il existe un désir de mort qui nous lie tous comme des frères. »
De cette étrange prophétie, un demi-siècle plus tard, emportés sans force vers l’abîme climatique par les énergies fossiles, nous pouvons mesurer la profondeur. De l’autre côté de l’Atlantique, à la même date, Donald Trump a alors 29 ans. Il entame le chemin à tous points de vue improbable, sauf pour Pasolini, par l’outrance et le virilisme devenus politiques, qui le conduira vers l’une des plus fantastiques et morbides [ ascensions sociales] de l’histoire humaine. La personnification de l’obscénité fossile.
Frédéric Caille ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.03.2026 à 16:06
Constantin Ciachir, Associate Professor of Human Resource Management & Organizațional Behaviour, EM Lyon Business School
Since tools like ChatGPT burst into higher education, debate has focused on two extremes: either students are all committing underhanded academic fraud and plagiarism or Artificial Intelligence will magically revolutionise learning.
The latest research project I co-authored with Anna Holland, and carried out among recent Management graduates in the United Kingdom, suggests something more complicated and surprisingly more human.
Generative AI tools such as ChatGPT are increasingly used in business and management education for tasks like analysing cases, brainstorming ideas, and drafting reports, improving efficiency and personalised learning but also raising concerns about academic integrity and assessment design. AI literacy and ethical use of algorithmic tools are becoming essential managerial skills.
In a qualitative study focusing specifically on business students, we explored how they actually used ChatGPT in their final year and how they felt about it. To capture these experiences, we conducted 15 in-depth semi-structured interviews and thematically analysed them, focusing on how students used ChatGPT in their studies and how they perceived its impact on their academic work and their peers’ behaviour.
The students we interviewed described three overlapping concerns, which together help explain both their enthusiasm and their unease:
Students were open about the fact that ChatGPT had become part of their ordinary study toolkit, along with search engines and lecture recordings, but faster and more conversational in comparison. They used widely adopted large language model-driven technology to summarise articles, generate examples, explain complex theories in simpler language and help plan assignments. Several described it as a way to “get unstuck” when staring at a blank page.
What mattered most was not just usefulness but speed and emotional reassurance. Unlike professors’ office hours or e-mail, AI is instantly available and without judgement.
Some interviewees said they used ChatGPT to check whether they had understood a concept correctly before writing it up in their own words, or for suggestions on how to structure an essay.
For many, the new technology felt like having a private tutor who never sleeps. But whose convenience also raised deeper questions. If AI can always “rescue” you at the last minute, are you really learning, or just producing?
The students who took part in our study didn’t simply worry about whether AI was allowed. They also worried about who could access the most powerful tools. Those who paid for smarter, premium versions felt they were getting more accurate, more detailed support than peers sticking to free tools.
Some students saw this as just another form of educational inequality. Others were uneasy that success on assessments might increasingly depend on whether you could pay for better algorithms, but also whether they have the necessary skills to prompt the system for optimal results. Just because students are young, it does not automatically make them digitally native.
At the same time, several interviewees argued that AI could make higher education fairer. Students with dyslexia, ADHD or other conditions described using ChatGPT to help with planning, time management or turning rough notes into clearer sentences.
International students said it helped them write in more polished academic English. For them, AI felt less like “cheating” and more like “levelling up” – a reasonable adjustment or language support.
This tension, between AI as a leveller and AI as a new source of advantage, makes equity central to how students experience these tools.
All the students we spoke to knew that “copy-pasting from ChatGPT” into an assignment would be considered as cheating. But they also described a wide grey area where university rules felt vague or inconsistent.
Was it acceptable to ask ChatGPT for feedback on a draft paragraph? To suggest alternative headings? To generate a list of arguments they then follow up on themselves by accessing the original sources of information provided by ChatGPT? Different courses, and even different lecturers, gave different answers, leaving students unsure about what counts as legitimate assistance versus academic misconduct.
This uncertainty made some students anxious about being accused of misconduct even when they believed they were acting honestly.
Group work added another layer of risk: several participants feared that one team member might lean heavily on AI, triggering plagiarism-detection software or an investigation that could affect the whole group.
Beyond university rules, students worried about how employers would view their qualifications. A recurring theme was fear that future recruiters might dismiss recent graduates’ work as “AI-generated”, devaluing the years of effort they had invested. Even those who used ChatGPT sparingly felt that their cohort might be seen as “AI-made”, regardless of individual behaviour. This is an interesting finding in our study as not much empirical work has been done on this aspect. There is currently little to no evidence that employers broadly distrust university degrees because of GenAI.
The evidence we have to date suggests that hiring managers are increasingly sceptical of graduates’ application written work, but simultaneously seek graduates with AI skills.
The blurred relationship between student work and their ability may affect how credentials signal competence.
Employers have already increasingly turned to skills verification rather than credentials alone.
Our findings suggest that universities need to move beyond simple messages about banning or embracing generative AI. Students are already integrating these tools into their everyday study. The question is whether institutions will help them do so transparently, equitably, and with academic integrity.
Firstly, rules about AI use need to be clearer and more consistent. Rather than broad warnings about “misuse of ChatGPT”, students need concrete, discipline-specific examples of what is allowed, and why. This includes acknowledging that some uses (for accessibility or language support, for instance) may be legitimate and even desirable.
Secondly, assessment design should focus more on process as well as product. Students could be asked to explain how they used AI in an assignment, reflect on its limitations and show the steps they took to verify information. This makes AI use visible and accountable, rather than something to hide by clearly stating where it was used in a piece of work, as students would for citing references in a footnote, for instance.
Thirdly, universities should consider equity explicitly. If some students can buy access to far more powerful tools than others, that has implications on fairness.
Institutions could respond by providing standardised AI tools, and teaching all students how to use them critically, or by redesigning assessments so that success depends less on access to premium systems.
In its latest Digital Education outlook report, Exploring Effective Uses of Generative AI in Education, the OECD urges education stakeholders to encourage “inclusive, trustworthy and meaningful uses of GenAI in education” in alignment with educational objectives.
The students in our study were not reckless rule-breakers or naive digital natives. They were thoughtful about the benefits and risks of AI, and keen to protect the value of their degrees.
If universities ignore this perspective, they risk sending out the message: “Integrity is only about catching cheats,” rather than about building trust. If, instead, they engage with students’ real experiences of immediacy, equity, and integrity, generative AI could become an opportunity to rethink what meaningful learning and fair assessment in higher education look like in the age of AI, rather than a threat that quietly undermines them.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Constantin Ciachir ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.03.2026 à 18:22
Phillip Baker, ARC Future Fellow and Sydney Horizon Fellow, School of Public Health, University of Sydney, University of Sydney
Camila Corvalan, Full Professor of the Public Nutrition Unit of the Institute of Nutrition and Food Technology, Universidad de Chile
Carlos Monteiro, Professor at the Department of Nutrition of the School of Public Health, Universidade de São Paulo (USP)
Gyorgy Scrinis, Associate Professor of Food Politics and Policy, The University of Melbourne
Priscila Machado, NHMRC Emerging Leadership Fellow, Institute for Physical Activity and Nutrition, Deakin University

Si les pouvoirs publics ne prennent pas les mesures qui s’imposent et en l’absence de réponse coordonnée au niveau mondial, les aliments ultratransformés vont occuper une place croissante dans notre alimentation et nuire à notre santé, mais aussi à l’économie. Cette mise en garde s’appuie sur trois articles scientifiques publiés dans The Lancet, une revue médicale de premier plan.
Les aliments ultratransformés sont en train de remplacer les aliments et repas traditionnels à l’échelle mondiale, en dégradant la qualité du régime alimentaire et en contribuant à l’augmentation des maladies chroniques liées à l’alimentation.
Et même si l’ensemble des dépenses publicitaires des principales entreprises qui commercialisent des aliments ultratransformés dépassent largement le budget total de l’Organisation mondiale de la santé (OMS), les gouvernements, les communautés et les professionnels de la santé peuvent faire beaucoup.
C’est ce que conclut la série de trois articles phares consacrée aux aliments ultratransformés que nous avons récemment publiés dans la revue The Lancet.
Ces produits sont fabriqués à partir d’ingrédients industriels et d’additifs alimentaires, qui contiennent généralement peu ou pas d’ingrédients intacts. On pourrait citer pour exemple les boissons gazeuses, les chips et de nombreuses céréales pour le petit-déjeuner.
De notre point de vue, le problème ne réside pas dans un manque de volonté de la part des individus, mais tient avant tout à des considérations commerciales – il est le résultat d’une industrie puissante.
Le premier article résume les données disponibles et montre que les aliments ultratransformés se répandent à l’échelle mondiale. La part des produits ultratransformés dans l’alimentation n’a cessé d’augmenter au fil des décennies dans les pays du monde entier.
Aux États-Unis, au Royaume-Uni et au Canada, leur part dans l’alimentation est à des niveaux élevés depuis des décennies (environ 50 % de l’apport énergétique quotidien). Les aliments ultratransformés constituent l’essentiel du régime alimentaire national. Il en va de même en Australie.
Deuxièmement, cette étude montre que les régimes riches en aliments ultratransformés favorisent la suralimentation et sont pauvres sur le plan nutritionnel : ils contiennent davantage de sucres, de graisses saturées et ont une densité énergétique plus élevée. En revanche, ils sont plus pauvres en fibres, en vitamines et minéraux essentiels, et contiennent moins d’aliments complets.
Troisièmement, cet article résume les risques que ces aliments ultratransformés font courir pour la santé. Nous avons mené une revue systématique de la littérature scientifique qui a inclus 104 études faites sur le long terme. Cette revue systématique a révélé que 92 de ces études faisaient état d’un risque accru de contracter une ou plusieurs maladies chroniques. Les méta-analyses de ces études ont confirmé des associations avec l’obésité, le diabète de type 2, l’hypertension artérielle, l’hypercholestérolémie (l’excès de cholestérol, ndlr), les maladies cardiovasculaires, la maladie rénale chronique, la maladie de Crohn, la dépression et la mortalité prématurée toutes causes confondues.
Il est essentiel de comprendre qu’il ne s’agit pas simplement d’une question d’« excès de sucre, de sel et de graisses ». Des essais cliniques ainsi que des études scientifiques montrent que quand les adultes suivent un régime alimentaire riche en aliments ultratransformés, ils consomment environ 500 à 800 calories supplémentaires par jour, prennent du poids ainsi que de la masse graisseuse, et mangent plus rapidement, par rapport à un régime non ultratransformé contenant les mêmes proportions de macronutriments. Cela s’explique probablement par la densité énergétique plus élevée, le goût appétissant et la texture moelleuse de ces aliments, qui favorisent la surconsommation.
De toute évidence, des recherches supplémentaires sont nécessaires. Cependant, les données disponibles sont désormais suffisamment solides pour justifier une réponse mondiale en matière de santé publique.
Notre deuxième article présente les options politiques qui s’offrent aux gouvernements désireux de s’attaquer à ce problème. Quatre d’entre elles se distinguent particulièrement :
1. Modifier les produits : la reformulation – qui consiste à remplacer le sucre par des édulcorants ou les matières grasses par des additifs qui confèrent une texture similaire à celle des matières grasses – ne résout pas le problème. Les gouvernements pourraient plutôt fixer des limites pour une sélection d’additifs et utiliser des « marqueurs d’aliments ultratransformés » comme les colorants, les arômes et les édulcorants non sucrés (ainsi que les teneurs élevées en sucre, en graisses et en sel) pour identifier les produits ultratransformés à réglementer.
2. Améliorer l’environnement des produits alimentaires. Parmi les mesures fondées sur des données probantes, on peut citer :
L’adoption d’étiquettes d’avertissement obligatoires sur le devant des emballages, qui se révèlent efficaces pour informer les consommateurs et réduire les achats.
La protection des enfants de moins de 18 ans – en particulier sur les plateformes numériques – contre la publicité pour les aliments ultratransformés et le fait d’étendre ces protections au-delà des « heures réservées aux enfants ».
Des taxes sur les boissons sucrées (à 20 % minimum) ainsi que certains aliments ultratransformés ; et d’utiliser ces recettes financières pour subventionner les fruits, les légumes et les plats préparés sur place destinés aux ménages à faibles revenus.
La suppression des aliments ultratransformés des écoles, des hôpitaux et d’autres établissements publics, le fait de limiter la part des aliments ultratransformés dans les rayons des supermarchés et de réduire leur mise à disposition à proximité des écoles.
3. Limiter le pouvoir des entreprises : les gouvernements pourraient prendre davantage de mesures pour réglementer les gammes de produits des entreprises, ainsi que pour surveiller et limiter la part des ventes d’aliments ultratransformés ; il convient aussi de renforcer la politique de concurrence et d’envisager des réformes fiscales qui viseraient à limiter le pouvoir excessif de ce marché.
4. Réformer les subventions comme les chaînes d’approvisionnement : les gouvernements pourraient réorienter les subventions à l’agriculture afin de réduire le soutien accordé aux ingrédients issus de la monoculture utilisés dans les aliments ultratransformés (comme le maïs, le soja et le sucre), et d’aligner les politiques environnementales – concernant des questions telles que la réduction des plastiques ou l’utilisation de l’eau – sur les objectifs nutritionnels.
Le succès passera par des solutions sur mesure et coordonnées : il n’y a pas de recette miracle.
Notre troisième article s’interroge sur les raisons pour lesquelles les aliments ultratransformés envahissent l’alimentation humaine et sur la manière de mettre en place une réponse mondiale en matière de santé publique.
La réponse est la suivante : il faut s’attaquer au pouvoir des entreprises et à leur recherche de profit. Les aliments ultratransformés constituent le modèle économique le plus rentable du secteur alimentaire. Les plus grandes multinationales sont à la tête de réseaux mondiaux d’approvisionnement, de commercialisation et de lobbying qui élargissent les marchés, influencent la science ainsi que le débat public, et font obstacle à la réglementation.
Les fabricants d’aliments ultratransformés peuvent utiliser leurs bénéfices pour consacrer des sommes bien plus importantes au marketing, construire des usines, étendre la distribution de ces produits à l’échelle mondiale et financer des groupes de pression.
Par exemple, en 2024, les grandes entreprises agroalimentaires ont dépensé bien plus en publicité que l’ensemble du budget de fonctionnement de l’Organisation mondiale de la santé.
Les entreprises et les groupes qui y sont affiliés suivent le même scénario que les industries du tabac et des combustibles fossiles : du lobbying, du contentieux, de l’autorégulation et de la recherche scientifique qu’elles financent pour retarder la mise en place de mesures politiques.
Notre article plaide pour une réponse mondiale en matière de santé publique :
remettre en cause le modèle économique des aliments ultratransformés, en taxant leur production, en rendant obligatoire le recyclage des plastiques par les entreprises et en réorientant les ressources vers le soutien aux producteurs d’aliments sains et aux familles
protéger l’élaboration des politiques et la science contre toute ingérence, grâce à des mesures de prévention des conflits d’intérêts et à des règles d’engagement claires pour le secteur privé. Nous devons cesser de nous en remettre à l’autorégulation du secteur privé et recourir aux politiques publiques et à la législation.
former des coalitions pour mener des actions de plaidoyer auprès des décideurs politiques et favoriser les changements politiques, qu’il s’agisse de soutiens juridiques ou de communications stratégiques
Nos études montrent que, sans mesures politiques ni réponse mondiale coordonnée, la part des aliments ultratransformés dans l’alimentation humaine continuera d’augmenter, au détriment de la santé, des économies, de la culture et de la planète. Il est temps d’agir.
Phillip Baker a reçu des financements de l'Australian Research Council, de Bloomberg Philanthropies et de l’Unicef pour des projets de recherche portant sur les aliments ultratransformés.
Camila Corvalan a a bénéficié de financements pour ses recherches de la part de l'Agence nationale chilienne de recherche (ANID), de Bloomberg Philanthropies et du Centre de recherches canadien pour le développement international (CRDI). Elle fait partie du groupe stratégique de la Communauté de pratique sur la nutrition et la santé en Amérique latine et dans les Caraïbes (COLANSA), du Next Generation Leadership Collective et de l'Alianza Global para la Alimentación Saludable de Niñas, Niños y Adolescentes en Amérique latine. Elle est membre du groupe de travail sur les politiques et la prévention de la Fédération mondiale de l'obésité et du groupe de travail sur les aliments ultratransformés de l'Union internationale des sciences de la nutrition (IUNS). Elle occupe actuellement le poste de présidente de la Société latino-américaine de nutrition.
Gyorgy Scrinis a reçu des financements de Bloomberg Philanthropies destinée à financer les travaux de recherche menés dans le cadre de la série publiée dans « The Lancet ».
Priscila Machado a reçu des financements accordés par le Conseil national de la santé et de la recherche médicale (NHMRC), la Fondation australienne pour le cœur, la Fondation de recherche de São Paulo et le réseau thaïlandais Sweet Enough Network/ThaiHealth pour des projets de recherche portant sur les aliments ultratransformés.
Carlos Monteiro ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.03.2026 à 17:53
Étienne Ghys, Mathématicien, directeur de recherche émérite CNRS, ENS de Lyon; Académie des sciences

Quelle est la forme exacte de la Terre ? Est-elle aplatie ou plutôt allongée aux pôles ? La question a agité les milieux scientifiques des deux côtés de la Manche pendant plusieurs siècles. Pour tout savoir de cette controverse scientifique, l’Académie des sciences et la Royal Society de Londres présentent, du 1er avril au 20 juin 2026, l’exposition « La figure de la Terre. Un débat franco-anglais (XVIIᵉ-XXIᵉ siècle) », dans les locaux de la bibliothèque Mazarine, au cœur de l’Institut de France, à Paris.
On pourrait croire la question définitivement réglée : la Terre est ronde. Et pourtant, des enquêtes récentes indiquent qu’environ 8 % de nos concitoyens ne sont pas pleinement convaincus qu’elle le soit. Ce chiffre ne traduit pas seulement une méconnaissance. Selon moi, il révèle surtout une défiance. Ce n’est pas tant la rotondité de la Terre qui est contestée que l’autorité de ceux qui l’affirment. Le doute vise les « sachants », les institutions, les discours officiels. Face à ce phénomène, l’ironie ou l’indignation ne suffisent pas. Il faut peut-être s’interroger sur la manière dont nous racontons l’histoire des sciences, sur ce que nous transmettons, et sur ce que nous omettons.
On a longtemps enseigné que le Moyen Âge aurait cru la Terre plate et que la science moderne aurait progressivement dissipé cette erreur. Ce récit commode est historiquement faux. Depuis l’Antiquité grecque, les savants savent que la Terre est sphérique. Lors des éclipses de Lune, l’ombre projetée par la Terre est toujours circulaire (elle aurait une forme d’ellipse si la Terre était un disque plat) ; les étoiles visibles changent lorsqu’on voyage vers le nord ; au IIIᵉ siècle avant notre ère, Ératosthène mesurait déjà le périmètre terrestre avec une précision remarquable. La rotondité de la Terre n’est pas une conquête récente : elle appartient au patrimoine intellectuel de l’humanité depuis plus de deux millénaires.
Mais ce savoir était longtemps celui des lettrés. Les paysans, les artisans, les marins ordinaires, ceux qui ne lisaient ni Aristote ni les traités d’astronomie, n’avaient sans doute pas de représentation précise de la forme globale du monde. Leur univers était celui de l’horizon familier, du champ, du village, du port. La Terre était vécue, non pensée à l’échelle planétaire. Il ne s’agissait pas d’erreur, mais souvent d’indifférence : la question ne se posait pas. La science progresse d’abord dans des cercles restreints avant de devenir culture commune. Cette distance historique entre savoir savant et imaginaire ordinaire est peut-être l’une des clés de la fragilité contemporaine du consensus scientifique.
Au XVIIᵉ siècle, la question change de nature. On ne se contente plus de savoir que la Terre est ronde : on veut désormais la mesurer précisément. En France, sous l’impulsion de la dynastie des Cassini, l’Académie des sciences entreprend de déterminer la longueur d’un degré de latitude. La latitude se mesure par l’angle que fait l’étoile Polaire avec l’horizon : lorsqu’on se déplace vers le nord, cet angle augmente. Il suffit donc, en principe, de mesurer la distance parcourue pour une variation d’un degré afin d’estimer la dimension du globe.
La méthode employée est un chef-d’œuvre de rigueur : la triangulation. On mesure avec un soin extrême la longueur d’un segment sur le terrain puis, depuis des points élevés – collines, tours, clochers –, on observe les angles formés avec d’autres repères visibles à des dizaines de kilomètres. De triangle en triangle, on reconstitue ainsi de vastes distances. C’est une science de patience, d’équipes, d’instruments perfectionnés et d’erreurs soigneusement évaluées. La Terre devient un objet mesurable, arpenté, calculé.
Au même moment, en Angleterre, Isaac Newton publie les Principia. Il y expose la théorie de la gravitation universelle et s’interroge sur la forme précise du globe. Si la Terre tourne sur elle-même en vingt-quatre heures, la force centrifuge doit légèrement l’aplatir aux pôles et la faire gonfler à l’équateur. À partir d’une observation apparemment modeste, la différence de période d’un pendule entre l’équateur et Cambridge, Newton réalise une expérience de pensée extraordinaire et estime l’ampleur de cet aplatissement. Pour la première fois, une théorie physique prétend prédire la forme même de la planète.
Les premières mesures françaises semblent pourtant indiquer l’inverse : la Terre serait allongée aux pôles. La controverse s’installe. Derrière le débat scientifique se profile une rivalité ancienne entre la France et l’Angleterre, nations proches, concurrentes et pourtant intimement liées par l’histoire. Pour trancher, l’Académie des sciences décide d’envoyer deux expéditions : l’une en Laponie, près du cercle polaire, l’autre à l’équateur. Il faut mesurer à nouveau, comparer, calculer. Les conditions sont extrêmes, les instruments fragiles, les incertitudes nombreuses. Mais le verdict tombe : la Terre est bien légèrement aplatie aux pôles. Les savants français, par leurs propres observations, confirment la prédiction newtonienne.
Cette victoire de la théorie newtonienne n’efface en rien l’héroïsme scientifique des expéditions. Voltaire, qui fut l’un des plus ardents défenseurs de Newton en France, en a donné une formule restée célèbre, s’adressant à Maupertuis :
« Vous avez trouvé dans les glaces, au milieu des ennuis, ce que Newton trouva sans sortir de chez lui. »
En quelques vers, il résume admirablement la tension féconde entre le travail de terrain, long et éprouvant, et la puissance de l’abstraction théorique. L’un ne va pas sans l’autre : sans hypothèse, pas d’expédition ; sans mesure, pas de confirmation. La science avance ainsi : en acceptant que les faits corrigent les hypothèses, même lorsque cela contredit des traditions prestigieuses.
À la fin du XVIIIᵉ siècle, la Révolution française engage une nouvelle étape. Il s’agit de créer un système de mesures universel, affranchi des usages locaux. Le mètre sera défini comme la dix-millionième partie du quart du méridien terrestre. La Terre devient l’étalon commun de l’humanité. De nouvelles campagnes de mesure sont entreprises pour fixer cette unité. La géodésie (l’étude de la forme de la Terre) rejoint alors des enjeux politiques et économiques : maîtriser la longitude en mer, c’est maîtriser les routes commerciales et la puissance navale. La mesure du globe participe désormais à l’histoire des empires.
L’histoire ne s’achève pas avec l’ellipsoïde newtonien. La Terre réelle n’est ni parfaitement sphérique ni exactement régulière. Les masses internes, les reliefs, les océans introduisent des irrégularités que l’on regroupe sous le nom de « géoïde ». Au XIXᵉ siècle, des mathématiciens, comme Henri Poincaré, s’interrogent sur la stabilité des corps en rotation et développent des concepts qui éclairent aussi la compréhension des formes planétaires. Aujourd’hui, grâce aux satellites et à l’altimétrie spatiale, la surface moyenne des océans est connue avec une précision centimétrique. Du bâton d’Ératosthène aux instruments orbitaux, c’est une même quête intellectuelle et technique qui se poursuit.
C’est cette aventure, scientifique autant que politique, que retrace l’exposition organisée conjointement par la Royal Society et l’Académie des sciences. Présentée d’abord à Londres, elle est aujourd’hui accueillie à Paris, à la bibliothèque Mazarine de l’Institut de France. Manuscrits, cartes, instruments, carnets de terrain, correspondances témoignent de ces débats, de ces voyages et de ces calculs. On y voit comment des savants parfois rivaux ont appris au fil du temps à confronter leurs théories au réel, à mesurer leurs erreurs, à dialoguer au-delà des frontières.
À l’heure où certains doutent encore de la rotondité de la Terre, il n’est pas inutile de revenir à cette histoire longue et complexe. Elle rappelle que la science n’est ni un dogme ni une vérité révélée, mais une construction patiente, collective, souvent conflictuelle, toujours ouverte à la révision. Comprendre comment nous avons mesuré la Terre, c’est comprendre comment se fabrique la connaissance. Et c’est peut-être aussi une manière, aujourd’hui, de reconstruire la confiance dans le savoir.
Étienne Ghys ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.03.2026 à 17:52
Pierrick Gomez, Professeur associé de marketing, Neoma Business School
La question de l’ultratransformation des aliments constitue aujourd’hui un enjeu majeur tant pour l’industrie agroalimentaire que pour les pouvoirs publics. La liste d’ingrédients, information obligatoire qui figure sur les emballages alimentaires, apparaît comme un outil intéressant pour aider les consommateurs à repérer ces aliments dans les rayons. Toutefois, son efficacité reste à établir.
L’offre d’aliments ultratransformés occupe une place prépondérante sur les rayons de produits alimentaires de nombreux pays occidentaux, alors même que les consommateurs demeurent encore peu nombreux à savoir ce que recouvre cette catégorie et comment l’identifier.
Cette situation est problématique car la question de l’ultratransformation des aliments constitue aujourd’hui un enjeu majeur de santé publique. De nombreuses études scientifiques mettent en évidence une association entre la consommation d’aliments ultratransformés et un risque accru de diverses maladies chroniques, voire de mortalité.
Or, en dehors de leurs croyances personnelles, les consommateurs disposent de peu d’indices tangibles leur permettant de déterminer si un produit est ultratransformé, ou non.
Pour l’heure, la liste d’ingrédients constitue la principale source d’information figurant sur les emballages qui permet aux consommateurs d’identifier le degré de transformation des aliments, notamment parce qu’elle leur donne accès à la composition des produits qu’ils achètent.
Pourtant, on sait encore peu de choses sur son usage réel par les consommateurs et sur sa capacité à les aider à repérer et à éviter les aliments ultratransformés. Qui lit la liste d’ingrédients ? Cette information suffit-elle à orienter les choix vers des produits moins transformés ? Des avertissements sanitaires placés sur la face avant des emballages seraient-ils plus efficaces à cet égard ?
Nous avons cherché à apporter des éléments de réponse dans un article récemment publié dans Journal of Consumer Policy qui repose sur trois études expérimentales menées auprès de 1 088 consommateurs états-uniens et britanniques.
Dans une première étude, nous nous sommes intéressés aux usages de la liste d’ingrédients et avons observé qu’environ 43 % des participants déclaraient la consulter régulièrement lors de leurs achats alimentaires. Ce résultat est déjà instructif : il montre que cet usage n’est pas marginal, tout en suggérant que plus de la moitié des consommateurs ne la consultent qu’occasionnellement, voire pas du tout.
Surtout, nos analyses indiquent que cet usage est fortement influencé par des caractéristiques individuelles. Les utilisateurs fréquents déclarent de meilleures compétences culinaires et un niveau de connaissance plus élevé en matière d’aliments ultratransformés, manifestent une préférence marquée pour les aliments naturels et se montrent plus attentifs à leur santé.
Autrement dit, l’usage de la liste d’ingrédients semble associé à des facteurs qui ne sont pas également répartis au sein de la population. Dès lors, s’appuyer sur cet outil pour orienter les choix alimentaires risque de renforcer certaines inégalités. Des analyses complémentaires mettent d’ailleurs en évidence des différences d’usage significatives selon le niveau d’éducation.
Le caractère ultratransformé d’un aliment peut, en théorie, s’apprécier à travers deux dimensions de la liste d’ingrédients : sa longueur (plus la liste est longue, plus on peut soupçonner un degré de transformation élevé) et son contenu (présence d’additifs et d’ingrédients d’origine industrielle). Dans une deuxième étude expérimentale, nous avons précisément isolé ces deux dimensions afin d’évaluer leur influence sur les évaluations des consommateurs.
Les participants devaient évaluer un pain industriel emballé, avec la possibilité d’accéder à la liste d’ingrédients figurant au dos de l’emballage, laquelle variait selon le contenu (modérément versus fortement transformé) et la longueur (liste courte versus longue). Par rapport à la première étude, une proportion plus élevée de participants (66 %) a choisi d’examiner la liste d’ingrédients.
Les résultats sont sans ambiguïté : le contenu de la liste l’emporte largement sur sa longueur. La présence d’additifs et d’ingrédients perçus comme industriels accroît significativement la perception de transformation du produit. Ce résultat est cohérent avec un mécanisme psychologique bien documenté en comportement du consommateur, à savoir le biais de négativité : les consommateurs accordent davantage de poids à des signaux négatifs, facilement identifiables (additifs, ingrédients industriels), qu’à la longueur de la liste dont l’interprétation reste ambiguë (un aliment peut comporter un nombre conséquent d’ingrédients sans être ultratransformé).
Un autre résultat mérite toutefois d’être souligné : bien que la présence d’additifs dans la liste modifie les perceptions, elle ne réduit pas directement l’intention d’achat du produit ultratransformé.
Ainsi, le degré de transformation ne constitue qu’un critère de choix parmi d’autres : le prix, le goût, la praticité ou encore les bénéfices perçus pour la santé peuvent peser davantage dans la décision et neutraliser l’effet de la liste d’ingrédients.
La troisième étude examine l’effet additionnel d’un outil plus facilement accessible et interprétable par les consommateurs : un avertissement sanitaire apposé sur la face avant de l’emballage qui signale le caractère ultratransformé des produits. Les participants recrutés devaient choisir entre trois barres de céréales présentant des niveaux de transformation différents (modérément versus fortement transformé), avec ou sans avertissement. Ils avaient par ailleurs accès à leurs compositions.
Les résultats sont sans équivoque : la présence d’un avertissement accroît fortement la probabilité de choisir le produit le moins transformé. La part de choix en faveur de l’option modérément transformée passe ainsi de 39,6 % en l’absence d’avertissement à 62,7 % lorsqu’un avertissement est présent. L’avertissement renforce la capacité des consommateurs à distinguer les produits selon leur degré de transformation et à orienter leurs choix en conséquence.
Au final, la liste d’ingrédients apparaît comme un outil utile mais insuffisant. Elle est utilisée par un nombre limité de consommateurs et si elle permet à certains d’identifier les produits transformés, davantage à travers son contenu que sa longueur, elle ne génère pas une impulsion suffisante pour influencer directement l’intention d’achat.
Ainsi, en l’absence d’outils complémentaires, son usage risque de laisser de côté les consommateurs les moins motivés, renforçant ainsi des inégalités d’accès à l’information. À l’inverse, un avertissement simple et visible apposé sur la face avant des emballages semble nettement plus efficace pour que l’identification des produits ultratransformés se traduise en choix effectifs.
Ces résultats devront être répliqués dans des situations d’achat réelles, en interaction avec d’autres dispositifs existants (par exemple l’étiquetage nutritionnel Nutri-Score présent sur les emballages des produits alimentaires, des allégations relatives au pourcentage d’ingrédients naturels dans la composition et autres « clean labels » qui promeuvent une alimentation plus saine, ainsi que dans d’autres contextes culturels.
Ces travaux dessinent néanmoins une orientation claire pour les décideurs en santé publique : si l’objectif est d’orienter les choix des consommateurs vers des aliments moins transformés, la seule liste d’ingrédients risque de ne pas suffire ; des instruments plus persuasifs, tels que des avertissements sanitaires spécifiques, apparaissent dès lors nécessaires.
Pierrick Gomez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.03.2026 à 17:50
Farid Lamara, Responsable de programmes de recherches, Agence Française de Développement (AFD)
Toutes les données disponibles indiquent que l’Agenda 2030 adopté en septembre 2015 par les 193 États membres de l’Organisation des Nations unies sera loin d’être mené à bien dans le délai imparti. Dans un contexte de recul massif des démocraties et des droits humains, d’explosion des inégalités, de rétrécissement de l’espace civique et de dépassement des limites planétaires, l’approche fondée sur les droits (humains et du vivant), qui n’a été que très partiellement intégrée par la communauté internationale dans la déclinaison opérationnelle des Objectifs de développement durable, apparaît comme un levier plus nécessaire que jamais.
Les États membres des Nations unies ont adopté à l’unanimité en 2015, le programme de développement durable. Il entend garantir un développement qui « répond aux besoins du présent sans compromettre la capacité des générations futures à répondre aux leurs » (rapport Brundtland de 1987, « Notre avenir commun »). Cet agenda déroule 17 Objectifs du développement durable (ODD) et décline 169 cibles à atteindre en 2030. Elles représentent le cadre de redevabilité du programme.
Aucun des 17 Objectifs de développement durable (ODD) n’est spécifiquement consacré aux droits humains. Ceux-ci, en réalité, sont partout – au cœur de la vie sociale, économique, culturelle, civile et politique de tous les habitants du monde, mais également au centre des enjeux écologiques contemporains, ce qu’a acté l’Assemblée générale des Nations unies en 2022 par une résolution historique reconnaissant le droit à un environnement sain comme un droit humain.
Selon le Danish Institute for Human Rights (DIHR), 92 % des cibles des ODD sont ancrées dans le droit international des droits humains. La promotion, le respect et la protection des droits humains constituent donc la colonne vertébrale des ODD.
Dans l’ensemble, les ODD combinent les enjeux écologiques, économiques, de développement humain et de gouvernance. Mais plusieurs visions fondées sur des hypothèses économiques et écologiques différentes se confrontent sur la manière de les réaliser. On parle de soutenabilité faible ou forte. Cette dernière est un concept qui vise à renforcer le développement durable en évitant que les politiques économiques compromettent (ou sacrifient) le développement humain, l’environnement ou la nature. Contrairement à la soutenabilité faible (technosolutionniste, fondée sur les concepts de la substituabilité du capital naturel), la soutenabilité forte pose pour principe que le capital naturel est irremplaçable et doit être préservé.
On retiendra trois principes de la soutenabilité forte : la finitude de la nature ; la justice sociale ; et les limites de la croissance économique. Dans cette vision, l’approche fondée sur les droits humains et celle fondée sur les droits de la nature sont essentielles pour un développement véritablement durable. Il s’agit ici de reconnaître la nature — écosystèmes et entités naturelles – comme sujet de droit. Aujourd’hui, plus de 650 initiatives de reconnaissance des droits de la nature sont répertoriées. Sans ces approches, le système actuel aggrave les inégalités et menace l’habitabilité de la planète.
C’est ce que documentent plusieurs recherches et conférences internationales de l’Agence française de développement (AFD) consacrées à l’analyse des enjeux croisés entre les droits humains et le développement durable, avec des angles d’études spécifiques tels que la transition écologique, les inégalités multidimensionnelles ou encore les droits de la nature. Mais également les travaux conduits par l’AFD avec le DIHR sur les questions relatives aux droits humains et aux politiques climatiques.
De cet ensemble, il ressort que la crise écologique (anthropique) aggrave les inégalités et affaiblit massivement les droits humains tant substantifs (droit à la vie, à la santé, à l’alimentation, à l’habitat, etc.) que procéduraux (droit de participation, d’information, de réparation), et en premier lieu ceux des populations en situation de vulnérabilité : enfants, femmes, peuples autochtones et communautés locales, défenseurs des droits humains et de l’environnement, migrants et déplacés.
Pourtant, la gouvernance environnementale reste défaillante, les États et le secteur privé se limitant généralement à une démarche de réduction des risques (« ne pas nuire ») sans redevabilité ni vision intégrée et pro-active des droits humains, du droit à un environnement sain et des droits de la nature. Il apparaît ainsi urgent de proposer des modèles alternatifs intégrant redevabilité, justice (sociale et environnementale) et participation citoyenne pour concilier écologie et droits humains dans une approche écocentrée et non plus anthropocentrée.
En particulier à l’heure où les limites planétaires sont largement dépassées.
Ces limites (voir graphiques ci-dessous) définissent l’espace opérationnel sûr pour l’humanité par rapport au système terrestre et sont associées aux sous-systèmes ou processus biophysiques de la planète. Aujourd’hui, 7 limites sur 9 sont dépassées. Et depuis l’adoption des ODD en 2015, 3 l’ont été.
Au-delà de l’impact majeur sur la nature, les impacts sur les droits humains sont systémiques. Pour le droit à la santé par exemple, il est démontré que chaque limite planétaire a des conséquences directes sur la santé humaine, animale et des écosystèmes.
Pour la santé humaine, les pollutions chimiques (pesticides, plastiques, polluants éternels) génèrent des maladies chroniques multiples et une croissance des cancers. La seule pollution de l’air provoque plus de 4 millions de décès annuels à l’échelle planétaire. Les décès prématurés liés aux vagues de chaleur (climat), à la malnutrition (changement du cycle de l’eau) ou encore à la dégradation des sols ou à la chute de la biodiversité alourdissent plus encore le bilan sanitaire et la mortalité humaine, en premier lieu pour les populations les plus pauvres, qui plus est dans un monde régi par un modèle profondément asymétrique et inégalitaire.
Selon le rapport 2025 sur les inégalités climatiques du World Inequality Lab, les 50 % les plus pauvres de la population mondiale émettent 10 % des gaz à effet de serre (GES), soit bien moins que les émissions des 1 % les plus riches. Ces derniers sont par ailleurs responsables à eux seuls de 41 % des GES liés à la détention d’actifs (financiers et non financiers).
Par ailleurs, les 50 % les plus pauvres ne sont pas seulement les moins responsables. Ils sont également les plus exposés aux pertes et dommages tout en ayant le moins de capacités financières pour y faire face. Et si l’on regarde les inégalités en matière de revenu et de patrimoine, on constate que les 10 % les plus riches de la planète captent plus de revenus que les 90 % restants. Au global, bien que les inégalités croissent fortement à l’intérieur des pays depuis plusieurs décennies, ces résultats indiquent de très fortes asymétries Nord/Sud. Or plus les inégalités croissent, plus les capacités à faire valoir ses droits diminuent.
Dans ces conditions, les résultats attendus de l’agenda 2030 sont loin d’être atteints. Le rapport 2025 des Nations unies sur les ODD montre que sur les 169 cibles des ODD, seules 18 % sont atteintes ou en passe de l’être en 2030. Et 66 % d’entre elles indiquent des progrès marginaux, en stagnation ou en régression.
L’analyse plus détaillée, ODD par ODD, indique que plusieurs d’entre eux n’atteindront aucune cible d’ici à 2030. C’est le cas notamment pour les ODD 1 (pauvreté), 5 (genre), 6 (eau), 16 (Paix, justice et institution fortes). Alors que les ODD 2 (faim), 3 (santé), 4 (éducation), 10 (inégalités) et 13 (climat) ne devraient n’en atteindre qu’une seule.
Considérant que les droits humains sont la colonne vertébrale des ODD, ces résultats démontrent que les enjeux de justice restent marginaux dans leur déclinaison opérationnelle. Or, le recul des démocraties, le déclin des droits humains et le rétrécissement extrême de l’espace civique — qui se traduit par exemple par la censure, la répression violente des journalistes, des défenseurs des droits et de l’environnement, des manifestants pacifiques, etc. — dans le monde sont autant de freins supplémentaires à leur réalisation.
Aujourd’hui, selon le Civicus Monitor, seuls 7,2 % de la population mondiale vit dans un espace civique « ouvert » ou « rétréci ». Le reste dans un espace « entravé » (19,9 %), réprimé (42,3 %) ou fermé (30,7 %).
Il devient ainsi urgent que la communauté internationale en général et les acteurs du développement en particulier donnent toute leur place aux approches fondées sur les droits humains et du vivant dans la réalisation de l’Agenda 2030.
Pour ce faire, il faudra considérer les enjeux liés au modèle économique dominant ainsi qu’à la gouvernance mondiale. Ce qui dépasse largement la sphère juridique. Néanmoins, les droits de la nature constituent des leviers puissants pour renforcer les droits humains et vice versa, ce qu’a récemment reconnu l’Union internationale pour la conservation de la nature (IUCN) par l’adoption de plusieurs résolutions.
Ainsi, l’approche fondée sur les droits humains et du vivant devrait être intégrée dans toutes les politiques publiques pour la réalisation des ODD dans une optique de soutenabilité forte. C’est bien ce que dit la décision de la COP15 de Kunming-Montréal sur la diversité biologique qui appelle à des actions en faveur de la Terre nourricière, c’est-à-dire d’une « approche écocentrique et fondée sur les droits, propice à la mise en œuvre d’actions visant à établir des relations harmonieuses et complémentaires entre les populations et la nature, à promouvoir la pérennité de tous les êtres vivants et de leurs communautés et à éviter la marchandisation des fonctions environnementales de la Terre nourricière ».
Farid Lamara ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.03.2026 à 17:45
Albert Kandemir, Chercheur doctorant contractuel en Relations internationales, Université Paris-Panthéon-Assas
Pour la Turquie, la République islamique d’Iran est à la fois une rivale en matière de suprématie régionale et un modèle idéologique très différent du sien. Mais Téhéran est aussi un fournisseur d’énergie important, un partenaire en matière de répression des combattants kurdes. Globalement, c’est un voisin encombrant, mais dont Ankara a appris à s’accommoder. Une éventuelle chute du régime iranien pourrait, en outre, s’accompagner d’un afflux de réfugiés sur le territoire turc. Au-delà de la condamnation de la guerre, d’autant que celle-ci est conduite en large partie par Israël, avec qui la Turquie est à couteaux tirés, le gouvernement d’Erdogan cherche donc à jouer les médiateurs pour éviter une déstabilisation majeure de l’ensemble du Proche-Orient.
Lorsque l’on décrit la nature des relations pluriséculaires entre l’Iran et la Turquie, de nombreux analystes considèrent que le traité de Zuhab (1639) a été un point de bascule. En effet, cet accord mit fin à près de 150 ans de conflits entre l’Empire ottoman et l’Empire safavide et fixa la frontière entre les deux États. Certains vont jusqu’à affirmer que ce traité a survécu aux hommes et aux siècles, et n’a jamais été remis en cause. En réalité, de nombreux conflits ont surgi après le traité de Zuhab. Seulement, à l’issue de chacune des guerres, les deux empires sont systématiquement revenus à une frontière proche de celle définie en 1639. Ainsi s’est établi un équilibre des puissances structurel entre le monde turc et le monde perse : ni l’un ni l’autre n’a jamais réussi à absorber ou à détruire le voisin.
Cet équilibre a favorisé l’émergence d’une culture diplomatique complexe de la coexistence contrainte qui perdure aujourd’hui et qui explique le sang-froid et la prudence de la Turquie vis-à-vis de la guerre initiée par Israël et les États-Unis contre l’Iran le 28 février 2026.
Si la Turquie et l’Iran étaient après la Seconde Guerre mondiale des partenaires enracinés dans le camp occidental et unis par le Pacte de Bagdad (1955), cette alliance prit fin après la révolution islamique (1979), Téhéran ayant érigé une théocratie aux frontières de la Turquie, dont la laïcité est un pilier national. Cependant, les divergences idéologiques furent rapidement mises au second plan au bénéfice d’un pragmatisme qui perdure encore aujourd’hui et qui repose sur quatre fondements.
Tout d’abord, l’interdépendance économique. En effet, lors de la guerre Iran-Irak (1980-1988), la Turquie fut un débouché économique majeur pour l’Iran. Aujourd’hui encore, l’Iran est le troisième fournisseur de gaz d’Ankara derrière la Russie et l’Azerbaïdjan. Dans un contexte où l’économie iranienne fonctionne au ralenti et où la Turquie est totalement dépendante des fournisseurs d’énergie étrangers, les deux pays se trouvent donc dans une situation de besoins mutuels.
Ensuite, l’Iran, bien qu’il entretienne des relations économiques et stratégiques avec la Russie et la Chine, est un pays plus ou moins isolé à l’échelle internationale en raison des sanctions américaines et de son soutien à des organisations considérées comme terroristes par des pays occidentaux comme le Hezbollah libanais ou les Houthis yéménites. La Turquie, en revanche, est à la fois partenaire économique de la Russie, intégrée aux nouvelles routes de la soie chinoises… et membre de l’OTAN. La relation avec Ankara offre donc à l’Iran une forme de désenclavement régional et international. D’ailleurs, la Turquie s’est largement impliquée en tant qu’intermédiaire dans les négociations entre la République islamique et les Occidentaux sur le nucléaire iranien.
En outre, les deux pays partagent une culture répressive contre toute velléité d’autonomie politique kurde (rappelons que les Kurdes représentent environ un quart de la population en Turquie et un cinquième de la population en Iran).
Ainsi, pendant la guerre civile syrienne, malgré leurs divergences, Ankara et Téhéran ont parfois collaboré afin de neutraliser des positions kurdes. De façon générale, les autorités turques et iraniennes assument leur coopération afin de lutter contre les organisations kurdes classifiées comme terroristes, notamment le PKK (Parti des travailleurs du Kurdistan) et le PJAK (Parti pour une vie libre au Kurdistan), les deux organisations appartenant à l’Union des communautés du Kurdistan, accusée d’œuvrer au démembrement de la Turquie et de l’Iran et d’être soutenue par des puissances extérieures, notamment Israël et les États-Unis.
C’est là qu’un autre déterminant apparaît dans les relations entre Ankara et Téhéran : la méfiance vis-à-vis de l’État hébreu.
Pour comprendre la position turque vis-à-vis de la guerre en Iran, il faut donc partir de trois postulats. Tout d’abord, la prudence turque ne traduit en rien une affinité idéologique d’Ankara à l’endroit de Téhéran. Comme évoqué ci-dessus, la Turquie est largement dépendante des fournitures de gaz en provenance d’Iran. De plus, en raison des différents conflits régionaux, la Turquie est devenue le deuxième pays comptant le plus de réfugiés au monde – spécialement des Syriens. Cette situation provoque de nombreuses tensions sociales, économiques et politiques. L’une des motivations du soutien turc aux groupes rebelles ayant contribué au renversement de Bachar Al-Assad syriens résidait d’ailleurs dans le refus persistant de ce dernier de négocier les conditions d’un retour des trois millions de réfugiés syriens présents en Turquie. Or l’Iran est le pays accueillant le plus de réfugiés au monde, très majoritairement des Afghans. Un renversement du régime menant à un vide de pouvoir est donc vu par la Turquie comme un danger imminent qui pourrait provoquer un nouvel afflux de réfugiés sur son territoire. Ces derniers jours, la Turquie a militarisé sa frontière avec l’Iran pour prévenir ce risque.
De plus, Israël et les États-Unis ont plusieurs fois évoqué la possibilité d’utiliser des groupes rebelles kurdes pour renverser le régime iranien. Pour l’instant, aucune source fiable confirme l’implication de ces derniers contre le régime. En revanche, si cela se matérialisait, il est probable que la Turquie fournira des renseignements à Téhéran afin de neutraliser ces forces. Ankara affirme déjà qu’elle surveille de près les activités du PJAK. S’il semble peu probable que la Turquie mène une opération directe sur le sol iranien, c’est toutefois une possibilité à prendre en compte. Rappelons que l’objectif de la première opération militaire turque en Syrie (« Bouclier de l’Euphrate ») le 24 août 2016 fut de prévenir une autonomisation politique kurde dans le nord de la Syrie, à la frontière turque.
Enfin, en Turquie, il existe ainsi une conviction trans-partisane, à savoir que Tel-Aviv cherche à neutraliser toute puissance du Proche et du Moyen-Orient ayant des intérêts contraires aux siens. Alors que le chef de l’État, Recep Tayyip Erdogan, s’est dit « profondément attristé et inquiet » de l’attaque lancée contre l’Iran par les États-Unis et Israël, qu’il a attribuée à « une provocation de Benyamin Nétanyahou », le président du CHP (principal parti d’opposition), Özgür Özel, a tenu des propos similaires : « Israël a attaqué l’Iran. Notre parti condamne ces attaques avec la plus grande fermeté. Nous transmettons nos sentiments de solidarité au peuple iranien. »
Si la Turquie a été le premier pays à majorité musulmane à reconnaître l’État d’Israël, depuis la fin des années 2000, avec le « One minute speech » d’Erdogan et l’attaque de la flottille de Marmara par Israël, les relations entre Ankara et Tel-Aviv se sont profondément dégradées. Malgré des tentatives ponctuelles de reprise du dialogue, les tensions se sont intensifiées ces dernières années – notamment du fait de la condamnation très forte par la Turquie de la guerre menée par Israël à Gaza en représailles aux attaques du Hamas du 7 octobre 2023 – et ont culminé après la chute de Bachar Al-Assad en décembre 2024.
En effet, la Turquie prétend œuvrer à l’intégrité du territoire syrien et accuse Israël d’œuvrer à son morcellement, en soutenant des groupes factieux tels que les Druzes ou les Kurdes, et sa spoliation, en ayant étendu son emprise illégale sur le plateau du Golan. Ainsi, les deux pays se trouvent en compétition hégémonique en Syrie. Par conséquent, du point de vue de la Turquie, si l’Iran tombe, en raison de sa propre montée en puissance, Ankara serait le prochain sur la liste d’Israël.
De nombreuses déclarations de responsables israéliens abondent dans ce sens. Naftali Bennet, ancien premier ministre (2021-2022), a ainsi déclaré le 17 février 2026 : « Une nouvelle menace turque émerge. La Turquie est le nouvel Iran. Erdogan est dangereux et cherche à encercler Israël ». Sans être aussi explicites, des personnalités politiques actuellement au pouvoir préparent l’opinion publique israélienne à faire face à la « menace turque ». Par exemple, Benyamin Nétanyahou a déclaré le 22 février 2026 :
« L’objectif est de créer un axe de nations qui partagent la même vision de la réalité, des défis et des objectifs face aux axes radicaux – tant l’axe chiite radical, que nous avons frappé de plein fouet, que l’axe sunnite radical émergent. »
Depuis au moins le début des années 2020, de nombreuses opérations des services du renseignement turc ont été menées contre des agents clandestins accusés de collaborer avec Israël et d’utiliser le territoire turc comme un terrain de lutte contre des agents d’influence palestiniens ou iraniens. Ces opérations sont donc un révélateur de tensions croissantes mais encore diffuses et tacites.
Dans une région où plusieurs régimes définis comme des menaces par Israël ont été neutralisés (Saddam Hussein en Irak, Mouammar Khadafi en Libye, Bachar Al-Assad en Syrie) et où certains pays ont normalisé leurs relations avec l’État hébreu à travers les Accords d’Abaraham, la Turquie considère avec inquiétude la perspective d’une victoire politique et militaire israélienne en Iran, qui mènerait à la chute du régime des ayatollahs.
La Turquie a été le seul pays de l’OTAN (avec l’Espagne) à dénoncer sans ambages le bellicisme israélo-américain et le seul à avoir présenté ses condoléances à l’Iran à la suite de l’assassinat de l’ayatollah Ali Khamenei. Pour autant, la Turquie et l’Iran se sont livré de véritables guerres d’influence, notamment en Syrie où l’Iran soutenait Bachar Al-Assad tandis que la Turquie armait les rebelles de l’Armée nationale syrienne ; en Irak, les Iraniens développaient leur réseau d’influence chiite là où la Turquie appuyait les partis sunnites, ou encore, plus récemment, dans le Caucase.
En effet, la Turquie a fourni un soutien actif à l’Azerbaïdjan dans la guerre menée contre les Arméniens du Haut-Karabakh, alors que l’Iran voit avec beaucoup de méfiance la montée en puissance de Bakou. L’Iran s’est d’ailleurs explicitement opposé à la création du corridor de Zangezur – là encore soutenu par la Turquie – censé faire la jonction entre l’Azerbaïdjan et la province autonome azerbaïdjanaise du Nakhitchevan, car cela marginaliserait Téhéran, ce dernier perdant son rôle de transit. Or l’Azerbaïdjan est l’un des plus grands alliés d’Israël. De nombreuses sources iraniennes affirment que le pays sert de point de départ à des opérations israéliennes visant l’Iran, dont l’Azerbaïdjan est frontalier.
Récemment, des drones iraniens se sont écrasés sur la province du Nakhitchevan. La réaction du président Ilham Aliev a été très virulente et il a promis une réponse forte. Si pour l’heure, Bakou semble privilégier la prudence, une implication dans le conflit contraindrait la Turquie à composer à la fois avec son allié azerbaïdjanais, avec une déstabilisation de l’Iran et avec sa rivalité avec Tel-Aviv.
La Turquie a elle-même été touchée par deux missiles iraniens. Si Téhéran a nié la responsabilité de ces frappes, Recep Tayyip Erdogan a averti l’Iran que la patience de la Turquie « avait ses limites ». Si Ankara veut empêcher une déstabilisation de l’Iran, elle ne souhaite pas pour autant que la riposte iranienne se fasse à ses dépens, n’étant pas dans une posture passive et attentiste, contrairement aux pays du Golfe.
De plus, à la différence des autres pays définis comme des menaces par Israël, la Turquie est un membre de l’OTAN et un allié des États-Unis. Depuis l’élection de Donald Trump, les relations américano-turques ont été valorisées et l’ambassadeur américain en Turquie, Tom Barrack, œuvre à un renforcement des liens entre Ankara et Washington. Une proximité qui tempère les ardeurs israéliennes. Si les déclarations du secrétaire d’État Marco Rubio sur les raisons de l’entrée en guerre des États-Unis semblent indiquer un suivisme de l’administration Trump vis-à-vis d’Israël, le président américain a plusieurs fois rappelé qu’il espérait une guerre courte. Or la Turquie cherche précisément à prévenir un embrasement régional. Dès lors, Ankara cherche plutôt à jouer un rôle de médiateur dans ce conflit qui oppose l’Iran et Israël, deux pays qu’elle perçoit comme des rivaux géopolitiques au Moyen-Orient et dans le Caucase.
La prudence turque vis-à-vis de cette guerre s’explique donc par un souhait de maintenir un équilibre des puissances et d’empêcher une hégémonie israélienne, mais également iranienne.
Albert Kandemir ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.03.2026 à 17:44
Sophie Lund Rasmussen, Research fellow in Ecology and Conservation, University of Oxford
En Europe, des millions de hérissons meurent en traversant les routes, mais une découverte ouvre la voie à un système d’alerte qui pourrait les empêcher de traverser à des moments dangereux.
Le hérisson est l’un des mammifères sauvages les plus connus et les plus appréciés d’Europe. Beaucoup de personnes les rencontrent dans leur jardin, entendent leur reniflement au crépuscule ou aperçoivent leur silhouette épineuse se déplacer dans la nuit.
Malheureusement, partout en Europe, les populations de hérissons diminuent rapidement. Le hérisson européen est désormais classé comme « quasi menacé » sur la liste rouge de l’Union internationale pour la conservation de la nature (IUCN) pour l’Europe. Il est devenu urgent de comprendre pourquoi cela se produit et ce qui peut être fait de manière réaliste pour enrayer ou inverser cette tendance.
Les nouvelles recherches que j’ai effectuées avec mon équipe montrent que les hérissons peuvent entendre des ultrasons. Grâce à cette découverte, il serait possible de concevoir des dispositifs sonores dissuasifs ciblant spécifiquement les hérissons, sans déranger les humains ni leurs animaux de compagnie. Ainsi, les signaux ultrasonores pourraient à l’avenir avertir les hérissons de l’approche de véhicules ou les éloigner des machines dangereuses.
C’est important, car l’une des plus grandes menaces pour les hérissons provient de la circulation routière. On estime que les voitures tuent chaque année un nombre considérable de hérissons à travers l’Europe, certaines études suggérant que jusqu’à un sur trois de ces animaux pourrait mourir chaque année sur les routes.
Les hérissons ne sont tout simplement pas adaptés aux infrastructures modernes. Leur principale stratégie de défense a évolué pour leur permettre d’échapper aux prédateurs naturels qui détectent les mouvements dans l’obscurité. Ils se figent, évaluent la menace, puis s’enfuient ou se recroquevillent en une boule épineuse. Face à un véhicule roulant à grande vitesse, cette stratégie leur est fatale.
Les routes fragmentent également les paysages, ce qui, chez les hérissons, provoque des difficultés de trouver de la nourriture, des partenaires et de nouveaux habitats. Lorsque cela s’ajoute à des obstacles tels que des clôtures massives, une agriculture intensive, des jardins où l’on utilise des pesticides et l’utilisation généralisée de machines, comme les débroussailleuses et les tondeuses à gazon robotisées, il devient évident que le problème ne réside pas dans le comportement des hérissons. C’est l’environnement créé par les humains qui est en cause.
Pendant des années, je me suis posé la même question : les humains pourraient-ils avertir les hérissons avant qu’un danger ne survienne ? Pourrions-nous les éloigner des routes et des machines sans déranger les gens ?
Pour explorer cette possibilité, j’ai dû commencer par une question étonnamment simple : que peuvent réellement entendre les hérissons ?
J’ai constitué une équipe pluridisciplinaire composée d’experts spécialisés dans l’imagerie, la bioacoustique (étude de ce que les animaux entendent), le comportement animal, l’écologie des hérissons, l’expérimentation animale et l’anesthésie chez les hérissons.
À l’aide de microscanners haute résolution d’un hérisson qui avait été euthanasié dans un centre de sauvetage de la faune sauvage pour des raisons de bien-être, l’équipe a construit un modèle tridimensionnel de l’oreille moyenne et interne.
Le modèle a montré que les hérissons ont des os de l’oreille moyenne très petits et denses ainsi qu’une articulation partiellement fusionnée entre le tympan et le premier de ces os. Cela rend l’ensemble de la chaîne osseuse plus rigide, ce qui lui permet de transmettre efficacement les sons très aigus, une caractéristique des animaux, tels que les chauves-souris écholocalisatrices, qui peuvent entendre les ultrasons.
Les scans ont également révélé que les hérissons ont un petit étrier (le plus petit os de l’oreille moyenne qui relie la chaîne des os de l’oreille à la cochlée remplie de liquide de l’oreille interne). Or, un étrier plus petit et plus léger peut vibrer plus rapidement, ce qui lui permet de transmettre des ondes sonores à haute fréquence. La cochlée s’est également avérée relativement courte et compacte, ce qui lui permet de mieux traiter les vibrations ultrasoniques.
Les ultrasons désignent les fréquences sonores supérieures à 20 kHz, au-delà de la limite supérieure de l’audition humaine. Mais l’anatomie seule ne suffit pas à prouver quoi que ce soit. Pour confirmer ce que les hérissons pouvaient réellement entendre, nous avions besoin de mesures directes. Mais comment mesurer l’audition d’un hérisson ?
Nous avons testé l’audition de 20 hérissons européens à l’aide d’enregistrements de réponses auditives du tronc cérébral. Sous anesthésie légère, de petites électrodes placées juste sous la peau des hérissons ont mesuré leur activité cérébrale pendant leur sommeil profond. Pendant ce temps, nous avons diffusé des sons couvrant une large gamme de fréquences et de pulsations. Si les hérissons pouvaient les entendre, leur activité cérébrale l’indiquait. Après ces tests, les hérissions étaient en bonne santé et prêts à être relâchés dans la nature le lendemain soir.
Les résultats ont été frappants. Les hérissons entendaient des sons compris entre environ 4 kHz et au moins 85 kHz, avec une sensibilité maximale autour de 40 kHz, soit bien au-delà de la gamme des ultrasons. Les hérissons peuvent donc entendre des sons que les humains, les chiens et les chats ne peuvent pas entendre. Tout cela pourrait changer la donne pour la conservation des hérissons.
En théorie, cela permettrait aux scientifiques d’utiliser des signaux ultrasoniques pour avertir les hérissons de l’approche de véhicules ou les éloigner de machines potentiellement dangereuses.
De nombreuses questions restent toutefois en suspens. Quels sons sont efficaces ? Les hérissons s’habituent-ils à certains bruits et finissent-ils par les ignorer ? Quelle est la portée des signaux ultrasoniques ?
Des recherches supplémentaires sont désormais nécessaires pour concevoir des répulsifs sonores efficaces et bénéfiques pour les hérissons, mais il s’agit là d’un pas en avant significatif. Qui sait, peut-être que l’industrie automobile pourrait contribuer au financement de ces recherches ?
Sophie Lund Rasmussen ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.03.2026 à 17:44
Emmanouil Proestakis, National Observatory of Athens
Transportées dans l’atmosphère parfois sur de longues distances, les poussières atmosphériques (particules en suspension dans l’air) constituent une source de pollution encore trop peu prise en compte, au regard des polluants classiques. Une analyse menée sur quinze ans de données satellitaires montre l’ampleur du risque pour les populations des mégapoles urbaines.
Les villes sont en train de devenir le principal lieu de vie humaine. En 2018, plus de 55 % de la population mondiale vivait dans des zones urbaines, une proportion qui devrait atteindre près de 68 % d’ici à 2050, selon les Nations unies.
Cette croissance urbaine sans précédent stimule l’innovation et l’activité économique, mais elle concentre également l’exposition humaine aux facteurs de stress environnementaux et intensifie la pression sur l’environnement urbain. Dans ce contexte, l’Organisation mondiale de la santé (OMS) a souligné les défis multiples et les risques graves que la mauvaise qualité de l’air fait peser sur les activités socio-économiques et la santé humaine. On ne considère généralement, dans les études, la dégradation de la qualité de l’air qu’à travers les émissions de polluants tels le dioxyde d’azote (NO₂), le dioxyde de soufre (SO₂), le dioxyde de carbone (CO₂) et l’ozone (O₃).
Dans une étude récente, nous avons donc pris en compte la poussière atmosphérique (celle-ci est principalement produite par les déserts et par certaines pratiques agricoles et transportée par les vents, ndlt). Cette dernière s’accumule dans les zones urbaines et représente un facteur de risque supplémentaire trop souvent négligé, alors qu’il a des effets sanitaires délétères.
Parmi les types d’aérosols contribuant à la dégradation de la qualité de l’air, les poussières atmosphériques provenant de sources naturelles et des activités humaines sont souvent considérées comme moins dangereuses. Le problème ? Cette hypothèse néglige un nombre croissant de preuves scientifiques démontrant que les poussières en suspension dans l’air constituent un danger pour la santé.
Tout d’abord, la masse de ces poussières n’est pas négligeable. En termes de masse, elles sont le deuxième type d’aérosols le plus abondant au monde, surpassé uniquement par les particules de sel marin. Dans les larges zones continentales, elles deviennent le principal composant de la charge d’aérosols atmosphériques.
Plus précisément, on estime que les sources naturelles, principalement les zones arides et semi-arides, émettent environ 4 680 téragrammes (Tg) (1 Tg = 1 milliard de kilogrammes) de poussière dans l’atmosphère chaque année. Cette estimation ne tient pas compte de la poussière déjà présente dans l’atmosphère.
À l’échelle mondiale, les processus naturels contribuent à environ trois quarts de la charge totale de poussière, le quart restant étant lié aux activités humaines, en particulier autour des zones urbaines et hautement industrialisées. Les transports, le développement des infrastructures, le changement d’affectation des sols, la déforestation, le pâturage et les pratiques agricoles peuvent être en cause.
Mettons ce chiffre en perspective : la masse de poussières en suspension dans l’air rejeté chaque année dans l’atmosphère à l’échelle mondiale correspond à 615 000 fois le poids de la tour Eiffel
À lire aussi : Les poussières du Sahara qui remontent en Europe sont-elles radioactives du fait des essais nucléaires des années 1960 ?
De plus, ces particules sont loin d’être uniformes en taille. Des expériences à grande échelle menées pour étudier les polluants atmosphériques ont révélé que les particules présentes dans les couches atmosphériques transportées par le vent ont des tailles très variables, allant de moins de 0,1 micromètre (μm, environ la taille d’un virus SARS-CoV-2 , ou coronavirus) à plus de 100 μm (environ le diamètre d’un cheveu humain).
Plus inquiétant encore, les données issues d’études épidémiologiques établissent un lien entre les poussières en suspension dans l’air et des risques sanitaires. Les poussières minérales de grande taille sont souvent considérées comme relativement inoffensives, ne provoquant que des irritations cutanées mineures ou des réactions allergiques, même en cas d’exposition prolongée. Il en va autrement des particules fines. En raison de leur petite taille, ces particules fines peuvent pénétrer profondément dans les poumons, ce qui peut déclencher des maladies respiratoires et cardiovasculaires, des réactions allergiques plus graves, voire des cancers.
Au-delà de ces effets directs, les scientifiques continuent d’étudier le rôle de la poussière en tant que vecteur de bactéries, comme le suggèrent les épidémies de méningite dans le désert du Sahel.
Ces préoccupations soulèvent de nombreuses questions. Dans quelle mesure la répartition (entre particules fines et particules de grande taille) des poussières en suspension dans l’air a-t-elle évolué au cours des deux dernières décennies dans les zones urbaines fortement industrialisées et densément peuplées ?
Pouvons-nous détecter des tendances significatives, à la hausse ou à la baisse, dans ces données ? Quelles grandes villes connaissent actuellement, ou sont susceptibles de connaître dans un avenir proche, des concentrations de poussières dépassant les seuils de sécurité de la qualité de l’air fixés par l’OMS ?
À lire aussi : Pollution de l'air : toutes les particules fines n’ont pas les mêmes effets sur la santé
Afin de mieux comprendre la quantité de poussière que respirent quotidiennement les populations urbaines, notre récente étude a examiné les observations satellitaires de la Terre sur une période de plus de quinze ans. Nous avons étudié l’accumulation et les dynamiques temporelles des transports de poussière dans la couche atmosphérique la plus basse, au-dessus de 81 des plus grandes villes et zones urbaines du monde. Concrètement, nous avons retenu les zones où la population excède 5 millions d’habitants.
Les résultats révèlent plusieurs conclusions importantes :
La poussière atmosphérique représente, sans aucun doute possible, une menace pour la santé publique dans un nombre important de grandes zones urbaines dans le monde. D’après les données démographiques et les projections fournies par l’ONU, environ 9 personnes sur 10, parmi les quelque 800 millions d’habitants des 81 plus grandes villes, sont exposées à des niveaux de poussière supérieurs aux seuils annuels de risque en matière de qualité de l’air. Une tendance géographique claire se dessine : les zones urbaines les plus touchées se situent au Moyen-Orient, dans le sous-continent indien (Asie du Sud), en Asie de l’Est et au Sahel.
Les niveaux de poussière semblent diminuer dans la plupart des grandes villes. Cependant, cette nouvelle encourageante s’accompagne de deux réserves importantes : dans de nombreux cas, ces tendances temporelles à la baisse ne sont pas statistiquement significatives et, souvent, la charge globale de poussière reste considérable. En d’autres termes, même lorsque des réductions sont observées, elles ne se traduisent pas nécessairement par une diminution significative des risques pour la santé.
À court terme, ce problème ne devrait pas disparaître. Selon les estimations de l’ONU, la population urbaine de ces mégapoles devrait augmenter pour atteindre plus d’un milliard de personnes au milieu des années 2030.
Par conséquent, la poussière atmosphérique restera un danger environnemental pour la santé. Même si les tendances à la baisse devaient se confirmer, cette pollution touchera davantage d’habitants du fait de l’augmentation des populations dans les villes.
En réponse aux preuves scientifiques de plus en plus nombreuses qui montrent que les poussières en suspension dans l’air constituent un risque pour la santé humaine, les pays renforcent peu à peu leurs législations en matière de qualité de l’air. Des initiatives nationales et internationales ont été lancées.
Des initiatives telles que le SDS-WAS de l’Organisation météorologique mondiale, l’alliance DANA et le programme CAMS NCP reflètent une collaboration croissante pour améliorer la surveillance, la modélisation et la traduction de la science en solutions pratiques. Parallèlement, les gouvernements s’efforcent d’aligner leurs réglementations sur les recommandations de l’OMS.
Par exemple, la directive révisée de l’Union européenne (UE) sur la qualité de l’air ambiant reconnaît explicitement les aérosols naturels tels que la poussière comme un danger pour la santé. Les progrès de la recherche, la coordination des politiques et l’amélioration de la réglementation constituent, ensemble, une base plus solide pour agir.
Avec l’accélération de l’urbanisation, la lutte contre la pollution de l’air, notamment la poussière atmosphérique, est essentielle pour protéger la santé publique, renforcer la résilience des villes et garantir un avenir plus durable aux villes du monde entier qui connaissent une croissance rapide.
Créé, en 2007, pour aider à accélérer et à partager les recherches scientifiques sur des enjeux sociaux majeurs, le Fonds d’Axa pour la recherche soutient près de 700 projets dans le monde. Pour en savoir plus, visiter le site ou bien sa page LinkedIn.
Emmanouil Proestakis a reçu des financements du Fonds AXA pour la recherche postdoctorale dans le cadre du projet intitulé « Observation de la Terre pour la qualité de l'air – Mode fin de la poussière » (EO4AQ-DustFM).
16.03.2026 à 17:43
Karen Stollznow, Senior Research Fellow of linguistics, University of Colorado Boulder; Griffith University
Les enfants ont bien plus de facilité que leurs aînés à se familiariser avec un nouvel accent lorsqu’ils apprennent une langue. Cependant, devenir plurilingue n’est pas hors de portée des adultes, qui peuvent compter sur tout un ensemble d’autres compétences développées au fil du temps.
Si les jeunes apprenants peuvent acquérir plus facilement un accent natif, les adultes conservent la capacité d’apprendre de nouvelles langues jusqu’à un âge avancé.
On a tendance à supposer qu’en apprenant une langue dès le plus jeune âge, on la maîtrisera rapidement.
Beaucoup de gens pensent également qu’il est beaucoup plus difficile d’apprendre une langue si l’on s’y met tardivement.
Les recherches sur l’apprentissage des langues montrent que l’âge auquel une personne s’initie à une langue a son importance, mais il n’existe pas d’âge limite auquel la capacité d’apprendre une langue s’éteindrait.
Si les jeunes apprenants acquièrent plus facilement l’accent des locuteurs natifs, les adultes conservent la capacité d’apprendre de nouvelles langues jusqu’à un âge avancé. Tout le monde peut continuer à apprendre et à perfectionner son vocabulaire et sa grammaire. D’autres facteurs, tels que la motivation, peuvent également jouer un rôle pour les apprenants de tous âges.
Je suis linguiste et autrice d’un ouvrage à paraître, intitulé Beyond Words : How We Learn, Use, and Lose Language, qui examine comment une langue est apprise, utilisée et oubliée tout au long de la vie, et pourquoi l’âge seul ne fixe pas de limites strictes à nos capacités linguistiques.
Au contraire, les stratégies utilisées par les apprenants, les résultats qu’ils atteignent le plus facilement et la façon dont les autres évaluent leurs progrès peuvent tous évoluer au fil du temps.
L’âge d’une personne peut influencer sa capacité à apprendre une langue de différentes manières.
Les scientifiques parlent parfois de « périodes sensibles », c’est-à-dire d’une période précoce du développement pendant laquelle le cerveau est particulièrement réceptif à certains types d’informations.
En matière de langage, les bébés et les enfants sont particulièrement sensibles aux schémas sonores. Ils peuvent également percevoir des distinctions phonétiques subtiles que les adultes ont du mal à percevoir ou à reproduire.
Cela explique pourquoi les enfants qui grandissent dans un environnement bilingue parlent souvent les deux langues comme des natifs. Les accents, plus que le vocabulaire ou la grammaire, sont le domaine où les différences liées à l’âge sont les plus prononcées.
Les périodes sensibles existent également chez d’autres animaux, en particulier les oiseaux, qui ont une période sensible précoce pour apprendre le chant spécifique à leur espèce auprès d’un tuteur adulte.
Une fois cette période passée, il est toujours possible d’apprendre une nouvelle langue. Mais cela demande généralement plus d’efforts conscients et de pratique.
Des études montrent également que les enfants exposés à une deuxième langue dès leur plus jeune âge, généralement avant la puberté, ont plus de chances d’acquérir une prononciation et une intonation proches de celles d’un locuteur natif.
Des recherches en imagerie cérébrale montrent que les personnes qui apprennent deux langues dès le plus jeune âge ont tendance à les traiter dans les mêmes parties du cerveau. Ceux qui apprennent une deuxième langue plus tard utilisent souvent des zones cérébrales légèrement différentes pour chaque langue.
Concrètement, les personnes bilingues précoces sont plus susceptibles de passer d’une langue à l’autre sans effort. Les apprenants tardifs peuvent devoir travailler plus consciemment leur deuxième langue, surtout au début.
La prononciation ne représente qu’une part de la maîtrise d’une langue. Les adultes bénéficient aussi d’atouts qui leur sont propres pour y parvenir.
Contrairement aux jeunes enfants, les apprenants adultes peuvent déjà s’appuyer sur une langue maternelle pleinement développée. Ils possèdent également des compétences de raisonnement et de reconnaissance des schémas, ainsi qu’une conscience du fonctionnement du langage.
Cela permet aux adultes d’apprendre de manière plus réfléchie, car ils étudient les règles grammaticales et comparent consciemment les langues. Les adultes ont également davantage tendance à s’appuyer sur des stratégies délibérées, telles que la mémorisation, pour apprendre une langue.
À lire aussi : À partir de quand devient-on bilingue ?
En classe, les adultes surpassent souvent les enfants dans les premières étapes de l’apprentissage, en particulier en lecture et en écriture.
L’apprentissage des langues ne s’arrête jamais vraiment. Même à l’âge adulte, les gens continuent à développer et à perfectionner leur langue maternelle, façonnée par leur éducation, leur travail, leur environnement social et la façon dont ils l’utilisent au quotidien.
S’il peut être plus difficile pour les adultes d’acquérir un accent proche de celui d’un locuteur natif à un âge avancé, la bonne nouvelle est que la grammaire, le vocabulaire et la fluidité restent à la portée de la plupart des apprenants adultes.
Les enfants, quant à eux, ont tendance à apprendre les langues de manière implicite, par immersion et interaction, souvent sans prêter attention aux règles.
Les facteurs sociaux et émotionnels jouent également un rôle majeur dans la réussite de l’apprentissage d’une langue.
Les enfants sont généralement moins timides que les adultes et plus disposés à prendre des risques lorsqu’ils s’expriment.
Les adultes, en revanche, sont souvent très conscients de leurs erreurs et peuvent hésiter à s’exprimer, par crainte de paraître ridicules ou d’être jugés.
Les recherches montrent systématiquement que la disposition à communiquer est un facteur prédictif important de la réussite dans l’apprentissage d’une nouvelle langue. L’anxiété, l’inhibition et les commentaires négatifs des autres peuvent ralentir considérablement les progrès, quel que soit l’âge.
D’autres facteurs, tels que la pression sociale et la discrimination, jouent également un rôle important lorsqu’une personne tente d’apprendre une nouvelle langue.
Les recherches sur la langue et l’identité montrent que les auditeurs associent souvent un fort accent à une intelligence ou une compétence moindre, bien qu’il n’y ait aucun lien entre l’accent et les capacités cognitives.
Les locuteurs non natifs sont souvent victimes de stigmatisation, de discrimination et de préjugés de la part des locuteurs natifs.
Ce préjugé peut décourager les apprenants adultes et renforcer la fausse croyance selon laquelle, pour réussir l’apprentissage d’une langue, il faut parler comme un natif.
La motivation est un autre facteur clé qui influence les apprenants de tous âges.
Les gens apprennent de nouvelles langues pour de nombreuses raisons : un nouveau pays, le travail, les études, les relations ou l’intérêt pour une autre culture.
La recherche distingue les différentes raisons qui poussent les gens à apprendre une langue. Certaines sont pratiques, comme l’évolution de carrière ou la réussite d’un examen. D’autres sont personnelles, comme le désir de se rapprocher d’une communauté, d’une culture ou d’une famille.
À lire aussi : Apprendre une nouvelle langue : pourquoi on ne doit pas considérer l’âge comme un frein
Les apprenants qui ressentent un lien personnel ou émotionnel fort avec la langue sont plus enclins à persévérer même lorsque cela devient difficile, et ils atteignent souvent des niveaux de maîtrise plus élevés que ceux qui n’ont pas ce lien.
D’autres personnes ont une aptitude naturelle pour l’apprentissage des langues et peuvent les assimiler facilement. Peut-être remarquent-elles rapidement les schémas sonores, ou peuvent-elles mémoriser de nouveaux mots après les avoir entendus une ou deux fois.
L’aptitude linguistique est différente de l’intelligence et varie d’une personne à l’autre. L’aptitude augmente les chances de réussite dans l’apprentissage d’une langue, mais ne la garantit pas.
Les apprenants ayant une aptitude moyenne peuvent tout de même devenir très compétents dans de nouvelles langues à l’âge adulte s’ils y sont exposés de manière régulière, s’ils s’entraînent et s’ils sont motivés.
Alors, vaut-il mieux apprendre une deuxième langue quand on est enfant ou quand on est adulte ? Les recherches suggèrent que la question la plus pertinente est de savoir quels aspects de l’apprentissage d’une langue, tels que la prononciation, la fluidité ou la maîtrise à long terme, sont les plus importants.
Apprendre une nouvelle langue dès le plus jeune âge permet de parler plus facilement comme un locuteur natif et d’utiliser la langue avec aisance, sans avoir à réfléchir aux règles.
Apprendre une langue plus tard dans la vie fait appel aux points forts dont disposent les adultes, tels que la planification, la résolution de problèmes et une pratique soutenue.
En fin de compte, certaines personnes apprennent rapidement les langues tandis que d’autres ont plus de difficultés, quel que soit leur âge.
Les croyances relatives à l’apprentissage des langues influencent les politiques éducatives, les choix parentaux et la manière dont les personnes multilingues sont traitées dans la vie quotidienne.
Lorsque les adultes s’entendent dire qu’ils ont raté leur chance d’apprendre une langue, beaucoup ne prennent même plus la peine de se lancer. Lorsque les accents étrangers sont considérés comme des imperfections, des locuteurs pourtant compétents peuvent être injustement victimes de discriminations.
En réalité, des recherches montrent qu’il est possible d’apprendre une langue à tout âge. Il s’agit d’un parcours réalisable tout au long de la vie, plutôt que d’une course contre la montre.
Karen Stollznow ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.03.2026 à 17:41
Jean-Baptiste Welté, Professeur de Sciences de Gestion, Université Paris-Panthéon-Assas
Anne Bontour, Maitre de conférences en sciences de gestion, Université Marie et Louis Pasteur (UMLP)
Les seniors qui cumulent temps libre et pouvoir d’achat sont une cible de choix pour les marques. Quelles stratégies déploient ces dernières pour les séduire, les attirer et les fidéliser ? Du pur hédonisme à la marque « apprenante »… l’imagination est (toujours) au pouvoir !
La « silver economy » ne cesse de croître. Voyages, assurances, santé, alimentation, cosmétique, le vieillissement de la population entraîne l’émergence de davantage de produits et de services à destination des personnes âgées. L’économie à destination des seniors pourrait ainsi générer un chiffre d’affaires de plus de 130 milliards d’euros à l’horizon 2030 ».
Ce marché du vieillissement est en réalité un marché du « bien vieillir ». Les personnes âgées sont invitées à profiter de ce nouveau « plus bel âge de la vie », que représente notamment la soixantaine. Certes, elles présentent des vulnérabilités, mais des produits et services associés au « bien vieillir » les invitent à un nouvel hédonisme.
En bonne santé pour beaucoup grâce aux progrès de la médecine, libérées des contraintes du travail, elles peuvent jouir pleinement de leur temps libre. Dans ce contexte, les marques, pourvoyeuses de sens des sociétés de consommation, leur offrent des imaginaires auxquels se rattacher. Alors que leur public cible était plutôt les jeunes générations en quête de modèle identitaire, elles peuvent accompagner les nouvelles exigences sociales du « bien vieillir ».
À lire aussi : Mode : les consommateurs seniors encore loin de l’inclusion
Les marques aident les personnes âgées dans leur rôle de grand-parents, et accompagnent plus généralement la transmission sociale au sein de la famille, au travers de récits valorisant des compétences, un savoir-faire ou un savoir-être, comme, par exemple, la campagne « Générations » de Patek Philippe.
Mais cette transmission n’est pas automatique. Les seniors ont un pouvoir de régulateur, et peuvent contredire certaines marques, par exemple remettre en question le rôle fédérateur de Nutella (en limitant l’usage auprès de leur famille, ou alors s’opposer aux marques de jeux vidéo, pour « garder un lien » avec leurs petits-enfants).
La relation peut être inversée, et des marques « apprenantes » aident les personnes âgées à maintenir le lien avec les jeunes générations. Ils ont alors plaisir à continuer à apprendre tout en restant socialement en lien avec leur entourage. Les marques technologiques comme Apple ont ainsi intégré un mode senior à partir d’Ios 17 qui leur permet d’accéder plus facilement aux applications, et de pouvoir rester connecté avec leurs petits-enfants.
Certaines marques « béquille » sont utilisées par les personnes âgées pour gérer plus aisément les effets du vieillissement. Mais cette fonction de « béquille » ne doit pas représenter uniquement un marché destiné aux seniors, sous peine de les stigmatiser. Par exemple, la marque suisse, On, destinée aux sportifs souhaitant allier innovation et performance, s’est développée sur ce nouveau segment de marché tout en gardant son offre pour sa cible d’origine.
La marque peut également servir aux coups de cœur des personnes âgées, preuve que leur désir peut encore être stimulé. Certaines marques peuvent avoir été fantasmées plus jeunes, puis leur consommation décalée à cause des contraintes économiques ou financières de chacun.
Les seniors profitent d’autant plus pleinement de ces marques « hédoniques » que le report de jouissance a créé une attente et amplifié le désir. Plus généralement, la marque fonctionne alors comme une envie de « se faire plaisir ». Des pulls en cachemire, comme Bompard, qui associent aux bénéfices fonctionnels de multiples coloris favorisent par exemple ces achats coups de cœur.
La relation entre les marques et les personnes âgées illustrent qu’ils restent pleinement acteurs de la société de consommation. Les marques sont, comme pour les plus jeunes générations, un outil d’expression sociale. Ces relations dynamiques invitent à reconsidérer la place des seniors dans les représentations publicitaires et plus généralement médiatiques.
Même si ces dernières ont tendance à évoluer et mettre en avant des exemples de « bien-vieillir », les visions stéréotypées associées au déclin physique ou cognitif restent prégnantes. Or, les marques peuvent contribuer à les modifier, et tisser une relation client spécifique avec cette cible, en comprenant ses multiples facettes (sa vulnérabilité mais également sa capacité à être prescripteur, et à craquer pour des achats impulsifs). Elles renouvellent alors leur imaginaire fécond avec les identités protéiformes des personnes âgées.
Cet article est publié en partenariat avec Décisions Marketing, la revue scientifique de l’Association française du marketing. La version intégrale a paru dans le numéro 120 qui avait pour thème « La place des marques dans la société. ».
Jean-Baptiste Welté est Professeur associé à l'école Polytechnique
Anne Bontour ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.03.2026 à 17:41
Flora Bellone, Professeure des Universités en Sciences économiques, Université Côte d’Azur
Charlie Joyez, Maitre de Conférence en économie, Université Côte d’Azur

En 2015, les pays de l’Organisation de coopération et de développement économiques, soutenue par le G20, adoptaient un plan d’action contre l’érosion de la base et le transfert de bénéfices (« Base Erosion and Profit Shifting »). Cette initiative internationale constituait une réponse au phénomène de l’évitement fiscal des entreprises, qui s’était fortement amplifié au cours des trente dernières années, en parallèle de l’expansion mondiale des chaînes de valeur et de la croissance des multinationales.
Les entreprises multinationales ont tiré parti des différences au sein du système fiscal international pour mettre en place des schémas d’organisation fondés, notamment, sur des choix d’implantation dans des juridictions à faible fiscalité et des transferts de bénéfices via divers mécanismes dont le plus important est l’ajustement des prix de transfert intra-groupe. Une entreprise va facturer une prestation à une autre entreprise du même groupe, mais d’un autre pays, afin de déplacer des fonds.
En dix ans, le plan « Base Erosion and Profit Shifting » (BEPS) a-t-il permis d’endiguer ces pratiques ? Les études sur le sujet font pour l’heure actuelle un bilan mitigé. Dans notre récent working paper « Tax avoidance by small multinationals as a side effect of anti tax avoidance policy » (« L’évasion fiscale des petites multinationales comme effet secondaire de la politique anti-évasion fiscale »), nous contribuons à en évaluer les effets, tout en mettant l’accent sur les différences de comportements des grandes et des petites multinationales en matière d’évitement fiscal.
Sur le plan macroéconomique, d’abord, des analyses empiriques récentes montrent que l’évitement fiscal international n’a pas connu de diminution significative depuis 2015. Gabriel Zucman et son confrère de l’Université de Berkley Ludvig Wier documentent, en particulier, ont montré que, sur la période 2015-2019, les profits des multinationales ont continué de croître plus rapidement que les profits mondiaux, que la part des profits déclarés dans les paradis fiscaux est restée stable autour de 37 %, et que la fraction de recettes fiscales mondiales perdues du fait du transfert de bénéfices est passée de 9 à 10 %.
Ces constats illustrent un paradoxe. Alors que la réglementation internationale s’est renforcée, aucune baisse nette de l’évitement fiscal n’a été observable à l’échelle agrégée, du moins dans les années qui ont juste suivi la mise en œuvre de la réforme.
Comment l’expliquer ? Les travaux des économistes Ruby Doeleman, Dominika Langenmayr et Dirk Schindler montrent que cette stabilité globale masque des ajustements stratégiques fins. Les grandes multinationales ont tendance à réorienter leurs profits hors des paradis fiscaux les plus visibles.
Elles auraient tendance à les réorienter vers des juridictions à faible fiscalité, mais présentant davantage de substance économique, ce qui rend l’effet net sur les recettes fiscales des pays à forte imposition ambigu.
De même, Olbert et De Simone, respectivement chercheurs aux universités de Rotterdam et d’Austin, soulignent que la mise en place du « Country by Country Reporting » (CbCR, qui implique une transparence accrue sur l’allocation du profit imposable) prévu dans le plan BEPS a induit des réallocations réelles des investissements et de l’emploi vers des juridictions fiscalement avantageuses, reflétant un ajustement des structures organisationnelles plutôt qu’une simple modification comptable. Ces études convergent vers une idée clé : si les incitations fiscales demeurent, le cadre BEPS et le CbCR conduisent désormais les entreprises à opérer leurs arbitrages en articulant les gains fiscaux avec une plus grande substance économique.
Dans nos travaux, nous avançons l’hypothèse que les pratiques d’organisation fiscale se seraient déplacées progressivement vers les entreprises multinationales de taille moyenne. Le plan BEPS, bien qu’orienté vers la lutte contre l’évitement fiscal, aurait en effet involontairement réduit les barrières à l’entrée de ces pratiques pour les petites multinationales.
Dès sa conception, le texte s’est focalisé sur les grandes entreprises, en instaurant un seuil de chiffre d’affaires consolidé de 750 millions d’euros pour déterminer les obligations de reporting. Seules les firmes dépassant ce seuil ont été soumises à des exigences strictes et à des sanctions significatives en cas de non-conformité, cette stratification visant à concentrer la surveillance fiscale sur les acteurs les plus capables d’engager des stratégies fiscales agressives et à limiter les coûts administratifs pour les entreprises plus modestes. En parallèle, les petites et moyennes multinationales ont pu bénéficier d’un choc informationnel positif leur permettant de réestimer à la baisse leur risque de contrôle fiscal, tout en gagnant en expertise sur les schémas complexes de manipulation des prix de transferts explicités dans le cadre de la réglementation.
Ainsi, notre travail en cours sur les multinationales françaises semble révéler un phénomène complémentaire. Tandis que les grandes multinationales (au-dessus du seuil de 750 millions d’euros de chiffre d’affaires) sont partiellement sorties des paradis fiscaux du fait de la réforme, des multinationales de plus petite taille ont augmenté leur présence dans des juridictions à fiscalité avantageuses après 2015, profitant des clarifications et de la standardisation introduites par le BEPS pour réduire l’incertitude et les coûts fixes liés aux pratiques internationales d’organisation fiscale.
Si ces résultats se confirment, ils pointeraient un canal d’apprentissage et d’imitation des pratiques des grandes firmes par les entreprises de plus petite taille qui aurait pu être facilité par la législation.
Ces résultats suggèrent que les politiques anti-évitement fiscal des multinationales doivent prêter attention non seulement à la marge intensive de ces pratiques, c’est-à-dire la propension des entreprises engagées dans ces pratiques à les intensifier ou à les atténuer, mais aussi à la marge extensive, c’est-à-dire les incitations de nouveaux acteurs à adopter ces pratiques dans le nouveau cadre législatif. En particulier, ces politiques doivent veiller à ne pas faciliter l’adoption de pratiques d’optimisation fiscale par des entreprises initialement moins sophistiquées.
Cependant, les études sur les évolutions de l’évitement fiscal lors de la dernière décennie suggèrent une autre conséquence du plan BEPS et des obligations de CbCR pour les multinationales au-dessus du seuil de 750 millions d’euros de chiffre d’affaires consolidés : en plus du renchérissement de leurs coûts fiscaux effectifs, leurs ventes diminueraient.
Les multinationales perdraient ainsi du pouvoir de marché lorsque leurs stratégies d’évitement fiscal sont limitées, améliorant la compétitivité des entreprises domestiques. Il s’agit toutefois d’un domaine de recherche récent et en développement. Les effets à long terme sur la structure des marchés nécessitent davantage de données empiriques.
Cette contribution est publiée en partenariat avec le Printemps de l’économie, cycle de conférences-débats qui se tiennent du 17 au 20 mars au Conseil économique social et environnemental (Cese) à Paris.
Retrouvez ici le programme complet de l’édition 2026, « Le temps des rapports de force ».
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
16.03.2026 à 17:40
Isabelle-Rachel Casta, Professeur émérite, culture sérielle, poicière et fantastique, Université d'Artois

Dans la lignée de Conan Doyle, une femme a su maîtriser comme personne l’énigme à rebondissements et le jeu des références cryptées : c’est Agatha Christie, « duchesse de la Mort », s’il faut en croire le beau titre du critique François Rivière (Seuil, 1981). Les mots, la mort, le crime : bienvenue dans le labyrinthe Christie !
Faut-il relire Agatha Christie ? Oui, car son œuvre, immense, rassemble tous les états de la culture et de la sensibilité britanniques à travers des enquêtes qui sont autant de voyages au pays des savoirs humanistes. Ses détectives sont aussi savants qu’elle, et généralement les coupables le sont également ! Explorer son œuvre, c’est saisir la fusion des codes de l’énigme et de la culture britannique littéraire au sein du genre policier, pourtant longtemps considéré comme éloigné de la tradition classique.
Ainsi Christie fera-t-elle de chaque roman la rencontre insolite du divertissement attendu d’un bon polar avec la présence cryptique des plus notables œuvres du corpus lettré, comme on peut l’entendre dans une récente émission consacrée à l’autrice de légende. Mais les mots et les morts font-ils toujours bon ménage ?
En parcourant l’ensemble de la production d’Agatha Christie, on est frappé par l’importance des références et des citations : comptines inquiétantes (Hickory, Dickory, Dock, Pension Vanilos pour la version française) ou présence mythologique (Nemesis) : les titres plongent toujours dans un passé légendaire ou poétique.
Deux romans tardifs, le Miroir se brisa (The Mirror Crack’d from Side to Side, 1962) et La nuit qui ne finit pas (Endless Night, 1967) semblent construits selon le même système de réminiscences car ils portent, dans leurs titres mêmes, le souvenir de deux grands poètes britanniques : William Blake (1757-1827) et Alfred Tennyson (1809-1892). On a l’impression qu’ils sont les auteurs originels de ces romans, puisque chaque titre est un fragment de leurs propres écrits ! La nuit qui ne finit pas appartient à Blake (« Augures d’innocence ») et le Miroir se brisa est une citation d’un poème de Tennyson consacré à la Dame de Shalott (personnage de la geste arthurienne), poème dont la trame guide l’enquête tout au long du récit.
C’est quasiment toujours dans le passé (personnel ou collectif) qu’il faut trouver les clés des énigmes présentes : cet axiome psychanalytique et policier (mais n’est-ce pas une sorte de pléonasme ?) fonctionne pleinement dans le Miroir se brisa. Les références et les allusions y fourmillent, dominées par l’obsédante présence du poème de Tennyson.
L’intrigue est simple : Marina, une actrice, découvre qu’une admiratrice trop pressante a contaminé jadis l’enfant qu’elle portait, elle. Elle s’arrange alors pour la tuer, et la haine qui s’empare d’elle n’échappe pas à l’une des invitées, surprise de lire dans son regard la même folie que Tennyson prête à son héroïne, la pauvre Dame de Shalott. Or, selon l’universitaire Annie Combes (l’Écriture du crime) chaque référence, même la plus anodine, contient déjà toutes les réponses ! Sans cesse, les vers de « La Dame de Shalott » vont revenir scander l’enquête. Ils apparaissent une première fois dits par une vieille amie de Miss Marple, enquêtrice malgré elle et perspicace observatrice du moindre détail :
« Vous souvenez-vous de “la Dame de Shalott” ? ‘Le miroir se brisa de part en part. Je suis maudite ! cria la Dame de Shalott’. Elle me l’a rappelée. Les gens apprécient peu Tennyson, aujourd’hui, mais la “Dame de Shalott” m’a toujours beaucoup plu. »
La femme qui récite du Tennyson est déjà présente dans un autre roman, Un cadavre dans la bibliothèque : on peut ainsi parler d’autocitation ; de plus, elle dit le poème devant un tableau, donc en joignant la réminiscence littéraire à la compétence picturale. Des fragments du poème sont aussi répétés en écho par Miss Marple, toujours centrés sur la malédiction qui frappe en même temps l’héroïne de Tennyson… et l’actrice contemporaine, sans doute assassinée à la fin par son époux.
Seules de respectables dames anglaises comprennent donc pourquoi Tennyson sert d’épitaphe à la criminelle morte :
« Elle a un beau visage ;
Que Dieu dans sa miséricorde lui accorde sa grâce,
La Dame de Shalott. »
Le film inspiré de l’œuvre conserve d’ailleurs cette indécision finale. Ainsi, d’indice en élucidation, le poème aura couru tout au long du texte comme une lumière noire.
On a vu que le double de l’auteur, Miss Marple, n’est pas « féminine », au sens stéréotypé du terme : elle est âgée et célibataire, donc conventionnellement asexuée. Mais elle incarne la justice et la vengeance, le Temps et, d’une certaine façon, la Mort… comme le manifeste une œuvre symétrique au roman déjà cité (et ce, même si elle n’apparaît pas spécifiquement).
La nuit qui ne finit pas se présente de fait comme le commentaire d’un texte de William Blake. Mais quelle place reste-t-il à la fiction policière ? Celle d’une parabole : revisiter la littérature anglaise à la lumière du polar contemporain. À cet égard, la disposition de l’exergue, en regard du texte, est assez étrange pour mériter une remarque :
« Chaque nuit et chaque matin, certains naissent pour le malheur. Chaque matin et chaque nuit, certains naissent pour la douce joie, certains naissent pour une nuit sans fin. William Blake.
« Chapitre premier
« J’ai souvent lu ou entendu cette chanson. Elle sonne bien, mais que signifie-t-elle au juste ? »
Il faut donc comprendre que le héros-assassin (qui dit « je ») lit ou entend le texte de Blake, puisque la mention « Chapitre premier » sépare l’exergue de la fiction proprement dite. Il est bien entendu celui qui est « né pour le malheur » ; comme par prémonition, Ellie, sa jeune et adorable femme « née pour la douce joie », fredonne elle aussi ces mots… Ainsi l’angoisse suscitée par le poème devient-elle le leitmotiv de la catastrophe imminente. Celle qui était « née pour le bonheur » périt assassinée, car dans ce monde on tue pour de l’argent (Michael ne l’a épousée que pour en hériter, d’accord avec sa maîtresse Greta) et on devient fou… La chanson la venge, et chaque apparition des fameux vers accompagne la chute vers l’abîme du criminel Michael Rogers.
L’assassin qui, à la fin, sombre dans la folie, ne jouira évidemment pas de l’argent de la femme qu’il a tuée : « […] Dans la nuit sans fin où je me suis perdu. » Dans le film qui tire son nom de celui du roman, l’interprétation sensible de Hywel Bennett renvoie d’ailleurs plutôt bien à la paranoïa du personnage.
Ce roman reprend, rappelons-le, les procédés narratifs qui firent la gloire de son auteur. En effet, en 1967, plus de quarante ans après l’affaire Ackroyd, Agatha Christie opte une nouvelle fois pour le récit au « je » du meurtrier, avec un « blanc » typographique où s’inscrit la commission du forfait : « En arrivant à un croisement… nous la découvrîmes » (le pronom « la » renvoie bien sûr au corps sans vie d’Ellie, empoisonnée par son mari juste avant une promenade à cheval).
On notera que le narrateur s’appelle Rogers, presque comme la victime du Meurtre de Roger Ackroyd ; ce fil ténu relie les œuvres, et sans doute ne faut-il pas chercher ailleurs les difficultés d’adaptation filmique des romans, notés par certains : les jeux de mots « visualisés » y sont laborieux, et la modernisation de certaines intrigues alourdit la finesse du trait… par exemple dans la mini-série de Chris Chibnall, les Sept Cadrans.
Alors restons au pied de la lettre !
En 1971, quelques années avant sa mort, la « reine des mots » livre Nemesis, roman qui éclaire rétroactivement tout le corpus :
« II s’agissait d’une jeune fille très douce, absolument adorable. […] Cependant, elle est morte. – De quoi ?, demanda doucement miss Marple. – D’amour […], reprit sa compagne d’une voix chargée de tristesse et d’amertume. L’amour. »
Pourquoi cette histoire paraît-elle une conclusion acceptable ? Parce que s’appeler Verity (comme la jeune fille morte) et reposer dans une terre ignorée illustre la grande affaire du polar : réhumaniser la victime comme le coupable, tout en semant des indices, la plupart du temps issus de la grande culture encyclopédique ou du fonds légendaire. Tout se passe comme dans un Cluedo géant, où les bribes du passé forment un étrange rébus : celui qui le déchiffre comprend qui est le coupable.
Pourtant, conservatrice et nostalgique, Christie l’a toujours été, même si avec elle vient le temps des vieilles dames malignes et des détectives belges, qui enquêtent sans ressentiment ni complaisance. Infanticide et démence prennent ainsi les rythmes équivoques d’une comptine ou d’un poème, car « chacun lit Agatha Christie à sa manière : de la dévoration de la découverte au suçotement de celui qui connaît l’histoire » (Sophie de Mijolla-Mellor, Meurtre familier, 1995).
Isabelle-Rachel Casta ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.03.2026 à 17:10
Frédéric Sawicki, professeur de science politique, Université Paris 1 Panthéon-Sorbonne
Si les bascules potentielles de grandes villes de gauche à droite (et inversement) sont mises en avant par les médias, elles demeurent rares. Les équipes municipales seront le plus souvent reconduites dans un scrutin qui échappe largement aux partis politiques. Les percées des partis « protestataires », RN et LFI, doivent, par ailleurs, être relativisées. Analyse du premier tour des municipales 2026 avec le politiste Frédéric Sawicki.
The Conversation : Quels sont les principaux enseignements du premier tour des élections municipales 2026, notamment en ce qui concerne l’abstention ?
Frédéric Sawicki : Selon les informations disponibles, le taux d’abstention est de 42,8 %. C’est bien moins que lors des municipales de 2020 qui furent perturbées par l’épidémie de Covid (55,3 %). Mais en 2014, l’abstention était de 36 %. Ces élections confirment donc la tendance continue, depuis le début des années 1990, de baisse de la participation en France, qui touche toutes les élections, sauf la présidentielle. Bien qu’elles soient présentées comme des élections de proximité, les municipales mobilisent moins de six Français·es sur dix.
Le changement de mode de scrutin dans les communes de moins de 1 000 habitants (la loi du 21 mai 2025 leur a imposé un mode de scrutin de liste paritaire et bloquée), qui représentent 70 % des communes françaises, a eu pour effet d’augmenter le nombre de communes où il n’y avait qu’une seule liste. Est-ce que cela a contribué à démobiliser les électeurs ? Il est trop tôt pour le dire.
Dans les grandes villes, les taux de participation sont très contrastés. À Paris, on est à 58,89 %, à Lyon à 64,45 % mais à Roubaix à 37 %. Cela s’explique en partie par un turnover important des populations – avec des personnes qui ne sont pas forcément attachées au territoire et qui ont du mal à identifier les acteurs et les enjeux municipaux. Il y a aussi le fait que beaucoup de décisions importantes sont désormais prises dans l’espace intercommunal, pour lequel les électeurs ne votent pas directement.
Mon autre remarque générale est que les médias se focalisent sur les villes où il y a un suspense, un risque de bascule, en cherchant à tirer des enseignements pour la présidentielle de 2027. Or, il est difficile de déduire de ces élections municipales des tendances générales nettes et des conclusions à propos des échéances nationales de l’an prochain. Les très grandes villes sont des vitrines pour les partis politiques, et pouvoir mettre en avant deux ou trois gains spectaculaires permet très largement de masquer le fait que, globalement, la plupart des maires de France sont reconduits dans leurs fonctions. En vérité, les municipales échappent de plus en plus aux partis politiques dans un contexte où de nombreux maires ne mettent plus en avant d’appartenance partisane, d’où la multiplication des listes « divers » (gauche, centre, droite, voire extrême droite) enregistrées par le ministère de l’intérieur.
Jordan Bardella, président du Rassemblement national (RN), a fait part de sa satisfaction au soir du premier tour en déclarant : « Les Français ont exprimé leur volonté avec clarté et, ce soir encore, une aspiration profonde au changement. » Son triomphalisme est-il justifié ?
F. S. : Le Rassemblement national va disposer mécaniquement en 2026 de beaucoup plus de conseillers municipaux qu’aux élections municipales précédentes. En 2020, il n’avait présenté que 325 listes contre 482 en 2026 si l’on inclut l’UDR d’Éric Ciotti, soit un surcroît de 4 300 candidatures. En revanche, il semble que, pour l’instant, il passe de 13 mairies à environ une vingtaine, ce qui reste modeste. En outre, en dehors de Marseille, Nice et Toulon, il n’est pas en situation d’avoir des conseillers municipaux dans la plupart des grandes villes françaises. Malgré un noyau électoral stabilisé depuis 2022 autour de 30 %, le RN se heurte à un plafond de verre faute d’alliés pour conquérir plus de villes. Là où il ne parvient pas seul à engranger la majorité, il doit compter sur le maintien des listes de ses adversaires pour espérer l’emporter à la faveur d’une triangulaire. Je relativiserais donc largement le message triomphaliste de Jordan Bardella à l’issue du premier tour.
Les Républicains (LR) pourraient-ils être tentés par des alliances avec le RN ?
F. S. : LR a peu de grandes villes, plutôt des villes moyennes et, là encore, les résultats devraient être stables. Le vrai problème de LR, comme du PS, c’est de conserver des élus qui s’affilient au parti plutôt que de jouer la carte « divers droite ».
Bruno Retailleau a appelé à faire barrage à LFI, considéré comme le seul ennemi extérieur à « l’arc républicain ». Est-ce une porte ouverte à des rapprochements avec le RN ? Pour l’instant, il ne semble pas que des fusions soient envisagées, mais il pourrait y avoir des désistements stratégiques entre LR et le RN. À Roubaix, par exemple, assistera-t-on à une fusion de listes LR-RN ou à un appel de la droite à voter RN sans pour autant fusionner ? Je pense qu’il peut surtout y avoir des dérives locales, des candidats divers droite ou anciens LR qui pactisent avec le Rassemblement national contre des postes d’adjoints. Bruno Retailleau ne maîtrise pas tout ce qui se passe localement et il peut fermer les yeux en assurant « Ce ne sont pas de vrais LR ». Cela est possible dans de petites communes, beaucoup moins dans de grandes villes médiatisées, car le risque de perdre une partie des électeurs serait important.
Jean-Luc Mélenchon, pour La France insoumise (LFI), s’est félicité d’une « magnifique percée » de son parti. Partagez-vous son analyse ?
F. S. : LFI devrait gagner Roubaix et a déjà gagné Saint-Denis, la plus grande ville de la couronne parisienne, c’est considérable, même s’il faut quand même rappeler qu’à Saint-Denis, c’est grâce à une alliance avec le Parti communiste français, qui, depuis longtemps, essaye de récupérer la ville perdue au profit des socialistes. Deuxième élément, LFI dépasse 10 % dans beaucoup de grandes villes, ce qui leur assure des mandats de conseillers municipaux qu’ils n’avaient quasiment pas jusqu’alors. Cela contribue donc à l’ancrage local d’un parti qui, jusque-là, était une machine présidentielle.
Pour la première fois, LFI a essayé, partout où c’était possible, de présenter des candidats – notamment dans les grandes villes ou dans les banlieues des grandes villes. De façon assez habile, le parti a mis en avant des candidats de la diversité, ce que les autres partis de gauche ont beaucoup plus de mal à faire. Des thématiques nationales et internationales – Gaza – ont été mises en avant, notamment la dénonciation des discriminations.
Reste que la performance de LFI est très contrastée. Si l’on compare aux européennes de 2024, il y a une forte progression à Toulouse, des progrès à Brest et à Clermont-Ferrand, mais pas de progrès à Lille, par exemple. Évry, en région parisienne, était considérée comme gagnable par LFI. Or, le candidat centriste a été élu dès le premier tour. À Paris, LFI a perdu des voix. Aux européennes, LFI y avait totalisé 16,7 % des votes et, dimanche, la liste Chikirou a obtenu 11,7 % : c’est une baisse très importante. Idem pour Nantes, Lyon, Nancy, Montpellier : LFI s’implante mais est loin de réitérer ses scores des européennes où le taux de participation était à peu près identique. Est-ce un effet des prises de position polémiques de Jean-Luc Mélenchon ? Est-ce un effet de l’union de la gauche choisie par le PS, Les Écologistes et le PCF ? Difficile à dire… Dans tous les cas, je relativiserais le « succès » de LFI. Ce qui est certain, en revanche, c’est que LFI pose un problème évident au Parti socialiste et aux écologistes : dans certaines villes, ces derniers ne pourront pas gagner sans alliance ou fusion technique avec le parti de Mélenchon.
Alors qu’ils avaient gagné de nombreuses villes en 2020, Les Écologistes sont-ils en pleine déroute ?
F. S. : Pour ce qui concerne Les Écologistes, il faut rappeler que la performance des villes gagnées en 2020 était en partie le produit de circonstances exceptionnelles : faible taux de participation, succès de Yannick Jadot aux élections européennes de 2019, discrédit des socialistes, mobilisation internationale en faveur du climat. Aujourd’hui, le contexte a complètement changé, et on pouvait s’attendre à des pertes. À Grenoble, à Bordeaux, à Strasbourg, les résultats ne sont pas très bons, mais pas si catastrophiques si on les rapporte, là encore, aux résultats des élections européennes et à l’inexpérience initiale des élus écologistes. Les résultats au bout du compte dépendront des fusions de listes, et la principale ville gérée par Les Écologistes, Lyon, contre tous les pronostics devrait leur rester acquise.
Quels sont les enjeux du second tour pour le PS ?
F. S. : Les dirigeants socialistes sont pris au piège de leurs divisions stratégiques vis-à-vis de LFI. En même temps, la forte autonomie laissée aux candidats locaux par Olivier Faure ouvre la porte à des arrangements pragmatiques. Il y a quelques risques de basculement de villes vers la droite, en cas de refus de désistement ou de fusion avec la liste LFI (Nantes, Brest, Clermont-Ferrand, peut-être Rennes). À Paris, l’avance dont dispose Emmanuel Grégoire semble le mettre relativement à l’abri de Rachida Dati. À Lille, Les Écologistes s’allient au PS contre LFI. On va assister à une variété de configurations qui vont peut-être se traduire par des solutions ad hoc, des accords locaux. Ces accords vont-ils changer les relations du PS et de LFI sur le plan national d’ici 2027 ? C’est bien peu probable à court terme, tant les arènes politiques municipales et nationale sont aujourd’hui déconnectées.
Les résultats de Renaissance confirment-ils l’échec du macronisme à s’implanter localement ?
F. S. : Effectivement, Renaissance a raté le coche de l’ancrage local en refusant d’utiliser les moyens du parti pour développer des collectifs locaux. En 2020, le parti d’Emmanuel Macron a tenté de débaucher des élus sortants de centre droit ou de centre gauche sans beaucoup de succès, à la différence d’Horizons d’Édouard Philippe. Renaissance a quelques espoirs à Bordeaux ou à Annecy, mais cela restera maigre, d’autant que Christian Estrosi a de fortes chances d’être battu à Nice. Le parti de Gabriel Attal est totalement absent de Lyon, de Marseille et de Paris – alors que la capitale est un bastion électoral macroniste aux élections nationales. Les macronistes n’ont pas de quoi être optimistes, mais ils ne le sont plus depuis la dissolution de 2024. L’implantation territoriale du centrisme repose aujourd’hui surtout sur Horizons d’Édouard Philippe, l’UDI et le MoDem. Si on veut en faire un test pour 2027, je dirais que ces municipales semblent plus favorables à Édouard Philippe, bien placé au Havre, qu’à Gabriel Attal, qui dirige Renaissance.
Propos recueillis par David Bornstein.
Frédéric Sawicki ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.03.2026 à 14:47
Jorge Villaverde, Historien, CRIMIC/Sorbonne Université, Institut catholique de Lille (ICL); European University Institute

Spain’s image abroad and how it has evolved over the centuries was the focus of a recent episode of Karambolage, a TV show on Franco-German European culture channel Arte. It traced the evolution of the “Black Legend” from the 16th century to the tourist slogan “Spain is Different”, popularised in the 1960s, suggesting an almost natural continuity between older historical stereotypes and tourism marketing associated with the Franco regime.
In the programme’s account, Spain is today associated with sunshine and flamenco, after having long been burdened with a negative reputation. From the 16th century onwards, at the height of its colonial empire, Protestant rivals spread hostile propaganda that helped shape the so-called Black Legend, portraying Spaniards as brutal and backward. This view persisted, particularly in 19th-century France, where the doubly racist expression “Africa begins at the Pyrenees” placed the country on the margins of a supposedly more civilised Europe.
The episode presents the following sequence: the civil war, followed by the Franco dictatorship, reinforced the country’s international isolation. In the 1960s, the regime then opened Spain to tourism. Under the leadership of Minister Manuel Fraga Iribarne, an ambitious campaign centred on tradition was launched under the slogan “Spain is Different,” which is presented as the trigger for Spain’s tourism boom.
The problem with this narrative lies in the way it simplifies a much more complex process. Moving from the Black Legend to the ironic reappropriation of a Francoist slogan may appear coherent. This interpretation echoes recent research on the role of tourism in the construction of Spanish identity and its international image.
But by joining up the dots in this way, the TV programme revives historical clichés that recent scholarship has significantly nuanced.
While the video evokes the frustration of some Spaniards with the distorted images associated with their country, it nevertheless tends to reinforce the idea of a Spain defined by the external gaze. This stems from the processes of eroticisation and exoticisation developed in the 19th century by the hegemonic powers of France and Britain towards their former imperial rival.
These representations are neither simple contempt nor a linear continuity between anti-imperial propaganda and later forms of condescension. They place Spain within an ambivalent form of otherness that relegates the former empire to the margins of a modernity defined elsewhere. Described as peripheral, the peninsula is simultaneously invested as a romantic space and a source of political and artistic inspiration. Even if visitor numbers remained far lower than in France, Switzerland or Italy, Spain occupied a central place in the European imagination.
À lire aussi : Tourisme culturel et mondialisation : l’Espagne, entre fiction et réalité
Contempt and exaltation stem from the same dynamic. These clichés combine hierarchy and attraction, aestheticisation and distance. Admiration itself participates in a symbolic reclassification that assigns Spain a seductive but peripheral difference.
It is therefore not enough simply to complicate the French gaze. It is also necessary to avoid reducing Spain to the object of an external symbolic construction. Such a reading obscures the country’s own internal dynamics. Spain is not only shaped by foreign projections. It is also a space of internal debate and intellectual circulation that extends beyond its borders.
From the early modern period, Spanish thinkers questioned the legitimacy of conquest and fully participated in European intellectual exchanges. In the 19th century, Spanish exiles and travellers encountered the industrialisation of wealthier countries and the prominence of world fairs. These experiences fuelled fundamental debates about Spain’s place in modernity.
Presenting the country as trapped in a negative reputation passively endured amounts to overlooking these internal debates and transnational exchanges, which helped define its place in European history.
But the main blind spot of this narrative appears when we examine the history of the slogan itself. It is true that a widely shared memory attributes “Spain is Different” to the Francoist Minister Manuel Fraga. Yet research shows that the formula emerged as early as the republican years, circulated widely in the 1940s and 1950s, and that the campaign launched under Fraga was more its culmination than its invention.
“Spain is Different” appeared as early as 1932–1933 in a series of photographic posters produced under the direction of Rafael Calleja, a conservative senior civil servant who remained in office from the Primo de Rivera dictatorship to the Republic. The slogan notably accompanied the image of an alcaldesa of Zamarramala, a female figure symbolically invested with authority during the annual festival.
The choice is already singular and came at a time when the Republic was expanding women’s civic participation and profoundly transforming the political and social order.
During the civil war, the formula was quickly reappropriated. On the back cover of the magazine L’Esquella de la Torratxa, a family of English tourists contemplates a striking version of the poster. The “alcaldesa” is replaced by Franco, whose pose was meant to appear effeminate – a way of undermining him in the political culture of the time. Surrounded by a bishop, a colonial soldier and Nazi and Fascist officers, the motif of “difference” becomes political satire. It no longer refers to national particularities but to the spectacle offered to hesitant European democracies of the alliance between the putschists and the Fascist powers and their use of colonial troops.
In the English-speaking press, the slogan also served as a key to interpreting the conflict. It often appeared in accounts marked by imperial condescension that presented a “different” Spain as an unstable anomaly within civilised Europe. This longstanding trope helped naturalise violence, presenting it as the supposed expression of an inherent otherness rather than as part of a broader European breakdown of order.
Neither the slogan nor its main promoter disappeared after the war. The formula was revived in the 1940s and 1950s, notably in the volumes Apologías Turísticas de España, directed by Rafael Calleja (1943, 1957), as well as in several photographic poster campaigns featuring the slogans “Spain is Beautiful and Different” and “Spain is Beautiful and Different: Visit Sunny Spain.”
In the post–civil war period, the emphasis on Spain’s singularity accompanied the regime’s efforts to break its international isolation and integrate into the Western order dominated by the United States. Tourism promotion was now primarily aimed at the North American public, while this singularity became a diplomatic resource intended to present the country as an acceptable partner within the Western bloc.
When Manuel Fraga relaunched a major campaign in 1962 under the slogan “Spain is Different,” the country was no longer isolated. The agreements concluded with the Holy See and the United States in 1953, Spain’s entry into the UN in 1955 and the Stabilisation Plan of 1959 marked its integration into the Western order and ushered in a period of very rapid growth. In the context of the post-war economic boom, tourism became one of the drivers of economic and social transformation. Spain was already welcoming nearly seven million visitors a year at the beginning of the decade and became part of an international leisure market alongside Italy and Greece.
The regime certainly sought to attract foreign exchange and improve its image. But reducing this policy to simple folkloric instrumentalisation oversimplifies a society undergoing rapid change. Administrators, entrepreneurs, artists and municipalities all participated in the construction of this new image. In an increasingly competitive tourism market, “difference” became a tool of differentiation. The rise of Spanish tourism is better explained by structural dynamics in post-war Europe than by the isolated action of a supposed providential figure.
Finally, implicitly contrasting a supposedly “backward” Spain with a “modern” Europe reproduces an old pattern that historiography has largely deconstructed. Spanish history should not be read as a trajectory lagging behind a supposedly normative European centre. Formulated in a prestigious cultural media outlet from wealthier countries, this opposition inadvertently revives older logics of cultural hierarchy.
This same linear reading appears in the way the programme connects the Black Legend to the contemporary use of “Spain is Different,” as if these clichés had ultimately been internalised. Yet the slogan has had a long and contested history. From its earliest uses, it served to dispute the definition of the nation: in the conservative reaction to republican reforms, in antifascist satire during the civil war, in Anglo-Saxon narratives marked by imperial condescension, and later in a Franco regime first seeking US protection and then concerned with attracting foreign exchange and European recognition.
The Spanish example shows that ironic appropriation can constitute a form of critical distance. In the terms proposed by British sociologist Stuart Hall, this corresponds to an oppositional reading, in which a message produced by those in power is taken up and turned against them. The problem lies not in the irony itself but in the linear framework in which this history is placed.
It was not the last time. In 2012, the creation of “Marca España” by the Popular Party government – a party founded by Manuel Fraga at the end of Francoism – formed part of the neoliberal logic of nation branding. The organisation aimed to improve the country’s image abroad and among Spaniards themselves. Very quickly, the name became an object of sarcasm. At the slightest train delay, after a sporting defeat or a corruption scandal, a simple shrug was enough to prompt an ironic, “Marca España.”
Spanish distinctiveness has never constituted a stable essence. It has been a stake, a site of projection and conflict. Presenting it as a continuous thread linking longstanding stereotypes and Francoist marketing erases what matters most: Spanish “difference” has always been an object of dispute.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Jorge Villaverde ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.03.2026 à 11:33
Mathieu Bidaux, chercheur associé au laboratoire GRHIS, Université de Rouen Normandie
Alors que le groupe minier Eramet traverse une crise majeure, le projet de mine de lithium d’Échassières porté par Imerys, dans l’Allier, électrise le débat public. Ce que l’on oublie, c’est que ce site stratégique a une longue histoire industrielle, notamment dans le secteur de la défense, de 1913 à 1962.
L’État vient d’investir 50 millions d’euros dans EMILI, le projet de mine de lithium porté par la multinationale française Imerys au sud de l’Allier. Il comporterait environ un million de tonnes de lithium. Près de 34 000 tonnes pourraient être produites par an à partir de 2030, permettant de facto d’équiper 700 000 véhicules de fabrication européenne.
Le contexte actuel montre combien les ressources du sous-sol redeviennent un enjeu géopolitique majeur. Les minerais ukrainiens – terres rares et métaux non ferreux – suscitent l’appétit de Donald Trump. La présence de cuivre, graphite, ilménite, molybdène, fer, plomb, nickel ou d’or au Groenland ont transformé le territoire arctique en eldorado minier.
Le lithium fait partie de ces matières premières stratégiques. La Chine en regorge et l’Occident en est dépendant, notamment pour les batteries électriques de son industrie automobile.
Ce n’est pas la première fois que le site minier d’Échassières attire l’attention. Pendant la Première Guerre mondiale, il avait suscité l’intérêt de l’armée française pour le wolframite, tungstate de fer et de manganèse, recherchés pour la fabrication d’aciers spéciaux. À l’approche de la Seconde Guerre mondiale, il est remis en exploitation puis aiguise l’appétit des Allemands en 1941 sous l’Occupation.
Alors, quelle est cette histoire industrielle ? Quelles leçons en tirer ?
Une étrange roche noire et lourde est découverte en 1913 par un habitant de ce bourg rural. Le paysan est allé rendre compte de sa trouvaille au médecin local – le docteur Trapenard – qui en a conclu qu’il s’agissait d’un minerai de tungstène : le wolfram, utile à l’industrie de l’armement. Associé à la fabrication de l’acier en petite quantité, il peut servir à fabriquer des aciers blindés, des obus perforants et des outils de coupe.
Une première société, au capital de 50 000 F est fondée le 16 novembre 1913. En mai 1914, le capital est élevé à 250 000 F. En juin 1915, alors que la Grande Guerre fait des ravages, les premières livraisons de concentrés ont lieu. Fin 1915, le capital est élevé à 500 000 F. Le tri manuel du minerai débute en 1916. Ayant montré tout le potentiel de l’entreprise, la concession pour l’exploitation du wolfram lui est attribuée en juin 1917. La mine est en activité jusqu’à la fin de la Première Guerre mondiale et s’arrête en 1919. La laverie, permettant de laver et trier le minerai avant de le concasser et le fondre, avait produit 207 tonnes de concentré.
Après être tombée en désuétude entre 1919 et 1937, l’entreprise regagne l’intérêt des pouvoirs publics et des sociétés consommatrices de wolfram. En 1941, le site attire l’attention des occupants allemands entrés en guerre contre la Russie soviétique. Alors que la direction des mines de wolfram d’Échassières est sur le point de vendre des parts de capital à l’IG Farbenindustrie, la Société d’études et d’explorations minières (Setem), département minier de la maison financière Worms & Cie, s’interpose et réussit à prendre le contrôle de la mine à la place des Allemands.
Worms & Cie est fondée par Hypolite Worms dans les années 1840. Quatre départements représentent alors ses activités : importation de charbon, transport maritime, construction navale et services bancaires. Le secteur des métaux non ferreux lui était ainsi étranger. Auprès des Allemands, sous l’Occupation, « nos dirigeants et le personnel d’encadrement durent déployer des trésors d’imagination pour justifier la nécessité de notre emploi à ne rien faire », estime Roger Barrel, chef d’exploitation de la mine d’Échassières (Pierre-Christian Guiollard, L’Industrie minière de l’antimoine et du tungstène, Éditions Atlantica, 2010, p. 222).
Dès lors, la mine parvient à ne pas vendre le moindre gramme de minerai à l’ennemi. Après la guerre, la mine de wolfram vend au Girm de tungstène, un organisme d’État, qui revendait ensuite. Alors que l’argument de l’indépendance nationale est sans cesse invoquée pour justifier l’existence de la mine, en réalité, environ 90 % de la production est vendue à l’étranger : États-Unis, République fédérale d’Allemagne (RFA) ou Royaume-Uni.
La guerre de Corée soutient alors le cours du tungstène. Les difficultés financières interviennent à partir de 1953-1954. En 1956, Worms & Cie décide de fusionner toutes ses mines de métaux non ferreux pour faire face à une féroce concurrence chinoise et soviétique, États à la main-d’œuvre moins chère et où l’on trouvait des gisements gigantesques.
Une multinationale a été créée par Worms – la Compagnie minière du M’Zaïta – qui mise sur des mines de cuivre du Chili et d’Algérie faisant partie du portefeuille de la Setem. M’Zaïta doit les mettre en exploitation, avant que les nationalisations chiliennes et la guerre d’Algérie ne mettent un terme à ces projets. Finalement, en 1959, M’Zaïta fusionne avec Peñarroya dont est issue, en partie, la société Imerys…
À qui profite cette industrie minière, indispensable et irremplaçable, comme le souligne le journaliste Guillaume Pitron dans la Guerre des métaux rares ? Imerys ? La population locale ? La France ?
Ce qui est certain, c’est que l’histoire du site d’Échassières montre qu’un gisement s’épuise. Sur le long terme, les sacrifices consentis peuvent donner naissance à une entreprise puissante, forte d’un rare savoir-faire. Worms & Cie a converti la mine d’Échassières en puissance financière en fusionnant toutes ses mines de métaux non ferreux.
Aujourd’hui, le site d’Échassières est lié à l’entreprise Imerys, issue de Peñarroya, société fondée par la Maison Rothschild et présente dans 40 pays, employant 12 300 salariés et réalisant 3,4 milliards de chiffre d’affaires. Imerys investit 180 millions d’euros dans la production de lithium et compte sur les projets d’EMILI, dans l’Allier et Imerys British Lithium, dans les Cornouailles au Royaume-Uni, pour « contribuer aux objectifs ambitieux de transition énergétique de l’Union européenne ».
Le site d’Échassières n’est pas près de disparaître que ce soit dans les débats publics ou dans les imaginaires collectifs.
Mathieu Bidaux travaille comme responsable histoire et patrimoine pour Worms & Cie.
16.03.2026 à 11:33
Valérie Lelièvre, Maître de conférences en Sciences économiques, Chercheur au BETA et membre de la Chaire EFNUM, Université de Lorraine
Jean-Noël Ory, Professeur des Universités en finance, Université de Lorraine
Entre les banques sociétés anonymes et les banques coopératives, la différence concerne notamment la structure du capital et, ce faisant, la gouvernance. Cela a-t-il un impact sur leur manière d’aborder les fintech ? Quelles approches ont développé les banques coopératives pour devenir des investisseurs pas comme les autres ?
Pour faire face à la montée en puissance des fintech, les banques françaises explorent de nouvelles formes d’investissement. L’enjeu est de s’adapter au contexte de transformation numérique, où l’offre innovante restructure la demande de services financiers. Les banques coopératives se distinguent en entrant très tôt au capital de jeunes start-up de la finance, parfois dès la phase d’incubation.
Cette stratégie risquée leur permet d’apprendre, de tester des technologies et d’ajuster leurs choix dans le temps. Elle les rapproche d’une logique de capital-risque. Si cette logique est a priori en contradiction avec le modèle coopératif originel, qu’elles revendiquent comme davantage ancré sur la relation de long terme et la proximité avec la clientèle, elle constitue néanmoins une réponse cohérente.
Nous avons recensé 177 entrées au capital de fintech provenant des cinq grands groupes bancaires français depuis 2005, dont 85 émanant des groupes coopératifs (BPCE, Crédit mutuel et Crédit agricole). Relativement aux groupes SA (BNPP et Société générale), ils entrent à des stades de développement plus précoces : 62 % en phase d’amorçage, dont 22 % en période d’incubation
À lire aussi : Banques coopératives contre banques traditionnelles : deux modèles, deux visions de la finance
Cette différence de stratégie peut s’analyser au regard de la théorie des options réelles (TOR) qui souligne l’intérêt de pouvoir ajuster les décisions d’investissement au fil du temps dans un environnement où les trajectoires technologiques sont peu prévisibles et où l’information s’acquiert progressivement, ce qui est typique des jeunes fintech. Y investir s’apparente à un mécanisme d’apprentissage qui permet de révéler progressivement la qualité du projet, d’observer les évolutions réglementaires, technologiques et d’ajuster la stratégie en fonction des évolutions du marché. La TOR conceptualise ces engagements comme des droits conditionnels : la décision d’investir dans un projet risqué est vue comme l’achat d’une option (d’un droit) à reporter, à maintenir, à faire évoluer ou à abandonner le partenariat.
Investir dans une fintech présente un caractère fortement irréversible, car les ressources engagées sont en grande partie spécifiques, peu redéployables et difficilement récupérables en cas d’échec. Il s’agit des capitaux investis dans des actifs immatériels (algorithmes, compétences, données) dont la valeur est contingente au projet, et de coûts organisationnels (temps managérial, apprentissage conjoint, alignement des processus). Ces coûts seront d’autant plus élevés que la fintech est jeune.
La stratégie et les objectifs des banques coopératives, répondant davantage à une gouvernance partenariale, sont moins sensibles à la rentabilité immédiate et s’ancrent davantage dans des relations durables, au sein des territoires. Leur horizon est plus long que celui des banques ayant le statut de sociétés anonymes et est davantage compatible avec des retours sur investissement plus étalés dans le temps.
Elles peuvent alors accepter des coûts d’irréversibilité plus élevés et intervenir à un stade plus précoce de la fintech, en exerçant une option d’apprentissage. Ainsi, elles peuvent avoir un accès privilégié à l’information et à la technologie, suivre l’évolution de la fintech et profiter des retombées positives que cette dernière génère pour acquérir et diffuser des compétences en interne.
L’option d’apprentissage permet d’affiner l’évaluation stratégique du projet : si les signaux sont favorables, la banque peut augmenter son engagement. C’est le principe des options de croissance séquencées (par escaliers) : l’option peut être une montée au capital, une acquisition future ou une intégration industrielle. Les banques coopératives ayant de larges réseaux, une solution technologique peut potentiellement émerger au niveau local puis être déployée à grande échelle, permettant une mutualisation des coûts pour les caisses régionales.
À l’inverse, en cas de signaux négatifs (échec technologique, inadéquation stratégique…), l’intervention de la banque coopérative à un stade précoce de la fintech lui permet d’abandonner à un coût limité, c’est l’option d’abandon. Ainsi, BPCE est sorti de Payplug et de FundsDTL, le Crédit agricole est sorti de Setl, le Crédit mutuel est sorti de Linxo et a fermé Omax et Pumpkin.
Les banques coopératives se comporteraient dès lors comme des capitaux-risqueurs jouant un rôle de révélateurs d’informations, en sélectionnant, en finançant et en accompagnant les jeunes fintech jusqu’à un stade où elles pourraient exercer d’autres options. Avec des tickets d’entrée plus faibles, les partenariats avec des fintech au stade précoce permettent de multiplier les expériences, de tester plusieurs technologies et d’abandonner rapidement les projets non viables ou qui ne correspondent pas à la stratégie de la banque.
En d’autres termes, leurs investissements dans les fintech naissantes peuvent s’analyser comme un portefeuille d’opportunités (d’options) à saisir progressivement.
Notre étude montre, qu’au sein des groupes coopératifs, le Crédit agricole (CA) se démarque. En effet, si la moitié des entrées au capital de fintech de BPCE et du Crédit mutuel (CM) se fait aux premiers stades de développement de la fintech, CA intervient encore plus en amont. À travers les Villages by CA et La Fabrique, la banque verte joue le rôle d’incubateur et d’accompagnatrice aux tout premiers stades de développement des fintech : 51 % de ses premières entrées en relation se font en phase d’incubation (0 pour BPCE et pour CM) et 78 % au stade d’amorçage.
Le Crédit agricole pourrait donc être davantage qualifié d’« investisseur patient ». En engageant du capital sur le long terme sans exiger de rendements rapides et en maintenant son investissement même en contexte d’incertitude, il privilégie la création de valeur durable plutôt qu’une sortie rapide. Il accompagne ainsi les start-up sur le plan stratégique au-delà du simple financement. En échange, il peut bénéficier d’une valorisation future de la fintech, lors des levées de fonds ultérieures.
Le CA peut soutenir des projets innovants grâce à des structures spécifiques. Dans son « start-up studio » La Fabrique, créé en 2018, des start-up sont conçues et développées en interne (c’est le cas de Blank, la néobanque consacrée aux indépendants). Dans ses 47 « Villages by CA », accélérateurs de start-up implantés dans les territoires, il accompagne de très jeunes start-up en leur apportant des ressources multiformes. Investisseur patient, le CA est encore présent dans le capital de 19 fintech passées par ces structures.
Si les banques coopératives investissent aux premiers stades de développement des fintech, les banques sociétés anonymes (BNP Paribas et Société générale) interviennent généralement plus tard, exerçant une option d’attente. Davantage soumises à une exigence de rentabilité des fonds propres à court terme, elles privilégient une logique d’intervention moins risquée, plutôt au stade de capital-développement de la fintech, lorsque l’innovation s’est déjà transformée en un actif plus sûr.
Leur stratégie s’apparente davantage à celle d’un capital-investisseur privé, limitant le risque au départ tout en visant la valorisation future, via des entrées en bourse ou des sorties ultérieures. Cette complémentarité des financements reflète une division des rôles cohérente avec les contraintes de gouvernance des deux types de banques.
Au final, les spécificités des banques coopératives constituent toujours un socle favorable à des relations de long terme qui prennent la forme d’investissements en capital risque patient. Cela les différencie d’un capital risqueur classique, au sens où l’enjeu principal n’est pas la valorisation financière de la fintech, mais la capacité à absorber, à diffuser et à recombiner l’innovation dans des réseaux bancaires par nature décentralisés.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
16.03.2026 à 11:33
Paul David Richard Griffiths, Professor of Finance; (Banking, Fintech, Corporate Governance, Intangible Assets), EM Normandie

Les bulles technologiques ont souvent dissimulé de grandes fraudes. Du boom ferroviaire britannique au XIXᵉ siècle à l’affaire Madoff, y a-t-il des signes avant-coureurs qui peuvent nous permettre de comprendre la frénésie actuelle autour de l’IA et sa potentielle bulle ?
De nombreux investisseurs se demandent si nous vivons dans une bulle IA ; d’autres vont plus loin et se posent la question de savoir jusqu’à quand. Pourtant, la bulle continue de gonfler, alimentée par ce sentiment dangereux de « peur de passer à côté » (FOMO pour Fear Of Missing Out). L’histoire et l’expérience récente nous montrent que les bulles financières naissent souvent de l’enthousiasme excessif des investisseurs pour les nouvelles technologies « révolutionnaires » qui, lorsqu’elles éclatent, révèlent des systèmes frauduleux surréalistes qui se sont développés sous couvert de la bulle.
Concrètement, un système de Ponzi consiste à rémunérer les investisseurs existants avec l’argent apporté par de nouveaux investisseurs plutôt qu’avec de vrais profits, ce qui nécessite un recrutement continu jusqu’à son effondrement inévitable. L’une des caractéristiques de ces systèmes est qu’ils sont difficiles à détecter avant l’éclatement de la bulle, mais étonnamment simples à comprendre avec le recul.
Dans cet article, nous abordons la question suivante : quelles traces les systèmes de Ponzi laissent-ils dans les bulles financières alimentées par la technologie ? Comment pourraient-elles nous aider à anticiper la prochaine bulle qui émergera dans le tumulte de l’IA ?
Pour ce faire, nous comparerons le Ponzi du « roi du chemin de fer » George Hudson, dans les années 1840, à celui de Bernie Madoff, rendu possible par les technologies de l’information et de la communication (TIC) et les dotcoms des années 1990-2000, puis soutenu par la bulle immobilière qui a suivi aux États-Unis.
La « Railway Mania » débute au Royaume-Uni en 1829. Elle émerge sous l’effet à la fois des attentes des investisseurs quant à la croissance de cette nouvelle technologie et du manque d’alternatives d’investissement provoqué par l’arrêt de l’émission d’obligations par le gouvernement. La promesse de la technologie ferroviaire entraîne un afflux de compagnies ferroviaires avec l’enregistrement de plus de 50 entreprises au cours des quatre premiers mois de 1845 seulement.
À cette époque, les estimations des coûts de développement ferroviaire sont sous-évaluées de plus de 50 %, et les prévisions de recettes sont estimées entre 2 000 et 3 000 livres sterling par mile, alors que les recettes réelles se situent plutôt entre 1 000 et 1 500 livres par mile. (Cent livres sterling en 1845 équivalent à 15 782,99 livres sterling en 2026, soit 18 216,73 euros, ndlt) Les normes comptables rudimentaires permettent une certaine liberté dans la présentation des comptes, comme le report de la comptabilisation des dépenses. La responsabilité des directeurs incombe aux actionnaires et non à des auditeurs externes ou à des représentants de l’État.
George Hudson, qui est également membre du Parlement, encourage la déréglementation du secteur ferroviaire.
La réputation de Bernard Madoff s’est construite sur son succès dans les années 1970 grâce à l’informatisation et à l’innovation technologique dans le domaine du trading. La bulle Internet est alimentée par l’expansion rapide des entreprises technologiques, avec plus de 1 900 sociétés TIC cotées sur les bourses américaines entre 1996 et 2000, ce qui permet à son fonds BLMIS de détenir 300 millions de dollars d’actifs en 2000 (alors plus de 300 millions d’euros, ndlr).
À lire aussi : En finir avec la finance Ponzi, vraiment ? Le cas « Martin Shkreli »
Le système de Madoff se développe dans un contexte de croissance rapide des produits dérivés, tels que les credit default swaps (CDS) et les collateralized debt obligations (CDO), qui augmentent de 452 % entre 2001 et 2007. La forte volatilité des marchés engendre une normalisation des rendements exceptionnellement élevés, masquant le caractère irréalisable des performances promises par Bernard Madoff. Ces rendements sont considérés comme modérés par les investisseurs, qui ne perçoivent pas l’invraisemblance d’une telle constance sur le long terme, ce qui permet au système de durer sans être détecté.
Les activités de Bernard Madoff sont facilitées par le fait qu’avant la loi Dodd-Frank de 2010 sur la supervision des banques, l’enregistrement des hedge funds (fonds spéculatifs) auprès de la Securities and Exchange Commission (SEC, l’organisme de régulation des marchés financiers) est volontaire. De plus, après les attentats du 11 septembre 2001, les ressources gouvernementales sont réorientées vers la sécurité nationale, entraînant une baisse de plus de 25 % des enquêtes ouvertes pour crimes financiers entre 2000 et 2003.
L’invraisemblance des rendements de Bernard Madoff est négligée par la SEC, malgré les signalements de lanceurs d’alerte qui ont déclenché une enquête – ce qui reflète son manque de connaissances et celui d’autres organismes de réglementation en matière de trading des hedge funds. Cela a également pu être le résultat de l’influence des relations étroites de Madoff avec les autorités de régulation, compte tenu de ses fonctions passées de président du Nasdaq et de conseiller en structure de marché auprès de la SEC.
Au moment de l’éclatement de la bulle ferroviaire, les taux d’intérêt de la Banque d’Angleterre sont à leur plus bas niveau depuis près d’un siècle. De même, la baisse des taux d’intérêt par la Réserve fédérale états-unienne (Fed) dans les années 2000 réduit le coût des crédits immobiliers, stimulant la demande et contribuant à l’inflation des prix de l’immobilier. Dans les deux cas, les marchés sont inondés d’argent bon marché et lorsque tout le monde gagne de l’argent (ou pense en gagner), les questions qui dérangent ne sont pas posées.
George Hudson de même que Bernard Madoff communiquent très peu sur leurs opérations auprès de leurs collègues directeurs et actionnaires. Le premier lève notamment 2,5 millions de livres sans fournir de plan d’investissement détaillé. Madoff, quant à lui, emploie et surpaye des collaborateurs peu qualifiés afin de décourager les questions sur le fonctionnement interne, et évite les réunions de présentation aux investisseurs pour ne pas avoir à répondre aux interrogations de professionnels avertis. Il recrute plutôt ses investisseurs par le biais de relations philanthropiques et de réseaux personnels. Des éléments suggèrent que certains actionnaires sont en partie conscients des pratiques commerciales douteuses de Hudson, mais ils ne s’y opposent pas initialement.
Lorsque leurs bulles respectives éclatent, ces pratiques commerciales douteuses sont révélées, et il apparaît clairement qu’ils utilisent, selon le système classique de Ponzi, des capitaux frais – et non les bénéfices des investissements – pour verser des dividendes aux investisseurs. Il a également été révélé qu’ils utilisent les fonds des investisseurs pour financer leurs trains de vie luxueux. Hudson aurait détourné environ 750 000 livres (soit environ 74 millions de livres actuelles, soit 85,4 millions d’euros, ndlt), tandis que la fraude de Bernard Madoff a atteint 65 milliards de dollars de pertes déclarées, avec des pertes réelles pour les investisseurs estimées à environ 18 milliards.
Tous deux ont terminé dans la disgrâce : Hudson s’est enfui en France et Madoff est mort en prison.
Méfiez-vous lorsque vous voyez des entreprises d’IA dont la valeur marchande ne cesse d’augmenter, dirigées par des leaders charismatiques et influents – il est préoccupant que les dirigeants des géants de l’IA entretiennent des relations aussi étroites avec la Maison-Blanche.
Dans ces cas, il est impératif d’analyser la qualité des communications avec les actionnaires et les investisseurs potentiels, notamment en termes d’allocation du capital et de transparence sur les flux de trésorerie détaillés. Il ne suffit pas de se fier aux états financiers audités ; il faut aller beaucoup plus loin dans l’examen de la stratégie d’investissement – ce qui exigera évidemment des auditeurs qu’ils redoublent d’efforts.
Lorsque les investisseurs sont pris dans la frénésie, au coin de la rue attend un Ponzi.
Geneva Walman-Randall a contribué à cet article en tant qu’assistante de recherche sur les conditions entourant les systèmes de Ponzi de Bernie Madoff et de George Hudson. Elle a mené cette recherche en tant qu’étudiante invitée au St. Catherine’s College d’Oxford.
Paul David Richard Griffiths ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.03.2026 à 11:33
Caroline Diard, Professeur associé - Département Droit des Affaires et Ressources Humaines, TBS Education
Romain Sohier, Enseignant-chercheur en Marketing - Laboratoire Métis, EM Normandie
Virginie Hachard, Doyenne associée de la Faculté, Enseignant-chercheur en entrepreneuriat, Laboratoire Metis, EM Normandie
Après Ubisoft, c’est au tour de Stellantis France de revenir sur la pratique du télétravail. C’est l’heure du ressac de la vague de ces dernières années favorable au travail à distance dans certaines entreprises. Mais quelles sont les motivations de ce retour au monde d’avant « le monde d’après » ? Tous les risques juridiques du télétravail ont-ils été bien anticipés ? Illustration avec un cas extrême : le télétravail depuis… Tahiti !
Quand il est minuit à Tahiti… il est midi à Paris. Dans ce contexte, imaginez un collaborateur qui télétravaille depuis Tahiti (Polynésie française), soit à 15 000 kilomètres de son employeur. Pas de bureau partagé, pas d’open space, pas de machine à café…
Si avoir une famille installée sous les cocotiers peut sembler désirable, la médaille a aussi un revers : des réunions à minuit, en raison du décalage horaire, une connexion Internet parfois capricieuse. Tahiti rêve ou cauchemar du salarié en télétravail ? Et qu’en est-il pour l’employeur ?
Ce scénario, loin d’être un une fiction, est une situation réelle, étudiée dans une recherche inédite sur le télétravail « hyperflexible ». Par ce terme, on s’intéresse à une forme atypique de télétravail, où la distance géographique et la durée bousculent tous les repères traditionnels du management.
À lire aussi : Et si on apprenait à télétravailler plutôt que d’y renoncer
Dans l’organisation étudiée, le télétravail a été mis en place en dehors du contexte pandémique. L’entreprise étudiée a choisi d’encadrer le télétravail à travers une charte déposée auprès de la Dreets (Direction régionale de l’économie, de l’emploi, du travail et des solidarités) dès 2019. Un avenant a été signé en janvier 2021. Le collaborateur concerné a sollicité en janvier 2021, après une première expérience de télétravail à temps plein en confinement, la possibilité d’exercer son activité en Polynésie française. Le collaborateur a obtenu de son employeur un détachement de deux ans. Des entretiens semi-directifs ont été réalisés mensuellement avec son n + 1.
Avec une posture de recherche-intervention, nous avons étudié le cas particulier de ce collaborateur, en ayant formulé la question de recherche suivante : le télétravail exercé à temps plein et outre-mer, comporte-t-il des risques sur l’engagement et l’intention de rester dans l’entreprise ? Peut-il produire des risques potentiels particuliers ?
Nous avons considéré une forme de télétravail hyperflexible compte tenu de l’éloignement géographique (la distance entre Tahiti et la métropole est de 15 706 kilomètres), de l’organisation du nombre de jours en présentiel en métropole très réduit (trois semaines en novembre et quatre en janvier) et la durée du détachement (deux ans).
De manière générale, la notion de flexibilité est multidimensionnelle. Elle concerne parfois la flexibilité dans la relation d’emploi (contrat de travail précaire, autoentrepreneur). Elle peut aussi renvoyer au temps de travail (forfait-jours, temps partiel) ou au le lieu de travail (à domicile, en mode nomade, en espace de coworking). Ces trois dimensions peuvent être isolées ou cohabiter.
L’hyperflexibiltié prend aussi des formes variées. Ainsi, Stich et Mairesse ont observé un chef d’entreprise parti 40 jours télétravailler sur une île déserte, physiquement isolé mais virtuellement connecté à une communauté immergée dans ses aventures.
De même, le Working From Anywhere (WFA), où les salariés ne sont plus tenus de résider près de leur employeur redessine les frontières du travail et marque une flexibilité accrue pour choisir le lieu de vie des salariés. Ce modèle, déjà observé dans les métiers des systèmes d’information, exige cependant une culture organisationnelle adaptée pour préserver productivité et efficacité.
Plusieurs expériences de télétravail à temps plein aussi bien en France (Boursorama, Mutuelle générale) qu’à l’international (Amazon, Apple, GitHub, Nasa, Facebook, Twitter, Slack, Glassdoor) ont pour certaines été abandonnées.
Les dirigeants, pour justifier ce retour en arrière, ont invoqué diverses raisons comme, par exemple, les inégalités de traitement. Les différences de conditions de travail entre les collaborateurs créeraient des frustrations chez certains. Un autre argument est parfois mobilisé : l’altération de la culture d’entreprise et la dilution du collectif. Ces reculs de certaines entreprises suggèrent une prise de conscience tardive mais réelle des risques RH inhérents à la pratique du télétravail.
Notre étude de cas complète la littérature sur les risques en situation de télétravail, en s’intéressant spécifiquement à une situation extrême. À travers notre approche longitudinale sur deux ans nous avons ainsi identifié plusieurs types de risques inhérents à la distance, le décalage horaire et les conditions techniques d’exercice des missions.
En premier lieu, les risques techniques et logistiques (connexion difficile, manque de certains outils, difficulté pour revenir en métropole pendant la crise sanitaire). Ces difficultés peuvent engendrer une situation anxiogène, notamment en raison de l’isolement et de la dépendance aux outils numériques. La dépendance à ces outils technologiques devient critique, car les problèmes ne peuvent pas être résolus par un simple déplacement. La personne qui télétravaille à Tahiti témoigne :
« Avant le télétravail, cela ne me dérangeait pas d’avoir de nombreux dossiers de data sur mon bureau d’ordinateurs, car j’avais accès à toutes les ressources à mon domicile et j’habitais à quelques kilomètres de mon lieu de travail. Dorénavant, j’optimise mes données, car un incident peut vite arriver à distance, et je préfère avoir un accès simple à mes données, car je n’ai que deux ordinateurs portables actuellement.
Un incident ce mois-ci : le problème de mise à jour Windows sur l’ordinateur, qui ne peut se faire que via le réseau de l’organisation : l’ordi n’était plus utilisable. Or on ne peut pas joindre la métropole par téléphone car pas d’abonnement. Je suis passé par What’s app en contactant un collègue pour contacter le technicien informatique pour une mise à jour. »
En second lieu, les risques psychosociaux :
« En étant à distance, il est moins aisé de discuter en direct avec une personne pour avoir de l’information. Des tutoriels et vidéos en ligne sont donc importants pour satisfaire certaines de mes requêtes. »
le stress accru : le décalage horaire et la nécessité d’être hyperconnecté pour compenser la distance créent un déséquilibre entre les contraintes perçues et les ressources disponibles en mode asynchrone ;
l’hyperconnectivité : le collaborateur doit souvent travailler en dehors des horaires classiques, ce qui peut nuire à l’équilibre entre la vie professionnelle et personnelle.
« J’optimise mon temps de travail avec la métropole, le matin je traite les mails reçus la nuit, puis après je travaille non stop sur mes missions. »
Les enjeux pour l’employeur incluent également des risques liés à la gestion de la relation managériale. Dans notre étude, nous avons retrouvé des difficultés à anticiper les tâches, un risque d’inégalité de traitement entre les salariés en mobilité et ceux restés en métropole, une possible diminution de la performance, une érosion de la confiance, ainsi qu’un sentiment d’exclusion vis-à-vis de l’équipe.
Enfin, il existe des risques liés aux doubles carrières : contrairement aux études classiques sur les conjoints d’expatriés, le conjoint du salarié étudié s’est bien adapté à la vie locale et n’a pas subi de perturbation majeure de sa carrière. Le risque apparaît progressivement lorsqu’il faut évoquer d’un retour dans l’Hexagone, où les arbitrages entre vie familiale et professionnelle deviennent conflictuels.
La double carrière pose ici un défi particulier : si le conjoint s’adapte bien sur place, le retour en métropole peut devenir une source de tension majeure. La littérature décrit les conflits travail/famille mais le défi posé en cas de télétravail hyperflexible n’est pas documenté. La question des doubles carrières est apparue dès la première année du détachement en Outre-mer. Pour le salarié, ce choix a généré un dilemme entre vie professionnelle et vie familiale : rentrer en métropole et laisser sa famille à distance, avec des arbitrages difficiles à faire.
Bien que le salarié ait envisagé de quitter l’entreprise, cette intention n’était pas liée au travail, mais à la situation familiale. Finalement, le salarié est rentré en métropole. Cette situation met en lumière un conflit classique des couples à doubles carrières : le choix entre la stabilité professionnelle et l’équilibre familial. Malgré les tensions, son engagement envers l’entreprise n’a pas été remis en cause, mais plutôt renforcé par cette expérience.
Le collectif de travail et l’institution ont alors été contraints à une forme d’agilité organisationnelle.
« Deux de mes collègues ont trouvé un système adapté pour l’accès aux dossiers en papier et ont proposé une numérisation. Il y a beaucoup de bienveillance. »
Les horaires des réunions d’équipe ont aussi été adaptés pour tenir compte du décalage horaire.
Tous les risques RH apparus au fil de l’étude longitudinale semblent exacerbés par la distance. Le départ sous forme de détachement vers Tahiti a pourtant été anticipé avec une formalisation maximale par le service RH tendant à minimiser les risques (notamment au moyen d’un avenant au contrat de travail et de mise en place des garanties sociales et fiscales).
En revanche, la réponse aux aléas conjoncturels a dépendu largement de liens informels coconstruits au fil de l’expérience avec certains collègues. Par exemple, le retour initialement prévu en métropole pour trois semaines (ce que prévoyait l’avenant au contrat) n’a pas été possible pour des raisons sanitaires (escale aux États-Unis depuis Tahiti). Le collaborateur a vécu une période difficile à ce moment-là avec le sentiment de ne pas avoir « rempli le contrat ».
Ceci peut laisser supposer que la mise en place d’une situation extrême, inédite à titre expérimental a révélé une bienveillance du collectif de travail. D’autres salariés de l’organisation ont, quant à eux, bénéficié de la possibilité de résider dans leur pays d’origine pour des raisons fiscales dans le cadre cette fois d’une formalisation induite. L’organisation avec cette formalisation a tenté d’éviter des comportements déviants et du télétravail informel, non déclaré, hors du territoire et ainsi de limiter les risques de contentieux, notamment en matière d’accident du travail, redressement social ou fiscal.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
15.03.2026 à 17:39
Philippe Ciais, Directeur de recherche au Laboratoire des science du climat et de l’environnement, Institut Pierre-Simon Laplace, Commissariat à l’énergie atomique et aux énergies alternatives (CEA); Université Paris-Saclay; Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay
Pendant que le monde était confiné du fait de la pandémie de Covid-19 en 2020, puis au cours des deux années suivantes, la croissance du méthane dans l’atmosphère a été plus élevée que tout ce qui avait été observé depuis le début des années 1980. Toutes sortes d’hypothèses ont alors surgi – certains chercheurs avaient, par exemple, imaginé un rôle « protecteur » aux émissions d’oxydes d’azote résultant du transport routier, alors considérablement ralenti.
Dans une étude publiée début février 2026 dans la revue Science, le spécialiste des gaz à effet de serre Philippe Ciais et ses collègues ont reconstitué ce qui s’est réellement passé lors de cet épisode. En cause, des phénomènes naturels aggravés par le changement climatique. Le chercheur répond ici à nos questions.
The Conversation : Replongeons-nous brièvement dans le contexte de 2020. En quoi la pandémie et, surtout, les confinements mis en place un peu partout dans le monde ont-ils représenté une expérience à large échelle unique pour les spécialistes de l’atmosphère ?
Philippe Ciais : Les confinements, en particulier, ont eu des répercussions globales. La pollution atmosphérique, et notamment les émissions de dioxyde de carbone (CO₂), a été réduite à l’apogée des mesures de confinement. Cette baisse a toutefois été faible – environ 6 % seulement en moyenne pour le CO₂ – et de courte durée, avec un rebond rapide des émissions dès la reprise des activités économiques normales.
Mais ce moment a constitué une expérience unique pour nous, chercheurs : nous n’avons pas souvent l’occasion d’étudier la réaction du système atmosphérique à une telle réduction des activités humaines. On s’en souvient, de nombreuses villes étaient alors devenues plus respirables grâce à l’arrêt des transports routiers.
Nous avons ainsi pu nous intéresser à l’impact de cette réduction sur la chimie atmosphérique et, en particulier, sur l’augmentation du méthane dans l’atmosphère. À noter, toutefois, que cette augmentation s’est poursuivie en 2021 et en 2022 : les mesures de confinement de 2020 ne pouvaient donc, à elles seules, l’expliquer.
En effet, entre 2020 et 2022, les concentrations de méthane ont bondi. En quoi cela a-t-il surpris la communauté scientifique ?
P. C. : Le méthane est un gaz à effet de serre puissant, son augmentation à cause des activités humaines est le deuxième principal facteur responsable du réchauffement climatique. Nous surveillons en continu les concentrations atmosphériques de ce gaz grâce à plusieurs réseaux d’observation atmosphérique. Cela permet de calculer, chaque année, l’augmentation de la concentration de méthane.
Nous avons ainsi remarqué qu’en 2020, puis en 2021 et en 2022, le taux de croissance du méthane était très élevé. En fait, ces chiffres étaient les plus élevés jamais enregistrés depuis le début des mesures, qui remonte aux années 1980.
Nous avons donc commencé à étudier cette période inédite, et nous voulions avant tout comprendre quels étaient les mécanismes impliqués dans cette augmentation très rapide du méthane dans l’atmosphère.
La difficulté, c’est que l’augmentation de la concentration de méthane dans l’atmosphère ne peut pas être rattachée à un facteur unique, mais dépend d’une combinaison de facteurs : émissions anthropiques et naturelles de méthane, mais aussi destruction du méthane par le nettoyeur atmosphérique, les radicaux hydroxyles OH⁻.
« Ces radicaux hydroxyles sont un “Pacman”, expliquez-vous, qui détruit dans l’atmosphère plus de 95 % du méthane émis par les activités humaines. »
P. C. : En effet, des réactions de photodissociation surviennent dans l’atmosphère grâce aux rayons UV, et produisent des radicaux hydroxyles OH⁻, à partir d’ozone, mais le taux de radicaux produits dépend aussi des substances impliquées dans la pollution, notamment le monoxyde de carbone et les oxydes d’azote, qui contribuent à la pollution urbaine.
Ces radicaux hydroxyles sont les agents nettoyants du méthane dans l’atmosphère. Ils sont, en quelque sorte, le « Pacman » du méthane dans l’atmosphère, et permettent de le nettoyer. De ce fait, le méthane a une durée de vie moyenne dans l’atmosphère plus courte que celles du CO₂ : environ douze ans, contre plusieurs centaines d’années pour le CO₂. La destruction du méthane par les radicaux OH⁻ explique pourquoi cette durée de vie est surtout réduite au niveau des tropiques, où le rayonnement solaire est le plus fort.
Sa courte durée de vie fait du méthane un levier particulièrement pertinent pour lutter contre le réchauffement climatique à court terme. Si on réduisait les émissions de méthane, la température diminuerait immédiatement, alors qu’il y a davantage d’inertie pour les émissions de CO₂.
À lire aussi : Climat et agriculture : pour éviter le risque de surchauffe, le levier du méthane
Comment avez-vous rattaché ce phénomène connu de « nettoyage » atmosphérique du méthane au pic de croissance de la concentration de ce gaz à effet de serre, observé entre 2020 et 2022 ?
P. C. : Nous avions deux grandes hypothèses :
soit ce pic faisait suite à une augmentation très forte des émissions de méthane, liées aux activités humaines (agriculture, extraction d’énergie fossile…) ou d’origine naturelle, en pensant aux zones humides qui sont très sensibles à l’évolution du climat ;
soit cela voulait dire que les radicaux hydroxyles OH⁻ présents dans l’atmosphère ont été un peu réduits pendant la pandémie et un peu après. Même une petite réduction de ces radicaux pourrait causer un bond du méthane dans l’atmosphère.
D’où ce raccourci, entendu pendant la pandémie, selon lequel la pollution routière serait « bonne » pour lutter contre le méthane…
P. C. : Oui. Il s’agit bel et bien d’un raccourci, car tout dépend de l’endroit où les oxydes d’azote sont émis. Moins d’émissions impliquera moins d’hydroxyles OH⁻ et davantage de méthane, mais ces réactions sont modulées par d’autres espèces chimiques produites par la végétation et par les feux. Même la vapeur d’eau joue un rôle et augmente la concentration d’OH⁻ là où l’atmosphère est très propre.
Vous avez déjà publié un premier article sur le sujet en 2022. En quoi cette nouvelle publication va-t-elle plus loin ?
P. C. : L’article publié dans Nature en 2022 s’était intéressé au taux de croissance du méthane en 2019 et en 2020. Dans notre nouvelle étude, nous avons voulu expliquer pourquoi le taux de croissance du méthane était resté élevé en 2021, en 2022 – après la pandémie, donc –, puis n’a commencé à décroître à nouveau qu’en 2023.
Et de fait, nous avons confirmé que la raison de ce pic était principalement due à une concentration plus faible de radicaux hydroxyles, mais également à des augmentations dans les émissions naturelles de méthane par les zones humides et les émissions de l’agriculture. La combinaison de ces deux raisons est responsable du pic de croissance du méthane mesuré entre 2020 et 2022.
Comment avez-vous surmonté les difficultés méthodologiques pour bien distinguer les deux hypothèses ?
P. C. : Toute la difficulté au plan scientifique, en effet, était de pouvoir faire la part des choses entre ces deux hypothèses alors qu’elles impliquent des protagonistes pas toujours mesurables. Les radicaux hydroxyles OH⁻ ont une durée de vie très courte : moins d’une seconde.
Nous nous sommes appuyés sur les données du satellite japonais GOSAT, qui mesure les concentrations de plusieurs gaz à effet de serre, dont le méthane. Nous ne pouvions mesurer la concentration en OH⁻, mais nous avions les données pour les émissions d’oxydes d’azote (NOx) et de monoxyde de carbone.
À l’aide de modèles de chimie de l’atmosphère et de ces données, nous avons donc pu reconstituer l’évolution des radicaux OH⁻ par rapport à la concentration d’ozone sur la période. Ceci nous a permis de sortir de la logique de « double aveugle » qui nous empêchait, jusque-là, de trancher entre les deux hypothèses.
Nous avons confirmé qu’une baisse des OH⁻ entre 2020 et 2022 expliquait bien une large partie du pic de méthane, mais pas tout. Il manquait encore quelque chose pour expliquer les taux de croissance record du méthane observés, c’est-à-dire une augmentation des sources de méthane en surface.
Mais l’énigme n’était pas encore résolue pour autant. En effet, il existe de nombreuses sources de méthane :
l’extraction de combustibles fossiles, comme l’exploitation du charbon, du pétrole et du gaz, est source de fuites de méthane ;
l’agriculture, que ce soit la production de riz ou encore les ruminations des bovins, en produit ;
enfin, les feux de forêt et surtout les zones humides – même si elles fournissent de nombreux services écosystémiques – en produisent également.
Et donc, la dernière étape était de départager ces différentes sources potentielles d’augmentation…
P. C. : Les émissions naturelles des zones humides sont sensibles aux conditions hydriques et à la température. S’il fait un peu plus chaud sur les tourbières du Nord, un peu plus humide sur les marécages des tropiques, les émissions peuvent augmenter considérablement.
« Il existe par exemple une zone humide en Afrique, dans le Soudan du Sud, qui peut émettre autant de méthane en un an que tous les pays de l’UE. »
Nous avons confirmé que l’augmentation des émissions entre 2020 et 2023 provenait principalement des zones humides tropicales du nord des tropiques, principalement en Afrique et en Asie. Nous n’avons toutefois pas de vision plus précise, même si nous savons qu’il y existe des zones humides très importantes, notamment les tourbières du bassin du Congo, le lac Tchad, et le marécage géant Sudd, dans le Soudan du Sud.
Cette dernière zone humide, en particulier, est gigantesque. Lors de l’arrivée de la saison des pluies, cela peut entraîner des émissions de méthane soudaines et considérables : parfois 10 millions de tonnes de méthane par an, ce qui est presque autant que celles des pays de l’Union européenne en un an (13 millions) !
Ces pluies ont, en retour, pu faciliter l’agriculture, en particulier la culture du riz et la pâture des buffles sur ces terres inondables. Indirectement, cela peut aussi avoir amplifié les émissions de méthane par ce biais.
À lire aussi : Climat et agriculture : pour éviter le risque de surchauffe, le levier du méthane
La période de juin 2020 à 2023 était par ailleurs dominée par un épisode climatique La Niña, qui a tendance à aggraver les cyclones et les tempêtes tropicales… (son antagoniste El Niño étant davantage associé aux périodes de sécheresse). Pourrait-il y avoir un lien entre cet épisode et les émissions de méthane ?
P. C. : Oui, un climat plus humide donne davantage d’émissions en provenance des zones humides, mais c’est un peu plus compliqué que cela, car les zones humides sont dans des régions bien précises. S’il y a davantage de pluies ou d’apports en eau par le ruissellement et les eaux souterraines là où on a une grande zone humide, alors oui, vous avez les conditions favorables pour augmenter les émissions de méthane. Mais si un surplus de pluies tombe sur des régions sans zone humide, il ne se passera pas grand chose.
À lire aussi : Avec l’arrivée de La Niña, des ouragans plus intenses sont-ils à craindre ?
Comment peut-on s’assurer que le méthane en question ne provenait pas d’autres phénomènes, tels que les feux de forêt ?
P. C. : Parce que les molécules de méthane n’ont alors pas la même signature isotopique. Environ un pour cent des molécules de méthane sont plus lourdes, car leur atome de carbone a un neutron de plus. Il s’agit de carbone 13, un isotope plus lourd que le carbone 12, majoritaire. Le carbone 13 est un isotope stable, il ne se décompose pas par radioactivité.
Le méthane produit par les bovins et la culture du riz est d’origine bactérienne, généré par des bactéries anaérobiques. Ce méthane bactérien a une teneur plus faible en carbone 13 que celui qui est produit par les feux ou par les fuites de gaz fossile. Or justement, entre 2020 et 2023, tandis que le méthane était en forte augmentation, le carbone 13 du méthane diminuait plus rapidement. Cela veut dire que le surplus d’émissions qui a été relâché dans l’atmosphère contenait moins de carbone 13, donc qu’il était d’origine bactérienne.
En définitive, que nous dit cette étude des meilleurs moyens de réduire les émissions de méthane et de lutter contre le changement climatique ?
P. C. : L’augmentation soudaine de méthane entre 2020 et 2023 peut être vue comme un signal d’alarme. Notre étude montre que les émissions de gaz à effet de serre naturelles ne sont pas constantes d’une année à l’autre, et qu’elles sont très sensibles aux conditions climatiques. Tout cela peut accélérer considérablement le rythme des émissions.
Le dégel du pergélisol (permafrost), par exemple, devrait nous préoccuper. Nous savons, d’après des observations sur le terrain, que lorsqu’une zone humide est gelée, elle n’émet pas trop de méthane tant que l’on n’enlève pas la glace. Lorsque le pergélisol est exposé, en revanche, les émissions de méthane peuvent être multipliées par dix.
Il est donc urgent de mieux comprendre quels sont les facteurs climatiques qui déclenchent et contrôlent les émissions naturelles. Et, dans le même temps, de réduire les émissions que nous pouvons contrôler, liées à l’agriculture et à l’industrie fossile.
Cette interview, traduite, éditée et adaptée de l’anglais vers le français par The Conversation France, est issue du podcast « The Conversation Weekly », produit par The Conversation UK.
Philippe Ciais a reçu des financements de la Fondation BNP Paribas (don philanthropique pour le Global Carbon Altas), du projet financé par 4C EU Horizon2020 et du projet Climate Change Initiative de l'Agence spatiale européenne.