LePartisan - 399 vues
MEDIAS REVUES BLOGS
URL du flux RSS

▸ les 50 dernières parutions

25.02.2026 à 12:42

Comment les excréments d’oiseaux ont alimenté l’essor du puissant royaume chincha au Pérou

Jo Osborn, Assistant Professor of Anthropology, Texas A&M University
Emily Milton, Peter Buck Postdoctoral Fellow, Smithsonian Institution
Jacob L. Bongers, Tom Austen Brown Postdoctoral Research Associate, University of Sydney
Le royaume chincha tirait sa puissance d’une ressource inattendue : le guano d’oiseaux marins. Une nouvelle étude montre comment cet engrais naturel a transformé l’agriculture et renforcé son influence régionale.
Texte intégral (2640 mots)
Le guano est un engrais naturel très riche en azote, phosphore et potassium, constitué principalement d’excréments d’oiseaux marins ou de chauves-souris. Jo Osborn

Bien plus qu’un simple engrais, le guano a façonné l’économie, la culture et les alliances politiques du royaume chincha. Une nouvelle étude montre comment cette ressource naturelle a soutenu l’émergence d’une puissance majeure du Pérou préhispanique.


En 1532, dans la ville de Cajamarca, au Pérou, le conquistador espagnol Francisco Pizarro et un groupe d’Européens prirent en otage le souverain inca Atahualpa, préparant ainsi la chute de l’Empire inca.

Avant cette attaque fatale, le frère de Pizarro, Pedro Pizarro, fit une observation curieuse : en dehors de l’Inca lui-même, le seigneur de Chincha était la seule personne à Cajamarca transportée sur une litière, une plateforme de transport portée à bras d’homme.

Pourquoi le seigneur de Chincha occupait-il une position aussi élevée dans la société inca ? Dans notre nouvelle étude, publiée dans PLOS One, nous mettons en évidence une source potentielle de pouvoir et d’influence aussi surprenante qu’inattendue : les excréments d’oiseaux.

Une ressource puissante et précieuse

Chincha, dans le sud du Pérou, est l’une des nombreuses vallées fluviales situées le long de la côte désertique et alimentées par les eaux des hautes terres andines, essentielles depuis longtemps à l’agriculture irriguée. À environ 25 kilomètres au large se trouvent les îles Chincha, qui abritent les plus grands dépôts de guano du Pacifique.

Le guano d’oiseaux marins, c’est-à-dire leurs déjections, est un engrais organique extrêmement puissant. Comparé aux fertilisants terrestres comme le fumier de vache, le guano contient des quantités bien plus élevées d’azote et de phosphore, essentiels à la croissance des plantes.

Au large de la côte péruvienne, le courant océanique de Humboldt (ou courant du Pérou) crée des zones de pêche extrêmement riches. Ces ressources halieutiques soutiennent d’immenses colonies d’oiseaux marins qui nichent sur les îles rocheuses au large.

Des rochers couverts de déjections
Les oiseaux marins utilisent les îles côtières pour construire leurs nids et trouvent leur nourriture à proximité, dans les zones de pêche riches alimentées par le courant du Pérou. Jo Osborn

Grâce au climat sec, presque dépourvu de pluie, le guano des oiseaux marins n’est pas emporté, mais continue de s’accumuler jusqu’à atteindre plusieurs mètres de hauteur. Cette combinaison environnementale unique rend le guano péruvien particulièrement précieux.

Notre recherche combine l’iconographie, des sources écrites historiques et l’analyse des isotopes stables de maïs (Zea mays) retrouvé sur des sites archéologiques pour montrer que les communautés autochtones de la vallée de Chincha utilisaient le guano d’oiseaux marins il y a au moins 800 ans pour fertiliser leurs cultures et accroître la production agricole.

Nous suggérons que le guano a probablement contribué à l’essor du royaume de Chincha et à la relation qu’il a ensuite entretenue avec l’Empire inca.

Les seigneurs de la côte désertique

Le royaume de Chincha (1000–1400 de notre ère) était une société majeure qui comptait environ 100 000 habitants. Elle reposait sur une organisation structurée en communautés spécialisées, notamment des pêcheurs, des agriculteurs et des marchands. Le royaume domina la vallée de Chincha jusqu’à son intégration dans l’Empire inca au XVe siècle.

En raison de la proximité des importants gisements de guano des îles Chincha, l’historien péruvien Marco Curatola a avancé dès 1997 que le guano d’oiseaux marins constituait une source essentielle de la richesse du royaume. Notre étude confirme fortement cette hypothèse.

Un test biochimique

L’analyse biochimique constitue une méthode fiable pour identifier l’usage d’engrais dans le passé. Une étude expérimentale menée en 2012 a montré que les plantes fertilisées avec du fumier de camélidés (alpagas et lamas) et du guano d’oiseaux marins présentent des valeurs isotopiques de l’azote plus élevées que les cultures non fertilisées.

Des épis de maïs
Des épis de maïs issus de sites archéologiques de la vallée de Chincha ont été prélevés pour une analyse isotopique. C. O’Shea

Nous avons analysé 35 échantillons de maïs retrouvés dans des tombes de la vallée de Chincha, documentés dans le cadre d’une étude antérieure sur les pratiques funéraires.

La plupart des échantillons présentent des valeurs isotopiques de l’azote plus élevées que celles attendues pour du maïs non fertilisé, ce qui indique qu’une forme de fertilisation a été utilisée. Environ la moitié affichent des valeurs extrêmement élevées. À ce jour, ces résultats ne sont compatibles qu’avec l’utilisation de guano d’oiseaux marins.

Cette analyse chimique confirme l’usage du guano pour fertiliser les cultures à l’époque préhispanique.

Images et sources écrites

Le guano – et les oiseaux qui le produisent – occupait également une place plus large dans la culture des Chincha.

Notre analyse des artefacts archéologiques montre que les Chincha avaient une compréhension profonde des liens entre la terre, la mer et le ciel. L’utilisation du guano et leur relation avec les îles ne relevaient pas seulement d’un choix pratique ; elles étaient profondément ancrées dans leur vision du monde.

Pagaie en bois sculpté, décorée de peinture rouge, verte et jaune, présentant une rangée de petites figures en partie supérieure et des motifs d’animaux sculptés le long de la partie centrale
Cet objet en bois décoré provenant de Chincha, interprété soit comme une pagaie cérémonielle, soit comme un bâton à fouir, représente des oiseaux marins et des poissons aux côtés de figures humaines et de motifs géométriques. The Met Museum, 1979.206.1025

Cette vénération se reflète dans la culture matérielle des Chincha. Sur leurs textiles, leurs céramiques, leurs frises architecturales et leurs objets en métal, apparaissent de manière récurrente des représentations d’oiseaux marins, de poissons, de vagues et de maïs en germination.

Ces images montrent que les Chincha comprenaient l’ensemble du cycle écologique : les oiseaux marins se nourrissaient de poissons, produisaient du guano, le guano fertilisait le maïs, et le maïs nourrissait les populations.

Cette relation se retrouve peut-être encore aujourd’hui dans certains toponymes péruviens. Pisco dérive d’un mot quechua signifiant « oiseau », et Lunahuaná pourrait se traduire par « peuple du guano ».

Le pouvoir du guano

En tant qu’engrais à la fois efficace et extrêmement précieux, le guano a permis aux communautés chincha d’augmenter leurs rendements agricoles et d’étendre leurs réseaux commerciaux, contribuant ainsi à l’expansion économique du royaume.

Nous suggérons que des pêcheurs se rendaient en mer jusqu’aux îles Chincha pour collecter le guano, qu’ils fournissaient ensuite aux agriculteurs ainsi qu’aux marchands maritimes, qui l’échangeaient le long de la côte et jusque dans les hautes terres andines.

La productivité agricole de Chincha et l’essor de sa puissance commerciale ont renforcé son importance stratégique aux yeux de l’Empire inca. Vers 1400 de notre ère, les Incas intégrèrent le royaume chincha à la suite d’une capitulation « pacifique », donnant naissance à l’une des rares alliances de ce type.

Bien que les termes de cet « accord » entre Chincha et l’Empire inca restent débattus, nous suggérons que le guano d’oiseaux marins a joué un rôle dans ces négociations, l’État inca s’intéressant particulièrement au maïs tout en ne disposant pas d’un accès direct aux engrais marins. Cela pourrait expliquer pourquoi le seigneur de Chincha jouissait d’un statut si élevé qu’il était transporté sur une litière, comme l’avait observé Pedro Pizarro.

Les Incas accordaient une telle valeur à cet engrais qu’ils en réglementèrent strictement l’accès sur les îles à guano pendant la saison de reproduction et interdirent de tuer les oiseaux producteurs de guano, sur les îles comme en dehors, sous peine de mort.

Notre étude élargit l’étendue géographique connue de la fertilisation au guano dans le monde préinca et apporte un soutien solide aux travaux qui avaient anticipé son rôle dans l’essor du royaume de Chincha. Il reste toutefois beaucoup à découvrir sur l’ampleur réelle de cette pratique et sur le moment où elle a commencé.

Notre étude élargit l’aire géographique connue de la fertilisation au guano dans le monde préinca et confirme avec force les travaux qui avaient anticipé son rôle dans l’essor du royaume de Chincha. Il reste toutefois à déterminer dans quelle mesure cette pratique était répandue et à partir de quand elle a été mise en œuvre.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

24.02.2026 à 19:44

Chiens de race : l’esthétique peut-elle justifier la souffrance ?

Valérie Chansigaud, Historienne des sciences et de l'environnement, chercheuse associée au laboratoire Sphère (Paris Cité - CNRS), Université Paris Cité
Alors que l’UE tâche de poser des limites à la sélection génétique de certaines races de chiens et de chats, retour sur un phénomène tout sauf nouveau : l’obsession humaine pour l’apparence animale.
Texte intégral (2737 mots)

Afin de limiter la souffrance animale, la Commission européenne tâche de poser des limites à la sélection génétique des races de chiens et de chats aux traits dits extrêmes. Si cette avancée demeure inédite, elle réagit à un phénomène tout sauf nouveau : l’obsession de l’être humain pour l’apparence des animaux domestiques.


Le Conseil et le Parlement européens ont récemment adopté une accord provisoire visant à encadrer plus strictement l’élevage des chiens et des chats, en interdisant notamment la reproduction et la mise en avant d’animaux présentant des « formes extrêmes ».

Sont particulièrement concernées certaines morphologies associées à des troubles graves et durables, comme les chiens au museau écrasé, chez lesquels les difficultés respiratoires, l’intolérance à l’effort ou les problèmes locomoteurs sont désormais bien documentés.

Cette évolution réglementaire répond à des alertes répétées du monde vétérinaire et à une sensibilité croissante de l’opinion publique à la souffrance animale. Elle s’inscrit également dans une longue histoire de la place démesurée accordée par les sociétés humaines à l’apparence des animaux domestiques et à leur volonté de la façonner.

Sélectionner l’apparence : une pratique ancienne aux usages multiples

Il est impossible de dater précisément le moment où les humains auraient commencé à sélectionner des animaux sur des critères esthétiques. Bien avant l’existence des « races » au sens moderne (un phénomène qui émerge au XIXᵉ siècle), des animaux étaient déjà choisis en fonction de leur sexe, de leur âge, de leur couleur ou de leur conformation.

Dans de nombreuses sociétés anciennes, les animaux destinés au sacrifice devaient ainsi répondre à des critères précis d’apparence et d’intégrité corporelle : dans les cultes grecs et romains, seuls des animaux « sans défauts » étaient admis devant les divinités ; en Chine, sous la dynastie Zhou (XIᵉ siècle avant notre ère), les sacrifices royaux exigeaient également des bêtes jugées parfaites, tant extérieurement qu’intérieurement.

Autrement dit la sélection sur l’apparence est probablement aussi ancienne que la domestication elle-même. Elle n’était jamais isolée : elle s’entremêlait à des critères religieux, sociaux, économiques ou politiques, par exemple lorsque le pouvoir politique affirme sa puissance en imposant des animaux sacrificiels répondant à des normes précises.

Ce qui change à l’époque contemporaine, c’est que l’apparence peut devenir, dans certains cas, le critère central, voire exclusif, de la création des races. Posséder un chien de race peut ainsi marquer un rang, une appartenance sociale ou un certain rapport au monde, comme d’autres animaux ont pu, à différentes époques, signaler le prestige ou le pouvoir de leur propriétaire, à commencer par le cheval, mais aussi certains chiens de chasse.

Une préoccupation tardive pour la santé et le bien-être

Les races modernes émergent au XIXᵉ siècle, dans un contexte marqué par le goût pour la classification, la hiérarchisation et la distinction sociale fondée sur la notion de « race ». Cette passion pour les lignées « pures » n’est pas sans lien avec les cadres intellectuels qui, à la même époque, voient se développer les théories raciales appliquées aux humains.

Photographies de l’exposition canine, au jardin des Tuileries en mai 1898
Photographies de l’Exposition canine, au jardin des Tuileries (Paris), en mai 1898. Jules Beau/Gallica BNF, Fourni par l'auteur

Pendant longtemps, les effets de la sélection ont été évalués presque exclusivement à l’aune de la productivité, de l’efficacité ou de la conformité à un standard. La souffrance animale était connue, mais largement tolérée, considérée comme secondaire, voire inévitable. Les pratiques vétérinaires elles-mêmes en témoignent : pendant une longue période, des interventions lourdes ont été pratiquées sans anesthésie, comme la stérilisation des chiennes.

D’autres gestes, aujourd’hui reconnus comme inutiles et douloureux, étaient également courants : on sectionnait par exemple le frein de la langue chez les chiens, dans l’idée erronée de prévenir la rage.

Ces pratiques témoignent d’un rapport au corps animal dans lequel la souffrance était largement ignorée, par indifférence plus que par méconnaissance.

Ce n’est qu’à partir de la seconde moitié du XXᵉ siècle que la douleur chronique, la qualité de vie ou la santé à long terme des animaux commencent à être pensées comme des problèmes en tant que tels. Les inquiétudes actuelles concernant les chiens aux morphologies extrêmes – difficultés respiratoires, troubles locomoteurs, intolérance à l’effort – s’inscrivent pleinement dans cette histoire récente de la sensibilité au bien-être animal.

Des chats qui ont longtemps échappé à cette logique

La récente réglementation européenne semble concerner plus directement les chiens que les chats, et cette impression correspond à une réalité historique, biologique et sociologique. En France, comme dans de nombreux pays européens, les chiens de race sont proportionnellement plus nombreux que les chats de race. Cette différence s’explique en grande partie par l’histoire de l’élevage.

L’intérêt pour les races de chiens est ancien et structurant. La sélection de types morphologiques spécifiques devient l’un des moteurs centraux de l’élevage canin au XIXᵉ siècle, en systématisant et en normant des pratiques bien plus anciennes de différenciation fonctionnelle. Dès l’Antiquité, certains chiens sont ainsi recherchés pour des usages guerriers ou de combat, en fonction de leur taille, de leur puissance ou de leur agressivité.

Ce type de sélection n’est d’ailleurs pas propre aux chiens : chez les gallinacés, des individus ont été privilégiés très tôt pour des usages non alimentaires, notamment pour le combat de coqs ou comme animaux d’ornement, bien avant que ne s’impose une sélection orientée vers la production de chair ou d’œufs.

À l’inverse, les chats ont longtemps échappé à cette logique. Les premiers concours félins du XIXᵉ siècle récompensaient des individus – souvent des chats de gouttière – et non des représentants de races qui n’étaient pas encore standardisées. Le chat est resté plus longtemps un animal ordinaire, moins soumis aux impératifs de sélection morphologique.

Exposition féline à la salle Wagram en 1934
Exposition féline à la salle Wagram (Paris), en 1934. Gallica/BNF

Quels chiens demain ?

Populaires sur les réseaux sociaux, les Pomskys sont issus de croisements entre des Huskys sibériens et de spitz-nains
Populaires sur les réseaux sociaux, les pomskys sont issus de croisements de huskys sibériens et de spitz nains. GJH-hoond, CC BY

Les croisements récents, comme le pomsky (issu du croisement du husky sibérien et du spitz nain), témoignent aujourd’hui d’une forte demande pour des animaux perçus comme originaux et attendrissants, mais qui sont surtout emblématiques d’un effet de mode.

Le choix de ces chiens relève moins d’une réflexion sur leurs besoins ou leur santé que d’une logique de distinction : on choisit un chien comme on choisirait une paire de chaussures, parce qu’il flatte l’ego de son propriétaire et signale une position sociale. Dénoncées depuis longtemps par les vétérinaires, qui constatent au quotidien les conséquences de la sélection de morphologies extrêmes, ces pratiques pourraient être freinées par la nouvelle réglementation européenne, en rappelant clairement que tout croisement n’est pas acceptable dès lors qu’il compromet la santé ou le bien-être des animaux concernés.

Prédire à quoi ressembleront les chiens du futur reste toutefois hasardeux. L’histoire montre que les avancées en matière de protection animale ne sont ni linéaires ni irréversibles. L’émergence d’idéologies brutales ou violentes pourrait très bien conduire à un recul de la prise en compte de la souffrance animale. L’interdiction des formes extrêmes révèle ainsi une tension ancienne entre la vanité des désirs humains parfois cruels et la nécessité d’établir des règles morales pour en limiter les effets – un débat aussi vieux que la philosophie elle-même.

Cette réflexion trouve un écho particulier dans certaines initiatives muséales récentes. L’exposition « Domestique-moi, si tu peux », présentée au Muséum de Toulouse (Haute-Garonne), propose ainsi de revisiter l’histoire longue de la domestication en montrant qu’il ne s’agit pas d’un phénomène « naturel » et qu’elle est façonnée par des choix humains parfois irrationnels. Elle met surtout en évidence la place centrale de la domestication dans la construction des cultures humaines, la sélection artificielle ayant pour objectif principal de rendre des organismes vivants – animaux comme végétaux – compatibles avec les modes de vie et les besoins humains.


L’exposition « Domestique-moi, si tu peux » retrace l’histoire des domestications animales et végétales et leurs conséquences sur la biodiversité. On peut la visiter jusqu’au 5 juillet 2026 au Muséum de Toulouse. L’historienne Valérie Chansigaud en est la commissaire scientifique.

The Conversation

Valérie Chansigaud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.02.2026 à 17:03

L’« IA edge », qu’est-ce que c’est et à quoi ça sert ?

Georgios Bouloukakis, Assistant Professor, University of Patras; Institut Mines-Télécom (IMT)
En déplaçant les capacités de calcul vers la périphérie des réseaux, l’edge computing et l’edge AI ouvrent la voie à une intelligence artificielle plus rapide, plus frugale et plus respectueuse de la vie privée.
Texte intégral (2419 mots)
Décentraliser les calculs comporte des avantages et de nombreux défis techniques. Kieran Woo/Unsplash, CC BY

Pour analyser les énormes volumes de données, notamment ceux générés par les nombreux capteurs qui peuplent désormais nos vies – du lave-vaisselle à la voiture, sans parler de nos téléphones –, on les envoie sur le cloud. Pour permettre des calculs plus rapides et plus sécurisés, l’edge computing se développe. Son pendant IA est l’edge AI (en anglais), une manière de faire de l’IA sans recourir au cloud. Explications d’un spécialiste.


Les capteurs nous accompagnent partout : dans les maisons, dans les bureaux, à l’hôpital, dans les systèmes de transport et à la ferme. Ils offrent la possibilité d’améliorer la sécurité publique et la qualité de vie.

L’« Internet des objets » (IoT en anglais, pour Internet of Things) inclut les capteurs de température et de qualité de l’air qui visent à améliorer le confort intérieur, les capteurs portables pour surveiller la santé, les lidars et les radars pour fluidifier le trafic ainsi que les détecteurs permettant une intervention rapide lors d’un incendie.

Ces dispositifs génèrent d’énormes volumes de données, qui sont utilisées pour entraîner des modèles d’intelligence artificielle. Ceux-ci apprennent un modèle de l’environnement opérationnel du capteur afin d’en améliorer les performances.

Par exemple, les données de connectivité provenant des points d’accès wifi ou des balises Bluetooth déployés dans les grands bâtiments peuvent être analysées à l’aide d’algorithmes d’IA afin d’identifier les modèles d’occupation et de mouvement à différentes périodes de l’année et pour différents types d’événements, en fonction du type de bâtiment (par exemple, bureau, hôpital ou université). Ces modèles peuvent ensuite être exploités pour optimiser le chauffage, la ventilation, les évacuations, etc.

Combiner l’Internet des objets et l’intelligence artificielle s’accompagne de défis techniques

L’ « intelligence artificielle des objets » (AIoT, en anglais) combine l’IA et l’IoT. Il s’agit de mieux optimiser et automatiser les systèmes interconnectés, et d’ouvrir la voie à une prise de décision intelligente. En effet, les systèmes AIoT s’appuient sur des données réelles, à grande échelle, pour améliorer la précision et la robustesse de leurs prédictions.

Mais pour tirer des informations des données collectées par les capteurs IoT, celles-ci doivent être collectées, traitées et gérées efficacement.

Pour ce faire, on utilise généralement des « plateformes cloud » (par exemple, Amazon Web Services, Google Cloud Platform, etc.), qui hébergent des modèles d’IA à forte intensité de calcul – notamment les modèles de fondations récents.

Que sont les modèles de fondation ?

  • Les modèles de fondation sont un type de modèles d’apprentissage automatique entraînés sur des données généralistes et conçus pour s’adapter à diverses tâches en aval. Ils englobent, sans s’y limiter, les grands modèles de langage (LLM), qui traitent principalement des données textuelles, mais aussi les modèles dits « multimodaux » qui peuvent travailler avec des images, de l’audio, de la vidéo et des données chronologiques.
  • En IA générative, les modèles de fondation servent de base à la génération de contenus (textes, images, audio ou code).
  • Contrairement aux systèmes d’IA conventionnels qui s’appuient sur des ensembles de données spécifiques à une tâche et sur un prétraitement approfondi, les modèles de fondation ont la capacité d’apprendre sur la base de peu ou pas d’exemples (on parle respectivement de « few-shot learning » et de « zero-shot learning »). Ceci leur permet de s’adapter à de nouvelles tâches et de nouveaux domaines avec un minimum de personnalisation.
  • Bien que les modèles de fondation en soient encore à leurs débuts, ils ont un grand potentiel de création de valeur pour les entreprises de tous les secteurs : leur essor marque donc un changement de paradigme dans le domaine de l’intelligence artificielle appliquée.

Les limites du cloud pour traiter les données de l’IoT

L’hébergement de systèmes lourds d’IA ou de modèles de fondation sur des plateformes cloud offre l’avantage de ressources informatiques abondantes, mais il présente également plusieurs limites.

En particulier, la transmission de grands volumes de données IoT vers le cloud peut augmenter considérablement les temps de réponse des applications AIoT, avec des délais allant de quelques centaines de millisecondes à plusieurs secondes selon les conditions du réseau et le volume de données.

De plus, le transfert de données vers le cloud, en particulier d’informations sensibles ou privées, soulève des questions de confidentialité. On considère généralement que l’idéal pour la confidentialité est de traiter localement les données, à proximité des utilisateurs finaux, pour limiter les transferts.

Par exemple, dans une maison intelligente, les données provenant des compteurs intelligents ou des commandes d’éclairage peuvent révéler des habitudes d’occupation ou permettre la localisation à l’intérieur (par exemple, détecter qu’Hélène est généralement dans la cuisine à 8 h 30 pour préparer le petit-déjeuner). Il est préférable que ces déductions se fassent à proximité de la source de données afin de minimiser les retards liés à la communication entre l’edge et le cloud, et afin de réduire l’exposition des informations privées sur les plateformes cloud tierces.


À lire aussi : Calculs sur le cloud : comment stocker et exploiter les données de façon sûre… et pas trop onéreuse


Qu’est-ce que l’« edge computing » et l’« edge AI » ?

Pour réduire la latence et améliorer la confidentialité des données, l’edge computing est une bonne option, car il fournit des ressources informatiques (c’est-à-dire des appareils dotés de capacités de mémoire et de traitement) plus proches des appareils IoT et des utilisateurs finaux, généralement dans le même bâtiment, sur des passerelles locales ou dans des microcentres de données à proximité.

Cependant, ces ressources dites « périphériques » (edge) sont nettement plus limitées en termes de puissance de traitement, de mémoire et de stockage que les plateformes cloud centralisées, ce qui pose des défis pour le déploiement de modèles d’IA complexes dans des environnements distribués.

Le domaine émergent de l’edge AI, particulièrement actif en Europe, cherche à y remédier pour une exécution efficace de tâches d’IA sur des ressources plus frugales.

L’une de ces méthodes est le split computing, qui partitionne les modèles d’apprentissage profond entre plusieurs nœuds au sein d’un même espace (par exemple, un bâtiment), ou même entre différents quartiers ou villes.

La complexité augmente encore avec l’intégration des modèles de fondation, qui rendent la conception et l’exécution des stratégies de split computing encore plus difficile.

Quels changements cela implique-t-il en termes de consommation d’énergie, de confidentialité et de vitesse ?

L’edge computing améliore considérablement les temps de réponse en traitant les données plus près des utilisateurs finaux, éliminant ainsi la nécessité de transmettre les informations à des centres de données cloud éloignés. Cette approche améliore également la confidentialité, en particulier avec l’avènement des techniques d’edge AI.

Par exemple, l’apprentissage fédéré permet de former des modèles d’apprentissage automatique directement sur des appareils locaux, voire directement sur de nouveaux appareils IoT. En effet, ceux-ci sont dotés de capacités de traitement, garantissant ainsi que les données brutes restent sur l’appareil tandis que seules les mises à jour des modèles d’IA sont transmises aux plateformes edge ou cloud, où ils peuvent être agrégés et passer la dernière phase d’entraînement.

La confidentialité est également préservée pendant l’inférence. En effet, une fois entraînés, les modèles d’IA peuvent être déployés sur les ressources de calcul distribuées (à l’edge), ce qui permet de traiter les données localement sans les exposer aux infrastructures du cloud.

C’est particulièrement utile pour les entreprises qui souhaitent exploiter les grands modèles de langage au sein de leurs infrastructures. Par exemple, ceux-ci peuvent être utilisés pour répondre à des requêtes sur l’état de fonctionnement des machines industrielles, la prévision des besoins de maintenance à partir des données des capteurs – des points qui utilisent des données sensibles et confidentielles. Le fait de conserver les requêtes et les réponses au sein de l’organisation permet de protéger les informations sensibles et de se conformer aux exigences en matière de confidentialité et de conformité.

Comment ça marche ?

Contrairement aux plateformes cloud matures, comme Amazon Web Services et Google Cloud, il n’existe actuellement aucune plateforme bien établie pour prendre en charge le déploiement à grande échelle d’applications et de services edge.

Cependant, les fournisseurs de télécommunications commencent à exploiter les ressources locales existantes sur les sites d’antennes afin d’offrir des capacités de calcul plus proches des utilisateurs finaux. La gestion de ces ressources distribuées reste difficile en raison de leur variabilité et de leur hétérogénéité, impliquant souvent de nombreux serveurs et appareils de faible capacité.

À mon avis, la complexité de la maintenance est un obstacle majeur au déploiement des services d’edge AI. Mais le domaine progresse rapidement, avec des pistes prometteuses pour améliorer l’utilisation et la gestion des ressources distribuées.

Allocation des ressources à travers le continuum IoT-Edge-Cloud pour des applications AIoT sûres et efficaces

Afin de permettre un déploiement fiable et efficace des systèmes AIoT dans les espaces intelligents (tels que les maisons, les bureaux, les industries et les hôpitaux), notre groupe de recherche, en collaboration avec des partenaires à travers l’Europe, développe un cadre basé sur l’IA dans le cadre du projet Horizon Europe PANDORA.

PANDORA fournit des modèles d’« IA en tant que service » (AIaaS) adaptés aux besoins des utilisateurs finaux (par exemple, latence, précision, consommation d’énergie). Ces modèles peuvent être entraînés soit au moment de la conception, soit au moment de l’exécution, à l’aide des données collectées à partir des appareils IoT déployés dans les espaces intelligents.

PANDORA offre aussi des ressources informatiques en tant que service (CaaS) sur l’ensemble du continuum IoT-Edge-Cloud afin de prendre en charge le déploiement des modèles d’IA. Le cadre gère le cycle de vie complet du modèle d’IA, garantissant un fonctionnement continu, robuste et axé sur les intentions des applications AIoT pour les utilisateurs finaux.

Au moment de l’exécution, les applications AIoT sont déployées de manière dynamique sur l’ensemble du continuum IoT-Edge-Cloud, en fonction de mesures de performance, telles que l’efficacité énergétique, la latence et la capacité de calcul. Le CaaS alloue intelligemment les charges de travail aux ressources au niveau le plus approprié (IoT-Edge-Cloud), maximisant ainsi l’utilisation des ressources. Les modèles sont sélectionnés en fonction des exigences spécifiques au domaine (par exemple, minimiser la consommation d’énergie ou réduire le temps d’inférence) et sont continuellement surveillés et mis à jour afin de maintenir des performances optimales.

The Conversation

This work has received funding from the European Union’s Horizon Europe research and innovation actions under grant agreement No. 101135775 (PANDORA) with a total budget of approximately €9 million and brings together 25 partners from multiple European countries, including IISC and UOFT from India and Canada.

24.02.2026 à 17:03

Les raisons de la mobilisation agricole en Europe expliquées par les agriculteurs eux-mêmes

Sophie Thoyer, Directrice de département Scientifique, Inrae
Pauline Lecole, Maitresse de conférence en économie et politiques agricoles, Montpellier SupAgro
Les protestations agricoles européennes ont souvent été réduites au rejet des normes environnementales. Une enquête auprès des agriculteurs mobilisés montre une image bien plus nuancée.
Texte intégral (2051 mots)

Depuis l’hiver 2024, les mobilisations agricoles ont été largement interprétées, au plan médiatique, comme un rejet massif des normes environnementales. Mais est-ce vraiment le cas ? Qu’en disent eux-mêmes les agriculteurs mobilisés ? Une vaste étude a recensé leurs réponses en France, en Allemagne, en Belgique et aux Pays-Bas. Elle livre une image bien plus nuancée en fonction des États, où le poids des normes environnementales n’est finalement qu’un enjeu secondaire. Celui-ci a pourtant été au cœur de la réponse politique.


Blocages d’autoroutes, convois de tracteurs vers les capitales, déversements de fumier devant les bâtiments publics… depuis l’hiver 2024, les agriculteurs européens se mobilisent de façon spectaculaire. Très visibles, ces mouvements restent pourtant mal compris. Entre cadrages médiatiques hâtifs et récupérations politiques, leurs revendications ont souvent été résumées à un rejet des normes environnementales. Mais est-ce réellement ce que disent les agriculteurs eux-mêmes ?

Pour répondre à cette question, nous avons récemment publié une étude qui s’est appuyée sur une vase enquête en ligne, menée entre avril et juillet 2024, auprès de plus de 2 200 agriculteurs ayant participé aux mobilisations en France, en Allemagne, en Belgique et aux Pays-Bas.

Plutôt qu’une liste fermée de griefs, nous avons préféré leur poser une question simple et surtout ouverte : « Pourquoi vous mobilisez-vous ? » Les agriculteurs ont ainsi pu répondre de façon anonyme et sous une forme libre : parfois en quelques mots, parfois en plusieurs paragraphes.


À lire aussi : Colère des agriculteurs : « Ce qui était cohérent et cohésif est devenu explosif »


Une pluralité de motivations

Cette méthode a permis d’éviter d’orienter les réponses et de saisir les motivations telles que formulées spontanément par les intéressés eux-mêmes. Les textes ont ensuite été analysés, dans leur langue d’origine, grâce à un grand modèle de langage (LLM), type d’outil relevant de l’intelligence artificielle (IA), pour identifier les principales revendications. Un codage manuel a ensuite permis, pour la France, de vérifier la cohérence de l’analyse faite par l’IA.

Nous avons ainsi pu identifier les grands thèmes récurrents, et ceci en limitant les biais d’interprétation. À la clé, une dizaine de catégories de motivations, que nous avons résumées dans le tableau ci-dessous :

Principales motivations de la colère des agriculteurs identifiées par l’étude. Fourni par l'auteur

En termes de codage, une réponse peut entrer dans plusieurs catégories de motivations à la fois. Par exemple, un exploitant français cultivant 175 hectares (ha) a indiqué en réponse à l’enquête :

« On nous fait marcher à la baguette, on nous pond des interdictions de partout qui nous compliquent [le] travail, alors que l’on travaille beaucoup à un tarif horaire de misère. »

Cette réponse a pu ainsi être classée à la fois dans les catégories « réglementation », « difficultés financières », « politiques publiques » et « conditions de travail ».

Des revendications différenciées en Europe

Contrairement à l’idée d’un mouvement unifié partout en Europe autour du rejet des normes environnementales et des insatisfactions liées au revenu, les motivations sont apparues comme fortement différenciées selon les pays.

Les raisons de mobilisation déclarées par les agriculteurs varient en fonction des pays. Fourni par l'auteur
  • En France et en Belgique, les difficultés financières dominent largement : plus d’un agriculteur sur deux évoque la faiblesse des revenus, la hausse des coûts des intrants et des prix jugés insuffisamment rémunérateurs.

  • En Allemagne, la première préoccupation concerne la charge administrative, citée dans plus de la moitié des réponses.

  • Aux Pays-Bas, les critiques visent plus directement l’inadéquation des réponses en terme de politiques publiques aux besoins et contraintes du monde agricole.

La dénonciation explicite des règles environnementales arrive loin derrière, sauf dans le cas de la Belgique. En France, elle n’est mentionnée que dans une faible proportion des réponses, bien en deçà des enjeux de revenu, de reconnaissance ou de concurrence.

Le mouvement de 2024 apparaît ainsi loin d’être homogène à l’échelle européenne, malgré les tentatives de certains acteurs syndicaux de porter un message unitaire.


À lire aussi : La FNSEA, syndicat radical ? Derrière le mal-être des agriculteurs, des tensions plus profondes


Un décalage entre les revendications et les réponses politiques

Nous avons ensuite comparé ces motivations aux mesures politiques adoptées entre fin 2023 et septembre 2024 aux niveaux national et européen.

Dans certains cas, les réponses publiques ont été en phase avec les préoccupations exprimées. En Allemagne, l’accent a été mis sur la simplification administrative, qui correspond à la principale revendication identifiée dans notre enquête. En France et en Belgique, plusieurs mesures ont visé à atténuer les difficultés de revenu, mais les moyens mis en œuvre sont restés limités.

En revanche, certaines thématiques ont reçu une attention politique disproportionnée au regard de leur poids réel dans les déclarations des agriculteurs. C’est notamment le cas des régulations environnementales.

Cela s’est traduit notamment dans le paquet simplification de la politique agricole commune (PAC) de mai 2024, qui a accordé des dérogations et des flexibilités supplémentaires à l’application des règles de conditionnalité dans les États membres.

Alors qu’elle n’arrivait qu’en septième position des préoccupations déclarées par les agriculteurs, la réduction des contraintes environnementales a été le troisième chantier législatif en Allemagne, en terme de nombre de mesures prises. Aux Pays-Bas, ce fut même le premier.

De la même manière en France, seuls 7 % des agriculteurs se sont exprimés explicitement pour critiquer le poids des normes environnementales. Pourtant, le gouvernement français a répondu par une suspension du plan Écophyto (destiné à réduire l’usage des pesticides) et par l’allègement des contrôles liés aux obligations environnementales.

Plus tard, une grande partie des débats sur le contenu de la loi d’orientation pour la souveraineté alimentaire et le renouvellement des générations en agriculture, finalement promulguée en mars 2025, et de la proposition de loi sur les contraintes à l’exercice du métier d’agriculteur (dite « loi Duplomb »), ont été extrêmement concentrés sur l’allègement des normes environnementales.


À lire aussi : Loi Duplomb et pesticides : comment la FNSEA a imposé ses revendications


Entre expression sociale et cadrage stratégique

Cette focalisation sur les normes environnementales interroge. Elle suggère que certaines revendications ont été amplifiées dans l’espace public, au croisement d’intérêts syndicaux, économiques et politiques. Comme dans tout mouvement social, les mots d’ordre qui circulent ne reflètent pas toujours l’ensemble des préoccupations individuelles.

Donner directement la parole aux agriculteurs ne permet pas seulement de nuancer le récit dominant : cela met en lumière la profondeur du malaise. Au-delà des normes ou des aides, beaucoup expriment un sentiment de déclassement, de perte de sens et d’absence de perspectives pour les générations futures.

Comprendre ces mobilisations suppose donc d’aller au-delà des slogans et de reconnaître leur diversité interne. Faute de quoi, les réponses politiques risquent de traiter seulement les symptômes stratégiquement mis en visibilité par les groupes d’influence plutôt que les causes structurelles du malaise agricole européen.


Solal Courtois-Thobois a participé à la réalisation de cet article.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

24.02.2026 à 17:02

Marx permet-il encore de penser notre monde ?

Jean-Numa Ducange, Professeur des Universités, Université de Rouen Normandie
Karl Marx est l’un des pères fondateurs des sciences sociales. Dans quelle mesure ses concepts et analyses sont-ils encore pertinents ?
Texte intégral (1599 mots)
Statue de Karl Marx à Chemnitz, rebaptisée Karl-Marx-Stadt de 1953 à 1990, (Saxe, Allemagne, 29 mai 2023). Neurobit

Le marxisme n’est plus en vogue chez les intellectuels depuis l’effondrement de l’URSS. Pourtant, Karl Marx demeure l’un des pères fondateurs des sciences sociales et l’un des rares auteurs à proposer une analyse globale du capitalisme de son temps. Aujourd’hui, le détricotage des États-providence et l’augmentation des inégalités nous conduisent à réinterroger la persistance d’une forme de lutte des classes.


Certes, aujourd’hui, le personnel politique parle beaucoup moins de Marx que dans les années 1960 et 1970. La lutte des classes, les contradictions de capitalisme qui se résorberaient par une révolution prolétarienne, tout cela semble daté. La dissolution de l’URSS qui prétendait incarner ses idées est aussi passée par là. Le philosophe allemand reste tout de même une référence incontournable pour la gauche française, du Parti socialiste jusqu’aux groupes révolutionnaires.

Certaines de ses idées sont souvent reprises par la médiation de la lecture qu’en faisait Jean Jaurès. Ce dernier, républicain, bien intégré dans les institutions de la IIIᵉ République et figure marquante de l’Assemblée nationale, considérait qu’il fallait se servir de la pensée de l’auteur du Capital pour l’emmener vers autre chose. Telle est la démarche qui est aujourd’hui celle de nombreux responsables politiques mais aussi celle de chercheurs et chercheuses.

Car, paradoxalement, la fin du soviétisme a eu l’effet inverse dans le monde universitaire. Sans doute a-t-elle permis de redécouvrir que marxisme ne rimait pas nécessairement avec stalinisme et que la pensée originelle est bien plus complexe que l’image que l’on en avait. Il est peu contesté dorénavant que, à côté d’Émile Durkheim, d’Adam Smith, de David Ricardo ou ce Max Weber, Karl Marx compte parmi les pères fondateurs des sciences sociales. Se plonger dans sa pensée n’est toutefois pas chose aisée. Ses écrits sont aujourd’hui assez difficiles à lire. Cela demande un certain volume de connaissances sur ce qu’était le XIXᵉ siècle pour comprendre le propos et maîtriser un lexique qui n’est plus très actuel.

Si on continue de s’y référer, c’est tout d’abord parce que Marx est un des rares à proposer une analyse assez complète et globalisante du capitalisme de son temps, le capitalisme britannique du XIXᵉ siècle. Sa pensée possède une puissance analytique spécifique car elle allie plusieurs composantes.

On retrouve tout d’abord une dimension philosophique, notamment lorsque, dans ses jeunes années, il développe le concept d’aliénation pour désigner le sentiment éprouvé par un travailleur dépossédé des fruits de son travail. Marx, c’est aussi, dans l’Idéologie allemande notamment, une manière de lire l’histoire que l’on nomme le « matérialisme historique ». Elle peut être selon lui comprise à partir des rapports sociaux de production, l’infrastructure sur laquelle repose tout le reste. La religion ou l’organisation de l’État peuvent, selon Marx, être expliquées à partir de la manière dont l’économie produit. Ces rapports sociaux deviennent parfois contradictoires, et c’est ainsi que l’Europe aurait évolué de l’esclavagisme vers le féodalisme et du féodalisme vers le capitalisme. Marx pense également comme un économiste dans le Capital et tente d’analyser la formation de la plus-value, l’évolution du taux de profit ou encore les conséquences de la mécanisation des usines sur la productivité.

Quand bien même on ne partage pas la pensée de Marx, le fait même d’étudier pareil cadre global reste inspirant. Marx essaie de penser le système capitaliste et de lui donner une cohérence qui, parfois même, on le soupçonne moins, est vue comme une force par l’auteur. On trouve des textes de Marx qui traduisent une forme d’admiration pour le capitalisme et sa force propulsive à l’époque.

Marx et son complice et mécène Engels ont certes perdu leur pari lancé en 1848 avec le Manifeste du parti communiste : que la prolétarisation d’une grande partie de la société, petits bourgeois et paysans notamment, mène à une opposition de plus en plus frontale entre deux classes sociales et finalement à une révolution. L’émergence de la classe moyenne au XXᵉ siècle est un phénomène qui ne peut pas exister dans le logiciel de Marx.

Le travail des enfants, la surexploitation, tout cela n’existe plus vraiment. Marx dit des choses intéressantes sur la politique, mais un certain nombre de processus n’étaient pas visibles à son époque : la professionnalisation du personnel politique, y compris à gauche, l’intégration du socialisme dans l’appareil d’État et la naissance d’un État social… Marx a sans doute sous-estimé la capacité du capitalisme à surmonter ses contradictions.

Malgré cela, la brutalité des rapports sociaux semble aujourd’hui de retour avec le détricotage des États-providence. On observe une concentration des richesses d’un côté de la société et une augmentation de la pauvreté de l’autre. L’idée de lutte des classes ne peut pas être pensée comme au XIXᵉ siècle, mais d’une certaine manière, elle correspond sans doute mieux à notre réalité qu’à celle des Trente Glorieuses, au moment pourtant de l’histoire où les partis politiques citaient le plus Marx. Sa pensée retrouve aussi une certaine actualité à travers cela. De même, la « perte de sens au travail » si souvent mentionnée sur LinkedIn et dans moult essais n’est pas si éloignée de la théorie de l’aliénation.

L’enjeu intellectuel de Marx était de lier la place de la bourgeoisie dans le système économique à ses objectifs politiques. Ce n’était pas faire de l’économie pour faire de l’économie. Cette attitude peut encore nous permettre de penser notre monde. Réserves de pétrole, intelligence artificielle, nouvelles technologies… Un marxiste aura le réflexe de se demander ce que ces enjeux économiques peuvent produire socialement et politiquement.

Le risque avec le marxisme est de rester nostalgique de logiques sociales anciennes, incarnées par exemple dans de grandes usines : évoluer vers de nouvelles lectures est un pari intellectuel intéressant et audacieux. Un autre est de se limiter à cette approche qui ne voit en l’individu qu’un membre d’une classe surdéterminée par des intérêts économiques. Cela reste fondamental, mais d’autres choses entrent en ligne de compte pour comprendre les actions des individus. Psychanalyse, sciences cognitives, autres approches de la rationalité… Marx, fervent défenseur de la science et qui saluait volontiers ses avancées, à l’instar des écrits de Charles Darwin, s’y serait très vraisemblablement intéressé également.



Cette contribution est publiée en partenariat avec le Printemps de l’Économie, cycle de conférences-débats qui se tiendront du 17 au 20 mars au Conseil économique social et environnemental (Cese) à Paris. Retrouvez ici le programme complet de l’édition 2026, intitulée « Le temps des rapports de force »

The Conversation

24.02.2026 à 17:02

« Cinquante nuances de blanc », ce que le défilé Dolce & Gabbana révèle vraiment des représentations dans la mode

Aurore Bardey, Professeur Associé en Marketing, Burgundy School of Business
La polémique née du défilé de la marque Dolce & Gabbana renvoie à la question du « bon corps » que l’on peut montrer. Au-delà des déclarations d’intention de l’industrie de la mode, le chemin à parcourir est encore long.
Texte intégral (1639 mots)

Il faut prendre ce que dit la publicité au sérieux. Surtout quand il s’agit de mode et de diversité. La récente polémique autour des « 50 nuances de blanc » du défilé d’une maison italienne n’est pas qu’une affaire de vêtements. Plus fondamentalement, elle dit aussi comment nous nous représentons collectivement. Et la place donnée à chacun.


En janvier 2026, le défilé masculin de Dolce & Gabbana à Milan a déclenché une polémique internationale. Sur les réseaux sociaux et dans les journaux, internautes et journalistes ont dénoncé un casting quasi exclusivement blanc, ironiquement rebaptisé « 50 nuances de blanc » (en référence à l’expression anglaise « 50 shades of white »).

Dans une industrie qui se veut le miroir de notre société, comment expliquer un tel paradoxe ? Et surtout, que révèle-t-il des conséquences psychologiques de l’absence de représentation de tous ces consommateurs ?

Ce que vend la publicité

La publicité ne vend pas seulement des produits (en l’espèce des vêtements) ; elle raconte une histoire. Elle dit à quoi ressemble le succès, le désir, la normalité. Elle dessine, souvent sans le dire, les contours de ce qui serait « « le beau ». De Marilyn Monroe à Margot Robbie, d’Alain Delon à Pedro Pascal, chaque époque a ses icônes. Des visages, des silhouettes, des corps érigés en modèles. Mais ces figures ne surgissent pas par hasard : elles reflètent les normes et les rapports de force d’une société donnée.

L’idéal de beauté n’est ni universel ni figé. Il est construit. Il évolue au fil du temps, sous l’influence de contextes culturels, historiques et sociaux. Aujourd’hui, dans les sociétés occidentales, la minceur, la jeunesse, la blancheur de la peau, restent largement valorisées. Les médias de mode jouent un rôle déterminant dans cette construction, en mettant en avant certaines morphologies, certaines carnations, certains types de cheveux ou de traits comme étant la norme désirable.

En étant continuellement reproduites, ces représentations partielles, fondées sur un idéal de beauté restreint et excluant, s’installent progressivement comme une norme perçue comme « normale ». Pourtant, elles ont un coût psychologique. Des recherches académiques montrent que l’exposition constante à des corps idéalisés fragilise l’image de soi, favorise l’insatisfaction corporelle et peut influencer les comportements alimentaires et leurs dérèglements.

Le coût de la non-reconnaissance

Ne pas se reconnaître dans ces représentations peut générer un sentiment d’écart, de manque, voire d’infériorité. Les réseaux sociaux amplifient encore cette dynamique. Ils transforment la comparaison en réflexe quotidien, multipliant les occasions de se mesurer à des images retouchées ou mises en scène. Et lorsque certains visages, certaines couleurs de peau ou certaines textures de cheveux sont absents, ce silence visuel envoie un message puissant. Les sociologues parlent d’annihilation symbolique : ne pas être représenté, c’est être rendu invisible.


À lire aussi : Mode : les consommateurs seniors encore loin de l’inclusion


Dans ce contexte, un défilé composé presque exclusivement de mannequins blancs ne relève pas seulement d’une direction artistique. Il s’inscrit dans une histoire longue de sous-représentation des minorités dans la mode. Et ce n’est pas uniquement une question d’image.

Visibilité ne signifie pas inclusion

Ces thèmes sont au cœur de nos travaux de recherche récemment publiés. Ces travaux se sont consacrés à la manière dont les consommateurs noirs perçoivent leur représentation dans la publicité de mode. Notre étude qualitative menée auprès de 19 consommateurs noirs en France et au Royaume-Uni montre un point central : la question n’est pas seulement qui apparaît dans la publicité, mais comment et pourquoi.

Les participants reconnaissent que la visibilité des personnes noires a augmenté ces dernières années. Pourtant, ils décrivent souvent cette présence comme superficielle :

  • recours à des célébrités pour « cocher une case » ;

  • modèles noirs relégués à des rôles secondaires ;

  • préférence pour des profils métissés ou conformes aux standards eurocentriques (personne noire avec des cheveux blonds et lisses par exemple).

Ce phénomène a été conceptualisé sous le terme de diversity-washing : une inclusion performative où des corps racisés servent de capital symbolique sans transformation structurelle. Cette logique peut être comprise à la lumière de la théorie de dominance sociale : même lorsque la diversité est affichée, les hiérarchies ethniques peuvent être reproduites par des formes d’inclusion conditionnelle.

De l’inclusion superficielle à l’exclusion visible

Le cas des « 50 nuances de blanc » représente l’autre versant du problème, en passant de l’inclusion superficielle à l’exclusion visible. Dans les deux cas, le message implicite est similaire : la « blanchité » reste la norme centrale.

Notre étude révèle des impacts profonds sur l’identité. Plusieurs participants décrivent avoir intériorisé des normes eurocentriques : ils évoquent le désir de lisser leurs cheveux, d’éclaircir leur peau, un sentiment d’infériorité ou de non-appartenance. À l’inverse, lorsque la représentation est perçue comme authentique, elle produit des effets positifs : affirmation identitaire, sentiment de reconnaissance, engagement accru envers la marque.

Au travers de nos travaux de recherche, nous proposons ainsi le concept de congruence conditionnelle : l’identification à un mannequin ou à une marque ne dépend pas uniquement de la similarité ethnique, mais de la perception d’authenticité, de respect et de cohérence entre le discours et les pratiques. Autrement dit, les consommateurs ne se contentent pas de voir : ils interprètent. Ils évaluent l’intention, la narration, la sincérité.

Un symptôme structurel

L’« affaire » Dolce & Gabbana ne doit pas être analysée comme un simple faux pas créatif. Elle révèle une tension structurelle entre :

  • une industrie mondialisée mais centrée sur des standards occidentaux ;

  • une communication inclusive, mais des pratiques parfois homogènes ;

  • une prise de conscience sociale accrue, notamment parmi les membres de la génération Z et les millennials.

Dans notre étude, les participants insistent sur un point : la représentation ne peut être réduite à l’image finale. Elle suppose une transformation du côté des coulisses avec une diversité des équipes créatives, des directions artistiques, des comités décisionnels. Sans cela, la diversité reste esthétique. Et son absence, comme dans ces « 50 nuances de blanc », devient un révélateur brutal des angles morts de l’industrie de la mode.

Arte 2025.

Une industrie vraiment inclusive

À partir de nos résultats, nous avons proposé un guide pratique pour une publicité de mode véritablement inclusive. Parmi les principes clés :

  • représenter des identités multidimensionnelles, non stéréotypées ;

  • intégrer la diversité intragroupe (teintes de peau, morphologies, styles) ;

  • garantir une cohérence entre message public et pratiques organisationnelles ;

  • associer les communautés concernées au processus créatif ;

  • inscrire l’inclusion dans une stratégie de long terme, et non dans une campagne ponctuelle.

Le débat suscité par les « 50 nuances de blanc » rappelle que la mode façonne l’imaginaire collectif. Elle dit qui est désirable, qui est central, qui est périphérique.

La question n’est donc pas seulement esthétique ou commerciale. Elle est profondément psychologique et éthique : quelles identités juge-t-on dignes d’être vues ? Et qui décide de cette visibilité ?

The Conversation

Aurore Bardey ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.02.2026 à 17:01

Fonction publique : ces doctorants qui aident les collectivités territoriales à innover

Christine Gautier Chovelon, Enseignante chercheure en sciences de l'éducation et de la formation - Affiliée au laboratoire de recherche LINE, Université Côte d’Azur
Alors que communes, départements et régions sont sommés d’innover, l’accueil de doctorants en sciences humaines permet de rapprocher recherche scientifique et expertise politique.
Texte intégral (1193 mots)

Alors que communes, départements et régions sont sommés d’innover, comment leur permettre de se nourrir d’expertise scientifique pour renouveler leurs modes de gouvernance ? L’accueil de doctorants en thèse Cifre introduit dans les administrations une autre culture de l’innovation et de l’évaluation. Mais cela redessine-t-il vraiment les profils des élites locales ?


Face à la complexité croissante des politiques publiques, et à des enjeux comme la transition écologique, l’inclusion sociale ou la participation citoyenne, les collectivités sont sommées d’innover. Mais avec quelles expertises ?

Depuis 2011, afin de produire justement des connaissances scientifiques directement utiles à la décision publique, les administrations territoriales sollicitent des doctorants en sciences humaines et sociales. Pour ce faire, elles s’appuient sur le dispositif Cifre (Convention industrielle de formation par la recherche), porté par l’Association nationale de la recherche et de la technologie (ANRT) et initialement conçu pour rapprocher recherche et entreprise.

Cette alliance est-elle fructueuse sur le plan de l’action publique ? Le recours à ces compétences fait-il évoluer la place du doctorat dans la société française ? Les résultats d’une enquête inédite présentée par l’ANRT en 2025 mettent en lumière une réalité contrastée : une contribution réelle à la transformation des pratiques, mais une reconnaissance encore fragile.

Une expertise stratégique mais inégalement valorisée

Les doctorants Cifre travaillent aujourd’hui sur des enjeux très concrets : adaptation au changement climatique, politiques éducatives, inclusion sociale, participation citoyenne, transformation organisationnelle. La production de savoirs n’est plus seulement universitaire : elle devient une ressource intégrée à la fabrique des politiques publiques.

Dans de nombreuses collectivités, la recherche se mue ainsi en levier d’aide à la décision. Elle introduit du recul dans des environnements dominés par l’urgence, structure les diagnostics et nourrit les stratégies à long terme. Elle contribue aussi à diffuser une culture de l’évaluation, en cohérence avec les recommandations de France Stratégie ou les travaux de l’OCDE sur l’innovation publique.

Face à des problèmes publics complexes, cette fonction analytique est précieuse. Les doctorants apportent méthodes d’enquête, analyses comparatives et capacité à documenter les décisions. Ils introduisent aussi du recul et de la rigueur pour nourrir les stratégies à long terme dans un environnement où l’urgence et les logiques politiques dominent.

Pourtant, la reconnaissance de ces compétences reste inégale. Dans certaines collectivités, la recherche est perçue comme un appui ponctuel plutôt qu’un levier structurant. L’intégration durable des docteurs après la thèse demeure incertaine, et leur contribution est parfois minimisée face aux contraintes politiques ou bureaucratiques.

À l’interface de la science et de l’administration

La singularité des doctorants Cifre réside dans leur position hybride, à la fois chercheurs et salariés de la collectivité. Ils participent aux projets opérationnels tout en produisant des connaissances scientifiques. Concrètement, ils organisent des ateliers participatifs, élaborent des diagnostics territoriaux, conçoivent des outils d’aide à la décision ou accompagnent des réorganisations internes.

Cette double appartenance leur permet de naviguer entre services, directions générales, élus et partenaires. Ils décloisonnent des espaces fragmentés et favorisent des approches intégrées, croisant dimensions sociales, environnementales et organisationnelles. Dans certains cas, ils deviennent de véritables médiateurs entre savoir scientifique et décision politique, légitimant les stratégies de la collectivité tout en influençant les choix.

Mais cette hybridité crée aussi des tensions. Les doctorants se trouvent à l’interface de deux mondes historiquement distincts : élites administratives et élites scientifiques. Leur présence interroge les hiérarchies établies et les modes de reconnaissance professionnelle. Elle soulève également des enjeux politiques : quel poids donner à l’expertise scientifique face à la décision politique ?


À lire aussi : Le coronavirus est-il moral ? Savant et politique face à la pandémie


L’impact des doctorants se manifeste souvent sous la forme d’« innovations ordinaires » : amélioration des coopérations internes, structuration de démarches participatives, diffusion d’une culture scientifique. Mais derrière cette modestie apparente se joue une recomposition subtile des rapports de pouvoir. En structurant l’information et en introduisant des méthodes d’analyse rigoureuse, les doctorants influencent la manière dont les décisions sont prises, même dans un cadre politique contraint.

Lorsque ces profils sont rattachés à des directions générales ou stratégiques, leur légitimité est renforcée et leur contribution devient plus visible. Ils participent à la montée en compétence des collectivités, introduisant une culture de l’évaluation et de la documentation. Pourtant, leur rôle est souvent perçu comme temporaire, et la reconnaissance institutionnelle et politique demeure fragile.

Vers une recomposition des élites locales

L’arrivée des doctorants dans les collectivités révèle une transformation plus profonde : l’émergence progressive d’une élite scientifique intégrée à l’action publique locale. Ces profils développent des compétences rares : analyse des politiques publiques, compréhension fine des territoires, capacité de médiation entre savoir et décision. Ils incarnent une figure professionnelle nouvelle, à la croisée de la recherche et de l’administration, capable de renouveler les pratiques et les modes de gouvernance. Ils deviennent des acteurs politiques à part entière, orientant les priorités et modifiant subtilement la distribution du pouvoir au sein des administrations.

Reste une question décisive : les collectivités sont-elles prêtes à faire de la recherche un levier durable de formation et de renouvellement de leurs élites ? Car si ces doctorants contribuent déjà à transformer les pratiques publiques, il s’agit de dépasser la logique ponctuelle du contrat Cifre, où l’expertise scientifique devient un élément reconnu de l’architecture politique locale.

Les doctorants en collectivités représentent une innovation à la fois organisationnelle et politique. Leur intégration durable pourrait renforcer la légitimité des décisions, recomposer les rapports de pouvoir et faire de la recherche un levier de professionnalisation et de renouvellement des administrations territoriales.

The Conversation

Christine Gautier Chovelon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.02.2026 à 17:00

L’Australie : puissance régionale, dépendance globale ?

Pierre-Christophe Pantz, Enseignant vacataire et chercheur associé à l'Université de la Nouvelle-Calédonie (UNC), Université de la Nouvelle-Calédonie
Gilles Pestana, Maître de conférences en géographie et aménagement, Université de la Nouvelle-Calédonie
La mise en œuvre de l’accord par lequel Washington doit fournir des sous-marins nucléaires à l’Australie prend du retard, incitant Canberra à chercher des partenaires sécuritaires dans sa région.
Texte intégral (1739 mots)

Il y a cinq ans, l’Australie dénonçait l’« accord du siècle » qu’elle avait signé avec la France sur la livraison de 12 sous-marins traditionnels, optant à la place pour une alliance avec les États-Unis et le Royaume-Uni – AUKUS – devant lui permettre de recevoir des sous-marins nucléaires fournis par Washington. Ce projet prend déjà du retard. Sans sortir d’AUKUS, Canberra se rapproche d’autres pays de l’Indo-Pacifique pour renforcer sa défense dans un contexte sur lequel plane toujours le risque de la déflagration que constituerait une invasion de Taïwan par la Chine.


Les doutes formulés fin janvier par le Congressional Research Service (CRS) sur la capacité des États-Unis à livrer des sous-marins à l’Australie ravivent le sentiment de vulnérabilité stratégique de Canberra.

Alors que la rivalité s’intensifie dans l’Indo-Pacifique, l’Australie renforce ses partenariats de sécurité dans son voisinage immédiat, comme en témoignent les récents accords conclus avec la Papouasie-Nouvelle-Guinée (2025) et l’Indonésie (2026) dans une tentative de limiter sa dépendance à l’égard de Washington et de renforcer sa marge d’autonomie stratégique.

AUKUS : une stratégie finalement incertaine pour l’Australie

L’alliance AUKUS, pacte de sécurité tripartite signé en 2021 entre l’Australie, le Royaume-Uni et les États-Unis, a marqué un tournant pour la défense australienne. Par ce partenariat, Canberra rompait le « contrat du siècle » précédemment signé avec la France, qui prévoyait la livraison par Paris de douze sous-marins conventionnels, pour se tourner vers une flotte à propulsion nucléaire de conception américaine. Le pilier n°1 de cette alliance, le « transfert de sous-marins nucléaires », devait moderniser la flotte australienne et garantir l’accès aux technologies avancées.

Près de cinq ans après la signature, la mise en œuvre accuse des retards importants et des coûts croissants. Aucun sous-marin australien de nouvelle génération ne sera probablement opérationnel avant le début des années 2040, ce qui place l’Australie dans une situation de dépendance et de vulnérabilité stratégique. Plusieurs experts expriment leur scepticisme quant à la capacité des États-Unis à respecter leurs engagements de livraison.

Ces incertitudes se sont aggravées depuis 2025 avec le retour à la présidence de Donald Trump et de sa doctrine America First, qui tend à concevoir les alliances sous un angle plus transactionnel, évaluées à l’aune des intérêts immédiats et révisés des États-Unis. En effet, lors de la visite du premier ministre Anthony Albanese à la Maison Blanche en octobre 2025, les discussions sur AUKUS avaient été largement éclipsées par un accord sur les terres rares australiennes, prioritaire pour Washington face aux initiatives chinoises en la matière.

Trump a néanmoins tenté de rassurer Canberra sur la livraison des sous-marins, promettant le respect des engagements du « pilier 1 », mais ces assurances apparaissent en partie intéressées, s’inscrivant avant tout dans le contexte du traité sur les terres rares. Dans ce contexte, et comme le confirme la récente National Security Strategy publiée par la Maison Blanche, le Pacifique Sud semble relégué au second plan dans les priorités américaines, ce qui nourrit les interrogations australiennes quant à la solidité de l’engagement de Washington.

Les inquiétudes australiennes se trouvent renforcées par un rapport du CRS publié en janvier 2026. Le document souligne que les sous-marins promis pourraient rester sous commandement américain tout en opérant depuis des bases australiennes, les États-Unis souhaitant conserver le contrôle de ces appareils en vue d’un hypothétique conflit avec la Chine au sujet de Taïwan. Expression du rapport, cette « division du travail militaire » confirmerait que l’Australie pourrait rester un simple relais stratégique sans pleine autonomie opérationnelle. Bien que le CRS n’engage pas la position officielle de l’administration américaine, ce rapport renforce les doutes sur la fiabilité de l’alliance.

Renforcer l’influence régionale pour sécuriser son voisinage

Face à ce contexte incertain et les avancées de la présence chinoise dans le Pacifique – notamment à travers les Nouvelles Routes de la soie – l’Australie mène une contre-offensive diplomatique et sécuritaire destinée à préserver ce qui relève, de son point de vue, de sa sphère d’influence.

Ces toutes dernières années, Canberra a ainsi consolidé un réseau d’accords sécuritaires avec plusieurs États du Pacifique, à l’image du traité Falepili signé avec Tuvalu en 2023 ou de l’accord bilatéral conclu avec Nauru en 2024. Cette stratégie de verrouillage vise, sans les nommer, à limiter les ingérences chinoises et à réaffirmer l’influence australienne dans son environnement régional. Cette évolution traduit une évolution notable de la culture stratégique australienne, longtemps marquée par une dépendance assumée au parapluie américain.

Dans cette continuité, le traité Pukpuk signé avec la Papouasie-Nouvelle-Guinée (octobre 2025) et l’accord, encore plus récent, conclu avec l’Indonésie (février 2026) constituent deux accords sécuritaires majeurs, scellés à quelques mois d’intervalle, révélant une priorité stratégique désormais assumée : faire du voisinage septentrional un glacis destiné à tenir la rivalité sino-occidentale à distance du sanctuaire australien.

Ces dispositifs associent coopération militaire, intégration des forces et structuration d’un réseau régional destiné à sécuriser ses « marches » mélanésiennes et au-delà. Ils s’inscrivent dans un espace où d’autres acteurs conservent également des intérêts structurants, au premier rang desquels la France, présente en Nouvelle-Calédonie, dont la permanence stratégique contribue, elle aussi, à la configuration sécuritaire du Pacifique insulaire.

Toutefois, derrière le discours de partenariat « d’égal à égal », ils traduisent aussi un équilibre délicat entre protection et contrôle : pour les États insulaires du Pacifique, qui ne peuvent que constater la persistance d’une asymétrie de puissance, ces dispositifs constituent une garantie de sécurité face aux pressions chinoises, tout en ravivant le risque de dépendance à l’égard de l’Australie.

Le paradoxe d’une puissance moyenne : leadership régional sous dépendance américaine

À ce jour, une rupture avec l’AUKUS demeure toutefois très improbable tant les interdépendances militaires et technologiques sont profondes. Pourtant, les incertitudes entourant l’exécution du traité rappellent que les priorités de Washington peuvent évoluer au risque de cantonner Canberra à un rôle de « partenaire subordonné ».

À ce titre, si l’Australie ne cherche pas une autonomie stratégique complète vis-à-vis des États-Unis, elle s’efforce en revanche de compenser cette dépendance par sa capacité à regagner une influence régionale érodée par les initiatives de Pékin. En effet, en consolidant son ancrage (diplomatique, politique, sécuritaire, économique) dans le Pacifique, elle ambitionne moins de s’émanciper des États-Unis que de devenir un acteur régional incontournable capable de concurrencer et de contenir l’influence spectaculaire et multiforme de la Chine.

Cette posture reflète la condition classique d’une puissance moyenne : assez influente pour structurer son environnement immédiat, mais trop dépendante pour s’affranchir des rapports de force imposés par les grandes puissances, en l’occurrence chinoise et américaine. Canberra se trouve par ailleurs dans un exercice d’équilibriste : contenir la Chine tout en préservant avec elle une relation économique et commerciale essentielle et, dans le même temps, affirmer son leadership sans apparaître comme un simple relais de la nouvelle stratégie américaine de l’administration Trump.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

24.02.2026 à 17:00

L’audition des Clinton peut-elle faire basculer l’affaire Epstein ?

Frédérique Sandretto, Adjunct assistant professor, Sciences Po
Après avoir longtemps refusé de témoigner devant la commission enquêtant sur l'affaire Epstein, les Clinton ont changé de stratégie. Leur audience est attendue par tout un pays, et même au-delà.
Texte intégral (1994 mots)

L’ancien président des États-Unis (1993-2001) et son épouse, ancienne secrétaire d’État (2009-2013) et candidate démocrate à la présidence en 2016, vont témoigner devant la Chambre des représentants dans le cadre de la commission d’enquête sur Jeffrey Epstein. Une audience choc qui pourrait se dérouler selon plusieurs scénarios différents.


Les auditions de Bill et Hillary Clinton devant la commission d’enquête de la Chambre des représentants sur l’affaire Epstein, les 26 et 27 février prochain, s’annoncent comme un moment politique et médiatique majeur aux États-Unis. Jeffrey Epstein, financier déchu condamné pour infractions sexuelles, est au cœur d’un vaste scandale mêlant exploitation de mineures, réseaux d’influence et complaisances au sommet de l’État, qui continue de produire des répliques bien après sa mort en détention en 2019.

Bill Clinton a effectué plusieurs vols à bord du jet privé d’Epstein et la publication de photos le montrant aux côtés de Ghislaine Maxwell a nourri soupçons et théories, faisant de son nom l’un des plus scrutés dans ce dossier. Hillary est, elle, convoquée car elle doit préciser ce qu’elle sait des relations entre son mari et Epstein.

Pourquoi les Clinton ont-ils fini par accepter de témoigner ?

Pendant des mois, le couple Clinton a opposé une résistance frontale à la commission de contrôle de la Chambre, arguant que les convocations étaient juridiquement contestables et politiquement motivées.

Rappelons que la « commission sur l’affaire Epstein » n’est pas une institution permanente ; elle a été créée spécialement pour le dossier Epstein. Il s’agit d’une enquête conduite par des commissions existantes, principalement la commission de contrôle (Oversight), qui disposent du pouvoir d’assigner des témoins et d’organiser des auditions.

Les Clinton estiment que la commission de la Chambre des représentants chargée d’enquêter sur l’affaire Epstein leur est hostile parce qu’elle est contrôlée par la majorité républicaine, politiquement opposée à leur camp, notamment sous la présidence du républicain James Comer, à la tête de la House Committee on Oversight and Accountability. Ils dénoncent une focalisation jugée excessive sur les relations passées entre Bill Clinton et Jeffrey Epstein, estimant que d’autres personnalités liées à Epstein ne font pas l’objet de la même attention, ce qui selon eux révèle un ciblage politique.

Ils critiquent également des méthodes d’enquête qu’ils jugent agressives, comme les assignations à comparaître, les auditions sous serment à huis clos et la menace de poursuites pour entrave en cas de refus de coopérer, considérant que ces procédés suggèrent une présomption de culpabilité. Enfin, ils affirment que la convocation de Hillary Clinton s’inscrit dans un contexte de polarisation politique intense aux États-Unis, où certaines commissions parlementaires sont utilisées pour affaiblir des adversaires médiatiquement, alors même qu’elle n’est pas inculpée dans cette affaire et qu’elle est entendue comme témoin.

Le ton des échanges s’est durci jusqu’à la menace explicite d’un vote pour outrage au Congrès, signe que le bras de fer dépassait le simple cadre procédural. Sous cette pression, Bill et Hillary Clinton ont finalement accepté de témoigner dans des dépositions distinctes mais coordonnées, transformant un affrontement institutionnel en événement national.

Ce basculement s’explique aussi par la déclassification progressive des dossiers Epstein par le département de la Justice. Des dizaines de milliers de pages mêlant dossiers judiciaires, relevés bancaires, photographies et notes internes ont été rendues publiques, sous forme partiellement caviardée pour protéger les victimes. Cette mise à nu d’un système de prédation et de connivences a intensifié la demande de transparence. Chaque publication a relancé spéculations et appels à rendre des comptes. Dans ce contexte, le refus persistant des Clinton de se présenter à une audition devenait politiquement intenable. Lors d’un vote au Congrès lié à leur refus initial de témoigner, plusieurs élus démocrates ont voté avec les républicains pour les sanctionner pour outrage au Congrès, affirmant privilégier la responsabilité et la justice pour les victimes plutôt que la loyauté partisane.

La déclassification a fourni à la commission des éléments documentaires et créé un climat où l’absence des témoins les plus exposés devenait toxique sur le plan politique.

Une audience ouverte

Au-delà du cas Epstein, la convocation d’un ancien président et d’une ancienne secrétaire d’État soulève une question historique. Des présidents ont déjà été confrontés à des enquêtes lourdes ou à des procédures de destitution, mais voir un ex-président appelé comme témoin dans une commission parlementaire focalisée sur un scandale d’abus sexuels et de compromission d’élites constitue une situation quasi inédite par sa charge symbolique. La combinaison d’un ancien couple présidentiel, d’une affaire criminelle devenue symbole de l’impunité des puissants et d’un climat politique polarisé confère à cette audition une dimension exceptionnelle.

Initialement, les discussions sur les modalités du témoignage relevaient d’une gestion classique des risques : huis clos, temps de parole encadré, protocole strict pour limiter les fuites. Les avocats des Clinton plaidaient pour une audition technique et non spectaculaire. La stratégie a toutefois connu une rupture lorsque Hillary Clinton a demandé publiquement que l’audience soit ouverte et retransmise. Ce choix vise à renverser l’accusation d’opacité et à empêcher la diffusion d’extraits partiels susceptibles d’être instrumentalisés. L’audition devient ainsi une scène politique autant qu’un exercice de reddition de comptes.

Cette revendication de transparence répond à la crainte d’une instrumentalisation partisane. Hillary Clinton cherche à apparaître comme une témoin volontaire, exposée à la lumière pour éviter toute manipulation. En rendant la séance publique, elle oblige ses interrogateurs à assumer leurs questions devant l’opinion et tente de déplacer l’attention vers les défaillances institutionnelles qui ont permis à Epstein d’agir. Elle ambitionne ainsi de transformer une position défensive en posture offensive, en se plaçant du côté des victimes et de la vérité.

Au cœur de cette stratégie figure la promesse de révélations importantes sur la manière dont l’État et certaines élites ont géré le cas Epstein. Hillary Clinton a évoqué des documents accablants et des défaillances systémiques, laissant entendre que le scandale dépasse la question des relations personnelles pour toucher à des choix institutionnels et à des signaux d’alerte ignorés. La question demeure de savoir jusqu’où elle est prête à aller dans la mise en cause d’un système dont elle a elle-même fait partie.

L’audition autour de l’affaire Epstein pourrait se dérouler selon quatre scénarios clés, chacun susceptible de produire un impact concret sur la perception publique et l’évolution judiciaire du dossier.

Quatre scénarios

Le premier scénario reste celui du choc maîtrisé. Les Clinton pourraient reconnaître certaines relations sociales ou financières jugées aujourd’hui discutables, tout en niant toute connaissance des crimes d’Epstein. Dans ce cadre, l’audition se transformerait en un exercice de clarification : le public et les enquêteurs obtiendraient quelques confirmations sur les fréquentations et les rendez-vous, mais aucune révélation explosive ne viendrait bouleverser les positions déjà établies. L’effet immédiat serait limité : la couverture médiatique serait intense mais essentiellement centrée sur les contradictions mineures ou sur la perception de sincérité des Clinton.

Le second scénario plausible serait celui de la mise en cause institutionnelle. L’audition pourrait révéler que certains manquements au sein des agences fédérales, des forces de l’ordre ou des structures judiciaires ont permis à Epstein de continuer ses activités sans véritable sanction. Ce scénario élargirait l’enquête au-delà des Clinton, mettant sous pression d’autres responsables politiques ou financiers et déclenchant des appels à des réformes structurelles. Les documents et témoignages mis en avant pourraient révéler un système de protection indirecte ou de négligence, redessinant la compréhension publique des défaillances institutionnelles.

Un troisième scénario envisageable serait l’audition comme affrontement politique. Dans ce cas, chaque camp chercherait à instrumentaliser les déclarations pour déstabiliser l’adversaire, transformant le moment judiciaire en bataille idéologique. Les Clinton, mais aussi leurs opposants, pourraient chercher à utiliser chaque mot à des fins de communication politique, détournant l’attention du cœur du dossier. Ce scénario risquerait de brouiller le récit central de l’affaire, mais pourrait aussi révéler des stratégies de manipulation et d’influence autour du scandale.

Enfin, un scénario complémentaire mais non négligeable serait celui de révélations inédites ou confirmations de défaillances systémiques. L’audition pourrait mettre au jour des documents jusque-là confidentiels ou des témoignages de victimes, donnant une dimension criminelle renouvelée au dossier. Dans ce cas, l’affaire Epstein ne se limiterait plus à un scandale médiatique ou à une controverse politique : elle deviendrait le symbole d’un échec généralisé des institutions à protéger les victimes et à sanctionner les auteurs.

Un grand moment de vérité ?

Dans tous ces scénarios, le point commun est la mise en lumière de la fragilité d’un système où le pouvoir et le réseau social peuvent, dans certains cas, prévaloir sur la justice. L’audition des Clinton, qu’elle soit prudente ou révélatrice, pourrait donc devenir un moment de vérité national : elle a le potentiel de transformer le scandale Epstein d’affaire privée en affaire systémique, exposant non seulement les acteurs directs mais aussi les complicités et défaillances qui ont permis à ces crimes de perdurer.

Dans la presse, cette audience sera scrutée comme un révélateur du fonctionnement réel du pouvoir, un moment où les lignes partisanes pourraient s’effacer devant l’urgence de la transparence et de la vérité judiciaire.

The Conversation

Frédérique Sandretto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.02.2026 à 16:59

Le Mexique à feu et à sang après l’élimination par l’armée d’un baron de la drogue

Raul Zepeda Gil, Research Fellow in the War Studies Department, King's College London
La pratique consistant à éliminer physiquement des parrains de la drogue n’a jamais abouti à une baisse durable du trafic. En revanche, elle expose le pays à une flambée de violence.
Texte intégral (1660 mots)

« El Mencho », chef d’un puissant cartel, a été abattu pendant une opération militaire le 22 février. Immédiatement, son organisation a semé la terreur dans de nombreux États du pays. On dénombre déjà plusieurs dizaines de morts. Ce type d’épisode intervient fréquemment, notamment sous la pression de Washington, qui exige des autorités mexicaines qu’elles s’en prennent aux trafiquants locaux, dont la production est en large partie destinée aux États-Unis. Mais l’efficacité des éliminations physiques des parrains reste à démontrer.


Le chef du cartel Jalisco New Generation (CJNG), Nemesio Oseguera Cervantes, plus connu sous le nom d’« El Mencho », a succombé à ses blessures le 22 février, peu après avoir été capturé par les autorités mexicaines dans l’État de Jalisco (ouest du pays) pendant une opération au cours de laquelle il avait été touché par des tirs. Cette opération, qui s’est déroulée sur fond d’exigences états-uniennes quant à des « résultats tangibles » du Mexique dans la lutte contre le trafic de fentanyl, semble avoir bénéficié du soutien des services de renseignement de Washington.

Il s’agit de l’intervention la plus importante des forces de l’ordre mexicaines contre les cartels depuis la capture de l’ancien baron de la drogue Joaquín « El Chapo » Guzmán en 2016. Le CJNG est l’une des organisations criminelles les plus puissantes du Mexique et est accusé par les États-Unis, de même que le cartel de Sinaloa, de jouer un rôle clé en matière de production et de trafic de fentanyl.

Éliminer des individus n’entraîne pas la disparition ni même l’amoindrissement du marché de la drogue

L’élimination d’« El Mencho » a peut-être permis aux autorités mexicaines de remporter une victoire politique auprès de Washington. Mais le pays paie déjà un tribut élevé pour cette opération. Lorsque l’État mexicain élimine une figure importante d’un cartel, s’ensuit souvent une longue période de violence et d’instabilité. Dès l’annonce du décès du trafiquant, une vague de violences commises par ses hommes a balayé le pays.

Dans mes recherches sur les conflits criminels dans la région de Tierra Caliente, dans l’ouest du Mexique, je retrace la façon dont les premières vagues d’arrestations et d’éliminations par l’État ont remodelé les groupes criminels locaux, brisé des alliances et ouvert la voie à de nouveaux acteurs et dirigeants. C’est grâce à ce cycle de répression étatique et de réorganisation des cartels qu’El Mencho s’est fait connaître.

El Mencho a démarré dans sa carrière de criminel en tant que membre opérationnel lié au cartel Valencia, une organisation basée dans l’État de Michoacán. Le groupe a perdu du terrain à la fin des années 2000 sous la pression soutenue des autorités. Après le démantèlement des éléments clés du réseau Valencia vers 2010, El Mencho et d’autres membres restants du groupe se sont déplacés vers Jalisco, plus au nord, et ont fondé le CJNG.

Les conditions qui ont permis l’ascension du CJNG proviennent du même répertoire de mesures répressives que les autorités déploient aujourd’hui contre lui. Ce schéma est important, car il remet en cause une hypothèse courante parmi les décideurs politiques, y compris au sein d’agences états-uniennes telles que la Drug Enforcement Administration, selon laquelle éliminer un « chef » équivaut à démanteler un marché criminel.

En réalité, l’élimination des parrains mexicains n’entraîne pas la disparition du marché de la drogue, ni celle des routes de trafic. Ce qui change, c’est l’équilibre des pouvoirs entre les groupes qui se disputent le territoire, la main-d’œuvre et l’accès aux ports, aux routes et aux autorités locales.

Des études de la stratégie dite « kingpin », qui consiste pour les forces de l’ordre à cibler délibérément les chefs de cartels, ont montré que les arrestations et les éliminations entraînent souvent une augmentation à court terme des homicides et de l’instabilité au Mexique. Certaines études suggèrent que la violence augmente pendant plusieurs mois après l’élimination d’un chef, tandis que d’autres recherches montrent que l’assassinat d’un parrain peut provoquer une augmentation des violences plus forte qu’une arrestation.

Cela s’explique par le fait qu’un cartel touché est confronté à une succession soudaine et recourt à la violence pour empêcher – ou contrer – ses rivaux qui testent la nouvelle direction et tentent de renégocier les zones de contrôle. Les groupes criminels ne pouvant pas recourir au système judiciaire officiel pour résoudre leurs différends, ils ont tendance à le faire par le biais de violences ouvertes ou de négociations imposées par la force.

Cette logique se manifeste une nouvelle fois après la mort d’El Mencho. Les rapports faisant état de membres armés du cartel bloquant les routes, commettant des incendies criminels et semant le chaos dans plusieurs États correspondent à un scénario familier : une organisation touchée signale que sa capacité demeure intacte, punit l’État et avertit ses rivaux locaux qu’ils n’ont pas intérêt à chercher à profiter de la situation.

Même si l’État parvient à contenir cette vague de violence, le risque le plus grave réside dans ce qui suivra. Un vide au niveau du leadership favorise les divisions internes et l’opportunisme externe de la part de rivaux qui attendaient une occasion pour tester les limites et régler leurs comptes.

Par exemple, en 2024, l’arrestation du chef du cartel de Sinaloa, Ismael « El Mayo » Zambada, a provoqué une vague de violence dans l’État de Sinaloa, les différentes factions de l’organisation se disputant le pouvoir.

La politique de lutte contre la drogue des États-Unis

Un autre cycle qui se répète sans cesse en Amérique latine : la politique états-unienne en matière de drogues façonne les programmes de sécurité dans toute la région. Une augmentation du nombre de décès par overdose aux États-Unis, par exemple, peut y provoquer une panique politique et inciter Washington à faire pression sur les gouvernements latino-américains pour qu’ils prennent des mesures, généralement par le biais d’une répression militarisée.

Ces gouvernements réagissent par des mesures répressives, des raids et des arrestations très médiatisées. S’ensuit alors une recrudescence de la violence à mesure que les organisations criminelles se fragmentent ; puis, après un certain temps, les gouvernements tentent de désamorcer la situation. Le cycle recommence un peu plus tard, lorsque les États-Unis placent de nouveau le trafic de drogue en tête de leurs priorités.

L’interdiction des drogues perpétue ce cycle en excluant toute réponse autre que la force ou le droit pénal, sans pour autant produire de résultats significatifs. La plupart des pays ont criminalisé les drogues. Mais malgré les rapports des gouvernements faisant état d’une augmentation des saisies de drogues chaque année, les décès liés à la consommation de drogues dans le monde continuent d’augmenter.

Mêmes causes, mêmes effets

Les forces de sécurité mexicaines ne peuvent mettre fin à un marché transnational largement financé par la demande états-unienne, quel que soit le nombre d’arrestations spectaculaires qu’elles effectuent. Les opérations qui aboutissent à l’élimination ou à la détention de figures importantes des cartels ne font que rediriger et réorganiser le trafic de drogue, tout en intensifiant souvent la violence.

Si le Mexique et les États-Unis veulent réduire le nombre de décès liés aux cartels, ils doivent cesser de considérer l’élimination des barons de la drogue comme le principal indicateur de réussite. Si une opération très médiatisée satisfait temporairement Washington, ce sont les citoyens mexicains qui doivent trop souvent en subir les conséquences.

The Conversation

Raul Zepeda Gil ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.02.2026 à 16:59

Nouveaux médicaments antiobésité : l’arrêt des injections entraîne une reprise de poids beaucoup plus rapide que prévu

Sam West, Postdoctoral Researcher, Primary Care Health Sciences, University of Oxford
Dimitrios Koutoukidis, Senior Researcher, Behavioural Science, University of Oxford
Susan Jebb, Professor of Diet and Population Health, University of Oxford
Les nouveaux médicaments antiobésité par injections comme Wegovy et Mounjaro montrent une certaine efficacité pour maigrir. Mais en cas d’arrêt du traitement, la reprise de poids est rapide.
Texte intégral (2046 mots)
Les médicaments antiobésité par injections sont disponibles exclusivement sur prescription médicale mais doivent être payés par les patients, sans prise en charge par l’Assurance-maladie. martenaba/Shutterstock.com

Les nouveaux médicaments antiobésité par injections, comme Wegovy ou Mounjaro, montrent une certaine efficacité pour maigrir. Mais en cas d’arrêt du traitement, la reprise de poids est rapide. C’est ce que montre une étude récente publiée dans le British Medical Journal. Les chercheurs britanniques interrogent le rapport coût-efficacité pour le système de santé du Royaume-Uni de ces traitements vendus très cher par leurs fabricants. Une analyse éclairante aussi pour la France, où ces médicaments ne sont pas remboursés par l’Assurance-maladie.


Les médicaments antiobésité sous forme de seringues injectables, telles que Wegovy et Mounjaro, ont été présentés comme révolutionnaires. Dans des essais cliniques, les participants ont perdu en moyenne 15 à 20 % de leur poids corporel, des résultats qui semblaient presque miraculeux par rapport aux programmes traditionnels basés sur des régimes et la pratique d’activité physique.

Aujourd’hui, 1 personne sur 50 au Royaume-Uni a recours à ces traitements. La plupart d’entre elles, environ 90 %, les paient de leur poche, pour un coût mensuel compris entre 120 et 250 livres sterling (soit entre 137 et 286 euros, ndlr). Mais il y a un hic : plus de la moitié des personnes arrêtent de prendre ces médicaments dans l’année, principalement pour des raisons financières.

(En France, trois médicaments de cette famille dite des analogues du GLP-1 – Wegovy [sémaglutide], Mounjaro [tirzépatide] et Saxenda [liraglutide] – sont autorisés dans le traitement de l’obésité, sur prescription médicale, et en seconde intention, en cas d’échec de la prise en charge nutritionnelle, en association à un régime hypocalorique et à une activité physique. Ces trois médicaments sont vendus à un prix fixé librement par le laboratoire pharmaceutique qui les commercialise et ne sont pas remboursés par l’Assurance-maladie dans cette indication, ndlr.)

Nos dernières recherches révèlent ce qui se passe ensuite, et cela donne à réfléchir. En moyenne, dans les essais cliniques, les personnes reprennent tout le poids qu’elles ont perdu dans les 18 mois suivant l’arrêt du traitement.

Ce qui est surprenant, c’est la rapidité avec laquelle cela se produit, près de quatre fois plus vite que la reprise de poids observée après l’arrêt de programmes de perte de poids basés sur l’alimentation et l’activité physique. Les améliorations en matière de santé disparaissent également puisque la tension artérielle, le taux de cholestérol et la glycémie reviennent à leurs niveaux initiaux.

Une personne en train de prendre sa tension artérielle
Après arrêt des médicaments antiobésité, la tension artérielle, qui était améliorée par les injections, revient à son niveau d’avant traitement. ThamKC/Shutterstock

Ces constats revêtent une certaine importance, car ils suggèrent que ces médicaments pourraient devoir être pris sur le long terme, voire à vie, pour maintenir leurs effets bénéfiques. Certains prestataires privés proposent un accompagnement intensif en plus du traitement médicamenteux, et notre analyse a montré que cela aidait les patients à perdre en moyenne 4,6 kg supplémentaires. Cependant, rien ne prouve que l’accompagnement pendant ou après l’arrêt du traitement aide à ralentir la reprise de poids.

Ce rebond rapide soulève de sérieuses questions d’équité dans la prise en charge mais aussi interroge sur le fait de savoir si ces traitements valent le coût du point de vue du NHS (National Health System, qui correspond au système de santé britannique, ndlr). L’obésité est beaucoup plus fréquente chez les personnes vivant dans des zones défavorisées, qui sont également celles pour qui s’offrir un traitement privé est le plus difficile. L’accès au système de santé est essentiel pour garantir à tous des soins égaux, quel que soit les revenus.

Le NHS met progressivement ces médicaments à disposition, mais uniquement pour les personnes en situation d’obésité sévère (IMC supérieur à 40) et concernées par quatre pathologies liées à l’obésité, comme par exemple l’hypertension artérielle. Cela signifie que de nombreuses personnes qui pourraient en bénéficier en sont effectivement exclues, à moins qu’elles ne paient de leur poche.

Les coûts pourraient finir par baisser à mesure que les brevets existants expirent et que des versions orales (sous la forme de comprimés, ndlr) moins coûteuses sont développées. Mais cela pourrait prendre des années. En attendant, nous devons nous assurer que l’accès à ces médicaments par le NHS présente le meilleur coût rapporté à leur efficacité afin que davantage de personnes puissent en bénéficier.

Coûts versus bénéfices

Le National Institute for Health and Care Excellence (en français, Institut national pour la santé et l’excellence clinique), ou [NICE],(https://www.nice.org.uk/) a approuvé l’utilisation de ces médicaments dans le cadre du système de santé publique britannique (NHS) car il a évalué le rapport coût-efficacité selon ses critères habituels. Mais ces calculs partaient du principe que le traitement durerait deux ans et que le poids serait repris trois ans après l’arrêt du traitement. Nos données montrent que lorsque le traitement prend fin, la reprise de poids se produit étonnamment vite.

Nous avons également constaté que les améliorations observées au niveau de la tension artérielle et du cholestérol – qui sont les principales raisons pour lesquelles le NHS traite l’obésité – disparaissaient dans les mêmes délais. Cela suggère que le traitements devrait être poursuivi sur le long terme pour obtenir une perte de poids durable et garantir ses bienfaits pour la santé, ce qui modifie complètement le calcul des coûts.

Des recherches supplémentaires sont nécessaires pour évaluer le véritable rapport coût-efficacité de ces médicaments, en dehors des essais cliniques rigoureusement contrôlés, et pour les patients réellement traités.

Pour les personnes en situation d’obésité qui ne remplissent pas encore les critères stricts du NHS permettant de bénéficier de ces traitements, le rapport coût-efficacité pourrait ne pas être favorable dans le cadre d’une utilisation qui serait généralisée par le NHS tant que leur prix n’aura pas considérablement baissé.

Pour cette population, les programmes traditionnels de gestion du poids restent la base du traitement de l’obésité. Les programmes de remplacement total de l’alimentation, au cours desquels les personnes consomment des soupes et des boissons nutritives équilibrées à la place de repas normaux pendant huit à douze semaines, permettent d’obtenir une perte de poids similaire à celle obtenue avec des médicaments, pour un coût nettement inférieur.


À lire aussi : Pourquoi l’obésité progresse-t-elle depuis trente ans ?


Les programmes de perte de poids en groupe, comme Weight Watchers et Slimming World, permettent d’obtenir des pertes de poids moyennes moins importantes, mais peuvent avoir un rapport coût-efficacité favorable et même permettre au NHS de réaliser des économies.

Ces nouveaux médicaments antiobésité ont montré à quel point les gens ont désespérément besoin d’aide pour perdre du poids. Mais l’évaluation du coût rapporté à l’efficacité reste floue. Rendre les programmes amaigrissants moins chers et accessibles à toute personne en situation d’obésité qui souhaite bénéficier d’un soutien permettrait un accès plus équitable aux traitements et améliorerait la santé publique, même si les résultats individuels risquent d’être moins spectaculaires que ceux obtenus avec un traitement médicamenteux pris sur le long terme.

The Conversation

Sam West a reçu des financements du « National Institute of Health Research » et participe à trois essais cliniques sur la perte de poids financés par la Fondation Novo Nordisk.

Dimitrios Koutoukidis a reçu des financements du « National Institute of Health Research ». Il est l'investigateur principal d’études financées par des fonds publics et menées par des chercheurs, dans lesquelles Oviva et Nestlé Health Sciences ont contribué sur le plan financier ou concernant la mise en œuvre d'interventions visant à la perte de poids. Il a supervisé une bourse de doctorat iCASE dans laquelle Second Nature était un partenaire industriel.

Susan Jebb bénéficie d'une bourse de recherche du « National Institute of Health Research ». Elle est l'investigatrice principale d’un programme de recherche financé par la Fondation Novo Nordisk. Oviva, Second Nature et Nestlé Health Sciences ont contribué sur le plan financier ou concernant la mise en œuvre d'interventions visant à la perte de poids dans le cadre de certaines études financées par le National Institute of Health Research.

24.02.2026 à 16:58

Les capitales européennes de la culture : un outil de diplomatie culturelle dans un monde instable ?

Maria Elena Buslacchi, socio-anthropologue, chercheuse post-doc à L'Observatoire des publics et pratiques de la culture, MESOPOLHIS UMR 7064, Sciences Po / CNRS / Aix-Marseille Université, Aix-Marseille Université (AMU)
Dans un paysage géopolitique de plus en plus fractionné, les capitales européennes de la culture, en pleine transformation, ont un rôle à jouer.
Texte intégral (2276 mots)
Le château de Trenčín, en Slovaquie. La ville est capitale européenne de la culture en 2026, au même titre qu’Oulu, en Finlande. CC BY

En 2026, les villes de Trenčín en Slovaquie et d’Oulu en Finlande ont été sélectionnées pour promouvoir la culture en Europe. Alors que le Vieux Continent doit redéfinir son rôle sur l’échiquier géopolitique mondial, le programme des capitales européennes de la culture (CEC) est à un tournant. Tout récemment, la Commission européenne a ouvert aux citoyens une consultation pour repenser collectivement l’avenir du dispositif après 2033. Son rôle d’outil de diplomatie culturelle en ressort plus important que jamais.


Né en 1985 dans un contexte de distension de la guerre froide et de construction politique du projet de l’Union européenne, le titre de « Capitale européenne de la culture » a été initialement conçu pour célébrer la diversité culturelle du continent. Depuis, il est devenu un laboratoire des politiques contemporaines, mais aussi un thermomètre des espoirs, des contradictions et des défis de l’Europe elle-même.

Le lancement des capitales (d’abord « villes ») européennes de la culture (CEC) ne peut se comprendre sans le replacer dans son contexte historique : l’horizon de la fin de la guerre froide, dans une Europe divisée où le rideau de fer commence à s’effriter et la Communauté économique européenne (CEE) s’élargit progressivement. Le programme verrait alors le jour, pour l’anecdote, grâce à une discussion fortuite, à l’aéroport, entre deux figures politiques emblématiques de l’époque : Jack Lang, alors ministre français de la culture, et Melina Mercouri, actrice engagée et ministre grecque de la culture.

Les deux portent une vision ambitieuse : utiliser la culture comme un vecteur d’unité, alors qu’elle paraît demeurer un impensé du projet politique européen, comme l’indique Monica Sassatelli, sociologue à l’Université de Bologne, dans son analyse de la place de la culture dans l’historiographie des politiques européennes. Le choix des premières villes – Athènes, Florence, Amsterdam, puis Paris – traduit cette aspiration à donner une légitimation symbolique à la future Union européenne. Ces capitales historiques, porteuses d’un patrimoine artistique et intellectuel emblématique, incarnent une Europe des arts, de la création, des traditions qui est censée dépasser les clivages politiques et économiques.

La culture comme instrument de régénération urbaine

Et puis vint Glasgow (Écosse, Royaume-Uni). Ville industrielle en déclin, marquée par la désindustrialisation et un chômage endémique, dès la fin des années 1980, Glasgow avait vu son administration élaborer une stratégie de relance du centre-ville visant à marquer un tournant symbolique et à préparer le terrain de la CEC 1990.

La campagne de promotion « Glasgow’s Miles Better » associait de manière pionnière les anciens espaces industriels et la culture, dans le but de revitaliser certaines institutions culturelles centrales (Scottish Opera, Ballet and Orchestra, BBC Symphony Orchestra, Citizen Theatre) et de créer un nouveau centre d’exposition capable d’accueillir des artistes et des événements, locaux et internationaux. Le directeur artistique de la capitale Robert Palmer, futur auteur du premier rapport sur les CEC en 2004, considérait l’événement de 1990 comme le point de départ d’un processus participatif de redéfinition « par le bas » de la culture locale, qui pouvait inclure tant l’excellence artistique que la tradition historique, rurale et industrielle et renouer avec une tradition déjà affirmée de culture populaire et de loisirs.

À côté des grands concerts de Luciano Pavarotti et de Frank Sinatra était alors montée en scène toute une série d’associations et de petits collectifs locaux. À Glasgow, l’année 1990 a redéfini les limites du mot « culture », en finissant par y inclure l’histoire industrielle de la ville et par permettre à sa population de s’y reconnaître. Selon la sociologue Beatriz Garcia, cet effet de régénération sur les images et les identités locales est l’héritage le plus fort et le plus durable de la CEC, au-delà des impacts économiques et matériels.

Ce cas pionnier, à côté d’autres cas emblématiques contemporains, comme Bilbao ou Barcelone en Espagne, fait office de modèle. Dans d’autres villes européennes, les espaces industriels se transforment en théâtres, en musées, ou accueillent des festivals : la « ville créative » attire des millions de visiteurs et stimule l’économie locale. Lille (Nord), CEC 2004, ouvre une douzaine de « maisons folie » entre la métropole lilloise et la Belgique, « fabriques culturelles » de proximité installées pour la plupart sur des sites abandonnés ou d’anciennes friches industrielles.

La Maison folie de Wazemmes, à Lille. Wikimédia, Karlsupart, CC BY

Liverpool (Angleterre, R.-U.), en 2008, utilise les CEC pour réhabiliter son front de mer et attirer des investissements. Au tournant du siècle, le programme des CEC ne se limite plus à mettre en valeur des villes déjà rayonnantes sur la scène culturelle internationale, mais devient un vrai outil de transformation urbaine, utilisé par des territoires en difficulté économique ou sociale pour se réinventer et se repositionner.

Ce changement marque une évolution dans les politiques urbaines, où la culture est de plus en plus perçue comme un levier de développement économique, au même titre que les infrastructures ou les politiques d’attractivité. Les CEC deviennent un instrument de cette politique, capable d’attirer des financements publics et privés, de créer des emplois dans les secteurs culturels et touristiques, et d’améliorer l’image de villes souvent stigmatisées.

Les CEC, laboratoire des transitions contemporaines

Cependant, cette approche reçoit des critiques. Les premières études réflexives menées sur les CEC, au début des années 2010, soulignent comment elles peuvent aussi exacerber les inégalités sociales et spatiales si elles ne sont pas accompagnées de politiques publiques inclusives. À Marseille (Bouches-du-Rhône), en 2013, la question se fait publique, avec l’organisation d’une vraie programmation off – c’est-à-dire d’événements parallèles et alternatifs dénonçant les effets secondaires et indésirables de la programmation officielle. Si la CEC marseillaise était encore l’expression de la logique de régénération à l’œuvre observée dans les années précédentes, elle représente aussi le moment où l’inclusion sociale émerge comme un enjeu central de ces méga-événements.

Le programme des CEC a toujours su intégrer la critique, entre autres grâce à la mécanique même du projet, qui permet de retrouver souvent dans les jurys de sélection des nouvelles CEC des personnes ayant joué un rôle clé dans les CEC antérieures. La participation, qui avait été questionnée à l’occasion de Marseille-Provence 2013, devient ainsi un incontournable des CEC successives – à Matera-Basilicata (Italie) 2019, l’implication des citoyens sera l’un des axes porteurs du projet.

À la fin des années 2010, les capitales européennes de la culture deviennent aussi une tribune pour les grands enjeux du XXIᵉ siècle et un espace d’expérimentation des transitions écologiques, sociales et numériques. Rijeka, en Croatie, capitale européenne de la culture en 2020, illustre cette évolution. La ville, marquée par un passé industriel et des flux migratoires importants, centre son programme sur les questions de migrations et de minorités, en écho aux crises humanitaires qui traversent l’Europe. Les projets culturels mis en place – expositions, résidences d’artistes, débats publics réunis sous le slogan « Port de la diversité » – visent à favoriser le dialogue interculturel et à interroger les identités multiples de l’Europe contemporaine. De même en France, Bourges (Cher), future CEC en 2028, construit sa candidature autour de la transition écologique. Le projet « Bourges, territoire d’avenir » lance le défi de la neutralité carbone de la visite, se servant de la CEC comme d’un catalyseur de l’action climatique au niveau local.

2033 et au-delà : les CEC face aux défis géopolitiques et environnementaux

Alors que les CEC sont pour l’instant programmées jusqu’en 2033, l’avenir du titre fait l’objet de débats. La Commission européenne a lancé une consultation publique pour imaginer les CEC de demain, dans un contexte marqué par des crises géopolitiques et environnementales. Les CEC 2025, Chemnitz (Allemagne) et Nova Gorica/Gorizia (Slovénie), ont élaboré un « Livre blanc pour le futur des CEC », en s’appuyant sur les observations de 64 CEC passées et à venir. Quarante recommandations sont proposées pour influencer le processus de réforme du programme dans le cycle après 2034.

Parmi ses thèmes clés, le livre blanc insiste sur la volonté de renforcer la dimension européenne. Cela pourrait se faire en introduisant un critère de sélection fondamental fondé sur l’identité européenne, en mettant l’accent sur les valeurs européennes dans la programmation, en développant une stratégie de marque unifiée et en renforçant la coopération transfrontalière.

Le processus de sélection et de suivi, jugé trop bureaucratique, est également remis en question, la recommandation principale étant de privilégier un suivi encourageant plutôt que punitif. L’héritage de l’événement est remis en question : les villes devraient être tenues responsables de la réalisation des promesses faites dans leurs dossiers de candidature et les gouvernements nationaux devraient s’impliquer davantage dans le soutien aux villes pendant et après leur année capitale. La diffusion des bonnes pratiques, l’évaluation par les pairs et le mentorat entre les anciennes et les futures CEC, qui existent déjà de manière informelle, devraient être reconnus et institutionnalisés, notamment par la création éventuelle d’une plateforme centrale soutenue par les institutions européennes.

Le défi consiste désormais à concilier son rôle symbolique et stratégique, en veillant à ce que les prochaines éditions ne se contentent pas de célébrer, mais visent à renforcer la participation démocratique et la solidarité transnationale dans un paysage géopolitique de plus en plus fragmenté.

The Conversation

Maria Elena Buslacchi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.02.2026 à 12:31

Agroecology: rethinking global policy efficiency and funding priorities to overcome the blind spot in climate action

Fabio G. Santeramo, Associate Professor, Università di Foggia
Policy frameworks shaping farming in the EU and beyond are suffering from funding misalignment and fragmented priorities, resulting in ineffective global climate efforts.
Texte intégral (2334 mots)

Amid mounting concerns surrounding climate mitigation in the agriculture and forestry sectors, science-based evidence suggests a need for more effective, fair and coherent policy frameworks for cutting greenhouse gas emissions in the European Union and further afield.

International policies to protect the environment are at a crossroads: bold targets coexist with fragmented priorities, threatening the agenda. The debate is often dominated by the least effective measures, while high-impact solutions struggle to gain space and resources. Funding streams show only a faint prioritisation of green objectives, eroding the consistency of environmental action. These dynamics become especially evident in sectors where emissions are high and policies are numerous, yet strategic alignment and assessment remain scarce.

The Agriculture, Forestry and Other Land Use (AFOLU) sector, responsible for over 20% of global emissions, continues to fall through the cracks of climate policy. In the European Union, it is often described as “the missing piece in climate policy.” Yet, it continues to be regulated with several national and local initiatives, while suffering from weak coordination at the macro level (e.g. EU, multilateral agreements).

Calls for policy efficiency and multilateral climate governance

Despite a wide range of local and national initiatives targeting emissions reductions in the AFOLU sector, there remains a striking lack of assessment studies evaluating their real-world effectiveness.

Ex-post analyses, though far fewer in number, provide evidence-based insights that are key to refining future strategies. Many initiatives prioritise conventional agricultural goals (i.e income growth, yield improvement) over environmental ones. A recent OECD review on policy effectiveness, echoed by university researchers, warns of incoherence in political agendas when it comes to lowering emissions. The findings highlight differences in the performance of policy tools, raising the question: Are the most effective instruments being prioritised and funded within current policy agendas?

Russia’s invasion of Ukraine has triggered one of the largest increases in conflict-related food insecurity. The United Nations’ Food and Agriculture Organization (FAO) warns that, due to the war, millions of people could still be chronically undernourished by 2030. The crisis has pushed food security to the top of the political agenda, with the need to ensure food supply often putting environmental and climate priorities in the background.

On June 20 2025, the European Commission withdrew its Green Claims Directive, a planned crackdown on misleading environmental claims. In the EU Parliament, the move sparked strong criticism from Socialists and Liberals and marked a setback in the fight against greenwashing.

Ahead of COP30, the UN’s annual meeting for climate cooperation, held in the Amazonian city of Belém in November 2025, Brazil’s National Secretary for the Environment and Climate Change, Ana Toni, raised serious concerns about the world’s “uncertain” response to the climate crisis.

One month before COP30, only one third of the nearly 200 countries had submitted plans to meet the requirements required by the 2015 Paris Agreement, while ongoing military and trade conflicts continued to divert attention and resources away from climate action.

India’s plans for one, still remain to be seen. Described as the world’s fifth largest economy and third biggest emitter of global greenhouse gases, the country was closely watched at the UN meeting.

Highest emitting economies are on the UN’s radar

COP30 absentees included China’s President Xi Jinping and US President Donald Trump. China and the US are the two biggest emitters of planet-warming gases. At the summit China came under the closest scrutiny as the world’s second-largest economy and the biggest emitter of greenhouse gases. What alarms analysts is that China approved 11.29 gigawatts (GW) of new coal-fired power plants in the first three months of 2025, already surpassing the 10.34 GW approved in the first half of 2024. Reducing coal use is essential for China to meet its targets of peaking carbon emissions by 2030 and achieving carbon neutrality by 2060.

Meanwhile, last June, in the US, Donald Trump was already laying the groundwork to open up 58 million acres of national forest backcountry to road construction and development, rolling back protections that have been in place since 2001. In detail, the Trump administration announced plans to repeal the 2001 Roadless Rule (describing it as outdated) which had preserved the wild character of nearly one-third of the land in national forests across the United States.

These trends could ultimately be summed up in one sentence: a policy agenda whose attention toward the environment is slowly declining, despite the growing urgency of sustainability challenges.

The Environmental impact of agricultural policies: Beyond market instruments

The expectations on the debate about agriculture’s inclusion in the EU Emissions Trading System (ETS) may be exaggerated. Our research shows that similar policies (i.e. carbon taxes, emissions trading schemes, and subsidies) are barely effective and tend to reduce emissions by percentage as high as 9%.

Agriculture potentially becoming part of the ETS is a major topic in the current policy debate. However, turning this into action faces challenges. Denmark’s recent decision to introduce a carbon tax on agricultural emissions by 2030, aiming to cut emissions by up to 70%, shows the level of ambition.

Setting a price on emissions through a fair and balanced application of the polluter pays principle makes sense. It helps cleaner alternatives compete, raises money to support a fair transition, and makes polluters take financial responsibility for the damage they cause. But for a future agricultural ETS to truly work, it must be designed properly: it needs a strict emissions cap, no free pollution permits, and a fair and efficient use of the revenues.

In the current Common Agricultural Policy (CAP), the adoption of eco-scheme uptake has been poor. To make matters worse, CAP rules have been watered down, weakening several of the “good agricultural and environmental conditions” and giving EU member stateseven more flexibility in the approval process of their strategic plans. In this context, putting a price on pollution won’t change much if the rest of the system keeps supporting polluting practices. A carbon price only works if the broader framework stops rewarding emissions in the first place.

By co ntrast, non-market policies – i.e. Protected Areas (PA), Forest Management Programs (FMP), Payments for Environmental Services (PES), and Non-Tariff Measures (NTM) – often deliver better results, with stronger impacts on reducing emissions than market-based policies. PA, broadly adopted in Indonesia and Thailand, can achieve emission reductions of up to 60%, placing them among the most impactful policy instruments available. FMP and PES show encouraging results in land-use changes, such as the conversion of croplands into forests.

Research finds that FMP, widely adopted in Brazil, are the most effective in triggering substantial shifts in land use, with forest cover increasing to as much as 50%. One reason for this is that this type of policy makes it more appealing for farmers to transition: by conserving their land, they gain access to valuable resources such as timber and other ecosystem services. It’s a win-win, for the environment and for local communities.

While non-market-based policies demonstrate strong effectiveness in reducing emissions, they continue to face significant challenges. The EU Deforestation Regulation (EUDR) is an example of this. Although the EUDR was introduced as a landmark effort to curb global deforestation by ensuring that products sold in the EU are deforestation-free, it is now facing significant political pushback. Eighteen EU member states have called on the European Commission to ease the regulation, arguing that it imposes disproportionate and costly administrative burdens even on countries with negligible deforestation risk. They warn that the law, in its current form, could hurt competitiveness, drive up production costs, and disrupt supply chains; pressures that have already led to the postponement of its enforcement and risk diluting its environmental ambition before it is fully implemented.

Effective agricultural policy vs current funding priorities

If we are truly committed to climate goals, especially in the AFOLU sector, we must focus on policies that are direct, enforceable, and grounded on solid science. The research evidence illustrates that the most meaningful progress comes from mandatory rules-based approaches, such as PA.

According to the European Commission’s financial report for 2023, a total of €378.5 billion has been made available under the CAP since January 2021.

Of this, “The vast majority, around €283.9 billion, goes to direct payments and market measures through the European Agricultural Guarantee Fund (EAGF), primarily to support farmers’ incomes. Meanwhile, just €94.2 billion is allocated to rural development via the European Agricultural Fund for Rural Development (EAFRD), the branch of the CAP that funds environmental protection and biodiversity efforts, such as PA.”

In theory, the CAP aims to place environmental protection at the heart of its strategy. But when we follow the money, the picture is less balanced. Between 2021 and 2027, over €40 billion per year was directed to market-related expenditure and direct payments, while rural development, the pillar supporting green initiatives, receives less than half of that.

What’s the upshot?

Most of the funding still goes to policies that are least effective at protecting the environment, especially when it comes to cutting emissions, while the more impactful measures remain underfunded. It is a mismatch that risks undermining Europe’s climate and biodiversity ambitions.


This article was co-authored with Irene Maccarone, a Research Fellow at the University of Foggia (Italy).


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Fabio G. Santeramo is also affiliated with the European University Institute.

24.02.2026 à 11:51

Lissages capillaires : attention au risque d’insuffisance rénale aiguë

Pauline Guillou, Chargée de projet scientifique, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
Elodie Lontsi, Chef de projet cosmétovigilance et tatouvigilance, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
Sandrine Charles, Toxicologue, chef de projet, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
Il existe très probablement un lien entre l’acide glyoxylique utilisé dans des lissages capillaires (parfois appelés lissages « brésiliens » ou « indiens ») et des cas d’insuffisance rénale aiguë.
Texte intégral (2180 mots)

L’Agence nationale de sécurité sanitaire (Anses) a conclu, en janvier 2025, à un lien fortement probable entre la présence d’acide glyoxylique, un ingrédient utilisé dans certains produits de lissages capillaires, et la survenue de cas d’insuffisances rénales aiguës. En attendant une évaluation des risques au niveau européen, cette substance ne fait l’objet d’aucun encadrement ni restriction d’usage. Les consommateurs sont appelés à ne pas utiliser ces produits afin de limiter les risques pour leur santé.


Après plusieurs signalements de cas d’insuffisance rénale aiguë à la suite de la réalisation de lissages capillaires en France et à l’étranger, des études scientifiques ont montré qu’une substance contenue dans ces produits, l’acide glyoxylique, pouvait être à l’origine de ces effets.

Dans un avis rendu en janvier 2025, l’Agence nationale de sécurité sanitaire, de l’alimentation, de l’environnement et du travail (Anses) a confirmé un lien fortement probable entre cet ingrédient et cet effet indésirable et préconise une évaluation des risques au niveau européen.

Quelles recommandations pour la sécurité des consommateurs ?

Pour l’heure, les autorités sanitaires conseillent d’éviter d’utiliser des produits capillaires contenant de l’acide glyoxylique et d’être vigilant en cas de symptômes inhabituels après un lissage.

En attendant d’éventuelles mesures réglementaires, l’Anses émet les recommandations suivantes :

  • Ne pas utiliser de produits de lissage capillaire contenant de l’acide glyoxylique ;
  • En cas de symptômes inhabituels pendant l’application ou dans les heures suivant la réalisation d’un lissage capillaire (douleurs lombaires, fatigue, nausées…), que le produit contienne de l’acide glyoxylique ou non, il est recommandé de consulter un médecin ou de contacter un centre antipoison en indiquant la réalisation d’un lissage capillaire ;
  • Pour contacter un centre antipoison : se rendre sur le site Internet Centres-antipoison.net ou appeler le (33)1 45 42 59 59 ;
  • En cas de symptômes inhabituels pendant l'application ou dans les heures suivant la réalisation d'un lissage capillaire (douleurs lombaires, fatigue, nausées…), que le produit contienne de l'acide glyoxylique ou non, il est également recommandé de déclarer l'incident sur le portail de signalement des évènements sanitaires indésirables du ministère en charge de la santé : Signalement.social-sante.gouv.fr/

À noter que la vigilance doit être de mise pour des lissages capillaires réalisés chez le coiffeur, en salon ou à domicile, mais aussi directement par le consommateur. Les produits capillaires lissants susceptibles de contenir de l’acide glyoxylique (même si leur étiquetage ne le précise pas) sont en effet disponibles dans le commerce et peuvent être achetés directement par le grand public. Ces lissages sont parfois – mais pas systématiquement – présentés sous certaines dénominations (« lissages brésiliens », « lissages indiens », etc.).

Une première alerte auprès du dispositif de cosmétovigilance en France

En janvier 2024, l’Anses, nouvellement en charge de la cosmétovigilance en France, a reçu de la part d’un néphrologue le signalement d’un cas d’insuffisance rénale aiguë supposée en lien avec l’utilisation d’un produit de lissage capillaire. Ce signalement concernait une femme ayant connu trois épisodes d’insuffisance rénale aiguë en trois ans qui se sont déclarés systématiquement quelques heures après la réalisation d’un lissage capillaire. Le seul événement commun aux trois épisodes était en effet l’application d’un soin capillaire le jour du début des symptômes (La cosmétovigilance consiste à assurer une surveillance et, le cas échéant, à identifier des effets indésirables chez l’humain liés à des produits d’hygiène ou de beauté que l’on classe, selon la réglementation, dans la catégorie dite des « cosmétiques », ndlr.)

Lors des trois épisodes, les premiers symptômes étaient une sensation de brûlure du cuir chevelu durant toute la durée de l’application, puis l’apparition d’ulcérations du cuir chevelu. Une douleur lombaire apparaissait dans l’heure suivant le soin, suivie de nausées et d’asthénie le jour même. Les produits utilisés lors des deux premiers soins lissants n’ont pu être identifiés. Le troisième produit, lui, était connu.

Des effets indésirables graves qui suscitent l’attention

Les néphrologues ayant pris en charge cette patiente ont mené des recherches afin d’identifier l’origine de cet effet. Ils ont ainsi établi un lien de causalité entre l’insuffisance rénale aiguë et une substance contenue dans le produit utilisé lors du troisième soin, l’acide glyoxylique. Ces conclusions résultent, d’une part, de l’observation de la toxicité rénale de l’acide glyoxylique chez la souris et, d’autre part, de l’existence de cas humains similaires identifiés dans plusieurs pays, notamment en Israël.

L’acide glyoxylique est utilisé dans les produits de lissage capillaire en remplacement du formaldéhyde. Le formaldéhyde était utilisé dans les produits cosmétiques et notamment pour les lissages capillaires, mais a été interdit en 2019 du fait de son classement comme substance cancérogène en 2014 dans le cadre du règlement européen CLP. L’industrie a alors développé des alternatives, dont l’acide glyoxylique.

Au regard de ces éléments, l’Anses s’est autosaisie pour dresser un état des lieux des connaissances sur la toxicité rénale de l’acide glyoxylique présent dans les produits lissants et déterminer si un encadrement des conditions d’utilisation de cette substance était nécessaire.

En août 2024, deux nouveaux signalements d’insuffisance rénale aiguë chez des personnes s’étant fait lisser les cheveux ont été adressés à l’Anses. Ces signalements concernaient des femmes, ayant présenté des symptômes tels que des maux de tête, des douleurs lombaires, des nausées, de la fatigue, ou encore une soif excessive dans les heures suivant le soin. Leurs analyses de sang ont mis en évidence une augmentation significative des taux de créatinine, un marqueur biologique de l’insuffisance rénale. Aucune autre cause explicative n’a pu être identifiée. L’évolution de leur état de santé a été favorable, après une hydratation, voire une hospitalisation de plusieurs jours pour l’une d’elles.

Appliqué sur le cuir chevelu, l’acide glyoxylique peut pénétrer dans l’organisme

L’analyse de la littérature scientifique menée par l’Anses a permis d’identifier des données à la fois expérimentales et cliniques établissant un lien entre l’utilisation de produits lissants pouvant contenir de l’acide glyoxylique et la survenue d’une insuffisance rénale aiguë dans les heures qui suivent.

Concernant les 26 cas similaires survenus entre 2019 et 2022 en Israël, pour certains d’entre eux, des biopsies rénales ont révélé la présence des dépôts de cristaux d’oxalate de calcium. Ces derniers peuvent constituer des calculs rénaux qui altèrent le fonctionnement des reins de façon parfois sévère. Parmi ces 26 cas, 11 patientes ont été exposées à des produits de lissage à base de kératine affichant, dans leur composition, des « dérivés de l’acide glycolique ». Pour les autres, le type de produit lissant n’a pas été identifié.

À également été recensé en Suisse, et présenté dans une publication datant de 2024, le cas d’une femme d’une quarantaine d’années ayant développé une insuffisance rénale aiguë après un lissage des cheveux. La biopsie rénale avait également montré des dépôts de cristaux d’oxalate de calcium. La composition du produit utilisé reste cependant inconnue.

Par ailleurs, des tests expérimentaux menés sur des rongeurs ont confirmé le rôle néphrotoxique de l’acide glyoxylique lors d’une exposition par voie cutanée. Enfin, la formation de cristaux d’oxalate dans l’organisme à partir de l’acide glyoxylique a également été démontrée.

L’ensemble de ces données suggèrent donc que l’acide glyoxylique, lorsqu’il est appliqué sur le cuir chevelu, peut pénétrer dans l’organisme et se transformer en oxalate de calcium.

Une substance dont l’utilisation n’est ni encadrée ni limitée

À la suite de l’analyse de l’ensemble des données existantes, l’Anses a donc publié en janvier 2025 un avis qui conclut au rôle causal fortement probable de l’acide glyoxylique dans la survenue d’insuffisances rénales aiguës observées après l’application de produits lissants.

À ce jour, cette substance ne fait cependant pas l’objet de dispositions spécifiques dans le cadre du règlement cosmétique (en particulier selon les annexes II et III, qui correspondent respectivement aux substances interdites et aux substances faisant l’objet de restrictions). Son utilisation n’est donc ni encadrée ni limitée.

Comme l’interdiction ou la restriction d’une substance cosmétique ne peut se faire au niveau national, l’Anses recommande donc de réaliser une évaluation des risques au niveau européen afin de statuer sur la sécurité de l’utilisation de cette substance dans les produits de soins capillaires et, par voie de conséquence, sur la nécessité de telles mesures réglementaires.

De plus, l’Anses préconise qu’une attention particulière soit portée aux substances (présentes dans les produits capillaires et autres produits cosmétiques) pouvant se métaboliser en acide glyoxylique.

En mars 2025, l’Anses a présenté ses travaux devant le groupe de travail sur les cosmétiques organisé par la Commission européenne réunissant les États membres et les parties prenantes. À la suite de quoi, un appel à données a été lancé par la Commission européenne dans le but de compiler toutes les informations scientifiques disponibles afin d’évaluer la sécurité de cette substance dans les produits cosmétiques. Cet appel à données est ouvert jusqu’au 8 avril 2026.

Se mobiliser pour protéger le public en Europe et dans l’Union européenne

Il est à noter que, depuis octobre 2024, 15 nouveaux cas d’insuffisance rénale aiguë ont été signalés en France. Ces nouveaux cas ont, par ailleurs, montré que l’acide glyoxylique pouvait être présent dans les produits même si ce n’était pas mentionné sur l’étiquette.

En effet, parmi les six produits pour lesquels il n’était pas fait mention de la substance dans la composition, l’analyse de trois d’entre eux a confirmé qu’ils en contenaient. Deux nouveaux cas ont également été publiés dans la littérature scientifique en Tunisie et en Algérie.

Cet exemple démontre par ailleurs l’importance de signaler tout effet indésirable lié à ces produits et aux produits cosmétiques sur le portail de signalement des événements indésirables du ministère en charge de la santé. Ces signalements sont essentiels afin de mieux comprendre les risques et protéger les consommateurs.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

23.02.2026 à 17:18

Municipales 2026 : comprendre la gratuité des transports en graphiques

Félicien Boiron, Doctorant en science politique (LAET-ENTPE), ENTPE; Université Lumière Lyon 2
Décryptage des impacts de la gratuité totale des transports en commun de Dunkerque à Aubagne, en passant par Morlaix ou par le syndicat de transport de l’Artois. Décryptage en graphiques.
Texte intégral (2157 mots)
À Montpellier (Hérault), la gratuité des transports en commun est présentée par les élus comme un instrument pour améliorer le pouvoir d’achat des classes moyennes et populaires. Rvillalon/Shutterstock

Dunkerque, Montpellier, Calais, Nantes… toutes ces villes ont mis en place la gratuité totale des transports en commun. Promue par certains candidats, conspuée par d’autres, cette mesure devient un élément central des campagnes électorales municipales de 2026. Mais qu’en disent les experts ? Quels sont ses effets bénéfiques et pernicieux ? Décryptage en graphique et en données.


La gratuité des transports en commun, rarement débattue aux élections municipales de 2014 et encore relativement discrète en 2020, se trouve désormais au cœur des campagnes municipales de 2026. Mobiliser une forme de gratuité semble être devenu un passage obligé des débats locaux.

À Lyon (Rhône), après avoir mis en place la gratuité pour les moins de 10 ans, le président de la Métropole Bruno Bernard (Les Écologistes) fait campagne en mobilisant la gratuité des enfants abonnés TCL. De son côté Jean-Michel Aulas (LR, Ensemble) propose une gratuité pour les personnes gagnant moins de 2 500 euros.

Des débats similaires s’ouvrent dans des villes de tailles et de contexte variés comme Angers (Maine-et-Loire), Dijon (Côte-d’Or), Marseille (Bouches-du-Rhône), Paris.

Gratuité totale des transports

Alors même que les transports en commun relèvent le plus souvent de la compétence des intercommunalités, les décisions de gratuité sont prises par une large diversité de collectivités locales, parfois au titre d’autres compétences.

La gratuité est longtemps restée cantonnée à des territoires de petites tailles, avec des transports en commun peu utilisés et de faibles recettes de billetique. À présent, elle s’invite dans des territoires pluriels. Si elle reste principalement mise en œuvre à l’échelle territoriale des villes, elle se développe au sein de communautés urbaines, comme Poher Communauté en Bretagne, ou par les syndicats de transport comme dans le Douaisis, dans le nord de la France.

Après les records de mise en place de cette mesure dans les villes d’Aubagne (100 000 habitants, Bouches-du-Rhône) en 2009, puis de Dunkerque (200 000 habitants, Nord) en 2018, Montpellier (Hérault) a fait franchir un nouveau seuil à la gratuité à partir de 2021 en instaurant la mesure pour ses habitants sur un réseau comprenant plusieurs lignes de trams. Pour sa part, depuis janvier 2026, le syndicat de transports de l’Artois, dans le Nord, est devenu le plus grand territoire français aux transports totalement gratuits avec 650 000 habitants pouvant bénéficier d’une telle mesure.

Si certains partis ont fait de la gratuité des transports un élément fréquent dans leur programme comme le Parti communiste français (PCF), ou plus récemment La France insoumise (LFI), la gratuité n’est pas réservée aux politiques de gauche. Elle est mise en œuvre aussi bien par la droite, comme à Calais (Pas-de-Calais) ou à Châteauroux (Indre), que par la gauche, comme à Morlaix (Finistère) ou Libourne (Gironde). La mesure résiste aux alternances politiques, en étant rarement remise en question.

Report modal de la marche vers les transports en commun

Depuis plusieurs années, les rapports et positions sur la gratuité des transports en commun font légion. Alors que, jusque dans les années 2010, la mesure était peu étudiée, essentiellement par les services du ministère de l’environnement, de nombreuses évaluations se sont développées. Des études ont été commandées par la Ville de Paris, par l’Île-de-France Mobilités ou encore par le syndicat de transports lyonnais (Sytral).

Dans ces études, la gratuité des transports en commun est largement évaluée selon ses effets sur la répartition modale, comprise comme le pourcentage d’utilisation des différents modes de transports. La gratuité est jugée bonne si elle permet un bon report modal, c’est-à-dire d’un mode polluant vers un mode moins polluant – de la voiture au vélo, par exemple. Les rapports concluent que la gratuité est inefficace, puisqu’elle engendrerait un report modal, essentiellement depuis la marche et le vélo vers les transports en commun. Même la Cour des comptes a récemment pointé cette inefficacité à produire un bon report modal.


À lire aussi : Gratuité des transports : comprendre un débat aux multiples enjeux


Ce constat d’inefficacité est alors largement relayé au-delà de la sphère experte, notamment par des acteurs institutionnels et des groupes d’intérêts du transport, qui s’appuient sur ces évaluations pour structurer leur opposition à la gratuité. Les groupes d’intérêts du transport, comme le GART, qui regroupe les collectivités, ou l’UTPF, qui regroupe les entreprises de transport, s’appuient sur ces constats pour s’opposer à la mesure. Les groupes d’intérêts du transport mobilisent ces expertises pour s’opposer assez unanimement à la gratuité. La FNAUT qui représente les usagers et usagères des transports défend que « la gratuité totale, isolée de toute autre mesure, ne favorise pas un report modal ».

Politique publique de mobilité

Si la gratuité des transports est fréquemment étudiée comme une politique publique de mobilité, les élus qui la mobilisent le font au nom d’une grande variété d’objectifs. Nombreux sont les motifs évoqués pour défendre la gratuité, tels que réduction de la pollution de l’air, attractivité territoriale et des commerces, protection du pouvoir d’achat, etc.

À Aubagne, c’est la recherche de liberté et d’accessibilité sociale accrue aux transports qui sont mises en avant. À Dunkerque, on y voit un instrument d’aménagement urbain pour redynamiser le centre-ville. À Montpellier, la mesure est présentée comme un instrument de gouvernance territoriale, pour améliorer le pouvoir d’achat des classes moyennes et populaires. À Calais, on souhaite répondre au mouvement des gilets jaunes et au coût des déplacements. À Nantes (Loire-Atlantique), la gratuité le week-end est associée à des objectifs sociaux et de réduction de l’autosolisme.

Une grande partie des effets prétendus à la gratuité des transports échappe à l’évaluation. Les effets sociaux de la mesure, notamment sur l’isolement de certaines populations, sur la facilité d’accès au transport, ont été encore peu étudiés. Même lorsque l’Observatoire des villes du transport gratuit s’intéresse aux conséquences sur les automobilistes ou sur les jeunes, ce sont essentiellement leurs chiffres sur le report modal qui sont repris dans les débats.

Financer les transports

En France, les transports en commun sont financés par trois sources principales :

  • le versement mobilité, impôt sur la masse salariale, payée par les entreprises, administrations et associations ;

  • les recettes tarifaires, payées par les usagers et usagères ;

  • les subventions des collectivités locales.

Les proportions de ces trois sources varient en fonction des territoires, mais le versement mobilité est souvent la source principale du financement. Les territoires denses et au réseau de transport bien structuré présentent en général des recettes tarifaires plus élevées. Aussi, si la gratuité totale des transports en commun supprime des coûts liés à la billetique (distributeurs automatiques de titres, valideurs, logiciels, application, contrôleurs, etc.), dans les grands réseaux, ces coûts sont généralement plus faibles que ce que rapportent les recettes commerciales.

Une politique totem

Si l’opposition à la gratuité totale des transports en commun est si forte, c’est que, pour beaucoup, la mesure dévaloriserait le transport. « Aucun service n’est réellement gratuit », « la gratuité n’existe pas » sont autant d’expressions révélant une valorisation d’un service par son prix.

Parler de gratuité des transports en commun est révélateur du caractère anormal de la mesure. Parlons-nous ainsi de « gratuité de la police » ? Dans un secteur plus proche, nous ne parlons pas non plus de gratuité des routes, alors que celles-ci sont très largement gratuites et que leur coût est largement supporté par les contribuables plutôt que les usagers et usagères. Comme pour les transports en commun, beaucoup d’économistes défendent pourtant une tarification de la route.

La gratuité des transports est une politique totem. Souvent intégrée à des projets de mobilités, l’intégralité des effets de la mesure demeure encore largement inconnue, tant les sens associés à la mesure sont divers. Les débats sur la gratuité des transports interrogent ainsi la légitimité d’un financement collectif renforcé des mobilités, mais aussi les cadres d’expertise à partir desquels les politiques publiques sont évaluées et jugées.

The Conversation

La thèse de Félicien Boiron est financée par le ministère de la Transition écologique.

23.02.2026 à 17:17

Abstention, vote extrême : ce que la précarité fait à la politique

Nonna Mayer, Directrice de recherche au CNRS/Centre d'études européennes, Sciences Po
La précarité progresse fortement en France. Quels sont ses effets sur l’abstention et sur les choix de vote ? Enquête.
Texte intégral (1642 mots)

La précarité progresse en France et touche désormais bien au-delà des plus pauvres. Plusieurs enquêtes électorales permettent d’étudier ses effets sur l’abstention, le rapport à la politique et les choix de vote. L’exclusion sociale contribue, de façon marquée, à l’éloignement des urnes et de la politique partisane. Analyse.


En France, la pauvreté atteint son niveau le plus élevé depuis 1996 : 15,4 % de la population vit sous le seuil de pauvreté monétaire, près de 13 % est en situation de privation matérielle et sociale, incapable de faire face à des dépenses courantes, comme chauffer son logement ou acheter des vêtements. Et l’emploi ne protège pas toujours de la pauvreté, puisqu’on compte un million de travailleurs sous le seuil de pauvreté, tout particulièrement chez les femmes et les jeunes. Plus largement, depuis les années 1970, on assiste au retour de la précarité ou de « l’insécurité sociale », au sens où la définissait le sociologue Robert Castel :

« Le fait d’être à la merci du moindre aléa de l’existence, par exemple une maladie, un accident, une interruption de travail qui rompent le cours de la vie ordinaire et risquent de vous faire basculer dans l’assistance, voire dans la déchéance sociale. »

Ce phénomène gagne du terrain et fragilise la démocratie.

De l’exclusion sociale à l’exclusion politique

Pour le mesurer, on dispose d’un instrument mis au point dans les années 1990 afin de détecter les personnes socialement vulnérables, le score Epices (pour Évaluation de la précarité et des inégalités de santé dans les centres d’examens de santé). Outre la pauvreté et les privations matérielles, l’indicateur repère l’isolement social et culturel des individus, à partir de 11 questions simples auxquelles les enquêtés doivent répondre par « oui » ou par « non ».

Les réponses permettent de les classer sur un gradient de précarité croissante allant de 0 à 100. Par convention, une personne est considérée comme précaire lorsque son score Epices est égal ou supérieur à 30.

En 2022, au lendemain du scrutin présidentiel, c’est le cas de 29 % d’un échantillon représentatif de la population inscrite sur les listes électorales, soit un chiffre nettement plus élevé que celui du chômage (7,7 %) ou de la pauvreté monétaire (14,4 %).

Cette précarité est en train de se diffuser, touchant même les tranches de revenus intermédiaires (22 %) et les diplômés du supérieur (14 %). Et elle a des conséquences politiques majeures.

Sur la base de cette même enquête, la conclusion est sans appel : l’exclusion sociale va de pair avec l’exclusion politique. En 2022, la propension à se désintéresser de la politique, à ne se sentir proche d’aucun parti et à bouder les urnes est deux fois plus fréquente chez les 20 % de la population les plus précaires (quintile 5) que chez les 20 % les moins exposés à la précarité (quintile 1).

Pareillement, la proportion d’abstentionnistes aux deux tours est trois fois plus importante dans le premier groupe, celui des plus précaires.

Et cet effet politique de la précarité se maintient, quels que soient le genre, l’âge, le niveau de diplôme et de revenu, la taille de la commune de résidence, la pratique religieuse ou l’origine des sondés.

L’insécurité sociale favorise avant tout le retrait du politique. S’inscrire ou aller voter passent au second plan quand la préoccupation première est de survivre. Du coup, la voix des plus précaires est inaudible. Un rapport de l’Association américaine de science politique (APSA) sur les conséquences politiques des inégalités sociales aux États-Unis le disait joliment, les riches ont l’oreille des dirigeants, parce qu’ils « rugissent », leur voix porte, tandis que les pauvres eux « chuchotent quand ils ne se taisent pas. On ne les entend que par intermittence, par exemple lors de la mobilisation des gilets jaunes que les ouvriers et les employés précarisés ont été les plus nombreux à soutenir, avec le sentiment de retrouver leur dignité dans cette colère.

Comment l’exclusion sociale influence les choix électoraux

L’effet de l’insécurité sociale sur les choix électoraux est plus complexe. Les précaires forment un groupe qui n’est ni socialement ni politiquement homogène, et leurs choix évoluent dans le temps.

Lors de la présidentielle de 2012, nous avions mené une enquête sur les effets de la précarité, mesurée par le même score Epices. Elle montre l’absence de relation statistiquement significative entre le vote pour Marine Le Pen au 1er tour et le degré de précarité sociale. Malgré sa popularité chez les plus démunis, c’est la gauche qui a leur faveur. Au 1er tour, les voix recueillies par les candidats et candidates écologistes, de gauche et d’extrême gauche passent de 43 % chez les moins précaires à 51 % chez les plus précaires. Au second tour, les scores de François Hollande passent de 49 % chez les moins précaires à 63 % chez les plus précaires.

Les entretiens menés parallèlement à l’enquête par sondage de 2012 auprès de personnes en situation de grande précarité dans les agglomérations de Paris, Grenoble (Isère) et Bordeaux (Gironde) montrent qu’entre Nicolas Sarkozy « le président des riches » et le candidat socialiste il n’y avait pas d’hésitation possible, pour elles la gauche c’était «&nbsple socialnbsp;», la gauche c’était «&nbsple cœur ».

Cinq ans après, la gauche a déçu l’électorat précaire, qui se tourne vers Marine Le Pen. À l’élection présidentielle de 2017, au 1er tour son score passe de 11 % chez les moins précaires à 36 % chez les plus précaires. Au second tour, c’est 19 % chez les moins précaires contre 53 % chez les plus précaires.

Il en va de même lors de l’élection présidentielle de 2022 : le score de Marine Le Pen au premier tour est trois fois plus élevé chez les personnes les plus précaires comparées aux moins précaires. Au second tour, il est trois fois et demi plus élevé.

Mais dans le contexte particulier des législatives anticipées de 2024, on observe chez les plus précaires un retour en grâce de la gauche, les chances qu’ils votent pour le Nouveau Front populaire égalant alors celles de voter pour le RN.

Contrairement aux idées reçues, le vote des précaires pour l’extrême droite n’est donc pas inéluctable. Il y a plutôt, en fonction du contexte politique, un vote de rejet du pouvoir en place, contre Nicolas Sarkozy hier, contre François Hollande en 2017, contre Emmanuel Macron depuis 2022.

Demain, il peut se traduire par un vote aussi bien pour Marine Le Pen que pour la gauche, comme ce fut le cas aux législatives de 2024, quand la gauche unie retrouvait grâce aux yeux de ces oubliés de la démocratie, en promettant d’en finir avec la brutalité des années Macron.

The Conversation

Nonna Mayer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.02.2026 à 17:17

Moins de déchets mais un tri encore imparfait : plongée dans les poubelles des Français

Romuald Caumont, Chef du service Coordination, évaluation et valorisation à la direction économie circulaire l’Ademe, Ademe (Agence de la transition écologique)
L’Ademe s’est plongée dans le contenu de nos poubelles. Elle révèle l’impact positif des politiques publiques des dernières décennies, mais aussi une importante marge de progression.
Texte intégral (1612 mots)

Que contiennent vraiment nos poubelles et comment leur composition a-t-elle évolué au cours des dernières années ? Une vaste étude de l’Ademe révèle les progrès du tri en France : la poubelle grise s’allège et les nouvelles filières de collecte s’inscrivent peu à peu dans les habitudes. Pourtant, un peu moins de 70 % du contenu de nos poubelles grises ne devrait pas s’y trouver : des axes de progression restent donc à développer.


Nos déchets constituent, sans doute, l’objet le plus tangible qui nous lie aux enjeux écologiques. Nous utilisons une poubelle plusieurs fois par jour et c’est, pour beaucoup d’entre nous, le premier sujet par lequel nous avons été sensibilisés à l’environnement. Au cours des dernières décennies, le tri et ses évolutions se sont peu à peu inscrits dans nos habitudes, même s’il reste une marge de progression pour qu’il soit parfaitement mis en œuvre.

Afin de comprendre comment la composition des déchets a évolué dans le temps, l’Agence de la transition écologique (Ademe) a fait l’exercice de se plonger dans le contenu de nos poubelles. L’enjeu était de connaître leur composition détaillée dans un certain nombre de communes, selon des protocoles et des plans d’échantillonnage bien précis afin de s’assurer que ces chiffres soient représentatifs. Ces résultats, publiés fin 2025, ont porté sur les chiffres de 2024.

De telles études avaient déjà été menées par le passé : en 1993, en 2007 puis en 2017. L’objectif, désormais, est d’annualiser cette enquête afin de mieux évaluer l’efficacité des politiques publiques de gestion des déchets. Une démarche qui permet d’identifier les gisements de déchets d’emballages plastiques, autrement dit les potentiels de valorisation à développer. En se penchant sur chaque type de déchets, ce premier travail livre déjà un certain nombre d’enseignements.

La poubelle grise au régime : 44 % moins lourde qu’il y a trente ans

Débutons par la fameuse poubelle grise vouée aux ordures ménagères résiduelles. Entre 1993 et 2024, son poids moyen a diminué de 44 %, passant de 396 kg à 223 kg par habitant. Un résultat encourageant, qui s’explique en partie par l’accroissement au cours de cette période de la mise en place du tri, qui n’était pas généralisé il y a trente ans.

Depuis 2017 en particulier, des progrès notables ont eu lieu : 30 kg en moins, là aussi, sans doute, grâce à l’amélioration du tri à la source et la mise en place de la collecte des biodéchets, qui ont chuté de 10 % sur cette période dans les poubelles grises.

Ademe

Ce bilan appelle toutefois quelques nuances. Certes, le poids de nos poubelles grises diminue, mais, aujourd’hui encore, 69 % des déchets présents dans les poubelles grises ne devraient pas s’y trouver. Une proportion qui n’évolue pas. Leur composition se répartit comme suit :

  • un tiers correspond à des biodéchets ;

  • près d’un autre tiers, à des emballages et des papiers destinés à la poubelle jaune ;

  • 5 %, à du verre ;

  • et 6 %, à des déchets qui devraient faire l’objet d’autres collectes, en particulier textiles et électroniques.

Par ailleurs, si la part des biodéchets et certains emballages et papiers recyclables ont diminué (respectivement, de 10 et 17 % en moins), la quantité de textiles sanitaires (couches, lingettes, essuie-tout, etc.), en revanche, connaît une forte hausse.


À lire aussi : L’histoire peu connue du compost en France : de la chasse à l’engrais à la chasse au déchet


Dans les poubelles jaunes : moins de papiers mais plus d’erreurs

Du côté des déchets de la poubelle jaune, vouée aux emballages et au papier, la tendance est inverse. Leur poids, qui s’élève aujourd’hui à 52,8 kg par an et par habitant, a légèrement augmenté. Ils représentaient 49,4 kg en 2017, contre 45,8 en 2007. Cette hausse de 15 % en plus de quinze ans est logique, le tri étant depuis entré dans les mœurs et ses consignes ayant été élargies. Ce chiffre est une bonne nouvelle : les Français trient davantage.

Toutefois, on observe en même temps une augmentation des erreurs de tri, avec une part de déchets non conformes en progression depuis 2017. Ainsi, en 2024, ces erreurs concernent 19 % des déchets qui se retrouvent dans les bacs jaunes, contre 12,4 % en 2017. Dans la grande majorité, elles concernent des déchets résiduels qui devraient être dans la poubelle grise.

On y observe par ailleurs une forte diminution des papiers entre 2017 et 2024, probablement liée à la numérisation des usages, et au contraire une hausse des cartons – sans doute causée par la progression des livraisons du fait du commerce en ligne – et des emballages plastiques. Cela se rattache à l’extension des consignes de tri en 2023 à l’ensemble des emballages plastiques, qui semble produire des effets.

Une appropriation progressive du tri des biodéchets

Depuis la généralisation du tri à la source des biodéchets au 1er janvier 2024, les collectivités territoriales se sont massivement mobilisées. Aujourd’hui, la quasi-totalité d’entre elles propose une solution de proximité (compostage individuel ou partagé) tandis qu’environ 30 % ont également déployé un service de collecte spécifique.

En moyenne, 13 % des déchets déposés dans les bacs de biodéchets sont des erreurs de tri. Le contenu de ces bacs se compose majoritairement de biodéchets alimentaires (69 %), dont 12,5 % relèvent encore du gaspillage alimentaire, et de déchets verts (5,5 %).

Le bilan est donc plutôt positif. Des disparités territoriales subsistent toutefois, notamment entre les collectivités ayant installé une collecte séparée et celles qui privilégient uniquement des solutions de compostage de proximité. Les études annuelles permettront de voir à quelle vitesse la pratique se généralise, à la fois par la mise en place de solutions par les communes et l’appropriation par les citoyens.

Un dernier aspect pointé par l’étude concerne les déchetteries, où la composition des bennes de tout-venant présente une grande diversité, avec 75 % de déchets qui devraient être traités en amont par une filière responsabilité élargie du producteur, dite filière REP, particulière – notamment pour les produits de matériaux de construction du bâtiment, qui occupent un quart des bennes. Cela témoigne d’une forte marge de manœuvre existante sur la structuration des filières REP, et sans doute d’une amélioration de l’information vis-à-vis des usagers.

De manière générale, l’étude menée ici se concentre sur une caractérisation des déchets ménagers et apporte des résultats encourageants sur l’impact des politiques publiques. Elle mériterait toutefois d’être complétée par une approche comportementale auprès des ménages afin de mieux comprendre les freins et les obstacles qui expliquent, notamment, que 69 % du contenu des poubelles grises n’y ait pas sa place.

The Conversation

Romuald Caumont ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.02.2026 à 17:16

Pour les enfants, le pouvoir a-t-il un genre ?

Jean-Baptiste Van der Henst, Docteur - Sciences Cognitives, Centre national de la recherche scientifique (CNRS)
Alexandre Foncelle, Ingénieur en analyse de données, Inserm
Anna Eve Helmlinger, Chercheuse post doctorante en psychologie du développement, Université Lumière Lyon 2
Cristina-Ioana Galusca, Postdoc en Psychologie du développement, Université Grenoble Alpes (UGA)
Elodie Barat, Maître de conférences, Institut catholique de Paris (ICP)
Hélène Maire, maîtresse de conférences en psychologie, Université de Lorraine
Rawan Charafeddine, Docteure en psychologie, directrice de mémoires à l'école des psychologues praticiens, Institut catholique de Paris (ICP)
Influencés par leur environnement, les enfants associent souvent pouvoir et masculinité. Mais la propension à valoriser son groupe de genre peut contrecarrer cette tendance.
Texte intégral (1988 mots)

Grandissant dans un environnement imprégné par la mise en scène du pouvoir masculin, les enfants sont très tôt sensibles aux stéréotypes de genre. Comment cela influence-t-il leurs attitudes ? Considèrent-ils alors le pouvoir féminin comme moins légitime ? Ou se positionnent-ils contre les clichés ? La recherche fait avancer notre connaissance de ces représentations enfantines.


Exercer le pouvoir ? « Les garçons, ça leur va bien ! » Voilà ce que nous a répondu Léo, 5 ans, lors d’un entretien, et ces propos interrogent. Se pourrait-il que les enfants intériorisent si jeunes l’idée que le pouvoir est une affaire masculine et que les filles, dans leurs interactions avec les garçons, doivent se rallier à leurs décisions ?

Depuis longtemps, les travaux en psychologie ont montré que des stéréotypes, conformes aux normes sociales genrées, émergent à un âge précoce. Les enfants associent à chaque genre des normes d’apparence, des types de jeux, mais aussi des compétences et des comportements distincts.

Par exemple, la littérature scientifique met en évidence une opposition entre les comportements agentiques, comme l’affirmation de soi, la compétition ou l’agressivité, davantage associés aux garçons, et les comportements communaux, renvoyant au « care » et à l’attention à autrui, plus souvent associés aux filles. Cette approche, centrée sur l’attribution de caractéristiques individuelles, a toutefois négligé la manière dont les enfants conçoivent les interactions sociales genrées.

C’est dans cette perspective que s’inscrivent nos travaux. Dans le cadre du projet CHILD-GAP, soutenu par l’Agence nationale de la recherche (ANR), nous examinons ces représentations des dynamiques de pouvoir – par exemple, lorsqu’un individu impose ses choix à un autre.

Associer pouvoir et masculinité ? Ce qu’en pensent les enfants

Lors d’une recherche antérieure menée en France, au Liban et en Norvège, nous avons présenté à des enfants de 3 à 6 ans une situation montrant deux personnages en interaction, l’un dominant et l’autre subordonné.

Nous leur avons ensuite demandé de deviner quel était le genre de chacun (du pouvoir au genre, voir Figure A). À partir de 4 ans, dans les trois pays, les filles comme les garçons voyaient en majorité un personnage masculin exerçant le pouvoir sur un personnage féminin.

Pour autant, les filles ne se rangent pas toujours derrière cette vision genrée du pouvoir. Car lorsque notre expérimentation a adopté une logique inverse, consistant non plus à deviner le genre des personnages à partir d’une situation de pouvoir (du pouvoir au genre, Figure A), mais à deviner qui exerçait le pouvoir dans un scénario opposant un duo mixte de marionnettes (du genre au pouvoir, Figure B), les réponses différaient selon le genre des participants.

Fourni par l'auteur

Les garçons (73 %) associaient encore le pouvoir au masculin, mais cette tendance avait disparu chez les filles (44 %). Il est probable que des mécanismes de valorisation de son propre genre soient ici à l’œuvre : chez les garçons, ils renforceraient l’association entre pouvoir et masculinité ; chez les filles, ils tendraient à la contrecarrer, sans pour autant l’inverser.

Des stéréotypes de genre à la prescription de comportements

Lorsque l’on demande aux enfants de raisonner sur les groupes sociaux, ils ont tendance à transformer les régularités qu’ils observent (c’est-à-dire le monde tel qu’il est) en règles (soit le monde tel qu’il doit être). Par exemple, dans une recherche menée aux États-Unis, des enfants ont observé deux groupes de personnages consommant chacun un aliment spécifique. Mais lorsque l’un des personnages s’est mis à adopter l’habitude alimentaire de l’autre groupe, les enfants ont désapprouvé son comportement.

C’est ce glissement qui rend les stéréotypes de genre problématiques : ils peuvent se transformer en prescriptions implicites façonnant le regard sur autrui, ou sur soi-même. De tels biais existent chez l’adulte. Des travaux sur l’« effet backlash » montrent que les femmes sont davantage critiquées, et pénalisées sur le plan économique, que les hommes lorsqu’elles affichent du pouvoir.

L’association entre pouvoir et masculinité se traduirait-elle aussi par des attitudes prescriptives chez l’enfant ? Pour répondre à cette question, nous avons présenté à 653 participants de 3 à 8 ans des saynètes dans lesquelles un personnage imposait ses choix de jeux à un autre. Certaines de ces interactions étaient non mixtes (fille > fille ou garçon > garçon), et d’autres étaient mixtes, allant soit dans le sens du stéréotype (garçon > fille), soit dans le sens inverse (fille > garçon).

Pour saisir les attitudes des enfants, nous leur avons demandé de répartir trois autocollants entre les deux personnages. Ils pouvaient ainsi choisir d’avantager le personnage dominant, reconnaissant la légitimité de sa position, ou de favoriser le subordonné pour compenser l’inégalité initiale. Restait alors à savoir si un biais en faveur du dominant masculin allait émerger.

Les résultats n’ont pas confirmé cette hypothèse. Au niveau global, les enfants interrogés n’ont pas plus avantagé le pouvoir quand il était exercé par un garçon plutôt que par une fille. Ces résultats pourraient plaider pour l’hypothèse d’une émergence plus tardive d’une telle tendance.

Valoriser son groupe de genre

Au-delà de l’absence de favoritisme envers le pouvoir masculin, nous avons pu observer deux résultats. Le premier fut une influence de l’âge, déjà mise en évidence dans d’autres études : les plus jeunes (3-4 ans) ont privilégié le personnage dominant, tandis que les enfants de 7-8 ans ont favorisé le personnage subordonné. En grandissant, les enfants tendent donc à juger négativement les asymétries de pouvoir, du moins dans des contextes de jeu comme celui étudié ici.


À lire aussi : Les jeux d’enfants ont-ils un genre ?


La seconde observation fut que les enfants ont donné plus d’autocollants au personnage de leur genre. Cela s’est avéré particulièrement marqué chez les filles, qui ont privilégié le personnage féminin plus fortement que ne l’ont fait les garçons avec le personnage masculin.

Dans le cas particulier des relations de pouvoir, la valorisation de son groupe de genre pourrait ainsi agir comme un contrepoids aux stéréotypes. Nous avons d’ailleurs pu observer ce favoritisme dans d’autres situations. Dans une étude qui examinait les tendances affiliatives, nous avons montré à des enfants de 3 à 6 ans des conflits de ressource entre une femme et un homme, puis nous leur avons demandé avec qui ils préféreraient jouer. Leurs choix se sont portés sur le personnage victorieux, mais uniquement lorsqu’il était du même genre qu’eux.


À lire aussi : Insultes entre élèves : lutter contre le sexisme dès l’école primaire


Dans une autre étude, nous avons cette fois utilisé un test d’association implicite pour déceler les attitudes automatiques que les enfants peuvent avoir face au pouvoir genré. Il s’agissait ici d’établir si l’association « pouvoir masculin = positif » était plus automatique que « pouvoir féminin = positif ». Une fois encore, c’est un effet en faveur de son propre genre qui fut observé : les filles associaient plus rapidement un stimulus positif (un smiley) à une image montrant une femme en train de diriger un homme, alors que les garçons faisaient plus rapidement l’association inverse.

Pour conclure, citons Mia, âgée de 7 ans, qui, dans l’une de nos études en cours, a choisi de s’attribuer une position dominante face à un personnage masculin : « Ça fait du bien ! C’est toujours les garçons qui commandent. » Alors que la lucidité de Mia quant à l’existence d’une hiérarchie genrée ne fait ici aucun doute, cela ne l’amène pourtant pas à s’y soumettre. À la lumière de nos résultats, il apparaît que l’identification à son groupe de genre ainsi qu’une préférence croissante pour l’égalité alimentent cette résistance.

The Conversation

Jean-Baptiste Van der Henst a reçu des financements de l'ANR, du CNRS, de l'INSERM, de la Fondation de France, de la région Rhône Alpes, et de l'Université de Lyon 1.

Alexandre Foncelle a reçu des financements de l'Agence Nationale de la Recherche.

Anna Eve Helmlinger a reçu des financements de l'Agence Nationale de la Recherche.

Cristina-Ioana Galusca a reçu des financements de l'Agence Nationale de la Recherche, de Carnot Cognition, de Cercog (Université Grenoble Alpes) et de Diverse Intelligences Summer Institute (Templeton Foundation).

Elodie Barat a reçu des financements de l'Agence nationale de la recherche (ANR) .

Hélène Maire a reçu des financements de l'Agence nationale de la recherche.

Rawan Charafeddine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.02.2026 à 17:15

Ce qu’un plat de la Renaissance révèle sur la bibliothèque d’Isabelle d’Este

Maria Clotilde Camboni, Honorary Research Fellow, Faculty of Medieval and Modern Languages, University of Oxford
Comment un plat en céramique de la Renaissance richement décoré a permis de reconstituer l’histoire d’un manuscrit et de la bibliothèque d’Isabelle d’Este.
Texte intégral (1975 mots)
Le plat en céramique fabriqué pour Isabelle d’Este-Gonzaga en 1524. Victoria-and-Albert Museum, CC BY-NC-ND

On a coutume de dire « servi sur un plateau d’argent ». Mais c’est grâce au décor peint d’un plat en céramique qu’a été résolue une petite énigme historique, en découvrant que la « première dame de la Renaissance », Isabelle d’Este, était la propriétaire d’un manuscrit aujourd’hui conservé à Paris.


Cette céramique, de style majolique, comporte trois imprese, c’est-à-dire des emblèmes qui étaient utilisés à la Renaissance comme insignes personnels. On voit, sous un blason, une partition musicale ; sur une balustrade au premier plan, on peut lire la devise latine Nec spe nec metu (« Ni par l’espoir ni par la crainte ») et, répété deux fois, un nombre latin, XXVII (27).

J’avais déjà vu ce numéro quelques années auparavant, dans une décoration figurant sur la première page d’un manuscrit à la Bibliothèque nationale de France à Paris, non loin de l’endroit où le plat en majolique était exposé, prêté temporairement par le Victoria-and-Albert Museum à la Fondation Al Thani Collection. Le manuscrit était une copie partielle d’un manuscrit perdu, et j’essayais de déterminer d’où il provenait.

Les armoiries et les différentes « imprese » étaient toutes celles d’Isabelle d’Este (1474-1539), marquise de Mantoue, fille d’Hercule Ier d’Este duc de Ferrare et d’Éléonore d’Aragon, fille du roi de Naples Ferdinand Ier. La réponse m’est soudain apparue comme une évidence : le manuscrit parisien se trouvait à l’origine dans sa bibliothèque personnelle.

Portrait au crayon d’Isabelle d’Este
Portrait d’Isabelle d’Este par Léonard de Vinci (1499). Louvre

Bien qu’elle se soit mariée à seulement 16 ans, Isabelle était une femme extrêmement cultivée. Cela l’a probablement aidée à jouer son rôle dans la gouvernance de Mantoue, en particulier lorsque son mari Francesco Gonzaga (dit François II de Mantoue) partit combattre dans les guerres italiennes, puis fut fait prisonnier. Elle disposait également de ressources financières personnelles considérables et était libre de dépenser son argent comme elle le souhaitait, ce qui lui a permis de devenir la plus importante collectionneuse de la Renaissance italienne.

Mécène des arts, Isabelle a été représentée sur des médailles, des peintures et des dessins par plusieurs artistes, dont Léonard de Vinci. Pour abriter ses antiquités et ses œuvres d’art, elle a aménagé certaines pièces de ses appartements. L’une d’elles était connue sous le nom de studiolo, une pièce consacrée à la lecture et à l’écriture privées. De nombreux artistes de renom ont été chargés de réaliser des peintures pour le décorer, de même que son appartement à Mantoue, où elle s’est installée après la mort de son mari en 1519.

La vaste bibliothèque d’Isabelle y était également conservée. Un inventaire partiel dressé après sa mort révèle qu’elle ressemblait davantage aux bibliothèques des hommes de l’élite de la Renaissance qu’à celles des femmes nobles de son époque. Elle se composait principalement d’ouvrages contemporains et profanes, plutôt que de volumes hérités et de textes religieux, et contenait une proportion inhabituellement élevée de livres manuscrits.

Au cours de sa vie, Isabelle utilisa au moins huit imprese différentes. Il pouvait s’agir de marques de propriété, comme on le voit sur le manuscrit parisien et l’assiette du Victoria-and-Albert Museum, ainsi que sur les 23 autres pièces survivantes de son service de table. Cependant, elles étaient également destinées à transmettre des messages codés.

Une impresa de la Renaissance contenait une sorte de déclaration personnelle concernant la situation, la philosophie, les aspirations et les qualités personnelles de son titulaire. Contrairement aux armoiries, qui étaient héritées, elle n’exprimait rien en rapport avec la lignée familiale ou le statut social, pouvait être utilisée par toute personne qui décidait d’en concevoir une et pouvait être modifiée ou abandonnée à volonté.

Comme sa véritable signification nécessitait une interprétation, une impresa était souvent ambiguë. Les silences (pauses dans la musique) visibles sur la partition musicale représentés sur ce plat peuvent signifier le silence, une vertu associée aux femmes à l’époque. Par leur symétrie, ils peuvent aussi symboliser un principe d’équilibre, à l’instar de la devise latine. Quelle que soit sa signification, c’est celle qu’Isabelle a choisie pour orner les robes qu’elle portait lors d’occasions spéciales, notamment le mariage de son frère Alphonse avec Lucrezia Borgia en 1502.

Peinture représentant des dieux admirés par des hommes
L’une des nombreuses peintures commandées pour le studiolo d’Isabelle, Le Parnasse, d’Andrea Mantegna (1496-1497). Louvre

La marquise n’appréciait pas les explications trop compliquées de ses imprese. En 1506, lorsque l’auteur Mario Equicola écrivit un livret sur sa devise latine, elle déclara dans une lettre à sa mécène, une femme de la noblesse, « nous ne l’avons pas créée avec autant de mystères qu’il lui en a attribués ».

La devise latine d’Isabelle fut, fait inhabituel, réutilisée par d’autres, notamment par l’un de ses fils et par un roi d’Espagne. Ce ne fut pas le cas de l’énigmatique nombre XXVII. Sa présence sur la première page du manuscrit parisien prouve donc qu’il appartenait à Isabelle.

Il existait déjà d’autres indices de cette appartenance. Le manuscrit parisien est une copie partielle de la Raccolta Aragonese, une anthologie de poèmes italiens anciens rares, offerte par l’homme d’État Lorenzo de Médicis à Federico d’Aragona, fils du roi de Naples, vers 1477. Dernier souverain de sa dynastie, Federico s’exila en France avec ses livres.

Après sa mort, la plupart de ses livres sont passés entre les mains de sa veuve, qui s’est installée à Ferrare sous la protection de la famille d’Isabelle. Ses lettres révèlent que, en janvier 1512, elle a réussi à emprunter la collection :

« Le livre des premiers poètes vernaculaires que Votre Majesté a eu la bonté de me prêter, je le conserverai avec tout le respect et la révérence qui lui sont dus, et il ne tombera entre les mains de personne d’autre. Dès que j’aurai fini de le lire, je le renverrai à Votre Majesté, que je remercie pour sa grande humanité à mon égard. »

Isabelle ne mentait pas. Elle voulait ce livre en raison de la rareté de son contenu, et elle aimait être la seule ou presque la seule propriétaire des textes. Nous pouvions déjà émettre l’hypothèse qu’elle en avait commandé une copie, et nous savons maintenant que c’est vrai. Grâce à son initiative, ces poèmes rares ont bénéficié d’une plus large diffusion, mais ni elle ni son correspondant n’auraient pu le prévoir.

The Conversation

Maria Clotilde Camboni ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.02.2026 à 17:14

La transparence fiscale des entreprises commence dans les conseils d’administration

Domenico Campa, Full Professor of Accounting, International University of Monaco
Gianluca Ginesti, Associate professor in Accounting, University of Naples Federico II
La transparence fiscale des grandes entreprises ne s’obtient pas spontanément. Pour y parvenir, il existe certains leviers. Découvrez lesquels.
Texte intégral (1505 mots)

La fiscalité des grandes entreprises semble parfois opaque en dépit des demandes de la société civile, des incitations ou des lois. Quel est le facteur déterminant qui incite une entreprise à être plus ou moins transparente en matière de fiscalité ?


Alors que la fiscalité des grandes entreprises cotées et les exigences de transparence liées aux critères de la responsabilité sociétale des entreprises (RSE) occupent une place croissante dans le débat public en France et en Europe, une question reste largement sous-estimée : qui décide concrètement de ce que ces entreprises révèlent sur leurs impôts ? Derrière les obligations réglementaires, la réponse se trouve souvent au cœur de la gouvernance des entreprises, dans les conseils d’administration.

Ces dernières années, les gouvernements européens ont multiplié les initiatives pour lutter contre l’évitement fiscal et renforcer la transparence. Reporting, pays par pays, obligations de publication extra-financière, nouvelles normes de durabilité : les entreprises doivent désormais expliquer non seulement combien d’impôts elles paient, mais aussi où et comment elles les paient. Cette évolution répond à une attente sociale forte. L’impôt sur les sociétés finance des services publics essentiels, et les révélations successives sur les pratiques fiscales de certaines multinationales ont durablement fragilisé la confiance du public.


À lire aussi : Responsabilité sociale des entreprises : un droit fiscal à contre-courant ?


Pourtant, malgré des règles de plus en plus détaillées, la transparence fiscale reste très inégale. À obligations comparables, certaines entreprises publient des informations précises sur leur stratégie fiscale, leurs risques et leur contribution économique dans chaque pays, tandis que d’autres se limitent au strict minimum légal. Ces écarts ne s’expliquent pas uniquement par la réglementation.

La transparence fiscale, un choix de gouvernance

La transparence fiscale n’est pas seulement une affaire de conformité juridique : c’est aussi un choix de gouvernance. Lorsqu’un sujet est politiquement sensible et potentiellement coûteux en termes de réputation, comme la fiscalité, les décisions ne relèvent pas uniquement des experts techniques. Elles sont arbitrées au plus haut niveau de l’entreprise, celui du conseil d’administration.

Depuis une dizaine d’années, de nombreuses entreprises ont cherché à intégrer la fiscalité dans leur approche de la responsabilité sociétale et environnementale. Dans ce contexte, un outil de gouvernance s’est largement diffusé : la création d’un comité du conseil d’administration consacré à la RSE, parfois appelé comité RSE ou comité durabilité. Chargés de superviser les enjeux sociaux, éthiques et environnementaux, ces comités sont souvent présentés comme la preuve de l’engagement des entreprises envers leurs parties prenantes.

Mais ces comités ont-ils un impact réel sur les pratiques, ou servent-ils surtout à afficher de bonnes intentions ? C’est précisément cette question qu’examine une étude récente.

Inscrire la fiscalité dans une stratégie globale

Notre étude académique, fondée sur une analyse quantitative de données européennes portant sur des grandes entreprises cotées, analyse le lien entre la présence de comités RSE au niveau du conseil d’administration et la qualité des informations fiscales publiées dans les rapports annuels, en utilisant le cadre fourni par PwC comme base de l’indice de divulgation fiscale. Plutôt que de s’appuyer sur des notations RSE globales, l’analyse se concentre sur ce que ces entreprises disent concrètement de leur fiscalité : stratégie fiscale, gestion des risques, impôts payés et contribution économique dans les pays où elles opèrent.

Les résultats sont nets. En moyenne, les entreprises dotées d’un comité RSE sont plus transparentes sur le plan fiscal. Elles expliquent davantage comment la fiscalité s’inscrit dans leur stratégie globale et comment elles contribuent aux finances publiques. Cela suggère que le fait d’attribuer explicitement la responsabilité des enjeux sociaux au niveau du conseil d’administration favorise une approche plus ouverte de la fiscalité. Les résultats de l’étude montrent que les entreprises disposant d’un comité RSE présentent un niveau de transparence fiscale significativement plus élevé que celles qui n’en ont pas.

Une question de composition et de fonctionnement

Tous les comités RSE ne produisent cependant pas les mêmes effets. Leur efficacité dépend fortement de leur composition et de leur fonctionnement. L’un des résultats les plus marquants concerne le rôle du dirigeant exécutif. Lorsque le directeur général siège au comité RSE, le niveau de transparence fiscale est significativement plus faible. Ces entreprises divulguent moins d’informations sur leurs stratégies fiscales et leurs risques.

Ce constat met en lumière une tension centrale de la gouvernance d’entreprise. Les dirigeants exécutifs ont de fortes incitations à maîtriser le risque réputationnel et à limiter l’exposition publique, en particulier sur des sujets politiquement sensibles comme l’impôt. Lorsque le pouvoir exécutif domine la gouvernance RSE, la transparence tend à reculer.

À l’inverse, certaines caractéristiques apparaissent favorables à l’ouverture. Les entreprises dont le comité RSE est présidé par une femme publient en moyenne davantage d’informations fiscales. De même, les comités comprenant une proportion plus élevée de membres disposant d’une formation avancée, comme un MBA ou un doctorat, sont associés à une transparence accrue. La fiscalité est un sujet complexe, et un manque d’expertise ou de confiance technique peut conduire les conseils d’administration à éviter la divulgation plutôt qu’à s’y confronter.

Un frein à l’évitement fiscal

La transparence fiscale ne se limite pas à un exercice de communication. Elle a des effets concrets sur les comportements. Les entreprises les plus transparentes sont aussi celles qui recourent le moins à des stratégies d’optimisation fiscale agressives. Expliquer en détail sa stratégie fiscale rend certaines pratiques plus difficiles à justifier et plus faciles à contester.

Lamy Liaisons Décembre 2024.

Pour les régulateurs, cet enseignement est central. La transparence n’est pas seulement un outil d’information à destination des investisseurs ou du public. Elle peut aussi jouer un rôle disciplinaire, en complément des mécanismes formels de contrôle et de sanction.

Des choix très concrets

Alors que la France et l’Union européenne misent de plus en plus sur des dispositifs fondés sur la transparence, qu’il s’agisse de fiscalité ou de durabilité, ces résultats invitent à élargir le regard. Imposer des obligations de publication est nécessaire mais insuffisant. La manière dont les entreprises organisent la gouvernance de ces sujets sensibles est tout aussi déterminante.

La transparence fiscale ne commence ni dans l’administration fiscale ni dans les annexes d’un rapport annuel. Elle prend forme dans les conseils d’administration, à travers des choix très concrets : qui supervise la fiscalité ? Avec quelle indépendance et avec quelles compétences ? De ces choix dépend la capacité des entreprises à traiter la fiscalité comme une composante à part entière de leur responsabilité sociétale, et à convaincre durablement le public de la crédibilité de leurs engagements.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

23.02.2026 à 17:14

« Nudges », sciences comportementales… Faut-il en finir avec les incitations à mieux gérer nos déchets ?

Service Environnement, The Conversation France
Le risque serait d’invisibiliser les déterminants matériels, sociaux et politiques de la production des déchets.
Texte intégral (699 mots)

Pour réduire la quantité de déchets, les politiques publiques misent de plus en plus sur les sciences comportementales, par exemple les « nudges ». Au risque d’invisibiliser les déterminants matériels, sociaux et politiques de la production des déchets.


Depuis une dizaine d’années, les collectivités territoriales, les agences nationales et une partie du secteur privé se sont engouffrés dans l’application des sciences comportementales à la réduction des déchets. L’idée ? Si les individus trient mal, les jettent au mauvais endroit ou en produisent trop, c’est qu’ils manquent d’information et de motivation. Il suffirait de mener des campagnes bien ciblées pour les rendre plus vertueux.

Ce récit est séduisant, car il permet d’agir vite, à moindre coût et sans remettre en cause les logiques structurelles qui génèrent les déchets. Il est pourtant réducteur, dans la mesure où il méconnaît les rapports sociaux et les inégalités. Il ramène la question politique des déchets à l’échelle individuelle : les habitants sont vus comme des acteurs indisciplinés mais rationnalisables à coup de micro-incitations.

Logique de salubrité contre récupération informelle

Sur le terrain, mes observations ethnographiques montrent que ce sujet est davantage structuré par des dispositifs sociotechniques, économiques, et organisationnels que par les intentions individuelles. Dans de nombreux quartiers, le tri est entravé par des infrastructures inadaptées : par exemple, vide-ordures encore en usage qui empêchent toute séparation des flux à la source, bacs trop éloignés ou difficilement d’accès…

Dans les quartiers populaires, des pratiques de circulation d’objets – don, récupération informelle… – se trouvent également placées sous un régime de suspicions et de sanctions. Les acteurs institutionnels chargés de la gestion des déchets valorisent avant tout une logique de salubrité et se concentrent sur l’entretien visuel de la voie publique. Le déchet y est traité comme un rebut dont il faut se débarrasser au plus vite, et non comme une ressource susceptible d’être valorisée.

Les déchets deviennent alors des marqueurs sociaux. Ils servent à requalifier des groupes, à leur attribuer des comportements naturalisés, à désigner des « responsabilités » qui coïncident souvent avec des groupes ethno-sociaux déjà stigmatisés. Les plus précaires sont ainsi les premiers visés par les dispositifs correctifs.

Un cadrage qui élude des problèmes réels

Dans ce contexte, le recours aux sciences comportementales détourne l’attention des problèmes concrets qui structurent la gestion des déchets au quotidien : infrastructures défaillantes ou mal pensées, conditions de travail éprouvantes (par exemple pour les éboueurs ou les gardiens d’immeubles), conflits entre acteurs (par exemple, entre bailleurs, métropole, prestataires…). Au lieu de rendre ces dysfonctionnements visibles, l’analyse se concentre sur le dernier maillon de la chaîne : l’habitant.

Au-delà de l’argument du coût, les institutions plébiscitent cette approche car elle évite de rouvrir le dossier, plus conflictuel, de la réduction à la source (régulation de la production par exemple) ou de la reconfiguration des infrastructures. Elle s’accorde enfin avec une conception néolibérale de l’action publique où chacun est sommé d’être responsable de son empreinte. Or, si les sciences comportementales peuvent livrer des outils ponctuels, elles ne constituent ni une théorie sociale ni une politique publique durable.


Cet article est la version courte de celui écrit par Camille Dormoy (Le Mans Université/Université Picardie Jules Verne), initialement publié en janvier 2026.

The Conversation

Service Environnement ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.02.2026 à 17:13

L’affaire Epstein et « la révolte des élites »

Frédérique Sandretto, Adjunct assistant professor, Sciences Po
Au-delà des faits concrets révélés, le scandale alimente une défiance profonde déjà ancrée dans de larges pans de l’opinion publique mondiale à l’encontre des élites.
Texte intégral (2103 mots)

Ce qui transparaît à tort ou à raison derrière les révélations liées à l’affaire Epstein, c’est une forme de solidarité interne propre à l’ensemble des « élites mondialisées », et leur conviction d’exister au-dessus de la loi commune. Chaque nouvel élément de preuve renforce le sentiment, auprès de très nombreux citoyens de divers pays, que ces élites se seraient révoltées contre les règles censées s’imposer à tout un chacun, et auraient ainsi trahi le contrat démocratique – ce qui souligne une fois de plus la justesse de l’analyse formulée par Christopher Lasch dans la Révolte des élites et la trahison de la démocratie, un ouvrage paru il y a déjà près de trente ans…


L’affaire Epstein apparaît aujourd’hui comme le révélateur d’une crise profonde de légitimité des élites occidentales. Au-delà de l’horreur des crimes commis et du système de prédation sexuelle mis au jour, ce scandale a surtout exposé l’existence d’un entre-soi où richesse extrême, influence politique et prestige social semblent avoir constitué, sinon une protection absolue, du moins un amortisseur face aux mécanismes ordinaires de la justice.

L’image qui en résulte est celle d’une élite mondialisée évoluant dans des espaces séparés, disposant de ressources juridiques, relationnelles et symboliques inaccessibles au commun des citoyens.

Des personnalités de premier plan citées dans les archives Epstein

La déclassification de nouvelles pièces judiciaires le 30 janvier 2026 a ravivé cette perception. Dans ces documents, largement commentés mais juridiquement hétérogènes – témoignages, dépositions, correspondances, carnets d’adresses –, sont mentionnées de nombreuses personnalités issues du monde politique, économique et culturel. Il convient de rappeler que la simple présence d’un nom dans ces archives ne constitue pas en soi une preuve de culpabilité ni même d’implication criminelle : il s’agit souvent de personnes ayant croisé Epstein dans des contextes mondains ou professionnels. Néanmoins, l’effet symbolique est considérable, car il renforce l’idée d’une proximité structurelle entre les sphères du pouvoir et un individu devenu l’incarnation de la corruption morale.

Parmi les figures dont l’évocation est le plus commentée figurent l’ancien président des États-Unis Bill Clinton, dont les contacts avec Epstein étaient déjà connus et documentés, ainsi que l’ex-prince britannique Andrew, dont les liens avec le pédocriminel ont donné lieu à une procédure civile conclue par un accord financier en 2022, ce qui ne l’a pas empêché d’être brièvement arrêté par la justice de son pays ce 19 février.

Le nom de Donald Trump apparaît également dans certains témoignages historiques relatifs à la sociabilité mondaine new-yorkaise des années 1990 et 2000, sans que ces mentions n’aient débouché sur des poursuites. D’autres personnalités du monde des affaires et de la technologie, telles que Bill Gates, ont été citées pour des rencontres ou échanges passés, déjà reconnus publiquement par les intéressés. La médiatisation de ces noms contribue à construire une cartographie imaginaire du pouvoir global, où se croiseraient dirigeants politiques, magnats financiers et figures de la philanthropie.

L’image d’un « État profond » mondial

C’est dans ce contexte que s’est imposée, dans certains segments de l’opinion, l’idée d’un « deep state », c’est-à-dire d’un État parallèle informel composé de réseaux politiques, administratifs, financiers et sécuritaires capables d’échapper au contrôle démocratique. L’affaire Epstein apparaît dans cette vision des choses comme la preuve de l’existence d’un système de protection mutuelle au sommet, où les élites se préserveraient collectivement des conséquences judiciaires de leurs actions.

Si cette lecture relève souvent d’une extrapolation conspirationniste, elle traduit néanmoins une défiance radicale envers la transparence des institutions. L’absence perçue de responsabilités clairement établies alimente l’hypothèse d’un pouvoir occulte plutôt que celle, plus prosaïque, de dysfonctionnements institutionnels et judiciaires.

L’ouvrage est paru en France chez Flammarion. Couverture de la réédition de 2020.

Ce phénomène illustre la thèse développée par l’historien américain Christopher Lasch en 1995 dans un ouvrage qui a eu un important retentissement, la Révolte des élites : la sécession progressive des classes dirigeantes vis-à-vis du reste de la société. Selon Lasch, les élites contemporaines ne se définissent plus par leur responsabilité envers la nation ou la communauté, mais par leur capacité à circuler dans des réseaux transnationaux fondés sur la richesse, l’éducation et l’influence.

L’affaire Epstein incarne cette mondialisation des élites, dont les liens personnels transcendent les frontières politiques et idéologiques. La fréquentation d’un même individu par des responsables issus de camps opposés alimente l’idée d’une homogénéité sociale au sommet, par-delà les clivages publics.

Un soupçon généralisé à l’égard des dominants

L’impact sur l’opinion est majeur. La publication des documents a renforcé la conviction d’un système à deux vitesses, où les puissants bénéficieraient d’une indulgence structurelle. Même en l’absence de preuves pénales contre la plupart des personnalités citées, la simple association symbolique suffit à nourrir la défiance. Dans un contexte déjà marqué par les inégalités économiques et la crise de la représentation démocratique, l’affaire agit comme un catalyseur du ressentiment populaire. Elle offre un récit simple et puissant : celui d’élites perçues comme moralement corrompues, protégées par leurs réseaux et déconnectées des normes qu’elles imposent au reste de la société.

Dans les discours politiques populistes et sur les réseaux sociaux, l’affaire est ainsi devenue la preuve narrative d’une collusion entre pouvoir économique, appareil d’État et sphères d’influence internationales. Le « deep state » y est décrit comme un mécanisme d’autoprotection des élites, capable d’étouffer des scandales, de ralentir les enquêtes ou de discréditer les accusations. Pourtant, aucune démonstration empirique solide n’est venue confirmer l’existence d’une structure coordonnée de cette nature. Ce décalage entre absence de preuve et persistance de la croyance révèle surtout l’ampleur de la défiance envers les institutions représentatives et judiciaires. Lorsque la confiance disparaît, l’explication conspirationniste devient psychologiquement plus satisfaisante que l’hypothèse de dysfonctionnements bureaucratiques, d’erreurs humaines ou de contraintes procédurales.

L’affaire Epstein illustre ainsi un phénomène plus large : la transformation du soupçon en grille de lecture dominante du pouvoir. Dans un contexte de polarisation politique et de circulation accélérée de l’information, chaque zone d’ombre tend à être interprétée comme la trace d’une intention cachée. Les élites apparaissent alors non seulement comme privilégiées, mais comme fondamentalement étrangères au corps social, évoluant dans un univers de règles implicites distinctes.

En définitive, l’invocation du « deep state » dans le contexte de l’affaire Epstein fonctionne moins comme une description empirique du réel que comme un symptôme politique et culturel. Elle exprime l’angoisse d’un monde perçu comme gouverné par des forces invisibles et irresponsables, ainsi que la conviction que les mécanismes démocratiques ne suffisent plus à garantir l’égalité devant la loi. L’affaire agit donc comme un miroir grossissant des fractures contemporaines : fracture de confiance, fracture sociale et fracture cognitive entre ceux qui adhèrent encore aux explications institutionnelles et ceux qui privilégient une lecture systémique du pouvoir.

Cette perception est amplifiée par la logique médiatique contemporaine, où la circulation fragmentée des informations favorise les interprétations maximalistes. Les documents judiciaires, complexes et souvent ambigus, sont réduits à des listes de noms, transformées en preuves supposées de l’existence d’un système occulte. Ainsi se construit une vision quasi mythologique du pouvoir, où l’idée d’une collusion généralisée remplace l’analyse des responsabilités individuelles et des défaillances institutionnelles concrètes.

Un moment de vérité

L’affaire Epstein révèle en définitive moins une conspiration structurée qu’une crise de confiance radicale envers les élites. Elle met en lumière la fragilité de leur légitimité dans des sociétés où l’exigence d’exemplarité est devenue centrale.

Lorsque ceux qui incarnent la réussite économique, politique ou culturelle apparaissent liés – même indirectement – à des scandales majeurs, c’est l’ensemble du pacte social qui vacille. La perception d’élites immorales protégées par un système opaque devient alors un prisme interprétatif global, susceptible d’alimenter le populisme, la défiance institutionnelle et les théories complotistes.

En ce sens, le scandale Epstein dépasse largement la chronique judiciaire. Il constitue un moment de vérité sur la relation entre pouvoir et responsabilité dans les démocraties contemporaines. La question centrale n’est plus seulement celle des crimes d’un individu, mais celle des conditions sociales et politiques qui ont rendu possible sa longévité au cœur des réseaux d’influence. Tant que cette interrogation demeurera sans réponse pleinement satisfaisante, l’affaire continuera d’alimenter l’idée d’une fracture irréversible entre les élites et le reste de la société.

The Conversation

Frédérique Sandretto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.02.2026 à 17:13

Comment Andrew Mountbatten-Windsor pourrait être retiré de la ligne de succession au trône

Anne Twomey, Professor Emerita in Constitutional Law, University of Sydney
Le retrait du prince Andrew de l’ordre de succession au trône concernerait aussi les autres entités du royaume au sein du Commonwealth, notamment l’Australie.
Texte intégral (2078 mots)

Le 30 octobre 2025, le roi Charles III retirait à son frère cadet Andrew le titre de prince, du fait de la révélation de l’étroite proximité entre ce dernier et le pédocriminel Jeffrey Epstein (Andrew avait notamment accepté de verser une forte somme à Virginia Giuffre, l’une des victimes du trafic sexuel mis en place par Epstein). L’ex-prince s’appelle donc désormais « simplement » Andrew Mountbatten-Windsor, mais reste à ce jour présent dans l’ordre de succession de la couronne britannique. De nouveaux documents relatifs à l’affaire Epstein récemment rendus publics poussent aujourd’hui la monarchie à l’exclure de cet ordre de succession, ce qui aurait aussi un impact direct sur les autres entités du royaume au sein du Commonwealth, à commencer par l’Australie.


La place d’Andrew Mountbatten-Windsor dans la succession au trône britannique semble être menacée.

Mountbatten-Windsor est actuellement huitième dans l’ordre de succession (après le prince William et ses trois enfants, puis le prince Harry et ses deux enfants) à la couronne du Royaume-Uni et de l’ensemble des quinze royaumes du Commonwealth. Il est donc assez improbable qu’il devienne un jour monarque, mais sa répudiation serait avant tout un acte symbolique.

Est-il possible de le retirer de l’ordre de succession ? La réponse est oui – mais cela demanderait du temps, et nécessiterait l’adoption de décisions en ce sens par de nombreux Parlements. Ce questionnement est particulièrement vivace aujourd’hui en Australie, l’un des quinze royaumes du Commonwealth.

Ordre de succession au trône actuel.

La ligne de succession s’applique-t-elle aux couronnes britannique et australienne ?

Quand l’Australie accède à l’indépendance, en 1901, la Couronne britannique est qualifiée d’ une et indivisible ». La reine Victoria exerce des pouvoirs constitutionnels sur toutes ses colonies, s’appuyant sur les conseils de ministres britanniques.

Mais après la Première Guerre mondiale, cette dynamique change, à la suite d’une série de conférences impériales. En 1930, les « dominions » autonomes (Australie, Canada, Nouvelle-Zélande, Afrique du Sud, État libre d’Irlande et Terre-Neuve) obtiennent leurs propres couronnes. Ainsi, le premier ministre australien a désormais le droit de conseiller le monarque sur la nomination du gouverneur général d’Australie et sur d’autres questions fédérales australiennes.

Cependant, les lois de succession à ces diverses couronnes restent les mêmes. Il s’agit d’un mélange hétéroclite de lois anglaises, comprenant des règles générales relatives à l’héritage et des documents tels que la Charte des droits de 1689 et l’Acte d’établissement de 1701.

Ces lois sont devenues partie intégrante du droit australien au XVIIIe siècle mais, longtemps, les Parlements australiens n’avaient eu aucune possibilité de les modifier. L’adoption du Statut de Westminster en 1931 vient toutefois changer les choses. Cette charte donne aux dominions le pouvoir d’abroger ou de modifier les lois britanniques applicables dans leur pays.

Cependant, étant donné que cela pourrait engendrer des complications concernant la succession à la Couronne, un passage est inclus dans le préambule du texte, établissant que « toute modification du droit relatif à la succession au trône » devait recevoir l’assentiment des Parlements de tous les dominions ainsi que du Royaume-Uni. L’article 4 du Statut maintient le pouvoir du Parlement britannique de légiférer pour un dominion, mais uniquement à la demande et avec le consentement de celui-ci.

En 1936, lorsque le roi Édouard VIII abdique, le Parlement britannique adopte une loi modifiant les règles de succession afin d’en exclure tout enfant que le roi pourrait avoir. L’Australie consent à ce que cette loi britannique s’applique également sur son territoire.

Depuis l’adoption de l’article 1 de l’Australia Act de 1986, aucune loi du Parlement britannique ne peut désormais faire partie du droit du Commonwealth, d’un État ou d’un territoire australien. Toute modification de règles sur la succession à la Couronne d’Australie doit donc être effectuée en Australie.

Comment l’Australie pourrait-elle modifier la loi sur la succession ?

Lors de l’adoption de la Constitution du Commonwealth, la Couronne était encore considérée comme « une et indivisible ». Il n’a donc pas été prévu de disposition donnant au Parlement du Commonwealth le pouvoir de légiférer sur la succession à la Couronne. Toutefois, les rédacteurs de la Constitution ont prévu un mécanisme permettant de faire face à ce type d’évolution imprévue.

L’article 51(xxxviii) de la Constitution prévoit que le Parlement du Commonwealth australien peut exercer un pouvoir qui, en 1901, relevait uniquement du Parlement britannique, à condition d’en recevoir la demande ou l’accord de tous les États concernés. Cela signifie que les Parlements du Commonwealth et des États peuvent coopérer pour modifier les règles de succession à la Couronne d’Australie.

La question s’est posée en 2011, lorsque les différents royaumes du Commonwealth (c’est-à-dire les pays qui reconnaissaient toujours la reine Elizabeth II comme chef d’État) sont convenus de modifier les règles de succession afin de supprimer la préférence masculine et l’exclusion des héritiers ayant épousé un (ou une) catholique.

Le Parlement britannique a adopté le Succession to the Crown Act en 2013 pour donner effet à cette réforme. Il en a toutefois différé l’entrée en vigueur jusqu’à ce que les autres royaumes aient adopté des dispositions similaires. La loi britannique ne modifiait la succession que pour la Couronne du Royaume-Uni.

La princesse Charlotte, fille du prince William née en 2015, est troisième dans l’ordre de succession, après son père et son frère aîné George, né en 2013. Jubilé de platine de la reine Élizabeth, 2022, CC BY-NC

Certains royaumes ont estimé devoir modifier leur propre droit interne. D’autres ont considéré que cela n’était pas nécessaire, leur Constitution désignant automatiquement comme souverain la personne qui est roi ou reine du Royaume-Uni. Finalement, des lois ont été adoptées en Australie, à la Barbade, au Canada, en Nouvelle-Zélande, à Saint-Christophe-et-Niévès et à Saint-Vincent-et-les-Grenadines.

En Australie, chacun des États fédérés a adopté une loi intitulée Succession to the Crown Act 2015. Le processus australien a été long, en raison de priorités législatives différentes, de calendriers parlementaires et de périodes électorales dans les États.

L’Australie a été le dernier pays à adopter sa loi. La modification de la succession est ensuite entrée en vigueur simultanément dans tous les royaumes concernés.

Comment le processus fonctionnerait-il aujourd’hui ?

Si l’on envisageait aujourd’hui de retirer Mountbatten-Windsor de l’ordre de succession, le gouvernement britannique chercherait probablement d’abord à obtenir l’accord des autres royaumes du Commonwealth. Même si ce n’est pas juridiquement obligatoire, une consultation est importante pour maintenir un monarque commun.

Le Parlement britannique préparerait ensuite un projet de loi servant de modèle aux autres juridictions, afin d’assurer l’uniformité des règles. Le texte préciserait si l’exclusion de Mountbatten-Windsor concernerait aussi bien ses héritières, les princesses Beatrice et Eugenie, ainsi que leurs enfants. Sous l’ancienne loi, une personne de la famille royale qui épousait un ou une catholique était considérée juridiquement « morte » afin que les droits héréditaires de ses descendants ne soient pas affectés. Une solution comparable pourrait être retenue dans le cas de Mountbatten-Windsor.

Les mêmes Parlements qui avaient adopté les lois lors de la précédente réforme (à l’exception de la Barbade, devenue république) devraient voter une loi équivalente s’ils souhaitent conserver des règles identiques. Toutefois, présenter un tel texte pourrait ouvrir un débat plus large sur le rôle de la monarchie dans ces différents États.

L’Australie pourrait-elle agir seule ?

L’Australie pourrait, en théorie, adopter seule une loi retirant Mountbatten-Windsor de la succession à la Couronne d’Australie. Il est cependant peu probable qu’elle le fasse.

D’abord, cela supposerait un processus législatif complexe, mobilisant sept Parlements pour adopter une mesure qui aurait probablement peu d’effet concret, compte tenu de la place éloignée de Mountbatten-Windsor dans l’ordre de succession.

Ensuite, la clause 2 des dispositions introductives de la Constitution du Commonwealth prévoit que les références à « la Reine » s’étendent à « ses héritiers et successeurs dans la souveraineté du Royaume-Uni ». Mais s’agit-il seulement d’une règle d’usage ou cette disposition produit-elle des effets juridiques substantiels ?

Pour beaucoup, maintenir les mêmes règles de succession en Australie et au Royaume-Uni évite d’ouvrir la boîte de Pandore.

The Conversation

Anne Twomey a reçu des financements de l'Australian Research Council et effectue occasionnellement des missions de conseil pour des gouvernements et des organismes intergouvernementaux.

23.02.2026 à 17:12

Aliments : le changement climatique modifie la biodisponibilité des (micro)nutriments

Emmanuelle Reboul, Directrice de recherche, Inrae; Inserm; Aix-Marseille Université (AMU)
Le changement climatique a des conséquences sur la composition des aliments ainsi que sur la biodisponibilité des nutriments qu’ils contiennent, autrement dit la fraction assimilable par l’organisme.
Texte intégral (2177 mots)

Les transformations profondes dues au changement climatique en cours affectent directement les systèmes de production alimentaire. Outre les problèmes de rendement, la biodisponibilité des nutriments présents dans les aliments est également modifiée, ce qui pourrait avoir des conséquences sur la nutrition humaine.


Parmi les impacts les plus marquants du changement climatique figurent la diminution des rendements agricoles due à des événements climatiques extrêmes tels que les sécheresses, les inondations ou l’exposition à l’ozone troposphérique.

De ce fait, l’accès aux aliments de base (blé, maïs, riz) pourrait devenir plus difficile, particulièrement pour les populations les plus vulnérables d’un point de vue socio-économique.

Favorisée par des températures plus élevées, la prolifération de bactéries et de champignons, qui accroît les risques de maladies d’origine alimentaire, pourrait encore aggraver cette situation.

Mais ce n’est pas tout, car au-delà de ces questions de sécurité alimentaire se pose un autre problème, moins visible : celui de la biodisponibilité des nutriments présents dans les aliments. Ce paramètre, qui désigne la fraction d’un composé alimentaire absorbée par l’organisme et acheminée vers les tissus après digestion, est également perturbé par ces bouleversements.

Pour la première fois, nous avons analysé les liens, à la fois directs et indirects, entre le changement climatique et la biodisponibilité de composés alimentaires clés : protéines, micronutriments liposolubles, minéraux, composés phénoliques et glucosinolates. Voici ce que nous a appris l’analyse de la littérature.

Le changement climatique menace les approvisionnements en protéines

Le changement climatique remet en question les sources traditionnelles de protéines animales (viande rouge notamment, dont il faudrait réduire la consommation pour améliorer la durabilité de notre alimentation, mais aussi certaines sources de protéines végétales (blé, maïs, riz) au profit de sources plus résilientes au changement climatique (millet, sorgho).

Cependant, il faut souligner que la qualité, la digestibilité et la biodisponibilité des protéines végétales peuvent être inférieures à celles des protéines animales. Ceci s’explique notamment par un manque en certains acides aminés essentiels comme la lysine, ou la présence de composés dits « antinutritionnels » tels que les phytates ou les tannins, qui interfèrent avec les enzymes durant la digestion.

En outre, l’augmentation des concentrations de CO₂ pourrait réduire la teneur en protéines des végétaux, jusqu’à 15 % pour le blé, le riz et l’orge, en faveur d’une production accrue de glucides. En revanche, les pics de chaleurs pourraient augmenter la teneur en protéines.

Micronutriments liposolubles : une vulnérabilité accrue

Les micronutriments liposolubles, comme les vitamines A, D, E, K, sont des molécules indispensables pour se maintenir en bonne santé. Or, les sources naturelles de nutriments vont probablement subir dans les années à venir les effets du changement climatique. Ce dernier menace notamment déjà certaines populations de poissons gras riches en vitamine D.

Dans le même temps, la vitamine D présente dans la viande, le lait ou les œufs pourrait être amenée à augmenter selon les régions, car sa teneur dépend de l’exposition des animaux au soleil.

Autre exemple : le changement climatique pourrait induire une baisse drastique des populations de pollinisateurs, ce qui impacterait directement la production de fruits et légumes riches en caroténoïdes provitaminiques A. Actuellement, environ 70 % de la vitamine A des aliments vient de cultures dépendantes de l’action de pollinisateurs.

Bien que l’exposition aux UV stimule la synthèse de caroténoïdes dans certaines plantes, leur teneur diminue sous des taux élevés de CO₂. Sécheresse et chaleur augmentent également les teneurs en phytates et en fibres, qui réduisent la biodisponibilité des micronutriments liposolubles en interférant avec le fonctionnement des enzymes digestives ou en ralentissant la digestion.

Les insectes comestibles pourraient offrir une solution innovante pour recycler ces composés dans la chaîne alimentaire.

Les minéraux : une disponibilité en déclin

Les carences en minéraux essentiels, tels que le fer, le zinc et le calcium, devraient s’aggraver d’ici 2050, avec une réduction estimée de 14 à 20 % de leur disponibilité globale.

Les cultures céréalières, les légumineuses, les poissons et les fruits de mer, sources majeures de minéraux, sont particulièrement vulnérables aux stress climatiques. Sous l’effet d’un CO₂ élevé, les teneurs en fer, zinc, calcium et magnésium diminuent, pouvant atteindre jusqu’à 30 % pour le fer dans les légumes-feuilles.

Cependant, l’association du CO₂ et de températures plus chaudes peut atténuer cette baisse pour certains minéraux, comme le zinc dans le blé. Comme pour les micronutriments liposolubles, la biodisponibilité des minéraux est directement affectée par la présence de phytates et de fibres.

Les composés phénoliques et glucosinolates : des réponses contrastées

Les polyphénols, abondants dans les fruits, légumes, céréales et légumineuses, jouent un rôle clé dans la prévention des maladies chroniques grâce à leurs propriétés antioxydantes et anti-inflammatoires.

Les glucosinolates, présents dans les crucifères comme le brocoli et le chou, sont quant à eux reconnus pour leurs effets anticancéreux.

Les réponses des plantes aux stress climatiques sont variables : sécheresse et chaleur peuvent soit augmenter, soit réduire les teneurs en polyphénols et en glucosinolates, selon les espèces. Leur biodisponibilité dépend également de la présence de composés antinutritionnels et de fibres.

Pour atténuer les impacts délétères du changement climatique sur la biodisponibilité des (micro)nutriments et des bioactifs d’intérêt, plusieurs pistes sont envisagées.

Enrichir et préserver les micronutriments

L’enrichissement des cultures en micronutriments, par le biais de la biofortification constitue une stratégie clé pour lutter contre les carences nutritionnelles.

Par ailleurs, l’optimisation des procédés de transformation alimentaire (haute pressionLe traitement à haute pression est une technique non thermique de conservation des aliments qui tue les micro-organismes susceptibles de provoquer des maladies ou d’altérer les aliments.
Basé sur l’application d’une pression très élevée pendant un certain temps, il a des effets minimes sur le goût, la texture, l’aspect ou la valeur nutritive.
, champs électriques pulsésL’emploi de champs électriques pulsés de haute intensité est un processus non thermique utilisé pour traiter différents types de nourriture.
Il est utilisé depuis des décennies, notamment pour pasteuriser des aliments liquides (jus de fruits, lait, œufs liquides, smoothies); extraire du jus, de l’eau et des composés bioactifs des plantes; déshydrater des tissus.
, microfluidisationApparue dans les années 80, la microfluidisation est une technique qui permet la formation de microémulsions, améliorant notamment la stabilité d'un produit.) permet de préserver la biodisponibilité des nutriments, notamment en éliminant les composés antinutritionnels, tout ayant un impact environnemental réduit par rapport aux procédés traditionnels.

Enfin, des méthodes traditionnelles comme la germination et la fermentation permettent aussi de maintenir la biodisponibilité des nutriments (comme dans le cas du quinoa).

Diversifier les sources

Il est essentiel non seulement de promouvoir des cultures résilientes, mais aussi de développer des sources de protéines alternatives.

En ce qui concerne les protéines d’origine végétale, les scientifiques travaillent à identifier des céréales qui sont non seulement résistantes aux stress climatiques, mais qui présentent également des profils nutritionnels intéressants. C’est par exemple le cas du millet et du sorgho, cultivés en Afrique et en Asie, ainsi que des légumineuses comme les pois chiches.

Soulignons que la complémentarité entre les protéines de céréales et de légumineuses, dans un ratio de 2 :1, reste essentielle pour équilibrer les apports en acides aminés essentiels et optimiser la qualité protéique des régimes végétaux. L’emploi des protéines de pomme de terre est également envisagé.

Ces céréales pourraient remplacer les céréales actuelles dans leurs principaux usages (farines pour le pain, les pâtes, etc.), et pour circonvenir les problèmes techniques ou d’acceptation par les consommateurs, il pourrait être envisageable de ne remplacer que partiellement la céréale utilisée traditionnellement, ou d’adapter les recettes.

Par ailleurs, les protéines alternatives, comme celles issues d’insectes, de microalgues (spiruline, chlorella) ou d’organismes unicellulaires (levures), suscitent un intérêt croissant. Elles offrent un double avantage : elles présentent des profils nutritionnels favorables et leur empreinte écologique est faible.

En définitive, seule une approche globale, combinant innovation agricole, transformation durable et politiques publiques adaptées, permettra d’adapter les systèmes alimentaires aux défis posés par le changement climatique.

The Conversation

Emmanuelle Reboul ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.02.2026 à 17:09

Une nouvelle technique permet (enfin) de révéler les fonds marins côtiers du monde entier

Rafael Almar, Chercheur en dynamique littorale, Institut de recherche pour le développement (IRD)
Erwin Bergsma, Expert en océanographie côtière, Centre national d’études spatiales (CNES)
Sophie Loyer, Ingénieur R&D, Service hydrographique et océanographique de la marine (Shom)
Une nouvelle méthode permet, en utilisant des satellites de mesurer les caractéristiques des vagues afin d’estimer la profondeur et donc de mieux connaître les fonds marins à l’échelle du monde entier.
Texte intégral (1680 mots)

Bien connaître les fonds marins est crucial dans de nombreux domaines. Or, jusqu’à présent on ne savait en cartographier qu’une très faible proportion. Une nouvelle méthode permet, en utilisant des satellites, de mesurer les caractéristiques des vagues afin d’estimer la profondeur et donc de mieux connaître les fonds marins à l’échelle des côtes du monde entier.


Nous connaissons bien les cartes topographiques des zones terrestres, avec leurs plaines, vallées, canyons et sommets. La topographie sous-marine est beaucoup moins connue, car elle est difficile à voir et à mesurer. Pourtant, lors du dernier âge glaciaire, lorsque le niveau de la mer se situait 120 mètres plus bas et qu’il était possible de traverser la Manche à pied, ces zones étaient apparentes. Dans le passé, la Méditerranée se serait également asséchée par évaporation, coupant le lien avec l’océan Atlantique à Gibraltar et révélant aux habitants de la Terre de l’époque ses fonds marins. Malheureusement, pour les explorer au sec, il faudrait que les fonds marins se découvrent, mais les prévisions actuelles de changement climatique, liées aux activités anthropiques, indiquent plutôt une hausse du niveau de la mer de l’ordre du mètre pour le XXIe siècle.

Cartographier ces fonds marins est un véritable enjeu actuel pour de multiples aspects : navigation, développement des énergies marines renouvelables (éoliennes, câbles sous-marins), mais aussi sécurité civile et risques de submersion/érosion. Ces mesures sont réalisées au moyen de navires océanographiques équipés de sondes (poids au bout d’un fil, puis échosondeurs), ce qui est coûteux et dangereux notamment lorsqu’il s’agit de s’approcher des petits fonds, en présence de vagues et de courants.

Des fonds encore largement méconnus

En France, c’est le Service hydrographique et océanographique de la Marine (Shom) qui est chargé de la cartographie des fonds marins pour le compte de l’État. Avec près de 11 millions de km2, la France possède la deuxième plus grande zone maritime au monde et le Shom ne peut mesurer qu’environ 1 % de cette surface. Au niveau mondial, seulement environ la moitié des zones côtières ont été mesurées, souvent une seule fois, et ces informations datent souvent de plusieurs décennies. Or, ces fonds peuvent évoluer sous l’action de mouvements tectoniques, de déplacements sédimentaires dus aux vagues et aux courants, aux rivières et aux estuaires, ainsi qu’aux dunes et bancs de sable sous-marins, aux chenaux de navigation, etc. Une réactualisation régulière est donc primordiale. Aujourd’hui, les missions de satellites d’observation de la Terre sont de plus en plus nombreuses, fréquentes et précises, offrant des capacités d’observation inégalées et en constante progression. C’est dans ce contexte que nous avons cherché à développer, avec le programme S2Shores (Satellites to Shores), une approche permettant d’utiliser cette nouvelle opportunité pour cartographier l’ensemble des fonds marins côtiers à l’échelle mondiale par satellite.

Dans un environnement côtier très dynamique, il est essentiel pour la sécurité de la navigation de disposer d’un état actualisé des fonds marins. Cela permet également d’améliorer la précision des modèles de vagues, de marée et de courants, dont les performances dépendent principalement de la connaissance de l’état des fonds marins. Face à l’augmentation des risques de submersion et d’érosion côtières liée au changement climatique, il est essentiel de pouvoir anticiper et prévenir ces phénomènes dans le cadre d’événements extrêmes. Cela permet également de réaliser des bilans sédimentaires en quantifiant les stocks de sable. Dans les pays du Sud, qui ne bénéficient pas de moyens traditionnels coûteux de cartographie des fonds marins, les promesses offertes par ces nouvelles techniques satellitaires, ainsi que les attentes, sont grandes.

Comment fonctionne cette nouvelle méthodologie ?

Les méthodes satellitaires existantes pour estimer les fonds marins sont principalement basées sur l’observation directe du fond : on mesure ce que l’on voit. Cette approche est efficace dans les eaux claires et transparentes, comme dans les atolls, mais elle est moins performante dans les eaux turbides et troubles, comme autour des panaches de rivières, dans les zones sableuses ou vaseuses. En moyenne, on considère que la profondeur atteignable est d’environ 15 mètres. Une calibration avec des mesures sur place, dites in situ, est la plupart du temps nécessaire.

Exemple d’application de l’estimation satellite des fonds marin (S2Shores) sur la baie du Bengale. Des chenaux et autres structures fines sont bien visibles. Fourni par l'auteur

L’approche que nous avons développée est fondée sur une méthode inverse : on mesure les vagues dont les caractéristiques géométriques (longueur d’onde, c’est-à-dire la distance entre deux crêtes) et cinématiques (vitesse) sont modulées par les fonds marins en zone côtière afin d’estimer la profondeur. Cette méthode permet d’étendre le champ d’application des méthodes spatiales aux eaux turbides et plus profondes, jusqu’aux plateaux continentaux, à des profondeurs de plus de 50 mètres, soit une augmentation potentielle de +58 % ou 3,1 millions de km2 par rapport aux méthodes basées sur la couleur de l’eau avec une moyenne mondiale grossière de visibilité des fonds de 15 mètres.

En pratique, nous utilisons les images optiques des satellites de la mission Sentinel-2 de l’Agence spatiale européenne, qui offrent une réactualisation régulière, de l’ordre de cinq à dix jours selon les zones, avec une résolution de 10 mètres. Sentinel-2 dispose de plusieurs bandes de couleur, dont le rouge et le vert, que nous utilisons ici. Ces bandes ne sont pas acquises exactement au même moment. C’est ce décalage d’environ 1 seconde entre ces deux bandes que nous exploitons pour détecter la propagation des vagues, de l’ordre de 1 à 10 mètres par seconde. Tout cela est possible avec un satellite qui passe à environ 700 km d’altitude et 7 km par seconde.

Établir cet atlas global des fonds marins des zones côtières est également une prouesse en termes de traitement de masse de plus d’un million d’images sur le supercalculateur TREX du Cnes, où sont également stockées toutes ces images pour un temps d’accès minimum.

Une chaîne de traitement a été réalisée dans le cadre du programme S2Shores afin d’optimiser ces traitements de manière automatisée.

Nous continuons à faire progresser le cœur du code d’estimation des fonds marins et incorporons différentes missions, comme la récente C03D développée conjointement par le Cnes et Airbus Defence and Space. Après cette démonstration globale à basse résolution (1 km), ces codes sont ouverts et libres d’utilisation pour répondre à des besoins spécifiques, comme des projets d’aménagement, par exemple, ou dans le cadre de jumeaux numériques pour réaliser des scénarios d’inondation ou d’érosion côtière, lorsqu’ils sont combinés à un modèle numérique.

The Conversation

Rafael Almar a reçu des financements de l'Agence Nationale de la Recherche (ANR) à travers le projet GLOBCOASTS (ANR-22-ASTR-0013)

Erwin Bergsma a reçu des financements du CNES.

Sophie Loyer a reçu des financements de l'Agence Nationale de la Recherche (ANR) à travers le projet GLOBCOASTS (ANR-22-ASTR-0013)

23.02.2026 à 16:36

Minding the gap between the art of deal-making and the art of diplomacy, or how to handle Donald Trump

Maxime Lefebvre, Permanent Affiliate Professor, ESCP Business School
Snap decisions, hard bargaining and public provocation… Donald Trump never ceases to throw off his partners. How can foreign policy best tackle his behaviour.
Texte intégral (2374 mots)

Since Donald Trump’s return to the White House, his shock tactics and explosive actions have made waves on the world stage. There is no shortage of adjectives characterising Donald Trump’s international modus operandi: narcissistic, transgressive, unpredictable and erratic, boastful, clumsy, even vulgar, dishonest, brutal… His tweets and curt sentence-based internal and external communications present leaders and diplomatic corps worldwide with a redoubtable challenge when for example, he shamelessly goes public about conversations that should have otherwise remained private and confidential (as was recently the case regarding a text exchange with Emmanuel Macron). Such disturbing behaviour would’ve caused a breadth of diplomatic havoc if it hadn’t come from the leader of the world’s biggest superpower, leaving partners of the United States with no choice but to adapt accordingly and keep up appearances.

Diplomacy in relations between foreign leaders and Trump, is still necessary, in the same way that international law retains its intrinsic value in relations between nations. Despite multiple breaches, including those by the current US President himself, diplomacy remains an art form in terms of communication, and compromise between parties that do not share the same perspective on the world, especially when they are in disagreement over a particular issue.

‘The Art of the Deal’ – A disruptive brand of foreign policy

The book The Art of the Deal (co-authored by Donald Trump and journalist Tony Schwartz) dates back to 1987, long before the businessman’s foray into politics. In the book, the Real Estate mogul describes his disruptive negotiating method, which consists of thinking big, asking for a lot, and using the media to his advantage. It was at that time that he started to publicly demand that the US lay down tariffs (global duty collections on imported goods), amid a context characterised by Japan’s economic boom and the widening of America’s trade deficit.

“Donald Trump is he a master negotiator or a bully?” ABC Australia, July 2025.
France 24, October 2025.

Donald Trump was unable to fully implement his policy during his first term because he was ill-prepared and held back by his administration, for example, in his attempts to build closer ties with North Korea. His second term kicked off with a more thought-out and resolute policy: aggressive trade measures (the “salvo of tariffs” announced on “Liberation Day” on April 2); by threats to the sovereignty of Canada and Greenland; by demanding that Latin American states comply with its orders on immigration control, the fight against drug trafficking, and relations with China; by the withdrawal of the United States from certain multilateral organizations (already begun in 2017-2020); and by the heavy-handed negotiation of several peace agreements (notably in Gaza).

This attitude, while striking in comparison to previous administrations, is not entirely unprecedented in American tradition when it comes to relations with the rest of the world. Pressure on allies, unilateral sanctions, the extraterritoriality of American law, the unilateral use of force, and the rejection of certain multilateral norms (the US has never ratified the Montego Bay Convention on the law of the sea or the Rome Statute establishing the International Criminal Court, and withdrew from UNESCO between 1984 and 2003) are not new practices. But Donald Trump adds his own brand of brutality, selfishness, and systematicity, in the name of ideology: America First.

Practical limitations

The US president has said that he sets no limits other than those of his “own morality”. However, there are two practical limits that are evident in his actions, which may reassure his partners somewhat.

Firstly, he does not like military adventures. On the one hand, this is due to his temperament (he did not do military service and believes more in business than in war). On the other hand, it is because his electoral base rejects military engagements. He intends to guarantee “peace through strength,” but the goal is indeed peace. He has demonstrated a clear preference for targeted strikes and operations (in Syria in 2017 and 2018, in Iran and Nigeria in 2025, and in Venezuela in 2026) instead of prolonged engagements.

He thus confirms that the page of the ‘war on terror’, which is estimated to have cost $8 trillion (€6.75 trillion) in the US between 2001 and 2021, has come to an end, without abandoning the military strikes that have become, since Barack Obama’s two terms in office, the preferred means of action against terrorist groups. The operation in Venezuela is a good illustration of a policy that is economical in its objectives (in this case, Maduro’s ousting and the fight against drug trafficking and Chinese influence, rather than regime change) and in its means.

Secondly, Donald Trump has demonstrated his pragmatism on more than one occasion, not hesitating to back down when he has gone too far. This is a corollary of his disruptive approach. The reactions of American public opinion and the stock market, as well as the limits imposed by his partners, ultimately influence an administration in which the president, surrounded by loyalists, does not ignore calls for caution. The tariffs enacted on ‘Liberation Day’ were immediately followed by a pause, largely due to the reaction of the markets, to the point that the Wall Street Journal hailed it a ‘Mitterrand moment’, drawing a parallel between Trump’s reversal on this occasion and the famous turn toward austerity initiated by the French socialist president in 1983.

In the Russia/Ukraine dossier, the American president listened to the Europeans and shifted his position to one less favourable to Moscow, to the point of accepting a form of American commitment in future security guarantees for Ukraine. On Greenland, he backed down in Davos by renouncing the military option. On Iran, he distanced himself from certain attempts to overthrow the regime in order to focus on the goal of nuclear negotiations.

France 24, January 2026.

He has been criticised for these U-turns (the acronym TACO, “Trump Always Chickens Out” has been very successful on social media), and it is not certain that they will pay off with the American electorate at the time of the midterms. But they show that there is a place for diplomacy in the art of managing Trump.

The art of managing Trump

World leaders are unsettled and their nerves are being tested. Many have been on the receiving end of his mockery and whims, particularly Western leaders or those considered hostile, but not directly “strong” leaders such as Xi Jinping and Vladimir Putin. Some have not been afraid to make fools of themselves, such as NATO Secretary General Mark Rutte, who reportedly called him ‘Daddy’.

Nevertheless, the US administration’s partners have managed over time to establish a working relationship with it and achieve results. Emmanuel Macron was the first to organise a meeting between Trump and Ukrainian President Zelensky, at the Notre-Dame reopening ceremony in December 2024. The European Commission concluded a trade deal with the United States in July 2025, which was criticised in France in particular, but welcomed by many states that wanted, above all, to preserve economic and trade ties with Washington. The NATO summit in The Hague in June 2025 passed without a hitch, avoiding American disengagement.

As relations with Canada became strained due to mounting disputes (tariffs, land claims, relations with China), [Mexican President Claudia Sheinbaum(https://www.latimes.com/world-nation/story/2026-01-30/trump-mexico-sheinbaum) demonstrated her skill in her relations with the American president]. Emmanuel Macron, until the recent confrontation over Greenland, had also managed to charm the White House host, who acknowledged this in Davos (“I really like Emmanuel Macron”) while sending him several jibes.

This reveals a certain method in the art of dealing with the US head of state:

  1. The need to keep a cool head. This should not become coldness, at least on the part of partners and allies. It is a matter of keeping calm, not getting drawn into verbal escalation, and countering whims with the authority of seriousness.

  2. Dialogue and cooperation: talking, taking American demands seriously, trying to understand them, attempting to respond to them, accepting and even seeking dialogue, looking for and accepting compromises.

  3. Firmness: setting and stating limits, reiterating positions of principle, acting or reacting with restraint, and strengthening one’s position by seeking allies.

The European approach

The way Europeans have dealt with Donald Trump so far has been quite exemplary: accepting a tariff compromise that avoids a trade war (the Turnberry agreement); drawing red lines on digital regulation; diplomacy backed by tools of power in Ukraine (increased aid and the establishment of a ‘coalition of the willing’ to provide security guarantees to Kiev); firmness in the Greenland affair (the statement of 6 January and the dispatch of a military mission); postponement of the ratification of the trade agreement. But the Europeans have always avoided entering into a futile confrontation, seeking, above all, to safeguard the future and preserve the transatlantic link, despite numerous calls (especially in France) for an uncompromising stance.

A different stance for the East

Relations with Russia and China appear more formal, colder and more egalitarian, as Trump treats them with greater deference. Xi Jinping appeared to use self-control to dominate his counterpart during their meeting in Korea, even though some saw it as an attempt by Donald Trump to gain the upper hand. Chinese culture, which places great importance on appearances and not losing face, is undoubtedly difficult to reconcile with the American president’s eccentricities. A similar situation occurred during the meeting with Vladimir Putin in Anchorage.

Behind the negotiations and diplomatic twists and turns, what is at stake involving global power relations and the future of the Western camp and its values is obviously far deeper. But whatever developments lie ahead, diplomacy will remain more necessary than ever for ensuring global stability. While diplomacy must still bend and shape itself around power relations, on the bright side, it is still producing results.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Maxime Lefebvre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.02.2026 à 11:43

Trump désavoué par la Cour suprême sur les droits de douane : et maintenant ?

Anne E. Deysine, Professeur émérite juriste et américaniste, spécialiste des États-Unis, questions politiques, sociales et juridiques (Cour suprême), Université Paris Nanterre
Si la décision de la Cour constitue un camouflet pour Donald Trump, elle ne signifie pas pour autant la fin de sa politique commerciale consistant à promulguer des droits de douane tous azimuts.
Texte intégral (2473 mots)

La décision était très attendue : la Cour suprême vient de juger que la promulgation d’une grande partie des droits de douane imposés par Donald Trump à de nombreux pays du monde relevait d’un abus de pouvoir. Il s’agit certes d’un net désaveu infligé au président par une Cour dont il semblait estimer qu’elle lui était totalement acquise ; il n’en demeure pas moins que le président des États-Unis dispose d’autres leviers pour poursuivre dans cette même voie.


Donald Trump a placé au cœur de sa politique économique les droits de douane qu’il impose de façon aléatoire à titre de représailles, en invoquant le plus souvent « une situation d’urgence » pour justifier ses actes. On l’a notamment constaté, dès les premières semaines de son second mandat, pour la Chine, le Mexique et le Canada, à qui il reprochait des efforts insuffisants pour combattre la circulation du fentanyl, puis le 2 avril 2025 – le fameux « Jour de la libération ».

Ce jour-là, invoquant l’International Emergency Economic Powers Act (IEEPA, texte de 1977 autorisant le président à réglementer le commerce après avoir déclaré une situation d’urgence nationale en réponse à une menace inhabituelle, extraordinaire et de source étrangère pour les États-Unis), Trump a promulgué des droits de douane tous azimuts, qui allaient ensuite être suspendus et modifiés à plusieurs reprises, en fonction du comportement de ses interlocuteurs ou des cadeaux apportés (que l’on songe à la récente controverse provoquée par le don au président d’une Rolex et d’un lingot d’or de la part de patrons suisses).

Retour sur l’histoire judiciaire et la question de droit

Plusieurs États et entreprises, conscients que ces mesures allaient renchérir leurs coûts et affecter leur activité économique, ont contesté ces décisions, certains devant une juridiction fédérale classique (qui n’était pas compétente), d’autres devant le Tribunal du commerce international des États-Unis (CIT) qui, en mai 2025, a conclu à l’illégalité du décret et suspendu sa mise en œuvre.

Le 29 août 2025, saisie par l’administration, la Cour d’appel pour le circuit fédéral (CAFC), qui a compétence en matière de commerce international sur tout le territoire états-unien, a confirmé la décision de première instance : s’appuyant sur « l’histoire législative » (les motivations du Congrès pour voter la loi IEEPA) et la séparation des pouvoirs, elle conclut que la promulgation des droits de douane au nom de l’IEEPA par Trump relève d’un abus de pouvoir du président.

Tous les droits de douane sont illégaux, sauf ceux imposés en vertu de la section 232 du Trade Expansion Act (TEA). Pourtant, malgré la décision de la CAFC, les droits de douane contestés sont entrés en vigueur et ont continué de s’appliquer… jusqu’à la décision que la Cour suprême vient de rendre le 20 février 2026.

En septembre 2025, l’administration Trump a demandé à la Cour d’intervenir en procédure d’urgence pour sauver ses droits de douane. Il faut souligner que la Cour a accepté nettement plus de recours en urgence sous Trump que sous ses prédécesseurs, ce qui traduit bien la conviction de l’actuel président que la Cour suprême (dont il a nommé trois juges, durant son premier mandat) est à son service pour lui permettre de faire ce qu’il veut, sans aucun contrôle ni contre-pouvoir. Pour autant, il lui a fallu suivre le processus normal et demander un examen au fond (merits case) en faisant une demande de certiorari que la Cour a acceptée.

La loi sur les pouvoirs économiques d’urgence (IEEPA) et la décision de la Cour suprême

Il s’est trouvé une majorité de six juges sur les neuf que compte la Cour suprême pour affirmer que le recours du président à la loi IEEPA est contraire à la séparation des pouvoirs, car la loi permet au président de « réguler » et d’« interdire » mais pas d’imposer des droits de douane, qui sont de la compétence du Congrès. Mais c’est une opinion fragmentée, avec quatre opinions convergentes et deux opinions dissidentes, chacun des juges tentant de justifier et d’ancrer ses préférences en matière d’interprétation de la loi et de la Constitution.

La loi IEEPA invoquée par Donald Trump pour imposer des droits de douane tous azimuts à quasiment tous les pays du monde est prévue pour les situations d’urgence, mais l’objectif du Congrès à l’époque de son adoption, en 1977, était de limiter les pouvoirs du président par rapport à une autre loi existante (Trading with the Enemy Act, datant de 1917). C’est ce qu’il est possible de comprendre en recherchant l’« intention du législateur » – une méthode prônée par la juge progressiste Ketanji Brown Jackson dans son opinion convergente, mais les juges « conservateurs » s’y refusent.

Le texte de l’IEEPA prévoit en cas d’urgence la possibilité pour le président de « réguler » ou de déclarer un embargo, par exemple, mais ne mentionne nulle part les droits de douane. Quant à considérer que le « dramatique déficit commercial » invoqué par Trump constitue une urgence, ce serait oublier que celui-ci n’est pas nouveau et existe depuis plusieurs décennies.

Les enjeux constitutionnels

Les enjeux économiques et constitutionnels étaient importants, ainsi qu’en témoigne le nombre élevé de pétitions amicus curiae (« ami de la cour ») que les personnes physiques (un économiste, un professeur de droit) ou morales (des groupes divers) ont la possibilité de déposer afin d’éclairer la cour sur leur lecture de l’affaire, les dangers ou le bien-fondé des positions défendues par l’administration et la solution qu’ils préconisent.

Presque toutes défendaient des arguments allant à l’encontre de la position de l’administration Trump, y compris les groupes de droite comme le Cato Institute (libertarien) ou la Washington Legal Foundation (qui défend généralement les causes de la droite, mais qui argumentait ici pour l’inconstitutionnalité du recours à la législation d’urgence).

Certains invoquaient des arguments économiques et plusieurs professeurs de droit soulignaient les dangers si la Cour ne met pas un coup d’arrêt aux velléités de cumul des pouvoirs par le président. Si la Cour ne sanctionne pas cet empiètement, expliquaient-ils, le risque est réel que le Congrès ne puisse jamais voter une loi, non seulement à la majorité simple mais, en cas de veto quasi certain, à la majorité des deux tiers.

Les juges avaient semblé conscients lors de l’audience de la quasi-impossibilité pour le Congrès de recouvrer ses pouvoirs et avaient posé de nombreuses questions sur ce sujet.

Que dit exactement la décision de la Cour suprême ?

La décision Learning Resources, Inc. v. Trump, traite de deux catégories de droits de douane : ceux qui ont été imposés sur le Mexique et le Canada pour lutter contre l’importation d’opiacés ; et les droits de douane plusieurs fois modifiés, instaurés le 2 avril 2025 dit « Jour de la libération ». Elle laisse en place les autres droits de douane imposés sur d’autres fondements, tels que les droits de douane de 25 % placés par la première administration Trump en vertu de la section 301 de la loi Trade Act de 1971, maintenus par le président Biden, qui ont ajouté des droits de douane de 100 % sur les véhicules électriques chinois.

Comme prévu, l’opinion de la majorité est rédigée par le Chief Justice et, comme largement anticipé après l’audience, elle statue contre le président, mais après avoir laissé les droits de douane en vigueur pendant près d’un an.

Le président de la Cour rédige une opinion courte dont la première partie, signée par lui-même et cinq autres juges, repose sur l’atteinte à la séparation des pouvoirs : la Constitution attribue au Congrès (et au Congrès seul) le pouvoir de lever l’impôt et d’imposer droits de douane et droits indirects.

Les juges progressistes ont voté avec la majorité sur le premier fondement parce que la décision permet d’interdire au président d’utiliser la loi IEEPA (qui, nous l’avons dit, prévoit interdictions ou embargos mais pas les droits de douane) et renforce la séparation des pouvoirs et la primauté du droit (Rule of Law). Mais pas sur le deuxième fondement, qui ne recueille l’adhésion que des juges conservateurs Gorsuch et Barrett (tous deux nommés par Trump).

Cette opinion de pluralité se fonde sur la doctrine de la question majeure (Major Questions Doctrine, MQD) en vertu de laquelle les décrets qui entraînent une modification majeure d’un secteur doivent être autorisés par une délégation de pouvoir précise et spécifique par le Congrès. Ici, l’imposition de droits de douane a causé une modification majeure de l’économie du pays et ne peut être autorisée. La question est développée sur près de 50 pages par le juge Gorsuch dans son opinion convergente.

Quelle signification et quelles suites ?

C’est un net revers pour Donald Trump, qui a placé les droits de douane au cœur de sa politique économique, mais la Cour ne se prononce pas sur les pouvoirs du président (et leurs limites) ni sur les multiples recours aux législations d’urgence, pas nécessairement motivés. C’est une décision limitée à la signification de la loi IEEPA et à ce qu’elle autorise (déclarer un embargo) et interdit (imposer des droits de douane).

Ce n’est pas l’annonce que la Cour suprême va dorénavant s’opposer à Trump, sauf sans doute sur le limogeage de la gouverneure de la Réserve fédérale (FED), ce qui accréditera la thèse que la majorité de droite à la Cour est du côté du business et protège l’économie du pays contre les politiques dangereuses du président.

Par ailleurs, la décision ne dit rien sur un éventuel remboursement qui serait versé aux entreprises lésées et ne prévoit aucun mécanisme en ce sens. Beaucoup soulignent que les entreprises n’ont aucun droit à un remboursement dans la mesure où elles ont répercuté l’augmentation des coûts sur les consommateurs finaux. Le gouverneur de Californie propose que chaque Américain reçoive un chèque de 1 700 dollars (1 420 euros environ) ; le gouverneur de l’Illinois a envoyé sa facture (8,4 milliards de dollars, soit plus de 7 milliards d’euros) à l’administration Trump. En d’autres termes, d’autres contentieux sont à prévoir. D’autant que les mesures ne sont pas parvenues à diminuer le déficit commercial en 2025 et que rembourser les quelque 140 milliards de dollars (plus de 118,6 milliards d’euros) indûment perçus creuserait un peu plus le déficit budgétaire.

Que peut faire Trump maintenant ?

Une autre question est elle aussi passée sous silence. Donald Trump dispose-t-il d’autres outils pour imposer d’autres droits de douane ? La réponse est oui, car, dans les années 1970, le Congrès a voté plusieurs lois (Trade Acts) déléguant de nombreux pouvoirs au président pour lui permettre de répliquer à des mesures discriminatoires prises par les partenaires commerciaux des États-Unis.

Trump, furieux de la décision de la Cour suprême, a immédiatement annoncé des droits de douane étendus à l’ensemble du monde de 10 %, puis de 15 % en recourant à la section 122 de la loi Trade Act de 1974. Dans ce cas, les droits ne peuvent dépasser 15 % et sont censés expirer au bout de 150 jours si le Congrès n’a pas voté pour confirmer la mesure. Connaissant le peu de cas que Trump fait des règles et du droit, il n’est pas impensable d’imaginer qu’il renouvellera les droits de douane pour d’autres périodes de 150 jours – en violation peut-être non pas de la lettre de la loi mais de son esprit. Ou bien il tentera d’utiliser d’autres outils (les sections 232 ou 301, par exemple).

En conclusion, la décision de la Cour ne clarifie guère la situation économique et, à ce jour, l’état du commerce international est toujours aussi instable et chaotique.

The Conversation

Anne E. Deysine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.02.2026 à 11:38

En Europe, les politiques sociales limitent l’appauvrissement des travailleurs en situation de handicap

Justine Bondoux, Responsable de la production de l'enquête SHARE en France, Université Paris Dauphine – PSL
Jusot Florence, Professeure en Sciences Economiques, Université Paris Dauphine – PSL
Thomas Barnay, Full Professor in Economics, Université Paris-Est Créteil Val de Marne (UPEC)
Après 50 ans, un handicap entraîne en Europe une perte moyenne de revenus de 20 %, avec de fortes disparités entre pays et un impact plus fort pour les femmes.
Texte intégral (1891 mots)
Malgré des revenus de remplacement, tels que les pensions d’invalidité, le revenu global d’un salarié en situation de handicap diminue en moyenne d’environ 20 %. Simonovstas/Shutterstock

La survenue d’un handicap grave après 50 ans entraîne une dégradation significative des revenus à court terme pour tous les salariés européens. Cette perte peut être largement amortie dans les pays où les systèmes de protection sociale sont généreux et les politiques d’intégration professionnelle efficaces. Alors, quelles disparités entre les pays européens ? Les femmes et les hommes ? Les différents revenus de compensation ?


Selon Eurostat, dans l’ensemble de l’Union européenne, l’écart de taux d’emploi entre les personnes en situation de handicap et celles sans handicap atteint 24 points de pourcentage (pp) en 2024. Derrière cette moyenne se cachent de fortes disparités. L’écart n’est que de 8 pp au Luxembourg et de 14 pp en Slovénie, mais dépasse 40 pp en Roumanie et en Croatie – un point de pourcentage correspond à l’écart absolu entre deux taux exprimés en pourcentage.

Graphique réalisé par les auteurs à partir des données Eurostat. Fourni par l'auteur

Sur le marché du travail, le désavantage des personnes en situation de handicap s’explique par plusieurs facteurs : la nécessité de soins réguliers, l’insuffisante adaptation des postes, une baisse de productivité perçue ou réelle, mais aussi des phénomènes de discrimination. Les caractéristiques du handicap telles que son intensité, son type – physique, cognitif, etc. – ou encore le moment de sa survenue – naissance, enfance, âge adulte – peuvent également jouer un rôle crucial.

Alors, que se passe-t-il lorsqu’un handicap survient en deuxième partie de carrière, chez des personnes initialement en emploi et sans limitation déclarée ? Comment cet événement affecte-t-il leurs revenus globaux deux années après ? C’est précisément la question que nous abordons dans une étude publiée dans la revue Annals of Economics and Statistics.

À partir de l’enquête Survey on Health Ageing and Retirement in Europe (SHARE), menée entre 2011 et 2015 auprès de plus de 2 500 individus âgés de 50 ans et plus, dans 12 pays européens, nous analysons l’effet de la survenue d’un handicap grave sur le revenu global. Nous distinguons ensuite les différents canaux à l’œuvre, en décomposant ce revenu entre salaires d’activité et revenus de remplacement, tels que les pensions ou les allocations.

Concrètement, quelles différences entre les pays européens ?

Chute de près de 79 % des salaires

À partir d’individus initialement en emploi et sans handicap en 2011, nous isolons l’effet du handicap sur le revenu global en combinant deux méthodes économétriques : le Propensity Score Matching et la méthode des différences de différences.

Cette approche permet de comparer, entre 2011 et 2015, les trajectoires de revenus d’individus déclarant un handicap en 2013 (qui perdure en 2015) à celle des individus ne déclarant pas de handicap en 2013 et 2015, tout en homogénéisant leurs caractéristiques initiales de 2011. La méthode permet de tenir compte non seulement des caractéristiques observables – âge, sexe, niveau d’éducation –, mais aussi de l’hétérogénéité non observée, comme la capacité des individus à faire face à leur handicap ou la discrimination des employeurs face aux individus en situation de handicap.

Nous postulons ensuite que cet événement va détériorer la situation sur le marché du travail comme la perte de productivité due au handicap, la réduction subie du temps de travail, voire du chômage. Tout en activant potentiellement des mécanismes de compensation. Pour tester ces hypothèses, nous décomposons le revenu global en salaire d’activité et en revenus de remplacement. Après l’apparition du handicap, les deux hypothèses sont bien confirmées : les salaires chutent fortement, tandis que les revenus de remplacement augmentent. Dans de nombreux cas, cette compensation reste insuffisante pour maintenir le revenu global.

L’apparition d’un handicap entraîne, en moyenne, une chute de près de 79 % des salaires. Malgré une augmentation massive – 200 % en moyenne – des revenus de remplacement tels que les pensions d’invalidité, le revenu global diminue en moyenne d’environ 20 %.

Différentes générosités des systèmes sociaux

Ces chiffres masquent de grandes inégalités entre pays. Dans les systèmes sociaux les plus généreux – Allemagne, Belgique, Danemark, France, Suède et Suisse –, la baisse des salaires est compensée par les revenus de remplacement comme les pensions d’invalidité. Résultat : le revenu global reste stable.

À l’inverse, dans les pays les moins généreux – Autriche, Espagne, Estonie, Italie, République tchèque et Slovénie –, ils ne suffisent pas à endiguer la perte de salaire, entraînant un appauvrissement marqué par une chute du revenu global de 27 %.

Cette hétérogénéité souligne l’importance de la générosité des systèmes sociaux et de leur capacité à protéger les individus face aux risques financiers liés au handicap. Les politiques publiques – allocations, pensions, mesures d’intégration et anti-discrimination – peuvent, par conséquent, couvrir l’intégralité de la perte de revenu lié au handicap.

Les pays nordiques combinent facilité d’accès aux prestations, mesures d’intégration sur le marché du travail et cumul des revenus de remplacement et d’un salaire. À l’inverse, certains pays d’Europe de l’Est faiblement généreux imposent, de surcroît, des conditions strictes pour cumuler pension et autres prestations, ce qui réduit fortement la protection des personnes en situation de handicap.

« Double peine » pour les femmes

Le handicap n’affecte pas les hommes et les femmes de la même manière. Chez les hommes, la baisse des salaires est souvent compensée par les revenus de remplacement, si bien que le revenu global n’est pas significativement affecté. Chez les femmes, les allocations compensent moins la chute des salaires, ce qui entraîne une diminution notable du revenu global de 32 %.

Cette « double peine » des femmes illustre des inégalités persistantes dans l’emploi et les revenus, confirmant des travaux antérieurs sur le sujet, comme ceux des économistes Morley Gunderson et Byron Lee, William John Hanna et Betsy Rogovsky ou Lisa Schur.

Vers une meilleure protection

Nos résultats montrent que la survenue d’un handicap grave après 50 ans entraîne une dégradation significative des revenus à court terme. Cette perte n’est pas inéluctable. Elle peut être largement amortie dans les pays où les systèmes de protection sociale sont généreux et où les politiques d’intégration professionnelle permettent de limiter les sorties du marché du travail.

Ils soulignent plusieurs leviers d’action pour les pouvoirs publics :

  • renforcer les dispositifs de maintien dans l’emploi ;

  • améliorer l’adaptation des postes de travail ;

  • ajuster les mécanismes de compensation financière lorsque l’activité professionnelle devient impossible.

Autrement dit, il ne s’agit pas seulement de compenser la perte de revenu, mais aussi de prévenir la rupture avec l’emploi, qui constitue un facteur majeur de fragilisation économique. Notre étude comporte néanmoins certaines limites. Elle porte exclusivement sur des Européens âgés de 50 ans et plus ; l’impact économique d’un handicap pourrait différer chez les actifs plus jeunes.

La durée de suivi, limitée à deux ans, ne permet pas de saisir pleinement les conséquences de moyen et long termes, notamment en matière de trajectoires professionnelles et de cumul des désavantages. Malgré ces réserves, les résultats apparaissent robustes : la générosité des systèmes sociaux et la capacité à intégrer durablement les personnes handicapées sur le marché du travail sont des déterminants essentiels de leur sécurité économique. À ce titre, les politiques publiques disposent de marges de manœuvre réelles pour protéger les individus face aux aléas de la santé et réduire les inégalités de revenus.

The Conversation

Cette étude a bénéficié d'un financement de la Caisse Nationale de Solidarité pour l’Autonomie (CNSA) dans le cadre du projet “Programme Handicap et Perte d’Autonomie - Session 8” de l'Institut de Recherche en Santé Publique (IReSP). Elle a également reçu le soutien du projet SHARE-France.

23.02.2026 à 11:38

Le « live shopping » : l’évolution du modèle d’achat en ligne

Basma Taieb, Enseignante-chercheuse en marketing digital , Pôle Léonard de Vinci
Jean-Eric Pelet, Associate professor, EBS Paris
Le « live shopping » désigne les ventes en ligne réalisées par des animateurs. Leur succès nécessite de suivre certaines règles.
Texte intégral (1183 mots)

Alors que TF1 vient de supprimer son téléshopping trente-huit ans après sa création, le « live shopping » connaît un succès grandissant. Reste que pour transformer le live en achats sonnants et trébuchants, des règles doivent être respectées. Si la confiance est nécessaire pour déclencher le processus d’achat, ce dernier carbure aussi à l’émotion.


Le live shopping, appelé aussi le live streaming commerce (LSC), consiste à vendre les produits en direct par vidéo. Le LSC est très populaire en Chine, il a connu dans ce pays une croissance sans précédent depuis 2017. L’achat en streaming en direct a fait son entrée sur le marché français en 2020 durant la pandémie de Covid-19, avec Les Galeries Lafayette.

Une recherche récente, menée auprès de 555 consommateurs français, propose un modèle éclairant des mécanismes sous-jacents à l’achat lors du LSC. Celui-ci révèle que le processus d’achat en ligne est déterminé par l’articulation séquentielle et complémentaire de deux dimensions : la confiance envers le produit (cognitive) et l’expérience de flow (affective). Bien mené, le live shopping peut être un canal de vente très puissant promettant des taux de conversion jusqu’à dix fois supérieurs à ceux du e-commerce traditionnel.

Lever les freins à l'achat en ligne

Dans l’univers asynchrone et parfois impersonnel des sites e-commerce traditionnels, le risque perçu et l’incertitude sur la qualité des produits peuvent freiner l’achat. Le LSC réintroduit une dimension sociale et interactive cruciale, incarnée par le streamer. Ce dernier n’est pas un simple présentateur, mais un véritable prescripteur dont les caractéristiques vont directement nourrir la confiance du consommateur à l’égard du produit.


À lire aussi : Le commerce de détail : un secteur en crise ?


Trois qualités se révèlent déterminantes :

  • son expertise technique sur les produits,

  • sa crédibilité perçue (honnêteté, sincérité)

  • et surtout sa réactivité à répondre en temps réel aux questions posées par les consommateurs via la boîte de dialogue.

Les résultats de cette recherche sont sans appel. Sans ces attributs, la confiance peine à s’établir.

« C'est qu’on peut poser nos questions et que la vendeuse est très réactive… Je trouvais que les précisions étaient toutes au rendez-vous, ça met vraiment en confiance. » (Sylvain, 30 ans, enquête qualitative)

Le rôle des émotions

Si la confiance du consommateur est le socle indispensable à l’achat lors du LSC, l’expérience de flow constitue un réel moteur émotionnel. Concept introduit par le psychologue Mihaly Csikszentmihalyi, le flow désigne cet état d’immersion totale et de plaisir dans une activité, au point d’en oublier le temps qui passe.

Le LSC est un terrain particulièrement propice pour générer cet état. Deux caractéristiques propres à ce format y contribuent : l’interactivité en temps réel (chat, réactions, sentiment de communauté) et l’attractivité de la présentation (visuels dynamiques, scénarisation, divertissement). Ces stimuli captivent l’attention et créent un engagement profond.

« On a vraiment l'impression d'être dans la pièce avec elle comme si on assistait à l'essayage en direct… J'étais très attentive aux commentaires des autres personnes, on a vraiment cette idée de communauté. » (Aurélien, 35 ans, enquête qualitative)

Une expérience captivante

Les résultats de l’enquête montrent que c’est précisément cette expérience de flow qui influence le plus fortement et directement l’intention d’achat. La rationalité (la confiance) prépare le terrain, mais c’est l’émotion (le flow) qui renforce l’intention d’achat. Autrement dit, la confiance est une condition nécessaire mais non suffisante. Elle agit comme un facilitateur essentiel, créant un environnement sécurisé et crédible. C’est ensuite en se transformant en expérience de flow qu’elle démultiplie son effet sur la décision du consommateur.

Cette voie « mixte », allant du cognitif à l'affectif est au cœur du processus d’intention d’achat en ligne lors du LSC. Elle explique pourquoi une simple démonstration du produit, même technique et fiable, peut échouer si elle n’est pas portée par une expérience captivante.

Des outils à manier avec stratégie

Cette compréhension fine du mécanisme d'achat en LSC offre des leviers d'action concrets pour les marques et les retailers :

  • Sélection et formation des streamers : prioriser l'expertise produit, l'authenticité et la capacité à interagir vite et bien. La réactivité est le facteur ayant le plus fort impact sur la confiance.

  • Scénarisation de l'expérience : concevoir les lives non comme des catalogues animés, mais comme des moments de divertissement et de socialisation. Intégrer des fonctionnalités ludiques (concours, jeux, récompenses) et favoriser les interactions entre les participants pour renforcer le sentiment de communauté et d'immersion.

  • Adopter une approche holistique : ne pas dissocier l'argumentaire (confiance) de la forme (flow). Une démonstration produit doit être à la fois précise et spectaculaire ; une interaction via le chat doit être à la fois rapide et chaleureuse.

Le live streaming commerce, loin d’être un phénomène éphémère, incarne ainsi l’avenir d’un e-commerce à la fois plus interactif et plus immersif. Son succès repose sur une alchimie subtile entre la confiance rationnelle dans le produit et l’expérience immersive, un équilibre que les marques doivent absolument maîtriser.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

50 / 50

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌞