04.02.2026 à 16:12
Vanessa Corcoran, Adjunct Professor of History, Georgetown University
Comment un jeune marchand italien du XIIIᵉ siècle est-il devenu saint ? Les sources écrites et fresques médiévales retracent la vie de François d’Assise et montrent de quelle manière ses exploits et les miracles qui lui sont attribués ont nourri sa réputation à travers les siècles.
À l’occasion du 800e anniversaire de la mort de saint François d’Assise, fondateur de l’ordre franciscain, son corps sera exposé pour la toute première fois en février 2026, à la basilique Saint-François, à Assise (Toscane). Des millions de visiteurs sont attendus dans la petite ville d’Italie pour rendre hommage au saint du XIIIᵉ siècle.
François, mort le 4 octobre 1226, prônait le soin apporté aux plus pauvres et le respect du monde naturel. Ces valeurs ont trouvé un écho, des siècles plus tard, dans l’action du pape François. Le souverain pontife défunt avait choisi son nom de pape en référence à l’attachement du saint médiéval aux pauvres et à son enseignement sur la responsabilité morale de prendre soin de toutes les créatures de la Terre.
En tant que spécialiste de l’histoire religieuse médiévale, je sais que plusieurs épisodes dramatiques survenus à la fin de la vie de François ont joué un rôle décisif dans la construction de son héritage en tant que fondateur de l’ordre franciscain. Ces événements expliquent aussi pourquoi ses messages radicaux sur la pauvreté et l’environnement continuent de résonner aujourd’hui.
Né vers 1181 dans une famille de marchands de la ville ombrienne d’Assise, dans l’Italie actuelle, François renonce très tôt à la richesse familiale. Un récit rapporte qu’il se serait dépouillé de ses vêtements sur la place publique, au grand embarras de son père. Ses premiers biographes le surnomment « Il Poverello », ou « le petit pauvre ».
En 1209, il fonde l’ordre mendiant des Franciscains, un ordre religieux consacré aux œuvres de charité.
Ce que les historiens et les théologiens savent de François provient principalement de ses propres écrits et de textes hagiographiques. L’hagiographie est une forme de biographie religieuse qui célèbre la vie vertueuse des saints, en relatant souvent les miracles qui leur sont attribués, de leur vivant comme après leur mort. Les fidèles se rendent fréquemment sur leurs tombes pour solliciter une intervention miraculeuse. Certaines des hagiographies consacrées à François ont été rédigées peu après sa mort, en 1226.
Thomas de Celano, frère franciscain qui a connu François personnellement, a rédigé la Vie de François, publiée seulement deux ans après sa disparition. Cette hagiographie a joué un rôle central dans sa canonisation rapide. Elle offrait un récit détaillé de sa vie, sur lequel le pape Grégoire IX s’est appuyé pour juger que les actes de François justifiaient son élévation au rang de saint.
Le théologien et philosophe du XIIIe siècle, saint Bonaventure, a rédigé la Vie de saint François, aujourd’hui considérée comme le récit le plus complet. Cette seconde biographie religieuse ne se limite pas aux événements clés de l’existence de François : elle expose également son héritage durable en tant que fondateur des franciscains. On compte actuellement environ 650 000 franciscains dans le monde. Les membres de l’ordre sont actifs dans plus de 100 pays, avec des missions centrées sur la pauvreté, l’évangélisation et l’éducation.
Les deux récits décrivent les moments clés de la jeunesse de François : après avoir prononcé ses vœux de pauvreté, il mendie et travaille également dans des colonies de lépreux autour d’Assise. C’est à cette époque qu’il fonde l’ordre franciscain.
En 1210, il se rend à Rome et obtient l’approbation pontificale de son ordre de la part du pape Innocent III.
Neuf ans plus tard, il voyage en Égypte pour rencontrer le sultan al-Malik al-Kamil pendant la Cinquième Croisade. Il tente d’abord de le convertir au christianisme par la prédication. Selon les textes chrétiens, cette rencontre aurait finalement contribué à améliorer le sort des prisonniers de guerre pendant les croisades.
La fin de la vie de François est considérée comme marquée par des rencontres spirituelles que de nombreux catholiques interprètent comme des signes de sa sainteté.
Racontées en détail dans les hagiographies du XIIIe siècle, ces histoires expliquent pourquoi il est ensuite étroitement associé aux animaux et à la protection de la nature. Ces épisodes ont également été reproduits à de nombreuses reprises dans des représentations artistiques de François.
En tant que prédicateur itinérant, François parcourt régulièrement l’Italie pour répandre l’Évangile. Mais à une occasion, il s’arrête pour prêcher à un groupe d’oiseaux. Selon la légende, ils l’écoutent avec une attention captivée.
Thomas de Celano souligne qu’à partir de ce jour, les sermons de François ne se sont plus seulement adressés aux hommes mais à « tous les oiseaux, tous les animaux, tous les reptiles et aussi aux créatures insensibles, pour louer et aimer le Créateur ».
L’idée que les animaux étaient captivés par les prêches de François est reprise dans d’autres textes dévotionnels. Dans le récit du XIVᵉ siècle, les Petites Fleurs de saint François, une légende raconte que ses sermons ont même empêché un loup de terroriser la ville toscane de Gubbio.
François parle au loup et lui tendit la main. Le loup étend alors sa patte comme pour lui serrer la main. De telles histoires sont devenues centrales pour façonner l’image de François comme saint patron des animaux et, plus tard, de la nature.
En 1224, une maladie grave le laisse presque aveugle. Incapable d’écrire, il dicte le Cantique de Frère Soleil, ou Cantique des Créatures, souvent considéré comme la première œuvre majeure en langue vernaculaire italienne.
Malgré la vue défaillante de son auteur, ce texte célèbre poétiquement la beauté des créations de Dieu, évoquant les animaux comme ses « frères et sœurs ». Il loue la manière dont la Terre « nous porte et nous nourrit […], produit la diversité des fruits, avec les fleurs diaprées et les herbes. ».
Fait notable, François devint la première personne à recevoir ce que l’on croit être les stigmates – des blessures censées reproduire celles de la crucifixion du Christ. Des témoins du 17 septembre 1224, rapportés plus tard par Thomas de Celano, ont noté :
« Peu avant sa mort, notre frère et père (François) apparut comme crucifié, portant dans son corps les cinq blessures qui sont véritablement les stigmates du Christ. En effet, ses mains et ses pieds présentaient des sortes de perforations faites par les clous, à l’avant et à l’arrière, qui laissaient des cicatrices et montraient la noirceur des clous. Et à son côté, il semblait percé et du sang s’écoulait fréquemment. »
L’artiste de la Renaissance italienne Giotto di Bondone représenta ces scènes dans un cycle de fresques élaboré à la basilique Santa Croce de Florence. Ces blessures renforcèrent l’image de François comme figure christique, un motif largement exploré dans l’écriture dévotionnelle.
François d’Assise, déjà figure historique majeure, a retrouvé une visibilité mondiale le 13 mars 2013, lorsque le cardinal Jorge Mario Bergoglio, élu pape, choisit de rompre avec la tradition et de ne pas prendre le nom d’un prédécesseur pontifical. Il se fit appeler François.
Un choix symbolique : le pape expliqua rapidement que son homonyme représentait « l’homme de pauvreté, l’homme de paix, l’homme qui aime et protège la création », rappelant ainsi l’engagement social et écologique qui marque son pontificat.
Le Cantique du Frère Soleil a ensuite inspiré l’encyclique phare du pape en 2015, Laudato Si’* – « Sur la sauvegarde de la maison commune ». Première encyclique pontificale entièrement consacrée à l’environnement, le texte appelait à un dialogue mondial et à des actions pour protéger la planète. Le pape y écrivait que François d’Assise « nous montre à quel point le lien est indissociable entre le souci de la nature, la justice envers les pauvres, l’engagement envers la société et la paix intérieure ». Depuis la mort du pape Laudato Si’ est saluée comme l’un des héritages durables du premier pape jésuite et né en Amérique latine.
Alors que des pèlerins se rendent à Assise pour ce Jubilé exceptionnel consacré à saint François, l’Église insiste sur le fait qu’il ne s’agit pas seulement de contempler les restes du visionnaire médiéval, mais de se souvenir de ce « modèle de sainteté de vie et témoin constant de paix ».
Bien que ce saint du Moyen Âge, surtout connu à travers des fresques et des textes fragmentaires, puisse paraître une figure lointaine, les enseignements de François sur le soin des pauvres et la responsabilité envers l’environnement délivrent un message toujours pertinent au XXIᵉ siècle.
Vanessa Corcoran ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
04.02.2026 à 16:11
Miia Chabot, Associate Dean Pedagogy and Learning Innovation, Excelia
Acheter un logement, c’est parier sur l’avenir. Or, à l’horizon 2050, le changement climatique redessine la carte du risque immobilier : risque de submersion par exemple, mais également de retrait-gonflement des argiles, phénomène par lequel une sécheresse peut occasionner des dégâts parfois graves sur le bâti. On parle aussi de « maisons fissurées ». Dans ce contexte, comment évaluer la vulnérabilité d’un bien face aux enjeux climatiques ?
Lorsque l’on achète une maison, ce n’est pas seulement sur la solidité du bâti que l’on mise : c’est aussi sur la stabilité d’un sol. En France, près d’un logement sur deux – soit 48 % du territoire métropolitain – repose aujourd’hui sur un terrain vulnérable au retrait-gonflement des argiles, un phénomène silencieux, amplifié par les sécheresses, qui fissure les murs quand la terre se contracte.
Plus de 10 millions de maisons individuelles sont déjà exposées. Entre 1995 et 2019, les sécheresses géotechniques ont entraîné plus de 18 milliards d’euros d’indemnisations (en euros 2023) et en moyenne, près de 700 millions d’euros sont versés chaque année. En 2022, le coût des sinistres a dépassé 3 milliards d’euros, et il pourrait atteindre 43 milliards d’ici à 2050. Les dommages observés sur les bâtiments traduisent un déséquilibre économique à part entière : la déformation du sol devient un facteur de perte de valeur immobilière.
Ce risque n’est pas isolé. Il s’inscrit dans un ensemble plus large d’impacts climatiques physiques qui, partout en Europe, créent des effets économiques différenciés selon les territoires et les activités. La sécheresse, la chaleur ou les pluies extrêmes n’affectent pas de la même manière l’agriculture, l’industrie ou le logement.
Relier le climat aux conditions du bâti et aux dynamiques locales permet de passer du constat au chiffrage. En combinant les données climatiques, géologiques et structurelles, il devient possible d’évaluer le coût réel d’un aléa, de passer des cartes d’exposition aux cartes de dommages, et d’estimer, à l’horizon 2050, l’ampleur potentielle des pertes liées à la sécheresse des sols. Les fissures de nos maisons traduisent la manière dont le climat pèse désormais sur la valeur du patrimoine et sur la continuité des activités qu’il abrite.
À lire aussi : Retrait-gonflement des sols argileux : une explosion des risques depuis 2015
Concrètement, le retrait-gonflement des argiles est provoqué par la « respiration » de la terre sous nos pieds : elle se gorge d’eau, puis se rétracte quand elle s’assèche. Dans les sols argileux, ce cycle naturel de gonflement et de retrait est amplifié par les sécheresses successives. Au fil du temps, ces mouvements différentiels déforment les fondations, engendrant fissures et désordres structurels. Le phénomène reste invisible jusqu’à ce qu’il soit trop tard : les murs se fendent, les seuils se déforment, les ouvrants ne ferment plus.
Des recherches récentes montrent que la structure des sols argileux, faite de pores de tailles différentes, explique leur forte sensibilité au manque d’eau. Lorsqu’ils se dessèchent, l’eau s’échappe d’abord des grands pores, provoquant un retrait rapide, puis des plus petits, ce qui accentue la contraction du sol. D’autres travaux relient directement la dynamique hydrique à la déformation mécanique : plus la perte d’eau est brutale, plus le sol se rétracte et la contrainte sur les structures augmente.
Ce risque n’est donc pas seulement une affaire de nature de sol : il dépend aussi de la variabilité climatique, de la profondeur des fondations et de la capacité du sol à retenir l’eau. Chaque été sec accentue la mémoire du précédent, laissant les terrains un peu plus fragiles.
À lire aussi : Maisons, routes, rail, pistes cyclables… comment lutter contre les risques de retrait-gonflement argileux ?
Les cartes nationales, comme Géorisques ou celles du BRGM, constituent aujourd’hui la base de l’information publique sur le retrait-gonflement des argiles. Elles ont le mérite d’exister, mais restent pensées pour une lecture d’ensemble du territoire. Leur échelle, souvent kilométrique, ne permet pas d’évaluer la vulnérabilité réelle d’une maison ni la dynamique du sol à l’échelle de la parcelle. Entre deux terrains voisins, la composition du sous-sol, la présence d’argiles gonflantes ou la profondeur des fondations peuvent pourtant tout changer.
Certaines bases de données internationales offrent un éclairage complémentaire. La Digital Soil Map of the World (FAO – Unesco) décrit la nature des sols à l’échelle planétaire, tandis que les indices satellitaires comme le Soil Water Index (SWI) permettent de suivre l’humidité des sols au fil du temps. Ces approches sont précieuses pour la recherche, mais leur résolution (souvent de l’ordre du kilomètre) reste trop faible pour évaluer le comportement réel d’un terrain face à la sécheresse.
De nouveaux outils plus opérationnels cherchent à combler ce vide. L’application Risque Maison Climat RGA propose, à partir d’une simple adresse, une première estimation du niveau d’exposition d’un logement. En combinant la nature du sol, la fréquence des sécheresses et la vulnérabilité du bâti, elle offre une lecture claire et personnalisée du risque. Mais ses calculs reposent encore sur des données moyennes et n’intègrent pas la variabilité fine du sous-sol.
Les dispositifs publics existants se complètent sans se recouper : Climadiag projette les évolutions climatiques locales, Bat-ADAPT identifie les fragilités du bâti, et Géorisques recense les aléas connus sans les relier à la structure du logement. Ensemble, ils informent mais ne permettent pas d’anticiper les dommages.
Les initiatives privées, de leur côté, peinent à dépasser la logique assurantielle. Les simulateurs proposés par certains assureurs, comme la MAIF, intègrent des indicateurs climatiques, mais sans transparence sur leurs modèles ni accès aux données. Ces outils sensibilisent, sans permettre d’agir.
Identifier un sol argileux, c’est décrire une vulnérabilité. Ce qui compte aujourd’hui, c’est de savoir ce que cette vulnérabilité coûte quand la sécheresse s’installe. Le passage des cartes d’exposition aux cartes de dommages marque la frontière entre savoir et agir.
Des approches que nous avons développées avec des collègues dans des recherches récentes montrent qu’il est désormais possible d’estimer le coût réel des aléas climatiques, qu’il s’agisse d’inondations, de vagues de chaleur ou de sécheresses géotechniques. En reliant les anomalies climatiques, la nature des sols et les caractéristiques du bâti, les modèles de dommages permettent d’évaluer les pertes économiques attendues.
Cette démarche, déjà utilisée pour les inondations dans des modèles comme Hazus ou JRC, peut être transposée au retrait-gonflement des argiles. Elle consiste à traduire les paramètres physiques d’un site, tels que l’humidité, la profondeur des fondations ou la résistance du sol, en impact financier mesurable.
À lire aussi : Changement climatique : un indicateur pour prévoir les risques de maisons fissurées
Pour y parvenir, la clé réside dans l’intégration des données. Les informations existent mais demeurent dispersées entre bases publiques, assureurs et bureaux d’études. Croiser les données climatiques, géologiques et structurelles permet de simuler le coût probable d’un sinistre, incluant les fissurations, les reprises en sous-œuvre et, pour les bâtiments tertiaires, les pertes d’exploitation liées à une interruption d’activité.
C’est ainsi que les modèles de gestion des risques climatiques évoluent : du diagnostic de vulnérabilité à une véritable estimation de dommage qui relie les conditions physiques du sol aux conséquences économiques tangibles. Cette démarche n’a rien d’abstrait. Elle ouvre la voie à une gestion prospective des risques capable d’anticiper les coûts à l’horizon 2050. Les estimations réalisées pour d’autres aléas montrent déjà que les pertes associées aux sécheresses pourraient être multipliées par dix dans certaines régions.
Mesurer les dommages, c’est transformer une information environnementale en outil de décision. Pour un propriétaire, cela revient à évaluer la perte potentielle de valeur d’un bien dans un climat plus chaud et plus sec. Pour une entreprise, c’est la possibilité d’intégrer le coût du risque dans la gestion du bâti, les contrats d’assurance ou la planification des travaux. Pour les pouvoirs publics, c’est un levier pour orienter les politiques de prévention et d’aménagement.
Miia Chabot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
04.02.2026 à 16:11
Camille Dormoy, Docteure en sociologie, spécialiste des politiques publiques de gestion des déchets/économie circulaire, Le Mans Université; Université de Picardie Jules Verne (UPJV)
Nathalie Buchot, Enseignante-chercheuse géographie et économie circulaire. Le Mans Université. Laboratoire ESO Le Mans
Les ateliers pour sensibiliser les enfants au tri des déchets suscitent un véritable engouement. Pourtant, leurs effets à long terme sont limités. À quoi cela tient-il ? Misent-ils trop sur le pouvoir de répétition du geste ? Ou ne prennent-ils pas assez au sérieux la relation des enfants aux objets ? Retour sur quelques observations de terrain.
À mesure que les enjeux climatiques s’imposent dans l’espace public, l’éducation à l’environnement est devenue un axe majeur des politiques éducatives. La sensibilisation au tri des déchets en constitue l’un des piliers les plus visibles.
Entre jeux, ateliers, mallettes, interventions, cette sensibilisation s’est installée depuis une dizaine d’années dans les écoles et les quartiers, comme une évidence, avec l’idée que répéter quelques gestes finirait par changer les comportements.
Pourtant, les enquêtes que nous avons menées à Amiens et notre recherche actuelle au Mans réalisée dans le cadre du programme PEPR Recyclage Déchets ménagers montrent que ces dispositifs produisent surtout des gestes exécutés sous surveillance, sans transformer durablement la manière dont les enfants traitent ou pensent les déchets.
Comment expliquer un tel écart entre l’ambition affichée et les effets réels ?
L’observation, menée en 2019 dans une école d’Amiens (Somme), d’une scène de goûter, permet de saisir concrètement la manière dont la sensibilisation est supposée opérer. Emballages à la main, les enfants se lèvent et se dirigent vers les bacs de tri. Un bref flottement, un doigt qui hésite, et un camarade intervient aussitôt pour rectifier. Le geste s’enchaîne sans effort, quasi mécanique. L’enseignante n’a pas besoin d’intervenir.
Mais rien dans la scène ne suggère que la matière ait été réellement questionnée ou même regardée. Le tri se fait comme on range ses affaires. C’est un comportement attendu bien plus qu’une manière de se saisir de ce que l’on jette.
En sortant de l’école, quelques rues plus loin, les mêmes outils de sensibilisation réapparaissent lors d’une fête de quartier durant laquelle une association locale profite de l’événement pour installer un dispositif dédié à la prévention des déchets : un stand du tri, un atelier de papier recyclé, quelques panneaux.
Si l’intention demeure similaire à celle du cadre scolaire, le déplacement dans l’espace festif en transforme les effets : le dispositif tient mal. Les enfants manipulent la matière avec une liberté que la classe contenait tant bien que mal. Rien n’y fait, ni les rappels ni les explications. Les objets distribués pour enseigner un « bon geste » deviennent des supports de jeu ou de chahut. L’animatrice s’agace.
Le président de l’association explique la scène autrement, persuadé que le jeu est la condition pour qu’un message circule. Mais le message disparaît dès qu’on essaie de l’imposer. La matière, laissée aux enfants, ne soutient pas la pédagogie ; elle la renverse. En attirant l’attention sur ses qualités ludiques et sensorielles, elle devient un objet de manipulation autonome qui détourne l’activité de l’objectif prescrit et fait passer au second plan le contenu normatif du « bon geste ».
Au Mans (Sarthe), les ateliers philo menés durant l’année scolaire 2024-2025 avec cinq classes d’élèves de CM2 et de 6ᵉ révèlent un autre pan du problème. Les enfants ne parlent pas du déchet comme d’un « résidu » ou d’une « matière à trier » mais comme d’un objet qu’on aime. Une canette vide devient un élément décoratif, un jouet abîmé ou un objet qu’on devrait jeter continuent de valoir par le souvenir qu’il porte.
Les catégories que les dispositifs voudraient stabiliser – recyclable, non recyclable, à jeter, à conserver – n’opèrent pas. Elles ne correspondent tout simplement pas à l’usage que les enfants font des choses ni à la manière dont ils les investissent.
De plus, le doute est permanent : « Mais après, ça va où ? » ou encore : « Et si le camion mélangeait tout ? » Rien, dans les dispositifs, ne vient l’éclairer. On suppose que le geste a du sens alors que tout ce qui se passe après reste invisible.
Cette opacité n’est pas un détail. Elle empêche tout apprentissage réel. Il est difficile de comprendre un geste et de l’adopter, quand on ne sait pas ce qu’il produit, ni même s’il sert à quelque chose.
Rien, dans ces scènes, ne suggère une transformation durable : les dispositifs produisent une gestuelle fragile. Dès que la surveillance tombe ou que la matière circule librement, elle disparaît.
Ces observations de terrain révèlent une manière particulière de concevoir l’éducation au tri : celle-ci repose sur un monde où la matière reste tranquille et où les enfants se contentent d’appliquer ce qu’on leur montre. Or, ni l’un ni l’autre ne correspond à ce qui se passe réellement.
Dans la classe d’Amiens, le tri fonctionne surtout parce qu’il est ritualisé et inséré dans un climat d’obligation mutuelle. Le geste n’est pas interrogé. Il est répété parce qu’il faut le faire. L’idée qu’un comportement contraint puisse se maintenir hors du regard des adultes tient davantage d’un espoir institutionnel que d’un constat étayé par l’observation empirique.
Dès que les dispositifs sortent du cadre scolaire, leur cohérence se fissure. La matière déborde : les canettes roulent, les cartons volent, la pâte à papier se transforme. Pensé comme un objet stable et maîtrisable, le déchet est assigné à une fonction pédagogique. Mais sur le terrain, il devient un support de jeu et de transformation, qui échappe au cadrage prescrit.
La conception des dispositifs repose sur une mauvaise compréhension des situations. Les ateliers philo au Mans révèlent quelque chose de plus discret mais tout aussi décisif : les enfants ne pensent pas le déchet dans les catégories que la sensibilisation cherche à imposer. Ils y projettent des souvenirs, un attachement, parfois un regard esthétique. Ils questionnent ce qu’on leur demande de jeter.
L’écart est net entre l’objet simplifié des supports pédagogiques et l’objet vécu, chargé, parfois mystérieux, dont parlent les enfants. Cet écart explique pourquoi les gestes inculqués ne se transforment pas en pratiques durables. Alors que le dispositif oublie la dimension sensible de la matière, les enfants la remettent au centre.
La juxtaposition de ces scènes permet de comprendre pourquoi les investissements publics dans la sensibilisation produisent des effets limités. Le dispositif n’échoue pas faute d’effort, mais parce qu’il ne prend pas au sérieux la relation sensible à l’objet déchu. Dans ces conditions, penser que la multiplication des ateliers ou la sophistication des supports suffiraient à améliorer les pratiques de tri relève d’une forme de croyance.
Or, les enquêtes menées à Amiens et au Mans mettent en lumière une contradiction nette entre la rhétorique de l’éducation au tri et ses effets réels. Les dispositifs produisent de la conformité sous surveillance mais n’améliorent pas la pensée du tri.
En ne clarifiant pas la chaîne de traitement, ils ne modifient pas les représentations. Ces observations conduisent ainsi à interroger une politique éducative fondée moins sur l’apprentissage de la pensée des déchets que sur l’hypothèse selon laquelle la répétition d’un geste garantirait sa reproduction hors du cadre prescriptif.
Prendre au sérieux la relation à l’objet, c’est alors admettre que, pour les enfants comme pour les adultes, le déchet est d’abord manipulé, détourné et investi de souvenirs, bien avant d’être mobilisé comme support d’un geste attendu.
Nathalie Buchot est membre de Les écologistes 72, le Groupe Philo Sarthe et les Carrefours de la Pensée.
Camille Dormoy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
04.02.2026 à 16:10
Florian Bonnet, Démographe et économiste, spécialiste des inégalités territoriales, Ined (Institut national d'études démographiques)
Carlo Giovanni Camarda, Docteur, spécialiste des méthodes de prévision (mortalité, longévité, etc.), Ined (Institut national d'études démographiques)
France Meslé, Démographe, Ined (Institut national d'études démographiques)
Josselin Thuilliez, Economiste, Directeur de recherche au CNRS, Centre national de la recherche scientifique (CNRS)
For over a century and a half, life expectancy has steadily increased in the wealthiest countries. Spectacular climbs in longevity have been noted in the 20th Century, correlating with the slump in infectious illnesses and advances in cardiovascular medicine.
However, for some years now, experts have been obsessing over one question: when is this slick mechanism going to run out of steam? In several western countries, gains in life expectancy have become so slight, they are practically non-existent.
Some researchers see this as a sign that we are heading toward a ‘biological human longevity ceiling’ while others estimate that there is still room for improvement.
Looking at national figures alone cannot be a decider. Behind a country’s average life expectancy lies very contrasted, region-specific realities. This is what the findings of our study that was recently published in Nature Communications revealed. Analysing data collected between 1992 and 2019, it focuses on 450 regions in western Europe bringing together almost 400 million inhabitants.
To complete our research project, we collected mortality and demographic data from offices for national statistics across 13 western European countries including Spain, Denmark, Portugal and Switzerland.
We began by harmonising the original data, a task that proved crucial because the regions differed in size, and data offered varying amounts of detail according to each country.
Then we recalculated the annual gain in life expectancy at birth for each region between 1992 and 2019, an indicator, which reflects mortality across all ages. Sophisticated statistical methods allowed us to pick out the main underlying trends, regardless of short-term fluctuations caused by the heatwave in 2003, or virulent, seasonal flu outbreaks between 2014-2015, for instance. 2019 is the cut-off date for our analyses because it is still too early to know whether the coronavirus pandemic has a long term effect on these trends or if it was limited to 2020-2022.
The results we obtained provide us with an unprecedented panorama of regional longevity trajectories across Europe over an almost 30-year period, from which we draw three findings.
The first message to emerge from the study is that: the limits of human longevity have still not been reached. If we concentrate on regions that are life expectancy champions (indicated in blue on the chart below), we note that there is no indication of progress decelerating.
These regions continue to demonstrate around a two and half month gain in life expectancy per year for men, and approximately one and a half month gain in life expectancy for women, at an equivalent rate to those observed in previous decades. In 2019, they include regions in Northern Italy, Switzerland and some Spanish provinces.
For France, Paris and its surrounding Hauts-de-Seine or Yvelines areas (pertaining to both men and women), featured alongside the Anjou region and areas bordering with Switzerland (only applicable to women). In 2019, life expectancy reached 83 for men, and 87 for women.
In other words, despite recurrent concerns nothing presently indicates that lifespan progression has hit a glass ceiling; prolonging life expectancy remains possible. This is a fundamental result which counters sweeping, alarmist statements: there is room for improvement.
The picture looks bleaker when considering regions with ‘lagging’ life expectancy rates, indicated in red on the chart. In the 1990s and in the early 2000s, these regions saw rapid gains in life expectancy. Progress was much faster here than anywhere else, leading to a convergence in regional life expectancy across Europe.
This golden age, accumulating a fast rise in life expectancy in Europe and a reduction in regional disparities came to an end towards 2005. In the most challenged regions, whether it be East Germany, Wallonia in Belgium or certain parts of the United Kingdom, life expectancy gains significantly dropped, practically reaching a standstill. In women, no regions in France featured among them, but in men, they included some departments in the Hauts-de-France.
Longevity in Europe is ultimately divided into vanguard regions that continue to progress on one side, and on the other side, lagging regions where the dynamic is running out of steam and is even reversed. We are experiencing a regional discrepancy that contrasts with the catch-up momentum in the 1990s.
Why such a shift? Beyond age-specific life expectancy, we sought to gain a better understanding of this spectacular change by analysing how mortality rates have evolved for each age bracket.
We can state that regional divergence can neither be explained by the rise in infantile mortality (which remains very slight) nor by the rise in mortality in the over 75 age range (which continues to decelerate everywhere). It mainly stems from mortality around age 65.
In the 1990s this demonstrated a rapid drop, thanks to access to cardiovascular treatments and changes in risk-taking behaviour. But since the 2000s, this upturn has slowed. In some regions, in the last few years, the risk of dying between 55 and 74 years old is on the rise, as shown in the maps below.
This is particularly true for women living in France’s Mediterranean coastal regions (indicated in pale pink). It’s also the case for most of Germany. However, these intermediary ages are crucial for the life expectancy gain dynamic, because a large number of deaths occur here. Stagnation or a leap in mortality between ages 55 and 74 is enough to break the overall trend.
Even though our study does not allow us to pinpoint the precise causes explaining such preoccupying progress, recent documentation provides us with some leads which should be scientifically tested in the future. Among these are risk-taking behaviour, particularly smoking, drinking alcohol and poor nutrition, or a lack of physical exercise, which are all factors that manifest at these ages.
Incidentally, the economic crash in 2008 accentuated regional variations across Europe. Some regions suffered durably seeing the health of their populations compromised, while further growth was recorded in other regions with a concentration of highly qualified employment. These factors remind us that longevity isn’t just about advances in medicine; it can also be explained by social and economic factors.
Our report offers a dual message. Yes, it’s possible to increase life expectancy. Europe’s regional champions are proof of this, as they continue to demonstrate steady growth without showing any signs of plateauing. However, this progress does not apply to everyone. For fifteen years, part of Europe has been lagging behind, largely due to a rise in mortality around 65 years.
Even today, the future of human longevity seems to depend less on the existence of a hypothetical biological ceiling than on our collective ability to reduce gaps in life expectancy. Recent trends lead us to believe that Europe could well end up as a two-tier system, setting apart a minority of areas that keep pushing the boundaries of longevity and a majority of areas where gains dwindle.
In actual fact, the question is not only how far can we extend life expectancy, but which parts of Europe are eligible.
For further reading
Our detailed results, region by region, are available in our interactive online application.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
04.02.2026 à 16:10
Tom Bry-Chevalier, Doctorant en économie de l'environnement, Université de Lorraine
Le 2 décembre 2025, le tribunal de commerce d’Évry, dans l’Essonne, a prononcé la liquidation judiciaire d’Ynsect. Après avoir levé plus de 600 millions d’euros, cette ancienne pépite de la French Tech laisse derrière elle une méga-usine vide et 350 salariés licenciés en deux ans. Au-delà du cas particulier, cet échec interroge la viabilité même du secteur de l’élevage d’insectes en Europe et l’aveuglement de certaines visions de l’innovation.
Trois ministres à l’inauguration de son site à Poulainville (Somme), Robert Downey Jr en ambassadeur médiatique, une méga-usine de 45 000 mètres carrés présentée comme la plus grande ferme verticale d’insectes au monde. En 2021, Ynsect incarnait le futur radieux de l’alimentation durable à la française. Quatre ans plus tard, l’entreprise n’est plus qu’un cas d’école de ce que la recherche académique documente depuis un moment : les promesses économiques et environnementales de l’élevage d’insectes se heurtent à des réalités structurelles bien plus complexes que les discours enthousiastes ne le laissaient supposer.
À l’échelle mondiale, le secteur de l’élevage d’insectes a attiré environ 2 milliards de dollars (environ 1,7 milliard d’euros) d’investissements au cours de la dernière décennie. Pourtant, la liste d’entreprises en difficulté s’allonge : Agronutris en France (100 millions d’euros levés), Enorm Biofactory au Danemark, ancien leader scandinave du secteur (55 millions d’euros), Aspire Food Group au Canada (42 millions de dollars US, soit 35,5 millions d’euros), Inseco en Afrique du Sud, Beta Hatch aux États-Unis… toutes ont connu des difficultés financières majeures, voire fait faillite, en 2025. Ce phénomène suggère que les difficultés ne relèvent pas de cas isolés, mais d’obstacles structurels propres au secteur.
À lire aussi : Les insectes seront-ils réellement la nourriture du futur ?
L’un des arguments majeurs avancés pour justifier les investissements dans l’élevage d’insectes reposait sur leur capacité à valoriser les déchets alimentaires. Une promesse d’économie circulaire séduisante sur le papier, mais qui s’est révélée largement illusoire en pratique.
Les réglementations sanitaires européennes interdisent l’utilisation de nombreux déchets comme substrat pour les insectes destinés à l’alimentation animale ou humaine. Le règlement (UE) 2017/893 prohibe notamment les déchets de restauration et de cuisine contenant de la viande ou du poisson. Il en est de même pour les déchets ménagers, qui représentent pourtant jusqu’à 70 % des déchets alimentaires dans les pays européens.
Face à ces contraintes, la plupart des fermes d’insectes industrielles se sont tournées vers des coproduits agricoles de haute qualité, comme le son de blé, entrant ainsi en concurrence directe avec l’alimentation animale conventionnelle.
Le recours aux coproduits agricoles plutôt qu’aux déchets a une conséquence directe : la hausse des coûts de production. Alors que de nombreuses entreprises d’élevage d’insectes comptaient être rémunérées pour traiter des déchets, elles se retrouvent au contraire à payer pour se procurer les matières premières nécessaires à l’alimentation de leurs insectes.
Une étude publiée dans Food and Humanity établit que la farine d’insectes coûte deux à dix fois plus cher que les alternatives conventionnelles, comme la farine de poisson ou de soja.
L’exemple d’Agriprotein en Afrique du Sud (100 millions de dollars, soit 84,6 millions d’euros, d’investissements) montre cependant que l’usage de déchets n’est pas non plus une solution miracle, l’entreprise ayant depuis fait faillite. Parmi les facteurs de cet échec figure la variabilité des déchets, dont la composition instable complique la standardisation des processus industriels et compromet la qualité constante du produit.
Les insectes, une option plus coûteuse que l’alimentation animale classique
Le coût approximatif de la farine d’insectes (en haut) comparé à celui de la farine de poisson (au milieu) et de la farine de soja (en bas) en 2023. Données : (de Jong & Nikolik, 2021 ; IndexMundi, 2023a ; IndexMundi, 2023b ; OCDE/FAO, 2022 ; Banque mondiale, 2023).
L’argument environnemental constituait un pilier central du discours promotionnel de l’industrie. Or, les études scientifiques récentes nuancent considérablement ce tableau. Une étude commandée par le gouvernement britannique, passant en revue 50 articles scientifiques, conclut que la farine d’insectes émet de 5 à 13 fois plus de gaz à effet de serre que la farine de soja, même lorsque les insectes sont nourris de déchets alimentaires. Sur 16 indicateurs environnementaux analysés, la farine d’insectes obtient de moins bons résultats que le soja sur 13 d’entre eux.
Ces résultats décevants s’expliquent en partie par l’utilisation de coproduits plutôt que de déchets pour nourrir les insectes, mais aussi par les besoins énergétiques du secteur. Les insectes nécessitent des températures de 25 à 30 °C pour croître efficacement. En climat tempéré européen, maintenir ces conditions implique, au-delà de l’impact environnemental, des coûts de chauffage considérables. Plusieurs entreprises du secteur ont d’ailleurs en partie justifié leur échec par la hausse importante du coût de l’énergie ces dernières années.
Cette dépendance énergétique pose une question rarement abordée : l’Europe est-elle le bon endroit pour développer cette industrie ? Les régions tropicales comme l’Asie du Sud-Est disposent d’un avantage comparatif naturel. Combiné à des coûts de main-d’œuvre plus élevés et à une réglementation plus stricte sur le plan sanitaire, il est peu probable que l’élevage d’insectes contribue significativement à l’autonomie protéique européenne.
Au-delà des difficultés techniques et environnementales, c’est peut-être l’absence de débouchés commerciaux viables qui explique le mieux l’échec du secteur. Contrairement à une idée répandue, seulement 5 % du financement de l’industrie de l’élevage d’insectes est consacré à l’alimentation humaine, le reste étant voué à la nutrition animale (environ à parts égales entre petfood et animaux d’élevage, notamment en aquaculture). L’industrie elle-même a reconnu que le « facteur dégoût » avait été largement sous-estimé. Plusieurs entreprises qui avaient initialement pour ambition de révolutionner l’alimentation humaine se sont ainsi redirigées vers l’alimentation animale.
Le marché principal visé, l’aquaculture, n’a pas non plus tenu ses promesses. Une revue scientifique publiée dans Reviews in Aquaculture conclut que les insectes ont un impact « énorme » sur le réchauffement climatique, la consommation d’énergie et d’eau dans ce secteur. Le réseau d’investisseurs FAIRR estime désormais que les insectes « ne sont pas la solution » pour l’alimentation en aquaculture.
Conscientes des difficultés à pouvoir concurrencer le coût de la farine de soja ou de poisson, de nombreuses entreprises d’élevage d’insectes se sont rabattues par dépit sur le marché des aliments pour animaux de compagnie, sur un segment premium justifié par des prétentions environnementales et nutritionnelles. Si ce pivot permet certes plus facilement d’atteindre la rentabilité économique, il concerne cependant un marché beaucoup plus faible, ne pouvant accueillir qu’un nombre très restreint d’acteurs.
L’échec d’Ynsect soulève des questions plus larges sur le financement public de l’innovation. Selon Mediapart, près de 170 millions d’euros sur les 650 millions mobilisés provenaient de l’argent public (Bpifrance, Union européenne, Ademe, collectivités locales). Le ministère de l’économie a indiqué que le financement public atteignait 146 millions d’euros, rapporte le Figaro. Selon Antoine Hubert, cofondateur emblématique d’Ynsect, la nouveauté du domaine nécessitait énormément d’innovation et d’avancées réglementaires, et donc des investissements massifs. À l’écouter, un projet de petite envergure n’aurait pas intéressé les investisseurs, car pénétrer le marché de l’aquaculture exigeait d’emblée une capacité de production importante.
Ce soutien public s’inscrivait dans une logique louable de réindustrialisation et de transition écologique. Mais il interroge sur les mécanismes d’évaluation des projets innovants. Certes, affirmer que le secteur était voué à l’échec serait un jugement trop facile avec le recul. Il n’empêche : dès la seconde moitié des années 2010, la littérature scientifique exprimait des doutes sérieux sur la viabilité économique de l’élevage d’insectes, bien loin de l’enthousiasme suscité par le rapport de l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO) en 2013.
Faut-il conclure de cet échec qu’il faut arrêter d’investir dans de nouvelles formes de protéines ? Certainement pas, et d’autres protéines alternatives laissent présager des jours plus radieux. Les alternatives végétales, déjà disponibles commercialement, affichent des bilans environnementaux nettement plus favorables et une acceptation des consommateurs bien supérieure à leur acceptation de protéines provenant d’insectes. D’autres pistes, comme les protéines issues de la fermentation de précision ou les mycoprotéines, présentent des perspectives plus prometteuses malgré des incertitudes persistantes.
L’aventure Ynsect aura au moins eu le mérite de mettre en lumière un écueil récurrent des politiques d’innovation : la tentation de confondre promesses technologiques et solutions éprouvées. Elle rappelle aussi que l’urgence climatique ne dispense pas de rigueur dans l’évaluation des alternatives. À défaut, le risque est double, gaspiller des ressources précieuses et, peut-être plus grave encore, alimenter le scepticisme du public envers les solutions véritablement prometteuses.
Tom Bry-Chevalier est conseiller scientifique non rémunéré de l'Observatoire National de l'Elevage d'Insectes (ONEI).
04.02.2026 à 16:09
Gaëlle Crenn, Maîtresse de conférences en Sc. de l'Info-Com, Centre de Recherche sur les Médiations (CREM), Université de Lorraine

À Nancy, en Meurthe-et-Moselle, a été dévoilée, le 6 novembre 2025, face à la statue du sergent Blandan, la Table de désorientation, œuvre de Dorothée-Myriam Kellou, qui, selon l’inscription visible sur le socle, « interroge le passé colonial de l’Algérie et de la France, évoque ses blessures et appelle à la réparation ». Par les conditions de sa genèse, par les caractéristiques de son implantation, mais aussi par la singularité de sa grammaire stylistique, la Table de désorientation inaugure une politique mémorielle originale.
Ce monument est le résultat d’un processus de patrimonialisation « par le bas », produit d’initiatives convergentes de divers acteurs locaux : un projet pédagogique au lycée Jeanne-d’Arc, lancé par le professeur Étienne Augris, touché par le mouvement Black Lives Matter ; l’histoire personnelle de la famille Kellou, dont le père, le réalisateur Malek Kellou, a découvert la statue durant son enfance à Boufarik (près de Blida en Algérie), puis, devenu résidant à Nancy (Meurthe-et-Moselle), l’y a redécouverte. Cette histoire trouve un écho dans la démarche des musées de la ville, qui souhaitent explorer les enjeux mémoriels liés à la colonisation.
À lire aussi : Ce que les statues coloniales dans l’espace public racontent de la France
En 2022, l’exposition « Sur les traces du sergent Blandan », inaugure le programme « Récits décoloniaux » au musée des Beaux-Arts de Nancy. Le projet se concrétise ultimement avec une commande publique d’œuvre à la fille du réalisateur, Dorothée-Myriam Kellou. L’œuvre mêle « Histoire » et « histoire », politique coloniale et récit familial intime. Elle naît de la transmission d’une histoire traumatique d’abord tue, puis déliée, après un temps d’anamnèse, dans un geste de transmission filiale.
Installée à quelques mètres de la statue, l’œuvre est un miroir circulaire, dressé à la verticale, qui porte en inscription un texte poétique de l’autrice, débutant par une interpellation du sergent : « Qui es-tu ? » Le texte, inscrit en français et en arabe – les deux écritures se déployant en miroir l’une de l’autre, vise à interpeller le spectateur qui découvre en passant son reflet dans la surface miroitante.
À lire aussi : Ce que les statues coloniales dans l’espace public racontent de la France
Le reflet perturbe la perception habituelle et permet de replacer le monument Blandan dans le périmètre de notre attention, invitant à la réflexion sur le sens que peut prendre aujourd’hui cet emblème de la statuaire figurative de l’époque coloniale.
Après son rapatriement forcé en 1963, suite à l’indépendance algérienne, et après un temps de purgatoire dans une caserne, la statue est réinstallée en 1990 sur le terre-plein d’un carrefour près de la caserne qui porte son nom. Elle est ensuite déplacée de quelques mètres et repositionnée, pour prendre place face aux nouveaux bâtiments d’ARTEM, un complexe universitaire novateur.
La présence imposante de la statue n’empêche cependant pas un relatif oubli de cette figure. C’est pourquoi,« devant la statue du sergent Blandan qui a perdu son sens historique pour la plupart des passants, mais qui exerce toujours son influx mémoriel, se dresse un appel en miroir » (texte du socle).
L’œuvre redonne visibilité au monument initial, mais en le recontextualisant, en ouvrant des « réinterprétations de l’histoire coloniale », en proposant des « contrepoints » au récit, plutôt que des répliques (discours de Dorothée-Myriam Kellou lors du dévoilement).
On peut soutenir que l’espace physique entre les monuments fait naître un nouvel espace discursif qui permet d’initier un dialogue sur les multiples significations de la statue. Ce dialogue se nourrit d’un jeu d’opposition : entre l’« Histoire » officielle et l’« histoire » familiale qu’elle vient percuter, entre les mémoires des exploits militaires et les mémoires des descendants de familles algériennes immigrées. Le contre-monument institue un espace de discussion sur le sens des héritages coloniaux ouverts à des interprétations divergentes, voire contradictoires.L’ espace inter-monumental produit de plus une mise en tension de la géographie mémorielle de la ville. Il résonne avec l’inauguration récente d’une esplanade du nom de François Borella, membre du PSU (Parti socialiste unifié), victime de l’Organisation de l’armée secrète (OAS), geste qui veut affirmer l’attachement de la ville aux valeurs républicaines.
Avec ce contre-monument, « une trace ajoutée à une trace » (carton d’invitation), s’ouvre « un espace de relation et de réflexion critique sur les conséquences contemporaines de la colonisation » (ibid.).
Par ce geste, la Ville de Nancy déploie ce que l’on peut appeler une politique de la dissonance patrimoniale. Alors que le patrimoine est habituellement pensé comme le résultat d’un consensus sur les legs du passé que l’on souhaite conserver, le terme prend ici une signification plus complexe, qui incorpore les dissensions et les disputes qui le colorent.
En phase avec les nouvelles expressions citoyennes de revendication mémorielle, le rôle de la statuaire publique s’en trouve modifié : moins au service de l’imposition et de l’affirmation de valeurs que de leur mise en débat et de leur diffraction dans l’espace public.
Au-delà de son rôle de contre-monument, on peut également considérer la Table comme un anti-monument, au sens que l’artiste Jochen Gerz, ainsi que ses commentateurs et commentatrices ont pu donner à ce terme.
Selon Gerz, un anti-monument est une proposition qui, par sa grammaire plastique et stylistique, remet en cause les fonctions habituellement remplies par les monuments – affirmer des valeurs, représenter (des héros, des victimes ou des allégories) –, au profit d’une ouverture à la réflexion et à la multiplication des significations possibles. La Table de désorientation possède cette forme d’humilité et d’ouverture aux interprétations favorisant une mise en suspens des valeurs. Comme le dit encore Mathieu Klein dans son discours, l’œuvre « ne nous impose rien, elle invite à penser ».
Le trait le plus marquant de la Table est la modestie de sa taille. Dressée et légèrement inclinée vers l’arrière, elle mesure 1,59 mètre – ce qui était très exactement la taille du sergent. Sa rondeur et sa petitesse sont en tant que telles une remise en question de la monumentalité de la statue voisine, qui culmine sur son énorme socle à presque 4 mètres de hauteur. À l’impression de lourdeur et d’opacité donnée par l’ensemble massif de pierre et de bronze, qui héroïse le combattant colonial, encapsule les valeurs guerrières et rappelle la politique de conquête impérialiste, s’oppose la clarté et la légèreté de la Table. Ses miroitements conduisent les passant·es à se questionner, sans préjuger de leurs interprétations : elle renvoie les sujets à leur propre réflexion (aux sens propre et figuré).
Alors que l’attitude du sergent, les mentions sur le socle, ses bas-reliefs de bronze et sa plaque commémorative concourent tous à affirmer la valorisation du guerrier héroïque mort pour la colonisation, la Table invite à mettre en question ces valeurs et à rouvrir un questionnement sur celles que nous (l’ensemble de la communauté) souhaitons voir célébrées aujourd’hui dans l’espace public. Ainsi, l’œuvre contribue à la mise en débat des héritages de la colonisation et à la réflexion sur la place des descendants et des minorités. À l’égard des anciennes voix silenciées, elle opère une forme de réparation mémorielle.
Une difficulté cependant peut naître dans l’appropriation du nouveau monument par le public. En effet, le texte gravé sur le miroir, avec son lettrage subtil, s’avère très difficile à déchiffrer. Lors de la cérémonie de dévoilement, les premiers spectateurs et spectatrices ne ménagent pourtant pas leurs efforts, se rapprochant au maximum de la surface miroitante, reculant et variant les angles de vue. La mairie a prévu un programme de médiations pour accompagner la découverte de la nouvelle œuvre publique dans son contexte. Celles-ci s’avèreront sans doute utiles pour que le public ne souffre pas d’une « désorientation » excessive.
Peut-être même l’adjonction d’un panneau permanent sera-t-elle à envisager afin de lui livrer des appuis interprétatifs pour faire sens de l’œuvre et de l’espace intermonumental qu’elle génère. Cela serait sans doute profitable pour qu’il saisisse toute la richesse de ce nouveau monument, à la fois populaire par sa genèse, dissonant dans son principe, contre- et anti-monumental dans ses effets.
Gaëlle Crenn a été membre de la liste des Verts lors des élections municipales de Nancy en 2020.
04.02.2026 à 15:03
Quentin Belot, Maître de conférences, Grenoble IAE, Université Grenoble Alpes., Université Grenoble Alpes (UGA)
Peugeot, Mulliez, Wendel… toutes les grandes familles capitalistes françaises ont recours à des holdings. Retour historique et pédagogique pour comprendre ce dispositif juridique et financier complexe. L’enjeu : transformer la valeur produite par les grandes entreprises en patrimoine privé.
Alors que le débat budgétaire français remet régulièrement sur la table la taxation des « ultrariches », notamment à la suite des propositions de Gabriel Zucman, la réflexion publique se concentre presque exclusivement sur l’aval du système économique. La question centrale : comment taxer les revenus et patrimoines une fois qu’ils sont constitués ?
Cette approche laisse dans l’ombre un point crucial, situé en amont. L’accumulation de la richesse ne se situe pas au niveau des personnes, mais d'abord au sein des sociétés, avant d’être progressivement transformée en patrimoine privé.
L’un des instruments clés : la holding, une société qui ne produit rien, dont la raison d’être n’est que la détention de titre de propriété d’autres sociétés. Comprendre son rôle conduit à déplacer le regard des seuls enjeux distributifs pour s’intéresser aux mécanismes constitutifs de l’enrichissement.
L’enjeu que j’ai étudié dans ma thèse : comprendre son rôle dans la séparation progressive de la responsabilité personnelle des actionnaires et du patrimoine d’un côté, et la responsabilité sociale de l’entreprise de l’autre. De l’usine à la filiale, du groupe industriel au portefeuille d’actifs, puis au « Family Office », les pyramides de holdings organisent la montée en abstraction du capital, transformant la valeur produite collectivement en patrimoine privé durable.
Retour sur l’histoire des holdings, des commenda au Moyen Âge aux Family Offices au XXIe siècle, en passant par les sociétés anonymes pendant la révolution industrielle.
Avant de parler d’histoire, parlons de théorie économique.
D'abord, dès le moment où un capital est bloqué dans une activité économique, ou immobilisé en comptabilité, comme par exemple le commerce d’épice, il n’est plus disponible pour d’autres investissements potentiellement plus rentables. Ensuite, pour être valorisé comme patrimoine privé et être transmis aux héritiers, le capital doit in fine se détacher de l’entreprise. La holding répond à ce paradoxe vieux comme le capitalisme : séparer la responsabilité patrimoniale entre sphère professionnelle et personnelle.
Dès le Xe siècle, des dispositifs comme la commenda instaurent une séparation entre l’investisseur, qui apporte le capital, et l’exploitant, qui exécute l’entreprise commerciale, le plus souvent sous la forme d’un voyage maritime. Celles-ci se développent à Venise et à Gênes, contribuant à la prospérité des deux villes.
À partir du XVe siècle, les sociétés par actions émergent dans un contexte de conquêtes coloniales. C’est le modèle juridique des monopoles royaux que sont les compagnies anglaise, néerlandaise et française des Indes orientales et occidentales. Cette forme juridique introduit la divisibilité du capital dans le cadre d’un commerce incertain, nécessitant l’immobilisation d’un capital conséquent.
Au XIXe siècle, parallèlement au mouvement d’industrialisation en Europe, cette séparation du patrimoine et de la responsabilité économique est formalisée à travers des entités juridiques précises.
Le Code français du commerce de 1807 introduit une distinction claire entre patrimoine privé et activité économique, ouvrant la voie à la création des sociétés anonymes (SA). En effaçant le nom des actionnaires de la raison sociale de l’entreprise, la société anonyme devient une entité juridique autonome bénéficiant d’une responsabilité propre. Cette nouvelle donne conduit de nombreux investisseurs particuliers à tirer profit des revenus d’une entreprise jusqu’à la déclaration de la faillite, ce sans en assumer les conséquences.
L’essor des sociétés anonymes est facilité par la loi de 1864 sur les sociétés commerciales. Cette forme juridique permet un financement de l’entreprise par des investisseurs anonymes extérieurs à l’entreprise à travers le marché des capitaux – en actions ou en obligations. Elle devient majoritaire après la Seconde Guerre mondiale.
Concrètement, la société anonyme, en permettant un financement sur une base plus large, introduit aussi un paradoxe. D’un côté, les propriétaires du capital ne sont plus personnellement responsables du capital immobilisé dans l’entreprise. De l’autre, un nouveau problème apparaît : comment les familles d’actionnaires historiques peuvent conserver le contrôle du capital dans un contexte d’élargissement du nombre d’investisseurs ?
C’est dans ce cadre qu’une première structuration juridique du capital familial apparaît. S’il est impossible de parler de holdings à cette époque sans faire d’anachronisme, les bases sont posées.
En France, la construction de grands groupes industriels s’organise tardivement à partir des années 1960-1970, sous l’impulsion de l’État et des banques d’affaires, comme Lazare et Rothschild. Les fusions, acquisitions et restructurations donnent naissance à des ensembles industriels de taille inédite, presque toujours chapeautés par des holdings.
La réforme fiscale de 1965 facilite la création et l’organisation des grands groupes que nous connaissons aujourd’hui. En allégeant l’impôt sur les dividendes distribués par les filiales à leur société-mère, elle encourage les firmes à se structurer en plusieurs niveaux de sociétés imbriquées les unes dans les autres. Un système pyramidal se généralise, remplaçant progressivement les structures financières classiques, dans lesquelles les actionnaires possédait personnellement les actions des sociétés du groupe familial.
La holding devient une structure de tête, centralisant la propriété, la trésorerie et le pouvoir de décision, tout en maintenant l’autonomie juridique des filiales. Ces holdings de groupe remplissent plusieurs fonctions : effet de levier financier, outil de croissance externe et d’arbitrage d’actifs, et séparation organisationnelle entre propriété du capital et activité productive.
La création de Peugeot Société anonyme en 1966 comme société mère du groupe industriel familial en est un illustre exemple. Les diverses activités – cycles, outillages ou automobiles – sont auparavant gérées par des sociétés indépendantes, appartenant en direct aux actionnaires, relevant des différentes branches de la famille. La holding Peugeot SA est elle-même contrôlée par Foncière et Financière de Participation (FFP), une holding familiale de contrôle créée en 1929. Cette structuration fiscale et juridique garantit une unification de la gestion financière des différentes filiales, et une centralisation de la gestion du capital familial.
À partir des années 1990, dans le cadre de l’installation de la stagnation, de l’accélération de l’accumulation du capital et de la financiarisation de l’économie, plusieurs opérations de rachats hostiles d’entreprises se déploient. Des groupes français aujourd’hui majeurs, tels LVMH, Lagardère ou Bolloré, se constituent au travers d’opérations financières d’envergure, plus ou moins agressives.
Ces opérations sont menées par l’intermédiaire de holdings, qui permettent de centraliser la trésorerie, et de facto de bénéficier d’un effet de levier pour ces investissements – avoir recours à de l’endettement pour augmenter la capacité d’investissement de l'entreprise. Indépendante juridiquement et de nom, elles permettent de racheter les actions d’une entreprise d’une manière plus discrète que par une société portant le nom familial. C’est la stratégie déployée à de nombreuses reprises par le groupe Bolloré.
Les holdings sont donc de plus en plus éloignées d’enjeux de développement industriel, et de plus en plus proches de logiques d’optimisation financière dans le cadre de ces nouveaux empires du capital.
Ces holdings sont progressivement transformées en sociétés de capital-investissement. Elles servent de support à des stratégies de diversification patrimoniale et à une recomposition profonde du capital que l’on associe à la financiarisation.
La holding peut être le véhicule d’une diversification du capital familial, ce qui ne s'oppose pas au maintien du contrôle industriel. C’est le cas du groupe FFP, société d’investissement de la famille Peugeot, ancêtre de Peugeot Invest. À partir des années 2000, le mouvement de diversification financière s’accélère : la holding prend des participations dans de nombreux groupes, comme Seb, Orpea, Ipsos, DKSH, Dassault Real Estate, Zodiac, Tikehau, Totan Eren, Spie, des sociétés immobilières, des fonds de capital-investissement, etc. Cet important mouvement est allé de pair avec le maintien d’une partie significative du contrôle du groupe PSA, devenu Stellantis, par la holding de la famille Peugeot (ci-dessous, les investissements de cette holding en 2019).
Aux étages supérieurs s’ajoutent aujourd’hui des structures, comme les « Family Offices ». Elles parachèvent la transformation du capital économique en patrimoine privé pour de nombreuses dynasties françaises au sommet des classements de grandes fortunes. Outre la dimension d’ingénierie patrimoniale, ces structures offrent divers services financiers mais aussi de gestion des relations entre actionnaires et parents au sein de ces familles fortunées.
Ce phénomène est général. Le capital des principales dynasties françaises s’organise à présent autour de holdings formant des édifices plus ou moins complexes, mais toujours avec une société financière principale : holding H51 pour la famille Hermès, société Agache pour la famille Arnault, Téthys Invest pour la famille Bettencourt-Meyers, GIMD pour la famille Dassault, Merit France pour les Saadé, NJJ holding pour les Niel, etc.
Au sein de ces empires familiaux, les étages de holdings constituent les échelles permettant la transformation de la valeur produite au sein de l’économie réelle en patrimoine privé. Penser les enjeux économiques en ne prêtant attention qu’au plus bas niveau, celui des filiales industrielles, est donc largement incomplet.
Replacer les holdings au cœur de l’analyse permet donc de comprendre que l’enrichissement n’est ni naturel ni automatique, mais le produit d’une architecture institutionnelle précise, largement invisible dans le débat public.
Quentin Belot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
04.02.2026 à 11:26
Upama Aich, Forrest Research Fellow, Centre for Evolutionary Biology, The University of Western Australia
MIchael Jennions, Emeritus Professor, Evolutionary Biology, Australian National University

Comparés à ceux des autres grands singes, les pénis humains sont mystérieusement grands, ce qui suggère qu’ils pourraient servir de signal aux partenaires.
« La taille compte », c'est une phrase assez cliché, mais pour les biologistes de l’évolution, la taille du pénis humain constitue un véritable mystère. Comparé à celui d’autres grands singes, comme les chimpanzés et les gorilles, le pénis humain est plus long et plus épais que ce à quoi on pourrait s’attendre pour un primate de notre taille.
Si la fonction principale du pénis est simplement de transférer le sperme, pourquoi le pénis humain est-il si nettement plus grand que celui de nos plus proches parents ?
Notre nouvelle étude, publiée aujourd’hui dans PLOS Biology révèle qu’un pénis plus grand chez l’être humain remplit deux fonctions supplémentaires : attirer des partenaires et intimider les rivaux.
Comprendre pourquoi le corps humain a cette apparence est une question centrale en biologie évolutive. Nous savons déjà que certaines caractéristiques physiques, comme une grande taille ou un torse en forme de V, augmentent l’attrait sexuel d’un homme
En revanche, on sait moins de choses sur l’effet d’un pénis plus grand. Les humains ont marché debout bien avant l’invention des vêtements, ce qui rendait le pénis très visible aux yeux des partenaires et des rivaux pendant une grande partie de notre évolution.
Cette proéminence aurait-elle favorisé la sélection d’une plus grande taille ?
Il y a treize ans, dans une étude qui a fait date, nous avons présenté à des femmes des projections grandeur nature de 343 silhouettes masculines en 3D générées par ordinateur, anatomiquement réalistes, variant selon la taille, le rapport épaules-hanches (silhouette) et la taille du pénis.
Nous avons constaté que les femmes préfèrent généralement les hommes plus grands, avec des épaules plus larges et un pénis plus grand.
Cette étude a fait la une des médias du monde entier, mais elle ne racontait qu’une partie de l’histoire. Dans notre nouvelle étude, nous montrons que les hommes aussi prêtent attention à la taille du pénis.
Chez de nombreuses espèces, les traits plus marqués chez les mâles, comme la crinière du lion ou les bois du cerf remplissent deux fonctions : attirer les femelles et signaler la capacité de combat aux autres mâles. Jusqu’à présent, nous ne savions pas si la taille du pénis humain pouvait elle aussi remplir une telle double fonction.
Dans cette nouvelle étude, nous avons confirmé notre conclusion précédente selon laquelle les femmes trouvent un pénis plus grand plus attirant. Nous avons ensuite cherché à déterminer si les hommes percevaient également un rival doté d’un pénis plus grand comme plus attirant pour les femmes et, pour la première fois, si les hommes considéraient un pénis plus grand comme le signe d’un adversaire plus dangereux en cas de confrontation physique.
Pour répondre à ces questions, nous avons montré à plus de 800 participants les 343 silhouettes variant en taille, en morphologie et en taille de pénis. Les participants ont observé et évalué un sous-ensemble de ces silhouettes, soit en personne sous forme de projections grandeur nature, soit en ligne sur leur propre ordinateur, tablette ou téléphone.
Nous avons demandé aux femmes d’évaluer l’attrait sexuel des personnages, et aux hommes de les évaluer en tant que rivaux potentiels, en indiquant dans quelle mesure chaque personnage leur semblait physiquement menaçant ou sexuellement compétitif.
Pour les femmes, un pénis plus grand, une stature plus élevée et un torse en forme de V augmentaient l’attrait d’un homme. Toutefois, cet effet présentait un rendement décroissant : au-delà d’un certain seuil, une augmentation supplémentaire de la taille du pénis ou de la taille corporelle n’apportait que des bénéfices marginaux.
La véritable révélation est cependant venue des hommes. Ceux-ci percevaient un pénis plus grand comme le signe d’un rival à la fois plus combatif et plus compétitif sur le plan sexuel. Les silhouettes plus grandes et au torse plus en V étaient évaluées de manière similaire.
Cependant, contrairement aux femmes, les hommes classaient systématiquement les individus présentant les traits les plus exagérés comme des concurrents sexuels plus redoutables, ce qui suggère qu’ils ont tendance à surestimer l’attrait de ces caractéristiques pour les femmes.
Nous avons été frappés par la cohérence de nos résultats. Les évaluations des différentes silhouettes ont conduit à des conclusions très similaires, que les participants aient vu les projections grandeur nature en personne ou les aient observées sur un écran plus petit en ligne.
Il est important de rappeler que le pénis humain a avant tout évolué pour le transfert du sperme. Néanmoins, nos résultats montrent qu’il fonctionne également comme un signal biologique.
Nous disposons désormais de preuves indiquant que l’évolution de la taille du pénis pourrait avoir été en partie guidée par les préférences sexuelles des femmes et par son rôle de signal de capacité physique entre hommes.
Il convient toutefois de noter que l’effet de la taille du pénis sur l’attractivité était quatre à sept fois plus important que son effet en tant que signal de capacité de combat. Cela suggère que l’augmentation de la taille du pénis chez l’homme a évolué davantage en réponse à son rôle d’ornement sexuel destiné à attirer les femmes qu’en tant que symbole de statut social pour les hommes, bien qu’il remplisse effectivement ces deux fonctions.
Fait intéressant, notre étude a également mis en évidence une particularité psychologique. Nous avons mesuré la rapidité avec laquelle les participants évaluaient les silhouettes. Ceux-ci étaient nettement plus rapides pour juger les silhouettes présentant un pénis plus petit, une taille plus réduite et un haut du corps moins en forme de V. Cette rapidité suggère que ces traits sont évalués inconsciemment, presque instantanément, comme moins attirants sexuellement ou moins menaçants physiquement.
Il existe bien sûr des limites à ce que révèle notre expérience. Nous avons fait varier la taille corporelle, la taille du pénis et la morphologie, mais dans la réalité, des caractéristiques telles que les traits du visage et la personnalité jouent également un rôle important dans la manière dont nous évaluons les autres. Il reste à déterminer comment ces facteurs interagissent entre eux.
Enfin, bien que nos conclusions soient valables pour des hommes et des femmes issus de différentes origines ethniques, nous reconnaissons que les normes culturelles de la masculinité varient à travers le monde et évoluent au fil du temps.
Upama Aich a reçu des financements de la Forrest Research Foundation pour travailler à l'Université d'Australie occidentale et a reçu une bourse de recherche de la Monash University pour mener cette étude.
MIchael Jennions ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
04.02.2026 à 11:26
Julie Dabkowski, Directrice de recherche CNRS en Géologie de la Préhistoire, Université Paris 1 Panthéon-Sorbonne, Université Paris-Est Créteil Val de Marne (UPEC)
Nicole Limondin-Lozouet, Directrice de Recherche, Malacologue quaternariste, Centre national de la recherche scientifique (CNRS)
Pierre Louis Antoine, Directeur de Recherche CNRS, géoloque et géomorphologue spécialiste des paléoenvironnements du Quaternaire, Centre national de la recherche scientifique (CNRS)

S’il est aujourd’hui à nouveau possible de se baigner dans la Seine, pouvez-vous imaginer devoir faire attention aux hippopotames avant de plonger ? C’était bien ce que devaient faire nos ancêtres, il y a 400 000 ans. Une étude récente décrit un paysage insoupçonné.
À 15 km de Fontainebleau (Seine-et-Marne), le site de La Celle est connu depuis le XIXᵉ siècle. Il livre à cette époque quelques outils façonnés par des humains préhistoriques mais, surtout, une remarquable collection d’empreintes de végétaux et de coquilles de mollusques. Au cours de nouvelles études entamées en 2003, des restes d’hippopotame et de macaque y sont également découverts.
Notre équipe de recherche constituée d’une quinzaine de spécialistes de disciplines très variées a pu exploiter tout le potentiel de ce site pour reconstituer des conditions climatiques et environnementales particulièrement douces dans la vallée de la Seine, il y a environ 400 000 ans. Retour sur plus de vingt années de recherche dont nous avons récemment publié une synthèse.
Depuis 2,6 millions d’années, le climat de la Terre alterne entre périodes glaciaires et interglaciaires. Les périodes glaciaires sont des phases froides. Les glaciers y étaient bien plus étendus, aux pôles comme en montagne. Ces périodes durent en moyenne 80 000 ans. Les interglaciaires sont, au contraire, des phases chaudes. Elles ressemblent au climat actuel et sont plus courtes, environ 20 000 ans.
Le site de La Celle est daté par des méthodes diverses d’une de ces périodes interglaciaires survenue il y a environ 400 000 ans. Cet interglaciaire en particulier peut être considérée comme une période « modèle » pour comprendre l’évolution récente du climat, depuis une dizaine de milliers d’années, en dehors des effets du dérèglement climatique lié aux activités humaines.
La principale formation géologique observée à La Celle est ce que l’on appelle un tuf calcaire. C’est une roche sédimentaire qui se forme à l’émergence de certaines sources ou dans des cours d’eau peu profonds. Sa formation est favorisée par un climat tempéré et humide, justement typique des périodes interglaciaires. Les tufs sont des archives géologiques particulièrement intéressantes car ils fossilisent des informations riches et diversifiées sur les environnements et climats passés.
À La Celle, plusieurs milliers d’années ont été nécessaires à la formation de près de 15 mètres d’épaisseur de tuf. Dans certains niveaux les empreintes de feuilles d’arbres et de fruits sont conservées et renvoient l’image d’une végétation riche qui se développe sous des conditions plutôt chaudes : chêne, peuplier, saule… mais surtout buis, figuier et micocoulier. Au milieu du dépôt la présence d’ossements de macaque et d’hippopotame est aussi un indice de conditions climatiques clémentes.
Notre équipe a également étudié de petits fossiles particulièrement intéressants pour reconstituer en détail l’évolution de l’environnement : les coquilles de mollusques (escargots et limaces). Chaque escargot a des contraintes écologiques particulières et porte sur sa coquille des caractères distinctifs qui permettent même sur un petit morceau de reconnaître l’espèce à laquelle elle appartenait. Ainsi, la malacologie, discipline qui étudie ces fossiles de mollusques, permet de déduire à partir des assemblages d’escargots les milieux dans lesquels ils vivaient.
Dans le tuf de La Celle, les coquilles sont particulièrement bien conservées : plus de 42 000 individus ont été collectés, représentant 94 espèces de mollusques ! Elles sont par ailleurs présentes sur toute l’épaisseur du tuf ce qui permet de reconstituer des changements environnementaux sur plusieurs milliers d’années. La succession des faunes d’escargots de La Celle révèle trois étapes environnementales. À la base, une prairie marécageuse évolue vers une forêt de plus en plus dense. Celle-ci est contemporaine des silex taillés par les préhistoriques et des ossements de macaque et d’hippopotame. Dans la partie supérieure du dépôt, la forêt laisse place à une zone humide.
À La Celle les escargots de milieu forestier sont remarquables par leur diversité. Plusieurs espèces sont aujourd’hui éteintes où ne vivent plus que dans des contrées éloignées d’Europe centrale ou de la côte Atlantique sud. Elles constituent ce qui est nommée « la faune à Lyrodiscus » du nom d’un sous-genre d’escargot qui n’existe plus dans la faune moderne qu’aux îles Canaries. La faune à Lyrodiscus a été identifiée dans sept gisements de tuf répartis dans les vallées de la Seine, de la Somme et le sud de l’Angleterre, tous datés du même interglaciaire. Cependant, par son épaisseur exceptionnelle, le tuf de La Celle est le seul qui enregistre en détail l’émergence, le développement et la disparition de cette faune caractéristique d’une forêt tempérée et humide. La Celle sert de modèle pour positionner dans la succession forestière les séries plus courtes des autres gisements.
Certaines caractéristiques chimiques du tuf lui-même renseignent sur les conditions de température et d’humidité au moment de sa formation : c’est l’étude géochimique. Ces analyses menées en parallèle de l’étude des mollusques montrent que l’optimum climatique, qui correspond aux conditions les plus chaudes et les plus humides enregistrées au cours de toute la séquence, intervient au même moment que le développement maximal de la forêt. Ces données géochimiques ont été comparées avec celles obtenues sur d’autres tufs du nord de la France datés de périodes interglaciaires plus récentes : le dernier interglaciaire, il y a environ 125 000 ans (enregistré à Caours dans la Somme) et l’interglaciaire actuel. Nous avons ainsi pu montrer que l’interglaciaire de La Celle, il y a 400 000 ans, avait été le plus chaud et le plus humide, ce qui explique, au moins en partie, la très grande richesse des faunes d’escargots, mais également la présence du macaque, de l’hippopotame et de plantes méridionales.
Par son épaisseur importante, rarement observée pour un tuf de cet âge, la diversité et la complémentarité des informations conservées, le tuf de La Celle peut maintenant être considéré comme une référence européenne pour la connaissance des changements environnementaux et climatiques au cours de la période interglaciaire survenue il y a 400 000 ans. De tels sites sont importants, car si les sédiments marins ou les couches de glace en Antarctique nous renseignent de façon spectaculaire sur les variations climatiques globales des dernières centaines de milliers d’années, il est plus complexe d’obtenir des enregistrements longs sur les séries des continents beaucoup plus soumises à l’érosion. Or, les macaques, les hippopotames… et les humains préhistoriques ne vivaient ni au fond des océans, ni au Pôle sud !
Si vous avez envie de voir à quoi ressemble ce tuf en vrai, bonne nouvelle : il est aménagé et accessible librement, alors venez le visiter !
Julie Dabkowski a reçu des financements de CNRS.
Nicole Limondin-Lozouet a reçu des financements de CNRS.
Pierre Louis Antoine a reçu des financements de CNRS
04.02.2026 à 11:26
Marc-Antoine Custaud, Professeur de Physiologie, Université d’Angers
Pour comprendre l’effet de la gravité sur notre corps, il faut être capable de s’en soustraire, et la Station spatiale internationale est l’unique laboratoire où cela est possible sur des périodes prolongées. Sophie Adenot va pouvoir y mener différentes expériences pendant ses huit mois de mission.
Depuis plus de vingt ans, la Station spatiale internationale (ISS) est un laboratoire scientifique unique où l’absence de pesanteur met la physiologie humaine à l’épreuve. La station se déplace très vite autour de la Terre, elle est en chute libre permanente tout en restant en orbite terrestre, c’est cette configuration bien particulière qui fait que tout « flotte » à l’intérieur.
Nous parlerons plutôt d’état de micropesanteur, car il reste tout de même des accélérations minimes. Si l’astronaute dans l’ISS reste bien dans le champ de gravité de la Terre, les effets physiologiques de la gravité sur son organisme sont en revanche totalement supprimés. En conduisant des études biomédicales dans l’ISS, il s’agit non seulement de permettre à l’humain de s’adapter à un environnement extrême caractérisé par cette micropesanteur, mais aussi d’étudier le rôle de la gravité sur les grandes fonctions de notre organisme. Et comment comprendre le rôle de cette force omniprésente sur le vivant si ce n’est en étudiant la suppression de ses effets ?
Au niveau tissulaire, il existe des cellules spécialisées dont le rôle est de percevoir précisément la gravité. Ce sont par exemple les cellules ciliées du vestibule situé dans l’oreille interne chez l’humain. C’est l’organe dont la perturbation par l’absence de pesanteur contribue au mal de l’espace qui ressemble au mal de mer. La question de la faculté de graviception pour chacune de nos cellules se pose. Dans quelle mesure la force de gravité interagit-elle sur le cytosquelette, ce réseau de filaments protéiques à l’intérieur de la cellule qui lui donne sa forme et, plus généralement, sur les interactions moléculaires comme celle d’une enzyme avec son substrat ?
Au niveau de l’organisme, si la gravité n’existait pas, nul besoin d’un système cardiovasculaire aussi complexe avec ses mécanismes de protection permettant de maintenir une circulation normale au niveau du cerveau en position debout, cet organe a en effet besoin d’avoir un flux sanguin permanent et suffisant pour pouvoir fonctionner. Le tissu osseux serait inutile, au même titre que le tissu musculaire, puisqu’une partie importante du rôle de ces systèmes est de lutter contre la gravité. L’absence de pesanteur dans une station spatiale induit donc chez nos astronautes une sédentarité poussée avec toutes les conséquences médicales sur leur santé.
La gravité a façonné le vivant depuis des millions d’années, et, de façon très surprenante, soustraire notre organisme de l’influence de cette force, même partiellement et après quelques jours seulement, conduit à une désadaptation à la gravité. C’est ce que nous appelons le déconditionnement. Ce syndrome comporte principalement un risque de syncope, une diminution de la capacité à effectuer un exercice physique, une amyotrophie, une fragilisation osseuse et des troubles métaboliques. De très nombreuses expériences sont ainsi conduites par les équipages dans l’ISS afin de comprendre l’impact de l’absence de pesanteur sur l’ensemble de nos grandes fonctions. À côté des expériences conduites dans un environnement spatial vrai, nous mettons aussi en place des études sur des analogues au sol par alitement (le sujet est rendu inactif dans un lit) ou par immersion sèche (le sujet flotte dans une grande baignoire au sec isolé par un film élastique). Il est aussi possible d’induire de courtes durées de micropesanteur (de l’ordre de trente secondes) en avion lors de vols paraboliques. Ces études, permettent de conduire des travaux sur un nombre de sujets plus importants et de valider des méthodes prophylactiques (appelées contre-mesures) afin de lutter contre ce déconditionnement, avant de les prescrire aux astronautes.
Le Centre national des études spatiales (CNES) est reconnu pour son soutien aux travaux de médecine et de physiologie spatiale ainsi que pour le développement d’outils spécifiques. Il s’appuie sur ses équipes d’ingénieurs qui ont une longue expérience dans le développement et la qualification de tels instruments biomédicaux. Il a lancé très tôt un programme dans le domaine cardiovasculaire. Citons le programme Physiolab, qui a été mis en œuvre lors de la mission Cassiopée (1996), à bord de la station Mir, par Claudie Haigneré, première astronaute française à être allée dans l’espace. Physiolab a permis une étude fine à l’échelle du battement cardiaque de la régulation cardiovasculaire. Suivre la fréquence cardiaque et la pression artérielle battement par battement permet de décrire et de comprendre la survenue des épisodes de syncope au retour sur terre. Plusieurs évolutions de ce système ont été utilisées depuis Physiolab, aboutissant aujourd’hui au programme « Physiotool ».
Pour bien comprendre les effets d’un séjour dans l’espace sur le corps et surveiller de près le système cardiovasculaire des astronautes, il faut une approche intégrative qui permet de suivre non seulement les paramètres cardiovasculaires habituels, mais aussi des flux sanguins périphériques (cérébraux et musculaires), l’activation musculaire elle-même ainsi que les mouvements respiratoires.
C’est ce que permet Physiotool, développé et intégré par le CNES en combinant différents appareils biomédicaux utilisables en ambulatoire. Nous pourrons ainsi réaliser un suivi physiologique de l’astronaute au repos, lors de sessions d’exercices physiques, de stimulations cognitives ou sur de plus longues durées. Après des tests au sol, Physiotool sera utilisé en vol pour la première fois lors de la mission Epsilon.
Cet instrument développé par le CNES, en lien avec l’Agence spatiale européenne (ESA), permettra de réaliser un protocole scientifique porté conjointement par l’Université d’Angers et l’Université de Lorraine avec Benoît Bolmont. Physiotool a pour vocation de devenir un moniteur ambulatoire de la santé cardiovasculaire de l’astronaute !
La physiologie spatiale est une discipline qui favorise les études inter-systèmes. Nous souhaitons connaître dans quelle mesure les vaisseaux sanguins sont impliqués dans la fragilisation osseuse induit par l’absence de pesanteur. Le projet Echo-bones permet d’étudier à la fois la structure de l’os, mais aussi les flux vasculaires intra-osseux avec un échographe innovant.
Ce projet est particulièrement soutenu par le CNES et ouvre des perspectives en médecine pour mieux comprendre par exemple l’ostéoporose et l’arthrose. Ce protocole scientifique est porté en France par le CHU d’Angers, l’Université de Saint-Étienne (Laurence Vico) et aux Pays-Bas par l’Université de Delft (Guillaume Renaud qui est à l’origine du développement de cet échographe innovant). Dans le cadre de la mission Epsilon, des mesures en pré et post vols seront réalisées afin de quantifier les modifications osseuses induites par cette mission de longue durée.
Voici deux exemples d’études dont je suis l’investigateur principal et qui seront conduites à l’occasion de la mission Epsilon dont le décollage est prévu très prochainement. D’autres protocoles en médecine spatiale sont bien entendus mis en place avec le CNES dans le cadre de cette mission, comme Echo-Finder pour faciliter la réalisation, par un astronaute novice, en complète autonomie, d’une échographie afin d’étudier un ensemble d’organes (ce protocole est porté par l’Université de Caen). Ce système prépare les futures missions d’exploration lointaine (Lune, Mars). Et il y aura évidemment aussi tout le programme d’études scientifiques internationales réalisées régulièrement dans le domaine des sciences de la vie !
L’après-ISS se prépare activement (elle sera détruite en 2030), avec la programmation de futures stations spatiales, qu’elles soient privées ou issues de partenariats académiques, et qui ouvriront de nouveaux cadres pour la poursuite de nos études scientifiques et médicales. Parallèlement, des projets d’exploration spatiale se mettent en place, notamment avec les missions Artemis visant le retour très prochain sur la Lune.
Le suivi médical et physiologique des astronautes sera un point critique pour le succès de ces missions. Cette surveillance devra d’autant plus évoluer que de nouvelles problématiques médicales devront être prises en compte, comme l’exposition au régolithe (la poussière lunaire), l’augmentation des risques liés aux radiations cosmiques et l’éloignement de l’équipage dont les conséquences psychologiques doivent être anticipées.
Marc-Antoine Custaud a reçu des financements du CNES, de la région des Pays de la Loire et du CNRS. Il est président de l'ISGP, association scientifique à vocation académique (International Society for Gravitational Physiology)
04.02.2026 à 11:24
Rémi Canton, Chef de Projet Vols Habités (CADMOS) , Centre national d’études spatiales (CNES)
Dans la Station spatiale internationale, les astronautes réalisent de nombreuses expériences scientifiques – c’est même le cœur de leur activité. Aujourd’hui, Rémi Canton, responsable au Centre national d’études spatiales de la préparation des expériences françaises à bord de l’ISS, nous parle des recherches scientifiques à bord.
The Conversation : Sophie Adenot, la nouvelle astronaute française, va partir un peu en avance par rapport à ce qui avait été prévu et devrait rester huit mois à bord d’ISS – ce qui est plus long que la plupart des missions ?
Rémi Canton : Oui, le départ de Sophie va peut-être être légèrement avancé à cause du retour anticipé de la mission précédente, en raison d’un problème de santé d’un des membres de l’équipage. La durée de sa mission en revanche n’est pas liée à des raisons scientifiques ou de santé, mais a été fixée par la Nasa qui souhaite réduire le nombre de lancements de rotation d’équipage pour réduire les coûts et prévoit donc que les missions à bord de l’ISS seront dorénavant plus longues.
Outre les expériences de physiologie dont nous parle votre collègue Marc-Antoine Custaud dans un autre article, Sophie Adenot va travailler sur les contaminations par des microorganismes : bactéries, champignons, virus… Mais honnêtement, on n’imagine pas au premier abord une station spatiale comme un nid à microbes ! D’où viennent ces contaminations ?
R. C. : La biocontamination n’est évidemment pas une spécificité spatiale, et il n’y a pas de problème particulier identifié à bord, mais les enjeux dans un espace confiné sont importants. En premier lieu pour protéger la santé de l’équipage, mais aussi pour minimiser le temps d’entretien afin de maximiser le temps consacré aux expériences scientifiques.
Le matériel que l’on monte est bien sûr désinfecté pour éviter d’amener toute sorte de contamination dans l’ISS. Mais il peut y avoir des résidus et, avec l’équipage à bord, il y a forcément du vivant. Le corps humain contient en grand nombre tout un ensemble de bactéries, de microchampignons et autres microorganismes, que l’on appelle le microbiote. Et qui peut se propager à cause de postillons, par exemple.
Il faut donc en limiter la prolifération, dans cet environnement confiné et que l’on ne peut pas aérer !
Dans quel but étudier ces contaminations ?
R. C. : Il s’agit d’abord de protéger la santé des astronautes, mais aussi la durée de vie du matériel, qui peut être endommagé par la corrosion bactérienne. Il y a des endroits difficiles d’accès et donc compliqués à nettoyer : connectique, derrière des câbles ou des baies informatiques, par exemple.
La première étape est de caractériser les microorganismes présents dans l’ISS et qui sont responsables de la biocontamination. La deuxième étape est de trouver des matériaux et des traitements – physiques et non chimiques – de surface, c’est-à-dire des textures ou revêtements, qui ralentissent ou empêchent la prolifération des contaminants. Soit en les piégeant, soit en les repoussant pour les empêcher de s’accrocher et de proliférer derrière un biofilm protecteur. Cela se fait grâce à l’expérience Matiss-4, dernière itération d’une expérience commencée dès la mission Proxima de Thomas Pesquet en 2016. On étudie par exemple des surfaces hydrophiles et hydrophobes, des surfaces texturées avec des petits plots en silice qui font que c’est plus difficile de s’accrocher d’un point de vue microscopique.
À terme, on espère identifier les meilleurs matériaux et revêtements qui pourraient être utilisés pour les futures stations spatiales et bases lunaires, et qui répondent parfaitement à cette problématique.
À bord, Sophie Adenot n’analysera pas ces surfaces ?
R. C. : Non, Sophie accrochera ces porte-échantillons avec différents types de surfaces dans des endroits stratégiques de l’ISS, près des filtres et bouches d’aération par exemple. Ils seront exposés pendant plusieurs mois à l’environnement ISS avant d’être ramenés sur Terre bien après sa mission pour une analyse au sol par fluorescence X ou spectroscopie Raman, par les scientifiques.
En parallèle, elle utilisera un deuxième instrument, appelé MultISS, caméra multimodale et multispectrale, qui permettra de prendre des photos des surfaces dans différentes longueurs d’onde (ultraviolets notamment) pour évaluer la contamination des surfaces invisible à l’œil nu. Cela permettra d’identifier les zones qui nécessitent le plus d’attention.
Existe-t-il pour ces expériences un objectif de développement d’applications qui soient utiles sur Terre ?
R. C. : Le but du Cadmos, le service dont je m’occupe au CNES, est d’abord de répondre à des objectifs scientifiques pour améliorer la connaissance et la compréhension de phénomènes inobservables sur Terre : nous recevons des demandes de laboratoires de recherche qui veulent observer certains phénomènes physiques, biologiques ou physiologiques en impesanteur, car cela permet de s’affranchir des effets de la gravité, comme le poids, la convection thermique, la poussée d’Archimède, la sédimentation ou la pression hydrostatique. Ces chercheuses et chercheurs ne cherchent pas à aller dans l’espace ! Au contraire, pour eux c’est plus une contrainte qu’autre chose. Mais c’est le seul endroit où ils peuvent avoir accès à l’impesanteur sur de longues périodes, ce qui leur « ouvre les yeux » sur un univers invisible sur Terre.
Donc, pour répondre à votre question : les applications terrestres ne sont pas dans le cahier des charges initial, c’est le principe même de la recherche fondamentale, mais le fait est que l’on découvre ensuite une multitude d’applications terrestres possibles.
Par exemple, nous avons étudié les fluides supercritiques (des fluides sous très haute pression et très haute température) dans l’expérience DECLIC. Parmi les propriétés qui ont été découvertes : en présence d’un oxydant, l’eau supercritique dissout et oxyde les substances organiques sans dégager d’oxyde d’azote… En d’autres termes, il s’agit d’un procédé de combustion « propre », beaucoup moins polluante. Au niveau spatial, cela pourrait être très intéressant pour le traitement des déchets, par exemple, sur une base lunaire. C’est d’ailleurs ce procédé qu’utilise Matt Damon dans Seul sur Mars, avec notre expérience, pour traiter ses déchets organiques. Mais ce serait surtout une technologie très utile sur Terre, car bien moins polluante que les incinérateurs classiques. Peut-être avec un rendement moindre que dans l’ISS, car le fluide supercritique serait moins homogène qu’en impesanteur, mais ce serait une technologie issue de la recherche spatiale, et qui a d’ailleurs commencé à être déployée pour traiter les déchets de certaines usines pétrochimiques.
Au-delà des expériences scientifiques qui nous sont demandées par les chercheurs, nous travaillons aussi à la préparation des technologies nécessaires pour l’exploration habitée plus lointaine. Et même si c’est moins intuitif et que cela peut paraître paradoxal, beaucoup d’applications terrestres découlent de cette branche. Car il s’agit de répondre à des problématiques de gestion et de recyclage de l’eau, le stockage de l’énergie, le traitement des déchets ou l’autonomie en santé. Et en effet, un équipage dans une station ou sur une base spatiale doit utiliser au mieux des ressources limitées, comme nous sur Terre, à une autre échelle. L’environnement exigeant et très contraint du spatial nous force ainsi à trouver des solutions innovantes, et sert ainsi d’accélérateur de technologie. Nous avons par exemple développé des techniques pour faire de l’échographie à distance avec des sondes motorisées et pilotables à distance, qui sont utilisées aujourd’hui en télémédecine dans des déserts médicaux.
Nous parlions de prévention de biocontamination tout à l’heure : l’objectif initial était une application spatiale, mais au final l’application sera surtout terrestre, pour les milieux hospitaliers, les transports en commun (barres de métro…), les lieux publics (boutons d’ascenseur, poignées de porte…), afin d’éviter la propagation d’agents pathogènes.
En parlant de recherche fondamentale : en 2023, l’astronaute danois Andy Morgensen a fait une mousse au chocolat pour étudier la formation d’émulsions en micropesanteur. Est-ce que Sophie Adenot va tester une nouvelle recette ?
R. C. : Oui, mais plus pour le plaisir que pour la science, cette fois-ci ! Nous avons juste décidé d’intégrer un objectif supplémentaire par rapport à la mousse au chocolat : dans un scénario réaliste, il n’y aura ni cacaotier ni d’œufs sur une base lunaire… Sophie va réaliser ce coup-ci une recette incorporant des ingrédients que des astronautes pourraient un jour faire pousser sur une base spatiale. Au menu : houmous et caviar d’aubergine !
Rémi Canton ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.02.2026 à 17:14
Jean-Michel Bettembourg, Enseignant, Métiers du multimédia et de l'Internet, Université de Tours

Octobre 1967, le premier programme en couleurs est diffusé sur la deuxième chaîne de l’ORTF (aujourd’hui, France 2). Pourtant, la démocratisation de la télévision couleur a pris de nombreuses années, pour s’imposer à la fin des années 1980 dans quasiment tous les foyers de France, créant une forme de séduction qui se poursuit peut-être aujourd’hui à travers l’addiction aux écrans.
Le 1er octobre 1967, dans quelques salons français, le monde bascule avec l’avènement de la télévision en couleurs : une révolution médiatique, mais aussi politique, sociale et culturelle.
Cette première diffusion a lieu sur la deuxième chaîne de l’Office de radiodiffusion-télévision française (ORTF). Mais la télévision en couleurs, au début, n’est pas à la portée de tous. Pour la grande majorité des Français, elle reste un rêve inaccessible. Il y a, d’un côté, une ambition nationale immense pour promouvoir cette vitrine de la modernité et, de l’autre, une réalité sociale qui reste encore largement en noir et blanc.
La décision, très politique, vient d’en haut. La couleur n’était pas qu’une question d’esthétique, et le choix même de la technologie, le fameux procédé Sécam, est une affaire d’État. Plus qu’une décision purement technique, le choix d’un standard de télé est en réalité une affaire de souveraineté nationale.
Pour comprendre ce qui se joue, il faut se replacer dans le contexte de l’époque. Dans la période gaullienne, le maître mot, c’est l’indépendance nationale sur tous les fronts : militaire, diplomatique, mais aussi technologique.
Pour le général de Gaulle et son gouvernement, imposer un standard français, le Sécam, est un acte politique aussi fort que de développer le nucléaire civil ou plus tard de lancer le programme Concorde. La France fait alors face à deux géants : d’un côté le standard américain, le NTSC, qui existe déjà depuis 1953, et le PAL, développé par l’Allemagne de l’Ouest. Choisir le Sécam, c’est refuser de s’aligner, de devenir dépendant d’une technologie étrangère.
L’État investit. Des millions de francs de l’époque sont investis pour moderniser les infrastructures, pour former des milliers de techniciens et pour faire de la deuxième chaîne une vitrine de cette modernité à la française. Sécam signifie « Séquentiel couleur à mémoire », un système basé sur une sorte de minimémoire tampon avant l’heure, qui garantit une transmission sur de longues distances et des couleurs stables qui ne bavent pas.
Le pari est audacieux, car si la France opte ainsi pour un système plus robuste, cela l’isole en revanche du reste de l’Occident. Le prix à payer pour cette exception culturelle et technologique est double. Tout d’abord, le coût pour le consommateur : les circuits Sécam étaient beaucoup plus complexes et donc un poste TV français coûtait entre 20 et 30 % plus cher qu’un poste PAL, sans compter les problèmes d’incompatibilité à l’international. L’exportation des programmes français est acrobatique : il faut tout transcoder, ce qui est coûteux et entraîne une perte de qualité. Et ce coût, justement, nous amène directement à la réalité sociale de ce fameux 1er octobre 1967.
D’un côté, on avait cette vitrine nationale incroyable et, de l’autre, la réalité des salons français. Le moment clé, c’est l’allocution du ministre de l’information Georges Gorse qui, ce 1er octobre 1967, lance un sobre mais historique « Et voici la couleur… ». Mais c’est une image d’Épinal qui cache la fracture.
Le prix des télévisions nouvelle génération est exorbitant. Un poste couleur coûte au minimum 5 000 francs (soit l’équivalent de 7 544 euros, de nos jours). Pour donner un ordre de grandeur, le smic de l’époque est d’environ 400 francs par mois … 5 000 francs, c’est donc plus d’un an de smic, le prix d’une voiture !
La démocratisation a été extrêmement lente. En 1968, seuls 2 % des foyers environ étaient équipés, et pour atteindre environ 90 %, il faudra attendre jusqu’en… 1990 ! La télévision couleur est donc immédiatement devenue un marqueur social. Une grande partie de la population voyait cette promesse de modernité à l’écran, mais ne pouvait pas y toucher. La première chaîne, TF1, est restée en noir et blanc jusqu’en 1976.
Cette « double diffusion » a accentué la fracture sociale, mais en même temps, elle a aussi permis une transition en douceur. Le noir et blanc n’a pas disparu du jour au lendemain. Et une fois ce premier choc encaissé, la révolution s’est mise en marche.
La couleur a amplifié de manière exponentielle le rôle de la télé comme créatrice d’une culture populaire commune. Les émissions de variétés, les feuilletons, les jeux et surtout le sport, tout devenait infiniment plus spectaculaire. L’attrait visuel était décuplé. Lentement, la télévision est devenue le pivot qui structure les soirées familiales et synchronise les rythmes de vie. Et en coulisses, c’était une vraie révolution industrielle. L’audiovisuel s’est professionnalisé à une vitesse folle. Les budgets de production ont explosé.
Cela a créé des besoins énormes et fait émerger de tout nouveaux métiers, les étalonneurs, par exemple, ces experts qui ajustent la colorimétrie en postproduction. Et bien sûr, il a fallu former des légions de techniciens spécialisés sur la maintenance des caméras et des télés Sécam pour répondre à la demande. Dans ce contexte, l’ORTF et ses partenaires industriels, comme Thomson, ont développé des programmes ambitieux de formation des techniciens, impliquant écoles internes et stages croisés.
Le succès industriel est retentissant. L’impact économique a été à la hauteur de l’investissement politique initial. L’État misait sur la recherche et le développement. Thomson est devenu un leader européen de la production de tubes cathodiques couleur, générant des dizaines de milliers d’emplois directs dans ses usines. C’est une filière entière de la fabrication des composants à la maintenance chez le particulier qui est née.
Et puis il y a eu le succès à l’exportation du système. Malgré son incompatibilité, le Sécam a été vendu à une vingtaine de pays, notamment l’URSS.
Mais en filigrane, on sentait déjà poindre des questions qui nous sont très familières aujourd’hui, sur la place des écrans dans nos vies. C’est peut-être l’héritage le plus durable de la télévision en couleurs. La puissance de séduction des images colorées a immédiatement renforcé les craintes sur la passivité du spectateur. On commence à parler de « consommation d’images », d’une « perte de distance critique ».
Le débat sur le temps d’écran n’est pas né avec les smartphones, mais bien à ce moment-là, quand l’image est devenue si attractive, si immersive, qu’elle pouvait littéralement « capturer » le spectateur. La télé couleur, avec ses rendez-vous, installait une logique de captation du temps.
Et avec l’arrivée des premières mesures d’audience précises à la fin des années 1960, certains observateurs parlaient déjà d’une forme d’addiction aux écrans. La couleur a ancré durablement la télévision au cœur des industries culturelles, avec le meilleur des créations audacieuses et le moins bon, des divertissements certes très populaires mais de plus en plus standardisés.
L’arrivée de la couleur, c’était la promesse de voir enfin le monde « en vrai » depuis son salon. Cette quête de réalisme spectaculaire, de plus vrai que nature, ne s’est jamais démentie depuis, de la HD à la 4K, 6K et au-delà. On peut alors se demander si cette promesse initiale vendue sur un écran de luxe ne contenait pas déjà en germe notre rapport actuel à nos écrans personnels ultraportables, où la frontière entre le réel et sa représentation est devenue une question centrale.
Jean-Michel Bettembourg ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.02.2026 à 15:33
Zoë Dubus, Post docorante en histoire de la médecine, Sciences Po
LSD, psilocybine extraite de champignons hallucinogènes, mescaline issue de cactus, ayahuasca… les psychédéliques connaissent un regain d’intérêt en recherche médicale, pour des usages récréatifs ou expérientels voire stimulants, et bénéficient de représentations plus positives que les autres psychotropes. Ils ne doivent pas pour autant être considérés comme une catégorie « supérieure » aux autres substances psychoactives.
La « renaissance psychédélique », ce renouveau de l’intérêt scientifique autour de ces psychotropes, suscite des espoirs considérables : ces substances offriraient-elles des traitements miracles contre la dépression, le trouble de stress post-traumatique ou les addictions ? Rendraient-elles leurs usagers plus empathiques, plus écologistes, voire moralement meilleurs ? Seraient-elles finalement « supérieures » aux autres psychotropes ?
Comme le suggèrent des travaux en sciences sociales et en psychologie, ces attentes relèvent d’un imaginaire qui surestime les propriétés intrinsèques des substances et sous-estime la force des contextes d’usage ou des croyances préétablies, tout en dépolitisant profondément la manière de les aborder.
Ces représentations, partagées par une partie des usagers de psychédéliques voire par certains thérapeutes, sont en effet trompeuses : elles reposent sur des généralisations hâtives, amplifient des attentes démesurées et ne résistent ni à l’étude de la diversité des usages ni aux risques documentés.
Aucune de ces propositions ne justifie par ailleurs un « exceptionnalisme psychédélique », c’est-à-dire l’idée selon laquelle les substances psychédéliques classiques – psilocybine, le principe actif des champignons hallucinogènes ou « champignons magiques », LSD, DMT/ayahuasca et mescaline – seraient si singulières qu’elles devraient bénéficier de règles d’exception par rapport aux autres psychotropes en vertu d’une supposée « supériorité ».
À lire aussi : Addiction à l’alcool : un jour, traiter avec un psychédélique issu de champignons hallucinogènes ou du LSD ?
Au contraire : la cohérence scientifique, l’équité et la réduction des risques (RdR) exigent de rompre avec les narratifs qui hiérarchisent moralement les substances – et donc, par ricochet, leurs usagers –, de reconnaître les risques liés à la prise de ces produits (y compris en thérapie), d’intégrer la RdR au cœur des pratiques et d’instaurer des garde-fous éthiques solides.
L’évaluation des propriétés thérapeutiques des psychédéliques depuis une vingtaine d’années présente un intérêt marqué pour la prise en charge de plusieurs pathologies (par exemple, une amélioration rapide des symptômes voire une guérison complète dans certains tableaux dépressifs ou anxieux). Mais ces données font face à des défis méthodologiques spécifiques : difficultés à évaluer en « double aveugle contre placebo » (les participants devinent la substance qui leur a été administrée), mesure du biais « d’attente » (l’espoir des patients comme de l’équipe soignante de voir ce traitement avoir un effet), rôle crucial de la psychothérapie, questions concernant la durabilité et la sécurité.
À lire aussi : Des hallucinogènes autorisés pour soigner des troubles psychiatriques : que nous dit la science ?
En outre, même en environnement contrôlé, ces substances ne sont pas dépourvues de risques avec, par exemple, des épisodes d’angoisse sévère, la réapparition de souvenirs traumatiques mal pris en charge, etc. Des thérapeutes sont même accusés d’agressions sexuelles, par exemple dans le cadre d’un essai clinique canadien en 2015. Sur le plan éthique, la suggestibilité accrue observée sous psychédéliques impose donc des protections renforcées : un consentement réellement éclairé qui explicite les effets attendus et leurs limites, la prévention des abus (notamment sexuels) et des dérives sectaires ainsi qu’une formation unifiée des praticiens.
Le long processus de réhabilitation de l’usage thérapeutique de ces substances repose sur des essais rigoureux. L’European Medicine Agency a organisé, en 2024, un atelier multiacteurs pour réfléchir à un cadre réglementaire de l’Union européenne vis-à-vis de ces traitements, puis a intégré, en 2025, des attendus spécifiques aux recherches sur psychédéliques concernant le traitement de la dépression, encourageant notamment à plus de rigueur statistique et à une meilleure évaluation des biais.
Aux États-Unis, la Food and Drug Administration (FDA) (l’Agence du médicament dans ce pays, ndlr) a publié en 2023 ses recommandations méthodologiques, insistant sur la nécessité d’essais plus nombreux et d’une évaluation précise de la contribution de la psychothérapie.
Au-delà de ces aspects techniques, il est crucial d’interroger les dimensions politiques des pathologies concernées. Les psychédéliques sont étudiés dans le traitement de la dépression et des addictions, mais ces troubles sont profondément liés aux conditions sociales. Aucune substance ne peut à elle seule résoudre l’anxiété liée à la pauvreté, la solitude, les discriminations ou la crise écologique. Un traitement efficace implique donc une évolution globale qui reconnaisse les déterminants politiques du mal-être.
Des études en neurosciences récentes, largement relayées car passionnantes, suggèrent que les psychédéliques favoriseraient la plasticité cérébrale, c’est-à-dire la capacité d’apprendre de nouvelles choses ou de modifier ses schémas cognitifs. Pour autant, les personnes consommant des psychédéliques deviennent-elles systématiquement des hippies anticapitalistes, écologistes, pacifistes et humanistes ? Loin s’en faut.
Si certaines études observent des changements durables vers davantage d’ouverture ou de connexion, ces effets dépendent du contexte, des attentes et des valeurs préexistantes. Une personne déjà concernée par le bien-être animal pourra renforcer cette sensibilité après une expérience psychédélique et devenir végétarienne ; à l’inverse, des recherches montrent aussi des appropriations d’extrême droite des imaginaires psychédéliques.
Par ailleurs, l’écosystème psychédélique est traversé par des logiques extractivistes, entrepreunariales et néocoloniales. Le risque de captation privative (dépôts de brevets massifs, retraites thérapeutiques réservées aux élites, encadrement extrêmement limité pour réduire le coût de la prise en charge) est réel et bien documenté pour le cas états-unien.
À lire aussi : Quand le capitalisme s’intéresse aux psychédéliques : pour le meilleur et pour le pire
Dans la Silicon Valley, l’usage pour optimiser la performance au travail illustre ces dérives. En outre, des juristes et des anthropologues alertent au sujet de la biopiraterie et de la nécessité de protéger les traditions autochtones liées aux substances comme le cactus peyotl au Mexique ou l’arbuste iboga au Gabon, tous deux fortement menacés par la surexploitation, problèmes auxquelles s’ajoutent les questions plus globales d’expropriation permanente des terres indigènes, la déforestation et le changement climatique.
D’autres soulignent que les usages traditionnels peuvent s’inscrire dans des logiques guerrières ou malveillantes. Contrairement aux idées reçues largement partagées dans certains milieux psychédéliques, rien ne permet donc de les ériger en catalyseurs universels de transformations positives.
En raison de leur faible toxicité et de la rareté de cas documentés d’addiction à ces substances, les psychédéliques sont parfois séparés des autres psychotropes. Le neuroscientifique américain Carl Hart critique ainsi la distinction entre de « bonnes drogues » (les psychédéliques) et de « mauvaises drogues » (opioïdes, stimulants), qui nourrit une rhétorique stigmatisante légitimant des politiques répressives discriminatoires qui touchent particulièrement les populations racisées et précarisées.
Réserver un traitement de faveur aux seuls psychédéliques dans les débats sur la réforme des stupéfiants sur la base de ce supposé exceptionnalisme serait en effet très préjudiciable. Rappelons qu’utilisés avec des connaissances adéquates, et malgré un marché illégal sans contrôle qualité, la majorité des usages de stupéfiants sont considérés comme « non problématiques », c’est-à-dire sans dommages majeurs pour la santé, les relations sociales ou le travail. Selon le « Tableau général de la demande et de l’offre de drogues. Office des Nations unies contre la drogue et le crime » (ONU, 2017, ONUDC), « à l’échelle mondiale, plus de 11 % des personnes qui consomment des drogues, soit environ 29,5 millions de personnes (entre 15,3 et 43,1 millions), souffriraient de troubles liés à cet usage ».
Il faut de surcroît rappeler que la prise récréative ou expérientielle de psychédéliques comporte des risques : exacerbations psychiatriques chez des sujets vulnérables, reviviscence de traumas, expérience très intense dénuée de sens, dépersonnalisation, mais également interactions dangereuses avec d’autres médicaments ; d’où l’importance des techniques de set and setting qui visent à sécuriser l’expérience (set signifiant « prendre en compte le bien-être psychique de la personne » et setting correspondant au cadre de l’expérience).
Il s’agit de faire connaître ces risques aux usagers afin que ces derniers puissent consommer de manière plus sûre, selon les principes de la réduction des risques. Présenter ces substances comme différentes des autres psychotropes ne peut avoir qu’un effet délétère en minimisant la perception de ces risques.
La généralisation de l’usage de psychédéliques en thérapie ne pourra se faire qu’au prix d’une lente et rigoureuse évaluation de leurs bénéfices, mettant au cœur de la pratique le bien-être et l’accompagnement au long cours des patients. Ce modèle suppose des prises de décisions politiques pour financer et rembourser un tel dispositif, mouvement à l’opposé de ce que nous observons actuellement dans le champ de la santé.
Les psychédéliques ne sont pas des produits d’exception. Ils doivent être intégrés à une réflexion plus large et nuancée sur l’évolution de nos représentations de l’ensemble des psychotropes, de leurs usages médicaux à ceux ayant une visée exploratoire ou de plaisir, informée par la science plutôt que par des paniques morales, des enjeux politiques ou des phénomènes de mode.
Zoë Dubus est membre fondatrice de la Société psychédélique française
03.02.2026 à 15:30
Matthieu Llorca, Maitre de conférences-HDR en économie, spécialsé en politiques économiques, banque-finance et économie du sport, Université Bourgogne Europe

Les Jeux olympiques d’hiver à Milan-Cortina en 2026 puis dans les Alpes françaises en 2030 font resurgir la problématique des « éléphants blancs ». Ces mégaprojets, souvent des équipements sportifs et des infrastructures de mobilité, amènent plus de coûts que de bénéfices à l’État et aux collectivités. Alors, concrètement, comment le Comité international olympique et les pays hôtes y répondent-ils ?
Les équipements sportifs mobilisés lors des Jeux olympiques (JO) d’hiver font l’objet de multiples débats, concernant leurs coûts économiques, leurs impacts environnementaux et leurs usages post-JO. Pour répondre à ces critiques, le Comité international olympique (CIO) prône l’usage de sites temporaires ou existants (héritages de Jeux passés) à la construction de nouvelles installations temporaires.
Au cours des Jeux d’hiver du XXIe siècle et ceux à venir de 2026 et de 2030, les controverses sur les sites sportifs – surcoûts, retards, etc. – portent sur le saut à ski, les pistes de bobsleigh, le patinage de vitesse et artistique. Ces quatre sports ont toujours été présents aux Jeux d’hiver, depuis la première édition à Chamonix 1924.
Les Jeux olympiques d’hiver de Milan-Cortina 2026 coûteront 4 milliards d’euros à la charge de la Simico, l’agence publique chargée des infrastructures, pour la construction et rénovation des sites sportifs et infrastructures de transport, et autour de 1,7 milliard d’euros pour le Comité d’organisation des Jeux olympiques (COJO), soit un total provisoire de 5,7 milliards d’euros.
Ces mégaprojets appelés « éléphants blancs » font craindre des coûts exorbitants pour les pays hôtes et les collectivités locales, sans bénéfices à long-terme. Selon la professeur d’architecture et d’urbanisme Juliet Davis, « ils représentent des infrastructures sportives coûteuses, construites pour les Jeux, qui deviennent obsolètes, sous-utilisées, voire laissées à l’abandon, faute d’utilité ou de planification adéquate, et qui sont un fardeau financier pour les villes hôtes des Jeux ».
Décryptage avec les Jeux olympiques d’hiver de Milan-Cortina 2026 et des Alpes françaises 2030.
De 2002 à 2018, seuls quatre sites abandonnés sont recensés : à Turin 2006, le site de saut à ski de Pragelato et la piste de bobsleigh/luge de Cesanatorinese, à Pyeongchang en 2018, le centre de ski alpin de Jeongseon et l’ovale de patinage de vitesse de Gangneung. Sur un total de 67 sites permanents, seul 6 % sont désertés entre 2002 et 2018 contre 11,4 % pour l’ensemble des Jeux d’hiver organisés entre 1924 et 2018.
En d’autres termes, la part des « éléphants blancs » parmi les infrastructures sportives des Jeux d’hiver a diminué d’environ quatre points de pourcentage au cours des Jeux du XXIe siècle. De telles controverses persistent à l’occasion des JO de Milan-Cortina 2026, qui se basent sur 85 % d’infrastructures existantes, soit 11 sites sur 13, et des prochains qui se dérouleront dans les Alpes françaises 2030.
Un premier débat porte sur la sélection des sites retenus dans le dossier de candidature et proposés par le Comité d’Organisation des Jeux Olympiques (COJO). Ces derniers peuvent faire l’objet d’arbitrage et de modification par rapport au projet initial.
Dans le cas des Jeux olympiques d’hiver de Milan-Cortina 2026, la construction d’une nouvelle piste de bobsleigh à Cortina a suscité des débats. Le coût est estimé à 120 millions d’euros, soit une hausse de 50 % par rapport au budget initial de 61 millions d’euros. L’Italie dispose pourtant d’une piste homologuée à Cesana, certes inutilisée depuis 2011, mais qui peut être rénovée à moindre coût, pour environ 30 millions d’euros minimum.
Le choix de construire une nouvelle piste de bobsleigh est purement politique, au détriment de la contrainte environnementale et budgétaire. Si le Comité international olympique (CIO) envisageait une délocalisation, le comité Milan-Cortina 2026 a refusé ce choix avec l’objectif de garder l’intégralité des sites sportifs sur le sol italien ; une décision soutenue par le gouvernement de Giorgia Meloni.
Outre la piste de bobsleigh, le choix du site du patinage de vitesse a fait l’objet de modifications par rapport au site prévu dans le dossier de candidature. Baslega di Pine a été écarté en raison de son coût, mais sera construit pour les Jeux olympiques d’hiver de la Jeunesse 2028 de Dolomiti Valtellina. Le site temporaire au parc des Expositions de la Fiera Milano a été retenu pour les JO de Milan-Cortina, pour un coût de 20 millions d’euros.
Le site de patinage de vitesse de Lingotto fut à un moment évoqué, avant d’être rejeté par le COJO et la ville de Milan, pour des motifs politiques et de rivalité régionale entre les provinces du Piémont et de Lombardie.
De nombreux équipements sportifs font l’objet de retard, comme le site de Livigno, hôte des épreuves de snowboard, dont le système de neige artificielle n’était pas encore terminé, en raison d’autorisations administratives en retard concernant le remplissage du réservoir.
À lire aussi : Pourquoi la construction des villages JO de Paris 2024 fut une réussite
Il en est de même pour les JO d’hiver dans les Alpes françaises en 2030, dont la sélection définitive des sites sportifs n’est toujours pas annoncée. Isola 2000, initialement prévu dans le dossier de candidature pour accueillir les épreuves de skicross et de snowboardcross, se voit retirer l’organisation de ces deux épreuves au profit de Montgenèvre. De même, Méribel, qui avait accueilli avec Courchevel l’organisation des championnats du monde de ski alpin 2023, était prévu pour organiser, sur ce même modèle, les épreuves de ski alpin féminin. Val-d’Isère est réintroduite en juillet 2025 dans la carte des sites olympiques des Jeux 2030 pour organiser les épreuves féminines de ski alpin, au détriment de Méribel qui s’est désisté.
Contrairement aux JO de Milan-Cortina 2026 qui aurait pu privilégier pour la piste de bobsleigh les sites à l’étranger d’Innsbruck-Igls, les Jeux des Alpes françaises seront les premiers à délocaliser un site sportif, celui de patinage de vitesse, dans un pays voisin. La sélection finale n’est toujours pas annoncée, mais le choix des organisateurs portera entre le site d’Heerenveen aux Pays-Bas ou celui de Turin, hôte des Jeux d’hiver 2006.
De telles modifications entre les sites sportifs initialement sélectionnés dans le projet de candidature et ceux finalement retenus ne font que contribuer à une augmentation des coûts des Jeux et à remettre en cause leur sobriété, annoncée par les organisateurs. Par exemple, le comité des Alpes françaises 2030, qui annoncent les Jeux les moins chers de l’histoire et les plus sobres.
De l’autre côté du prisme, la question de l’utilisation des sites après les Jeux olympiques vient d’être analysée. 86 % de tous les sites permanents utilisés pour les Jeux olympiques depuis Athènes en 1896, et 94 % des sites datant du XXIe siècle, seraient encore utilisés aujourd’hui.
Matthieu Llorca est membre du think tank Spirales Institut
03.02.2026 à 15:29
Frédéric Bernard, Maître de conférences en neuropsychologie, Université de Strasbourg
Les outils d’intelligence artificielle semblent dialoguer avec les internautes qui les interrogent. Mais il n’y a aucune réciprocité dans ce type d’échanges, les réponses de ChatGPT résultent d’une production de langage automatisée. Quelles conséquences cette illusion a-t-elle sur notre rapport au savoir ? Mobiliser le concept de « résonance », développé par le philosophe Hartmut Rosa permet de mieux évaluer ces transformations.
L’usage des intelligences artificielles (IA) génératives, et en particulier de ChatGPT, s’est rapidement imposé dans le champ éducatif. Élèves comme enseignants y ont recours pour chercher des informations, reformuler des contenus ou accompagner des apprentissages. Mais, au-delà de la question de l’efficacité, une interrogation plus fondamentale se pose : quel type de relation au savoir ces outils favorisent-ils ?
Pour éclairer cette question, il est utile de mobiliser le concept de « résonance », développé par le sociologue et philosophe allemand Hartmut Rosa. La résonance désigne une relation au monde dans laquelle le sujet est à la fois affecté, engagé et transformé, sans que cette relation soit entièrement maîtrisable. Rosa voit dans cette forme de rapport au monde une manière de résister à l’aliénation produite par l’accélération contemporaine.
Dans son ouvrage Pédagogie de la résonance, il applique ce cadre au domaine éducatif et précise les conditions dans lesquelles une relation résonante au savoir peut émerger. C’est à l’aune de ces critères que nous proposons d’interroger l’usage de ChatGPT en contexte éducatif.
À lire aussi : L’IA dans l’enseignement supérieur : les leçons de Platon et du mythe de Theuth
Chez Hartmut Rosa, la résonance ne se réduit ni au plaisir d’apprendre, ni à l’engagement ponctuel, ni à la simple interaction. Elle désigne une relation au monde dans laquelle le sujet est d’abord affecté – quelque chose le touche, le surprend ou le déstabilise. Cette affectation appelle ensuite une réponse active : le sujet s’engage, répond, tente de faire quelque chose de ce qui lui arrive.
Mais la résonance ne se limite pas à cette dynamique interactive. Elle implique une transformation durable du sujet, parfois aussi de son rapport au monde, et repose sur une condition essentielle : elle ne peut être ni produite à volonté ni entièrement maîtrisée. Pour Rosa, une relation totalement disponible et contrôlable est, par définition, une relation muette.
Ces critères permettent désormais d’interroger ce que l’usage de ChatGPT fait – ou ne fait pas – au rapport au savoir en contexte éducatif.
ChatGPT se caractérise par une disponibilité quasi permanente : il répond sans délai, s’adapte aux demandes de l’utilisateur et semble toujours prêt à accompagner l’apprentissage. Cette facilité d’accès peut apparaître comme un atout pédagogique évident.
Pourtant, à la lumière de la notion de résonance développée par Hartmut Rosa, elle soulève une difficulté majeure. Une relation résonante au savoir suppose une part d’indisponibilité, une part de résistance et d’imprévisibilité sans lesquelles le rapport au monde risque de devenir purement instrumental.
Cette disponibilité permanente s’accompagne d’une interaction qui peut donner le sentiment d’une relation engageante. ChatGPT répond, reformule, encourage, s’ajuste au niveau de l’utilisateur et semble parfois « comprendre » ce qui lui est demandé. Le sujet peut ainsi se sentir affecté, soutenu, voire stimulé dans son rapport au savoir. Pourtant, cette affectation repose sur une asymétrie fondamentale : si le sujet peut être touché et répondre activement, l’agent conversationnel ne l’est jamais en retour.
La réponse de ChatGPT ne procède pas d’une expérience, d’un engagement ou d’une exposition au monde, mais d’une production de langage optimisée. L’échange peut alors prendre la forme d’un dialogue en apparence vivant, sans que s’instaure pour autant la réciprocité qui caractérise une relation véritablement résonante.
La question de la transformation permet de préciser encore cette asymétrie. L’usage de ChatGPT peut incontestablement modifier le rapport du sujet au savoir : il peut faciliter la compréhension, accélérer l’accès à l’information, soutenir l’élaboration d’idées ou influencer des pratiques d’apprentissage. À ce titre, le sujet peut effectivement en ressortir transformé.
Mais cette transformation n’est jamais réciproque. Rien, dans l’échange, ne peut véritablement arriver à l’agent conversationnel : il ne conserve pas de trace existentielle de la relation, n’en est ni affecté ni engagé, et ne voit pas son rapport au monde durablement modifié. La transformation, lorsqu’elle a lieu, concerne donc exclusivement le sujet humain, ce qui marque une différence décisive avec les relations résonantes décrites par Rosa, où les deux pôles de la relation sont susceptibles d’être transformés.
On pourrait toutefois objecter que ChatGPT n’est pas toujours pleinement disponible ni fiable. Il lui arrive de produire des erreurs, d’inventer des références ou de fournir des informations inexactes – ce que l’on désigne souvent comme des « hallucinations ». Ces moments d’échec peuvent interrompre l’échange et surprendre l’utilisateur.
À lire aussi : Quand l’IA fait n’importe quoi, le cas du gratte-ciel et du trombone à coulisse
Mais cette forme d’indisponibilité n’est pas celle que décrit Rosa. Elle ne procède pas d’une résistance signifiante du monde, ni d’une altérité qui interpelle le sujet, mais d’un dysfonctionnement du dispositif. Loin d’ouvrir un espace de résonance, ces ruptures tendent plutôt à fragiliser la confiance et à rompre la relation, en rappelant que l’échange repose sur une production de langage fondée sur des modèles probabilistes intégrant des régularités, des associations et des inférences apprises, plutôt que sur une rencontre.
On pourrait également faire valoir que certains agents conversationnels peuvent être configurés pour adopter des réponses plus rugueuses, plus critiques ou moins accommodantes, introduisant ainsi une forme de résistance dans l’échange. Cette rugosité peut déstabiliser l’utilisateur, ralentir l’interaction ou rompre avec l’illusion d’une aide toujours fluide.
Toutefois, cette résistance reste fondamentalement paramétrable, réversible et sous contrôle. Elle ne procède pas d’une altérité exposée à la relation, mais d’un choix de configuration du dispositif. L’indisponibilité ainsi produite est scénarisée : elle peut être activée, modulée ou désactivée à la demande. À ce titre, elle ne satisfait pas à la condition d’indisponibilité constitutive qui, chez Rosa, rend possible une véritable relation de résonance.
La comparaison avec le livre permet de mieux saisir ce qui distingue une indisponibilité scénarisée d’une indisponibilité constitutive. Contrairement à ChatGPT, le livre ne répond pas, ne s’adapte pas et ne reformule pas à la demande. Il impose son rythme, sa forme, ses zones d’opacité, et résiste aux attentes immédiates du lecteur. Pourtant, cette absence de dialogue n’empêche nullement la résonance ; elle en constitue souvent la condition.
Le texte peut affecter, déstabiliser, transformer durablement le sujet précisément parce qu’il demeure indisponible, irréductible à une simple fonctionnalité. À la différence d’un agent conversationnel, le livre expose le lecteur à une altérité qui ne se laisse ni paramétrer ni maîtriser, et c’est cette résistance même qui rend possible un rapport résonant au savoir.
Cela ne signifie pas que l’usage de ChatGPT soit incompatible avec toute forme de résonance. À condition de ne pas l’ériger en point d’entrée privilégié dans le rapport au savoir, l’outil peut parfois jouer un rôle de médiation secondaire : reformuler après une première confrontation, expliciter des tensions, ou aider à mettre en mots une difficulté éprouvée. Utilisé de cette manière, ChatGPT n’abolit pas l’indisponibilité constitutive de la rencontre avec un contenu, mais intervient après coup, dans un temps de reprise et de clarification. Il s’agirait alors moins de produire la résonance que de préserver les conditions dans lesquelles elle peut, éventuellement, advenir.
L’analyse conduite à partir de la notion de résonance invite à ne pas confondre assistance cognitive et relation résonante au savoir. ChatGPT peut indéniablement soutenir certains apprentissages, faciliter l’accès à l’information ou accompagner l’élaboration d’idées. Mais ces apports reposent sur une logique de disponibilité, d’adaptation et de contrôle qui ne satisfait pas aux conditions de la résonance telles que les décrit Hartmut Rosa.
Le risque, en contexte éducatif, serait alors de substituer à un rapport au savoir fondé sur la confrontation, la résistance et la transformation, une relation essentiellement instrumentale, aussi efficace soit-elle. La question n’est donc pas de savoir s’il faut ou non recourir à ces outils, mais comment les inscrire dans des pratiques pédagogiques qui préservent – voire réactivent – les conditions d’un rapport véritablement résonant au savoir.
Frédéric Bernard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.02.2026 à 15:29
Renaud Coulomb, Professor of Economics, Mines Paris - PSL
Fanny Henriet, Directrice de Recherche au CNRS en économie, Aix-Marseille Université (AMU)
France d'Agrain, Doctorante en économie, Mines Paris - PSL
Relancer l’exploitation pétrolière vénézuélienne, l’une des plus émettrices de gaz à effet de serre au monde, revient à parier sur l’échec de la transition énergétique. À l’heure où la majorité des réserves fossiles devrait rester inexploitée, ces investissements exposeraient l’économie mondiale à un double risque : trajectoire de réchauffement dramatique d’un côté, gaspillage massif de capital de l’autre.
Le 3 janvier 2026, une opération militaire états-unienne a abouti à la capture et à l’enlèvement du président vénézuélien Nicolas Maduro et de son épouse. Donald Trump a aussitôt annoncé que les États-Unis dirigeraient temporairement le pays et affirmé vouloir relancer la production pétrolière du pays, avec plus de 100 milliards de dollars (84,78 milliards d’euros) d’investissements des compagnies pétrolières américaines.
Le Venezuela dispose en effet de réserves pétrolières gigantesques estimées à environ 300 milliards de barils. Le pays n’exploite actuellement que peu ce potentiel, du fait notamment des contraintes de stockage et plus généralement de la faiblesse des investissements.
Or ce pétrole est particulièrement émetteur de gaz à effet de serre (GES). Cela tient à la nature lourde et visqueuse du brut, qui rend l’extraction énergivore, et des émissions de dioxyde de carbone provenant du torchage et des fuites de méthane. Extraire un baril de pétrole au Venezuela émet, en moyenne, environ deux fois plus de GES que l’extraction d’un baril en Arabie saoudite ou en Norvège. Réhabiliter des gisements aussi polluants relève du non-sens écologique.
Ces investissements projetés s’inscrivent toutefois dans une logique mondiale persistante. Alors que le changement climatique s’aggrave et que deux tiers des émissions mondiales de GES proviennent des énergies fossiles, l’industrie pétrolière continue d’élargir son offre mondiale. Chaque année, des dizaines de milliards de dollars sont engloutis pour découvrir de nouveaux gisements et augmenter les réserves d’énergie fossile disponibles.
Cette actualité, au-delà de sa portée géopolitique, illustre clairement le risque climatique que représente la poursuite de l’expansion pétrolière dans le monde. Ce serait non seulement une aberration écologique, mais aussi économique.
À lire aussi : Empreinte carbone : tous les barils de pétrole ne se valent pas et cela a son importance pour la transition énergétique
Miser aujourd’hui sur l’expansion des réserves de pétrole, au Venezuela comme ailleurs, revient à parier financièrement sur l’échec de la transition.
La rentabilité de ces actifs est en effet structurellement incompatible avec le respect des accords climatiques : pour que ces projets soient rentables, il faut que les politiques de décarbonation échouent. Dès lors, ces investissements renforcent l’intérêt économique de leurs promoteurs à défendre le statu quo, y compris en pesant contre un durcissement des politiques climatiques.
De fait, l’accord a minima de la dernière COP30 sur le climat illustre cette difficulté. Le texte évoquait de vagues « efforts » et « solutions », tout en continuant à éluder l’arithmétique de base : pour rester sous les 2 °C (voire idéalement celle de 1,5 °C) d’augmentation des températures, la production de combustibles fossiles doit chuter rapidement et dès aujourd’hui. Autrement dit, une part importante des réserves prouvées doivent être laissées inexploitées.
La poursuite de ces investissements place l’économie mondiale face à deux risques distincts :
Premier scénario : les politiques climatiques actuelles échouent. Chaque nouveau baril découvert alimente alors la surabondance de l’offre, fait baisser les prix et retarde la transition vers une économie bas carbone. Cela verrouille la planète dans une trajectoire de réchauffement bien trop élevé, c’est le pire des scénarios pour le climat et le bien-être mondial.
Second scénario : les régulations climatiques se durcissent, mais tardivement. Les nouveaux projets pétroliers deviennent alors majoritairement des « actifs échoués », c’est-à-dire des investissements sans valeur, synonymes d’un gaspillage massif de capital. Le changement climatique est finalement contrôlé, mais du capital a été investi au mauvais endroit, alors qu’il aurait pu être directement orienté vers la transition énergétique.
À lire aussi : Les États-Unis ont passé des décennies à faire pression pour mettre la main sur le pétrole vénézuélien
Pour éviter de se retrouver devant un tel dilemme, on pourrait envisager d’interdire dès à présent l’exploration pétrolière et les investissements visant à rendre exploitables les gisements récemment découverts. Dans une étude récente, nous avons justement évalué les effets qu’aurait une telle mesure, en nous basant sur un modèle construit à partir des données de plus de 14 000 gisements pétroliers.
L’enjeu de limiter l’exploration pétrolière a suscité, ces dernières années, une attention politique croissante. La France, par exemple, a interdit toute nouvelle exploration de ressources fossiles en 2017. En 2024, le Royaume-Uni a annoncé la fin de l’octroi de nouvelles licences pétrolières et gazières.
Une telle mesure peut-elle être efficace ? Le résultat de notre étude est sans appel. Tant que les autres politiques climatiques – comme une tarification du carbone au niveau mondial – restent limitées ou inexistantes, une interdiction de l’exploration permettrait d’éviter l’émission d’environ 114 milliards de tonnes équivalent CO₂. Et, par la même occasion, d’épargner à l’économie mondiale des milliers de milliards de dollars de dommages climatiques cumulés.
En effet, chaque tonne de CO₂ émise aujourd’hui engendrera des coûts réels demain : multiplication des événements climatiques extrêmes, montée du niveau des mers, impacts sanitaires, pertes de productivité…
Poursuivre l’exploration revient donc à rendre exploitables des ressources dont le coût social dépasse largement les bénéfices privés qui en découlent. Ce coût social est actuellement un impensé dans l’argumentaire de l’industrie fossile.
L’industrie invoque régulièrement la nécessité de remplacer des champs vieillissants, dont la production décline naturellement chaque année. Certains experts estiment aussi que les nouveaux gisements pourraient être moins émetteurs de GES que les champs de pétrole actuellement en production.
Nos résultats montrent pourtant que, dans une trajectoire compatible avec la neutralité carbone, ni le déclin naturel des gisements ni leur hétérogénéité en matière d’empreinte carbone ne suffisent à justifier l’ouverture de nouveaux champs. Ces conclusions restent inchangées même dans l’hypothèse où les nouveaux gisements n’émettraient aucun GES lors de leur exploitation.
L’exploration ne générerait des bénéfices sociaux nets que dans un monde où les producteurs intégreraient dans leurs calculs économiques presque l’intégralité du coût climatique des émissions. Concrètement, cela supposerait une taxe carbone couvrant toutes les émissions liées à un baril – de l’exploration jusqu’à la combustion – afin de refléter le coût social de la production et de l’utilisation de ce baril. Même dans ce scénario très exigeant, les bénéfices resteraient modestes : ils seraient environ 40 fois inférieurs aux coûts environnementaux de l’exploration lorsque ces émissions ne sont pas prises en compte par les producteurs.
Ce résultat s’explique simplement : dans une trajectoire compatible avec le « Net Zero », la demande de pétrole devient relativement faible. Or, cette demande pourrait être couverte par des volumes déjà disponibles de pétrole moins intensif en carbone, dont les coûts d’exploitation restent modérés.
Les efforts d'exploration actuels ne sauraient donc être justifiés sur cette base :
D’abord parce que ce scénario, où les externalités des émissions de GES seraient prises en compte par les producteurs, reste très hypothétique à court terme, dans la mesure où ces émissions demeurent largement sous-estimées et il n’existe pas de prix du carbone mondial qui serait à la hauteur de son coût social.
Mais aussi parce que les projets de développement pétrolier en cours peuvent mettre en production des ressources à très forte intensité carbone. Au risque de compromettre encore davantage les objectifs mondiaux de réduction des émissions.
Notre étude le montre clairement : interdire l’exploration serait un levier puissant pour limiter l’offre de pétrole, pour réduire les émissions futures et pour éviter de créer de nouveaux actifs voués à devenir inutilisables si la transition vers une économie bas carbone se matérialise.
Pour certains pays producteurs, un tel moratoire pourrait même s’avérer politiquement plus acceptable qu’une taxe. En restreignant l’offre, il soutiendrait les cours du baril et, par extension, les revenus des producteurs actuels, tout en servant les ambitions climatiques.
Ce paradoxe – une mesure climatique qui pourrait profiter à certains producteurs, notamment aux États-Unis ou en Arabie saoudite – pourrait faciliter un accord international.
À lire aussi : Comment échapper à la malédiction de la rente fossile ?
Mais il aurait un coût pour les consommateurs et contreviendrait au principe du pollueur-payeur, en faisant peser l’essentiel du coût de la transition sur les consommateurs finaux.
Reste un écueil de taille : la mise en place de telles politiques serait complexe dans un contexte géopolitique fragmenté, marqué par l’érosion du multilatéralisme et la multiplication des stratégies non coopératives.
À défaut d’un accord mondial immédiat, des interdictions ciblées pourraient avoir un impact majeur. À cet égard, l’élargissement de coalitions existantes, comme l’alliance Beyond Oil and Gas, dont la France est membre, est fondamental. En renforçant ce socle diplomatique d’États pionniers, engagés à ne plus octroyer de licences d’exploration, une initiative volontaire pourrait progressivement se muer en un cadre normatif.
Mais la crédibilité de telles interdictions dépend de leur permanence. Aux États-Unis, le retour de Donald Trump au pouvoir s’est accompagné d’une défense assumée de l’industrie pétrolière et d’un désengagement des institutions internationales clés, telles que la Convention-cadre des Nations unies sur les changements climatiques ou le Groupe d’experts intergouvernemental sur l’évolution du climat (Giec), deux piliers de la coopération climatique mondiale.
Londres aussi a récemment revu sa position. Le cas français illustre lui aussi la possibilité de revirements politiques : le Sénat a, le 29 janvier 2026, voté une proposition de loi remettant en cause la loi de 2017 interdisant l’exploration pétrolière et gazière.
Renaud Coulomb déclare ne pas être en situation de conflit d’intérêts. Il ne fournit pas de services de conseil et ne détient aucune participation financière dans des entreprises du secteur du pétrole et du gaz, ni dans des entreprises susceptibles de bénéficier des analyses ou des conclusions présentées dans cette tribune. Cette recherche a bénéficié du soutien financier de l’Agence nationale de la recherche (ANR), de la Paris School of Economics, de l’Université de Melbourne, de Mines Paris – PSL University et de la Fondation Mines Paris dans le cadre de la Chaire de Mécénat ENG (sponsors : EDF, GRTgaz, TotalEnergies), en partenariat avec l’Université Paris-Dauphine, la Toulouse School of Economics et CentraleSupélec.
Fanny Henriet a reçu des financements de l'ANR
France d'Agrain a reçu des financements des financements de la Fondation Mines Paris dans le cadre de la Chaire de Mécénat ENG (sponsors : EDF, GRTgaz, TotalEnergies), en partenariat avec l’Université Paris-Dauphine, la Toulouse School of Economics et CentraleSupélec.
03.02.2026 à 15:28
Frédérique Sandretto, Adjunct assistant professor, Sciences Po
Plusieurs millions de documents viennent d’être rendus accessibles au grand public dans l’affaire du financier Jeffrey Epstein, mort en 2019 en prison – la cause officielle du décès, un suicide par pendaison, suscitant à ce jour de nombreux doutes. Il faudra beaucoup de temps et d’énergie pour analyser en totalité cet immense afflux d’informations. Au-delà des nouvelles révélations, l’épisode pose d’importantes questions sur l’articulation entre, d’une part, le devoir de transparence et, d’autre part, la nécessité de protéger la présomption d’innocence.
La publication, le 30 janvier 2026, des « Epstein Files » par le département de la justice des États-Unis (DOJ) a eu l’effet de l’ouverture d’une véritable boîte de Pandore, libérant dans l’espace public une masse documentaire d’une ampleur inédite et déclenchant une onde de choc allant bien au-delà du champ judiciaire.
Ce qui était présenté comme un geste de clarté et de responsabilité démocratique s’est transformé en un événement politique et médiatique majeur, révélateur des fragilités contemporaines de la transparence institutionnelle.
La divulgation s’inscrit dans le cadre de l’Epstein Files Transparency Act, adopté à la fin de l’année précédente par le Congrès à une quasi-unanimité des élus des deux Chambres et ratifié peu après. Ce texte imposait au DOJ la publication de l’ensemble des dossiers relatifs aux enquêtes menées sur Jeffrey Epstein et son réseau, avec l’objectif explicite de mettre un terme aux soupçons persistants d’opacité et de traitement préférentiel favorisant certaines des personnalités concernées. Pour le DOJ, cette publication marque officiellement la fin d’un processus de divulgation long et juridiquement encadré, présenté comme l’ultime étape d’une obligation désormais satisfaite.
Pourtant, loin de refermer l’affaire, cette ouverture massive des archives semble inaugurer une nouvelle phase de controverse, où la transparence affichée nourrit la défiance plus qu’elle ne la dissipe.
L’ampleur des éléments rendus publics est sans précédent. Entre trois et cinq millions de documents, près de 2 000 vidéos et environ 180 000 photographies, issus de procédures civiles, d’enquêtes fédérales, de saisies numériques et de correspondances accumulées sur plusieurs décennies, ont été mis à la disposition du grand public.
Cette profusion donne l’impression d’une transparence totale, presque absolue, mais elle pose immédiatement un problème de lisibilité. Une grande partie des fichiers est partiellement caviardée pour des raisons juridiques, d’autres sont fragmentaires ou dépourvus de contexte précis. Le public se trouve confronté à un matériau brut, massif et hétérogène, difficile à hiérarchiser et à interpréter sans un travail d’analyse approfondi. La transparence promise se heurte ainsi à une réalité paradoxale : montrer beaucoup ne signifie pas nécessairement expliquer clairement.
Cette difficulté est accentuée par l’apparition de nouveaux noms qui viennent s’ajouter à une liste déjà longue de personnalités associées, de près ou de loin, à l’univers relationnel d’Epstein.
La place manque ici pour analyser la portée de la totalité des révélations relatives à ces personnalités qui n’étaient jusque-là pas évoquées, par exemple la future reine de Norvège Mette-Marit et l’ancien premier ministre travailliste de ce même pays Thorbjorn Jagland, ou encore l’ancien ministre slovaque des affaires étrangères Miroslav Lajcak. Parmi les noms qui ont attiré une attention médiatique immédiate figurent trois cas sur lesquels nous nous attarderons particulièrement : ceux de Sarah Ferguson, Peter Mandelson et Caroline Lang.
Dans le cas de Sarah Ferguson, duchesse d’York et ancienne épouse (1986-1996) du prince Andrew – frère de l’actuel roi Charles et dont la proximité avec Epstein a été largement documentée bien avant les révélations du 30 janvier, au point que son frère lui a retiré le statut de prince en octobre dernier –, les documents font état de relations sociales avec Epstein dans les années 1990 et 2000, notamment des rencontres et des échanges dans des cercles mondains communs.
Certaines accusations relayées par des témoignages évoquent des contacts répétés et des sollicitations financières indirectes, bien que la principale intéressée ait toujours nié toute implication dans des activités illégales et rappelé que ces relations relevaient d’un cadre social sans dimension criminelle établie. La présence de son nom dans les fichiers illustre néanmoins la manière dont des liens sociaux, même anciens ou périphériques, peuvent être réinterprétés à la lumière du scandale.
Peter Mandelson, figure centrale de la vie politique britannique et ancien commissaire européen au commerce (2004-2008), apparaît quant à lui dans des correspondances et des agendas liés à Epstein. Les accusations évoquées dans certains témoignages ne portent pas sur des faits pénaux établis, mais sur des fréquentations répétées et une proximité assumée avec le financier, y compris après la première condamnation de celui-ci en 2008. Mandelson a reconnu publiquement avoir côtoyé Epstein dans un cadre social et professionnel, tout en niant toute connaissance ou participation à des activités criminelles.
La récurrence de son nom dans les fichiers alimente cependant le débat sur la responsabilité morale des élites et sur la persistance de relations avec Epstein malgré les alertes judiciaires déjà connues à l’époque des faits. Après avoir été limogé de son poste d’ambassadeur aux États-Unis en septembre dernier à cause de ses liens avec le criminel américain, Mandelson a annoncé le 1er février qu’il quittait le parti travailliste britannique, dont il était une figure historique.
Le cas de Caroline Lang, fille de Jack Lang et déléguée générale du syndicat de la production indépendante, poste dont elle a démissionné à la suite de la révélation de la présence de son nom dans les dossiers Epstein, est plus opaque et contribue à la confusion générale. Les documents la mentionnent dans des échanges et des listes de contacts liés à l’entourage d’Epstein, sans que son rôle précis soit clairement établi. Certaines accusations évoquent des interactions régulières ou une présence lors d’événements organisés par le financier, mais les fichiers ne permettent pas de déterminer la nature exacte de ces relations ni d’établir une implication pénale.
Cette opacité illustre l’un des problèmes majeurs de la divulgation massive : l’exposition de noms sans cadre interprétatif clair, ce qui laisse place à des spéculations difficilement vérifiables.
La publication de ces informations met en lumière une tension fondamentale entre le droit à l’information et le devoir de prudence. D’un côté, la société civile réclame une transparence totale, considérant que seule la divulgation intégrale des archives peut permettre un examen démocratique des réseaux de pouvoir ayant entouré Epstein. De l’autre, juristes et journalistes rappellent que la diffusion de documents non contextualisés peut porter atteinte à la présomption d’innocence, nuire à des individus cités sans preuve formelle et détourner l’attention des victimes au cœur de l’affaire. La logique de la liste et de l’exposition nominale tend ainsi à remplacer l’analyse rigoureuse des faits.
Cette tension est d’autant plus forte que les fichiers font référence à Donald Trump à plus de 1 500 reprises. Cette omniprésence alimente la défiance à l’égard du président actuel et ravive les critiques sur la lenteur avec laquelle son administration a accepté la divulgation complète des dossiers. Même en l’absence de preuves nouvelles établissant une responsabilité pénale, la répétition de son nom nourrit les soupçons d’un pouvoir réticent à une transparence totale et accentue la polarisation politique autour de l’affaire.
En définitive, la révélation des fichiers Epstein apparaît moins comme un point final que comme une ouverture brutale et incontrôlée, fidèle à la métaphore de la boîte de Pandore. Elle expose les limites d’une transparence réduite à la publication massive de données et met au défi les institutions, les médias et le pouvoir politique.
Pour Donald Trump, cette affaire constitue un test majeur : démontrer que la transparence peut s’accompagner de clarté, de responsabilité et de respect des principes fondamentaux de l’État de droit, sans nourrir durablement la confusion ni la défiance institutionnelle. Au vu de ses premières réactions – il affirme que la publication du 30 janvier l’absout totalement, tout en s’en prenant avec virulence aux « démocrates pourris » qui, selon lui, étaient « presque tous », de même que leurs donateurs, des visiteurs réguliers de la tristement célèbre île d’Epstein –, le locataire de la Maison-Blanche semble au contraire vouloir utiliser cet épisode pour alimenter le climat extrêmement polémique qui règne aujourd’hui dans la vie politique américaine…
Frédérique Sandretto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.02.2026 à 15:27
Magalie Sabot, Psychocriminologue à l'Office central pour la répression des violences aux personnes, Université Paris Cité
En 2022, on dénombrait 173 crimes non élucidés (cold cases) en France. Comment travaille la police lorsque la mémoire des témoins s’efface avec le temps ? Magalie Sabot, psychocriminologue à l’Office central pour la répression des violences aux personnes, nous dévoile ses méthodes dans le cadre de l’enquête sur le meurtre d’Ariane Guillot qui s’est déroulé à Nice, en 2001.
À Nice, le parc de la colline du Château est ensoleillé le jour où les enquêteurs de la Direction nationale de la police judiciaire (DNPJ) se rendent sur les lieux du meurtre d’Ariane Guillot, âgée seulement de 25 ans.
Mais sur la scène de crime, en mars 2024, ni rubalise ni gyrophare. Pas de sang, aucune trace, aucun corps. Les enfants jouent à proximité, les promeneurs flânent, indifférents. Un jour comme un autre : les rires ont remplacé les cris depuis bien longtemps.
Personne ne semble se souvenir de la journée qui intéresse les policiers de l’Office central pour la répression des violences aux personnes (OCRVP) et le procureur du pôle cold cases (PCSNE) : celle du mercredi 18 avril 2001, à 17 h 15 précisément.
Aujourd’hui, il ne reste en effet plus rien du meurtre d’Ariane. Alors, l’album photographique de l’époque en main, les enquêteurs tentent de remonter le temps : le positionnement du corps, la localisation des traces de sang, le chemin de fuite de l’auteur.
Le dossier d’enquête précieusement conservé indique qu’Ariane a été tuée d’un seul coup de couteau, en pleine journée, alors qu’elle se promenait avec son neveu de trois ans. Aucun témoin visuel, mais deux personnes pensent avoir entendu, de loin, une femme pouvant être la victime crier ces mots terribles : « J’en ai pas, j’en ai pas… » Le petit garçon est retrouvé en état de choc à côté du corps. Il apporte la piste principale à l’enquête : « Le chasseur, il a tué Ariane ! »
En 2022, on dénombrait en France 173 crimes non élucidés pour lesquels la justice était saisie.
Pour qu’ils ne tombent pas dans l’oubli, la loi du 22 décembre 2021 a permis la création du pôle des crimes sériels ou non élucidés du tribunal judiciaire de Nanterre (PCSNE).
Des études identifient les critères favorisant la résolution des affaires criminelles : les témoignages y occupent une place centrale, ils apporteraient les pistes les plus contributives aux enquêteurs (Berresheim et Weber, 2003/ Kebbel et Milne, 1998/ Mc Ewen, 2009). Mais le cold case est une affaire criminelle qui lutte contre l’oubli et le temps, la qualité des souvenirs constitue donc un enjeu majeur.
Alors, s’appuyant sur les outils numériques, le ministère de l’intérieur et le ministère de la justice créent un nouveau programme d’appel à témoins nommé « En quête d’indices » : « Toute information, tout souvenir, même incertain peut nous aider : votre témoignage est la clé ! » Mais la mémoire est-elle fiable et à quel point faut-il lui faire confiance ?
Pour répondre à ces questions, la police accueille dans ses rangs trois psychocriminologues, un petit « groupe d’appui » venant apporter une analyse psychologique, un éclairage scientifique, à ces dossiers restés irrésolus.
La mémoire est en effet un phénomène complexe qu’il convient de mieux comprendre pour l’optimiser. Des études en neuropsychologie (W. Hirst, 2009, 2015) se sont intéressées à la fiabilité des témoignages après un événement à caractère traumatique. Les chercheurs observent que, même si les personnes affirmaient que leurs souvenirs étaient très vifs et qu’ils avaient particulièrement confiance en leur mémoire, le nombre de détails erronés augmentait au fil des années. La mémoire est donc « vivante » : elle transforme l’information et nous perdons naturellement des souvenirs, oublions des détails et modifions certains aspects des événements.
À lire aussi : Comment le 11 Septembre s’est imprimé dans nos mémoires
Ces connaissances scientifiques ont des implications concrètes pour les affaires criminelles, elles nous apprennent que la mémoire non consolidée est fragile, sujette aux interférences émotionnelles ou pharmacologiques. Elle aurait même besoin de temps pour se stabiliser. Les neurosciences indiquent qu’il faudrait idéalement deux cycles de sommeil pour encoder une information avec précision. Ainsi, certains services de police aux États-Unis et au Canada conseillent de réaliser un bref interrogatoire initial, puis d’attendre pour mener une audition plus approfondie : le temps de sommeil contribuant à consolider le souvenir, le témoin sera plus fiable et modifiera moins sa version des faits.
Dans notre affaire, le seul témoin est un enfant retrouvé en état de choc, ce qui vient complexifier le rapport à la mémoire. En effet, en cas de stress intense (agression, viol, etc.), le système mnésique va être perturbé par la production de différentes hormones (glucocorticoïdes, adrénaline, cortisol, etc.). La zone cérébrale nommée « amygdale » va être surstimulée, tandis que l’hippocampe sera inhibé. Le souvenir est fragmenté, souvent sensoriel (odeurs, sons, etc.) et l’étude de D. M. Eliott (1997) a mis en avant que 32 % des personnes ayant vécu un événement traumatique présentaient une amnésie partielle.
Les neurosciences aident à comprendre la spécificité de la mémoire des victimes et du risque d’erreur dans leur témoignage : généralement au début de l’agression, au moment où la première vague d’hormones est déclenchée, le souvenir serait plutôt bien enregistré. C’est ensuite que le cerveau « sature » sous l’effet du stress. Les éléments les plus marquants ou liés à la survie (sortie du couteau, attaque, etc.) pourraient être mieux mémorisés. L’audition policière sera ainsi plus fiable si elle met d’abord l’accent sur les souvenirs sensoriels (odeurs, bruits, images, etc.) et émotionnels, mieux encodés, plutôt que sur la chronologie des faits souvent défaillante.
Alors, pour améliorer la qualité des souvenirs remémorés, les services spécialisés de police ont recours à un type d’audition nommé « audition cognitive », développé dans les années quatre-vingt par l’équipe de Fisher et Geiselman aux États-Unis. Des méta-analyses envisagent qu’elle augmente de 34 % les informations rapportées, tout en favorisant leur exactitude (Koehnken et al., 1999. Cette méthode (M. St Yves, 2007) repose sur l’idée que la mémoire sera meilleure si l’on recrée mentalement les conditions d’encodage du souvenir (contexte de l’événement) et que l’on respecte le rythme de la victime en réduisant les questions fermées des enquêteurs (récit libre). L’audition cognitive maximisera encore la récupération en jouant sur la concentration (faire raconter le récit à l’envers) ou en changeant la perspective (décrire la scène depuis un autre point de vue dans l’espace).
Les enquêteurs qui reprennent ces affaires disposent ainsi d’outils solides, validés par la recherche, améliorant les compétences cognitives et apportant aussi un cadre structuré, sécurisant, aux témoins particulièrement impactés par l’événement.
« Le chasseur, il a tué Ariane », la dernière question qui se pose ici est celle de la fiabilité du témoignage d’un enfant de 3 ans.
En 2001, l’équipe de Peterson et Whalen démontrait qu’après un événement stressant (examen médical), 94 % des détails racontés par l’enfant étaient exacts. Cependant, ses capacités mnésiques dépendent de nombreux facteurs comme son degré d’attention lors de l’événement, ses capacités langagières pour évoquer les détails, ses connaissances antérieures et ses sources d’intérêt qui vont participer à donner du sens à l’expérience. Au contraire, en cas d’agressions répétées, les informations ont tendance à se confondre et se regrouper sous une mémoire dite de « scénario ». Mais le premier fait (effet de primauté) et le dernier (effet de récence) sont habituellement mieux mémorisés. Les événements les plus solidement enregistrés dans la mémoire des enfants (dès 3 ans) sont donc les faits uniques, distincts et revêtant une signification pour eux.
Ainsi, une audition spécifique permet aux enquêteurs d’accueillir leur parole : le protocole du National Institute of Child Health and Human Development (NICHD), un standard international reposant sur des décennies de recherche en psychologie et témoignage de l’enfant (M. Cyr, 2019). Ce protocole standardisé permettrait d’augmenter jusqu’à 50 % l’exactitude des informations transmises. Cette méthode se fonde sur le récit libre, des questions ouvertes en excluant toute formulation directive, suggestive. Elle inclut aussi une mise en confiance de l’enfant dans un lieu sécurisant (comme les salles Mélanie aménagées dans certains commissariats) et un entraînement au récit à partir d’un événement neutre et récent.
« Le chasseur » a sans doute tué Ariane. Ce souvenir, recueilli quelques jours après les faits, peut être considéré comme fiable d’un point de vue scientifique. Mais que signifiait le mot « chasseur » pour le petit garçon ? À quels jeux, quelles représentations, quel dessin animé, faisait-il référence ? De cette parole enfantine, l’homme qu’il est devenu, entendu par la police vingt-quatre ans plus tard, en a-t-il gardé le moindre souvenir ? C’est ce que doit déterminer l’enquête, toujours en cours…
Créé en 2023, le Centre de recherche de la police nationale pilote la recherche appliquée au sein de la police nationale. Il coordonne l’activité des opérateurs scientifiques pour développer des connaissances, des outils et des méthodes au service de l’action opérationnelle et stratégique.
Magalie Sabot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.02.2026 à 15:27
Willem Standaert, Associate Professor, Université de Liège
As the International Olympic Committee (IOC) embraces AI-assisted judging, this technology promises greater consistency and improved transparency. Yet research suggests that trust, legitimacy, and cultural values may matter just as much as technical accuracy.
In 2024, the IOC unveiled its Olympic AI Agenda, positioning artificial intelligence as a central pillar of future Olympic Games. This vision was reinforced at the very first Olympic AI Forum, held in November 2025, where athletes, federations, technology partners, and policymakers discussed how AI could support judging, athlete preparation, and the fan experience.
At the 2026 Winter Olympics in Milano-Cortina, the IOC is considering using AI to support judging in figure skating (men’s and women’s singles and pairs), helping judges precisely identify the number of rotations completed during a jump. Its use will also extend to disciplines such as big air, halfpipe, and ski jumping (ski and snowboard events where athletes link jumps and aerial tricks), where automated systems could measure jump height and take-off angles. As these systems move from experimentation to operational use, it becomes essential to examine what could go right… or wrong.
In Olympic sports such as gymnastics and figure skating, which rely on panels of human judges, AI is increasingly presented by international federations and sports governing bodies as a solution to problems of bias, inconsistency, and lack of transparency. Judging officials must assess complex movements performed in a fraction of a second, often from limited viewing angles, for several hours in a row. Post-competition reviews show that unintentional errors and discrepancies between judges are not exceptions.
This became tangible again in 2024, when a judging error involving US gymnast Jordan Chiles at the Paris Olympics sparked major controversy. In the floor final, Chiles initially received a score that placed her fourth. Her coach then filed an inquiry, arguing that a technical element had not been properly credited in the difficulty score. After review, her score was increased by 0.1 points, temporarily placing her in the bronze medal position. However, the Romanian delegation contested the decision, arguing that the US inquiry had been submitted too late – exceeding the one-minute window by four seconds. The episode highlighted the complexity of the rules, how difficult it can be for the public to follow the logic of judging decisions, and the fragility of trust in panels of human judges.
Moreover, fraud has also been observed: many still remember the figure skating judging scandal at the 2002 Salt Lake City Winter Olympics. After the pairs event, allegations emerged that a judge had favoured one duo in exchange for promised support in another competition – revealing vote-trading practices within the judging panel. It is precisely in response to such incidents that AI systems have been developed, notably by Fujitsu in collaboration with the International Gymnastics Federation.
Our research on AI-assisted judging in artistic gymnastics shows that the issue is not simply whether algorithms are more accurate than humans. Judging errors often stem from the limits of human perception, as well as the speed and complexity of elite performances – making AI appealing. However, our study involving judges, gymnasts, coaches, federations, technology providers, and fans highlights a series of tensions.
AI can be too exact, evaluating routines with a level of precision that exceeds what human bodies can realistically execute. For example, where a human judge visually assesses whether a position is properly held, an AI system can detect that a leg or arm angle deviates by just a few degrees from the ideal position, penalising an athlete for an imperfection invisible to the naked eye.
While AI is often presented as objective, new biases can emerge through the design and implementation of these systems. For instance, an algorithm trained mainly on male performances or dominant styles may unintentionally penalise certain body types.
In addition, AI struggles to account for artistic expression and emotions – elements considered central in sports such as gymnastics and figure skating. Finally, while AI promises greater consistency, maintaining it requires ongoing human oversight to adapt rules and systems as disciplines evolve.
Our research shows that these concerns are even more pronounced in action sports such as snowboarding and freestyle skiing. Many of these disciplines were added to the Olympic programme to modernise the Games and attract a younger audience. Yet researchers warn that Olympic inclusion can accelerate commercialisation and standardisation, at the expense of creativity and the identity of these sports.
A defining moment dates back to 2006, when US snowboarder Lindsey Jacobellis lost Olympic gold after performing an acrobatic move – grabbing her board mid-air during a jump – while leading the snowboard cross final. The gesture, celebrated within her sport’s culture, eventually cost her the gold medal at the Olympics. The episode illustrates the tension between the expressive ethos of action sports and institutionalised evaluation.
AI-assisted judging adds new layers to this tension. Earlier research on halfpipe snowboarding had already shown how judging criteria can subtly reshape performance styles over time. Unlike other judged sports, action sports place particular value on style, flow, and risk-taking – elements that are especially difficult to formalise algorithmically.
Yet AI was already tested at the 2025 X Games, notably during the snowboard SuperPipe competitions – a larger version of the halfpipe, with higher walls that enable bigger and more technical jumps. Video cameras tracked each athlete’s movements, while AI analysed the footage to generate an independent performance score. This system was tested alongside human judging, with judges continuing to award official results and medals. However, the trial did not affect official outcomes, and no public comparison has been released regarding how closely AI scores aligned with those of human judges.
Nonetheless, reactions were sharply divided: some welcomed greater consistency and transparency, while others warned that AI systems would not know what to do when an athlete introduces a new trick – something often highly valued by human judges and the crowd.
The influence of AI extends far beyond judging itself. In training, motion tracking and performance analytics increasingly shape technique development and injury prevention, influencing how athletes prepare for competition. At the same time, AI is transforming the fan experience through enhanced replays, biomechanical overlays, and real-time explanations of performances. These tools promise greater transparency, but they also frame how performances are understood – adding more “storytelling” “ around what can be measured, visualised, and compared.
The Olympic AI Agenda’s ambition is to make sport fairer, more transparent, and more engaging. Yet as AI becomes integrated into judging, training, and the fan experience, it also plays a quiet but powerful role in defining what counts as excellence. If elite judges are gradually replaced or sidelined, the effects could cascade downward – reshaping how lower-tier judges are trained, how athletes develop, and how sports evolve over time. The challenge facing Olympic sports is therefore not only technological; it is institutional and cultural: how can we prevent AI from hollowing out the values that give each sport its meaning?
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Willem Standaert ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.02.2026 à 15:26
Olivier Ilbert, Astronome au Laboratoire d'Astrophysique de Marseille / Aix-Marseille Université, spécialiste de la formation et de l'évolution des galaxies, Aix-Marseille Université (AMU)

Depuis plus d’un siècle, les astronomes n’ont cessé d’étudier les galaxies, découvrant peu à peu la diversité de leurs formes et de leurs propriétés. Grâce aux progrès de nos instruments d’observation, nous avons pu cartographier la position de millions de galaxies dans l’Univers proche. De vastes régions de l’Univers se révèlent très vides, traversées par d’immenses filaments qui relient des régions où les galaxies se regroupent. Sous l’effet de la gravité, les galaxies sont entraînées inexorablement les unes vers les autres pour façonner ces immenses structures, qui grandissent au fil des milliards d’années de temps cosmique qui s’écoule.
L’étude d’une de ces structures, l’amas de Coma, par Fritz Zwicky en 1933 a mis au jour un des aspects les plus mystérieux de notre compréhension de l’Univers : la majeure partie de la masse de Coma ne peut pas être expliquée par la présence de matière ordinaire.
Les études cosmologiques les plus modernes confirment que le gaz et les étoiles ne représentent qu’environ un sixième de la masse totale de l’Univers. Le reste ? Une matière invisible, baptisée matière noire par les physiciens. L’une des plus grandes énigmes de la physique moderne reste entière : de quoi cette matière noire est-elle faite ? Comme interagit-elle avec la matière ordinaire ? Comment sa présence impacte-t-elle la formation et l’évolution des galaxies ?
Dans notre étude publiée dans Nature Astronomy, et dirigée par Diana Scognamiglio du Jet Propulsion Laboratory de la Nasa, nous présentons une carte détaillée de la distribution de la matière noire. Bien que notre étude ne puisse pas répondre directement à la question fondamentale sur la nature de la matière noire, elle apporte un outil puissant pour relier la matière ordinaire et la matière noire, sur un intervalle de temps cosmique couvrant les deux tiers de l’âge de l’Univers.
Notre nouvelle carte montre en particulier que la matière noire et la matière visible évoluent conjointement.
Dans cette étude, nous avons employé l’une des méthodes les plus puissantes pour révéler la présence de matière noire : le lentillage gravitationnel faible. La présence d’une grande structure de matière noire va entraîner une déformation de l’espace-temps. La lumière d’une galaxie qui se trouve en arrière-plan va être légèrement déviée en traversant la structure. La forme de cette galaxie d’arrière-plan va donc se trouver artificiellement étirée quand sa lumière atteindra nos télescopes.
La clé de notre méthode réside dans l’accumulation de données : en observant un grand nombre de galaxies dans une petite région du ciel, nous pouvons détecter une distorsion cohérente de la forme des galaxies d’arrière-plan et en déduire la masse de la structure en avant-plan.
Pour bâtir une carte de ces déformations de l’espace-temps, il est donc essentiel de mesurer la forme d’un grand nombre de galaxies.
Près de 255 heures d’observation sur le télescope spatial James-Webb ont permis de couvrir une zone beaucoup plus vaste que celles observées précédemment (environ la surface de trois pleines lunes), avec des détails sans précédent sur la forme des galaxies.
En analysant en détail 250 000 galaxies lointaines (distance, morphologie, masse), nous avons mesuré la densité de matière noire d’avant-plan et créé ainsi une carte de la matière noire dans cette région du ciel.
En effet, notre carte de lentille gravitationnelle faible retrace la distribution projetée de la matière totale, sombre et lumineuse, à travers les amas de galaxies, les filaments et les régions sous-denses. Les pics proéminents correspondent à des amas massifs.
Notre équipe étudie cette région du ciel, baptisée « COSMOS », depuis plus de vingt ans. En comparant cette nouvelle carte de matière noire avec les données accumulées sur les galaxies et le gaz chaud, nous voyons que la matière noire, le gaz chaud et les galaxies retracent souvent les mêmes structures.
En d’autres termes, cette carte nous montre que la matière noire et la matière visible évoluent conjointement.
De plus, COSMOS est aujourd’hui le champ de référence pour les études sur l’évolution des galaxies. Il fournit désormais un repère haute résolution à partir duquel les futures cartes de l’univers sombre pourront être calibrées et comparées.
La prochaine étape consiste à étendre cette cartographie à des volumes beaucoup plus importants de l’Univers à l’aide de missions telles que Euclid de l’Agence spatiale européenne (ESA) et le télescope spatial Nancy-Grace-Roman de la Nasa qui couvriront jusqu’à un tiers du ciel. Tous ces télescopes utilisent COSMOS comme point d’étalonnage.
Tout savoir en trois minutes sur des résultats récents de recherches commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.
Le projet instruire l’émergence des galaxies massives et leur évolution — iMAGE est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Olivier Ilbert a reçu des financements de l'ANR et du CNES (projet HST-COSMOS).
03.02.2026 à 11:48
Clément Delage, Maitre de Conférences en Pharmacologie (Faculté de Pharmacie de Paris) - Unité Inserm UMR-S 1144 "Optimisation Thérapeutique en Neuropsychopharmacologie" - Pharmacien Hospitalier (Hôpital Lariboisière, AP-HP), Université Paris Cité
Entre banalisation de l’automédication et méconnaissance des risques, les médicaments le plus utilisés – comme le paracétamol – peuvent être à l’origine d’effets indésirables parfois sévères. Comprendre pourquoi et comment le remède peut devenir poison, c’est poser les bases d’un bon usage du médicament.
Chaque année, le mésusage de médicaments est responsable d’environ 2 760 décès et de 210 000 hospitalisations en France, selon une étude du Réseau français de centres de pharmacovigilance. Cela représente 8,5 % des hospitalisations et 1,5 fois plus de décès que les accidents de la route.
Si la part exacte de l’automédication dans ces chiffres reste difficile à établir, ces données rappellent une réalité souvent négligée. Les effets indésirables ne concernent pas seulement les traitements rares ou complexes, mais aussi les médicaments de tous les jours : paracétamol, ibuprofène, antihistaminiques (des médicaments qui bloquent la production d’histamine responsable de symptômes comme le gonflement, les rougeurs, les démangeaisons, les éternuements, etc. dans les situations d’allergies, ndlr), somnifères, sirops contre le rhume, etc.
« Tout est poison, rien n’est poison : seule la dose fait le poison. » – Paracelse (1493–1541)
Cet adage fondateur de la pharmacie, enseigné dès la première année aux futurs pharmaciens, garde aujourd’hui toute sa pertinence. Paracelse avait compris dès le XVIᵉ siècle qu’une substance pouvait être bénéfique ou toxique selon la dose, la durée et le contexte d’exposition. D’ailleurs, le mot pharmacie dérive du mot grec phármakon qui signifie à la fois « remède » et « poison ».
Le paracétamol, antalgique et antipyrétique (médicament qui combat la douleur et la fièvre, ndlr) largement consommé, est perçu comme inoffensif. Pourtant, il est responsable d’hépatites médicamenteuses aiguës, notamment lors de surdosages accidentels ou d’associations involontaires entre plusieurs spécialités qui en contiennent. En France, la mauvaise utilisation du paracétamol est la première cause de greffe hépatique (c’est-à-dire de foie, ndlr) d’origine médicamenteuse, alerte l’Agence nationale de sécurité du médicament et des produits de santé (ANSM).
L’ibuprofène, également très utilisé pour soulager douleurs et fièvre, peut quant à lui provoquer des ulcères gastriques, des hémorragies digestives ou une insuffisance rénale, s’il est pris à forte dose et de manière prolongée ou avec d’autres traitements agissant sur le rein. Par exemple, associé aux inhibiteurs de l’enzyme de conversion (les premiers médicaments prescrits dans l’hypertension artérielle), il peut déclencher une insuffisance rénale fonctionnelle.
L’aspirine, médicament que l’on trouve encore dans beaucoup d’armoires à pharmacie, fluidifie le sang et peut favoriser les saignements et hémorragies, notamment digestifs. En cas de surdosage très important, il peut même conduire à des troubles de l’équilibre acide-base dans le sang et mener au coma voire au décès s’il n’y a pas de prise en charge rapide.
Ces exemples illustrent un principe fondamental : il n’existe pas de médicaments sans risque. Tous peuvent, dans certaines conditions, provoquer des effets délétères. Dès lors, la question n’est pas de savoir si un médicament est dangereux, mais dans quelles conditions il le devient.
Comprendre l’origine des effets indésirables nécessite un détour par la pharmacologie, la science qui étudie le devenir et l’action du médicament dans l’organisme.
Chaque médicament agit en se liant à une cible moléculaire spécifique – le plus souvent un récepteur, une enzyme ou un canal ionique – afin de modifier une fonction biologique. Mais ces substances actives, exogènes à l’organisme, ne sont jamais parfaitement sélectives : elles peuvent interagir avec d’autres cibles, provoquant ainsi des effets indésirables – autrefois appelés effets secondaires.
De plus, la plupart des effets, qu’ils soient bénéfiques ou nocifs, sont dose-dépendant. La relation entre la concentration d’un médicament dans le corps et l’intensité de son effet s’exprime par une courbe dose-effet de forme sigmoïde.
Chaque effet (thérapeutique ou indésirable) a sa propre courbe, et la zone thérapeutique optimale (l’index thérapeutique) est celle où l’effet bénéfique est maximal et la toxicité minimale. C’est cette recherche d’équilibre entre efficacité et sécurité qui fonde la balance bénéfice/risque, notion centrale de toute décision thérapeutique.
Ainsi, même pour des molécules familières, un écart de posologie peut faire basculer le traitement du côté de la toxicité.
Les effets indésirables ne dépendent pas uniquement de la dose. Les susceptibilités individuelles, les interactions médicamenteuses ainsi que des facteurs physiologiques ou pathologiques peuvent favoriser la survenue des effets indésirables.
Chez les personnes atteintes d’insuffisance hépatique (qui concerne le foie, ndlr), par exemple, la dégradation du paracétamol normalement assurée par le foie est ralentie, ce qui favorise son accumulation et augmente le risque de toxicité de ce médicament pour le foie. On parle d’hépatotoxicité.
L’alcool, en agissant sur les mêmes récepteurs cérébraux que les benzodiazépines (on citera, dans cette famille de médicaments, les anxiolytiques tels que le bromazépam/Lexomil ou l’alprazolam/Xanax), potentialise leurs effets sédatifs et de dépression respiratoire (qui correspond à une diminution de la fréquence respiratoire, qui peut alors devenir trop faible pour assurer l’approvisionnement du corps en oxygène). Les courbes d’effet/dose de chacun des composés vont alors s’additionner et déclencher de manière plus rapide et plus puissante l’apparition des effets indésirables.
De même, certains médicaments interagissent entre eux en modifiant leur métabolisme, leur absorption ou leur élimination. Dans ce cas, la courbe effet/dose du premier composé sera déplacée vers la droite ou la gauche par le second composé.
Ces mécanismes expliquent la nécessité de contre-indications, de précautions d’emploi et de limites posologiques strictes, précisées pour chaque médicament dans son autorisation de mise sur le marché. Avant chaque prise de médicament, l’usager doit consulter sa notice dans laquelle sont résumées ces informations indispensables.
Avant sa commercialisation, tout médicament fait l’objet d’une évaluation rigoureuse du rapport bénéfice/risque. En France, cette mission relève de l’ANSM.
L’autorisation de mise sur le marché (AMM) est délivrée après analyse des données précliniques et cliniques, qui déterminent notamment :
les indications thérapeutiques ;
les doses et durées recommandées ;
les contre-indications et interactions connues.
Mais l’évaluation ne s’arrête pas après l’autorisation de mise sur le marché. Dès qu’un médicament est utilisé en vie réelle, il entre dans une phase de pharmacovigilance : un suivi continu des effets indésirables signalés par les professionnels de santé ou les patients eux-mêmes.
Depuis 2020, le portail de signalement des événements sanitaires indésirables permet à chacun de déclarer facilement un effet suspecté, contribuant à la détection précoce de signaux de risque.
Les médicaments les plus à risque ne sont disponibles que sur prescription médicale, car la balance bénéfice/risque doit être évaluée patient par patient, par le médecin. Les autres, accessibles sans ordonnance, restent délivrés exclusivement en pharmacie, où le pharmacien joue un rôle déterminant d’évaluation et de conseil. Cette médiation humaine constitue un maillon essentiel du système de sécurité médicamenteuse.
La prévention des accidents liés à des médicaments repose sur plusieurs niveaux de vigilance.
Au niveau individuel, une acculturation au bon usage du médicament est nécessaire.
Mais la responsabilité ne peut reposer uniquement sur le patient : les médecins ont évidemment un rôle clé d’éducation et d’orientation, mais les pharmaciens également. Ces derniers, en tant que premiers professionnels de santé de proximité, sont les mieux placés pour déceler et prévenir un mésusage.
La promotion du bon usage des médicaments est également le rôle des instances de santé, par la diffusion de messages de prévention, la simplification des notices et la transparence sur les signaux de sécurité permettent de renforcer la confiance du public sans nier les risques. L’amélioration de la pharmacovigilance constitue également un levier majeur de santé publique. À ce titre, elle s’est considérablement renforcée depuis le scandale du Mediator en 2009.
Enfin, il convient d’intégrer à cette vigilance les produits de phytothérapie – les traitements à base de plantes (sous forme de gélules, d’huiles essentielles ou de tisanes) et compléments alimentaires et même certains aliments, dont les interactions avec les traitements classiques sont souvent sous-estimées.
Comme pour les médicaments, la phytothérapie provoque aussi des effets indésirables à forte dose et pourra interagir avec eux. Par exemple, le millepertuis (Hypericum perforatum), plante qu’on retrouve dans des tisanes réputées anxiolytiques, va augmenter le métabolisme et l’élimination de certains médicaments, pouvant les rendre inefficaces.
Le médicament n’est ni un produit de consommation comme les autres ni un poison à éviter. C’est une arme thérapeutique puissante, qui exige discernement et respect. Sa sécurité repose sur une relation de confiance éclairée entre patients, soignants et institutions. Face à la montée de l’automédication et à la circulation massive d’informations parfois contradictoires, l’enjeu n’est pas de diaboliser le médicament, mais d’en restaurer la compréhension rationnelle.
Bien utilisé, il soigne ; mal utilisé, il blesse. C’est tout le sens du message de Paracelse, encore cinq siècles plus tard.
Clément Delage ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.02.2026 à 16:24
Marion Vannier, Senior Lecturer in Criminology, University of Manchester
La jurisprudence de la Cour européenne des droits de l’homme a introduit la notion juridique de « droit à l’espoir » qui s’applique à tous les prisonniers, notamment ceux condamnés à perpétuité, quel que soit leur âge. Mais pour les seniors purgeant de lourdes peines, en quoi consiste l’espoir ? Des chercheurs ont enquêté en milieu carcéral au Royaume-Uni pour comprendre ce qui se joue, en pratique, autour de cette notion complexe.
Nous étions debout devant un grand tableau blanc, dans l’une des salles d’enseignement de la prison, en train de faire le bilan de notre étude sur l’espoir, lorsqu’un homme est entré sans un bruit. Comme les autres participants, il avait plus de 60 ans et purgeait une peine de prison à vie. Ses cheveux grisonnaient ; il était très grand et mince.
Il a saisi une chaise lentement, puis l’a fait retomber avec fracas. Je l’ai invité à se joindre à nous, mais il est resté immobile, sous le regard attentif des autres. Ensuite, il a traîné la chaise sur le sol, produisant un grincement strident. Je pouvais sentir mon propre cœur battre.
Alors que je commençais à parler, j’ai remarqué qu’il pleurait. Au début, cela ressemblait à un murmure, puis le son s’est amplifié. Il s’est levé brusquement et s’est avancé jusqu’à se tenir tout près de moi. J’ai noté ce jour-là dans mon carnet de terrain :
Mon cœur s’emballe. Il me demande, me dominant de toute sa hauteur : « Comment osez-vous nous interroger sur l’espoir ? » L’alarme retentit. Les surveillants l’escortent hors de la pièce. Les autres restent assis, stupéfaits, les yeux rivés sur nous, attendant une réaction.
Dans les mois qui ont suivi, j’ai rencontré bien d’autres hommes pour qui l’espoir n’était pas nécessairement une bouée de sauvetage qu’on imagine volontiers, mais plutôt un poids silencieux qu’ils portaient en eux, parfois douloureusement.
En prison, l’espoir n’est pas un mot anodin, une notion abstraite. Il façonne la manière dont les détenus vivent leur peine, influe sur la façon dont ils interagissent avec le personnel et les autres prisonniers, conditionne leur participation aux activités éducatives ou professionnelles, et soutient leurs liens avec l’extérieur.
Pour les hommes âgés condamnés à la perpétuité particulièrement, l’espoir se retrouve intimement lié au vieillissement accéléré, aux intimidations de prisonniers plus jeunes, et à la crainte d’une libération dans un monde inconnu.
Certains peuvent estimer que ces hommes ne méritent pas l’espoir — qu’en raison de leurs crimes, ils devraient en être privés. Si la prison se veut un lieu temporaire et réhabilitatif, si elle tire sa légitimité de ces principes, alors il faut rappeler que les lieux qui étouffent l’espoir ne produisent pas des établissements plus sûrs. Ils produisent, au contraire, des personnes abîmées, isolées, et moins capables de se réinsérer dans la société.
Le projet (In search of Hope: the case of elderly life-sentenced prisoners) a débuté en août 2022. Nous y examinions la manière dont le « droit à l’espoir » – tel que défini par la juge Ann Power-Forde dans son opinion concordante dans l’arrêt Vinter et al. c. Royaume-Uni (2013) de la Cour européenne des droits de l’homme (CEDH) – se traduit concrètement derrière les murs des prisons pour les personnes âgées condamnées à perpétuité, dont beaucoup n’entrevoient que de minces perspectives de libération en raison de leur âge avancé et de la longueur de leur peine.
La recherche a été menée pendant douze mois dans trois prisons anglaises, par moi-même et l’associée de recherche Helen Gair, avec l’appui d’une petite équipe d’assistants de recherche. Nous avons conduit un travail de terrain dans une prison de catégorie A (réservée aux personnes présentant les niveaux de dangerosité les plus élevés), une prison de catégorie C (niveau de sécurité intermédiaire, souvent orientée vers la formation et la réinsertion) et une prison de catégorie D (prison ouverte, ou dernière étape avant la libération).
Chaque établissement avait ses propres effluves, ses sons distinctifs. L’agencement des bâtiments et le rythme quotidien variaient sensiblement. La prison de haute sécurité, par exemple, occupait un ancien bâtiment victorien en briques rouges, dont les ailes formaient un demi-panoptique. À l’extérieur du bâtiment principal, les chiens de garde étaient promenés sur une bande de verdure longeant un mur de dix mètres de haut. À l’intérieur, le bruit était constant ; les confinements étaient fréquents, et l’air chargé de sueur et de moisissure.
Dans la prison ouverte, une vapeur de cannabis flottait dans l’air. Les hommes nous saluaient en survêtements gris, une tasse de thé jetable à la main. Il y avait des canards, un étang, et une maquette d'avion de la Royal Air Force exposée.
Dans la prison de catégorie C, nous nous perdions régulièrement. L’alignement alphabétique des bâtiments nous échappait. Nous disposions de notre propre jeu de clés, ce qui nous permettait de circuler de manière autonome, mais les serrures rouillées ne facilitaient pas nos déplacements, et chaque porte devait être ouverte puis refermée derrière nous.
Les hommes âgés de 50 ans et plus, condamnés à la perpétuité, étaient invités à participer. Nous avons recueilli des journaux personnels, mené des observations ethnographiques, et réalisé des entretiens individuels avec chaque participant.
Nous avons également interrogé des membres du personnel pénitentiaire, qu’ils travaillent en contact direct avec les détenus ou en postes administratifs, afin de comprendre comment ceux qui côtoient au quotidien des hommes vieillissants condamnés à vie percevaient l’espoir — et si les pratiques carcérales contribuaient à le préserver ou à l’étouffer. Plus largement, il s’agissait de saisir comment l’espoir était vécu par les détenus et comment il était façonné, encadré ou parfois entravé en tant que pratique institutionnelle.
Dans les années 2010, une affaire a été portée devant la Cour européenne des droits de l’homme par Jeremy Bamber, Douglas Vinter et Peter Moor. Tous trois avaient été reconnus coupables de meurtre au Royaume-Uni et condamnés à des peines de perpétuité incompressible – la forme la plus sévère de réclusion à perpétuité.
Concrètement, cela signifie qu’en droit, ils étaient condamnés à passer le reste de leur vie en prison, sans qu’aucune période minimale ne soit fixée en vue d’une libération conditionnelle ou d’une révision de peine. Seule une très faible proportion de personnes se voient infliger des peines aussi lourdes : Myra Hindley, pour l’affaire dite des « meurtres de la lande », et « l’Éventreur du Yorkshire », Peter Sutcliffe, en sont deux exemples.
Le 9 juillet 2013, la juridiction européenne des droits de l’homme a jugé que les peines de perpétuité incompressible, dépourvues de toute perspective de libération ou de réexamen, constituaient un traitement inhumain ou dégradant, en violation de l’article 3 de la Convention européenne des droits de l’homme. La notion de « droit à l’espoir » a été clairement formulée pour la première fois dans l’avis concordant de la juge Ann Power-Forde.
Même ceux qui commettent les actes les plus odieux et les plus graves… conservent néanmoins leur humanité essentielle et portent en eux la capacité de changer. Aussi longues et méritées que puissent être leurs peines de prison, ils gardent le droit d’espérer que, un jour, ils auront expié les torts qu’ils ont causés. Ils ne devraient pas être totalement privés de cet espoir. Leur refuser toute expérience de l’espoir reviendrait à nier un aspect fondamental de leur humanité et constituerait, en soi, un traitement dégradant.
Le droit à l’espoir repose donc sur la possibilité de libération et de réexamen. Cela signifie qu’il doit exister une perspective réaliste selon laquelle tout détenu condamné à perpétuité puisse, à un moment donné, envisager une libération ou espérer que les justifications de sa détention continue soient réévaluées.
Mais ce droit tient-il compte du vieillissement en prison ?
Le vieillissement rapide et mondial de la population carcérale complique en effet l'interprétation jurisprudentielle européenne du droit à l’espoir. En mars 2025, 87 919 personnes étaient incarcérées en Angleterre et au Pays de Galles, dont près d’une sur cinq (18 %) avait 50 ans ou plus, selon le ministère de la justice.
Parallèlement, les personnes condamnées à perpétuité représentent désormais environ 10 % de la population carcérale, et ce groupe vieillit rapidement: près d’un tiers des détenus à perpétuité ont plus de 50 ans. Par conséquent, les détenus âgés condamnés à perpétuité constituent le sous-groupe à la croissance la plus rapide du système.
Ce phénomène, combiné à la surpopulation carcérale, soulève une série de défis managériaux et éthiques: les cellules restent occupées pendant des décennies, les besoins en soins médicaux et sociaux augmentent fortement, et les pressions pesant sur un personnel souvent insuffisamment formé s’intensifient.
Une découverte majeure de notre projet est que la possibilité de libération relève presque du mythe pour les prisonniers âgés. En général, les condamnés à perpétuité se voient attribuer une « période de sûreté » pendant laquelle ils ne peuvent pas solliciter de libération conditionnelle. Ce principe juridique ne tient cependant pas compte de l’âge.
Dean, 62 ans, détenu à perpétuité dans la prison de catégorie A et incarcéré depuis six ans, nous a expliqué à quel point la perspective d’une libération lui semblait irréaliste compte tenu de son âge :
Je n’aurai pas moins de 80 ans avant ma première audience de libération conditionnelle et, honnêtement, je ne sais pas si j’atteindrai cet âge. Même si ma santé est raisonnable, je prends toutes sortes de médicaments pour tenir le coup, et la détention finit par vous user. Je ne suis donc pas très optimiste.
Trevor avait 73 ans lorsque nous l’avons interviewé dans la prison de catégorie C et était incarcéré depuis vingt-sept ans. Assis dans un fauteuil roulant, un élastique autour du majeur et du pouce pour l’aider à tenir un stylo, il décrivait des années d’ajournements, de retards médicaux, et de refus de transfert vers un établissement de moindre sécurité — ses besoins de santé ne pouvant y être pris en charge. Il nous a simplement demandé:
Si vous étiez à ma place, vivriez-vous dans l’espoir, ou vous résigneriez-vous à votre avenir ?
Le découragement face à la perspective de libération est corroboré par les données officielles : très peu de détenus à perpétuité sortent de prison de leur vivant.
Au Royaume-Uni, un détenu à perpétuité sur cinq a désormais dépassé sa période de sûreté, souvent de plusieurs années, les obstacles liés à l’âge retardant l’accès à la libération conditionnelle. Sur le terrain, nous avons constaté que les hommes âgés avaient du mal à accéder aux programmes de réhabilitation, en raison de problèmes de mobilité, de troubles cognitifs, ou de priorités institutionnelles accordées aux plus jeunes ou aux détenus de courte peine.
La hausse des décès parmi les détenus âgés souligne renforce encore l’illusion d’une perspective de libération.
Près de neuf décès sur dix parmi les 192 décès d’origine naturelle survenus en prison en 2025 concernent des détenus âgés, et le nombre de prisonniers nécessitant des soins palliatifs continue d’augmenter.
Entre 2016 et 2020, 190 admissions hospitalières ont concerné des détenus âgés nécessitant des soins palliatifs, dont 40 % pour un diagnostic de cancer. L’organisation Inquest a rapporté en 2020 que nombre de ces décès n’étaient ni inévitables ni imprévisibles mais liés à des défaillances systémiques (soins, communication, intervention d’urgence, gestion des médicaments).
Les chercheuses Philippa Tomczak et Roisin Mulgrew ont montré que qualifier les décès de « naturels » dissimule la manière dont l’environnement y contribue.
Par ailleurs, de nombreuses études ont établi un lien entre automutilation, suicide, sentiment de désespoir et isolement social. Les participants à notre étude ont eux aussi associé la disparition de l’espoir à des suicides observés en prison.
Dans son journal, Ian, 65 ans, incarcéré depuis trente-trois ans dans une prison de catégorie C, écrivait:
En l’absence d’espoir, il ne reste que le désespoir. J’ai connu des détenus qui se sont suicidés : ils n’avaient ni espoir ni attentes, seulement misère et désespoir.
On observe donc une contradiction entre la possibilité juridique de libération censée préserver l’espoir, et son improbabilité pratique pour les détenus âgés et vieillissants condamnés à perpétuité.
Au-delà de l’improbabilité d’une libération, nombreux sont les participants qui ont décrit la peur éprouvée à l’idée de retrouver un jour le monde extérieur. Plusieurs détenus sexagénaires ou septuagénaires ont expliqué qu’ils ne reconnaissaient plus la société hors des murs.
Pour eux, le temps passé en détention, allié au déclin physique et cognitif, les a rendus entièrement dépendants des règles de la prison. Ils estimaient ne plus être capables de se débrouiller seuls à l’extérieur. Roy, qui avait passé plusieurs décennies dans différentes prisons de catégorie A, écrivait:
Je n’ai aucun espoir de quitter la prison, ni même de désir réel de le faire : je suis désormais totalement conditionné à la vie en institution. Je n’ai pour seule responsabilité que le respect des règles pénitentiaires, et très peu de dépenses.
Russell, 68 ans, détenu dans une prison de catégorie C, notait dans son journal à quel point l’idée même d’un avenir lui semblait vaine : « C’est difficile, vraiment, parce que, comme je le dis, je n’ai aucun espoir de sortir de prison, en ce qui me concerne. C’est tout. Je suis en prison et cela n’ira pas plus loin. »
Des préoccupations très concrètes – progrès technologiques, logement, formalités administratives – rendaient aussi l’idée d’une libération accablante. Gary, 63 ans, incarcéré depuis vingt-quatre ans, confiait : « La libération me fait peur à cause de l’étiquette que je porte, et des problèmes qu’elle entraîne. Où vais-je vivre ? Comment vais-je vivre ?»
Kevin, 73 ans, transféré d’une prison de catégorie C vers une prison ouverte pendant notre projet, expliquait qu’après vingt-et-un ans de détention, le monde extérieur avait trop changé pour qu’il puisse y faire face. Alors qu’il se tenait au seuil de la liberté, il redoutait de ne pas savoir utiliser les nouvelles technologies ou accéder à sa pension. Il disait : « La technologie a évolué à une vitesse phénoménale, cela me semble très effrayant… Je préférerais ici en prison, où tout est régulé et structuré, plutôt que de sortir dans quelque chose qui m’est complètement étranger. »
Ces peurs sont exacerbées par l’effritement des liens sociaux, la perte de proches. L’isolement rend le monde extérieur encore plus étranger, et la perspective de devoir s’y réinsérer, souvent seul, d’autant plus intimidante. Kevin ajoutait :
Les personnes que j’appelais autrefois des amis ne veulent plus me voir ou sont décédées. Une chose que je peux dire avec certitude : on découvre vraiment qui sont ses vrais amis… quand on entre en prison, et surtout quand on y reste longtemps.
Ce sentiment d’horizons détruits, où la libération ne promet rien et où le monde extérieur apparaît plus terrifiant encore que la cellule, a trouvé son expression dans la culture populaire.
Dans les Évadés (1994), le personnage de Brooks, libéré après cinquante ans de détention, est incapable de d’affronter la vie moderne. Son suicide devient une métaphore saisissante de l’effet écrasant du conditionnement à la vie en prison, qui dépouille l’individu de lui-même et réduit presque à néant ses chances de réinsertion.
D’autres détenus, comme Barry, en sont venus à se demander s’il ne serait pas finalement moins douloureux de renoncer à l’espoir.
Barry avait 65 ans lors de notre entretien et avait passé plus de quarante ans en prison à purger une peine à perpétuité. Il est grand et mince. Lorsqu’il est entré, nous avons remarqué qu’il boitait et s’appuyait sur une canne. La première fois que nous l’avons rencontré, il était assis, les mains jointes, parlant d’une voix mesurée qui se brisait parfois en un rire, non pas par humour mais plutôt, me semblait-il, par épuisement ou cynisme. Bien que sa libération conditionnelle lui soit théoriquement possible, il en est venu à considérer la poursuite de cette possibilité non comme source d’espoir, mais comme quelque chose de nocif.
Au fil d’années de déceptions, Barry s’est demandé si vivre sans espoir ne serait pas moins douloureux, estimant qu’il était devenu « vain » d’espérer. Il écrivait dans son journal :
L’espoir, c’est vouloir que quelque chose arrive ou que quelque chose soit vrai… Je me demande souvent s’il ne serait pas plus doux de vivre sans espoir et d’adopter simplement une attitude de « on verra bien ».
Chaque audience de libération conditionnelle reportée, chaque attente déçue, avait peu à peu sapé la valeur même de cet espoir. Finalement, y renoncer apparaissait comme une manière de préserver sa santé mentale. Comme Barry l’ajoutait :
Ne plus nourrir d’espoir est sain. Je dis cela à cause du nombre d’hommes que j’ai vus tomber malades ; la déception devient désespoir, devient dépression, devient souffrance psychique… Puis, quand on cesse d’espérer, on commence à se rétablir et on ne se sent plus désespéré, parce qu’on n’attend plus rien. L’espoir est donc un paradoxe : il peut décevoir, ou donner le sentiment qu’un véritable avenir est possible.
Il se souvenait avoir lu l’histoire d’une Américaine condamnée à perpétuité sans possibilité de libération conditionnelle, qui avait supplié pour la peine de mort à la place. Son explication (« Je ne veux pas seulement être en vie, je veux pouvoir vivre ») résonna en lui si fortement qu’il déclara que cela l’avait « presque fait tomber de [s]a chaise ». Il reconnut dans cet appel le même paradoxe cruel auquel il était confronté : prolonger son existence dans des conditions dénuées d’espoir n’était tout simplement pas vivre. Sa conclusion était irrévocable :
Je comprends mieux que beaucoup le besoin d’espoir, mais après toutes ces années passées en prison et toutes les espérances que j’ai vues brisées, je considère l’espoir comme un ennemi.
Pourtant, Barry admettait dans le même temps qu’il continuait à espérer, quoi qu’il arrive. Son espoir était comme un réflexe humain, sur lequel il n’avait aucun contrôle, il survenait simplement. Il disait : « Nous espérons tous… j’espère sortir à ma prochaine audience de libération conditionnelle. »
Alors, qu’est-ce que l’espoir en prison ? ? Est-il cruel et torturant, ou bien une caractéristique humaine qui, malgré tout, apporte soulagement, élan et envie de tenir ?
Nous avons constaté que l’espoir ne revêtait pas la même signification pour tous. Il ne se limite pas à la perspective de libération. Certains avaient besoin de projets précis, d’autres se concentraient sur le quotidien. Parfois, l’espoir se déplaçait vers des objectifs modestes, liés à des lieux imaginés en dehors de la prison : une retraite paisible, la possibilité d’étudier, de jardiner.
Terry avait 65 ans et avait passé trente-huit ans dans une prison de catégorie A. Il nous a expliqué que tout ce qu’il espérait, c’était « une retraite tranquille ». Russell, du même âge environ mais incarcéré depuis plus de douze ans et détenu en catégorie C lorsqu’il a rédigé son journal, écrivait quant à lui qu’il espérait « … être libéré un jour et vivre les années qu’il [lui] reste dans un petit bungalow avec un petit jardin, dans un village situé à des kilomètres de [son] ancien coin d’Angleterre. Avoir un chat aussi. »
D’autres projetaient leur espoir dans des plans plus détaillés et concrets sur l’avenir. Carl, 60 ans, passionné de cuisine et de musculation, expliquait par exemple qu’il espérait s’installer quelque temps chez sa fille et ses petits-enfants, dans une région où son ambition était de construire sa propre maison. Il ajoutait : « J’ai conçu et estimé de manière approximative le coût du projet de construction, ce qui m’a aidé à renforcer l’idée que ces projets étaient réalisables. »
D’autres participants ont recalibré leur espoir vers des aspirations plus immédiates, ancrées dans le présent et les interactions quotidiennes. Barry expliquait ainsi : « Mon espoir, c’est de continuer à vivre l’instant présent… Vous savez, parce qu’en ce moment je suis dans ce bureau avec vous deux, c’est calme. C’est agréable. C’est paisible. C’est un bon moment. Mais je ne vais pas penser à ce que ça sera à 16 heures, parce que je pourrais sortir par cette porte et tomber en plein milieu d’une mutinerie. »
Russell acquiesçait : « Pour l’avenir, je vis un jour après l’autre. Ce n’est pas utile de planifier trop loin. »
Ce recentrage interroge la manière dont la prison et l'incarcération de longue durée façonnent, voire limitent, les façons dont les détenus peuvent imaginer et envisager leur futur.
Un autre participant, Craig, 66 ans et détenu depuis un peu plus de cinq ans dans la prison de catégorie A au moment de notre rencontre, écrivait : « … Chacun façonne son espoir en fonction des circonstances. »
Pour l’institution et le personnel pénitentiaire, ces attitudes pourraient paraître positives : les détenus condamnés aux peines les plus longues montrent une volonté de mener une vie sans crime, centrée sur l’instant présent et sur de petites tâches routinières qui ne génèrent aucun risque pour la gestion de la prison..
Mais lorsque l’espoir devient si court-termiste et limité aux petites choses du Il ne s’agit plus de favoriser une transformation en vue de la réinsertion, mais plutôt d’assurer la gestion à vie de corps vieillissants, affaiblis, parfois mourants.
Cet article s’ouvrait sur un homme s’adressant à mes collègues et à moi: « Comment osez-vous nous parler d’espoir ? » Ce moment a résonné tout au long du projet, à la fois comme un rappel de la complexité de la recherche en milieu carcéral et comme un point de départ pour réfléchir plus profondément à des idéaux humanistes tels que l’espoir lorsqu'ils sont transposés à certains contextes.
Lorsque les détenus évoquent la cruauté et l’illusion que peut représenter l’espoir, on se demande quelle part de lumière et de promesse il peut réellement rester dans des lieux soumis à un contrôle aussi strict.
Transposé à l’univers carcéral, l’espoir ne semble plus lié à un horizon ouvert, évocateur de liberté retrouvée et de nouveaux départs. Pour les prisonniers âgés, il renvoie plutôt un isolement accru et une dissociation du monde extérieur, devenant source de frustration, de méfiance et de sentiment d’abandon.
En prison, l’espoir met en lumière le décalage entre certains idéaux humanistes et juridiques abstraits et la réalité concrète de l’expérience carcérale, en particulier lorsqu’elle s’étend sur des décennies. Cette observation pourrait d’ailleurs s’appliquer à d’autres lieux de forte contrainte, comme les centres de rétention pour migrants, les établissements pour mineurs ou même les maisons de retraite.
Pourtant, s’éloigner d’une conception idéalisée de l’espoir pour le recentrer sur les conditions quotidiennes révèle de nouvelles façons pour certains prisonniers âgés (ici condamnés à perpétuité, et pour d’autres vivant sous contrainte), de retrouver un certain pouvoir d’agir et de continuer à avancer. Cela permet aussi de dépasser une vision binaire espoir/désespoir pour reconnaître la diversité de ses formes.
Et il important de rappeler que l’espoir importe – non seulement pour les personnes en prison ou vivant dans d'autres lieux de confinement et de surveillance – mais aussi pour la société dans son ensemble.
Une incarcération vécue dans le désespoir s’accompagne d’une dégradation de la santé mentale et physique, augmentant la pression sur les services de santé en prison et, après la libération, sur les services de santé et d’accompagnement social de la communauté.
La situation est encore plus préoccupante pour les détenus âgés libérés après des décennies passées derrière les barreaux. L’espoir n’est pas une simple émotion : il conditionne la manière dont la prison prépare (ou non) les personnes à vivre après leur détention. Des régimes qui érodent l’espoir à une peau de chagrin risquent simplement de déplacer les problèmes sociaux plutôt que de les résoudre.
Marion Vannier bénéficie d’un financement dans le cadre de la Future Leader Fellowship de UK Research and Innovation.
02.02.2026 à 16:23
Petros Sekeris, Associate Professor in Economics and Finance, TBS Education
Les innovations technologiques rendent les propagandes de plus en plus efficaces. Les populations des pays en guerre, mais aussi les dirigeants, ont dès lors plus de peine à accepter les termes d’un accord de paix ou même à envisager une sortie de conflit.
Fin 2024, 88 % des Ukrainiens pensaient que leur armée était capable de remporter la guerre contre le géant russe. Près d’un an plus tard, ils étaient 76 % à y croire pour autant que l’Occident continue à fournir des armes. La même confiance en la patrie semble prévaloir dans le camp adverse : les trois quarts des Russes sont persuadés que leur pays sortira vainqueur du conflit.
Dans de telles conditions, tout compromis acceptable pour l’un des belligérants se heurte à l’intransigeance de l’autre, et les pourparlers piétinent logiquement.
Les propagandes guerrières visant à galvaniser les foules ne datent pas d’hier – on en retrouve trace jusque dans des écrits antiques, mais aussi dans l’art – sculptures, mosaïques ou fresques, en Mésopotamie, en Grèce ou à Rome. Mais leur efficacité est aujourd’hui particulièrement redoutable, et c’est ce qui explique que la majorité des citoyens des deux pays belligérants veut toujours croire à une possible victoire après quatre ans de guerre, alors que le front, mois après mois, bouge en réalité assez peu et que, déjà, selon des estimations récentes, environ 1,2 million de Russes et 600 000 Ukrainiens auraient été tués, grièvement blessés ou portés disparus au combat.
Les réseaux sociaux jouent un rôle majeur dans cette aspiration continue à la victoire au prix de tant de vies et de ressources. Lors des printemps arabes de 2011, la manière dont les manifestants utilisaient ce nouvel outil avait affolé les gouvernants. Plusieurs États avaient bloqué Internet. Mais aujourd’hui, les États savent parfaitement influer sur les croyances des citoyens.
L’impact des interventions russes sur les réseaux a été mis en évidence dès les élections de 2016 aux États-Unis. Une armée d’influenceurs en ligne avait été mobilisée à l’époque pour faire basculer l’opinion publique américaine. Avec l’intelligence artificielle (IA), une telle mobilisation n’est même pas nécessaire. Des bots peuvent désormais envoyer en un temps record des millions de messages et d’images trafiquées, sous des identités inventées, pour orienter les perceptions des internautes en jouant sur l’émotion. Les citoyens sont d’autant plus vulnérables que les algorithmes les enferment dans des bulles informationnelles, entourées de personnes ou de robots aux avis semblables, créant la surenchère.
L’impact sur les esprits de cette propagande aux moyens jamais vus joue un rôle clé dans les conflits, incitant les dirigeants à adopter des positions plus dures à la table des négociations et rendant les processus de paix plus difficiles.
Nos recherches utilisant la théorie des jeux montrent que la propagande ne se contente pas de galvaniser l’opinion : elle peut devenir un catalyseur de guerre.
En diffusant de manière systématique des images de combattants intrépides, de prouesses technologiques ou de « victoires » sur le terrain, les dirigeants cherchent à renforcer la conviction, au sein de la population, que leur armée est supérieure et que l’issue du conflit leur sera favorable. On retrouve ce mécanisme aussi bien dans les vidéos de groupes armés mettant en scène des commandos surentraînés et des arsenaux impressionnants que dans les vastes parades militaires conçues pour projeter une image d’invincibilité.
Ce processus a un effet pernicieux : il lie les mains des dirigeants eux-mêmes. Une fois que les citoyens sont persuadés de la supériorité militaire nationale, ils risquent de rejeter tout accord perçu comme insuffisamment avantageux. Même lorsque des concessions seraient rationnelles pour éviter une escalade meurtrière, elles deviennent alors trop coûteuses à proposer ou à accepter par les dirigeants, car elles menacent leur survie politique, y compris lorsqu’ils sont des autocrates.
Plus préoccupant encore, lorsque les deux camps nourrissent simultanément des perceptions déformées, un accord mutuellement acceptable devient pratiquement impossible. Aucun dirigeant ne va tenter de « refroidir » son opinion publique, car cela le placerait en position de fragilité face à son adversaire. Chaque population surestime donc l’espérance de gains de la guerre et sous-estime ses coûts.
L’intuition centrale de notre modèle est que la propagande n’est pas seulement un instrument de mobilisation intérieure : elle peut aussi servir d’outil stratégique dans la négociation internationale. En renforçant la conviction publique qu’une victoire militaire est probable, l’électorat devient plus intransigeant sur d’éventuelles concessions, ce qui rend plus crédible la fermeté d’un dirigeant à la table des négociations et peut pousser l’adversaire à offrir davantage. Les dirigeants adoptent cette stratégie en connaissance de cause : ils savent qu’elle accroît le risque de guerre, mais estiment que le gain potentiel en pouvoir de négociation peut en « valoir le coût ».
Le problème apparaît lorsque les deux camps font le même calcul. Le durcissement simultané des attentes internes élève les exigences minimales des deux côtés au point qu’aucun compromis n’est politiquement acceptable : l’outil censé renforcer la négociation finit alors par en supprimer l’espace même et rendre la guerre plus probable.
Dans ce cadre, seule une rupture majeure – par exemple, une défaite militaire spectaculaire qui modifie brutalement les croyances, ou l’intervention décisive d’un acteur extérieur imposant une désescalade – peut rouvrir un espace de négociation.
L’histoire offre des illustrations frappantes : au Japon, en 1945, les destructions d’Hiroshima et de Nagasaki brisent la propagande d’invincibilité et entraînent une capitulation rapide, révélant combien la perception publique de force peut être brutalement corrigée par des événements matériels. De manière similaire, lors de la guerre du Vietnam, l’offensive du Têt en 1968, combinée au soutien stratégique et logistique massif de la Chine aux Vietcongs, met en lumière l’écart entre la propagande américaine sur une victoire imminente et la réalité du terrain, conduisant les États-Unis à entamer des négociations de paix à Paris à partir de 1968 et à revoir leur engagement militaire.
Ce phénomène est d’autant plus problématique que le nombre de conflits est aujourd’hui fortement orienté à la hausse. Selon les données du programme Uppsala Conflict Data (UCDP), hébergé au sein de l’Université d’Uppsala en Suède, l’année 2022 a été la plus meurtrière depuis la fin de la guerre froide si l’on excepte le génocide au Rwanda en 1994 et sa folie sanguinaire. L’année 2023 se situe également à un niveau de conflictualité très élevé, juste après 2022. Pour l’année 2024, le centre comptabilise pas moins de 11 conflits armés. Les calculs pour 2025 ne sont pas encore disponibles, mais il est certain que, du fait de la situation à Gaza et de celle au Soudan, entre autres, cette année aura également été très meurtrière. 2026 s’ouvre sur un durcissement marqué de la posture américaine sur la scène internationale et de nouveaux affrontements sanglants en Syrie, et risque fort de s’inscrire de ce point de vue dans le prolongement des années précédentes.
Cette montée des tensions est liée à l’émergence d’un monde multipolaire, mais plus encore au dérèglement climatique qui produit déjà des effets délétères. Une recherche publiée par la revue Science a établi dès 2013 un lien de causalité entre le réchauffement et la montée des violences interpersonnelles et guerres civiles. La pression migratoire et la lutte interétatique pour les ressources ne font depuis lors que s’accentuer. Dans ce contexte particulièrement belligène, les discours propagandistes versent encore de l’huile sur le feu.
Petros Sekeris ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.02.2026 à 16:22
Miguel Ángel Gómez-Serrano, Assistant lecturer, Universitat de València

À travers ses grands textes, l’Union européenne défend la biodiversité d’un côté et le bien-être de nos animaux domestiques de l’autre. Mais que dit-elle quand nos chats et chiens attentent à la faune sauvage ? Pas grand-chose pour l’instant…
Près de 44 % des ménages de l’Union européenne possèdent au moins un animal de compagnie, dont plus de 90 % sont des chiens ou des chats.
La place des animaux de compagnie dans nos vies n’a cessé de croître au cours des dernières décennies, mais elle s’est fortement accélérée à partir de la pandémie de Covid-19. Plus précisément, on estime que la population européenne d’animaux de compagnie a augmenté de 11 % en 2022, pour atteindre 340 millions, principalement des chats (127 millions) et des chiens (104 millions).
À mesure que les foyers adoptent chiens et chats, l’intérêt pour leur bien-être ne cesse de croître. Dans le même temps, le déclin des populations d’animaux sauvages alerte la société sur la nécessité de protéger la biodiversité.
Mais cette convergence ne va pas toujours de soi. S’il existe un certain chevauchement entre les objectifs du bien-être animal et ceux de la conservation de la faune sauvage, un biais apparaît clairement dans la hiérarchisation des priorités entre animaux de compagnie et animaux sauvages, en particulier lorsque ces deux groupes interagissent.
Une étude récente identifie les ressorts du conflit entre défenseurs du bien-être des animaux de compagnie et partisans de la conservation de la nature. Ce travail analyse les leviers juridiques, dans le cadre de l’Union européenne, permettant de réduire l’impact des animaux de compagnie sur les animaux sauvages.
L’Union européenne dispose actuellement d’une législation environnementale solide, dans laquelle les directives « Oiseaux » et « Habitats » ont joué un rôle clé dans la protection de la faune sauvage. En revanche, la législation relative au bien-être animal – en particulier celle concernant les animaux de compagnie – est beaucoup plus récente et reste encore émergente.
En toute logique, le bien-être animal a été associé exclusivement aux espèces domestiques, tandis que les espèces sauvages relèvent du droit de l’environnement.
Mais ce déséquilibre a engendré un important vide juridique : que se passe-t-il lorsque des animaux de compagnie causent des dommages à la faune sauvage ?
Parmi les impacts les plus importants des animaux de compagnie sur la faune sauvage figurent ceux liés aux individus retournés à l’état sauvage. Les animaux abandonnés ou échappés peuvent former des populations autosuffisantes dans la nature, avec de graves conséquences pour les espèces autochtones.
Les perroquets échappés des foyers en sont un bon exemple. Des espèces comme la perruche à collier ou la conure veuve ont établi des colonies dans de nombreuses villes européennes. Au-delà de la question de savoir s’il faut les considérer comme des espèces invasives, leur gestion constitue un conflit socio-environnemental complexe.
Certains travaux scientifiques suggèrent qu’elles entrent en compétition avec les espèces locales pour les sites de nidification et les ressources, mais ce sont des animaux charismatiques et appréciés par le public, si bien que leur régulation suscite de vives controverses sociales.
Cependant, si un animal de compagnie concentre particulièrement les préoccupations lorsqu’il retourne à l’état sauvage, c’est bien le chat domestique. Il est considéré comme l’un des prédateurs invasifs les plus nocifs au monde, responsables d’environ 25 % des extinctions contemporaines de reptiles, d’oiseaux et de mammifères à l’échelle mondiale.
Malgré ces preuves, il existe encore en Europe une forte réticence à reconnaître les chats retournés à l’état sauvage (ou chats harets) comme des espèces invasives, ce qui limite les options juridiques pour gérer leur impact.
De nombreux animaux de compagnie passent une partie de leur temps à l’extérieur sans surveillance. Pour les chiens, les impacts concernent principalement la prédation sur la faune sauvage et la transmission de maladies.
Les chats, qui errent plus librement hors de leur domicile, pratiquent également la prédation, même lorsqu’ils sont bien nourris, affectant particulièrement les oiseaux et les petits vertébrés dans les environnements urbains et périurbains.
Un cas particulier concerne les colonies félines. Le contrôle des populations de chats errants relève généralement des États membres de l’UE, ce qui entraîne des approches très variées, allant de la mise à l’écart des animaux aux programmes de capture, stérilisation et retour (méthode CSR).
Bien qu’il s’agisse d’une méthode socialement acceptée, les preuves scientifiques montrent que, dans la majorité des cas, elle n’est pas efficace pour réduire la population de chats ni pour limiter à court terme leur impact sur la faune sauvage.
À lire aussi : « Permis de tuer » ou sécurité publique ? En Turquie, une loi controversée sur les chiens errants
Promener son chien dans la nature est devenu une des activités de loisirs particulièrement courante, en atteste notamment, dans les zones concernées, la popularité croissante des plages pour chiens. Ce type de gestion est probablement bénéfique pour la santé des animaux et de leurs propriétaires, mais pas pour la faune sauvage.
Sur les plages naturelles, par exemple, les chiens peuvent avoir un impact grave sur les oiseaux nichant au sol, comme les gravelots à collier interrompu. Même en l’absence de prédation directe, la simple présence d’un chien peut amener les oiseaux à abandonner leurs nids ou à réduire le temps d’incubation, avec des effets négatifs sur le succès reproducteur.
À mesure que la biodiversité diminue et que les populations d’animaux de compagnie augmentent dans les foyers européens, le conflit entre la conservation de la faune sauvage et la défense du bien-être animal s’intensifie. Il devient donc urgent de réconcilier ces perspectives divergentes et d’harmoniser leurs cadres juridiques respectifs.
L’Union européenne dispose de marges de manœuvre juridique pour agir. Les directives environnementales obligent déjà les États membres à prévenir les dommages aux espèces protégées, ce qui pourrait se traduire par des restrictions plus claires concernant la liberté de déplacement des animaux de compagnie, en particulier dans les espaces naturels protégés.
Parallèlement, l’élaboration d’une nouvelle législation sur le bien-être animal constitue une occasion de renforcer la responsabilité des propriétaires tout en réduisant l’impact de la liberté de déplacement et en prévenant l’abandon ou le retour à l’état sauvage.
Il est nécessaire que les autorités s’attellent à la régulation de l’impact des animaux de compagnie et que leurs propriétaires s’engagent activement à les limiter. Ce n’est qu’ainsi que nous éviterons d’atteindre le point de non-retour où les seuls animaux que nous observerons lors de nos promenades dans la nature seront nos propres animaux de compagnie.
Miguel Ángel Gómez-Serrano ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.02.2026 à 16:21
Isabelle Horvath, Professeur des Universités en Sciences de Gestion et du Management, Université de Haute-Alsace (UHA)
Gaëlle Dechamp, Maître de Conférences Habilitée à Diriger des Recherches, Sciences de Gestion et du Management, Grenoble INP - UGA

Mère de trois enfants, chanteuse lyrique et codirectrice d’une association dont la double activité porte sur la médiation culturelle et la création de spectacles lyriques, Caroline jongle avec ses différentes activités et identités au quotidien. Deux chercheuses en entrepreneuriat artistique et culturel ont conduit avec elle un travail pour comprendre quelles stratégies elle mettait en place, loin du modèle classique et malgré les obstacles rencontrés, dans un contexte de baisse des subventions culturelles en France.
L’entrepreneuriat artistique et culturel associe le monde de l’entreprise au monde de la culture. Dans la presse professionnelle, notamment celle du spectacle vivant, dans les associations ou encore dans les réunions stratégiques d’établissements culturels, on en parle de plus en plus pour trouver une solution aux difficultés de financement, de production et de diffusion des œuvres. L’entrepreneuriat artistique et culturel consiste à développer de manière structurée un projet dans le domaine des arts et de la culture en conciliant la dimension artistique avec la dimension économique.
Il génère à la fois des valeurs symboliques, telles que la création et la diffusion de formes esthétiques, et des valeurs économiques parce que l’art se produit, se vend, s’achète et, ainsi, qu’il est à l’origine d’emplois, de métiers avec un poids économique direct en France de 2 %. L’entrepreneuriat créatif et culturel suscite de plus en plus d’intérêt, car la baisse des subventions pour financer la culture n’est pas simplement une mauvaise passe, mais un sujet qui questionne sur les modèles économiques à inventer sans vendre son âme au diable. Il s’agit plutôt de considérer que tous les dispositifs de gestion et managériaux sont au service des arts et de la culture et non l’inverse.
Cette donne est commune à tous les acteurs du secteur. Mais quand on est une femme, qui plus est une mère, autrement appelée « mampreneure », transformer la tension en dynamique devient un défi qui relève parfois du casse-tête. Selon l’Indice entrepreneurial français de 2023, 28 % des femmes sont inscrites dans une dynamique entrepreneuriale (projet de création, création ou reprise d’entreprise) contre 37 % des hommes. Dans le secteur des arts, spectacles et activités récréatives, 39,6 % des entreprises individuelles sont créées par des femmes et 60,4 % par des hommes. La motivation des femmes à devenir entrepreneures repose sur trois facteurs : la nécessité pour assurer les besoins primaires du foyer ; un choix de carrière pour davantage se réaliser ; la conciliation famille-travail.
Dans le cas des mampreneures, les trois facteurs se combinent, cependant rechercher une situation professionnelle pour répondre à un besoin de réalisation de soi est premier. Dans le secteur artistique et culturel, ces femmes sont 32 % à être intermittentes avec une organisation de travail discontinue. Les mampreneures font face à une précarité plus importante que tout autre intermittent. Elles sont appelées aussi « matermittentes » ; leur nombre n’est pas recensé. Le collectif du même nom s’engage pour une reconnaissance de ce statut particulier.
Au-delà des conditions matérielles, les particularités des mampreneures artistes concernent leur organisation en millefeuille avec une « interdépendance des temps » individuels, familiaux et professionnels. Comment réussir le triple défi d’être à la fois femme, artiste et entrepreneure ?
Pour le relever, il faut inventer ses propres outils. C’est ce que Caroline a fait. Nous l’avons rencontrée et nous avons cherché à comprendre comment s’est construit son parcours entrepreneurial.
Caroline est à la fois docteure en sciences de gestion et du management, chanteuse lyrique et co-directrice de l’association Brins de Voix dont la double activité porte sur la médiation culturelle et la création de spectacles lyriques. Au moment de sa fondation, Caroline a un bébé d’un an, elle en aura deux autres par la suite. Elle est intermittente du spectacle, donc non salariée.
Notre mampreneure doit relever deux défis qui caractérisent l’entrepreneure artistique : concilier deux rôles qui peuvent paraître incompatibles, à savoir créer et entreprendre ; articuler une vie personnelle avec une vie professionnelle, marquée dans le spectacle vivant par un rythme atypique à cause des horaires décalés et des absences dues aux tournées. Caroline s’est alors retrouvée devant la nécessité d’innover, pour articuler son parcours, en matière d’outillage managérial, qui, sans donner une réponse unique, constitue une ouverture dont d’autres mampreneures artistes peuvent s’inspirer. Nous avons étudié ce processus entrepreneurial à partir d’une approche autoethnographique, c’est-à-dire de l’analyse de l’expérience mise en récit par l’auteur, et de l’éclairage par la théorie de l’effectuation.
Cette théorie est bien adaptée aux contextes d’incertitude car elle propose une alternative aux modèles rationnels de l’entrepreneuriat. Elle privilégie l’intuition à la logique causale, le processus de création de l’avenir à sa prédiction, les transformations successives à l’élaboration d’un modèle d’affaires. Ainsi repose-t-elle sur cinq principes : faire avec ses moyens (1) ; définir les pertes acceptables (2) ; privilégier les partenariats (3) ; être ouvert aux surprises (4) ; créer son propre univers (5).
Le parcours entrepreneurial de Caroline est jonché de difficultés qu’elle réussit à dépasser grâce à sa capacité à inventer des outils de gestion et des dispositifs organisationnels qui peuvent servir d’inspiration aux mampreneures artistes du spectacle vivant.
Le critère physique est souvent pris en compte lors des auditions ; la femme, plus que l’homme, doit ressembler à l’image du rôle à interpréter. Le cycle hormonal a un impact sur la qualité vocale ; la durée de carrière est plus courte que pour les hommes à cause des changements de tessiture. Les obstacles sont liés aussi à la garde des enfants, car les horaires et les déplacements sont mal adaptés à une vie de famille et encore moins à une situation d’urgences médicales ; il est impossible d’amener son enfant en coulisses sans nourrice et, enfin, un enfant non gardé est synonyme d’absence de la chanteuse et donc d’annulation de spectacle, ce qui n’est pas envisageable. La fatigue engendrée par l’absence de sommeil et les grossesses peuvent altérer les performances de l’artiste. Les interruptions de carrière pendant le congé maternité ont une incidence sur la poursuite des contrats ; les artistes susceptibles de devenir mères se voient parfois refuser des contrats, car elles représentent un risque d’absence pour les employeurs. En cela, le secteur des arts et de la culture ne diffère pas des résultats d’études sur le lien entre le risque de maternité et les opportunités d’embauche.
Devant ce carrefour de contraintes et pour tracer une trajectoire dynamique, Caroline a développé les dispositifs suivants que nous mettons en perspective avec les axes de la théorie de l’effectuation : elle a créé son entreprise (5) pour réussir à articuler sa vie personnelle avec sa vie professionnelle (2) avec les moyens dont elle dispose (1), notamment les connaissances qu’elle a de la gestion et du management des équipes et l’intégration de ses contraintes personnelles. Elle a rapidement créé un réseau (3) avec, à la clé, des rencontres inattendues (4).
Concrètement, elle a mis en place des réunions points d’étapes avec les membres du conseil d’administration de son association ; organisé un coaching personnalisé pour gérer son temps et ses priorités ; élaboré un outil d’acceptation de contrat avec des critères pour justifier un refus ou une acceptation et ainsi rationaliser sa charge de travail ; prévu des « doublures » dès le début de la création d’un spectacle pour anticiper les arrêts maladies, les congés maternité ou les absences non programmées. Une fois par semaine, elle échange avec son conjoint sur les contraintes organisationnelles et la répartition des charges afin de maintenir un équilibre de couple. Caroline a aussi développé un réseau d’entraide entre parents pour trouver des solutions de gardes partagées et réduire les coûts afférents.
Ces dispositifs de gestion ont permis à Caroline d’atteindre son triple objectif : chanter, gérer et éduquer, tout en développant son activité.
L’exemple de Caroline, en tant que femme, mère, entrepreneure et artiste, n’est pas un cas isolé. D’autres, comme la pianiste Pauline Chenais, témoignent de cette imbrication de vies, des écueils contre lesquels se fracasse l’unité de vie personnelle et de vie professionnelle, par exemple quand des organisateurs de spectacle sont peu conciliants devant l’artiste qui emmène son enfant dans les coulisses pour pouvoir l’allaiter avant de monter sur scène.
Caroline, artiste-entrepreneure, a créé des outils ou des dispositifs de gestion essentiels pour les prises de décision, qui guident et structurent une démarche entrepreneuriale que l’on peut qualifier d’augmentée. En effet, ils deviennent des instruments de réalisation de projets, des « médiateurs de sens » et comme l’expliquent les chercheurs Sarasvathy et Germain :
« Vous commencez avec le monde tel qu’il est, simplement la petite partie qui vous est accessible en particulier, et vous effectuez sur lui une série de transformations effectives qui aboutissent à la création de nouveaux mondes imaginés, inimaginés et même inimaginables. » (Traduit par les auteurs de l’article.)
Si, depuis 2017, le ministère de la culture œuvre pour lutter contre les discriminations liées au sexe et au genre, il n’existe pas d’études pour rendre compte du parcours entrepreneurial des mampreneures. Le cas de Caroline nous a permis de plonger dans un processus d’élaboration d’outillage qui, sans être un modèle et encore moins une recette, témoigne d’une capacité à entreprendre. Un exemple sans doute inspirant pour d’autres femmes artistes et entrepreneures.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
02.02.2026 à 16:20
Julian Mischi, Sociologue et historien, Inrae
La dynamique politique des petites villes rurales diffère de celle des villages et des grandes villes. Lors des élections municipales se joue un subtil jeu de cache-cache politique : les candidats se font très discrets sur leurs liens avec les partis, craignant d’être accusés de servir ceux-ci plutôt que leur bourg. Personne n’est dupe, mais c’est la règle tacite.
Contrairement aux professionnels de la politique, les maires bénéficient d’une image favorable dans l’opinion publique, tout particulièrement lorsqu’ils sont à la tête de petites communes. Les élus ruraux échappent généralement au discrédit qui touche les partis politiques. Ils sont perçus comme les représentants de leur territoire, auxquels ils consacrent pleinement leur action à l’issue d’élections municipales, souvent interprétées comme éloignées des logiques partisanes. Effectivement, dans les villages de quelques centaines d’habitants, une seule liste est le plus souvent proposée aux électeurs. Les études montrent que la réduction de l’offre électorale à une seule liste concerne surtout les localités comptant moins de 500 habitants.
Les édiles de ces villages sont pris dans des conflits propres au monde paysan, liés à la maîtrise du foncier et à leur implication dans des réseaux agricoles (coopératives, syndicats). Le pouvoir local, marqué par la domination de quelques familles et les enjeux de coalition de parentèles, est dominé par les agriculteurs. Leur surreprésentation dans les mairies des villages s’est réduite depuis la fin du XXᵉ siècle mais les scrutins municipaux restent peu concurrentiels, faute de vivier suffisant de candidats. Ces scrutins n’en restent pas moins traversés par des antagonismes interpersonnels, expression de clivages sociaux et de conflits locaux.
La situation est différente dans les bourgs, ces petites villes de quelques milliers d’habitants qui concentrent les services et l’emploi dans les campagnes. Ils se sont développés depuis le XIXᵉ siècle autour de services (école, hôpital, poste, gare, commerce) et d’entreprises artisanales et industrielles. La population de ces chefs-lieux de canton est formée en majorité de classes populaires tandis que les élites sociales y sont diverses (commerçants, artisans, professions libérales, enseignants, cadres et dirigeants d’entreprise).
Dans ces localités, le pouvoir municipal est l’objet de luttes politiques intenses. C’est ce que montre la recherche que nous avons menée sur l’histoire des luttes municipales dans trois bourgs de Bourgogne. Dans ces trois communes, 36 des 42 scrutins municipaux tenus depuis 1945 (soit 86 %) mettent aux prises plusieurs listes de candidats.
Dans les petites villes rurales, les intitulés des listes mentionnent rarement une orientation politique, tout comme le soutien des partis apparaît peu dans le matériel électoral (bulletins, professions de foi, affiches). Les candidats mettent surtout en avant leur implication dans la vie associative et économique de la commune. Un engagement dans la vie politique est rarement évoqué, car s’il est mis explicitement en avant, il peut être reproché aux candidats d’être motivés avant tout par des considérations partisanes, qui passeraient alors devant les enjeux de développement local. Afficher la défense des intérêts communaux ou les compétences personnelles des candidats vise à ne pas s’aliéner les électeurs dont beaucoup estiment que les affaires municipales, surtout dans les petites villes, doivent échapper aux conflits partisans.
Contrairement aux grandes villes, les partis jouent effectivement un rôle secondaire dans ces bourgs où les trajectoires des élus se construisent dans le cadre de leurs activités professionnelles, syndicales ou associatives. Peu de candidats sont rétribués pour leurs fonctions militantes avant d’être élus. Lorsqu’ils deviennent maires, ils cessent ou réduisent une activité professionnelle qui n’a souvent pas de rapport direct avec le métier politique.
Souvent tues, les étiquettes politiques n’en sont pas moins présentes par intermittence dans les petites villes, contrairement à ce qui se passe dans les villages qui les entourent. En réalité, les élections municipales mettent le plus souvent en compétition au moins une liste associée à la gauche et une liste plus conservatrice. Les forces de gauche sont les plus enclines à mobiliser des marqueurs politiques à certaines périodes, notamment à la Libération et dans les années 1970. Mais c’est aussi le cas à droite, surtout dans les années 1980 avec le Rassemblement pour la République (RPR) qui cherche à contester l’autre parti conservateur bien implanté localement, l’Union pour la démocratie française (UDF), et à jouer sur l’opposition à la présidence de François Mitterrand. Puis lorsque le Front national (devenu Rassemblement national, RN) parvient à constituer des listes dans un contexte de droitisation des électeurs et de déclin de la gauche.
Même lorsqu’il n’y a pas de logo de parti sur le matériel électoral, les électeurs peuvent classer politiquement les listes grâce à des indices mis ou non volontairement en avant par les candidats et leurs soutiens. En effet, les affinités politiques personnelles des candidats sont largement connues au sein des espaces d’interconnaissance que constituent les petites villes. Des engagements publics (syndical, religieux, associatif), le choix de l’école privée ou publique pour ses enfants, le type de fréquentation amicale ou encore la profession peuvent être également mobilisés pour situer politiquement un candidat.
Des opinions politiques sont attribuées aux candidats selon des discussions informelles, des propos rapportés, des informations données par les membres de la famille, des voisins ou des commerçants. C’est d’ailleurs pour cette raison que certains candidats estiment ne pas avoir eu besoin d’afficher leur proximité partisane lors de la campagne. Comme nous l’a exposé le maire d’une commune d’environ 4 000 habitants, membre du parti Les Républicains :
« Les gens ici savent ce que je pense. »
Cette façade apolitique lors de la campagne ne trompe personne, ni les habitants, ni le sous-préfet qui accorde des nuances politiques aux candidats, ni les journalistes qui peuvent indiquer les appartenances politiques des compétiteurs dans la presse locale. En outre, l’attitude des candidats dans d’autres scènes électorales que celle des scrutins municipaux contribue aussi à nourrir les identifications politiques. Les liens qu’ils entretiennent avec le conseiller général, le député ou le maire de la grande ville voisine (dont l’affiliation partisane est connue), donnent des indications de positionnement. Ces liens apparaissent au grand jour lors de la constitution de comités de soutien.
Par ailleurs, le soutien d’un parti est souvent nécessaire dès que l’on dépasse l’échelle communale, un niveau où se projettent souvent les maires des petites villes. Lorsqu’ils sont candidats pour les scrutins cantonaux, législatifs ou régionaux, ils mobilisent alors des appartenances partisanes, celles-là mêmes qu’ils n’affichent guère dans la compétition municipale.
D’après mes recherches, l’appartenance des candidats à un courant politique ne constitue pas véritablement un handicap à l’élection. Elle le devient lorsqu’elle est ostensiblement affichée et qu’elle se cumule avec une absence d’attaches locales, dans le cas par exemple de parachutages. Ce sont les marques de dévouement pour la collectivité et surtout le prestige social, assuré par les parcours professionnels et les réussites personnelles, qui semblent jouer un rôle important dans la construction de l’éligibilité. Les électeurs s’en remettent à des personnes perçues comme compétentes et dévouées pour gérer la collectivité locale et obtenir des subventions, dans un contexte de professionnalisation de la gestion communale.
Il peut ainsi exister un décalage important entre l’orientation politique du maire de la commune et l’expression majoritairement exprimée par les habitants lors des élections nationales. Ce décalage est devenu systématique depuis les années 2000, car la population des campagnes vote de plus en plus pour l’extrême droite lors des élections législatives et présidentielles. Or on ne compte en effet que 16 municipalités dirigées par le RN, bien loin de son poids aux autres élections.
Les élus ruraux font face à la croissance du vote pour le Rassemblement national mais aussi au désintérêt grandissant des habitants vis-à-vis des enjeux municipaux : l’abstention augmente régulièrement depuis une vingtaine d’années lors des scrutins municipaux. Elle reste moins importante dans les petites communes que dans les grandes villes, mais cette démobilisation électorale signale bien que la crise de la représentation politique touche également l’échelon local, y compris en l’absence de présence des partis politiques. Ces derniers ne sont pas à l’origine de la distance grandissante entre les élus ruraux et leurs administrés. Au contraire, ce décalage est en partie nourri par la fragilisation des réseaux militants. Désormais les partis sont surtout organisés dans les grandes villes, il existe rarement des sections dans les petites villes. La présence syndicale s’est également réduite alors que son maintien permet une meilleure implication des classes populaires dans la vie politique locale.
La complexification de la gestion locale est l’un des facteurs de la distance grandissante entre les élus et leurs administrés. Le développement de l’intercommunalité et la nécessité d’une recherche incessante de financement pour contrebalancer la baisse de la dotation d’État favorisent les élus pouvant faire valoir des compétences gestionnaires, acquises dans leurs parcours scolaires et professionnels. Les conseils municipaux peuvent être divers socialement, mais les postes de maire sont très rarement occupés par des catégories populaires pourtant majoritaires dans la population locale.
La masse des habitants s’approprie difficilement les enjeux intercommunaux d’autant qu’ils sont peu abordés dans les campagnes électorales. Or le centre de gravité du pouvoir local se déplace vers des structures intercommunales, instances dépolitisées dont la technicité dépossède les populations mais aussi les maires des villages. Ce sont en effet les maires des petites villes, essentiellement des hommes issus des classes moyennes et supérieures, qui se trouvent le plus souvent à la tête des intercommunalités rurales.
Julian Mischi est l’auteur de Des élus en campagne, Presses de Sciences Po, 2025.
Julian Mischi a reçu des financements de l'INRAE et de la région Bourgogne-Franche-Comté.
02.02.2026 à 16:19
Emmanuel Hirsch, Professeur émérite d'éthique médicale, Université Paris-Saclay
La révision de la loi du 2 août 2021 relative à la bioéthique débute avec une concertation menée par le Comité consultatif national d’éthique sous forme d’états généraux. Cependant, sommes-nous certains de nous accorder sur une conception commune de ce qu’est la bioéthique, de ce que sont ses fondamentaux, sur la pertinence, les thèmes, les enjeux, les modalités et les conséquences du débat ?
Dans un discours prononcé en 1987, le professeur de médecine Jean Bernard, premier président du Comité consultatif national d’éthique (CCNE) entre 1983 et 1993, évoquait déjà les défis de la bioéthique : « L’homme peut désormais être changé par l’homme. Soit directement, la biologie transformant le cerveau, le patrimoine génétique, soit indirectement, la biologie transformant l’environnement. »
Sept ans plus tard, la loi n° 94-654 du 29 juillet 1994 relative au don et à l’utilisation des éléments et produits du corps humain, à l’assistance médicale à la procréation et au diagnostic prénatal fixait les principes de la bioéthique selon nos conceptions nationales.
Trente ans ont passé depuis le vote de la première version de ce texte, régulièrement révisé depuis. La nouvelle révision de la loi du 2 août 2021 relative à la bioéthique s’engage cette année ; c’est l’occasion de réfléchir aux enjeux posés. Peut-on aujourd’hui affirmer que les mutations biotechnologiques, notamment dans le contexte d’un environnement numérique qui détermine la vie et les choix de société, ne justifient pas de repenser la bioéthique avant de l’appliquer en vue d’arbitrages indispensables ?
Je retiens d’une synthèse des textes fondamentaux de la bioéthique cette définition de la bioéthique : « La bioéthique reconnaît l’importance de protéger l’être humain dans sa dignité et son identité afin de garantir à toute personne, sans discrimination, le respect de son intégrité ainsi que de ses autres droits et libertés. Elle permet de ressentir l’injustice, d’éviter le danger, d’assumer des responsabilités, de rechercher la coopération et de faire montre d’un sens moral qui donne expression à des principes éthiques. Les êtres humains, sans distinction, doivent bénéficier des mêmes normes éthiques élevées dans le domaine de la médecine et de la recherche en sciences de la vie. »
La réflexion bioéthique nous rappelle à la vigilance :
lorsque « la primauté de la personne » pourrait être déconsidérée et dépréciée au regard de considérations de toute nature qui en relativiseraient la prééminence ;
lorsque nous concéderions à toute forme d’irrespect à l’égard « de la dignité humaine, (des) droits de l’homme et (des) libertés fondamentales » ;
lorsque la souveraineté de la personne ne serait pas reconnue dans l’expression de son autonomie et de son jugement critique, notamment en sollicitant son consentement ;
lorsque l’exigence de justice ne prévaudrait plus dans l’argumentation de nos arbitrages.
Ces quatre points de tension éthique caractérisent à la fois des principes d’actions et un cadre d’intervention bénéficiant des repères intangibles à mobiliser pour éclairer une démarche responsable et légitimer les arbitrages. Il ne s’agit pas d’options, d’énoncés rhétoriques livrés à des interprétations circonstanciées, mais d’engagements qui nous obligent.
Depuis 1994, notre législation relative à la bioéthique a vocation d’anticiper les conséquences sociétales des avancées de la recherche biomédicale et d’encadrer les innovations selon les principes d’une « bioéthique à la française ». Réviser une loi à échéance régulière comme c’est le cas en matière de bioéthique, démontre la nécessité d’un ajustement ou d’une adaptation continue des principes généraux.
Au risque d’estimer parfois justifié d’en relativiser la pertinence, d’en atténuer l’autorité lorsque des considérations supérieures justifieraient des accommodements plutôt que des ajustements. Ce peut être le cas pour des raisons de souveraineté nationale lorsque trop de règles affaibliraient la recherche scientifique et le développement de ses applications dans un contexte concurrentiel sollicitant des dérégulations y compris éthiques.
Si la révision programmée d’une loi – on l’observe également de fait pour la troisième fois dans le domaine de la fin de vie bien que le législateur n’en a pas décidé – n’aurait pour visée que de nous libérer progressivement des réticences et des contraintes qui entraveraient en l’occurrence la recherche biomédicale, n’est-elle pas condamnée à l’obsolescence ?
Que signifie alors légiférer en bioéthique si ce n’est donner à penser que le débat public permet d’évaluer la capacité d’acceptation ou de tolérance de la société à des mutations qui à terme imposent leur ordre et leur vision de ce que nous devons espérer et faire de notre devenir ?
Cinq ans après la création du CCNE, ses membres en appelaient à une prudence dont on ne sait plus au juste ce qu’elle est censée prévenir, restreindre ou contenir aujourd’hui :
« En pareil cas [confronté à des questions éthiques difficiles], il conviendra de ne pas franchir abusivement les frontières qui séparent, d’une part, la déontologie de l’éthique, d’autre part, la pratique médicale de la recherche. Ces séparations ne vont pas de soi, car les diverses activités considérées sont parfois mêlées. »
Peut-on alors soutenir que les quatre lois successives de 1994, 2004, 2011 et 2021 – au-delà de l’intention d’identifier au fil des évolutions scientifiques leurs enjeux sociétaux – sont parvenues à préserver l’équilibre entre nos valeurs et la dynamique d’une recherche compétitive au service du bien commun ?
En dehors des publications de l’Agence de la biomédecine et des travaux de l’Office parlementaire d’évaluation des choix scientifiques et technologiques, peu de recherches scientifiques académiques sérieuses permettent d’étayer la démarche bioéthique française. Elles devraient pourtant constituer un préalable à toute concertation publique, y compris pour évaluer la pertinence et l’efficacité d’une législation pour autant qu’elle soit fondée sur des données plus robustes que les conclusions d’un débat d’idées aussi informé soit-il par les éclairages de scientifiques.
Dès 1985, le philosophe Lucien Sève, membre du CCNE, se demandait dans le quotidien l’Humanité, du 6 décembre 1985 , « À quoi sert la bioéthique ? » pour y trouver une capacité de dépassement dans l’exigence de mettre en commun ce qu’est l’universel : « La bioéthique publique, sans contraindre quiconque, ne doit-elle pas inciter chacun à suivre sa pente en montant, et tout ce qui est réellement universel ne peut-il en dernière analyse converger ? »
Ne peut-on pas alors oser considérer que la bioéthique peut s’envisager comme un exercice de morale pratique, une manière de faire morale dans une société sécularisée ? Ne serait-ce pas ainsi situer et viser l’exigence d’une réflexion universelle qui « attire l’humanité au-dessus d’elle-même » ?
Les champs de possibles, promis dès l’annonce d’innovations biomédicales, justifient de repenser nos obligations actuelles et les conséquences de nos choix en nous référant à un système de valeurs pertinent et robuste.
Reconnaître à l’intelligence collective, animée par un souci de dialogue et d’implication dans la mise en débat des décisions qui déterminent notre destin, la légitimité de contribuer à refonder si nécessaire des principes d’action en cohérence avec le souci du bien commun, exige une révolution dans les conceptions traditionnelles de la gouvernance de la biomédecine. Apparemment, les états généraux de la biomédecine n’ont ni cette vocation ni cette ambition.
Les biotechnologies façonnent les figures expérimentales d’un vivant recomposé selon des conceptions de l’existence que s’approprient les détenteurs d’un pouvoir d’intervention indifférents à ce que, d’un point de vue philosophique et éthique, exister signifie. Les encodages numériques délient nos communs, dévitalisent et dématérialisent le sens de la présence et de la relation ; leurs promoteurs dégradent ce que faire société représente.
La complexité d’une bioéthique en acte nous confronte aux dilemmes d’un arbitrage décisionnel intégrant les conditions d’estimation « du poids moral » dans des contextes différenciés (ne serait-ce qu’en termes de ressources en compétences et en moyens), ce qui peut mener à des conclusions divergentes. C’est ce qu’énonce le Conseil des organisations internationales des sciences médicales, qui concerne ses « principes généraux d’éthique ».
Plus que de prescriptions cumulatives trop souvent méconnues, l’urgence n’est-elle pas de contribuer à développer une culture bioéthique de terrain, une éthique impliquée, investie de la capacité d’exercer une responsabilité partagée, mise en commun, autrement que dans l’application de règles qui ne seraient pas suffisamment pensées ? La vigilance éthique doit s’exercer et être intégrée aux décisions politiques dans le cadre d’un processus démocratique non réduit à des consultations épisodiques encadrées. Ne serait-il pas sage de repenser en bioéthique, comme dans d’autres domaines complexes des choix de société, d’autres modalités de concertations et d’arbitrage publics ?
Les domaines innovants de la biomédecine – qu’il s’agisse de la génomique, des cellules souches, des nanosciences ou des neurosciences – fascinent, provoquent et inquiètent. La médecine à visée curative et réparatrice intègre désormais les objectifs d’amélioration, d’augmentation et de transformation de l’homme sans être dotée d’un cadre normatif international pertinent.
Les techniques de sélection, de tri, de manipulation, de recombinaison, voire de reconfiguration de l’humain équipé de prothèses, de systèmes implantables, de système numériques hybrides de connexions, se développent sans susciter les concertations publiques évaluant leur acceptabilité et leur soutenabilité.
La notion même de transgression devient incompatible avec les idéaux d’émancipation et d’affranchissement de toute conception naturaliste. Risquer de compromettre les conditions d’un devenir humain au bénéfice possible d’une libération de ce qu’aurait d’indigne et de précaire la condition actuelle de l’humain, semble préférable aux aggiornamentos prudents, aux moratoires justifiés, au risque de forcer l’innovation au-delà de toute forme de limite.
Les processus d’innovation mis en œuvre dans les biotechnologies devraient pourtant engager toute réflexion éthique à anticiper et à accompagner les choix stratégiques, à questionner les hypothèses, les méthodes, les moyens et les objectifs afin d’y apporter une intelligibilité et de favoriser des arbitrages justes, loyaux et recevables.
En ce qui concerne le numérique et l’ingénierie appliqués à la santé, des organisations privées exercent une position dominante sur la société civile, sur nos existences et notre destinée. La financiarisation de la santé détermine les critères d’orientation de la recherche et de l’accès aux traitements. L’urgence éthique ne devrait-elle pas se comprendre dans l’exigence de reconquérir une autonomie existentielle, alors qu’un précipité de mutations incontrôlables semble en voie de nous rendre plus dépendants des conditionnements qui artificialisent la personne et les réalités de nos sociétés ?
Les instances éthiques sont-elles reconnues dans cette fonction, en ont-elles les compétences et les capacités alors que l’autorité publique est défiée en tant de domaines par la déferlante des imprécations à des dérégulations confortées par la violence politique de décisions erratiques ?
Les « droits fondamentaux de tout être humain » sont invoqués comme l’ultime expression d’un attachement à des valeurs abrasées par la désertion d’un monde périmé qu’il serait sage de ne plus habiter. Doit-on admettre une impuissance à exercer une responsabilité humaine sur notre destinée, à s’ériger éthiquement contre une disqualification et une négation de ce que nous sommes ?
La « bioéthique à la française » est, par exemple, de peu de poids, face à l’offre du marché de la fertilité estimé de l’ordre de 78,42 milliards de dollars (soit 66,41 milliards d’euros) à l’horizon 2033. La France considère encore, d’un point de vue éthique, que la gestation pour autrui (GPA) constitue une instrumentalisation du corps de la femme incompatible avec ses valeurs. Cependant, l’accès aux techniques prohibées en France telles que la GPA n’a de frontières que le coût des interventions, et certains considèrent injustes ces discriminations économiques qui devraient inciter à autoriser dans notre pays ce qui est possible ailleurs.
Il ne s’agit pas seulement d’envisager les évolutions biomédicales d’un point de vue préventif ou thérapeutique, mais tout autant dans leurs fonctions symboliques, sociétales et donc politiques. La bioéthique serait-elle ainsi considérée comme la dernière forme d’un idéal démocratique, l’ultime tentative de faire encore nation et de porter un projet de société qui transcenderait les clivages doctrinaux ?
À quelques mois de l’élection présidentielle, il faudra veiller à ce que les états généraux de la bioéthique ne soient un forum politique ouvert à des controverses idéologiques qui y trouveraient un espace privilégié. Le CCNE a hiérarchisé et sélectionné les thématiques qui y seront débattues selon des règles qui devraient permettre à chacun de s’exprimer. Il sera important que la synthèse tirée vers juin des débats et des auditions restitue la pluralité des positions et que l’avis qui suivra maintienne une telle rigueur. Peut-être y découvrirons-nous alors un renouveau de l’exigence de la bioéthique là où certains pourraient craindre une forme d’épuisement, voire de renoncement.
Comme l’énonçait le président de la République François Mitterrand lors de la séance d’installation du CCNE, le 2 décembre 1983 : « Au-delà de la morale, la science et la métaphysique, selon le goût que l’on en a, se répondent sans que la réponse soit là. Encore est-il noble de la chercher. »
Pour aller plus loin :
Traité de bioéthique (4 tomes), coord. E. Hirsch, éditions Érès
E. Hirsch, Après la bioéthique, éditions du Cerf, à paraître en mai 2026.
Emmanuel Hirsch ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.02.2026 à 14:41
Marion Bied, Docteure en biologie, Université Côte d’Azur
Guillaume Sandoz, Directeur de Recherche, Université Côte d’Azur
Allumer la lumière pour éteindre la douleur. Ce slogan résume bien notre découverte : une simple lumière dans l’UV-A supprime la douleur chez les rongeurs, sans aucun médicament et de manière plus efficace et durable que l’ibuprofène. Cette méthode, que nous avons appelée Light-Induced Analgesia, récemment publiée dans Nature Communications, le 26 janvier 2026, pourrait améliorer le bien-être animal et bouleverser les pratiques vétérinaires dans le cadre de l’expérimentation animale, mais aussi lors de la prise en charge des nouveaux animaux de compagnie, comme les hamsters, les chinchillas et même les tortues ou les boas.
Comme Pasteur l’a dit, « le hasard ne favorise que les esprits préparés ». Effectivement, toute notre étude repose sur une observation inattendue que nous avons faite lors d’une expérience témoin : une protéine appelée TRAAK s’active (en d’autres mots, elle se met en marche), lorsqu’elle est éclairée avec de la lumière UV-A.
Aussi fortuite qu’elle puisse paraître, cette observation nous a souri puisque l’activité principale de notre laboratoire porte sur TRAAK et les protéines qui lui sont proches.
TRAAK est une protéine présente dans les récepteurs de la douleur et freine la transmission des messages douloureux vers le cerveau quand elle est dans son état actif. D’où notre idée : activer ces protéines des récepteurs de la douleur présents dans la peau avec de la lumière et ainsi inhiber les récepteurs de la douleur. Cela empêcherait alors les messages nerveux d’atteindre le cerveau, et induirait donc une analgésie.
Pour vérifier cela, nous avons illuminé les pattes de souris et avons testé leur sensibilité mécanique en déterminant la pression à appliquer pour déclencher leur réflexe de retrait de la patte. Cette procédure, couramment utilisée en expérimentation animale et humaine n’induit aucune douleur chez la souris puisque le réflexe est déclenché physiologiquement avant que la souris ne ressente la douleur. Nous avons ainsi pu montrer que, après le traitement à la lumière, il faut trois fois plus de force pour induire le retrait, ce qui veut dire que les pattes des souris deviennent trois fois moins sensibles, que ce soit sur des souris saines ou soumises à une douleur chronique pour une durée allant jusqu’à six heures. Nous avons même démontré que cet effet est plus efficace et durable que les antidouleurs utilisés couramment, comme l’ibuprofène ou la crème anesthésiante Emla (souvent utilisée lors de la vaccination).
Ce nouveau traitement est non invasif, peu coûteux et simple à mettre en place. De plus, l’analgésie induite par la lumière (LIA) ne requiert aucune injection ni traitement médicamenteux et permet de s’affranchir de tout effet secondaire ou d’interaction médicamenteuse. Ce dernier point en fait une véritable aubaine en expérimentation animale, en proposant une solution pour soulager la douleur sans avoir de répercussion sur les conclusions des expériences.
En effet, dans le cadre des expériences précliniques sur rongeurs, bien contrôler la douleur est essentiel, à la fois pour le bien-être des animaux et pour la fiabilité des résultats scientifiques. Une douleur mal prise en charge peut en effet modifier le fonctionnement de l’organisme et fausser les observations et conclusions de l’étude. Les solutions actuelles pour soulager la douleur reposent essentiellement sur des médicaments qui sont efficaces mais susceptibles d’induire des effets secondaires pouvant modifier les paramètres biologiques étudiés et ainsi fausser les résultats et conclusions de l’étude.
Au-delà du cadre de l’expérimentation animale, la LIA pourra être appliquée aux nouveaux animaux de compagnie pour une analgésie locale, rapide et robuste. Par exemple, un vétérinaire pourrait l’employer pour rendre plus supportable le nettoyage d’un abcès chez les hamsters.
La LIA n’est pas applicable chez l’humain, une unique différence dans la séquence de TRAAK rend la lumière inefficace sur la version humaine de la protéine : la lumière n’aura donc aucun effet antidouleur.
Nous sommes tout de même très excités, car notre étude identifie TRAAK comme une cible prometteuse pour le développement de nouveaux traitements antidouleur, y compris chez l’humain (en l’activant d’une manière différente). Nous allons donc poursuivre nos travaux pour développer des molécules activant TRAAK et proposer une stratégie potentiellement plus efficace et plus ciblée que les antidouleurs disponibles actuellement sur le marché.
Enfin, même si nous avons déterminé le mécanisme moléculaire à l’origine de l’activation de TRAAK par la lumière, une question subsiste : pourquoi certaines espèces possèdent-elles une version activable à la lumière ? Cela joue-t-il un rôle physiologique, par exemple au niveau du rythme nocturne/diurne des espèces ou encore dans la vision ? Nous comptons bien trouver des explications en étudiant quelles espèces possèdent une protéine TRAAK sensible à la lumière et leurs caractéristiques écologiques.
Tout savoir en trois minutes sur des résultats récents de recherches commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.
Marion Bied a reçu des financements de la Fondation pour la Recherche Médicale (FRM).
Guillaume Sandoz a reçu des financements de la Fondation pour la Recherche Médicale, l'Agence Nationale de la Recherche
02.02.2026 à 13:48
Patrice Geoffron, Professeur d'Economie, Université Paris Dauphine – PSL
Donald Trump a fait du slogan « Drill, baby, drill ! » l’étendard de son retour à la Maison-Blanche. L’objectif affiché est de dynamiser la production pétrolière, tout en ramenant le prix de l’essence sous les « deux dollars le gallon » pour soulager un électorat populaire et rural frappé par l’inflation. Mais derrière le slogan, les données du secteur pétrolier compliquent l’équation simpliste du président des États-Unis.
Lors de son investiture, le 20 janvier 2025, Donald Trump avait proclamé : « We will drill, baby, drill ! » (en français : « Fore, chéri, fore ! ») Ce slogan résume la nouvelle orientation de la politique énergétique américaine, exploiter l’« or liquide sous nos pieds » pour conforter les États-Unis parmi les premières puissances exportatrices et faire chuter le prix de l’essence en dessous du seuil symbolique de 2 dollars le gallon (soit 1,69 euro les 3,79 litres) – un niveau atteint épisodiquement au cours des vingt dernières années.
Le message a trouvé un écho dans la partie de l’électorat marquée par la flambée des prix sous la présidence Biden, lorsque l’essence a dépassé 3,50 dollars (2,95 euros) le gallon. Mais ces deux objectifs – maximiser la production et minimiser les prix à la pompe – tirent en sens inverse. Obtenir une essence avoisinant 2 dollars le gallon, requiert un baril en dessous de 50 dollars (42,2 euros), alors que les investissements dans de nouveaux projets requièrent… quelques dizaines de dollars de plus.
À lire aussi : Trump 2.1 : quel bilan économique réel ?
Contrairement aux grands gisements conventionnels du Moyen-Orient, le pétrole de schiste américain est intrinsèquement coûteux à exploiter. Les estimations convergent aujourd’hui vers un coût moyen de l’ordre de 70 dollars (59 euros) par baril pour les nouveaux projets. Ce chiffre masque toutefois une vaste dispersion :
dans les meilleurs sweet spots, certains puits restent rentables autour de 40 dollars (33,7 euros) ;
à l’inverse, les zones moins favorables exigent des prix de 80 à 90 dollars (de 67,5 à 75,9 euros) pour couvrir les investissements et rémunérer le capital.
À mesure que les meilleures zones sont exploitées, la production se déplace vers des gisements plus complexes et plus chers. Plusieurs projections indiquent ainsi que la rentabilité du schiste américain pourrait se rapprocher de 95 dollars (plus de 80 euros) le baril d’ici à 2035.
Cette tendance de fond entre en collision avec l’évolution récente des prix. Pour 2026, les grandes banques et l’Agence d’information sur l’énergie américaine (EIA) anticipent un baril orienté à la baisse, autour de 55 dollars (46,4 euros). Dans un tel scénario, une part croissante des projets de schiste devient non rentable.
Un an après son retour au pouvoir, la promesse de Donald Trump de ramener l’essence sous les 2 dollars le gallon apparaît ainsi très éloignée des perspectives offertes par la géologie. En janvier 2025, le prix moyen national s’élevait à 3,15 dollars (2,66 euros) ; fin janvier 2026, il s’établit encore autour de 2,85 dollars (2,40 euros), soit une baisse limitée à 10 %. Et l’EIA ne prévoit même pas de retour durable sous les 3 dollars (2,5 euros) avant au moins 2027.
La nouvelle administration n’a pas ménagé ses efforts pour « libérer » l’offre d’hydrocarbures. Dès son premier jour de mandat, Donald Trump signe un ordre exécutif intitulé « Unleashing American Energy_ », déclarant une « urgence énergétique nationale » afin d’accélérer la délivrance de permis et de lever les moratoires instaurés par Joe Biden sur les forages offshore et les terres fédérales. Des baux pétroliers et gaziers sont également ouverts dans le refuge de l’Arctique et la réserve nationale d’Alaska.
Résultat : les permis de forage augmentent d’environ 55 % en 2025. Mais obtenir un permis ne signifie pas forer. Les compagnies sécurisent des droits pour l’avenir, tout en conservant une grande flexibilité d’investissement : elles ne mettent effectivement les projets en chantier que si les prix anticipés justifient le risque. Et ce n’est pas le cas.
Les signaux en provenance du terrain traduisent la prudence. Le nombre de plateformes de forage actives aux États‑Unis a reculé de 30 % en trois ans. En volume, la production a bien atteint un pic de 13,6 millions de barils par jour en 2025, mais l’EIA anticipe déjà un recul d’environ 100 000 barils en 2026, première baisse depuis 2021, avec une poursuite de la tendance en 2027.
Une enquête conduite par la Réserve fédérale de Dallas montre que la grande majorité des pétroliers jugent que les allégements réglementaires ne réduisent leurs coûts que de moins de 2 dollars par baril. Loin de compenser l’épuisement progressif des meilleurs gisements et les hausses de coûts liées à la politique tarifaire.
Si le pétrole brut importé est exempt de droits de douane, les équipements et matériaux nécessaires à la production domestique – notamment l’acier et ses dérivés – sont frappés de tarifs pouvant atteindre 25 à 50 %. Certaines estimations font état d’une hausse d’environ 5 % des coûts de production en 2025, sous cette impulsion.
Face à cette pression, l’industrie mise sur le numérique, l’intelligence artificielle et les drones pour optimiser la localisation des puits, réduire les délais de développement et augmenter la productivité. Ces innovations permettent effectivement de contenir la hausse des coûts : sans elles, le seuil de rentabilité moyen des nouveaux projets se situerait probablement déjà autour de 80 dollars (67,5 euros) par baril, contre environ 70 dollars (59 euros) aujourd’hui.
Mais, même avec ces gains d’efficacité, l’arithmétique reste implacable : avec des perspectives de prix à moyen terme autour de 55–60 dollars (entre 46 et 50,6 euros), le secteur hésite à lancer un nouveau cycle massif d’investissements dans le schiste. Les investisseurs exigent une gestion rigoureuse des risques, des dividendes et des rachats d’actions plutôt qu’une expansion aventureuse dans ce contexte.
La tension entre volonté politique de prix bas à la pompe et nécessité économique de prix élevés pour rentabiliser le schiste ne se limite pas aux États‑Unis. Elle compliquera également la relance d’autres producteurs à coûts élevés, comme le Venezuela, dont une partie des réserves ne deviendrait rentable qu’avec un baril proche de 100 dollars (84,3 dollars).
À l’échelle mondiale, le tableau à court terme semble favorable aux consommateurs. L’Agence internationale de l’énergie (AIE) anticipe un surplus d’au moins 2 millions de barils par jour en 2026. Cet excédent s’explique par une hausse de la production hors OPEP+ (notamment au Brésil, en Guyana, au Canada ou en Argentine) et une croissance modérée de la demande mondiale (+ 0,9 million de barils par jour seulement), sous l’effet des incertitudes macroéconomiques et des premiers progrès tangibles de la décarbonation, en particulier en Chine dans les transports.
Sous la pression de Washington, l’Arabie saoudite a renoncé à défendre un prix du baril autour de 80 dollars (67,5 euros), pourtant nécessaire à ses équilibres budgétaires, pour éviter de froisser son allié américain. Ce deal implicite – sécurité militaire garantie face à l’Iran en échange de prix relativement bas – structure aujourd’hui une partie du jeu pétrolier mondial. Il permet à court terme de contenir les prix à la pompe pour l’électeur états-uniens, mais il fragilise les producteurs à coûts élevés, au premier rang desquels les producteurs de schiste des États‑Unis. Plusieurs majors, comme Chevron, ExxonMobil ou ConocoPhillips, ont déjà procédé à des milliers de suppressions d’emplois en 2025.
À plus long terme, la perspective est celle d’un sous‑investissement significatif. Les champs pétroliers conventionnels déclinent naturellement à un rythme de 4 à 7 % par an selon leur maturité, au niveau mondial. Autrement dit, l’industrie pétrolière « perd » mécaniquement 4 à 5 millions de barils par jour chaque année du fait de la déplétion géologique. Si les investissements restent déprimés au-delà de 2028, le marché pourrait basculer d’un excédent à un déficit d’offre, avec à la clé un rebond des prix au tournant de la prochaine décennie, selon l’Agence internationale de l’énergie.
Le paradoxe fondamental de la séquence actuelle est le suivant : en cherchant à soutenir la production pétrolière américaine par la déréglementation, tout en pesant sur l’OPEP+ pour maintenir des prix bas à la pompe, l’administration Trump affaiblit à moyen terme la rentabilité du schiste et accroît un climat d’incertitude pour l’ensemble de l’industrie pétrolière mondiale.
Ces orientations de politique énergétique sont au cœur de la stratégie de croissance de la Maison‑Blanche. Mais en fragmentant les chaînes de valeur, en renchérissant certains intrants par les tarifs douaniers et en décourageant les investissements de long terme dans l’exploration‑production, elle contribue à une dynamique court-termiste qui mine la stabilité du marché et les espoirs de croissance.
Pour la transition climatique, ce désordre a un double visage. À très court terme, des prix bas de l’essence peuvent freiner les changements de comportements et diluer les signaux incitatifs. Mais, en comprimant les marges des producteurs à coûts élevés et en accroissant le risque de volatilité future, cette politique pourrait accélérer, par contraste, la prise de conscience de la vulnérabilité des économies aux chocs pétroliers.
De ce point de vue, si l’Europe veut réduire sa dépendance à ces aléas, le Green Deal ne peut pas être une variable d’ajustement au gré des cycles du baril et doit rester le cap structurant de la décennie, parce que l’« âge d’or noir » promis par Donald Trump est un mirage et une source majeure d’instabilité.
Patrice Geoffron est membre fondateur de l'Alliance pour la Décarbonation de la Route. Il siège dans différents conseils scientifiques: CEA, CRE, Engie.
02.02.2026 à 11:50
Caroline Nourry, Directrice générale, The Conversation

Auditions parlementaires, consultations par des organismes publics, connexions avec la société civile, conférences… En 2025, nos articles ont eu des répercussions bien concrètes sur le débat public et sur la société. L’audience ne fait pas tout : à quel degré se mesure l’impact de nos publications ?
La crise de confiance dans l’information est désormais un constat largement partagé. Mais à force d’être invoquée, elle finit parfois par masquer l’essentiel : ce qui est en jeu n’est pas tant la défiance que la difficulté croissante à identifier ce qui fait autorité ou non. Dans un paysage informationnel polarisé, menacé par des logiques algorithmiques et par l’essor de l’intelligence artificielle, la question n’est plus seulement de produire de l’information fiable, mais également de comprendre en quoi cette information est réellement utile.
C’est dans ce contexte que la notion d’impact s’impose. Or le définir, le mesurer, le rendre visible suppose des choix : que considère-t-on comme significatif ? Réduire l’impact à des indicateurs de visibilité ou à des effets immédiats revient à ignorer une grande partie de ce que l’information produit à moyen et long terme : des cadres de compréhension, des références communes et des débats éclairés.
Le positionnement de The Conversation France s’inscrit précisément dans cette tension. En faisant le choix d’une information produite avec des enseignants-chercheurs, et adressée à un public le plus large possible, notre média occupe une place singulière dans l’écosystème informationnel. Ce positionnement exigeant ne vise ni la réaction immédiate ni la prise de position partisane, mais la mise à disposition d’une expertise contextualisée, capable de nourrir durablement la compréhension du monde.
Nous défendons une conception de l’impact liée à la transmission des connaissances, à la qualité du débat public et à la responsabilité des médias dans un environnement informationnel saturé. Cette deuxième édition de notre rapport d’impact marque donc une étape importante pour mieux comprendre et assumer ce que produire de l’information veut dire aujourd’hui.
Bonne lecture,
Caroline Nourry, directrice générale
02.02.2026 à 11:29
Juliette Passebois-Ducros, Professeure des Universités, IAE de Bordeaux, IAE Bordeaux
Christelle ROBERT, Professeure de psychologie cognitive, Université de Bordeaux
Florence Euzéby, Maitresse de conférences en sciences de gestion, IAE La Rochelle
Michael Flacandji, Maître de conférences en marketing, IAE Bordeaux
Stéphanie Mathey, Professeure de psychologie cognitive, Université de Bordeaux
Les recommandations des influenceurs peuvent être, dans certaines conditions, assimilées à de la publicité. Pour y remédier, la loi a créé de nouvelles obligations pour mieux informer les consommateurs. Dans quelle mesure ces nouveaux outils sont-ils efficaces ?
La loi « Influence » votée en 2023 clarifie les obligations des influenceurs français quant aux mentions à utiliser lorsque leurs contenus relèvent d’une collaboration commerciale.
L’objectif est clair : mieux informer les internautes et rétablir la confiance. Toutefois, les effets de ces mentions sur les réactions des individus restent peu documentés. Sont-elles réellement efficaces pour alerter les internautes ? Certains termes sont-ils plus efficaces que d’autres ?
Les publications d’influenceurs constituent une forme de publicité native. Elles adoptent les codes, le ton et les formats propres aux plates-formes sociales, ce qui brouille les repères entre contenu personnel et communication commerciale. Pour y remédier, les plates-formes et les régulateurs prévoient d’apposer des mentions explicites signalant la nature publicitaire du contenu.
À lire aussi : Les influenceurs littéraires, nouveaux gourous du livre
Cette information peut être librement formulée dans la légende d’une publication (avec, par exemple, des mentions comme « publicité », « sponsorisé », « produit offert ») ou prendre la forme d’une mention normalisée définie par la plate-forme (du type « collaboration commerciale avec » sur Instagram ou « contenu sponsorisé » sur YouTube). La présence de ces mentions est censée permettre aux internautes de comprendre qu’ils sont exposés à un message visant à les influencer, généralement à les faire acheter un produit. D’un point de vue théorique, ce mécanisme a été mis en évidence dans le modèle de persuasion de la connaissance publicitaire (Persuasion Knowledge Model). Il indique que lorsque l’individu comprend qu’il est exposé à un message publicitaire, il peut mobiliser sa « connaissance de la persuasion » et adopter alors une posture critique vis-à-vis du message. Les mentions facilitent l’activation de cette connaissance de la persuasion.
De nombreuses études ont été menées pour étudier l’impact des mentions sur les réactions des internautes mais les résultats sont contradictoires. Si certaines études suggèrent que la présence d’une mention favorise l’éveil des mécanismes de défense des consommateurs, d’autres, au contraire, ne démontrent aucun effet, voire un effet inverse. Deux effets parallèles ont été mis en évidence.
Le premier, appelé « effet de conscience », indique que les mentions activent la connaissance de la persuasion et le scepticisme publicitaire. Conscients de la nature commerciale du contenu, les internautes s’en méfient, accordent moins de crédibilité à l’influenceur et ont des attitudes moins favorables vis-à-vis des produits et des marques. Inversement, la présence de mentions peut envoyer un « signal » aux internautes sur la transparence, la sincérité et l’honnêteté de l’influenceur. On parle alors d’« effet de transparence ».
Autrement dit, ces mentions amènent le public à porter un regard plus favorable sur les influenceurs mais aussi sur les produits et des marques qu’ils mettent en avant). Cao et Belo (2024) démontrent par exemple que la présence d’une mention conduit à une augmentation de 34 % de l’engagement des internautes vis-à-vis des publications d’influenceurs.
Une méta-analyse réalisée par Liu et Zhao (2025) conclut à l’existence de trois résultats. Premièrement, la mention aide l’internaute à comprendre qu’il s’agit d’une recommandation commerciale. Deuxièmement, la présence d’une mention diminue la confiance accordée à l’influenceur et au message. Enfin, la mention n’affecte pas les intentions d’achat des produits recommandés.
Malgré cette diminution de la crédibilité, l’effet global de la divulgation sur l’attitude et les intentions comportementales reste insignifiant, suggérant que l’effet positif de la divulgation puisse contre-balancer son impact négatif. En somme, la présence d’une mention ne diminuerait pas les performances du marketing d’influence.
La France a choisi de clarifier le langage de la divulgation et précise dans l’ordonnance de 2024 d’utiliser des termes simples, lisibles et uniformisés : « publicité » ou « collaboration commerciale ». Cette précision est loin d’être anodine. Avant la loi, les formulations utilisées par les créateurs étaient soit absentes soit extrêmement variables allant de « partenariat » à « collab » (abréviation de collaboration) ou encore « merci pour l’invitation », en passant par des tournures très évasives comme « ad » (pour advertising) ou « sp » (pour sponsorisé).
Dans une première étude, menée en France en 2024, nous analysons les pratiques de divulgation de 40 influenceurs français (20 macroinfluenceurs et 20 micro, méso ou nano-influenceurs). À partir de l’analyse de 496 publications d’influenceurs français mentionnant une marque, nous montrons que cette normalisation commence à porter ses fruits. En effet, plus d’une publication sur deux (61 %) utilise désormais le terme « collaboration commerciale » (et ses dérivés), et 14 % la mention « publicité » (et ses dérivés).
Nous notons également que certains influenceurs vont même plus loin en précisant la nature du partenariat : « rémunéré », « non rémunéré », « produits offerts », « invitation ». Cette tendance traduit un effort d’ajustement aux attentes réglementaires et un souci croissant de transparence vis-à-vis du public.
Mais ces mots ne produisent pas les mêmes effets. Notre deuxième étude, conduite auprès de 169 internautes exposés à une publication sponsorisée sur Instagram, vise à comprendre comment les consommateurs interprètent les deux mentions les plus fréquentes : « collaboration commerciale » et « publicité ».
Les résultats sont éclairants. Le terme « collaboration commerciale » est mieux mémorisé (93 % des participants s’en souviennent contre 52 % pour « publicité ») et davantage associé à l’idée d’un partenariat entre la marque et l’influenceur. À l’inverse, le mot « publicité » évoque surtout la mise en avant d’un produit, mais sans nécessairement que l’internaute perçoive la relation contractuelle entre les deux acteurs.
Autrement dit, la mention « collaboration commerciale » semble plus pédagogique : elle aide le public à identifier le lien économique en jeu et facilite la mémorisation du caractère commercial.
Ces résultats suggèrent que la loi française, en fixant un vocabulaire précis, a contribué à créer une familiarité linguistique bénéfique. Plus les internautes rencontrent souvent un même terme, plus ils sont capables de reconnaître le caractère commercial du message qui l’accompagne.
Cette transparence facilite la distinction entre contenu spontané et promotionnel, sans pour autant nuire aux performances du marketing d’influence, puisque les intentions d’achat ne baissent pas significativement, même lorsque la nature publicitaire du message est reconnue.
En d’autres termes, la transparence ne détruit pas la persuasion ; elle la transforme. Le succès d’un message repose désormais sur la crédibilité de l’influenceur, plutôt que sur la dissimulation de ses liens avec les marques.
Cette évolution témoigne d’un changement de paradigme. Si la divulgation a été considérée par les influenceurs comme un simple moyen de se prémunir contre les critiques ou les sanctions ; elle peut devenir, dans ce nouveau contexte, un véritable outil relationnel, voire un marqueur d’authenticité. Un influenceur qui affiche clairement une collaboration peut être perçu comme plus honnête, donc plus digne de confiance. C’est sans doute là le paradoxe le plus intéressant du marketing d’influence contemporain : à mesure que les régulateurs imposent la transparence, celle-ci devient elle-même un levier de persuasion.
Juliette Passebois-Ducros a reçu des financements du département Ecor de l'Université de Bordeaux
ROBERT Christelle a reçu des financements du Département ECOr de l'Université de Bordeaux
Michael Flacandji a reçu des financements du département ECOr de l'Université de Bordeaux.
Stéphanie Mathey a reçu des financements du Département ECOr de l'Université de Bordeaux
Florence Euzéby ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.02.2026 à 11:29
Sébastien Le Gall, Professeur des Universités en Stratégie et Management, Université Bretagne Sud (UBS)

En temps de crise, de guerre ou de pandémie, les entreprises n’ont d’autres choix que d’apprendre à danser dans un chaos permanent en s’adaptant. C’est le principe du « chaos management ». Pour autant, en 2025, des entrepreneurs, comme Elon Musk ou Mark Zukerbeg, le galvaudent avec une montée de l’autoritarisme et des licenciements massifs. Une préfiguration d’un nouveau « KO management » ?
Le chaos management a été popularisé par le consultant en management Tom Peters en 1988. Le constat énoncé par l’auteur pour en justifier la pertinence garde toute son actualité. « Plus rien n’est prévisible. Il est impossible de prévoir d’un jour à l’autre le prix de l’énergie […] de savoir si le protectionnisme entraînera la fermeture des frontières. »
Le chaos a un homophone qui nécessite de préciser son sens quand on l’applique au management. « Les leaders créent le chaos sur les lieux de travail » titre le journal Forbes en 2025. Le chaos management peut alors s’apparenter à un « KO (knock-out) management » : licenciements massifs avec une communication agressive, pression maximale et autoritarisme.
Les nouvelles tendances du chaos management seraient-elles désormais marquées par le culte du chef, la violence des propos et des actes des leaders, une forme de KO pour les collectifs ?
Cet article vise à analyser les principes du chaos management tels que présentés par Tom Peters. Nous avons étudié le cas de l’entreprise bretonne Socomore pour rendre compte de ce qui la distingue du « KO management » en revenant aux fondamentaux du management, à savoir la nécessité d’interroger les valeurs.
Dans les années 1990, des chercheurs en management, comme Margaret Wheatkey, Ralph Stacey ou Kevin Dooley, se sont inspirés des enseignements de la théorie du chaos en reconnaissant les caractères chaotiques, incertains, dynamiques des entreprises et de leur environnement.
Le consultant Tom Peters a largement contribué à diffuser une pensée managériale « chaotique », fondée sur le changement permanent et l’adaptation. Les principes managériaux énoncés pour y faire face sont les suivants :
une réponse obsessionnelle aux besoins et attentes des clients,
une innovation constante dans tous les domaines de l’entreprise,
un esprit de partenariat entre tous pour gagner une totale adhésion aux objectifs,
chez les dirigeants, une passion du changement (au lieu d’un rejet acharné) et une capacité à rallier les individus autour d’une vision inspiratrice,
des tableaux de bord simples mais capables d’assurer un pilotage efficace.
« Le principe même du chaos, c’est d’arriver à déclencher des actions qui permettent à tout système de ne jamais s’arrêter. Le but du jeu, c’est que la bille roule tout le temps. Dès que tu sens que la bille va perdre de la vitesse, tu organises quelque chose qui va permettre de maintenir le mouvement. »
Selon Frédéric Lescure, président de Socomore, une entreprise spécialisée dans la chimie, le chaos n’est pas funeste pour l’entreprise, mais bénéfique. Les données l’attestent. En vingt-cinq ans, le chiffre d’affaires de l’entreprise bretonne a été multiplié par plus de 20. Parmi les facteurs clés de succès : l’innovation.
Chaque pilier recensé par Tom Peters apparaît dans le projet stratégique et les pratiques managériales de Socomore. L’impératif d’innovation passe par la « capacité à être perçue par nos partenaires, nos clients, comme étant fiables pour qu’eux-mêmes optimisent leur impact carbone », rappelle Frédéric Lescure. Le partage est défendu comme un principe clé de la création de valeur : « On a accouché, dans le bonheur, de notre cinquième plan stratégique. Les gens qui sont présents, ce n’est pas que du hiérarchique, c’est du transversal, des experts. »
Laurent Sanchez, secrétaire général du groupe Socomore, souligne le rôle essentiel de Frédéric Lescure dans la croissance de Socomore : « L’ambition no limit d'un homme. Tout est possible, sans altérer son intégrité physique, physiologique et psychlologique. » Et conformément aux recommandations de Tom Peters, le pilotage repose sur des indicateurs clés. « Les KPI que l’on doit se choisir doivent être des indicateurs simples. Des indicateurs qui mettent plus d’une demi-heure à être calculés, on ne les choisira pas », précise Frédéric Lescure.
Au sein de Socomore, le chaos management est essentiellement du ressort du président qui porte une attention « à ne jamais être là où on (l’)attend ». Cette pratique managériale peut être mal comprise et apparaître touchy.
La rupture actuelle du point de vue du management vient du fait que le chaos peut mettre à mal les collaborateurs. Il émane moins de l’environnement de l’entreprise que des dirigeants qui provoquent des perturbations pour servir des objectifs stratégiques principalement financiers et asseoir leur pouvoir. Selon le chercheur Laurent Taskin, ces logiques sont à la source d’un management déshumanisé qui implique « une dégradation importante de l’exercice même du travail, l’affaiblissement des liens sociaux entre collègues, la perte du sens au travail ».
Les provocations d’Elon Musk sont régulières et conduisent aux départs des collaborateurs, par exemple au sein des équipes dirigeantes de X. D’autres prises de position, celles de Mark Zukenberg, président-directeur général de Meta, considérant les vertus de « l’agressivité », ont pu interroger.
À lire aussi : Dérives masculinistes de Zuckerberg et de Musk : le numérique en mâle de virilité ?
Les formes de leadership mobilisées peuvent se révéler « destructives » selon la chercheuse Leïla Lakhdhdar : supervision abusive, leadership tyrannique, leadership intolérable, etc. Être chef ne signifie pas être manager !
À l’extrême, la chercheuse Isabelle Barth a mis en évidence un système, la kakistocratie, où la promotion par l’incompétence est la règle. Si le chaos n’est alors pas une intention managériale du dirigeant, le KO de ses équipes devient en revanche très probable.
Rappelons que le management a une mission essentielle, celle « de faire produire du résultat à collectif » comme l’explique le chercheur Maurice Thévenet. À ce titre, les valeurs incarnées par le dirigeant sont essentielles. « Le chaos management tel que je le pratique, il est plutôt chez Patagonia ou chez Gore. Un des principes fondateurs du chaos, c’est la congruence », précise Frédéric Lescure, le président de Socomore. Ce besoin de leadership congruent apparaît essentiel pour instaurer un climat de confiance.
Cela suppose « d’agir en homme de pensées et penser en homme d’action », indique Laurent Sanchez. Ce leadership s’appuie sur un alignement entre une vision, des valeurs et les pratiques managériales. Si la vision stratégique est basée essentiellement sur la croissance, les valeurs reposent sur le respect et le partage. Et la qualité des pratiques managériales est reconnue. En décembre 2025, Socomore est lauréate du prix QVT de l’Observatoire de la qualité de vie au travail.
Cette capacité à embarquer le collectif a été testée pendant la pandémie de Covid-19 où l’entreprise Socomore a basculé en un temps record son organisation vers la production de gel hydroalcoolique. « Le système Socomore est fait de telle façon qu’il a pu répondre à cela. Ce qui a été dur, c’est l’intensité et la coordination, mais elle s’est faite. » Dans des temps désormais plus sereins, Frédéric Lescure perçoit en définitive une condition pour la réussite du chaos management : « Le management par le chaos exige un environnement stable. »
Sébastien Le Gall ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.02.2026 à 11:29
Angélique Chassy, Docteure en Sciences Economiques - EM-Normandie - Business School - Enseignante-Chercheure, EM Normandie
Khaled Saadaoui, Professeur Associé en finance, EM Normandie
Laré Amandine, Professeure Associée en économie sociale et solidaire, EM Normandie

Plus de 186 000 emplois sont menacés dans les structures de l’économie sociale et solidaire (ESS), notamment les associations de loi 1901. Pour affronter ces défis, ces organisations à but non lucratif, ou à lucrativité limitée, doivent trouver de nouvelles sources de revenus. L’enjeu : redéfinir de nouveaux modèles économiques en diversifiant les sources de financement.
L’économie sociale et solidaire (ESS) occupe une place structurante dans le paysage économique français. Selon l’Observatoire national de l’ESS, elle représente 13,7 % des emplois privés et 10 % du produit intérieur brut (PIB) français en 2025.
Afin d’examiner les évolutions de leurs modèles économiques et les enjeux contemporains de performances sociale et territoriale, une journée dédiée à l’ESS a été organisée 26 novembre 2025 à l’EM Normandie.
Les échanges ont mis en évidence deux constats majeurs : le risque d’une dépendance accrue des structures lié au désengagement progressif de l’État, et la nécessité de développer des modèles d’affaires innovants pour assurer leur pérennité.
Deux questions centrales ont émergé : la recherche de viabilité économique risque-t-elle de masquer les atouts de long terme de l’ESS pour l’économie ? Comment penser le modèle économique d’acteurs engagés dans des activités non marchandes et socialement utiles dans un contexte de baisse des subventions ?
Depuis la loi du 31 juillet 2014, dite loi Hamon, l’ESS est définie par des critères spécifiques : un but autre que le seul partage des bénéfices, une gouvernance démocratique et une gestion fondée sur le réinvestissement des excédents et la constitution de réserves impartageables.
Le contexte économique actuel fragilise fortement le secteur. Plus de 186 000 emplois de l’ESS sont aujourd’hui menacés, sous l’effet combiné de la baisse des subventions publiques, de l’inflation durable et de tensions de trésorerie accrues. Parallèlement, les structures sont confrontées à une augmentation de la part des revenus d’activité, liée à la diversification de leurs sources de financement.
Face à la baisse des subventions publiques, les associations renforcent la part de leurs revenus d’activité et cherchent à diversifier leurs sources de financement.
Cette évolution est clairement visible dans les données récentes : entre 2011 et 2020, les financements publics sont passés de 51 % à 48 % des ressources. Elles se basent sur un portage collectif du risque via des mécanismes coopératifs – fonds propres associatifs, financement participatif, adhésion des bénévoles, etc. – pour absorber les chocs économiques ce qui rompt avec l’autonomie économique des entreprises.
À lire aussi : Entre l’État et le monde associatif, une alliance brisée
Cette évolution des pratiques économiques des structures de l’ESS s’inscrit dans un environnement économique plus contraignant, sans pour autant remettre en cause les finalités sociales. En combinant diversification des ressources, recherche de viabilité et prise en compte explicite de leur impact social et territorial, ces organisations déplacent progressivement le débat de la seule maîtrise des coûts vers une interrogation plus large sur la valeur créée pour la société. La question n’est plus seulement « Combien cela coûte-t-il ? », mais bien « Quelle valeur cela crée-t-il ? ».
Dans ces conditions, repenser les modèles d’affaires de l’ESS devient un enjeu central, à la croisée de la viabilité économique, de l’ancrage territorial et de la finalité sociale. Car, loin d’être un modèle marginal, ce secteur offre un cadre d’analyse instructif pour comprendre comment performance économique et utilité sociale peuvent se renforcer plutôt que s’opposer.
L’ESS occupe un espace intermédiaire, là où ni le marché ni l’action publique ne suffisent à répondre durablement aux besoins sociaux. Les activités de l’ESS se caractérisent par une faible rentabilité directe, des publics souvent peu solvables et de fortes externalités positives – cohésion sociale, prévention sanitaire, insertion professionnelle – rarement prises en charge par les entreprises privées, faute de modèles économiques immédiatement viables.
Dans l’entreprise classique, la performance repose sur une logique individuelle de mesurabilité, d’efficience et de comparabilité, héritée de l’industrie. Les pratiques des organisations de l’ESS reposent sur un modèle protéiforme de performance, de plus en plus fondé sur l’associatif entrepreneurial. Par exemple, le modèle économique d’Emmaüs comporte un volet marchand – vente d’objets récupérés – qui permet de financer un volet social consistant en actions de solidarité et d’accompagnement.
Ce modèle performant constitue avant tout un mode d’entreprendre collectif, reposant sur l’implication et le financement des parties prenantes. Il conduit naturellement à des formes de gouvernance démocratique qui se traduisent notamment par le principe « Une personne, une voix », la représentation des usagers, salariés ou bénévoles dans les conseils d’administration, ainsi que par la limitation de la lucrativité individuelle et l’affectation prioritaire des excédents au projet collectif.
Cette logique a permis à l’ESS d’occuper une place structurante dans l’organisation des services sanitaires, sociaux et médico-sociaux, en complément durable de l’action publique dans de nombreux territoires.
Les formes juridiques de l’ESS, comme le statut d’association de loi 1901 ou la société coopérative et participative (SCOP), encadrent statutairement la lucrativité, l’affectation des excédents et la gouvernance multipartite. Elles créent un cadre propice à l’expérimentation de modèles économiques orientés vers l’impact, plutôt que vers la maximisation du profit.
Parmi les initiatives récentes, plusieurs illustrent des innovations sociales combinant impact territorial et modèles économiques hybrides. Dans l’éducation populaire, Synergie Family a créé le tiers‑lieu l’Épopée, mutualisant espaces de coworking, formation et animation culturelle pour favoriser la mixité sociale, financé par des locations, des prestations payantes et des subventions. Le projet Territoires zéro chômeur de longue durée (TZCLD) innove à l’échelle territoriale en créant des emplois durables pour les personnes éloignées du marché du travail, financés par une reconversion des aides sociales non dépensées et des partenariats avec collectivités et entreprises, transformant les coûts sociaux en emplois utiles au territoire. Pour les aidants, l’application AMI accompagne les proches fragiles via un service numérique en abonnement et un partenariat avec des mutuelles alors que Les Bobos à la ferme proposent des séjours de répit et des activités adaptées, financés par tarification, aides publiques et mécénat.
Ces principes ne relèvent pas d’un cadre théorique abstrait : ils se traduisent concrètement dans les pratiques développées par de nombreuses structures de l’ESS.
Extalea développe des prestations administratives et des logiciels de paie générant des revenus, tout en favorisant l’inclusion professionnelle de personnes en situation de handicap. L’association La Recyclette propose la location d’objets de seconde main et des ateliers manuels afin de financer ses actions de solidarité locale. La Fabrique à Yoops conçoit, quant à elle, des « tiny houses » modulables pour l’hébergement d’urgence, cherchant à renforcer la rentabilité de son modèle pour accroître son impact social.
Dans un contexte de raréfaction des financements publics, de crises économiques récurrentes et d’attentes sociétales accrues, la capacité à renouveler les modèles économiques apparaît désormais comme une condition essentielle de la pérennité et de l’impact des organisations de l’ESS. La question n’est peut-être plus seulement de savoir comment soutenir l’ESS, mais ce que l’économie dans son ensemble peut apprendre de ces formes d’innovation sociale.
Laré Amandine a reçu des financements de la Macif, Malakoff Humanis et la Fondation de l'EM Normandie pour l'organisation de la journée ESS du 26 Novembre
Angélique Chassy et Khaled Saadaoui ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
02.02.2026 à 11:29
Victor Piganiol, Docteur en géographie du tourisme, rattaché au laboratoire UMR PASSAGES 5319 CNRS | enseignant d'histoire-géographie (Bordeaux), Centre national de la recherche scientifique (CNRS)
En 2025, deux entreprises leaders de la réservation en ligne d’hébergement touristique ont produit des films publicitaires. Si l’objectif est de faire vendre, les deux marques ont révélé leurs conceptions du voyage et de la façon dont elles entendaient les faciliter. Valorisation de l’expérience singulière pour l’un, puissance du choix pour l’autre. Où il est vérifié que la concurrence est aussi une bataille de récits. Et vous, quel est le vôtre ?
À quelques mois d’intervalle, Airbnb et Booking, deux mastodontes de l’hébergement touristique, ont lancé des campagnes publicitaires d’envergure. Ces publicités cristallisent deux visions antagonistes du voyage : l’expérience singulière d’un côté, la puissance du choix de l’autre.
Ces deux mini-films de trente secondes chacun constituent un bon observatoire de leurs stratégies, sur fond de régulation accrue et de recomposition du marché hôtelier. Derrière ces récits se joue une rivalité asymétrique, non seulement en termes de résultats financiers, mais surtout de position dans l’écosystème touristique : Airbnb demeure un acteur différencié par l’expérience tandis que Booking s’impose comme une infrastructure centrale de la réservation hôtelière.
Les bénéfices d’Airbnb sont passés de 1,9 milliard de dollars (1,59 milliard d’euros) en 2022 à 3,3 milliards (2,76 milliards d’euros) en 2024 quand Booking est monté de 3,9 milliards (3,27 milliards d’euros) à 7,3 milliards de dollars (6,12 milliards d’euros). En septembre 2025, la valorisation boursière d’Airbnb atteignait 75,6 milliards de dollars contre 176,9 pour Booking.
Airbnb critique le tourisme de masse et propose de « vivre » un lieu plutôt que de le visiter : l’hébergement devient un passeport vers une expérience personnelle avec une promesse de transformation. Booking, à l’inverse, met en avant l’exhaustivité de son catalogue et la sécurité de l’annulation gratuite, faisant de l’hébergement un élément d’un récit associant choix et flexibilité. La plateforme se représente comme le guichet unique, à même de répondre à tous les types de préférences, du séjour familial au départ improvisé.
À lire aussi : Les Jésuites, ou l’histoire mouvementée d’une congrégation catholique
Si les moyens divergent, les deux plateformes poursuivent le même objectif, si on s’intéresse au client payeur. Il s’agit de gagner la bataille de l’attention. Pour cela, leur communication sature tous les écrans – TV, réseaux sociaux, streaming, affichage – avec des contenus très soignés.
Le film publicitaire La Grande Aventure (voir ci-dessous) date de mai 2025. Airbnb y déroule un abrégé de l’histoire du voyage, du Grand Tour du XVIIIᵉ siècle à une carte onirique mêlant tracés réalistes et territoires imaginaires. Un couple en calèche ouvre la séquence, repris en bateau à vapeur, croisant au crépuscule une créature marine. Le clin d’œil aux récits fantasmés du XIXe siècle est patent. Puis le récit bascule, de l’esthétique, de l’exploration à celle du « surtourisme ». Les protagonistes se retrouvent tassés au fond d’un bus à impériale. Devant un monument, les smartphones se lèvent en cadence. Le dernier tableau révèle un embouteillage au pied de la tour Eiffel, qui devient le symbole d’une surfréquentation devenue une habitude.
Face à cette situation, Airbnb se présente comme une véritable échappatoire, en proposant d’abandonner le « voyage check list » pour retrouver l’expérience authentique, centrée sur l’individu plus que sur le lieu. Le film enchaîne dans ce sens trois microvignettes afin d’incarner la promesse : « Don’t just see a place. Experience it » (en français : « Ne visitez pas un lieu, vivez-le »).
En filigrane, l’hébergement n’est plus qu’un moyen. La finalité réside dans le souvenir transformateur que chaque rencontre gravera chez le voyageur. En exaltant la singularité, l’émotion et la mémoire, Airbnb amplifie son credo initial « Belong anywhere ».
Le spot prend ouvertement le contrepied du tourisme de masse. L’image d’un bus touristico impérial englué au pied d’une tour Eiffel congestionnée illustre ce qu’il faut éviter – finir, comme ce couple captif, par « subir » ses vacances. Le passé est ainsi magnifié à nouveau : après deux siècles d’évolution, Airbnb se place comme un l’aboutissement du voyage séculaire tout en s’en distinguant, proposant sa plateforme comme la solution pour ne pas répéter les travers du surtourisme.
Cette orientation stratégique s’inscrit dans un contexte tendu : en France, son deuxième marché mondial, la loi Le Meur (2024) encadre plus strictement la location de courte durée, et l’administration fiscale cible les usages intensifs des plateformes. En parallèle, Airbnb annonce vouloir développer son offre hôtelière, en relançant l’application de réservation d’hôtels HotelTonight, achetée avant la pandémie, en 2019.
Dans le Big Game Ad(voir ci-dessous), une publicité de janvier 2025, Booking adopte le format d’un show télévisé où acteurs et Muppets enchaînent, au rythme d’une sitcom, des scènes d’hébergement : boutique-hôtel feutrée, resort avec parc aquatique, fête à Las Vegas. Chaque rotation de plateau martèle l’argument de la publicité : « Tout désir peut être comblé. » La voix off répète « Free cancellation », véritable soupape cognitive qui abaisse le risque perçu.
Le ton utilitaire et ludique constitue un moyen d’unifier la pop culture et la promesse de trouver – et d’annuler – sans effort. Rien n’est extravagant, humains et marionnettes rendent la proposition universelle, présentant aussi bien un couple branché qu’un clan familial plus traditionnel. La marque se pose en guichet unique et fait de la réversibilité (annulation gratuite) le leitmotiv qui autorise l’impulsion. Dans cette publicité, Booking théâtralise l’exhaustivité : un site, d’innombrables possibles, sécurisés par la flexibilité.
Cette logique d’exhaustivité renforce la domination de Booking sur l’hôtellerie européenne – au prix d’une contestation croissante. En août 2025, plus de 10 000 hôteliers européens ont dénoncé ses clauses tarifaires restrictives, tandis que la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) en France l’a épinglée pour « pratiques restrictives de concurrence ».
Airbnb magnifie l’expérience singulière, quand Booking célèbre la liberté de choisir – et de changer d’avis. Chez Airbnb, l’hébergement n’est qu’un moyen d’accès à l’« aventure », de vendre du sentiment,de se démarquer du tourisme de masse, et, in fine, de viser une transformation du voyageur. Booking adopte l’approche inverse : rassurer, simplifier, centraliser pour rester la porte d’entrée numéro 1.
À lire aussi : Un tourisme durable est-il possible ?
Deux récits coexistent donc dans un même segment : l’expérience intégrale (Airbnb) vs l’exhaustivité (Booking). Cette tension entre l’émotion et la rationalité structure la différenciation : valeur expérientielle chez Airbnb, valeur fonctionnelle chez Booking.
Au plan sémiotique, Airbnb réenchante le passé et critique le voyage standardisé tandis que Booking légitime toutes les préférences grâce à la plasticité de sa plateforme. Deux visions irréductibles : l’une promet la métamorphose émotionnelle, l’autre la quiétude d’un choix illimité.
Cette rivalité ne se limite pas au terrain symbolique. Airbnb vise désormais le marché hôtelier, jusqu’ici le bastion de Booking. Cette convergence accentue la compétition. La plateforme des locations veut séduire les hôteliers indépendants, souvent critiques face aux commissions de Booking.
À l’inverse, Booking élargit ses services avec une stratégie de « voyage connecté », intégrant vols, taxis et activités. Derrière cette guerre commerciale se joue une redéfinition du voyage. Sera-t-il demain un récit intime, inscrit dans la mémoire de l’individu, ou un catalogue infini, sécurisé par la flexibilité ?
L’analyse des campagnes 2025 montre que la concurrence entre Airbnb et Booking dépasse le marketing pour révéler deux visions du tourisme contemporain. L’une privilégie l’expérience comme moteur de différenciation, l’autre l’exhaustivité comme promesse de maîtrise. La question reste ouverte : dans un monde où régulation, crise du logement et critiques contre le « surtourisme » imposent de nouvelles contraintes, quel récit saura convaincre durablement voyageurs… et hôteliers ?
Victor Piganiol ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.02.2026 à 13:51
Henry Maher, Lecturer in Politics, Department of Government and International Relations, University of Sydney
Alors que Donald Trump multiplie les attaques contre la Fed, le choix de Kevin Warsh peut être lu comme un signal paradoxal envoyé aux marchés : préserver, malgré tout, la crédibilité de la politique monétaire américaine dans un monde en recomposition.
Après des mois de spéculations, Donald Trump a confirmé qu’il nommerait Kevin Warsh au poste de prochain président de la Réserve fédérale. Cette nomination était très attendue dans le contexte du conflit persistant entre le président américain et la Fed, ainsi que de ses tensions avec l’actuel président de l’institution, Jerome Powell.
L’annonce a provoqué une réaction immédiate sur les marchés, avec un net décrochage de l’or et de l’argent. Après plusieurs mois de records et de valorisations étirées, les prix au comptant de l’or et de l’argent ont chuté respectivement de 9 % et de 28 %. Le marché boursier américain a également reculé, les principaux indices enregistrant tous des pertes modérées.
Mais dans le climat de défiance suscité par les tentatives d’ingérence de Donald Trump à l’égard de la Fed, ce décrochage des marchés peut, ironiquement, se lire comme un premier signal de confiance accordé à Kevin Warsh, semblant valider sa légitimité pour le poste et miser sur son indépendance future.
Pour saisir cette apparente contradiction, il faut la replacer dans le cadre du bras de fer de longue date entre Trump et la Réserve fédérale et prendre en compte le rôle crucial que joue l’indépendance des banques centrales dans l’architecture financière mondiale contemporaine.
L’année écoulée a été marquée par un affrontement sans précédent entre le président états-unien et la Réserve fédérale. Donal Trump avait lui-même nommé l’actuel président de la Fed, Jerome Powell, en 2017. Mais la relation s’est rapidement détériorée lorsque Powell n’a pas abaissé les taux d’intérêt aussi rapidement que Trump l’exigeait. Fidèle à son style outrancier, Donald Trump a depuis traité Powell de « clown » souffrant de « sérieux problèmes mentaux », ajoutant : « J’adorerais le virer ».
Cette guerre de mots a finalement glissé vers le terrain judiciaire. Le Department of Justice a annoncé l’ouverture d’une enquête visant la gouverneure de la Fed Lisa Cook, soupçonnée de fraude liée à d’anciens documents de prêts immobiliers. Puis, le mois dernier, dans une escalade spectaculaire, le ministère de la Justice a ouvert une enquête pénale retentissante contre Jerome Powell, portant sur des soupçons de dépenses excessives lors de la rénovation des bâtiments de la Réserve fédérale.
Les deux séries d’accusations sont largement considérées comme dénuées de fondement. Donald Trump a néanmoins tenté de s’appuyer sur cette enquête pour justifier le limogeage de Lisa Cook. L’affaire est actuellement examinée par la Cour suprême des États-Unis.
Jerome Powell a vivement répliqué à Trump, affirmant que ces menaces judiciaires étaient :
« la conséquence du fait que la Réserve fédérale fixe les taux d’intérêt sur la base de ce que nous estimons, en toute indépendance, être dans l’intérêt général, plutôt qu’en fonction des préférences du président ». Jerome Powell a reçu le soutien de 14 dirigeants de banques centrales à travers le monde, qui ont rappelé que « l’indépendance des banques centrales est un pilier de la stabilité des prix, financière et économique ».
Par le passé, les ingérences présidentielles dans les affaires de la Fed ont été l’un des facteurs majeurs de la crise de stagflation des années 1970. Plus récemment, l’Argentine et la Turquie ont toutes deux traversé de graves crises financières provoquées par des atteintes à l’indépendance de leurs banques centrales.
Kevin Warsh est un ancien banquier et ex-gouverneur de la Réserve fédérale. Il a également exercé les fonctions de conseiller économique auprès de deux présidents américains : George W. Bush et Donald Trump.
Dans un premier temps, le président américain semblait plutôt enclin à choisir l’actuel directeur du National Economic Council, Kevin Hassett. Mais ce dernier était largement perçu comme trop étroitement aligné sur Trump, ce qui a ravivé les craintes d’une remise en cause de l’indépendance de la Fed. Kevin Warsh présente un profil plus indépendant et bénéficie d’une réputation de « faucon » en matière de lutte contre l’inflation.
La Réserve fédérale est chargée de fixer les taux d’intérêt aux États-Unis. Schématiquement, des taux bas peuvent stimuler la croissance économique et l’emploi, mais au risque d’alimenter l’inflation. À l’inverse, des taux élevés permettent de contenir l’inflation, au prix d’un ralentissement de l’activité et d’une hausse du chômage.
Trouver le juste équilibre entre ces objectifs constitue le cœur de la mission de la Réserve fédérale. L’indépendance des banques centrales est cruciale pour que cet arbitrage délicat repose sur les meilleures données disponibles et sur les besoins de long terme de l’économie, plutôt que sur des objectifs politiques à court terme.
On qualifie de « faucon » anti-inflation un banquier central qui donne la priorité à la lutte contre la hausse des prix, par opposition à une « colombe », davantage encline à privilégier la croissance économique et l’emploi.
Lors de son précédent passage à la Réserve fédérale, Kevin Warsh s’est forgé une solide réputation de « faucon » en matière d’inflation. Même au lendemain de la crise financière mondiale de 2008, Warsh se montrait davantage préoccupé par les risques inflationnistes que par la situation de l’emploi.
Au regard des conflits passés entre Donald Trump et Jerome Powell autour de la baisse des taux d’intérêt, le choix de Warsh peut donc, à première vue, surprendre.
Plus récemment toutefois, Kevin Warsh a infléchi sa position, reprenant à son compte les critiques de Trump à l’égard de la Fed et ses appels à des taux d’intérêt plus bas, dans la lignée de tribunes dénonçant le pilotage actuel de l’institution. Reste à savoir si cet alignement perdurera, ou si ses réflexes de faucon reprendront le dessus, au risque de raviver à terme un nouveau conflit avec Trump.
Le décrochage de l’or et de l’argent, ainsi que le repli des marchés boursiers, suggèrent que les investisseurs jugent désormais des baisses de taux moins probables avec Kevin Warsh qu’avec d’autres candidats potentiels.
Les prix de l’or et de l’argent ont tendance à grimper en période d’instabilité ou lorsque les craintes d’inflation s’accentuent.
Les précédents records s’expliquaient par une combinaison de facteurs, parmi lesquels l’instabilité géopolitique, les inquiétudes autour de l’indépendance de la Fed et une dynamique spéculative marquée.
Le fait que l’annonce de la nomination de Warsh ait déclenché une correction sur les métaux précieux indique que les investisseurs anticipent une inflation plus faible et une plus grande stabilité financière. La hausse concomitante du dollar américain vient conforter cette lecture.
Ces dernières semaines ont été rythmées par de nombreux débats sur l’évolution de l’ordre mondial. Le Premier ministre canadien Mark Carney a ainsi récemment acté la fin de l’ordre international fondé sur des règles, appelant à s’affranchir de « l’hégémonie américaine ».
La domination mondiale du dollar américain demeure l’un des fondements centraux de cette puissance économique. Si Donald Trump reste ouvertement méfiant à l’égard de l’indépendance des banques centrales, le choix de Kevin Warsh laisse penser qu’il a conscience de l’enjeu que représente la crédibilité de la monnaie américaine et de la Réserve fédérale.
Rien ne garantit toutefois que cette lucidité suffira à contenir durablement son penchant pour l’ingérence dans la conduite de la politique monétaire.
Henry Maher ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.02.2026 à 10:19
Julien Lafaille, PhD student, Energy Management, GEM
Anne-Lorène Vernay, Associate professor, GEM
Sur les routes européennes, les camions à hydrogène sont de plus en plus nombreux. Le développement de la filière est en effet généreusement subventionné. Mais si l’hydrogène vert est présenté comme une solution idéale de décarbonation du transport lourd routier, ce potentiel est largement exagéré.
Presque tous les secteurs industriels européens ont réussi à diminuer leurs émissions de gaz à effet de serre (GES) depuis 1990. Tous, sauf celui des transports, dont les émissions continuent de grimper, malgré l’objectif de neutralité carbone d’ici à 2050 fixé par la Commission européenne.
Le transport lourd routier, en particulier, est très difficile à décarboner. Pour y parvenir, trois leviers potentiels sont mobilisables : l’innovation technologique (dont les camions à batterie et à hydrogène, avec une pile à combustible à la place d’un moteur diesel), le transfert vers le rail ou le maritime, et une logistique plus efficace.
Ce sont les camions à pile à combustible (CPC) qui nous intéressent ici : leur intérêt réside principalement dans leurs avantages par rapport aux camions à batterie électrique. Ces derniers sont plus lourds, manquent encore d’autonomie et prennent longtemps à recharger.
Il existe deux types de CPC : les camions à hydrogène comprimé, qui ont une autonomie d’environ 400 kilomètres et sont déjà commercialisés, et ceux à hydrogène liquide, dont l’autonomie avoisine les 1000 kilomètres mais qui sont encore en développement. L’hydrogène qui les alimente peut être plus ou moins décarboné en fonction de la source d’énergie utilisée.
Nous considérons ici les CPC alimentés par de l’hydrogène vert, obtenu intégralement grâce à de l’électricité d’origine photovoltaïque et/ou éolienne. Les piles à combustible n’émettant que de la vapeur d’eau, la Commission européenne considère les CPC alimentés à l’hydrogène vert comme étant « zéro émission » et subventionne généreusement le développement des infrastructures nécessaires.
Mais la réalité est plus complexe, et ce choix d’investissement très questionnable.
De quoi est-il ici question ? L’hydrogène vert arrive jusque dans les stations-service à la suite d’une série d’opérations complexes et énergétiquement peu efficaces : électrolyse de l’eau, compression ou liquéfaction, et transport. La pile à combustible reconvertit ensuite dans le camion l’hydrogène en électricité, qui est alors transmise aux roues sous forme d’énergie cinétique.
La production d’hydrogène et son utilisation dans une pile à combustible ne produisent pas de CO2 directement. En revanche, il y a des émissions associées en amont, avec la compression-liquéfaction et le transport, des processus généralement réalisés avec des sources d’énergie carbonées. Ces émissions sont comptabilisées par la Commission européenne, qui considère que l’hydrogène reste vert (ou « renouvelable ») tant qu’il est décarboné à 70 % (ou plus) par rapport à l’hydrogène « gris » (issu du méthane). Dans ce cas, il peut être certifié « renouvelable », et les camions l’utilisant sont considérés « zéro émission ».
C’est la Commission européenne qui fixe ces règles et définit ce qui est qualifié de « renouvelable » et de « zéro émission », à l’aide de textes législatifs sous-tendus par une méthodologie complexe.
Dans cette méthodologie, la Commission européenne affirme notamment que l’électricité provenant de technologies photovoltaïques ou éoliennes est « zéro émission ».
En réalité, le système industriel mondial étant totalement dépendant des énergies fossiles, cette affirmation est fausse. Dans les panneaux solaires comme dans toutes les technologies dites vertes, l’extraction des matériaux nécessaires, les processus de fabrication, leur transport et leur installation impliquent des émissions de gaz à effet de serre considérables.
Qualifier leur production électrique de « zéro émission » peut parfois être une simplification acceptable, mais dans le cas de l’hydrogène vert, il s’agit d’une erreur méthodologique majeure.
En effet, la dette carbone initiale reste associée à la quantité d’énergie utile finale (celle qui fait tourner les roues), même si cette dernière est divisée par quatre environ par rapport à l’énergie en sortie de panneaux solaires ou d’éoliennes. Les émissions, par unité d’énergie utile finale, sont donc multipliées par quatre par rapport à l’énergie électrique initiale. Si l’on fait l’hypothèse que l’éolien et le photovoltaïque sont zéro carbone, on obtient effectivement zéro émissions pour les camions… mais cette hypothèse est fausse. Prendre pour base méthodologique une hypothèse zéro carbone erronée conduit donc à sous-estimer de façon conséquente les émissions associées à l’hydrogène vert.
Un autre problème de la méthodologie européenne est de ne considérer que l’intensité carbone du transport, c’est-à-dire les émissions par tonne-kilomètre (tkm) effectuée, c’est-à-dire au kilomètre pour une tonne de marchandise transportée. Le recours à l’hydrogène vert peut en théorie diminuer considérablement cette intensité, mais la croissance du nombre de tkm prévue en parallèle par la croissance du fret routier pourrait fortement réduire, voire annuler ces gains.
D’un côté, on verdit la tkm, de l’autre, le nombre de tkm augmente. Difficile d’évaluer les émissions totales du fret routier d’ici à 2050 dans ces conditions, mais il est fort probable qu’elles resteront loin du net zéro.
Pour éclaircir le débat, nous avons repris la méthodologie en tenant compte de ces éléments et de la croissance du fret routier anticipée : +50 % d’ici à 2050 par rapport à 2025.
Nous avons considéré ici deux cas de figure : l’une fondée sur de l’hydrogène vert importé du Maroc sous forme liquide, l’autre sur de l’hydrogène vert produit en Europe directement par les stations-service utilisant de l’électricité renouvelable. Les deux étant des voies d’approvisionnement en développement.
Pour résumer, ce qui dépasse la ligne rouge n’est pas aligné avec l’objectif de neutralité carbone européen. Nos résultats mettent en évidence que la méthodologie européenne doit être revue de fond en comble et que les camions à hydrogène vert ne nous aideront pas atteindre la neutralité carbone, et d’autant moins s’ils roulent à l’hydrogène liquide.
Dans ce contexte, les subventions étatiques considérables accordées à la filière sont un gâchis d’argent public et devraient être redirigées vers d’autres leviers plus plausibles : les camions à batterie et à caténaires, le rail, le maritime…
Ces options ont aussi des limites, et nos résultats indiquent que limiter la croissance (voire faire décroître) le secteur du fret routier rendrait sa décarbonation beaucoup plus aisée, quel que soit le levier d’action.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
01.02.2026 à 10:18
Arnaud Leveau, Docteur en science politique, professeur associé au Master Affaires internationales, Université Paris Dauphine – PSL
À l’approche des élections législatives de février 2026, la Thaïlande s’apprête à voter une nouvelle fois dans un cadre démocratique formellement respecté mais politiquement étroit. Derrière le rituel électoral, ce scrutin révèle surtout les limites structurelles d’un système où le changement reste soigneusement borné.
Le 8 février 2026, les Thaïlandais retourneront aux urnes à la suite de la dissolution anticipée du Parlement par le premier ministre sortant Anutin Charnvirakul. Cette décision, motivée par l’impossibilité de consolider une majorité stable et par la menace d’une motion de censure, s’inscrit dans une longue tradition politique nationale : lorsque l’équilibre parlementaire devient trop incertain, la dissolution apparaît comme un moyen de reprendre l’initiative, tout en renvoyant l’arbitrage formel aux électeurs.
La scène est désormais familière. Les campagnes électorales s’ouvrent dans un climat de relative normalité institutionnelle, avec leurs caravanes sillonnant les provinces, leurs promesses économiques diffusées massivement sur les réseaux sociaux et le retour de figures bien connues de la vie politique locale. Pourtant, derrière cette mécanique démocratique bien huilée, persiste une interrogation plus fondamentale : dans quelle mesure le vote peut-il réellement transformer le jeu politique thaïlandais, au-delà du simple renouvellement des équilibres partisans ?
La vie politique thaïlandaise repose sur une compétition partisane bien réelle, contrairement à l’image parfois caricaturale que l’on donne d’elle dans les médias occidentaux. Les élections sont régulières, pluralistes, relativement bien organisées, et la participation demeure élevée. Cependant, cette compétition s’exerce dans un espace strictement délimité, où certaines réformes et certains débats restent structurellement hors de portée.
Trois forces politiques dominent aujourd’hui le paysage. Le camp gouvernemental, emmené par Anutin Charnvirakul et son parti Bhumjaithai, incarne un conservatisme pragmatique. Plus gestionnaire que réformateur, Anutin se présente comme un homme de compromis, capable de maintenir la stabilité dans un environnement politique fragmenté. Sa stratégie repose sur la continuité des politiques publiques, notamment les programmes de soutien à la consommation et aux territoires, et sur une posture de fermeté mesurée sur les dossiers souverains, en particulier les questions frontalières.
Face à lui, le Parti du peuple (People Party), héritier légal du mouvement réformiste Move Forward, dissous par la Cour constitutionnelle en 2024, cristallise les aspirations d’une jeunesse urbaine, connectée et largement acquise aux idéaux d’une démocratie libérale plus transparente. En tête des sondages, très populaire dans les grandes villes et parmi les classes moyennes éduquées, il demeure toutefois structurellement empêché d’accéder au pouvoir. Son renoncement à la réforme de la loi de lèse-majesté, pourtant au cœur de son identité initiale, illustre les lignes rouges que toute force politique doit intégrer pour espérer survivre dans le système.
Le troisième pôle, le Pheu Thai, longtemps dominant, apparaît aujourd’hui affaibli. Historiquement associé au clan Shinawatra, il a bâti sa puissance sur une combinaison de politiques redistributives et de loyautés rurales. Mais cette formule semble désormais épuisée. Les alliances controversées avec des partis proches de l’armée, l’affaiblissement de ses figures historiques et la transformation sociologique de l’électorat ont érodé sa crédibilité. Son déclin symbolise la fin progressive d’un cycle populiste fondé sur la redistribution des rentes étatiques.
Ces équilibres partisans s’inscrivent dans un cadre institutionnel où plusieurs acteurs non élus continuent de peser lourdement sur le jeu politique. L’armée, bien qu’elle n’aspire plus nécessairement à gouverner directement comme par le passé, demeure un acteur central. Elle conserve une influence déterminante sur les questions de sécurité, de budget et de politique étrangère, et se pose en garante ultime de ce qu’elle considère comme les fondements de l’État.
La monarchie, quant à elle, reste le pilier symbolique et politique autour duquel s’organise l’ensemble de l’architecture institutionnelle. Au-delà de son rôle cérémoniel, elle incarne une source de légitimité qui structure profondément les limites du débat public. La loi de lèse-majesté constitue, à cet égard, un marqueur puissant de ce qui peut ou ne peut pas être discuté ouvertement dans l’espace politique.
Enfin, la justice constitutionnelle s’est imposée comme un acteur clé du système. Par ses décisions successives de dissolution de partis et de disqualification de dirigeants élus, elle a démontré sa capacité à arbitrer, voire à redéfinir, les rapports de force politiques. Cette jurisprudence interventionniste contribue à instaurer un climat d’incertitude permanente, où chaque victoire électorale reste conditionnelle, soumise à une validation institutionnelle ultérieure.
L’ensemble de ces mécanismes produit une démocratie fonctionnelle mais conditionnelle : les élections déterminent qui peut gouverner, mais rarement ce qui peut être réformé. Le résultat est une succession de scrutins sans rupture majeure, mais riches d’enseignements sur l’état des relations entre société, partis politiques et institutions.
Le contexte économique renforce ces contraintes politiques. Longtemps considérée comme l’une des économies les plus dynamiques d’Asie du Sud-Est, la Thaïlande affiche désormais une croissance atone, autour de 2 %, nettement inférieure à celle de ses voisins régionaux. La dette des ménages atteint des niveaux préoccupants, limitant la capacité de relance par la consommation, tandis que l’investissement privé peine à repartir.
Le secteur touristique, pilier traditionnel de l’économie nationale, montre également des signes d’essoufflement. Après le rebond post-pandémique, les arrivées de visiteurs internationaux ont marqué le pas, pénalisées par un baht relativement fort, une concurrence régionale accrue et des inquiétudes sécuritaires liées aux tensions frontalières. Les épisodes climatiques extrêmes, notamment les inondations de 2025, ont rappelé la vulnérabilité des infrastructures et renforcé les doutes des investisseurs.
Face à ces défis, les programmes économiques des partis apparaissent largement consensuels et peu différenciés. Tous promettent la transition verte, la numérisation de l’économie et l’innovation technologique. Mais rares sont ceux qui proposent des réformes structurelles ambitieuses, qu’il s’agisse de la remise en cause des oligopoles, de la réforme fiscale ou de la réduction des inégalités régionales. La politique économique thaïlandaise semble ainsi prisonnière d’un conservatisme prudent, qui privilégie la préservation des rentes existantes à la prise de risques politiques.
Les principales dynamiques de transformation se situent peut-être moins dans les partis que dans la société elle-même. La fracture générationnelle est l’un des traits saillants du paysage politique actuel. Une jeunesse urbaine, mondialisée et politisée remet en cause les hiérarchies traditionnelles, réclame davantage de transparence et s’informe massivement via les réseaux sociaux. À l’inverse, une Thaïlande rurale et périurbaine reste attachée à la stabilité, aux hiérarchies locales et aux réseaux clientélistes.
Toutefois, cette opposition binaire tend à s’estomper. Dans les provinces elles-mêmes, les systèmes de patronage traditionnels sont progressivement fragilisés par l’accès à l’éducation, la mobilité sociale et la circulation de l’information. Les grandes familles politiques locales, longtemps dominantes, doivent composer avec une nouvelle génération d’électeurs plus exigeants, moins enclins à voter par habitude ou par loyauté personnelle.
Ces évolutions sont lentes et souvent invisibles à court terme, mais elles s’accumulent. Elles expliquent en partie la résilience de la société civile thaïlandaise, capable de se mobiliser ponctuellement malgré les contraintes institutionnelles et les risques juridiques.
Dans ce contexte, les élections législatives de février 2026 ne devraient pas marquer une rupture politique majeure. Les scénarios possibles sont multiples, mais aucun ne promet de transformation radicale. Une reconduction du camp gouvernemental offrirait une stabilité relative à court terme, sans répondre aux tensions structurelles. Une percée du Parti du Peuple, même significative, se heurterait rapidement aux verrous institutionnels existants. Quant au Pheu Thai, son retour au pouvoir dépendrait de coalitions fragiles, au risque d’accentuer encore la défiance de son électorat.
Ces élections permettront en revanche de mesurer avec précision l’état des forces en présence, l’évolution des attentes sociales et la capacité du système à absorber les frustrations sans basculer dans une nouvelle crise ouverte. Elles constitueront moins un moment de rupture qu’un révélateur des ajustements en cours.
Dans un pays où la politique s’inscrit dans le temps long, chaque scrutin compte moins comme une fin que comme un jalon. La Thaïlande continue d’évoluer à son propre rythme, entre aspirations démocratiques et contraintes institutionnelles, dans une recherche permanente d’équilibre entre autorité, stabilité et souveraineté populaire. Pour l’observateur extérieur, la leçon est peut-être celle de la patience : derrière l’apparente immobilité du système, des transformations lentes mais réelles sont à l’œuvre, appelées à redéfinir, à terme, les contours du jeu politique thaïlandais.
Si les élections thaïlandaises de février 2026 sont avant tout structurées par des dynamiques internes, elles s’inscrivent aussi dans un environnement régional et international de plus en plus contraignant. La Thaïlande n’évolue pas en vase clos : sa trajectoire politique est étroitement liée aux recompositions en cours en Asie du Sud-Est continentale, aux tensions récurrentes avec ses voisins immédiats et aux rivalités stratégiques entre grandes puissances.
La relation avec le Cambodge constitue à cet égard un révélateur. Les tensions frontalières de 2025, ravivées autour de sites patrimoniaux sensibles et de zones frontalières contestées, ont rappelé combien ces différends restent mobilisables à des fins de politique intérieure, des deux côtés de la frontière. À Bangkok, une posture de fermeté face à Phnom Penh peut servir de levier électoral, en particulier dans un contexte de fragmentation politique et de compétition entre partis conservateurs. Sur ce sujet, les partis conservateurs et le Pheu Thai sont sur la même ligne. Le leader du People Party (réformateur) a également soutenu une ligne par rapport au Cambodge recommandant que les avions de combat Gripen, de fabrication suédoise, dont l’armée thaïlandaise dispose, soient utilisés contre les positions cambodgiennes.
Mais ces tensions ont aussi une portée régionale : elles fragilisent les chaînes économiques transfrontalières, accentuent les déplacements de population et mettent en lumière l’incapacité de l’Association des nations de l’Asie du Sud-Est (Asean) à prévenir ou contenir efficacement les crises entre États membres.
Cette relative impuissance de l’Asean ouvre un espace croissant aux puissances extérieures. La Chine y occupe désormais une place centrale. Premier partenaire commercial de la Thaïlande, acteur clé des infrastructures régionales et garant de facto de la stabilité des corridors continentaux reliant le sud de la Chine au golfe de Thaïlande, Pékin dispose de leviers économiques et politiques que ni Washington ni Bruxelles ne peuvent égaler à court terme. Pour Bangkok, le rapprochement avec la Chine relève moins d’un alignement idéologique que d’un pragmatisme stratégique : sécuriser les investissements, maintenir la croissance et s’assurer d’un environnement régional stable.
Les États-Unis, pour leur part, restent un allié militaire historique, mais leur influence apparaît de plus en plus sectorielle. La coopération de défense demeure robuste, notamment à travers les exercices conjoints et les ventes d’équipements, mais elle pèse moins sur les choix économiques et sociétaux du pays. Cette dissociation croissante entre sécurité et prospérité nourrit une diplomatie thaïlandaise d’équilibriste, cherchant à préserver l’alliance américaine tout en approfondissant des liens structurants avec la Chine.
Quant à l’Union européenne, elle occupe en Thaïlande un rôle principalement économique et normatif, articulé essentiellement pour le moment autour de la négociation de l’accord de libre-échange UE–Thaïlande. Son une influence politique et sécuritaire directe reste relativement limitée.
Dans ce contexte, les élections de 2026 auront aussi valeur de signal à l’extérieur. Elles diront jusqu’où la Thaïlande souhaite aller dans sa stratégie de balancement, si elle entend consolider son rôle de pivot en Asie du Sud-Est continentale, ou accepter une dépendance plus marquée à l’égard d’arbitrages venus d’ailleurs. Plus qu’un simple rendez-vous électoral, ce scrutin s’inscrit dans un moment charnière, à l’intersection de dynamiques locales, régionales et globales, qui redessinent progressivement la place du pays dans l’Asie du Sud-Est contemporaine ainsi que dans l’Asean.
Arnaud Leveau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.02.2026 à 10:17
Grégory Bataillou, Ingénieur Recherche en bio-électrochimie, Centrale Lyon
Le traitement des eaux usées est essentiel pour éviter la pollution de l’environnement et ses impacts potentiels sur la santé humaine. Différentes pistes existent pour rendre les stations d’épuration plus efficientes, et donc réduire le prix de l’eau.
En France, le coût du traitement de l’eau (ou « assainissement collectif ») représente 40 % de son prix de vente. Un ménage paie en moyenne 260 euros par an juste pour l’assainissement… dont plus de 35 euros directement imputable à la consommation d’énergie des stations d’épuration.
Au vu de la volatilité du prix de l’énergie, de nouvelles solutions émergent pour réduire drastiquement la consommation énergétique des stations de traitement. Des solutions qui utilisent des bactéries électriques !
Les technologies d’épuration des eaux usées sont connues de longue date et très matures. Leur principe est relativement simple : il s’agit de soustraire (ou mieux, d’éliminer) les polluants de l’eau, du plus gros au plus petit. Dans ces étapes, celle dite d’aération est une étape clef… mais c’est également la principale consommatrice d’énergie !
Le processus commence en général par des grilles et tamis permettant de retirer la fraction solide volumineuse (branches, détritus, cailloux…) présente les eaux usées à l’entrée de la station.
Vient alors l’étape de séparation du sable (grosses particules) qui décante assez facilement au fond du bassin de traitement, et des huiles moins denses que l’eau, récupérées à la surface.
Les particules plus légères sont encore trop nombreuses et trop lentes à décanter au fond du bassin – certaines peuvent mettre des mois à décanter ! Des lamelles insérées en biais permettent de les rapprocher du fond du bassin, et de diminuer ainsi leur temps de décantation. Des produits chimiques sont également ajoutés (floculants) pour agréger les particules entre elles et les rendre plus lourdes. On parle de traitement primaire.
Ensuite, le bassin d’aération constitue le cœur de la station de traitement. Il s’agit tout simplement d’aérer l’eau en permanence pendant un certain temps grâce à des bulleurs au fond du bassin. Cette aération permet à des microorganismes de se développer et de décomposer toute la matière organique encore présente. Sans cette aération, les microorganismes efficaces ne se développent plus, l’eau croupit, et la matière organique se dégrade peu (pensez à l’eau des tourbières, ou simplement celle des flaques d’eau qui ne sont jamais remuées). L’aération est le principal poste de consommation de la station, responsable de 40 à 80 % de l’énergie utilisée. Cette énergie est nécessaire au fonctionnement des pompes et surpresseurs employés pour injecter de l’air en continu dans le bassin. On parle de traitement secondaire.
Dans la plupart des stations d’épuration existantes, à la suite du traitement biologique par aération, l’eau passe de nouveau dans un bassin de décantation (décantation secondaire ou clarificateur) pour faire sédimenter les milliards de bactéries mortes.
Enfin, l’eau est rejetée dans la nature.
Il existe donc un enjeu important dans le monde de l’assainissement : comment limiter la consommation d’énergie liée à l’aération, tout en traitant aussi bien les eaux usées et sans faire exploser les coûts ?
Car si l’aération fonctionne aussi bien, c’est parce qu’elle permet une oxygénation de l’eau, et que les microorganismes qui se développent dans les milieux oxygénés sont très efficaces pour dégrader la matière organique.
En effet, l’oxygène est un élément naturellement oxydant, c’est-à-dire qu’il est avide d’électrons. À l’inverse, la matière organique est riche en électrons du fait de son important nombre de liaisons Carbone. La présence d’oxygène facilite la rupture des liaisons Carbone, les électrons libérés étant transférés vers l’oxygène. Ce transfert est naturellement lent (heureusement, sinon, nous brûlerions instantanément), mais il est accéléré par la présence des bactéries, véritables usines de décomposition). C’est bien ce qui est souhaité dans cette étape : casser les chaînes de carbone jusqu’à obtenir des éléments simples, non assimilables par des bactéries pathogènes en aval dans les cours d’eau.
Si l’on décide de se passer d’aération, l’oxygène devient difficilement accessible, et la dégradation peu efficace. Sauf si on utilise des microorganismes un peu spéciaux.
Par exemple, à Villeurbanne (Rhône), une station d’épuration utilise des microorganismes capables de digérer les boues des stations d’épuration et de fabriquer du méthane, qui est injecté dans le réseau de gaz de ville.
Dans notre groupe de recherche, nous explorons une autre piste : celle des bactéries électriques !
Dès le début des années 2000, les chercheurs ont redécouvert des bactéries « électriques ». Ces bactéries, telles des araignées dans le monde microscopique, ont la capacité de fabriquer des fils de taille nanométrique, qui ont la curieuse propriété d’être conducteurs électriques. Nul besoin d’oxygène en leur sein : il suffit de se connecter à un oxydant externe, qui peut être plus loin. Imaginez-vous être capable de respirer grâce à un fil dont un bout reste exposé à l’air libre, peu importe l’endroit dans lequel vous vous trouvez.
Pour en revenir au traitement de l’eau, voici l’idée : plutôt que d’amener l’oxygène aux bactéries par l’aération, les bactéries électriques présentes dans tout le bassin se connectent à un matériau conducteur présent sur toute la colonne d’eau et s’y développent. Ainsi, les bactéries sont connectées à l’oxygène de la surface. Pour cela, l’eau transite dans des structures en carbone conducteur appelées « biofiltres électro-actifs », sur lesquelles se développent les bactéries électriques. Plus besoin d’aérer : si un chemin électrique existe entre la bactérie et l’air ambiant, elle dégradera presque aussi bien la matière organique l’environnant.
L’avantage est considérable : une fois installé, le système est passif, nécessite un faible entretien, et régénérable à l’infini. Ces systèmes sont déjà proposés à la vente pour les petites stations de traitement, notamment par la start-up espagnole METfilter.
Cerise sur le gâteau : ces bactéries « électriques » existent spontanément dans l’environnement, elles n’ont pas à être artificiellement ajoutées au système et sont sélectionnées naturellement par la présence du matériau carboné.
Si cette piste nous semble prometteuse pour diminuer la facture d’électricité des stations d’épuration, ces bactéries ne dégradent pas tout : résidus de médicaments, PFAS, et autres substances résiduelles dans notre eau traversent encore les stations de traitement, et se retrouvent disséminées dans l’environnement. Les solutions techniques étant encore très énergivores, chaque économie d’énergie sur l’ensemble de la chaîne est un pas vers un traitement plus vertueux de nos eaux usées.
Le projet IRONTECH est soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Grégory Bataillou a travaillé comme Post-Doctorant sur le financement ANR appelé IRONTECH qui vise à utiliser du Fer et des bactéries actives pour dénitrifier les effluents agro-industriels.
01.02.2026 à 10:14
Jay Silverstein, Senior Lecturer in the Department of Chemistry and Forensics, Nottingham Trent University

La chute des Aztèques rappelle qu’un pouvoir fondé sur la force accumule des ennemis plus vite qu’il ne consolide des alliances. Une dynamique ancienne, aux résonances très contemporaines.
En 1520, des émissaires aztèques arrivèrent à Tzintzuntzan, la capitale du royaume tarasque, dans l’actuel État mexicain du Michoacán. Ils apportaient un avertissement de l’empereur aztèque Cuauhtémoc, mettant en garde contre l’arrivée d’étrangers étranges — les Espagnols — qui avaient envahi le territoire et représentaient une grave menace. Les émissaires demandèrent une audience auprès du souverain tarasque, le « Cazonci », le roi Zuanga. Mais Zuanga venait de mourir, très probablement de la variole apportée par les Espagnols.
Les relations entre les deux empires étaient tendues de longue date. Ils s’étaient affrontés sur la frontière occidentale dès 1476, livrant de grandes batailles et fortifiant leurs frontières. Les Tarasques disaient des Aztèques qu'ils étaient fourbes et dangereux — une menace pour leur existence même.
Ainsi, lorsque ces émissaires arrivèrent pour s’adresser à un roi déjà mort, ils furent sacrifiés et n'obtinrent audience avec lui que dans l’au-delà. À cet instant précis, le destin des Aztèques était scellé dans le sang.
L’empire aztèque ne s’est pas effondré faute de moyens. Il s’est écroulé parce qu’il avait accumulé trop d’adversaires, exaspérés par sa domination. C’est un épisode historique auquel le président américain, Donald Trump, devrait prêter attention, alors que sa rupture avec les alliés traditionnels des États-Unis se creuse.
Carl von Clausewitz et d’autres philosophes de la guerre ont exposé la différence entre force et puissance dans la conduite des affaires de l’État. Au sens le plus large, la puissance est un capital idéologique, fondé sur la force militaire et l’influence dans la sphère politique mondiale. À l’inverse, la force désigne l’usage de la puissance militaire pour contraindre d’autres nations à se plier à sa volonté politique.
Alors que la puissance peut se maintenir grâce à une économie solide, des alliances et une influence morale, la force, elle, s’épuise. Elle consomme des ressources et risque d’affaiblir à la fois le capital politique interne et l’influence mondiale qu'a un pays si son usage est perçu comme arrogant ou impérialiste.
L’empire aztèque s’est formé en 1428 sous la forme d’une triple alliance entre les cités-États de Tenochtitlan, Texcoco et Tlacopan, Tenochtitlan finissant par dominer l’ensemble. L’empire exerçait la force par des campagnes militaires saisonnières, tout en l’équilibrant par une dynamique de puissance fondée sur la mise en scène sacrificielle, la menace, le tribut et une culture de supériorité raciale.
Dans son usage à la fois de la force et de la puissance, l’empire aztèque était coercitif et reposait sur la peur pour gouverner. Les populations soumises à l’empire, comme celles engagées dans ce qui semblait être une guerre permanente, nourrissaient une profonde animosité et une forte défiance à l’égard des Aztèques. L’empire s’était ainsi construit sur des peuples conquis et des ennemis attendant la bonne occasion de renverser leurs maîtres.
Hernán Cortés, le conquistador espagnol qui finit par placer de vastes territoires de l’actuel Mexique sous la domination de l’Espagne, sut exploiter cette hostilité. Il noua des alliances avec Tlaxcala et d’autres anciens sujets des Aztèques, renforçant sa petite force espagnole par des milliers de guerriers autochtones.
Cortés mena cette force hispano-autochtone contre les Aztèques et les assiégea à Tenochtitlan. Les Aztèques n’avaient plus qu’un seul espoir : convaincre l’autre grande puissance du Mexique, l’empire tarasque à l’ouest, de s’allier à eux. Leurs premiers émissaires connurent un sort funeste. Ils tentèrent donc à nouveau leur chance.
En 1521, des envoyés aztèques arrivèrent une fois encore à Tzintzuntzan et rencontrèrent cette fois le nouveau seigneur, Tangáxuan II. Ils apportaient des armes en acier capturées à l'ennemi, une arbalète et une armure afin de démontrer la menace militaire à laquelle ils faisaient face.
Le roi tarasque prêta cette fois attention à l’avertissement. Il envoya une mission exploratoire à la frontière afin de déterminer s’il s’agissait d’une ruse aztèque ou de la vérité. À leur arrivée sur la frontière, les émissaires rencontrèrent un groupe de Chichimèques — un peuple de guerriers semi-nomades qui travaillaient souvent pour les empires afin de surveiller les frontières.
Lorsqu’on leur expliqua que la mission se rendait à Tenochtitlan pour évaluer la situation, les Chichimèques répondirent qu’il était trop tard. La ville n’était plus désormais qu’un lieu de mort, et eux-mêmes se rendaient auprès du roi tarasque pour offrir leurs services. Tangáxuan se soumit aux Espagnols l’année suivante en tant que royaume tributaire, avant d’être brûlé vif en 1530 par des Espagnols cherchant à savoir où il avait dissimulé de l’or.
Si les Tarasques avaient entretenu des relations politiques normales avec les Aztèques, ils auraient pu enquêter sur le message des premiers émissaires. On peut imaginer combien l’histoire aurait été différente si, lors du siège de Tenochtitlan, 40 000 guerriers tarasques — réputés bons archers — étaient descendus des montagnes de l’ouest. Il est peu probable que Cortés et son armée aient alors pu l’emporter.
Les échecs de l’empire aztèque ne relevaient ni d’un déficit de courage ni d’une infériorité sur le plan militaire. Lors de leurs combats contre les Espagnols, les Aztèques ont à maintes reprises fait preuve d’adaptabilité, apprenant à affronter les chevaux et les navires armés de canons. L’échec résidait dans une faille fondamentale de la stratégie politique de l’empire — celui-ci reposait sur la coercition et la peur, laissant ainsi en réserve une force prête à contester son autorité au moment où il était le plus vulnérable.
Depuis 2025 et le retour de Trump à la Maison-Blanche pour un second mandat, la politique étrangère américaine s’inscrit dans cette logique. L’administration Trump a récemment mis en avant une puissance coercitive au service d’ambitions mêlant richesse, visibilité et affirmation de l’exceptionnalisme américain ainsi que d’une supériorité affichée.
Cette orientation s’est manifestée par des menaces ou par un recours ponctuel à la force, notamment à travers des droits de douane ou des opérations militaires en Iran, en Syrie, au Nigeria et au Venezuela. Mais cette stratégie est de plus en plus contestée par d’autres États. La Colombie, le Panama, le Mexique ou encore le Canada ont, par exemple, largement fait fi de ces menaces coercitives.
À mesure que Trump utilise la puissance américaine pour revendiquer le Groenland, ses menaces gagnent en faiblesse. Les pays de l’Otan respectent leur pacte de longue date avec détermination économique et militaire, leurs dirigeants affirmant qu’ils ne céderont pas aux pressions de Trump. Les États-Unis se retrouvent ainsi poussés vers une position où ils pourraient devoir passer de la puissance coercitive à la force coercitive.
Si cette trajectoire se poursuit, les engagements militaires, l’hostilité des voisins et les vulnérabilités liées à la montée en puissance d’autres armées, aux perturbations économiques et aux catastrophes environnementales pourraient bien laisser la nation la plus puissante du monde exposée, sans alliés.
Alors que Trump mobilise la puissance américaine pour revendiquer le Groenland, ses menaces apparaissent de moins en moins crédibles. Les États membres de l’Otan respectent leur accord de longue date avec une détermination économique et militaire affirmée, leurs dirigeants déclarant qu’ils ne plieront pas face aux pressions de Trump. Les États-Unis se rapprochent ainsi d’un point où la coercition politique pourrait laisser place à la coercition militaire.
Si cette voie est maintenue, les conflits armés, l’hostilité régionale et les fragilités liées aux capacités accrues d’autres puissances militaires, aux déséquilibres économiques et aux catastrophes environnementales pourraient laisser la première puissance mondiale isolée.
Jay Silverstein a reçu des financements de l'US National Science Foundation (NSF), de la Foundation for the Advancment of Mesoamerican Studies (FAMSI), de de la Penn State Hill Foundation dans le cadre de ses études doctorales.
01.02.2026 à 07:58
Hyounjeong Yoo, Instructor, School of Linguistics and Language Studies, Carleton University

Succès critique et populaire, « KPop Demon Hunters » s’inscrit dans l’essor mondial de la Hallyu, la « vague coréenne ». Le film met en lumière le rôle central des femmes et du folklore coréen dans une culture longtemps reléguée aux marges du récit occidental.
Quand j’étais enfant en Corée du Sud, le Nouvel An commençait souvent par une chanson bien connue : « Kkachi Kkachi Seollal ». Seollal désigne le Nouvel An lunaire, l’une des fêtes familiales les plus importantes en Corée, et kkachi signifie « pie », un oiseau associé à la chance et aux nouveaux départs heureux.
En chantant cette chanson, pensions-nous, nous invitions des visiteurs bienveillants à entrer dans la maison. Pour mes frères et sœurs et moi, ces visiteurs étaient le plus souvent nos grands-parents, et leur arrivée était synonyme de chaleur, de continuité et de sentiment d’appartenance à une même communauté.
Des décennies ont passé,je vis désormais au Canada, loin de mon pays d’origine, et ces visites sont devenues rares. Pourtant, j’ai l’impression que la pie est revenue, cette fois sur un écran vu partout dans le monde.
Le film d’animation de Netflix KPop Demon Hunters suit les aventures d’un groupe fictif de K-pop, Huntrix, dont les membres chassent des démons la nuit. Il vient d’obtenir une nomination aux Oscars, dans les catégories meilleur film d’animation et meilleure chanson originale, après avoir déjà remporté plusieurs Golden Globes.
Le film a été créé par la réalisatrice coréano-canadienne Maggie Kang. La production musicale est assurée par Teddy Park, et les voix sont celles d’acteurs et d’actrices américano-coréens, dont Arden Cho, Ji-young Yoo et Audrey Nuna.
Je m’intéresse à la façon dont KPop Demon Hunters ouvre une nouvelle phase de la Hallyu, la « vague coréenne », où le folklore et le travail musical des femmes se croisent pour bousculer la place longtemps marginale des récits asiatiques dans les médias occidentaux.
L’un des aspects les plus marquants du film est l’usage assumé de symboles coréens. Les chasseuses de démons portent des gat — des chapeaux traditionnels en crin de cheval associés aux lettrés sous la dynastie Joseon — et combattent les esprits maléfiques aux côtés du tigre, longtemps considéré comme un esprit protecteur de la Corée. Ces éléments marquent une prise de position culturelle.
Historiquement, le cinéma et l’animation occidentaux ont souvent cantonné les personnages asiatiques à des stéréotypes ou les ont purement et simplement effacés par des pratiques de whitewashing.
À l’inverse, KPop Demon Hunters place le folklore coréen au cœur de son récit. Le gat évoque la dignité et la discipline ; le tigre incarne la protection et la résilience. Ensemble, ils viennent contester l’idée persistante selon laquelle les productions grand public portées par des personnages asiatiques seraient nécessairement de niche ou de moindre valeur.
En recourant à des références clairement coréennes — comme le style satirique de la peinture minhwa incarné par le tigre Derpy — le film s’ancre fermement dans un contexte coréen bien précis, qui n'a rien à voir avec une esthétique panasiatique vague.
L’un des moments forts du film se trouve dans la séquence d’ouverture. À travers une succession rapide de figures chamaniques, de flappers et d’artistes de l’ère disco, la séquence peut se lire comme un hommage matrilinéaire aux musiciennes coréennes, de génération en génération.
Comme le souligne l’autrice Iris (Yi Youn) Kim, en s’appuyant sur une conférence de la chercheuse en études asiatico-américaines Elaine Andres, cette lignée fait écho à l’histoire bien réelle des Kim Sisters, souvent présentées comme le premier groupe féminin coréen à connaître un succès international. Après la mort de leur père pendant la guerre de Corée, les sœurs furent formées par leur mère, la célèbre chanteuse Lee Nan-young — connue notamment pour la chanson anticoloniale « Tears of Mokpo » — et se produisirent sur les bases militaires américaines pour gagner leur vie.
Les Kim Sisters sont ensuite devenues des habituées de l’émission The Ed Sullivan Show, séduisant le public américain tout en composant avec des attentes racistes qui cantonnaient les femmes asiatiques à des figures jugées accessibles, inoffensives et exotiques.
Le groupe fictif Huntrix s’inscrit dans cet héritage. À l’image des Kim Sisters, ses membres sont censées incarner la discipline, le professionnalisme et la Corée elle-même aux yeux du public.
Le film montre ainsi le groupe face à la discipline rigoureuse qui leur est imposée, contraintes de maintenir une image publique irréprochable tout en étouffant leurs vulnérabilités personnelles afin d’assumer leur double rôle d’idoles et de protectrices. À un niveau méta-narratif, Huntrix est également présenté comme un représentant de la Corée du Sud, à travers l’usage de symboles du folklore du pays comme le gat et le tigre.
En tant qu’« ambassadrices culturelles », à l’écran comme en dehors, les membres de Huntrix ne se contentent pas de divertir : elles assument aussi la charge symbolique de représenter une nation face à un public mondial.
En inscrivant cette filiation dans un film d’animation grand public, KPop Demon Hunters reconnaît que le succès mondial de la K-pop repose sur des décennies de travail, de sacrifices et de négociations menées par des femmes face aux structures de pouvoir occidentales.
Le succès du film s’inscrit dans la poursuite de l’expansion de la Hallyu dans les médias mondiaux. Le cinéma et les séries sud-coréens ont déjà transformé les perceptions à l’international, avec des œuvres majeures comme Parasite et des séries diffusées à l’échelle mondiale comme Squid Game. Netflix s’est en outre engagé publiquement à investir des centaines de millions de dollars dans les contenus coréens, signe que cette dynamique culturelle est structurelle plutôt que passagère.
KPop Demon Hunters montre comment la culture populaire coréenne circule désormais avec fluidité entre différents médias — musique, animation, cinéma et plateformes de streaming — tout en conservant une forte spécificité culturelle. L’accueil du film remet en cause l’idée tenace selon laquelle les récits ancrés dans des expériences asiatiques manqueraient de portée universelle.
La reconnaissance, à elle seule, ne suffit pas à effacer les inégalités, pas plus qu’elle ne démantèle les hiérarchies racialisées à l’œuvre dans les industries médiatiques mondiales. Mais une visibilité durable peut faire la différence. Des travaux montrent qu’une exposition répétée à des représentations multidimensionnelles et humanisées de groupes marginalisés contribue à réduire les biais raciaux, en normalisant la différence plutôt qu’en l’exotisant.
Si le film s’inscrit dans des histoires culturelles marquées par la présence militaire américaine et la politique de la guerre froide, il reconfigure ces héritages à travers un récit diasporique qui place les voix et les points de vue coréens au centre.
La promesse de la pie est enfin tenue. Les personnages coréens ne sont plus de simples « invités » ni des figures secondaires dans l’histoire des autres. Ils sont désormais les protagonistes — tenant l’épée, le micro et, peut-être un jour, un Oscar.
Récemment, je me suis surprise à revoir KPop Demon Hunters en mangeant du gimbap et des nouilles instantanées, les mêmes plats réconfortants que partagent les personnages à l’écran. Le moment était simple, mais chargé de sens.
Il m’a rappelé une remarque faite un jour par l’un de mes étudiants : une exposition de cette ampleur permet à celles et ceux qui se sont longtemps sentis blessés par l’exclusion de se sentir enfin regardés.
Hyounjeong Yoo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.01.2026 à 16:40
Arnaud Alessandrin, Sociologue, Université de Bordeaux
Taylor Swift est aujourd’hui bien plus qu’une star de la pop. Artiste parmi les plus écoutées au monde, elle cristallise des passions, des controverses et des formes d’identification particulièrement intenses. Mais que dit réellement Taylor Swift du monde social ? Et surtout, que disent ses fans de nos sociétés contemporaines ?
À partir d’une enquête sociologique menée auprès de plus de 1 000 fans en France, je propose de déplacer le regard : il ne s’agit pas d’analyser uniquement l’artiste, mais de comprendre ce que son œuvre et sa figure produisent socialement. Qui sont les Swifties (les fans de la chanteuse) ? Comment se rencontrent-ils ? En quoi Taylor Swift accompagne-t-elle les trajectoires de vie ? Et que révèle son succès des attentes politiques, féministes ou morales de ses publics ? C’est ce qu’explore mon essai, Sociologie de Taylor Swift, qui vient de paraître.
Loin des clichés sur un fandom adolescent et irrationnel, l’analyse met en évidence des pratiques culturelles structurées, genrées, durables et socialement situées. À travers Taylor Swift, c’est toute une sociologie des émotions, des identités et des engagements contemporains qui se donne à voir.
Contrairement aux représentations médiatiques qui réduisent souvent les fans de Taylor Swift à des adolescentes exaltées, l’enquête montre une réalité bien plus nuancée. Du point de vue de l’âge, les Swifties qui ont répondu à mon enquête se situent majoritairement dans le jeune âge adulte : près de la moitié ont entre 18 et 34 ans, mais plus d’un tiers ont plus de 35 ans, attestant d’un attachement durable à l’artiste bien au-delà de l’adolescence.
Le genre constitue un marqueur central de ce fandom (de ce groupe de fans). Les femmes représentent près de 80 % des personnes interrogées tandis que les hommes restent minoritaires. L’enquête met aussi en évidence une présence significative de personnes non binaires ou transgenres, proportionnellement bien plus élevée que dans la population générale (5 %). L’identité sexuelle apparaît également comme un facteur structurant de la fanité : plus d’un quart des fans ayant participé à l’enquête se déclarent lesbiennes, gays, bisexuel·les ou queer. Ces chiffres confirment que l’univers de Taylor Swift constitue un espace d’identification particulièrement fort pour les minorités sexuelles et de genre (on nomme le fandom gay de Taylor le « Gaylord ».
Aimer Taylor Swift ne relève donc pas d’un simple goût musical, mais d’une pratique culturelle située, marquée par des expériences sociales, genrées et biographiques spécifiques.
Être fan de Taylor Swift, ce n’est pas seulement écouter de la musique : c’est aussi créer du lien. L’enquête montre que la communauté Swiftie fonctionne comme un véritable espace de sociabilité. Plus de 60 % des répondantes et répondants déclarent avoir noué des amitiés grâce à leur intérêt commun pour Taylor Swift, que ce soit en ligne, lors de concerts ou dans des contextes du quotidien.
Ces rencontres prennent des formes multiples : échanges sur les réseaux sociaux, discussions autour des paroles, participation à des événements collectifs ou rituels devenus emblématiques, comme l’échange de bracelets d’amitié. Les liens décrits sont souvent durables et émotionnellement investis, dépassant le simple cadre du fandom.
Cette sociabilité repose sur une grammaire affective partagée. Les chansons servent de supports à la discussion, à la confidence et parfois à l’entraide. Loin d’un fandom nécessairement conflictuel ou « toxique », les Swifties qui ont participé à l’enquête évoquent majoritairement des normes de bienveillance et de soutien mutuel, souvent attribuées à l’image publique et aux discours portés par l’artiste elle-même.
La relation des fans à Taylor Swift s’inscrit dans le temps long. Plus de la moitié des personnes interrogées se déclarent fans depuis plus de dix ans, et une part importante explique avoir découvert l’artiste à l’adolescence. Cette ancienneté témoigne d’une fidélité rare dans les industries culturelles contemporaines.
Taylor Swift n’est pas seulement écoutée : elle accompagne les parcours de vie. Près de 70 % des fans déclarent que l’artiste occupe une place « importante » ou « très importante » dans leur vie. Pour beaucoup, ses chansons sont associées à des moments clés : ruptures amoureuses, amitiés, périodes de doute, maladies, transitions identitaires ou professionnelles.
Cette centralité s’explique par l’écriture intime et narrative de Taylor Swift, qui permet aux fans de projeter leurs propres expériences dans ses chansons. Le fandom fonctionne ainsi comme une ressource biographique : aimer Taylor Swift, c’est disposer d’un répertoire émotionnel et symbolique pour se raconter et traverser les épreuves du quotidien.
Mais pour comprendre les fans de Taylor, on pourra aussi interroger les liens entre ce fandom et valeurs politiques. Les données montrent que les fans de Taylor Swift se situent majoritairement du côté de valeurs progressistes, qu’elles soient environnementales ou féministes. Une large majorité se déclare favorable à l’égalité femmes-hommes, aux droits des personnes LGBTQIA+ et à la lutte contre les discriminations (entre 70 et 80 %).
Ces valeurs influencent directement les attentes vis-à-vis de l’artiste. Près de deux tiers des personnes interrogées estiment que Taylor Swift devrait prendre position publiquement sur certaines causes, notamment féministes ou sociales, même si une minorité défend son droit à la neutralité.
Taylor Swift apparaît ainsi comme une figure politique paradoxale : ni militante au sens classique, ni totalement neutre. Son engagement est perçu comme mesuré, parfois stratégique, mais néanmoins porteur d’effets symboliques forts. L’enquête montre que les fans ne sont pas passifs : ils discutent, critiquent et évaluent les prises de position de l’artiste à l’aune de leurs propres valeurs, révélant la politisation croissante de la culture populaire.
Au terme de cette enquête, une chose apparaît clairement : Taylor Swift elle est un fait social. Son œuvre, ses prises de parole et la communauté qu’elle fédère révèlent des transformations profondes de nos rapports à la culture, à l’intimité et au politique. Étudier Taylor Swift, ce n’est donc pas céder à l’air du temps : c’est prendre au sérieux ce que la pop dit du social, des émotions et des attentes collectives – souvent bien au-delà d’une seule génération.
Arnaud Alessandrin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.01.2026 à 09:16
Laurent Mériade, Professeur des universités en sciences de gestion - Agrégé des facultés - IAE - CleRMa, Université Clermont Auvergne (UCA)
De nombreuses universités lancent l’alerte sur leurs difficultés financières. Pourtant, si l’on se réfère aux critères officiels fixés par un décret de soutenabilité mis en place en 2024, la situation semble beaucoup moins préoccupante. Qu’est-ce qui se cache réellement derrière ces nouveaux critères ? Dans quelle mesure nous informent-ils vraiment sur la situation financière des universités ?
En 2024, on dénombrait 60 universités françaises présentant de potentielles difficultés financières (principalement déficitaires). En 2025, alors que 80 % des universités présentent encore des budgets déficitaires et que les universités appellent au secours, officiellement, on ne compterait plus que 12 universités en difficulté. Par quel miracle, en moins d’un an, la situation financière des universités françaises a-t-elle pu se redresser de la sorte ?
La réponse à cette interrogation se trouve dans un décret de soutenabilité financière (n° 2024-1108) du 2 décembre 2024 qui modifie les critères d’évaluation des difficultés financières des universités. Ce décret introduit des indicateurs de soutenabilité financière qui considèrent qu’une université déficitaire (même depuis plusieurs années) n’est plus en difficulté financière. Elle ne l’est que si elle dépasse un seuil minimum de trésorerie (argent détenu sur le compte bancaire au Trésor public), de fonds de roulement (réserve d’argent détenue pour faire face à des dépenses programmées ou imprévues) et un seuil maximum de charges de personnel (rémunérations et cotisations sociales).
En réalité, l’introduction de ces trois nouveaux indicateurs (ou ratios) relâche certaines contraintes budgétaires des universités pour les forcer à utiliser massivement leurs réserves (trésorerie et fonds de roulement), comme cela est également demandé à de nombreux opérateurs de l’État dans le budget 2026 en cours de vote au Parlement.
Cependant, pour les universités, ces réserves ne sont souvent que très partiellement disponibles, car déjà pré-engagées pour financer des investissements à long terme, des contrats de recherche, de maintenance, de fourniture ou certains éléments de rémunérations (primes, promotions ou évolution programmée des salaires).
Décryptons ces nouveaux indicateurs. Ne créent-ils pas surtout une illusion, rendant plus présentable la situation financière des universités et plus acceptable le désengagement progressif de l’État ?
Comme dans d’autres domaines, le diable se cache dans le détail des méthodes de calcul de ces indicateurs.
Selon ce nouveau décret, en fin d’année civile, la trésorerie et le fonds de roulement (FdR) d’une université doivent être respectivement supérieurs à 30 jours et à 15 jours de fonctionnement en crédits de paiement hors investissement. Ces deux premiers ratios sont calculés de la manière suivante :
Le numérateur de ces ratios intègre la trésorerie ou le fonds de roulement générés par les ressources d’investissement. En revanche, le dénominateur ne prend pas en compte les dépenses d’investissement autorisées au cours de l’année (crédits de paiement).
Ce mode de calcul ne respecte pas une règle élémentaire de calcul des ratios de gestion financière qui impose d’utiliser un périmètre de calcul identique pour le numérateur et le dénominateur. Ici le numérateur comprend les investissements et le dénominateur est calculé hors investissement, ce qui augmente artificiellement la valeur du ratio et permet, artificiellement aussi, de dépasser les seuils minimums requis.
Pour permettre le calcul de ces nouveaux indicateurs, le nouveau décret financier a redéfini le périmètre du budget de l’établissement, dénommé désormais « budget » et qui agrège le budget principal (en personnel, fonctionnement et investissement) et les budgets annexes (dont le budget annexe immobilier pour les universités qui en disposent) (article R. 719-52).
Ce changement ne permet plus de différencier, pour le calcul de ces indicateurs, les trésoreries et fonds de roulement réellement disponibles (pour payer le personnel et le fonctionnement) de ceux pré-engagés dans des opérations particulières (investissements, contrats de recherche notamment). En recalculant ces ratios pour la seule partie de trésorerie et fonds de roulement réellement disponibles à partir des informations financières du ministère de l’enseignement supérieur, le nombre de jours de trésorerie est en moyenne divisé par deux et par trois pour celui du fonds de roulement.
Ainsi, une université qui présente officiellement un ratio de trésorerie de 50 jours (donc significativement supérieur au seuil de 30 jours) ne détient probablement que 25 jours de trésorerie réellement disponibles. De même, la même université (ou une autre) qui présenterait un fonds de roulement de 30 jours (donc significativement supérieur au seuil de 15 jours) a toutes les chances de ne détenir seulement qu’environ 10 jours de fonds de roulement de fonctionnement disponible.
Autant dire que juger la santé financière d’une université sur la base du calcul actuel de ces deux ratios relève plus de la « roulette russe » que d’une observation objective et sincère.
Pour ce qui concerne le troisième ratio financier, c’est moins son calcul qui est contestable (total charges de personnel/produits encaissables), même si les produits encaissables intègrent très majoritairement des ressources rigides et contraintes (subvention pour charges de service public), que celui de son seuil maximum (83 % des produits encaissables, 85 % pour les établissements à dominante sciences humaines et sociales).
Pourquoi 83 % (ou 85 %) ? Et pourquoi pas 70 % ? 75 % ? 80 % ? À titre de comparaison, en 2022, les charges de personnel des universités publiques des 38 pays de l’Organisation de coopération et de développement économiques (OCDE) représentaient en moyenne 66 % de leurs dépenses totales (les universités françaises présentant le taux moyen le plus élevé à environ 77 %).
En fixant ce seuil d’alerte à 83 %, on autorise les universités à consacrer seulement 17 % (voire 15 %) de leurs produits encaissables à des charges de fonctionnement pourtant indispensables à la stabilité et la pérennité des universités (électricité, chauffage, entretien de locaux et du matériel, fournitures et services d’enseignement et de recherche, etc.).
Un calcul de ce ratio par catégories de personnel (enseignant, administratif, technique) à partir des dépenses totales, comme le réalise d’ailleurs l’OCDE, serait probablement plus pertinent et autoriserait des comparaisons internationales.
Finalement, l’ensemble de ces approximations ou insuffisances calculatoires peut soit donner une impression d’amateurisme dans le contrôle financier des universités françaises, soit, plus assurément, le sentiment d’une volonté de dissimulation de la réalité des difficultés financières tout en rendant les universités toujours plus comptables de celles-ci.
Un récent rapport d’information du Sénat de 2025 reconnaissait que la seule lecture des budgets et des indicateurs de soutenabilité financière des universités ne permet pas de faire le lien entre les données budgétaires des établissements et leurs activités.
À court terme, les fonds de roulement et trésoreries des universités n’étant pas des puits sans fond, il est probable qu’un grand nombre d’universités ne soit plus en mesure, très rapidement, d’assumer des engagements financiers récurrents (entretien des locaux et matériels, paiement des rémunérations, accueil physique de tous les étudiants).
À moyen terme, c’est la réalisation des principales missions de service public des universités (développement de l’accès à l’enseignement supérieur, réussite des étudiants, augmentation de leur employabilité, renforcement de la cohésion sociale et territoriale, développement de la recherche) qui sera profondément remise en cause.
Laurent Mériade ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.01.2026 à 12:31
Rossella Sorio, Professeure Associée, Département Marketing ICN BS, ICN Business School
Insaf Khelladi, Full Professor en Marketing, Excelia
Sylvaine Castellano, Directrice de la recherche, EM Normandie

Après le Dry January, place au French January : boire avec modération, boire autrement ou ne pas boire. Une étude sur les vins sans alcool ou à faible teneur en alcool (vins « nolo », pour no-low) analyse cette nouvelle tendance française invitant à dépasser un choix binaire entre consommation et abstinence. Explication avec le témoignage de consommateurs.
Notre analyse de près de 150 entretiens montre que les consommateurs de vins « nolo », ou no-low, en France ne sont ni majoritairement des abstinents stricts ni des individus contraints par des impératifs médicaux ou physiologiques. Le plus souvent, ces consommateurs réguliers d’alcool sont attachés au vin comme pratique sociale et culturelle, mais restent désireux de mieux maîtriser leur consommation et d’en moduler l’intensité et les occasions.
Nos résultats suggèrent que la sobriété s’inscrit moins dans une logique d’abstinence normative que dans des formes de régulation des pratiques et de gouvernement de soi. C’est dans cette tension, entre contrôle de soi et refus de l’abstinence normative, que s’inscrit aujourd’hui le débat entre Dry January et French January.
Cette régulation prend très concrètement la forme d’une alternance des produits selon les contextes. Un consommateur français dans notre étude de 2019 disait « Ce n’est pas pour arrêter de boire du vin, c’est pour mieux gérer selon les moments ». Un autre consommateur français dans notre étude de 2024 soulignait le caractère situationnel de ce choix : « Je bois du vin classique quand le moment s’y prête, et du sans alcool quand je dois conduire ou rester concentré ». Une autre personne interviewée ajoute « continuer à boire pour le plaisir, sans se sentir limité, et sans renoncer complètement au vin ».
Décryptage de ce paradoxe French (Dry) January.
Le Dry January, lancé au Royaume-Uni en 2013, repose sur une logique claire : une abstinence totale pendant un mois, afin de favoriser une prise de conscience individuelle et de générer des bénéfices mesurables pour la santé. En France, cette initiative, portée depuis 2020 principalement par des associations de prévention, s’inscrit dans un contexte particulier, celui d’un pays où l’alcool, et en particulier le vin, occupe une place centrale dans les pratiques sociales et culturelles.
Face à cette logique de rupture temporaire, le French January s’est imposé comme une contre-proposition culturelle, défendue par la filière vitivinicole et largement relayé dans la presse. Cette orientation est explicitement formulée dans le manifeste du French January qui invite à « savourer plutôt que s’interdire », à reconnaître la pluralité des pratiques – boire avec modération, boire autrement ou ne pas boire – et à rechercher « un juste milieu entre le trop et le zéro ».
Le French January reformule les enjeux de santé publique dans un cadre narratif différent, en revendiquant une sobriété choisie et non imposée, appelée à s’inscrire dans la durée plutôt que dans la seule parenthèse du mois de janvier.
Cette coexistence de deux initiatives révèle une polarisation très française du débat. D’un côté, une sobriété conçut comme abstinence temporaire, de l’autre, une sobriété pensée comme régulation des pratiques. Cette polarisation est souvent caricaturée en opposition entre « hygiénistes » et « épicuriens », alors même que les données scientifiques rappellent une réalité incontestable : toute consommation d’alcool comporte un risque.
Selon l’Organisation mondiale de la santé (OMS), l’alcool est responsable de millions de décès chaque année, et il n’existe pas de seuil de consommation totalement sans risque. Mickaël Naassila, chercheur et président de la Société française d’alcoologie, insiste sur une bascule culturelle réelle : recul des croyances dans un alcool « protecteur », acceptation croissante de la non-consommation, notamment chez les jeunes, et meilleure connaissance des risques.
À lire aussi : Et si l’alcool disparaissait de la planète ?
Cette bascule reste incomplète et entravée par des blocages politiques et institutionnels. Contrairement au tabac, il n’existe pas en France de véritable « plan alcool ». Les campagnes de prévention sont souvent limitées à la lutte contre les excès ou les dépendances, au détriment de la prévention primaire. Dans ce contexte, le Dry January joue un rôle important : il rend visible la non-consommation, légitime le refus de boire et permet à certains individus de développer des compétences psychosociales pour réguler leurs pratiques.
À lire aussi : Alcool et Dry January : Relever le « Défi de Janvier » est toujours bénéfique, même en cas d’échec
Les limites du « tout ou rien » sont également documentées. Des travaux récents suggèrent que l’abstinence temporaire peut produire des effets de compensation après janvier, et qu’elle touche principalement des consommateurs occasionnels, sans nécessairement atteindre les publics les plus vulnérables.
Ces constats ne disqualifient pas le Dry January ils rappellent simplement qu’un changement durable des comportements ne peut reposer sur un seul dispositif normatif.
C’est précisément ici que les recherches en marketing, en comportement du consommateur et en sociologie des marchés peuvent enrichir le débat. La transition vers une consommation d’alcool plus responsable ne dépend pas uniquement des messages de santé publique, mais aussi de la manière dont les produits et les pratiques sont catégorisés, légitimés et émotionnellement valorisés.
Les vins sans alcool ou à faible teneur en alcool (vins « nolo ») constituent un révélateur particulièrement intéressant. Souvent présentés comme des alternatives responsables, ils se situent pourtant dans une zone de tension. D’un côté, ils répondent à une demande croissante de réduction de la consommation ; de l’autre, ils souffrent d’un déficit de légitimité, notamment lorsqu’ils sont associés à une logique de privation ou de contrainte temporaire.
Cette alternance est d’autant plus importante que, pour une majorité de consommateurs interrogés, les vins « nolo » ne sont pas conçus comme des substituts du vin, mais comme des options complémentaires. Nos enquêtes de 2019 et 2024 insistent sur le fait qu’ils continuent à consommer du vin avec alcool pour certaines occasions, tout en recourant au vin sans alcool pour rester pleinement dans le moment social, sans se sentir mis à l’écart. Cette alternance est d’abord liée aux occasions de sociabilité :
« Boire du vin, c’est surtout un moment pour être ensemble, pour partager un repas », explique un consommateur français.
Dans ce contexte, le vin sans alcool est mobilisé non pas comme un substitut, mais comme un ajustement, comme exprimé par un autre consommateur français :
« Ce n’est pas un vin de repas pour moi, plutôt quelque chose pour l’apéritif ou quand on veut rester sobre », souligne une personne interviewée.
Cette distinction entre usages est également très présente dans les discours des consommateurs. Pour les consommateurs français, le vin sans alcool « n’est pas fait pour remplacer le vin », mais pour répondre à des situations spécifiques : « un déjeuner d’affaires », « un événement en journée » ou « un moment où l’on veut rester lucide ».
Nos travaux sur les produits « free-from » montrent que, dans les catégories hédoniques comme le vin, la suppression d’un attribut central – ici l’alcool – peut altérer la valeur perçue, l’authenticité et le plaisir anticipé. Le risque est alors double : soit le vin « nolo » est perçu comme un simple substitut fonctionnel, dépourvu de valeur émotionnelle ; soit il est rejeté comme un « faux vin », ni pleinement vin, ni véritable alternative.
Nos entretiens mettent en évidence une tension entre attentes hédoniques et logiques de régulation. Pour certains consommateurs, l’alcool demeure indissociable du plaisir associé au vin, au point que le vin sans alcool est perçu comme ne permettant ni de « se détendre » ni d’« oublier ses émotions négatives ».
Dans ce contexte, le French January peut offrir un cadre discursif différent. En valorisant la pluralité des choix – boire moins, boire autrement, ou ne pas boire –, il permet de repositionner les vins « nolo » non comme une solution miracle, ni comme un gadget marketing, mais comme une option parmi d’autres dans un répertoire de pratiques responsables. Cette recatégorisation est essentielle : elle conditionne l’acceptabilité sociale de ces produits et leur capacité à s’inscrire durablement dans les usages.
Cette opportunité est ambivalente. Si la modération est invoquée sans rappel explicite des risques liés à l’alcool, elle peut contribuer à brouiller les messages de santé publique. À l’inverse, si les vins « nolo » sont présentés comme une réponse suffisante aux enjeux sanitaires, ils risquent de créer une illusion de solution, détournant l’attention des changements plus profonds nécessaires dans les pratiques.
Ce débat ne devrait pas être lu comme un affrontement entre deux camps irréconciliables, mais comme le symptôme d’une transition normative inachevée. Là où la santé publique explique pourquoi il faut réduire la consommation d’alcool, les sciences sociales et du management permettent de comprendre pourquoi certaines manières de formuler, de vendre et de catégoriser la sobriété fonctionnent… ou échouent.
Une consommation d’alcool plus responsable ne se construira ni par la seule abstinence ponctuelle ni par une modération vague et dépolitisée. Elle suppose des messages clairs sur les risques, des cadres normatifs cohérents, et une réflexion approfondie sur la place des marchés et des émotions dans nos choix. À ce prix seulement, le débat pourra gagner en maturité, et en efficacité.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
30.01.2026 à 12:16
Isabelle Barth, Secrétaire général, The Conversation France, Université de Strasbourg

Dans Gourou, le nouveau film de Yann Gozlan, Pierre Niney interprète un coach en développement personnel qui pousse les limites trop loin. Si les excès du bien-être méritent d’être critiqués, le coaching, sous certaines conditions, reste un outil qui peut être utile… à condition de ne pas lui demander ce qu’il ne peut pas faire. La croyance en une toute-puissance (de soi, du coach ou du coaching), voilà le danger !
« Ce que tu veux, c’est ce que tu es ! » Dans le film Gourou, ce mantra répété jusqu’à l’épuisement par le public à l’initiative du « gourou » (incarné par Pierre Niney) n’est pas un simple slogan de motivation, c’est le symptôme d’une idéologie dans laquelle nous baignons dans nos sociétés occidentales (c’est un prérequis indispensable de se situer dans ce cadre culturel) : celle qui prétend que la volonté suffit à tout, que le bonheur est un choix individuel, que la souffrance relève d’un défaut personnel.
Le film en fait une ritournelle hypnotique, révélant la face sombre de cette croyance devenue hégémonique : car la réalité est qu’elle culpabilise, elle isole, elle invalide.
Traditionnellement, le terme « gourou » désigne un maître spirituel (à l’origine dans la religion brahmanique). Mais les sciences sociales ont montré son évolution vers une figure plus ambiguë : celle d’un individu charismatique qui exerce une influence disproportionnée sur un groupe en promettant transformation, sens et salut personnel. Les travaux de Janet Jacobs et de Benjamin Zablocki sur les dynamiques sectaires montrent que le gourou moderne n’a plus besoin de religion : il lui suffit d’un récit séduisant et performatif pour réunir autour de lui une communauté soudée qui croit en sa promesse de réussite totale.
Dans le film Gourou, cette figure est incarnée par un maître du développement personnel qui exige une adhésion sans faille à son credo. Il ne guide pas : il prescrit. Il ne propose pas : il impose. Et surtout, il réduit toute souffrance à un manque de volonté. C’est là que le film touche juste : il montre comment l’emprise peut se construire non par la contrainte, mais par la promesse de bonheur.
À lire aussi : Le coaching en entreprise : une mode, des paradoxes
Les exemples contemporains abondent. Dans les entreprises, on peut trouver des ateliers de « gestion émotionnelle » proposés à des salariés soumis à des cadences intenables. Sur LinkedIn, des cadres racontent leur burn out comme une « aventure inspirante ». Sur Instagram, des influenceurs affirment que « la maladie est un message de l’Univers ». Dans tous ces cas, la souffrance est requalifiée en défaut de mindset, et la porte de sortie est de rebondir, mais nous ne sommes pas des balles en caoutchouc !
C’est cette dénonciation de la « positivité toxique » qui est, à mon sens, l’angle le plus intéressant et interpellateur du film.
La positivité toxique n’est pas une invention de scénariste. La psychologue Barbara Held parle dès 2002 de « tyranny of the positive attitude », une tyrannie douce qui exige d’afficher un optimisme constant. Dès 2002, Whitney Goodman a popularisé le terme toxic positivity pour désigner cette injonction à nier les émotions négatives. Quant à Sara Ahmed, elle montre dans The Promise of Happiness (2010) que le bonheur est devenu une norme morale : ceux qui ne s’y conforment pas sont perçus comme des perturbateurs.
Cette idéologie produit un mécanisme central : l’invalidation émotionnelle. Les psychologues parlent d’emotional invalidation pour désigner cette dynamique où l’on explique à quelqu’un que ce qu’il ressent n’est « pas utile », « pas constructif », ou « pas la bonne manière de voir les choses ». Dans Gourou, cette invalidation est systémique : toute émotion « basse » est immédiatement interprétée comme un manque de volonté ou un défaut de caractère. La tristesse devient une erreur, la colère une faute morale, la fatigue un manque d’ambition.
Cette invalidation fragilise les individus, les coupe de leur propre expérience, et les rend dépendants d’un discours qui prétend les sauver tout en les dépossédant de leur réalité. Le film illustre bien une dérive, mais s’adosse aux polémiques autour du coaching qui font les choux gras des médias.
Le coaching occupe aujourd’hui une place ambivalente. Le lien entre positivité toxique et coaching est souvent fait. Pour certains chercheurs (on peut citer les travaux de Roland Gori ou ceux d’Eva Illouz et Edgar Cabanas dans leur livre Happycratie, 2018) le coaching contemporain, loin de se limiter à un accompagnement professionnel, s’est transformé en industrie du développement personnel. Pour ces critiques, le coaching promeut une vision individualiste du bonheur : chacun serait responsable de son état émotionnel, indépendamment des conditions sociales, économiques ou politiques.
Le coaching reposerait alors sur une logique d’auto-optimisation permanente : devenir la meilleure version de soi-même, corriger ses « blocages », éliminer ses « pensées limitantes ». Cette rhétorique, en apparence émancipatrice, produit un effet pervers : elle transforme les difficultés structurelles en problèmes psychologiques individuels.
Dans Gourou, le maître-coach incarne cette dérive. Il ne questionne jamais les causes des souffrances ; il accuse les individus de ne pas « vouloir assez ». Il ne libère pas ; il enferme dans une spirale où chaque faille devient une preuve d’insuffisance personnelle.
Mais réduire toute la profession à ces dérives serait injuste. Le coaching, lorsqu’il est exercé avec éthique, offre un espace d’écoute, de clarification et de progression réelle. De nombreux travaux, notamment en psychologie du travail, montrent qu’un accompagnement bien mené peut renforcer l’autonomie, soutenir la prise de décision et aider à traverser des transitions complexes. Le problème n’est donc pas le coaching en soi, mais son instrumentalisation par une idéologie du « tout dépend de toi ». Gourou pointe ces excès, et enfonce la porte déjà bien entrouverte de la valeur d’un métier qui, pratiqué avec rigueur, peut réellement aider.
Le film révèle une violence invisible, enveloppée de bienveillance, mais profondément normative. Une violence qui dit : « Tu n’as pas le droit d’être triste. » Une violence qui exige que chacun soit son propre coach, son propre thérapeute, mais aussi son propre bourreau en s’imposant des défis sans avoir forcément les ressources pour les relever. Une violence qui simplifie le monde pour éviter de regarder en face ce qui ne va pas.
Il est temps de rappeler une évidence : la tristesse n’est pas un échec, la colère n’est pas un défaut, le doute n’est pas une faiblesse. Ce sont des émotions humaines, légitimes, nécessaires. Gourou invite à refuser la dictature du sourire et à retrouver le droit fondamental d’être humain, donc… imparfait.
Isabelle Barth ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.