LePartisan - 1068 vues
MEDIAS REVUES BLOGS
URL du flux RSS

▸ les 50 dernières parutions

22.02.2026 à 08:20

La place méconnue des ingénieurs dans l’histoire du management

Matthieu Mandard, Maître de conférences en sciences de gestion, Université de Rennes 1 - Université de Rennes
Les ingénieurs sont indissociables de l’histoire du management. Quelle est leur place exacte ? Et comment l’expliquer ?
Texte intégral (1839 mots)
Le Français Henri Fayol (1841-1925), ingénieur des mines, occupe une place importante dans l’histoire du management. Il est pourtant peu connu du grand public. Wikimedia commons, CC BY

On sait que les ingénieurs sont tous formés au management, et que nombre d’entre eux en seront des praticiens au cours de leur carrière. Ce qui est nettement moins connu, en revanche, c’est que le management est né au dix-neuvième siècle de l’activité même des ingénieurs, et que des ingénieurs ont systématiquement été au nombre de ses principaux théoriciens.


Les ingénieurs, dont le diplôme est réglementé en France par la Commission des titres d’ingénieurs (CTI), mais dont l’usage du titre au plan professionnel est libre, sont des spécialistes de la conception et de la mise en œuvre de projets techniques. Ils se doivent donc par définition de maîtriser les principes de base du management. Mais à quel point le métier d’ingénieur est-il lié à cette discipline, consacrée à l’élaboration de théories et de pratiques relatives au pilotage des organisations ?

À rebours d’une idée saugrenue, mais pourtant actuellement populaire, selon laquelle le management devrait son origine au nazisme, il s’avère que c’est plutôt du côté des ingénieurs qu’il faut regarder. Car leur activité est en effet historiquement liée à l’essor du management, comme nous l’écrivions dans un article récent dont nous retraçons les conclusions ici.

Révolutions technologiques et management

Le management a de toute évidence toujours existé, puisque de la construction des pyramides aux débuts de la première révolution industrielle en Angleterre au milieu du XVIIIᵉ siècle, en passant par l’édification des cathédrales, la conduite de grands projets a de tout temps nécessité le pilotage de collectifs importants. Mais il s’agissait alors d’initiatives locales, répondant à des contextes techniques et sociaux particuliers, qui ne faisaient pas encore système. Il faut en fait attendre le milieu du XIXᵉ siècle, et la deuxième révolution industrielle, pour voir le management constitué en tant que corpus de réflexion de portée générale relatif aux modalités de conduite des organisations.

Si le management apparaît à cette époque aux États-Unis, c’est en raison de l’essor du chemin de fer entamé au tournant du XIXᵉ siècle, qui implique la mise en place de grandes entreprises destinées à en assurer le pilotage de manière efficace et dans des conditions de sécurité satisfaisantes. Ce modèle de la grande entreprise se diffusera par la suite dans d’autres industries, telles que celle de l’acier, et se substituera progressivement aux petites entreprises artisanales jusqu’alors majoritaires.


À lire aussi : Le management par objectifs n’est pas une invention nazie


À cette première révolution technologique en succède une seconde, amorcée au milieu du XIXᵉ siècle, qui résulte du développement du machinisme et de la hausse des rythmes de production associés. Elle donne elle aussi lieu à des changements dans les modes d’organisation des entreprises, puisque l’on assiste, à partir de 1890, à la naissance d’usines performantes dont le fonctionnement doit être rationalisé et planifié de manière à en tirer parti au maximum.

Vient ensuite la révolution des transports, soutenue par l’essor de l’automobile et par le déploiement d’infrastructures routières. Celle-ci entraîne, au milieu du XXᵉ siècle, l’extension géographique des opérations des entreprises et l’élargissement de leurs périmètres d’activité afin de satisfaire de nouveaux marchés, et l’apparition de l’entreprise qualifiée de multi-divisionnelle.

Enfin, la quatrième révolution technologique habituellement retenue apparaît après la Seconde guerre mondiale, avec l’essor de l’informatique et des télécommunications. Celle-ci renforce la tendance à la dispersion géographique des entreprises déjà amorcée précédemment, et donne lieu à partir des années 1990 à un modèle de management de référence qualifié d’organisation en réseau.

Au total, ce que montrent les observations, et notamment les travaux récents de Bodrožić et d’Adler, c’est que les révolutions dans les modes et les méthodes de gestion des organisations ont systématiquement été la résultante de révolutions technologiques, qui furent elles-mêmes le fruit des activités d’ingénieurs.

Ingénieurs et théorisation du management

Les changements dans le fonctionnement des entreprises induits par ces révolutions technologiques ont nécessité l’élaboration de nouveaux modèles de management, entendus comme des préceptes quant à la meilleure manière de piloter les activités des organisations. Et ici encore, il s’avère que des ingénieurs ont toujours fait partie des principaux théoriciens de ces modèles.

L’essor des grandes entreprises du secteur des chemins de fer au XIXᵉ siècle est ainsi accompagné par les réflexions d’ingénieurs de ce secteur, Benjamin H. Latrobe, Daniel C. McCallum, et J. Edgar Thomson, qui mettent au point ce qui est alors appelé les structures hiérarchico-fonctionnelles. Face aux conditions de travail particulièrement rudes induites par ce modèle, des programmes de réformes sociales sont ensuite développés par des auteurs tels que l’ingénieur George Pullman, fondateur de la compagnie de wagons-lits du même nom.

Le fonctionnement des usines performantes qui apparaissent ensuite est quant à lui rationalisé par des auteurs bien connus, dont on oublie parfois qu’ils étaient tous trois des ingénieurs : le Français Henri Fayol, et les États-Uniens Henry Ford et Frederick Taylor. Ici encore, la rudesse des conditions de travail engendrées par la mise en place d’un management scientifique, ou du travail à la chaîne, amène à des réflexions, quant à la manière de restaurer un climat social dégradé, en partie conduites par un ingénieur du nom de George Pennock, tombé dans l’oubli.

Et les pratiques managériales induites par les deux révolutions technologiques les plus récentes sont à l’avenant. L’entreprise multidécisionnelle fut en bonne partie théorisée par un ancien président de General Motors, l’ingénieur Alfred Sloan, et les problématiques de qualité qu’elle engendra furent largement examinées par un ingénieur de Toyota du nom de Taiichi Ohno. Quant au modèle de l’organisation en réseau, il fut notamment pensé et amendé par des ingénieurs spécialistes des systèmes d’information, tels que Michael Hammer et James Champy, ou par un ingénieur de Hewlett-Packard, Charles Sieloff.

Comment expliquer cette importance historique des ingénieurs en matière de théorisation du management ? Ceci tient à deux raisons pratiques. Leur proximité avec les évolutions technologiques de leur époque les amène à identifier précocement les problèmes managériaux que ces changements soulèvent, et les rend aussi mieux à même de résoudre.

Arts et métiers, Alumni 2020.

Ingénieur et management, un lien à cultiver

Ainsi, le métier d’ingénieur a toujours eu partie liée au management. On ne sera donc pas surpris d’apprendre que, en Europe, l’enseignement du management a d’abord été dispensé en école d’ingénieurs au milieu du XIXe siècle, avant d’être confié aux écoles de commerce au tournant du XXe siècle. Et c’est ce qui explique également que deux des plus prestigieuses écoles d’ingénieurs françaises, l’École des mines de Paris et l’École polytechnique, disposent chacune d’un laboratoire de recherche dédié aux sciences de gestion et du management (respectivement, le Centre de gestion scientifique et le Centre de recherche en gestion), ou que des spécialistes du management interviennent plus généralement dans toutes les écoles d’ingénieurs.

En raison des défis technologiques qui s’annoncent (robotisation, essor de l’IA, sobriété énergétique), il s’avère que ce lien ingénieurs/management doit être affirmé et cultivé. Car ces évolutions s’accompagneront nécessairement de changements organisationnels qu’il sera nécessaire de penser si nous ne voulons pas les subir.

The Conversation

Matthieu Mandard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

22.02.2026 à 08:17

What is ‘Edge AI’? What does it do and what can be gained from this alternative to cloud computing?

Georgios Bouloukakis, Assistant Professor, University of Patras; Institut Mines-Télécom (IMT)
Does cloud-free AI have the cutting-edge over data processing and storage on centralised, remote servers by providers like Google Cloud? Is AI-powered edge computing safer? More trusted?
Texte intégral (1949 mots)

“Edge computing”, which was initially developed to make big data processing faster and more secure, has now been combined with AI to offer a cloud-free solution. Everyday connected appliances from dishwashers to cars or smartphones are examples of how this real-time data processing technology operates by letting machine learning models run directly on built-in sensors, cameras, or embedded systems.

Homes, offices, farms, hospitals and transportation systems are increasingly embedded with sensors, creating significant opportunities to enhance public safety and quality of life.

Indeed, connected devices, also called the Internet of Things (IoT), include temperature and air quality sensors to improve indoor comfort, wearable sensors to monitor patient health, LiDAR and radar to support traffic management, and cameras or smoke detectors to enable rapid-fire detection and emergency response.

These devices generate vast volumes of data that can be used to ‘learn’ patterns from their operating environment and improve application performance through AI-driven insights.

For example, connectivity data from wi-fi access points or Bluetooth beacons deployed in large buildings can be analysed using AI algorithms to identify occupancy and movement patterns across different periods of the year and event types, depending on the building type (e.g. office, hospital, or university). These patterns can then be leveraged for multiple purposes such as HVAC optimisation, evacuation planning, and more.

Combining the Internet of things and artificial intelligence comes with technical challenges

Artificial Intelligence of Things (AIoT) combines AI with IoT infrastructure to enable intelligent decision-making, automation, and optimisation across interconnected systems. AIoT systems rely on large-scale, real-world data to enhance accuracy and robustness of their predictions.

To support inference (that is, insights from collected IoT data) and decision-making, IoT data must be effectively collected, processed, and managed. For example, occupancy data can be processed to infer peak usage times in a building or predict future energy needs. This is typically achieved by leveraging cloud-based platforms like Amazon Web Services, Google Cloud Platform, etc. which host computationally intensive AI models – including the recently introduced Foundation Models.

What are Foundation Models?

  • Foundation Models are a type of Machine Learning model trained on broad data and designed to be adaptable to various downstream tasks. They encompass, but are not limited to, Large Language Models (LLMs), which primarily process textual data, but can also operate on other modalities, such as images, audio, video, and time series data.
  • In generative AI, Foundation Models serve as the base for generating content such as text, images, audio, or code.
  • Unlike conventional AI systems that rely heavily on task-specific datasets and extensive preprocessing, FMs introduce zero-shot and few-shot capabilities, allowing them to adapt to new tasks and domains with minimal customisation.
  • Although FMs are still in the early stages, they have the potential to unlock immense value for businesses across sectors. Therefore, the rise of FMs marks a paradigm shift in applied artificial intelligence.

The limits of cloud computing on IoT data

While hosting heavyweight AI or FM-based systems on cloud platforms offers the advantage of abundant computational resources, it also introduces several limitations. In particular, transmitting large volumes of IoT data to the cloud can significantly increase response times for AIoT applications, often with delays ranging from hundreds of milliseconds to several seconds, depending on network conditions and data volume.

Moreover, offloading data – particularly sensitive or confidential information – to the cloud raises privacy concerns and limits opportunities for local processing near data sources and end users.

For example, in a smart home, data from smart meters or lighting controls can reveal occupancy patterns or enable indoor localisation (for example, detecting that Helen is usually in the kitchen at 8:30 a.m. preparing breakfast). Such insights are best derived close to the data source to minimise delays from edge-to-cloud communication and reduce exposure of private information on third-party cloud platforms.


À lire aussi : Cloud-based computing: routes toward secure storage and affordable computation


What is edge computing and edge AI?

To reduce latency and enhance data privacy, Edge computing is a good option as it provides computational resources (i.e. devices with memory and processing capabilities) closer to IoT devices and end users, typically within the same building, on local gateways, or at nearby micro data centres.

However, these edge resources are significantly more limited in processing power, memory, and storage compared to centralised cloud platforms, which pose challenges for deploying complex AI models.

To address this, the emerging field of Edge AI – particularly active in Europe – investigates methods for efficiently running AI workloads at the edge.

One such method is Split Computing, which partitions deep learning models across multiple edge nodes within the same space (a building, for instance), or even across different neighbourhoods or cities. Deploying these models in distributed environments is non-trivial and requires sophisticated techniques. The complexity increases further with the integration of Foundation Models, making the design and execution of split computing strategies even more challenging.

What does it change in terms of energy consumption, privacy, and speed?

Edge computing significantly improves response times by processing data closer to end users, eliminating the need to transmit information to distant cloud data centres. Beyond performance, edge computing also enhances privacy, especially with the advent of Edge AI techniques.

For instance, Federated Learning enables Machine Learning model training directly on local Edge (or possibly novel IoT) devices with processing capabilities, ensuring that raw data remain on-device while only model updates are transmitted to Edge or cloud platforms for aggregation and final training.

Privacy is further preserved during inference: once trained, AI models can be deployed at the Edge, allowing data to be processed locally without exposure to cloud infrastructure.

This is particularly valuable for industries and SMEs aiming to leverage Large Language Models within their own infrastructure. Large Language Models can be used to answer queries related to system capabilities, monitoring, or task prediction where data confidentiality is essential. For example, queries can be related to the operational status of industrial machinery such as predicting maintenance needs based on sensor data where protecting sensitive or usage data is essential.

In such cases, keeping both queries and responses internal to the organisation safeguards sensitive information and aligns with privacy and compliance requirements.

How does it work?

Unlike mature cloud platforms, such as Amazon Web Services and Google Cloud, there are currently no well-established platforms to support large-scale deployment of applications and services at the Edge.

However, telecom providers are beginning to leverage existing local resources at antenna sites to offer compute capabilities closer to end users. Managing these Edge resources remains challenging due to their variability and heterogeneity – often involving many low-capacity servers and devices.

In my view, maintenance complexity is a key barrier to deploying Edge AI services. At the same time, advances in Edge AI present promising opportunities to enhance the utilisation and management of these distributed resources.

Allocating resources across the IoT-Edge-Cloud continuum for safe and efficient AIoT applications

To enable trustworthy and efficient deployment of AIoT systems in smart spaces such as homes, offices, industries, and hospitals; our research group, in collaboration with partners across Europe, is developing an AI-driven framework within the Horizon Europe project PANDORA.

PANDORA provides AI models as a Service (AIaaS) tailored to end-user requirements (e.g. latency, accuracy, energy consumption). These models can be trained either at design time or at runtime using data collected from IoT devices deployed in smart spaces. In addition, PANDORA offers Computing resources as a Service (CaaS) across the IoT–Edge–Cloud continuum to support AI model deployment. The framework manages the complete AI model lifecycle, ensuring continuous, robust, and intent-driven operation of AIoT applications for end users.

At runtime, AIoT applications are dynamically deployed across the IoT–Edge–Cloud continuum, guided by performance metrics such as energy efficiency, latency, and computational capacity. CaaS intelligently allocates workloads to resources at the most suitable layer (IoT-Edge-Cloud), maximising resource utilisation. Models are selected based on domain-specific intent requirements (e.g. minimising energy consumption or reducing inference time) and continuously monitored and updated to maintain optimal performance.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

This work has received funding from the European Union’s Horizon Europe research and innovation actions under grant agreement No. 101135775 (PANDORA) with a total budget of approximately €9 million and brings together 25 partners from multiple European countries, including IISC and UOFT from India and Canada.

21.02.2026 à 16:29

La Stratégie de sécurité nationale des États-Unis : 2022 contre 2025, continuités et ruptures

Olivier Sueur, Enseigne la compétition stratégique mondiale et les enjeux transatlantiques, Sciences Po
Une comparaison entre les stratégies de sécurité de Biden (2022) et de Trump (2025) met en évidence des points communs plus nombreux qu’on le croit, mais aussi une distinction fondamentale.
Texte intégral (1502 mots)

Aux États-Unis, chaque président a l’obligation de publier une Stratégie de sécurité nationale (National Security Strategy, NSS). Celle que l’administration Trump a rendue publique en novembre 2025 – un texte ouvertement partisan et centré sur les intérêts de Washington conformément à la doctrine « America First » – a heurté de front de nombreux responsables européens, qui se remémorent avec une certaine nostalgie l’époque de Joe Biden. Or, la comparaison de la NSS « Made in Trump » avec celle de l’administration Biden montre qu’il existe entre les deux documents plus de continuité qu’on le croit, même si une distinction majeure apparaît sur la question de l’idéologie sous-jacente.


La Stratégie de sécurité nationale des États-Unis publiée en novembre 2025 par l’administration Trump a déjà fait couler beaucoup d’encre, allant jusqu’à parler à propos de la relation à l’Europe d’un « divorce consommé, en attendant la séparation des biens ». Or, sa version précédente, publiée en octobre 2022 par l’administration Biden, constituait déjà une rupture sur bien des points : l’article que j’y avais consacré en janvier 2023 s’intitulait « Prendre acte de la fin d’un monde ».

Naturellement, le ton joue beaucoup : le document de l’administration de Joe Biden – « le bon » – était bien plus lissé et, soyons francs, plus aimable que celui de l’administration de Donald Trump – « la brute ». Néanmoins, si l’on cherche à dépasser la forme et à analyser le fond, ruptures et continuités s’affichent sous des couleurs nettement plus nuancées.

Des visions géopolitiques en réalité très proches

Les deux présidents démocrate et républicain, avec leurs administrations, font preuve d’une très grande continuité quant à, d’une part, la fin de la mondialisation économique et du libre-échange et, d’autre part, la priorisation des intérêts états-uniens à l’échelle mondiale.

La NSS 2022 était porteuse d’une virulente charge à l’encontre du bilan de la mondialisation des échanges économiques des trente dernières années et en tirait les conséquences : selon Jake Sullivan, conseiller à la Sécurité nationale de Joe Biden tout au long du mandat de celui-ci, « l’accès au marché a été pendant trente ans l’orthodoxie de toute politique commerciale : cela ne correspond plus aux enjeux actuels ».

L’enjeu clé est à présent la sécurité des chaînes d’approvisionnement, qui implique pour un certain nombre de produits stratégiques un découplage entre la Chine et les États-Unis : la sécurité économique redevient partie intégrante de la sécurité nationale.

Sur le plan domestique, le message était le grand retour de l’État dans l’économie avec la promotion d’« une stratégie industrielle et d’innovation moderne », la valorisation des investissements publics stratégiques et l’utilisation de la commande publique sur les marchés critiques afin de préserver la primauté technologique. La NSS 2025 ne dit pas autre chose en soulignant que « la sécurité économique est fondamentale pour la sécurité nationale » et reprend chaque sous-thème. La continuité est ici parfaite.

La priorisation géographique entre les deux NSS est également remarquable de continuité : 1) affirmation de la primauté de l’Indopacifique sur l’Europe ; 2) importance accordée aux Amériques, passées de la dernière place d’intérêt en 2015, derrière l’Afrique, à la troisième en 2022 et à la première en 2025.

Le premier point implique une concentration des efforts de Washington sur la Chine, et donc que le continent européen fasse enfin l’effort de prendre en charge sa propre sécurité afin de rétablir un équilibre stratégique vis-à-vis de la Russie. Le deuxième point se manifeste dans la NSS 2022 par la remontée des Amériques à la troisième place, devant le Moyen-Orient, et dans la NSS 2025 l’affirmation d’un « corollaire Trump à la doctrine Monroe », consistant à dénier à des compétiteurs extérieurs aux Amériques la possibilité d’y positionner des forces ou des capacités ou bien d’y contrôler des actifs critiques (tels que des ports sur le canal de Panama).

Dissensions idéologiques

Les deux présidents divergent sur deux points de clivage idéologique, à savoir la conception de la démocratie et le système international, y compris les questions climatiques.

La NSS 2022 avait réaffirmé le soutien sans ambiguïté des États-Unis à la démocratie et aux droits humains de par le monde, en introduisant néanmoins une nuance dans leurs relations internationales : sur le fondement du vote par 141 États de la résolution de l’ONU condamnant l’agression russe de l’Ukraine en mars 2022, l’administration Biden se montrait ouverte au partenariat avec tout État soutenant un ordre international fondé sur des règles telles que définies dans la Charte des Nations unies, sans préjuger de son régime politique.

La NSS 2025, au contraire, ne revendique rien de semblable : elle affirme avec force qu’elle se concentre sur les seuls intérêts nationaux essentiels des États-Unis (« America First »), proclame une « prédisposition au non-interventionnisme » et revendique un « réalisme adaptatif » (« Flexible Realism ») fondé sur l’absence de changement de régime politique, preuve en étant donnée avec le Venezuela, où le système chaviste n’a pas été renversé après l’enlèvement par les États-Unis de Nicolas Maduro.

De plus, la NSS 2025 redéfinit la compréhension même de la notion de démocratie autour d’une conception civilisationnelle aux contours très américains (liberté d’expression à la « sauce US », liberté religieuse et de conscience).

Second point de divergence : la NSS 2022 avait réaffirmé l’attachement de Washington au système des Nations unies, citées à huit reprises, et faisait de l’Union européenne (UE) un partenaire de choix dans un cadre bilatéral UE-États-Unis. C’est l’exact inverse dans la NSS 2025 : non seulement les Nations unies ne sont pas mentionnées une seule fois, mais les organisations internationales sont dénoncées comme érodant la souveraineté américaine.

En revanche, la primauté des nations est mise en exergue, et présentée comme antagoniste aux organisations transnationales. De plus, la notion d’allié est redéfinie à l’aune de l’adhésion aux principes démocratiques tels qu’exposés plsu haut. Cette évolution s’exprime plus particulièrement à l’égard de l’Europe.

La NSS 2025 et l’Europe

La partie de la NSS 2025 consacrée à l’Europe a été vivement critiquée dans les médias du Vieux Continent pour sa tonalité méprisante ; or le sujet n’est pas là. En effet, l’administration Trump opère une distinction fondamentale entre, d’une part, des nations qu’il convient de discriminer selon leur alignement avec la vision américaine de la démocratie et, d’autre part, l’UE, qu’il convient de détruire car elle constitue un contre-pouvoir nuisible. En d’autres termes, elle ne s’en prend pas à l’Europe en tant qu’entité géographique, mais à l’Union européenne en tant qu’organisation supranationale, les États-Unis se réservant ensuite le droit de juger de la qualité de la relation à établir avec chaque gouvernement européen en fonction de sa trajectoire idéologique propre.

La NSS 2025 exprime donc un solide consensus bipartisan sur les enjeux stratégiques auxquels sont confrontés les États-Unis et les réponses opérationnelles à y apporter, s’inscrivant ainsi dans la continuité du texte publié par l’administration Biden en 2022. Mais elle souligne aussi une divergence fondamentale sur les valeurs à mobiliser pour y faire face. C’est précisément ce que le secrétaire d’État Marco Rubio a rappelé dans son intervention lors de la conférence de Munich du 14 février 2026.

The Conversation

Olivier Sueur est chercheur associé au sein de l'Institut d'études de géopolitique appliquée (IEGA).

21.02.2026 à 16:28

Salon de l’agriculture : les Amap redonnent le pouvoir aux agriculteurs et agricultrices

Pascale Bueno Merino, Directrice de la Recherche, Enseignant-Chercheur en Management Stratégique, Pôle Léonard de Vinci
Hamdi Hamza, Docteur en sciences de gestion, Université Le Havre Normandie
Samuel Grandval, Professeur des Universités en sciences de gestion, Université Le Havre Normandie
Sonia Aissaoui, Maître de Conférences en Sciences de Gestion, Université de Caen Normandie
Une étude souligne les bénéfices d’une association pour le maintien d’une agriculture paysanne, ou Amap, pour le producteur agricole et les consommateurs – souvent citadins.
Texte intégral (1736 mots)
Des bénévoles de l’Amap Goutte d’Or-La Chapelle (Paris, XVIII<sup>e</sup>) travaillent au champ, avant de consommer les fruits (et surtout les légumes) de leur labeur. Wikimedia commons

À l’occasion du Salon international de l’agriculture de Paris, une étude met en lumière le double bénéfice des associations pour le maintien d’une agriculture paysanne, dites Amap : renforcer l’autonomie des agriculteurs et permettre aux bénévoles d’être des entrepreneurs… collectivement.


L’importance des échanges citoyens pour mettre en œuvre une agriculture durable est au cœur du programme de conférences du Salon international de l’agriculture. Les interrogations sur le « comment mieux manger ? » ou sur le « comment produire autrement ? » continuent de retenir l’attention.

Une des solutions à ces questionnements : l’entrepreneuriat collectif à travers les associations pour le maintien d’une agriculture paysanne (Amap). La finalité de l’Amap est la distribution hebdomadaire de paniers de produits agricoles frais, sous réserve d’un pré-paiement de la production par les membres adhérents. La coopération amapienne se matérialise par un engagement contractualisé de consommateurs bénévoles dans l’activité de production et de vente directe de produits alimentaires locaux. Elle repose sur le désir des membres d’interagir et de servir leur collectif.

En 2022, 375 Amap sont recensées rien qu’en Île-de-France, soit plus de 21 000 familles de bénévoles en partenariat avec environ 400 fermes.

Nos derniers résultats de recherche, issus d’entretiens, soulignent que cette collaboration augmente la capacité d’action et d’autonomisation de l’entrepreneur agricole. Elle confère au producteur agricole une aptitude à être maître de ses choix telle que définie dans la Charte initiale des Amap instaurée en 2003, puis révisée en 2024. Les Amap font émerger un environnement « capacitant » – qui permet la création ou le développement de capacités –, fondé sur la mise en place d’une communauté et l’apport de ressources et compétences externes.

Quatre principes de l’Amap

  • Les modalités de distribution, ainsi que les prix, sont fixés conjointement entre l’entrepreneur agricole et les adhérents ;

  • Le pré-paiement des paniers par les adhérents permet à l’entrepreneur agricole d’anticiper les quantités à distribuer et de sécuriser son revenu, notamment en cas d’insuffisance de la production ;

  • Les consommateurs amapiens participent à la vie de l’exploitation (distribution des paniers, centralisation de l’information, aide apportée à l’agriculteur sur son exploitation, etc.) ;

  • En contrepartie, l’agriculteur s’engage à produire des aliments selon des méthodes respectueuses de l’agro-écologie et à participer à la gestion de l’Amap.

Ces principes sont rédigés dans la charte des Amap.

Carte des Amap en France. Réseau Amap

Co-production, co-gestion et réciprocité apprenante

La participation bénévole des consommateurs amapiens aux activités des agriculteurs, entrepreneurs, engendre une relation de travail atypique. Celle-ci repose non pas sur une relation salariée avec lien de subordination, mais sur une relation horizontale basée sur un système de co-production, de co-gestion et de réciprocité apprenante.

Ces principes sont illustrés par des témoignages de membres adhérents d’Amap :

  • Sur le principe de co-production :

« Avec Marianne (la productrice), il y avait le chantier patates en septembre et puis elle avait demandé aussi pour planter des haies », témoigne une présidente d’Amap interviewée.

  • Sur le principe de co-gestion de l’Amap :

« On a une assemblée générale par an de l’Amap […] pour remettre à plat, voir si on change les prix des paniers, voir s’il y a des gens qui ont des choses à dire, qui ont des choses à mettre au point », rappelle un consommateur adhérent interrogé.

  • Sur le principe de réciprocité apprenante :

Ce dernier se matérialise par l’identification pour l’entrepreneur agricole des besoins des consommateurs d’une part, et la sensibilisation des consommateurs aux pratiques et difficultés de l’exploitant agricole d’autre part.

« Il y a Alain, le maraîcher, il est toujours là. Il nous présente son activité, il fait un retour sur ce qui s’est bien passé, ce qui s’est moins bien passé l’année passée, ce qu’il prévoit des fois comme nouvelle culture et répond aux questions. » (Président d’Amap.)


À lire aussi : L’Île-de-France pourrait-elle être autonome sur le plan alimentaire ?


En résumé, les consommateurs bénévoles deviennent acteurs du fonctionnement de l’Amap en tant que membres volontaires indépendants. Rappelons que les actes de volontariat s’exercent, selon le chercheur Léon Lemercier :

  • en toute liberté (c’est un choix personnel) ;
  • dans une structure ;
  • pour autrui ou la collectivité ;
  • gratuitement ;
  • sans contrainte ;
  • pour exécuter des tâches.

Militantisme et entrepreneuriat

La coopération amapienne permet d’entreprendre ensemble en partageant les risques financiers liés aux aléas de la production agricole. Elle fait émerger des liens de solidarité au sein d’un territoire et co-crée de la valeur sociale, comme l’explicite précisément un président d’Amap :

« Au-delà de la distribution des paniers, c’est aussi un engagement citoyen. C’est-à-dire qu’on veut aussi développer le mouvement des Amap. On est militant. »

Cette approche entrepreneuriale et altruiste de la relation de travail atypique renouvelle la littérature académique dédiée à son analyse, comme celle de la situation de vulnérabilité du travailleur – emploi temporaire, travail à temps partiel, relation de travail déguisée, etc.

Cette relation de travail non salarié s’inscrit dans le cadre d’un projet entrepreneurial collectif, caractérisé par l’union de compétences complémentaires au sein de l’Amap. Dans ce cas précis, l’agrégation de multiples contributions bénévoles, bien que temporaires et à temps partiel, peut concourir au développement d’une exploitation agricole.

Les bénévoles apportent des ressources spécifiques liées à leur propre parcours de vie : compétences professionnelles, disponibilité temporelle, ou encore expérience organisationnelle qui structurent les Amap.

« Je dirais que le problème de la gestion, on l’a résolu avec nos outils, c’est-à-dire qu’on a eu la chance pendant quelques années d’avoir pas mal de développeurs informatiques dans nos adhérents », déclare un président d’Amap interrogé.

La relation de travail amapienne se situe par conséquent entre bénévolat et professionnalisation puisque les consommateurs vont soutenir l’entrepreneur agricole de l’amont à l’aval de la chaîne de valeur de son activité : de fonctions principales (production, marketing, logistique et distribution) à des fonctions support (ressources humaines, système d’information et administration).

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

21.02.2026 à 09:17

Élevage d’insectes : s’inspirer des autres filières animales pour produire à grande échelle de façon durable

Caroline Wybraniec, Chercheuse post-doctorale, Université de Tours
Bertrand Méda, Ingénieur de Recherche, Inrae
Christophe Bressac, Chercheur, Université de Tours
Elisabeth Herniou, Directrice de Recherhce, Centre national de la recherche scientifique (CNRS); Université de Tours
Matthis Gouin, Doctorant en biologie et virologie, Université de Tours
Les débouchés de l’entomoculture sont nombreux : alimentation animale par exemple, mais aussi auxiliaires de contrôle biologique des cultures. Mais la filière doit mieux se structurer.
Texte intégral (3201 mots)

L’entomoculture est souvent présentée comme une alternative prometteuse face aux défis et aux limites des modes de production agricoles et alimentaires traditionnels. Quels enjeux cette filière émergente va-t-elle devoir relever pour continuer à se développer ? Il paraît crucial de s’inspirer de l’élevage traditionnel – qui s’appuie notamment sur des normes précises.


La start-up Ÿnsect a fait les gros titres de la presse ces dernières semaines suite à sa faillite. Certains dénoncent un « fiasco » ou interrogent sur la durabilité de l’élevage d’insectes à large échelle.

La critique est aisée, l’art est difficile. L’échec d’une initiative ne doit pas conduire à abandonner cette nouvelle façon de produire, en France, des ressources de grande qualité. Innovafeed, par exemple, redonne espoir à toute la filière grâce à ses récents succès commerciaux. Des entreprises comme Koppert et Biobest commercialisent également depuis des années des insectes auxiliaires pour la protection des cultures et la pollinisation.

Pour rappel, l’entomoculture consiste à élever des insectes en milieu contrôlé pour produire des protéines (alimentation animale ou humaine), des sous-produits (soie, colorants naturels, engrais) ou des insectes vivants (pour le biocontrôle en agriculture). Sur le plan environnemental, certains insectes peuvent également participer à l’économie circulaire. En effet, ils permettent de valoriser des coproduits de l’industrie agroalimentaire ou des déchets organiques. En agriculture, la protection des cultures par les insectes auxiliaires permet dans certains cas de remplacer les pesticides chimiques. En cela, elle s’inscrit dans les stratégies de lutte biologique encouragées par les politiques publiques.

Soutenue par la FAO depuis 2013 pour répondre aux enjeux de sécurité alimentaire et de résilience climatique, la filière est présentée comme une alternative à des modes de production alimentaires qui atteignent leurs limites face aux changements climatiques et à l’épuisement des ressources. Dans les faits toutefois, son développement fait encore face à des défis majeurs.

Des protéines pour l’alimentation animale

La consommation directe d’insectes par les Occidentaux reste limitée en raison de préjugés. En revanche, selon l’ADEME, plus de 70 % des Français accepteraient les protéines d’insectes dans l’alimentation animale, en remplacement des farines de poisson ou des tourteaux de soja massivement importés.

Bien que 2 000 espèces d’insectes soient comestibles dans le monde, l’UE n’en autorise qu’un nombre restreint : huit pour l’alimentation animale (ténébrion meunier, mouche soldat noire, grillons) et quatre pour l’alimentation humaine (criquet migrateur, ténébrion meunier, ténébrion de la litière, grillon domestique).

La France, qui figure parmi les leaders européens de ce secteur, mise sur les débouchés de production de protéines et de lutte biologique. Malgré des difficultés financières récentes, la filière conserve un fort potentiel.

gros plan sur une larve d’insecte
La larve de la mouche soldat noire, insecte utilisé pour l’alimentation animale. Matthis Gouin, Fourni par l'auteur

Dans le cadre d’un atelier sur le sujet mené à Orléans en septembre 2025, nous avons identifié trois défis techniques majeurs. Structurer cette filière émergente nécessite :

  • la maîtrise des cycles biologiques,

  • la garantie de la sécurité sanitaire

  • et le contrôle de la qualité nutritionnelle.

Maîtriser les cycles biologiques

Un élevage à large échelle exige une connaissance fine de la biologie des insectes (physiologie, comportements, pathologies) et un contrôle strict des paramètres environnementaux (humidité, température, etc.). Par exemple, l’humidité influence la masse des larves de vers de farine. Les professionnels doivent donc instaurer des seuils d’alerte pour détecter les dysfonctionnements, tout en adaptant l’automatisation des procédés d’élevage aux spécificités de chaque espèce.

Comme pour tous les animaux de rente, la maîtrise du cycle biologique des insectes est essentielle pour la durabilité des élevages. Or, dans le cas de l’entomoculture, les professionnels ne maîtrisent pas encore bien leur production : la diversité des espèces, la sélection génétique débutante et la variabilité des substrats d’élevage compliquent à ce stade l’optimisation des paramètres d’élevage.

Pour l’instant, l’objectif n’est pas d’accélérer la croissance (comme cela peut l’être pour d’autres types d’élevage), mais au contraire de pouvoir la freiner en agissant sur des facteurs biologiques et environnementaux. L’enjeu est de mieux piloter les étapes suivantes de la production, comme la transformation, le stockage et le transport. C’est d’autant plus important pour ceux qui vendent des insectes vivants, comme les auxiliaires de lutte biologique contre les parasites et prédateurs.

gros plan sur un insecte vert posé sur des fleurs blanches
La chrysope, un insecte utilisé comme auxiliaire de culture. Matthis Gouin, Fourni par l'auteur

Le contexte local (température, humidité, ressources) ajoute une couche de complexité, qui rend l’expertise humaine indispensable. Il faut combiner observation directe, expérience de terrain et adaptabilité. Afin de comparer les pratiques et identifier les facteurs de réussite, le recours à des indicateurs standardisés est nécessaire. Pour les mettre en place, la filière peut s’inspirer des référentiels techniques des élevages traditionnels, comme ceux de la filière porcine (GTTT, GTE), ou des bases de données collaboratives, comme le SYSAAF pour les filières avicoles et aquacoles.

Biosécurité : des enjeux sanitaires spécifiques

Comme pour les élevages traditionnels, l’entomoculture exige par ailleurs un haut niveau de sécurité sanitaire, adapté à la destination des produits : alimentation animale et humaine, ou auxiliaires de culture.

Pour garantir ces exigences, les entreprises doivent compartimenter leurs unités, prévoir des vides sanitaires et des protocoles stricts (gestion des contaminations, éradication des nuisibles, nettoyage). La surveillance des substrats et des supports d’élevage est cruciale, surtout s’ils sont stockés longtemps.

Les producteurs utilisent à cette fin des indicateurs (taux de mortalité, rendement en biomasse, durée des cycles) pour détecter les anomalies. Leurs causes peuvent être multiples : insectes compétiteurs, vecteurs de pathogènes, ou pathogènes cryptiques (c’est-à-dire, dont les signes d’infection ne sont pas immédiatement visibles).

À ce stade toutefois, la connaissance de ces menaces reste limitée : les données sur les virus infectant la mouche soldat noire, par exemple, sont récentes. Pour accompagner l’essor de cette filière, il serait judicieux qu’une nouvelle branche de médecine vétérinaire spécialisée dans les insectes voie le jour. La collaboration avec les laboratoires de recherche en biologie des insectes reste également indispensable pour développer protocoles et procédures de biosécurité sans tomber dans une asepsie totale, qui serait contre-productive : le microbiote des insectes est essentiel à leur croissance et leur fertilité), en d’autres termes à leur santé.

gros plan sur un insecte noir
Mouche soldat noire au stade adulte. Matthis Gouin, Fourni par l'auteur

La stimulation du système immunitaire des insectes, principalement innée, peut passer par une « vaccination naturelle », à travers l’exposition à de faibles doses de pathogènes. Cette approche, testée chez l’abeille contre la loque américaine, pourrait être étendue. Une autre piste est la récolte précoce en cas d’infection naissante, pour limiter les pertes.

Cette stratégie nécessite toutefois un arbitrage entre rendement optimal et gestion du risque sanitaire. Le cadre réglementaire actuel est inadapté : les élevages d’insectes ne sont pas couverts par la législation européenne sur la santé animale, et aucune obligation ne contraint à déclarer les pathogènes aux autorités sanitaires. Intégrer l’entomoculture au cadre réglementaire européen existant, tout en adaptant les normes à l’échelle et au budget des producteurs, semble donc indispensable.

Des normes de contrôle qualité à adapter

Se pose enfin la question de la composition nutritionnelle des produits, qui dépend directement de l’alimentation des insectes.

Un substrat riche en acides gras insaturés, par exemple, enrichira les produits finaux en ces mêmes nutriments. Toutefois, cette donnée reste à nuancer selon les espèces et les autres paramètres de production. Les substrats sélectionnés doivent donc correspondre aux critères et aux marchés visés mais également aux comportements alimentaires des espèces élevées et être optimisés pour fournir un rendement optimal. Pour les auxiliaires, un insecte de bonne qualité montre des signes visibles de vitalité et d’adaptabilité aux conditions d’application (culture, serre, verger…).

D’autres paramètres influencent la qualité : le stade et l’âge des insectes, la méthode de mise à mort, le processus de transformation (risque de dégradation nutritionnelle) et le choix de l’espèce. Les professionnels doivent maîtriser les besoins nutritionnels de leurs insectes, la variabilité, la digestibilité des substrats d’élevage et les rendements des processus de transformation. La qualité des produits issus de l’entomoculture doit, enfin, être contrôlée tout au long de la chaîne de production, avec des exigences renforcées pour les marchés de l’alimentation.

Face à ces enjeux, la filière se trouve confrontée à un dilemme réglementaire. Faut-il appliquer directement les normes d’autres productions animales (filières aquacoles ou avicoles par exemple), au risque d’imposer des contraintes inadaptées et potentiellement contre-productives pour une filière aux spécificités biologiques et techniques très différentes ?

Ou bien attendre l’élaboration de réglementations spécifiques aux insectes, au risque de ralentir le développement du secteur et de créer une incertitude juridique ? Une approche pragmatique serait d’adapter progressivement les normes existantes aux réalités de l’entomoculture.

Structurer une filière d’avenir

L’entomoculture représente une piste sérieuse pour relever les défis alimentaires et climatiques du XXIe siècle. Mais son succès dépendra de notre capacité collective à structurer cette filière naissante tout en préservant son potentiel innovant.

Pour qu’elle puisse répondre aux attentes futures, plusieurs défis doivent être relevés. D’abord, créer des référentiels et standardiser les pratiques : guides de bonnes pratiques partagés, protocoles cadrés par espèce, formations pour les opérateurs et décideurs. L’équilibre entre automatisation et expertise humaine reste crucial, notamment pour évaluer des paramètres non mesurables par des capteurs.

Ensuite, améliorer la gestion des risques en instaurant des seuils d’alerte et en hiérarchisant les causes possibles de dysfonctionnement pour les anticiper. Les élevages devront aussi s’adapter aux contextes locaux, particulièrement en matière d’énergie et de ressources disponibles.

Enfin, faire évoluer la législation pour inclure pleinement l’entomoculture, y compris dans les certifications, comme le bio, et les lois sur l’éthique animale dont les insectes restent aujourd’hui exclus. Cet angle mort réglementaire peut convenir provisoirement à certains opérateurs, mais constitue un frein à la crédibilité et à l’acceptabilité sociale de la filière dans son ensemble.

The Conversation

Caroline Wybraniec a reçu des financements de l'ANR FLYPATH (ANR-24-CE20-6083).

Bertrand Méda a reçu des financements de l'Institut Carnot France Futur Elevage (projet PINHS, 2020-2023).

Christophe Bressac a reçu des financements de la région centre val de Loire (projet BioSexFly) et de la BPI (i-Démo FrenchFly)

Elisabeth Herniou a reçu des financements de l'ANR FLYPATH (ANR-24-CE20-6083) et EU Marie Sklodowska-Curie grant agreement 859850 INSECT DOCTORS).

Matthis Gouin a reçu des financements de l'ANR FLYPATH (ANR-24-CE20-6083) et Région Centre Val de Loire

21.02.2026 à 09:15

Dermatose nodulaire : comment faire évoluer les dispositifs de gestion sanitaire ?

François Charrier, Ingénieur de recherche en sciences de gestion, Inrae
Marc Barbier, Directeur de recherche, Inrae
Au-delà des mesures d’abattage contestées, la DNC a révélé une gouvernance sanitaire qui se veut la même pour tous, mais qui gagnerait à s’adapter aux réalités du terrain.
Texte intégral (2457 mots)

La crise de la dermatose nodulaire bovine qui a frappé la France a mis en tension la gouvernance sanitaire française. Au-delà des mesures d’abattage contestées, elle révèle l’enjeu d’adapter les dispositifs de gestion aux réalités du terrain et souligne l’urgence à intégrer davantage les éleveurs en amont de la gestion de crise.


L’émergence du virus de la dermatose nodulaire contagieuse bovine (DNCB) (DNCB) en France a mis en tension l’organisation sanitaire française. Ceci tient à plusieurs raisons. D’abord sa longue durée d’incubation, qui retarde le diagnostic et implique un contrôle difficile des échanges d’animaux. Puis l’urgence de la situation, entraînant une fatigue opérationnelle de l’ensemble des professionnels. Aussi, les impacts sociaux et économiques (et moraux) des mesures de restriction et d’abattage ont conduit à des contestations de ces mesures. Le ministère de l’intérieur y a répondu par un recours à la force.

La crise de la DNCB a provoqué une véritable crise de gouvernance qui s’est cristallisée sur la contestation des mesures de gestion prises en aval de la crise (politiques d’abattage, régimes d’indemnisation…) Elle révèle pourtant l’importance des processus gestionnaires en amont de ces situations (préparation, investissements dans les ressources et l’intelligence collective) pour faire face aux potentielles futures épizooties.


À lire aussi : Dermatose nodulaire contagieuse : les vétérinaires victimes d’une épidémie de désinformation


Les stratégies sanitaires : une diversité de dispositifs

La DNCB est qualifiée dans les réglementations européenne et française comme une « maladie à éradication immédiate ». Les autorités sanitaires ont ainsi dû agir en urgence pour mettre en œuvre les dispositifs de gestion prévus pour « gérer » ce type de maladie : dispositifs de surveillance, de vaccination, de confinement, de biosécurité, de dépeuplement ou d’abattage, d’indemnisation des éleveurs…

Ces dispositifs assemblent des éléments hétérogènes pour accomplir une finalité de stratégie sanitaire : des réglementations (par exemple le règlement européen UE 2016/429), des connaissances (modèles et savoirs épidémiologiques, savoirs règlementaires…), des individus (vétérinaires, préfets…), diverses organisations (services de l’État déconcentrés, laboratoires…), des protocoles (tels que le plan d’intervention d’urgence sanitaire ou les modes d’emploi des vaccins), des outils (vaccin, cartographies…), etc. Or, le déploiement de ces dispositifs a des effets, attendus ou inattendus, qui peuvent en affecter l’efficacité s’ils ne sont pas révisés et discutés en fonction de la situation dans laquelle on les met en œuvre.

L’émergence d’une « situation de gestion »

Les gestionnaires de l’action publique sanitaire sont constamment pris dans un équilibre instable, intrinsèquement lié à l’activité de management. De ce point de vue, la détection et la propagation d’un virus dans un territoire provoquent ce qu’on appelle une « situation de gestion »

Il s’agit d’une situation où des participants sont mis à contribution, volontairement ou par obligation, pour trouver une solution à un problème et le résoudre, dans une temporalité et un espace donnés. Les solutions sont rarement immédiates, d’autant plus lorsque les problèmes sont peu structurés, où que de nouveaux problèmes surgissent (actions d’opposants aux mesures de dépeuplement par exemple). C’est un cadre théorique qui permet de comprendre comment s’engagent des processus collectifs de problématisation, de production de sens et de réorganisation pour résoudre progressivement la situation.

Toute la question est de savoir comment les gestionnaires de l’action publique peuvent favoriser (ou non) ces processus. Dans le cas de la DNCB, les processus gestionnaires « visibles » (ceux qui ont abouti aux mesures de dépeuplement ou d’indemnisation) ont avant tout reposé sur une rationalité régalienne implacable, justifiée par la réglementation et l’urgence de la situation. Pour faire accepter ces mesures de gestion, elle s’est appuyée sur deux instruments. D’un côté, une « pédagogie » basée sur des savoirs scientifiques élevés au rang d’argument d’autorité. De l’autre, sur des indemnisations pour réparer les dégâts et le recours à la force pour faire obtempérer les indociles.

Pour autant, l’étude d’autres situations sanitaires peut permettre de dégager des pistes pour piloter et favoriser des processus gestionnaires en amont des crises.


À lire aussi : Zoonose : cinq ans après le début du Covid, comment minimiser les risques d’émergence ?


Renégocier les dispositifs sanitaires sur le terrain : l’exemple de la fièvre catarrhale ovine en Corse en 2013

En Corse, nous avons étudié plusieurs situations sanitaires : la crise de la fièvre catarrhale ovine (FCO) de 2013, l’échec de la vaccination contre la maladie d’Aujeszky sur les porcs (2011-2013), la réémergence de la tuberculose bovine, le processus de « biosécurisation » des élevages porcins lors de l’introduction de la peste porcine africaine (PPA) en Belgique (2018-2020).

Nos résultats montrent que l’articulation de nombreux dispositifs de gestion peut être améliorée en renforçant la coopération entre les acteurs qui les adaptent et les appliquent sur le terrain. Nous avons modélisé une « écologie de dispositifs dynamique » en analysant les adaptations locales de l’activité gestionnaire régalienne.

Brebis atteinte par la FCO. Fourrure/Wikicommons, CC BY-SA

Reprenons ici le cas de la gestion de la crise liée à l’introduction de la FCO en Corse en 2013, qui est assez similaire à celle posée par la DNCB. Suite à la détection du virus en septembre 2013, l’État a déployé une stratégie basée sur une vaccination massive (ovins, caprins, bovins) et blocage des échanges commerciaux. Mais sur le terrain, plusieurs obstacles majeurs ont obligé l’administration et les éleveurs à réinventer ensemble la situation et la stratégie.

Par exemple, les exportations d’animaux, interdites depuis l’ensemble du territoire insulaire, engendraient un surcoût pour les éleveurs corses qui ne pouvaient plus exporter leurs agneaux vers la Sardaigne, leur principal client. À la demande des éleveurs, un accord inédit a alors été négocié avec l’Italie pour maintenir ces exportations. L’État s’est ainsi assuré de favoriser l’implication des éleveurs dans la stratégie sanitaire.

Aussi, alors que l’administration sanitaire s’est étonnée de la lenteur de la vaccination en octobre 2013, les éleveurs ont expliqué que c’était la pleine période des naissances (agnelages), un moment critique où l’acte vaccinal (manipulation de l’animal, stress), peut avoir des conséquences désastreuses (avortements, affaiblissement). Le calendrier fut décalé en conséquence, et il a été accepté de perdre du temps administratif (et « épidémiologique ») pour respecter le cycle biologique des animaux et le fonctionnement zootechnique des fermes.

Enfin, le dispositif de vaccination des chèvres a été abandonné en cours de route. Le vaccin utilisé n’étant pas officiellement homologué pour les chèvres, des éleveurs craignaient des effets secondaires et des vétérinaires refusèrent d’en prendre la responsabilité. Ce renoncement était pragmatique : contrairement aux ovins, les chèvres ne développaient pas de forme grave de cette maladie. Le risque de créer un réservoir du virus dans le compartiment caprin a été collectivement accepté.

Toutes ces problématiques et modifications, créations ou abandons de dispositifs ont pu être discutées et validées collectivement (parfois de manière conflictuelle, cela arrive et c’est normal) dans le cadre d’un comité de pilotage bimensuel. Il a impliqué une grande diversité d’acteurs : services de l’État, vétérinaires, associations d’éleveurs, chasseurs, chercheurs, etc.

Cet exemple illustre une forme de dialectique entre la situation de crise et les dispositifs de gestion sanitaire déployés. Quelle que soit la rigidité des règles, la problématisation collective est une mécanique majeure permettant la recombinaison et l’adaptation des dispositifs qui vont impacter la vie des éleveurs et des animaux. Cette dialectique ne sera jamais la même d’un territoire et d’une temporalité à l’autre, et la participation des éleveurs (et autres acteurs), en est le moteur principal.

Enfin, cette dialectique ne s’exprime pas seulement en temps de crise, elle peut également s’exprimer en routine… à la condition que les modalités de gouvernance sanitaire le permettent. Penser les émergences et crises à venir c’est précisément penser cette « écologie des dispositifs » et sa dynamique.

La gouvernance sanitaire au cœur d’un problème à trois corps

La gouvernance de la santé animale est l’expression, autant qu’elle en est captive, de ce que Foucault appellerait un « biopouvoir » qui structure le secteur de l’élevage. Il se manifeste par trois dispositifs en tension permanente et en équilibre instable, particulièrement lors de l’émergence de maladie :

  • Un dispositif « productif-marchand » dans lequel l’animal est vu comme un facteur de production ou une marchandise ;

  • Un dispositif « biosécuritaire » dans lequel l’animal est vu comme porteur d’un risque épidémiologique (pour lui, le troupeau, le cheptel national, l’humain dans le cas de zoonoses) ;

  • Un dispositif « écologie-éthique » qui replace l’animal dans son environnement, et le reconnaît comme être vivant sensible, associé au bien-être et à la reconnaissance du travail des éleveurs.

La crise de la DNCB montre comment le premier dispositif a été au cœur de l’expression de ce biopouvoir. Les savoirs épidémiologiques (dispositif « biosécuritaire ») ont été mobilisés dans une politique et une gestion sanitaires contraintes par les structures marchandes. Dans ce contexte, les autres connaissances, par exemple, les apports de la sociologie du travail sur la relation animal-humain ne « pesaient » plus guère, ou si peu.

Ainsi, alors que les réformes de la gouvernance sanitaire cherchent depuis longtemps à « responsabiliser les éleveurs », il parait paradoxal que ces derniers ne soient pas associés à la conception des stratégies sanitaires, à leur suivi et à la réévaluation de ces « écologies » de dispositifs.

Construire une gouvernance du sanitaire c’est établir des liens de confiance et d’inclusion. Alors que ces liens semblent aujourd’hui extrêmement ténus, une future situation pourrait devenir totalement incontrôlable si les éleveurs ne signalaient plus les suspicions à leur vétérinaire de peur de perdre tout leur troupeau. C’est aussi un phénomène connu, analysé et documenté.

Alors que la question, au regard du changement climatique et de l’ultra-connectivité de nos économies agricoles, n’est plus tant de savoir si le cheptel va être touché par tel ou tel pathogène, mais quand et avec quelle intensité, la reconstruction de ces liens de confiance est d’une brûlante nécessité.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

20.02.2026 à 17:53

Salomé, danseuse érotique et cruelle dans l’œil des peintres

Christian-Georges Schwentzel, Professeur d'histoire ancienne, Université de Lorraine
Les peintres Jean-Jacques Henner et Gustave&nbsp;Moreau, qui travaillèrent à la même époque, ont tous deux représenté la figure très sensuelle de Salomé, mais selon des approches radicalement différentes.
Texte intégral (4287 mots)
Gustave Moreau, _Salomé dansant devant Hérode_ (1874-1876). Huile sur toile, musée Gustave-Moreau, Paris. © Grand Palais RMN/René-Gabriel Ojeda.

L’exposition « Salomé, Henner et Moreau face au mythe », au musée national Jean-Jacques-Henner, à Paris, qui se tient du 18 février au 22 juin 2026, présente au public une trentaine de peintures et de dessins figurant la danseuse biblique, incarnation de la séduction féminine.


De courts passages des Évangiles mettent en scène Salomé à l’occasion de la fête d’anniversaire de son grand-oncle, Hérode Antipas, gouverneur, ou tétrarque, de Galilée et de Pérée, au nord et à l’est de la Judée, pour le compte des Romains, vers 29 de notre ère.

La jeune fille « vint exécuter une danse et elle plut à Hérode et à ses convives » raconte l’Évangile selon Marc (Mc 6, 22). Pour qu’elle accepte de se donner en spectacle, Antipas avait promis une forte récompense à sa petite-nièce : « Tout ce que tu me demanderas, je te le donnerai, serait-ce la moitié de mon royaume », lui avait-il assuré.

Une promesse bien excessive. Salomé qui n’a rien d’une innocente jeune fille va en tirer profit. Une fois sa prestation accomplie, elle exige comme salaire « sur un plat, la tête de Jean le Baptiste ». Le prophète, précurseur du Christ pour les chrétiens, est alors décapité sur ordre d’Antipas pour satisfaire la demande de l’adolescente.

L’affiche de l’exposition.

Le récit évangélique est très bref. Il n’en produit pas moins, dans l’esprit des lecteurs, de fortes images mentales, propices à la rêverie. On y trouve trois ingrédients étroitement liés : une jeune fille, une danse, un meurtre.

Ainsi, une princesse qu’on imagine particulièrement charmante, sans quoi son grand-oncle n’aurait pas insisté outre mesure pour la voir danser, est-elle capable, contre toute attente, de provoquer l’exécution d’un saint homme. Cette ambivalence constitue le moteur du fantasme « Salomé » qui associe le désir et la mort.

Bacchante en train de danser, cratère de Derveni, IVᵉ siècle avant notre ère, Musée archéologique de Thessalonique. Wikimedia, Michael Greenhalgh, CC BY

La bacchante impudique

Plus tard, Saint Augustin (354-430) a contribué à populariser la figure de Salomé, de manière paradoxale, puisque son but était de condamner la femme réputée impudique. En décrivant une danse érotique effrénée, il fixe définitivement ce qui jusque-là n’avait été que suggéré par les Évangiles : « Tantôt, elle se courbe de côté et présente son flanc aux yeux des spectateurs ; tantôt, en présence de ces hommes, elle fait parade de ses seins » (seizième sermon Pour la décollation de saint Jean-Baptiste).

À l’époque où écrit l’auteur, les cultes polythéistes sont encore présents dans l’Empire romain. Augustin se souvient sans doute des images de bacchantes, ces femmes de la mythologie grecque, adeptes de Bacchus ou Dionysos et dépeintes comme des danseuses déchaînées.

Sur un grand vase en bronze doré, découvert à Derveni, dans le nord de la Grèce, aujourd’hui au musée archéologique de Thessalonique, on peut voir une bacchante en délire, dont un sein dénudé bondit par-dessus sa tunique. Les courbes de son corps ne manquent pas d’exciter le satyre, être hybride mi-homme mi-bouc, dont le phallus se dresse à gauche de la danseuse.

Au XVe siècle, le peintre italien Benozzo Gozzoli s’inspire à son tour de ces antiques images, comme le montrent les mouvements du drapé de sa Salomé. Alléché, Hérode Antipas, pose sa main droite sur son cœur, siège du désir amoureux, tandis que, de l’autre, il serre fortement un couteau phallique pointé vers le haut.

Benozzo Gozzoli, La Danse de Salomé, 1461. National Gallery of Art, Washington. Wikimedia

La danseuse orientale

Au XIXe siècle, la figure de la bacchante antique fusionne avec celle de la danseuse du ventre, alors que le mouvement orientaliste triomphe en Occident dans l’art et la littérature. Gustave Flaubert dans « Hérodias », l’un de ses Trois Contes (1877), joue un rôle majeur dans ce processus d’identification. Pour décrire Salomé, il s’inspire des danseuses égyptiennes Kuchuk Hanem et Azizeh qu’il a rencontrées lors d’un voyage dans la vallée du Nil :

« Les paupières entre-closes, elle se tordait la taille, balançait son ventre avec des ondulations de houle, faisait trembler ses deux seins. »

La Salomé de Flaubert devient le prototype de la danseuse orientale qui va fasciner le public occidental pendant plusieurs décennies.

En 1891, Oscar Wilde, s’inspire de Flaubert dans sa pièce de théâtre Salomé, tout en inventant le thème de la danse des sept voiles, striptease oriental en plusieurs étapes, qui sera mis en musique par Richard Strauss, en 1905.

Gustave Moreau, Salomé dansant devant Hérode. Huile sur toile commencée en 1874. Musée Gustave-Moreau, Paris. Grand Palais. RMN/René-Gabriel Ojeda

C’est dans ce contexte d’orientalisme occidental, associant érotisme et exotisme, que s’inscrit l’œuvre de Gustave Moreau (1826-1898). S’y ajoute la découverte archéologique de l’Égypte antique et notamment de fresques montrant des banquets, des musiciennes et des danseuses dénudées sur les parois d’antiques tombeaux.

Musiciennes et danseuses égyptiennes, fresque du tombeau de Nébamon, vers 1350 avant notre ère. Wikimedia

Gustave Moreau réalise plusieurs peintures et dessins figurant Salomé, notamment une Salomé dansant, commencée en 1874 et retouchée jusque dans les années 1890, qui compte parmi des chefs d’œuvres de l’artiste. La princesse, déhanchée, se déshabille de son long drapé bleu ; elle lève le bras gauche, signe qu’elle va commencer sa danse.

L’œil Oudjat, dit l’œil d’Horus, égyptien. Wikimedia, Jeff Dahl, CC BY

Si son corps est inspiré des Vénus de la sculpture gréco-romaine, avec ses petits seins, ses larges hanches et la blancheur de sa nudité qui évoque le marbre, les motifs qui le couvrent, à la manière de tatouages, font directement référence à l’Égypte pharaonique.

On y trouve des cobras égyptiens, une fleur de lotus, des amulettes en forme d’œil Oudjat, associé au dieu Horus, ou encore un scarabée ailé, symbole de résurrection, et des têtes de bélier qui évoquent Amon.


À lire aussi : Les prêtresses de l’Égypte ancienne : entre érotisme et religion


La technique de surimpression elle-même a pu être suggérée au peintre par des momies de femmes égyptiennes aux corps tatoués, mises au jour depuis le XIXᵉ siècle dans la vallée du Nil.

Il en résulte une œuvre où, malgré l’effeuillage de la princesse, c’est en fin de compte l’énigme et le mystère qui prédominent.

Jeunesse, beauté et mystère

Dans les années 1890, Jean-Jacques Henner (1829-1905) s’empare à son tour de la séduisante princesse qu’il traite d’une manière très différente de Moreau. Les thèmes de l’Orient et de la danse s’estompent comme des accessoires secondaires aux yeux du peintre.

Variante de 1904. Musée national Jean-Jacques-Henner, Paris. Isabelle de Lannoy
Jean-Jacques Henner, Salomé, vers 1892. Huile sur toile, collection particulière. Jean-Yves Lacôte

Henner se concentre sur l’essentiel selon lui : la jeunesse et la beauté charnelle émergeant d’une brume mystérieuse. Il peint une adolescente au regard trouble, longs cheveux et épaules dénudées, tenant contre elle le grand plateau de cuivre, discret élément oriental, sur lequel elle va recevoir la tête du saint décapité. La chair, pâle et brillante de la jeune fille, est mise en valeur par le contraste avec sa tunique de couleur unie, bleue (prototype vers 1892) ou rouge (variante de 1904), et le fond très sombre. La beauté de la chair paraît sortie d’un songe aux contours flous mais terriblement captivants.

Danse « orientale » de Mata Hari, 1910. Wikimédia

Déhanchements et culture de masse

Dans la seconde moitié du XIXe et au début du XXe siècle, l’apogée du mythe « Salomé » n’en est pas moins limité à une élite cultivée, intellectuelle et bourgeoise, « fin de siècle ». Contrairement à Cléopâtre, autre figure fantasmée héritée de l’Antiquité, elle ne fera que des apparitions très brèves et peu marquantes dans la culture de masse au XXᵉ siècle. Salomé tombe progressivement dans l’oubli.

Le fantasme de l’effeuillage exotique est dissocié de son prototype biblique. La danseuse lascive va triompher auprès du grand public sous d’autres noms, comme Mata Hari, prétendue princesse javanaise adepte du dieu hindou Shiva qui fascine Paris et l’Europe occidentale à la veille de la Première Guerre mondiale. La cruauté de la femme fatale est gommée au profit de ses seuls appâts physiques et érotiques.

Shakira et Beyoncé dans le clip de Beautiful Liar, 2006. Capture d’écran YouTube/Andr€a, CC BY

En 2006, dans la continuité de ces ondulations sensuelles remontant à l’Égypte pharaonique, Shakira et Beyoncé remportent un succès mondial avec leur clip intitulé Beautiful Liar, qui offre étonnant mélange de RnB et de danse arabe. Les déhanchements rythmés s’accompagnent désormais de paroles féministes : il n’est plus question de la décapitation d’un prophète, mais d’un pervers narcissique que les deux interprètes décident conjointement de bannir de leur existence. Une décision salutaire !

The Conversation

Christian-Georges Schwentzel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

20.02.2026 à 16:44

Pourquoi les Français font-ils moins d’enfants ? Comprendre la fin d’une exception

Sylvie Dubuc, Professeure en sciences de la population, Université de Strasbourg
Francois-Olivier Seys, Professeur de géographie, Université de Lille
Sébastien Oliveau, Géographe, directeur de la MSH Paris-Saclay, Université Paris-Saclay; Aix-Marseille Université (AMU)
La France connaît désormais plus de décès que de naissances. Le vieillissement de la population s’accompagne d’une baisse de la fécondité et du désir d’enfants.
Texte intégral (2524 mots)
Statistiquement, ce bébé a aujourd’hui moins de chances d’avoir un petit frère ou une petite sœur qu’il y a une vingtaine d’années. Shalev Cohen/Unsplash, CC BY

Pendant des décennies, la France a fait figure d’exception démographique en Europe, grâce à une fécondité relativement élevée. Or, cette singularité s’efface aujourd’hui à la faveur de transformations des trajectoires de vie, des territoires et des représentations de l’avenir. Derrière les chiffres des naissances, c’est une recomposition silencieuse qui se dessine. Que nous dit-elle de la société française contemporaine ?


En ce début d’année 2026, l’Insee vient de publier une estimation que toute la presse a reprise : la France a connu, en 2025, 645 000 naissances pour 651 000 décès. Cette situation n’est pas une surprise, mais le révélateur d’une dynamique amorcée depuis plus d’une décennie.

Pendant longtemps, la France a constitué une exception en Europe. Par exemple, l’Allemagne connaît un déficit naturel depuis 1970, et l’Italie depuis 1990.

Avec 1,56 enfant par femme en 2025, la France reste plus féconde que la moyenne de l’Union européenne (1,38 enfant par femme en 2023). Mais ce niveau est le plus faible connu par le pays depuis la Première Guerre mondiale.

Une modification structurelle de la dynamique démographique

Ces mesures sont données par l’indicateur conjoncturel de fécondité (ICF) qui estime le nombre d’enfants qu’auraient, en moyenne, les femmes si elles avaient au cours de leur vie fertile les taux de fécondité par âge mesurés une année donnée (on additionne par exemple la fécondité des femmes de chaque groupe d’âge, de 15 à 49 ans, en 2025 pour obtenir un taux de fécondité total conjoncturel en 2025).

Cet indicateur présente l’avantage de pouvoir être calculé en temps réel. L’inconvénient est qu’il ne tient pas compte du calendrier de la fécondité. Si une génération de femmes a des enfants plus tard, il y aura une baisse de l’ICF alors que sa descendance finale (DF) ne diminuera pas nécessairement.

La descendance finale (DF) est un constat : on regarde à la fin de leur vie fertile, combien d’enfants a réellement eu une génération de femmes. C’est donc une mesure réelle, non impactée par le calendrier de la fécondité, mais il faut attendre qu’une génération de femmes ait atteint 50 ans pour la calculer.

L’ICF est donc soumis à des variations annuelles plus fortes que la DF. Ainsi, l’ICF a varié depuis 1980 où il était de 1,94 enfant par femme. On a observé une phase de baisse jusqu’en 1995 avec un minimum de 1,73, puis une hausse jusqu’en 2010 où on a atteint 2,03. À partir de 2014, s’amorce une baisse très rapide jusqu’à 1,56 en 2025.

La DF a été relativement stable : elle a varié entre 2 et 2,1 enfants par femme pour les générations 1960, 1970 ou 1980. Il est trop tôt pour pouvoir calculer la DF de la génération 1990, mais elle sera probablement plus faible.

Des enfants de plus en plus tard

Les Françaises ont leurs enfants de plus en plus tard. Cette évolution a commencé vers la fin des années 1960. L’âge moyen des mères à la maternité s’est encore retardé à 29,6 ans en 2005, puis à 31,2 ans en 2025.

Le fait d’avoir des enfants de plus en plus tard, en lien avec la baisse de la fertilité des femmes après 30 ans, joue aussi sur la DF. Ainsi, 87 % des femmes de la génération 1930 (les mères du baby-boom) ont eu au moins un enfant. Ce chiffre tombe à 80 % pour la génération 1970 et il s’approche de 75 % pour celles de 1980.

Une nouvelle géographie de la fécondité

Tout au long du XXᵉ siècle, les déterminants de la fécondité étaient sociaux et étaient représentés par une courbe en U. Les Françaises les plus fécondes étaient celles issues des catégories socioprofessionnelles les plus aisées et les plus modestes. Les Françaises les moins fécondes étant issues des classes sociales moyennes (employés et des professions intermédiaires).

La fécondité en France (2006-2019)

La Fécondité en France 2006-2019
La fécondité en France (2006-2019). Carte préparée par les auteurs dans le cadre de l’Atlas de la Population française, CNRS Éditions. Fourni par l'auteur

Un « croissant fertile » au nord se caractérisait par une fécondité historiquement plus élevée que celle du Sud, encore perceptible en 2010. Cette singularité tenait à la structure sociale et culturelle de la population : majoritairement issue des classes populaires et ouvrières, plus fortement marquée par le catholicisme et des valeurs traditionnelles, dans un Nord alors très industrialisé.

Mais ces quinze dernières années, le croissant fertile tend à s’effacer, avec une baisse de la fécondité sur l’ensemble du territoire. Seules des poches de plus forte de fécondité relative persistent, d’une part, à l’est de la Bretagne et dans les Pays de la Loire, où perdurent des normes familiales plus traditionnelles, et, d’autre part, dans la périphérie francilienne et la vallée du Rhône, espaces marqués par une plus forte présence des classes populaires.

Certaines régions de fécondité traditionnellement forte, comme le Nord, le Pas-de-Calais et la Lorraine, ont un recul marqué des familles nombreuses et désormais une fécondité comparable à la moyenne nationale. Cela pourrait s’expliquer par un recul des valeurs traditionnelles de la famille, mais surtout par le déclin industriel et l’incertitude économique (chômage, précarité), qui sont des facteurs documentés de réduction de la fécondité ces quinze dernières années (en France et ailleurs en Europe).

Enfin, le vieillissement des mères à la maternité est généralisé, même s’il est plus marqué dans le sud de la France et les métropoles.

Le désir d’enfants baisse

Le désir d’enfant renvoie à deux notions distinctes. Le nombre d’enfants souhaités est la réponse à la question de savoir combien les personnes souhaitent avoir d’enfants. Traditionnellement, les femmes expriment un désir d’enfants légèrement supérieur à celui des hommes. Le désir d’enfants réalisé est complémentaire (il s’agit de la DF).

En les comparant, le nombre d’enfants souhaité est toujours supérieur au désir d’enfants réalisé, car une partie des femmes a moins d’enfants que souhaité pour des raisons diverses : infertilité, rupture d’union, difficultés économiques. Ces contraintes (économiques, sociales, biologiques) limitent la capacité des individus à concrétiser leurs intentions reproductives et participe à l’abaissement de la fécondité.

Le désir d’enfant a changé de dimension. Aujourd’hui, les couples stables souhaitent généralement avoir un ou deux enfants. Il y a vingt-cinq ans, c’était plutôt deux ou trois. Le refus d’avoir des enfants a progressé mais il est encore marginal, passant de 5 à 12 %.

Quelques hypothèses

Cette baisse du désir d’enfants est nouvelle en France et on peut émettre quelques hypothèses, impactant conjointement le désir d’enfants et sa réalisation, en plus des facteurs démographiques.

Tout d’abord, si l’élévation du niveau d’éducation et l’essor de l’activité professionnelle féminine ont fortement contribué à la baisse de la fécondité à la fin du XXᵉ siècle, cet effet semble aujourd’hui largement épuisé. La massification de l’enseignement supérieur et l’ancrage durable du travail féminin constituent désormais un cadre stabilisé, qui ne permet plus, à lui seul, de rendre compte du recul récent de la fécondité.

La crainte de l’avenir semble être la raison primordiale. Le contexte économique difficile s’associe à une baisse de la fécondité, comme l’ont montré les études en Europe, par exemple avec la crise de 2008. Dans toutes les enquêtes, les jeunes adultes expriment leurs angoisses face au changement climatique, au contexte géopolitique, à l’incertitude économique et sociale. La crise climatique joue probablement, mais à la marge. D’ailleurs, le refus d’enfants est encore très minoritaire. Dans le détail, c’est plutôt un comportement des jeunes des grandes villes, ayant fait des études supérieures, pour lesquels ne pas avoir d’enfant serait un geste « écologique ».

Si l’évolution des représentations de la famille et des changements normatifs participent à ce mouvement de baisse de la fécondité chez les jeunes femmes, on peut aussi y voir des difficultés accrues à trouver un équilibre entre famille et travail dans un contexte de précarisation de l’emploi. En effet, l’emploi et ses modalités jouent probablement un rôle. Si le chômage a baissé en France depuis une petite dizaine d’années, la nature des emplois a changé. Le premier emploi stable arrive souvent après plusieurs contrats précaires, donc plus tard.

Le logement joue également un rôle. La France ne propose pas suffisamment de logements par rapport à la croissance du nombre de ménages. Cela induit une augmentation forte des prix à la location et à l’achat, et une pénurie de logements disponibles, en particulier dans les grandes villes. Beaucoup de jeunes actifs vivent encore dans le ménage parental ou en colocation.

Quel avenir pour la fécondité en France ?

Ces facteurs pourraient accroître l’écart entre nombre d’enfants idéal et réalisé. On peut penser que les risques évoqués sont désormais perçus comme des contraintes de long terme pour les jeunes générations. Une fois intériorisées, elles sont désormais suffisamment fortes pour changer les normes et représentations de la famille, qui influencent le désir d’enfant lui-même.

La France est probablement à un tournant démographique, amorcé il y a une dizaine d’années : l’accroissement naturel est devenu un déficit. La baisse du désir d’enfants chez les jeunes générations nous dit clairement que cela devrait être une tendance durable.

Jusqu’à la fin de la décennie, on peut s’attendre à un indicateur conjoncturel de fécondité probablement inférieur à 1,7. Il ne devrait cependant pas baisser en dessous de 1,3, le désir d’enfants étant encore présent. Cela signifie que le déficit naturel s’installera probablement dans la durée. En ce sens, la France est devenue un pays européen comme les autres puisque c’est le cas dans la presque totalité des pays de l’Union européenne.

The Conversation

Sylvie Dubuc a reçu des financements du LABoratoire d’EXcellence iPOPs

Francois-Olivier Seys et Sébastien Oliveau ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

20.02.2026 à 16:43

Rutabaga, topinambour : ce que le retour des légumes « oubliés » dit de notre rapport à l’alimentation

Anne Parizot, Professeur des universités en sciences de l'information et de la communication émérite, Université Bourgogne Europe
Comment, en quelques décennies, des légumes honnis ont-ils pu devenir tendance&nbsp;? Sans doute pour la simple raison que, si leur goût n'a jamais changé, beaucoup de choses autour d’eux ont, quant à elles, évolué.
Texte intégral (2357 mots)
_L’Hiver_ (1573), de Giuseppe Arcimboldo/Illustration de topinambours extraite des _Plantes potagères, l’album Vilmorin_ (2004), de Jacques Barrau/Rutabagas. Musée du Louvre-Lens/Éditions Bibliothèque de l’image/Wikimédia, CC BY

Le goût n’est pas qu’une affaire de papilles gustatives. Certains légumes peuvent ainsi avoir celui de la guerre et de la privation. C’est le cas de divers légumes racines, comme les topinambours ou les rutabagas, associés à des traumatismes historiques. Aujourd’hui cependant, ils ont le vent en poupe et sont parfois considérés comme des trésors cachés que l’on redécouvre ou bien comme des « légumes authentiques ». Comment ce changement a-t-il pu s’opérer en quelques décennies quand les saveurs de ces légumes n’ont, elles, bien sûr pas changé ?


On les disait tristes, fades ou dépassés, les topinambours, rutabagas, panais ou crosnes font leur retour sur les étals, dans les paniers bio et sur les menus gastronomiques. Associés aux souvenirs de guerre et de pénurie, ils questionnent notre apport à l’alimentation. Comment des légumes associés à la contrainte alimentaire sont-ils devenus emblèmes d’une cuisine désirable et responsable ?

Des légumes longtemps méprisés par l’élite

L’histoire des légumes varie selon les périodes : longtemps méprisés par l’élite jusqu’à la Renaissance, certains ont alors connu un engouement, lié au changement de statut social des légumes, à la transgression des prescriptions médicales, à l’influence italienne et à l’acclimatation de produits venus d’Espagne.

Historiquement, ces légumes constituaient une base ordinaire de l’alimentation européenne du début du Moyen Âge à l’époque moderne. Leur robustesse, leur capacité de conservation en faisaient des ressources fiables face aux aléas climatiques et aux pénuries. Cultivés sous terre, ils assuraient la sécurité alimentaire, notamment lors des crises frumentaires (XIVᵉ-XVIIᵉ siècles) et en période de conflit. Cette centralité s’érode à partir du XVIIIᵉ siècle, avec la rationalisation agricole et l’essor de cultures plus productives et standardisées, comme la pomme de terre qui s’impose durablement au XIXᵉ siècle.

Des légumes marqués par la pénurie et la honte alimentaire

Les guerres du XXᵉ siècle accentuent leur marginalisation. Moins stratégiques que la pomme de terre et les céréales, ces légumes échappent davantage aux prélèvements et aux destructions. Indissociables de la Seconde Guerre mondiale, cultivés massivement pour pallier l’absence des denrées confisquées, ils deviennent des aliments de survie, durablement associés, dans la mémoire collective, à la contrainte, la monotonie et la privation plutôt qu’au plaisir alimentaire.

Après la Libération, leur rejet est brutal. Manger du rutabaga rappelle un passé de privation que l’on souhaite effacer. L’industrialisation agricole et la standardisation des goûts les relèguent hors des pratiques alimentaires ordinaires.

« Le topinambour », Karambolage (Arte).

Ce n’est pas un phénomène isolé. Le sociologue Claude Fischler montre que l’alimentation est un puissant vecteur de mémoire sociale. S’il n’analyse pas directement les légumes racines, ses travaux sur l’alimentation, notamment sur les crises de la vache folle ou des organismes génétiquement modifiés (OGM), permettent de comprendre comment certains aliments, associés à des expériences historiques de contrainte, de pénurie, se trouvent durablement chargés d’une valeur mémorielle négative.

Le sociologue Erving Goffman, évoque lui à cet égard, des aliments « disqualifiés » : leur consommation signale une contrainte plutôt qu’un goût rappelant une identité alimentaire associée à la privation.

Hiérarchies alimentaires et distinctions sociales

Le déclassement des légumes racines s’inscrit également dans une hiérarchisation symbolique. Certains légumes sont perçus comme rustiques ou pauvres tandis que d’autres – asperges, artichauts, tomates – sont « nobles », valorisés par leur rareté, leur mode de culture et leur association historique aux cuisines urbaines ou aristocratiques. La valeur gustative se confond ainsi avec la valeur sociale, selon Pierre Bourdieu.

Consommer ces légumes relevait d’un « goût de nécessité » (aliments nourrissants, « tenant au corps » et peu coûteux, comme la pomme de terre, la soupe), en contraste avec le « goût de liberté » des classes dominantes (préparations légères et esthétisées). La raréfaction des cultures reflète un ajustement de l’offre agricole à une demande socialement construite : à mesure que ces légumes deviennent les emblèmes d’un « goût de nécessité » disqualifié, leur consommation recule, entraînant une contraction des surfaces cultivées et la marginalisation des filières correspondantes.

Du légume subi au légume choisi

Leur retour au XXIᵉ siècle s’inscrit dans les critiques contemporaines de l’agro-industrie, la valorisation des circuits courts et la recherche d’une alimentation plus locale. Là où ils étaient imposés, ils deviennent des choix alimentaires revendiqués. Il faut dire que les générations, qui les ont associés à la privation et à la guerre, disparaissent peu à peu.

Leur consommation est désormais un marqueur de compétence gastronomique et de distinction culturelle, signalant un rapport éclairé à l’alimentation, au temps long et à l’histoire des produits.

Le rôle décisif du langage

Cette requalification repose sur un travail discursif. On ne parle plus de « légumes de guerre », mais de « légumes anciens », « oubliés », « racines de terroir ». Le glissement lexical désactive la mémoire douloureuse et valorise ces « trésors cachés » que l’on redécouvre.

L’authenticité alimentaire est avant tout un effet de discours.

Dire « ancien » plutôt que « dépassé », « oublié » plutôt qu’« indésirable » fonctionne comme marqueurs symboliques, signifiant un choix réfléchi et un engagement culturel ou écologique. Le consommateur achète une narration, pas seulement un légume.

« Légumes anciens » ne renvoie pas nécessairement à l’âge historique du légume ni à sa production locale. Des topinambours ou rutabagas dits « oubliés » n’ont pas disparu et ont continué à être depuis le Moyen Âge cultivés en continu dans certaines régions. Certains légumes très anciens sur le plan botanique – panais, scorsonère, cardons – n’ont jamais été oubliés et continuent de figurer dans des pratiques alimentaires locales ou rurales.

La création d’une nostalgie

De même, l’argument de la localité peut être plus rhétorique que factuel. Ces légumes, vendus dans les circuits bio ou gastronomiques, peuvent provenir de régions éloignées ou de cultures industrialisées hors saison. La mise en avant du terroir relève davantage d’un effet de discours visant à renforcer la valeur symbolique et patrimoniale du produit que d’une réalité géographique stricte produisant une perception de proximité et d’authenticité, indépendamment de la chaîne d’approvisionnement réelle.

Diffusés dans les livres de cuisine, les médias, les marchés et la distribution spécialisée, ils dégagent une nostalgie recomposée, souvent sans souvenir vécu. Le passé convoqué est débarrassé de ses souffrances. « Oublié » suggère une nécessité de réhabilitation, là où le « légume de pénurie » enferme l’aliment dans un passé subi, ce qui correspond à une recomposition symbolique de la mémoire alimentaire.

Dans les rayons bio, sur les sites spécialisés, topinambour et panais sont des produits de saison inscrits dans un registre valorisant « légume ancien de saison ou de terroir, racine d’hiver, légumes patrimoniaux ».

Un adepte de permaculture vante les mérites du topinambour, un légume « résilient » qui « se débrouille tout seul ».

Les médias français et anglo-saxons associent eux ces légumes, généralement robustes au froid et à la maladie, demandant peu de traitement chimiques ou agricoles, préservant la diversité génétique, à une cuisine durable, créative et engagée, renforçant leur dimension patrimoniale.

Des « légumes vérités » qui « disent le paysage »

Les chefs et leurs collaborateurs légitiment à leur tour cette requalification symbolique avec des termes parfois de plus en plus abstraits. Ils sont pour cela présentés comme des artistes « en quête de vérité » à l’instar du chef Olivier Nasti qui louera les goûts authentiques des légumes racines. On passe ainsi d’adjectif descriptif (légume rustique par exemple) à des qualificatifs moraux, qui n’évoquent plus une qualité agronomique mais qui ont une fonction révélatrice : Il est désormais question de  dire le paysage  ou  raconter le terroir , ce qui pose le légume comme médium.

Le maraîcher Joël Thiébault, qui fournit de nombreux chefs étoilés assure ainsi « expliquer aux cuisiniers le vécu d'un légume  » lors de la vente, tandis que l’experte en image de marque Annie Ziliani voyait dans le succès des légumes racines « une envie de choses qui se sont frottées aux éléments, qui ont touché la terre ». Ces légumes, renchérit le chef Jérôme Guicheteau, sont de surcroît fourni par des « vrais gens, des gens de la terre » qui s’oppose à la grande distribution.

Ces légumes peuvent également se colorer politiquement : le chef Mauro Colagreco revendique ainsi l’usage de légumes anciens comme un acte engagé : préservation de la biodiversité, valorisation des variétés oubliées, respect de la saisonnalité et critique de l’agro-industrie.

L’esthétisation de l’imperfection et la nostalgie construite

Longtemps jugés laids, terreux ou informes, ils sont désormais qualifiés de « biscornus », de « singuliers », d’« imparfaits mais vrais ».

L’irrégularité devient une valeur esthétique et morale, opposée au calibrage industriel. La nostalgie suscitée est largement construite : la plupart des consommateurs n’en ont aucune mémoire vécue. Le passé mobilisé est recomposé à partir des valeurs du présent : rejet de la standardisation et désir de réenracinement.

Leur désirabilité ne tient pas à la saveur, mais au regard porté sur eux. À travers leur retour, ce sont nos manières de raconter l’alimentation, le passé et le territoire qui se recomposent. Certains semenciers proposent désormais des « coffrets de légumes oubliés » comme on offrirait un vin rare ou un objet culturel.

Le topinambour ou le panais deviennent ainsi des supports de récit, de transmission et de positionnement symbolique. Manger ces légumes devient une manière de dire quelque chose de soi, de son rapport au temps, à l’histoire et aux modèles de production.

Reste une question ouverte : ces « légumes oubliés » redeviendront-ils ordinaires ou resteront-ils des signes distinctifs d’un art contemporain de manger ?

The Conversation

Anne Parizot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

20.02.2026 à 16:42

Qu’est-ce qui incite les enfants à tricher ? Faut-il s’en inquiéter ?

Penny Van Bergen, Associate Professor in the Psychology of Education, Macquarie University
Comment réagir face à des enfants qui trichent&nbsp;? Pourquoi se comportent-ils de cette façon&nbsp;? En quoi est-ce révélateur sur le plan de leur développement psychologique&nbsp;?
Texte intégral (2364 mots)
Les enfants sont plus enclins à tricher dans un environnement où la tentation est plus forte. Basilco Stock Studio/Shutterstock

Il est courant pour les enfants de tricher et ce comportement peut déstabiliser les adultes. Que nous apprend-il en matière de développement psychologique ? Comment réagir face à de jeunes joueurs qui détournent les règles ?


Tout le monde connaît des enfants qui trichent au Monopoly ou en jouant au cricket. Peut-être même ont-ils triché lors d’un examen scolaire.

Si vous remarquez que votre propre enfant se comporte de cette manière, vous pouvez craindre qu’il ne s’oriente vers une vie pleine de fraudes.

Mais si l’on se place du point de vue du développement de l’enfant, la tricherie n’est généralement pas un sujet d’inquiétude.

Qu’est-ce que la tricherie ?

La tricherie se produit lorsqu’un enfant se comporte de manière malhonnête afin d’obtenir un avantage indu. Il peut prétendre avoir obtenu un six au dé, jeter un œil sur les cartes des autres, noter de manière incorrecte le score d’un match sportif ou manipuler des jeux vidéo pour passer des niveaux.

Malgré tous les efforts déployés par les parents et les enseignants, la tricherie est extrêmement courante. Dans une expérience, on a demandé à des enfants de cinq ans de ne pas regarder dans une boîte pendant que l’expérimentateur quittait la pièce. Presque tous ont regardé et la plupart ont ensuite nié l’avoir fait.

Un signe de développement

La capacité à tromper peut signaler l’émergence de nouvelles compétences, notamment la capacité à appréhender ce que pensent les autres.

Pour tromper efficacement, nous devons réfléchir à ce que pense l’autre. Nous devons ensuite le tromper en lui faisant croire à une réalité différente. Ces compétences cognitives n’apparaissent qu’à l’âge préscolaire, et ce n’est qu’à partir du primaire que les enfants parviennent à maintenir une histoire fictive sur une longue période.

Two children sit next to a Monopoly board
Les recherches montrent qu’il est très courant que les enfants trichent. spass/Shutterstock

Tricher à l’école

À mesure que les enfants grandissent, ils peuvent devenir plus prudents en matière de tricherie en général, mais c’est là aussi qu’ils commencent à tricher à l’école.

Dans une étude américaine, plus de trois lycéens sur quatre ont déclaré avoir triché au moins une fois à l’école au cours de l’année écoulée.

Les techniques courantes comprenaient le partage de leur travail avec d’autres, l’obtention des réponses aux tests à l’avance, le plagiat sur Internet et la collaboration dans des cas où ils n’étaient pas censés le faire.

Les élèves étaient plus enclins à considérer la tricherie comme acceptable lorsqu’ils aidaient un camarade ou lorsqu’ils pouvaient rationaliser ce comportement de manière prosociale (par exemple, ils manquaient de temps et devaient tricher parce qu’ils s’occupaient d’un membre de leur famille).

La tentation a son importance

Tout comme les adultes, les enfants sont plus enclins à tricher dans un environnement où la tentation est plus forte. Dans une étude, les enfants âgés de sept ans à dix ans étaient plus enclins à tricher à un jeu de dés s’ils pouvaient gagner un prix plus important.

Les enfants et les adolescents déclarent également être plus enclins à tricher lorsqu’il s’agit d’éviter des conséquences négatives. Dès 1932, le directeur d’école américain M. A. Steiner écrivait qu’une surcharge de travail incitait les élèves à tricher. Dans une étude réalisée en 2008, les élèves eux-mêmes ont déclaré tricher à l’école parce qu’ils n’étaient pas intéressés par les matières enseignées ou parce qu’ils subissaient une pression pour obtenir de bons résultats.

Si la tentation incite à tricher, le risque d’être pris à tricher peut encourager l’honnêteté. Les enfants doivent peser les avantages de la tricherie par rapport aux risques d’être pris.

En grandissant, les enfants peuvent également réfléchir à l’impact de la tricherie sur leur image d’eux-mêmes. Par exemple, « être une bonne personne est important pour moi, donc je ne tricherai pas ».

Les garçons trichent-ils plus que les filles ?

Certains enfants sont plus enclins à tricher que d’autres. Par exemple, dans une étude réalisée en 2019 dans laquelle les enfants devaient lancer six dés leur permettant de gagner des prix, les garçons trichaient plus que les filles. Les garçons et les filles avaient également une approche différente de la tricherie : les filles étaient plus enclines à tricher pour éviter les pertes, tandis que les garçons étaient motivés autant par les pertes que par les gains.

Les compétences sociales font également la différence. Une étude américaine réalisée en 2003 a montré que les enfants de CE1 qui ont été rejetés par leurs camarades sont plus susceptibles de tricher aux jeux de société, même lorsqu’ils jouent ensuite avec des enfants qu’ils n’ont jamais rencontrés auparavant. Il est possible qu’ils aient plus de mal à contrôler leurs émotions et leurs comportements.

Les adolescents qui ont moins de maîtrise d’eux-mêmes et qui tolèrent davantage les infractions aux règles sont plus susceptibles d’accepter la tricherie scolaire, tout comme ceux qui se comportent mal en classe.

A young boy puts his hand over a man’s eyes as they play a video game on the couch
Une étude suggère que les garçons sont plus enclins à tricher que les filles. Jacob Lund/Shutterstock

Comment les adultes peuvent-ils décourager la tricherie ?

Bien que la tricherie soit courante, elle peut poser des problèmes croissants aux enfants et aux adolescents à mesure que les enjeux deviennent plus importants. Une étude menée auprès d’élèves chinois de quatrième a montré que ceux qui trichaient lors de la correction de leurs propres tests avaient moins de chances d’apprendre la bonne réponse par la suite.

Voici quatre mesures que les parents et les enseignants peuvent prendre pour décourager la tricherie.

Ayez des conversations ouvertes : discutez ouvertement et avec compassion des raisons pour lesquelles tricher n’est pas une bonne idée (par exemple, « cela gâche le plaisir de vos amis »). Des recherches montrent que les enfants et les adolescents qui avaient promis aux chercheurs de ne pas tricher à un jeu étaient moins susceptibles de le faire. Mais les enfants qui craignent d’avoir des ennuis sont moins enclins à dire la vérité.

Ne mettez pas trop de pression sur les résultats : lorsque vous parlez de l’école, utilisez un langage lié à l’apprentissage plutôt qu’à la performance (« fais de ton mieux, c’est tout ce que tu peux faire »). Des études montrent que les environnements scolaires très compétitifs favorisent la tricherie, car les avantages de la réussite et les risques de l’échec sont amplifiés.

Soyez positif quant au caractère de votre enfant : dans une étude, des enfants d’âge préscolaire ont été répartis en deux groupes. Dans le groupe « bonne réputation », on a dit aux enfants : « Je connais des enfants de votre classe et ils m’ont dit que vous étiez un enfant sage ». Dans l’autre groupe, on n’a rien dit aux enfants. On a ensuite demandé à tous les enfants de ne pas regarder un jouet attrayant pendant que l’expérimentateur quittait la pièce. Les enfants du groupe « bonne réputation » étaient moins enclins à tricher (60 %) que ceux de l’autre groupe (90 %).

Montrez l’exemple aux enfants : si les adultes se comportent de manière honnête et ouverte, les enfants seront plus enclins à faire de même. Dans une étude, on a dit à des enfants qu’il y avait un grand bol de bonbons dans la pièce voisine. Lorsqu’ils ont découvert qu’il s’agissait d’un mensonge, les enfants eux-mêmes étaient plus enclins à tricher en jouant et à mentir à ce sujet.

The Conversation

Penny Van Bergen a reçu des financements de l'Australian Research Council et du ministère de l'Éducation de Nouvelle-Galles du Sud.

20.02.2026 à 13:09

Au Cambodge, des milliers de travailleurs libérés de l’enfer des « scam factories » se retrouvent livrés à eux-mêmes

Ivan Franceschini, Lecturer, Chinese Studies, The University of Melbourne
Charlotte Setijadi, Lecturer in Asian Studies, The University of Melbourne
Ling Li, PhD Candidate in Technology Facilitated Modern Slavery, Ca' Foscari University of Venice
Après avoir fui des scam factories où régnaient violences et exploitation, des centaines d’étrangers se retrouvent aujourd’hui sans abri au Cambodge, livrés à eux-mêmes et sans perspective de retour.
Texte intégral (1713 mots)

L’offensive contre les réseaux d’arnaques au Cambodge a libéré des milliers de travailleurs étrangers. Elle a aussi provoqué une crise humanitaire silencieuse : aujourd’hui, des victimes de traite dorment dans la rue en attendant une aide qui tarde à venir.


« Je fuyais la guerre, et je me suis retrouvé à nouveau en guerre. » C’est ainsi qu’Éric, un jeune homme originaire d’Afrique centrale, nous décrit la manière dont il s’est retrouvé dans une scam factory (un centre organisé où des personnes sont contraintes d'effectuer des arnaques en ligne à grande échelle) au Cambodge, avant d’y être bloqué, sans aucune issue possible.

L’histoire d’Éric (nous utilisons un pseudonyme et ne révélons pas son pays d’origine afin de le protéger) ressemble à celle de nombreux travailleurs piégés dans l’industrie des arnaques. Après avoir fui le conflit dans son pays et vécu dans une extrême précarité, Éric a reçu un courriel lui proposant un emploi au Cambodge rémunéré 2 000 dollars américains par mois (1700 euros). Le recruteur l’a rapidement convaincu d’accepter.

Lorsqu’il a tenté de prévenir l’une de ses cibles qu’elle était victime d’une arnaque, les responsables l’ont découvert et l’ont roué de coups avec une telle violence qu’il a cru qu’il allait mourir. Dans les semaines suivantes, il a été témoin de sévices graves infligés à d’autres et de la disparition de plusieurs collègues. L’un d’eux a sauté par une fenêtre, dans ce qui semblait être une tentative de suicide, et n’a jamais été revu.

Un mois plus tard, Éric est parvenu à s’échapper lorsque l’armée thaïlandaise a commencé à bombarder le Cambodge lors d’affrontements le long de leur frontière commune. Sa liberté a toutefois été de courte durée. Il a de nouveau été victime de traite et transféré vers un autre complexe, où il a passé un mois supplémentaire en captivité avant de réussir à fuir définitivement à la mi-janvier.

Offensive gouvernementale

Éric est désormais bloqué au Cambodge, comme des milliers d’autres étrangers libérés ces dernières semaines de scam factories, alors que circulent des rumeurs d’une vaste offensive des autorités contre ce secteur.

Cette répression a commencé le mois dernier après l’arrestation du magnat chinois Chen Zhi, que le département américain de la Justice a présenté comme « le cerveau d’un vaste empire de cyberfraude ».

L’arrestation de Chen a accentué la pression internationale croissante sur le Cambodge pour qu’il assume enfin son rôle dans l’essor de l’industrie mondiale des arnaques en ligne, qui génère chaque année des milliards de dollars de revenus illicites et a conduit à la traite de centaines de milliers de travailleurs vers des « scam factories » sordides en Asie du Sud-Est et au-delà.

Les autorités cambodgiennes ont déjà mené des descentes dans ces complexes par le passé, mais ces opérations sont restées limitées et ont souvent semblé relever davantage du geste symbolique que d’une réelle volonté d’éradication.

Coincés dans l’impasse

L’exode massif de travailleurs hors de ces complexes, dont beaucoup n’ont ni passeport, ni argent, ni destination d’accueil, conduit à ce qu’Amnesty International qualifie de « crise humanitaire en pleine expansion ».

Deux d’entre nous (Ling et Ivan) se trouvaient au Cambodge pour surveiller les scam factories lorsque l’offensive a été lancée. Nous avons vu des personnes désespérées, sans papiers, faire la queue devant leurs ambassades à Phnom Penh, tentant d’obtenir de l’aide pour rentrer chez elles.

L’ambassade d’Indonésie a indiqué que plus de 3 400 personnes ont sollicité une assistance consulaire. D’après nos échanges avec des responsables d’ambassades, l’Ouganda et le Ghana comptent chacun environ 300 ressortissants bloqués, et le Kenya en dénombre plus de 200.

Les ambassades de Chine et d’Indonésie sont parvenues à convaincre le gouvernement cambodgien de placer leurs citoyens dans des centres d’accueil en attendant leur expulsion. Le Kenya, de son côté, a obtenu une exemption des amendes encourues pour absence de documents ou dépassement de visa, et les Kényans bloqués tentent désormais de réunir les fonds nécessaires pour payer leurs billets d’avion.

Les personnes originaires d’autres pays, en revanche, se heurtent à un mur de la part de la bureaucratie cambodgienne.

La plupart des Africains que nous avons rencontrés se trouvent dans une situation dramatique. Ils viennent de pays qui ne disposent pas de représentation diplomatique au Cambodge et ont été éconduits par des agences internationales et par leurs partenaires locaux, invoquant un « manque de ressources » et des restrictions liées à la réglementation locale.

Nombre de survivants ont mis en commun leurs maigres moyens pour louer des chambres dans des pensions acceptant les personnes sans papiers, tandis que d’autres sont contraints de dormir dans la rue ou de dépendre de la générosité de bons samaritains. Beaucoup vivent dans la crainte d’une arrestation, la police procédant à des contrôles dans les habitations et les hôtels pour vérifier les documents d’identité.

Éric fait partie des relativement chanceux qui ont pu trouver un hébergement temporaire, mais son avenir reste profondément incertain. Il n’a ni passeport, ni famille, ni pays vers lequel retourner. Interrogé sur ses espoirs, il répond simplement qu’il veut un endroit où recommencer sa vie – peu importe lequel. Il est aussi désespéré à l’idée de partir à la recherche de sa famille restée au pays, ne sachant même pas si elle est encore en vie.

La fin d’une industrie ?

Les autorités cambodgiennes présentent ces opérations comme une rupture décisive avec le passé. Elles se sont engagées à éradiquer les puissants réseaux d’arnaques en ligne présents dans le pays d’ici avril.

Reste à savoir si ces raids traduisent un véritable changement de cap durable ou s’ils constituent une réponse ponctuelle à un regain de pressions diplomatiques. Bien qu’il s’agisse de l’action la plus vaste menée à ce jour par le Cambodge, ce n’est pas la première offensive du gouvernement. L’industrie, jusqu’à présent, y a toujours survécu.

Et des poches d’activité subsistent. D’après notre veille sur Telegram et nos échanges avec des acteurs du secteur, nombre d’entre eux continuent d’opérer dans des zones comme Koh Kong et Poipet.

En outre, des réseaux d’arnaques poursuivent le recrutement de travailleurs toujours piégés dans le pays. Plusieurs victimes bloquées nous ont confié avoir été approchées avec des offres d’emploi présentées comme un moyen simple de gagner assez d’argent pour financer leur billet de retour.

Par ailleurs, les réseaux continuent de recruter parmi les travailleurs coincés dans le pays. De nombreuses victimes bloquées nous ont raconté avoir été démarchées avec des offres d’emploi présentées comme une solution rapide pour réunir l’argent nécessaire à un billet d’avion et rentrer chez elles.

Des annonces d’emploi circulent également sur Telegram, visant ces mêmes personnes avec de prétendues « opportunités » précisément au moment où elles sont les plus vulnérables. Beaucoup ont subi de graves violences et ont un besoin urgent d’un soutien psychologique.

À ce stade, les appels des survivants à la communauté internationale sont restés largement sans réponse. Faute d’une intervention rapide et coordonnée pour leur venir en aide, les perspectives sont sombres – et l’avantage risque, une fois encore, de revenir aux escrocs.

The Conversation

En 2024, Ivan a cofondé EOS Collective, une organisation à but non lucratif consacrée à l’analyse des mécanismes de l’industrie des arnaques en ligne et des réseaux criminels qui l’alimentent, ainsi qu’au soutien des survivants contraints de participer à ces activités illégales.

Charlotte Setijadi a précédemment bénéficié de financements de recherche du ministère de l’Éducation de Singapour et du Singapore Social Science Research Council. Elle est actuellement l’une des co-responsables de l’Indonesia Forum de l’Université de Melbourne.

En 2024, Ling Li a cofondé EOS Collective, une organisation à but non lucratif dédiée à l’étude des mécanismes de l’industrie des arnaques en ligne et des réseaux criminels qui la structurent, ainsi qu’au soutien des survivants contraints de participer à ces activités illégales.

20.02.2026 à 13:08

Face aux aléas climatiques, quelles variétés de céréales privilégier ?

Bastien Lange, Enseignant-chercheur en sciences du végétal, agroécologie, UniLaSalle
Michel-Pierre Faucon, Enseignant-chercheur en écologie végétale et agroécologie - Directeur délégué à la recherche à l'Institut Polytechnique UniLaSalle, UniLaSalle
Nicolas Honvault, Chercheur en agroécologie, UniLaSalle
On favorise souvent les variétés de céréales qui ont, en moyenne, les meilleurs rendements. Mais les hétérogénéités climatiques et aléas croissants viennent chahuter ce paradigme.
Texte intégral (2108 mots)
Essai variétal de blé tendre d’hiver. Photo de Florimond Desprez

On favorise souvent les variétés de céréales qui ont, en moyenne, les meilleurs rendements. Mais les hétérogénéités climatiques et aléas croissants viennent chahuter ce paradigme.


Blé, orge, maïs, riz… Ces cultures assurent près de la moitié des apports caloriques mondiaux, ce qui rend leur adaptation au changement climatique cruciale.

Mais alors que sécheresses, gels tardifs et coups de chaleur se multiplient, une question s’impose : quelles variétés choisir pour faire face à des conditions de plus en plus imprévisibles ?

Car toutes les variétés ne réagissent pas de la même façon : certaines voient leur rendement chuter rapidement sous stress, quand d’autres compensent mieux et conservent des performances plus stables. Choisir les variétés à sélectionner et à cultiver est donc à la fois difficile et capital pour assurer la sécurité alimentaire.

Faut-il miser sur une variété championne dans des conditions climatiques particulières ou sur des profils plus robustes face à l’imprévisibilité ? Comment connaître précisément les déterminants climatiques qui vont gouverner cette performance et cette stabilité ? Ces questions sont au cœur de notre travail afin d’amener de nouvelles connaissances pour la sélection variétale et accroître la pertinence du choix variétal.

Les performances moyennes et leurs limites

Depuis des décennies, la sélection variétale repose sur des essais conduits dans de multiples lieux et sur plusieurs années. On y analyse les performances pour choisir des variétés nouvelles ou renforcer les recommandations de variétés existantes, comme les variétés Chevignon, Intensity et Prestance pour le blé tendre et Planet, Timber et Lexy pour l’orge de printemps brassicole. Historiquement, et encore très souvent, ces décisions sont prises en observant les moyennes de performance réalisées sur l’intégralité ou sur une grande partie du réseau d’essais, et en recommandant les variétés les plus performantes en moyenne.

Le problème est que, sous un climat qui évolue rapidement et qui apparaît de plus en plus imprévisible, cette valeur moyenne de performance est trompeuse, car elle ne nuance pas suffisamment les différences de performance relative des diverses variétés face aux variations climatiques et aux variations des facteurs du sol. Plus surprenant encore : les facteurs climatiques qui déterminent les niveaux de rendement ne sont pas toujours ceux qui provoquent les changements de classement entre variétés. Autrement dit, les conditions climatiques qui font varier le rendement de la culture ne sont pas nécessairement celles qui avantagent ou désavantagent certaines variétés par rapport à d’autres, révélant ainsi toute la complexité de l’adaptation des plantes cultivées à l’instabilité climatique et les défis qu’elle pose à la sélection variétale.

Une variété très performante une année – atteignant par exemple 9 tonnes par hectare (t/ha) en blé – peut subir une chute significative de rendement la campagne suivante, à 6–7 t/ha, tout en étant reléguée dans le classement par des variétés mieux adaptées aux conditions climatiques.

Face à ce constat, nous avons donc tâché de procéder autrement. Plutôt que de considérer chaque année ou chaque site comme un cas isolé, nous avons voulu identifier les grands types de situations climatiques et agronomiques auxquels les cultures sont confrontées ainsi que leur fréquence d’apparition, même si leur succession demeure difficilement prévisible.

Utiliser l’envirotypage pour mieux comprendre les singularités de chaque lieu et variété

Ces situations sont décrites à partir de variables clés – températures, disponibilité en eau, rayonnement… – analysées aux moments les plus sensibles du cycle des cultures, par exemple sur la période allant des semis à l’émergence, sur celle allant de la floraison jusqu’au début du remplissage des grains ou encore du remplissage à la maturité. Un découpage crucial qui permet dans un premier temps de mieux comprendre les réponses contrastées des variétés selon les conditions et, dans un second temps, de regrouper les années et les lieux en familles d’environnements historiquement comparables : c’est le principe de l’envirotypage.

Appliquée à l’orge de printemps, cette approche met en évidence trois grands types d’environnements en Europe, définis à partir des facteurs climatiques qui expliquent les réponses contrastées des variétés au sein du réseau d’essai : maritime, tempéré et continental.

Leur fréquence varie fortement selon les régions. En Irlande ou en Écosse, le scénario climatique est très majoritairement maritime d’une année sur l’autre. À l’inverse, dans le nord de la France, ces types alternent fréquemment (Figure 1), ce qui oriente la sélection et le choix variétal vers des génotypes à adaptation plus générale, c’est-à-dire capables de bien se comporter en moyenne dans des contextes contrastés. En Irlande et en Écosse, il sera donc judicieux de miser sur une variété championne pour des conditions particulières tandis que dans le nord de la France, il faudra plutôt plébisciter une variété robuste face à l’imprévisibilité.

Les analyses montrent également que des températures fraîches en début de cycle, entre l’émergence et le stade « épi 1 cm » – ce dernier correspondant au début de la progression du futur épi dans la tige –, peuvent maximiser le potentiel de rendement des variétés d’orge de printemps testées. Par ailleurs, l’intensité du rayonnement solaire durant la phase de remplissage des grains d’orge induit des réponses contrastées selon les variétés. Ces résultats constituent des leviers précieux pour orienter la stratégie de sélection.

Les rendements du blé tendre d’hiver stagnent

Le cas du blé tendre d’hiver est également central. Première céréale cultivée au monde, il a bénéficié de progrès génétiques constants depuis la fin des années 1980, mais sa stabilité de rendement reste fragile, avec des niveaux moyens autour de 7,5 t/ha depuis la fin des années 1990. Les interactions entre variétés et environnements jouent un rôle majeur dans l’expression des niveaux de rendement, qui s’expriment également au plan régional.

L’envirotypage permet d’identifier les grands scénarios climatiques responsables des variations de rendement et de qualité, et de définir des zones d’adaptation générale ou spécifique. Un enseignement important est que les variétés les plus performantes ne sont pas nécessairement les plus stables pour le rendement : le progrès génétique n’a pas automatiquement renforcé la résilience climatique.

Ces travaux convergent vers un même message : comprendre le climat ne suffit plus, il faut organiser son imprévisibilité. En structurant les environnements réellement rencontrés par les cultures, l’envirotypage offre une approche à la fois scientifique, pour améliorer la connaissance en mettant en évidence les caractères des plantes impliqués dans l’adaptation au changement climatique, et pragmatique pour adapter dès aujourd’hui la sélection variétale au climat de demain.

Carte des environnements agricoles dominants en Europe (orge de printemps). Répartition et fréquence des grands types d’environnements climatiques identifiés à partir des réseaux d’essais européens. Un gradient nord-ouest/sud-est oppose des environnements majoritairement maritimes à des environnements continentaux, avec des zones intermédiaires plus instables, où plusieurs types se succèdent d’une année sur l’autre. (Bicard et al. 2025 Field crop research), Fourni par l'auteur

Des résultats qu’il faut intégrer aux choix des pratiques

Face à un climat de plus en plus instable, il ne suffit plus de raisonner le choix des variétés à partir de performances moyennes. En structurant la diversité des situations climatiques réellement rencontrées par les cultures, l’envirotypage permet de mieux comprendre pourquoi les variétés changent de comportement d’une année ou d’un contexte à l’autre, et d’orienter la sélection vers des profils plus robustes face à l’imprévisibilité.

Cette approche reste toutefois fondée sur des essais conduits dans des conditions souvent favorables (texture, structure, et profondeur de sol optimales) et avec des pratiques agricoles très conventionnelles. L’enjeu sera donc aussi d’intégrer l’effet des pratiques – dates de semis, les pratiques de travail du sol, de fertilisation et de protection des cultures – à partir des données issues du terrain et de la traçabilité agricole.

En les structurant avec et pour les agriculteurs, ces informations ouvriront la voie à des recommandations variétales plus réalistes, associées à des pratiques culturales mieux adaptées à la diversité des systèmes agricoles et aux contraintes du climat de demain.


Cet article a bénéficié de l’appui de Chloé Elmerich et Maëva Bicard dans le cadre de leurs thèses de doctorat réalisées au sein de l’unité de recherche AGHYLE (Agroécologie, hydrogéochimie, milieux et ressources, UP2018.C10) de l’Institut polytechnique UniLaSalle.

The Conversation

Bastien Lange a reçu des financements de Florimond Desprez, SECOBRA Recherches et LIDEA, la Région des Hauts de France et l’ANRT.

Michel-Pierre Faucon est membre du pôle Bioeconomy For change. Il a reçu des financements de Florimond Desprez, SECOBRA Recherches et VIVESCIA, la Région des Hauts de France, l'ANR, l'ANRT et l'UE.

Nicolas Honvault est membre de la chaire “Fermes resilientes bénefiques pour climat et la biodiversité”. Il a reçu dans ce cadre des financements de VIVESCIA.

19.02.2026 à 17:03

Pourquoi la beauté des vaches n’est pas qu’une affaire de génétique

Marc Mormont, Sociologue, Université de Liège
C’est quoi, une belle vache&nbsp;? Entre critères morphologiques, avancées de la génétique et vécu de chaque éleveur, la réponse est rarement simple.
Texte intégral (3025 mots)

Une belle vache, c’est quoi ? Les critères pour évaluer cette qualité ne manquent pas : l’expérience et le vécu de chaque éleveur, les avancées de la génétique qui s’immiscent de plus en plus dans le quotidien des fermes et, bien sûr, les « beautés des vaches », ces qualités morphologiques qui structurent le canon de chaque race. Au croisement de tous ces enjeux, la question de la beauté des bovins continue en tout cas d’être la source de discussions sans fin.


Qu’est-ce qui fait la beauté d’une vache ? Pour le promeneur qui s’attarde au bord d’un pré, ce peut être la qualité de celle qui sera la plus fringante, qui viendra à sa rencontre et lui rappellera les images qu’il a vues dans des livres d’enfant. Pour l’artiste, une vache se doit d’avoir de belles formes, une robe et des taches aux couleurs bien marquées. Mais pour les techniciens, les vétérinaires et surtout pour les éleveurs, c’est bien plus que cela. Ils vont d’ailleurs parler au pluriel des « beautés des vaches. »

Le pointage

Les « beautés » forment une liste de critères d’évaluation des animaux utilisés lors du pointage. Cette appréciation visuelle de la morphologie de l’animal se base sur plusieurs dizaines de mesures ou observations qui renseignent le potentiel de l’animal non seulement en termes de production de lait mais aussi de santé. Ainsi, par exemple, l’angle que forme le jarret avec le sol est un critère important car un mauvais angle fait courir le risque que la vache boite ce qui diminuera sa mobilité, importante pour des animaux qui pâturent très régulièrement.

Le pointage est l’affaire de techniciens du conseil agricole qui vont de fermes en fermes et aident les éleveurs à sélectionner leurs animaux. C’est donc une pratique technique et économique spécialisée de sélection des meilleures vaches. Mais c’est aussi une pratique des éleveurs eux-mêmes qui tiennent à maîtriser la composition de leurs troupeaux. Le pointage se pratique également avec ferveur dans les lycées agricoles où on l’apprend de manière méthodique. Les élèves, futurs éleveurs, s’y adonnent avec plaisir et enthousiasme, notamment tant cela fait partie de l’excellence professionnelle.

Finale départementale du concours de pointage des lycéens agricoles de Pyrénées-Atlantiques.

Il y aussi des concours de jeunes pointeurs qui désigneront les plus compétents. Enfin, cette pratique de pointage est aussi mise en scène de manière spectaculaire lors des comices, fêtes agricoles locales qui rassemblent toute la profession : des juges – éleveurs réputés – y décerneront des prix. Les vaches présentées sont préparées soigneusement pour y apparaître les plus belles. Les animaux primés peuvent ensuite poursuivre leur carrière à travers d’autres événements dont le plus prestigieux est évidemment le salon international de l’Agriculture à Paris.

Concours des montbéliardes au Salon international de l’agriculture, à Paris, en 2022.

Ces trois collectifs – jeunes pointeurs, techniciens, juges de concours – et leurs pratiques témoignent de la nature diverse du pointage : une activité à la fois technique, sociale et symbolique. Sa mise en œuvre les réunit dans la singularité des fermes ou lors de manifestations publiques, autant d’occasions d’échanger de « parler métier » entre collègues et de manière festive : « Faut qu’on soit devant la race, c’est notre métier, notre identité » affirme à cet égard un éleveur franc-comtois.


À lire aussi : L’enseignement agricole, un objet politique mal identifié


Dans cette région, une race de vache est particulièrement scrutée : la montbéliarde. Son lait entre dans la production de plusieurs fromages d’origine contrôlée comme le comté. Son histoire est ancrée dans le massif jurassien, où sa silhouette est iconique : une robe « pie rouge » blanche tachetée de rouge brun. Tête blanche, oreilles rouges, ses formes sont rassurantes et harmonieuses, c’est une « séductrice », assurent certains éleveurs. Le pointage reste alors le témoin d’une dynamique collective dans laquelle la confusion entre les compétences professionnelles, le métier et le plaisir ne peut être levée. C’est une culture, qui s’enrichit, se transforme en fonction de l’expérience, des connaissances accumulées pour améliorer le progrès génétique d’une race, l’arrimer à la modernité, tout en restant fidèle à son histoire.

Un veau de la race Montbéliarde peint par Gustave Courbet, en 1873 à Chassagne-Saint-Denis, dans le Doubs, département d’origine de l’artiste
Un veau de race montbéliarde peint par Gustave Courbet, en 1873 à Chassagne-Saint-Denis, dans le Doubs, département d’origine de l’artiste. Maltaper/Wikimedia, CC BY

La sélection

Dans l’élevage laitier, étant donné que le niveau de lactation est lié à la reproduction, les vaches sont régulièrement inséminées, idéalement tous les ans et majoritairement de manière artificielle. De ce fait, le troupeau compte un grand nombre de jeunes animaux et tous ne pourront pas rester sur la ferme. Si les mâles sont rapidement vendus, la sélection des femelles est plus délicate. Les éleveurs trient donc leurs bêtes en continu suivant des choix composites ancrés tout à la fois dans l’histoire des familles humaines et dans celles des lignées animales.

Dans l’après-guerre, avec le développement de la génétique quantitative, la sélection s’est basée sur l’accumulation de données issues du pointage et de données de suivi des animaux quant à leur production et leur santé. Cela a permis d’identifier de bons reproducteurs, des taureaux pouvant donner lieu à des lignées performantes. Cela a également impliqué d’évaluer des descendances et donc d’accumuler des données, ce dont étaient chargées des coopératives départementales de sélection qui disposaient d’un monopole local de gestion de la race.

Ce paysage a complètement changé au début de notre siècle. C’est une chose que l’on sait peu mais depuis le début des années 2010, la sélection des animaux domestiques a radicalement été modifiée. Grâce au décryptage de l’ADN, la génomique a succédé aux acquis de la statistique quantitative. Elle rend désormais envisageable le choix des jeunes femelles dès leur naissance en cherchant à répondre aux défis de plus en plus nombreux rencontrés par les élevages modernes. Alors que jusqu’ici, les index ciblaient la production de lait, les caractères fonctionnels et les caractères morphologiques, il est désormais possible – ou ce sera bientôt le cas – de caractériser l’absence de cornes, la fromageabilité du lait, les pathologies liées aux aplombs, une moindre émission de gaz à effet de serre, la résistance à la chaleur…

Tous les domaines de l’élevage semblent concernés par ces avancées : la santé des animaux et leur bien-être, leur adaptation à des environnements moins contrôlés et plus diversifiés, la réduction des impacts environnementaux, l’amélioration de la qualité sanitaire des produits alimentaires… Il serait désormais possible d’identifier, dès la naissance, le potentiel de l’animal et donc d’indiquer à l’éleveur quels animaux faire entrer dans le troupeau.

Concomitant à ce changement technique, l’interprétation française d’une législation européenne sur la libre concurrence a conduit à dissoudre les coopératives de sélection au profit d’entreprises privées qui vendent désormais les doses de sperme mais aussi les données issues du génotypage. Car pour caractériser les animaux il leur faut disposer d’une masse la plus importante possible de données issues des élevages. Les éleveurs deviennent ainsi à la fois consommateurs d’évaluations et de doses de sperme mais aussi fournisseurs de données. L’évaluation visuelle de l’animal – le pointage – reste pertinent non plus comme jugement de l’animal à sélectionner mais comme production de données dans un processus obscur de classement par des entreprises privées.

Pour suivre cette innovation, une enquête universitaire au long cours a débuté en 2014 sur la conduite de la race montbéliarde dans le massif jurassien. Mais alors que l’investigation devait porter sur les premières réalisations technico-scientifiques de la sélection assistée par marqueurs (la SAM), il a été observé qu’éleveurs et techniciens mélangent constamment, dans un désordre apparent, des calculs, des réflexions, des souvenirs, des affects…

Choisir une vache

Toutes ces dimensions sont visibles alors que les éleveurs entrent dans l’étable, sortent au pré pour apprécier les animaux en leur présence, ou se connectent au big data agricole et aux informations multiples auxquelles il donne accès via un écran. Les éleveurs s’alignent-ils sur les préconisations de ces outils numériques ? Une interpellation d’un conseiller technique suggère que la réponse à cette question n’est pas encore écrite :

« Ce qui fait ton plaisir, tes actes de décision… Ça doit pas être l’algorithme qui fasse tes décisions, qui te fasse garder ou pas une vache… Mais on n’en est pas loin, hein ? Et moi, je m’inscris en faux là-dessus… Il peut t’aider l’algorithme… Mais si c’est cette vache-là que t’aime bien… Parce que c’est elle qui emmène le troupeau au pâturage… Elle te fait un veau par an sans problème et elle ne tape pas quand tu la trais et que tu l’aimes vraiment… Ah, ben tu la gardes… »

Car la sélection reste avant tout une affaire individuelle menée par chaque éleveur pour garder la vache « qui va ». À la recherche de la « toute bonne » ou de la « toute belle », ils poursuivent avec obstination des images de vaches qu’ils ont dans la tête.

Car l’élevage est un métier au cœur duquel il y a plusieurs manières de faire et d’exceller et dans chaque troupeau, il y a divers profils d’animaux qu’on peut valoriser ou non. Il y a bien sûr la meneuse, les indépendantes ou les amicales. Il y a celles dont les lignées sont connues et « qui font partie de la famille » humaine et animale. Celles qui ne font pas parler d’elles, qui marchent bien pour aller au pré et sont capables de s’adapter aux ressources disponibles, aux aléas de la pousse de l’herbe. Pour les prairies rocailleuses du Haut-Jura, il faut des pattes solides et un large museau pour brouter. Bien sûr, il y a aussi celles dont la robe et les formes sont conformes à l’idéal de la race.

À travers la sélection que mènent les éleveurs, le fonctionnel (la bonne vache) et l’esthétique (la belle vache) ne peuvent être dissociés, ils sont au cœur de l’émotion que procure un animal avec lequel travailler : « Bon, il y en a qui se rapprochent toujours du standard “montbéliarde”, bonne mamelle, bon corps, etc. Mais après, les vaches, c’est comme les gens… C’est pas parce qu’elles ont un défaut qu’elles ne sont pas bonnes… », juge ainsi un éleveur.

Elles sont alors d’autant plus belles qu’elles ont des qualités multiples qui débordent largement les critères du pointage, qu’elles se savent choisies et peuvent ainsi exprimer leur agency. Ce terme, qui désigne la capacité à agir, ne s’applique pas exclusivement aux humains. L’agency n’est en outre pas une qualité individuelle, distribuée a priori, elle est encastrée dans les situations et les relations. Dans le massif jurassien, il y a des éleveurs qui se « sentent éleveur s » et des vaches qui « savent qu’elles sont des vaches ». Ils travaillent ensemble dans l’impromptu autant que dans la durée. « Rester en contact avec l’animal, ce lien avec chacune de nos vaches, car elles sont toutes différentes, ce qui fait que chaque jour est différent et raconte notre histoire », souligne une éleveuse sur Facebook dans le groupe « Passionné de la race montbéliarde ».


À lire aussi : L’éternelle quête de la vache parfaite, de l’auroch nazi aux bovins sans cornes


Quelle vache pour demain ?

La génomique permet de sélectionner dès la mise bas : plus qu’une meilleure qualité, c’est une accélération supplémentaire. Cela repose sur un outil numérique qui s’appuie lui-même sur une indispensable collecte de données auprès des éleveurs. Tout ceci confirme que la race est un bien commun : elle n’existe et ne s’améliore que par la participation de tous. Mais sa gestion est désormais privatisée. Les éleveurs sont aujourd’hui utilisateurs et non plus acteurs d’une gestion collective.

Quant à la sélection elle-même, aux choix concrets des éleveurs pour constituer et renouveler leurs troupeaux, ne tend elle pas à se substituer à leurs propres appréciations dont on voit qu’elles ne relèvent pas seulement d’un raisonnement d’efficacité mais aussi de logiques symboliques, affectives, relationnelles qui se traduisent dans une esthétique de la vache, la bonne et la belle ?


Pour aller plus loin, Élever des montbéliardes… Entre passion et productions animales, de Catherine Mougenot, préface de Bernard Hubert et dessins de Gilles Gaillard, Cardère Éditeur, septembre 2025.

The Conversation

Marc Mormont ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

19.02.2026 à 17:02

Interdire les réseaux sociaux aux mineurs : un frein aux alternatives vertueuses ?

Julien Falgas, Maître de conférences au Centre de recherche sur les médiations, Université de Lorraine
Dominique Boullier, Professeur des universités émérite en sociologie. Chercheur au Centre d'Etudes Européennes et de Politique Comparée, Sciences Po
Ignorant les propositions des sciences humaines et sociales, l’interdiction des réseaux sociaux aux moins de quinze ans risque d’entraver l’émergence d’alternatives.
Texte intégral (2064 mots)
Digital Nomads Beyond the Cubicle by Yutong Liu & Digit Yutong Liu & Digit, CC BY

La proposition de loi visant à « protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux » sera bientôt examinée par le Sénat. Elle élude le cœur du problème : le modèle économique fondé sur la captation de l’attention. Sans s’attaquer à cette architecture, la régulation risque de manquer sa cible.


Loin de cibler les plateformes toxiques bien connues, la proposition de loi visant à « protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux » pourrait entraver l’émergence d’alternatives vertueuses pour nos écosystèmes d’information et de communication. Les sciences humaines et sociales ne sont pourtant pas avares de propositions systémiques plus constructives.

Des mois de débats stériles sans définition valable

Adopté par l’Assemblée nationale le 26 janvier 2026, le projet de loi visant à interdire les réseaux aux moins de quinze ans bénéficie d’une procédure accélérée à la demande du gouvernement. En accord avec la rapporteure Laure Miller, le gouvernement a fait voter un amendement qui gomme toute distinction entre des réseaux sociaux identifiés comme dangereux après avis de l’Arcom et les réseaux sociaux en général : tous sont désormais explicitement désignés comme « dangereux pour les moins de 15 ans ». De fait, le législateur n’apporte aucun élément pour définir ce qu’il propose d’interdire. Il faut se tourner vers le droit européen pour savoir de quoi il est question.

Selon le Digital Market Act (DMA) européen, un réseau social est un « service de plateforme essentiel […] permettant aux utilisateurs finaux de se connecter ainsi que de communiquer entre eux, de partager des contenus et de découvrir d’autres utilisateurs et d’autres contenus, sur plusieurs appareils et, en particulier, au moyen de conversations en ligne (chats), de publications (posts), de vidéos et de recommandations ». Sur la base d’une telle définition, le projet de loi français rate sa cible et confond réseaux socionumériques et médias sociaux en ligne, pénalisant les réseaux sociaux qui méritent encore d’être désignés comme tels.

Or de tels réseaux ne manquent pas. Nous ne parlons pas seulement des substituts aux services de microblogging que sont Mastodon ou Bluesky. Les projets réellement alternatifs sont peu connus et balbutiants faute de moyens dans un espace dominé par les grandes plateformes toxiques des BigTech. Vous connaissez TikTok, YouTube, Instagram, Facebook ou LinkedIn, mais sans doute pas Tournesol, Reconnexion, Qwice, Panodyssey ou encore needle.social. Ce dernier projet émane de la recherche publique en sciences humaines et sociales, développé au Centre de recherche sur les médiations (Crem) dans l’espoir de le mettre au service du secteur de la presse.

De longue date, l’impensé numérique traverse les discours médiatiques. Il consiste à présenter la technique comme une évidence au point de vider le débat public de tout questionnement politique ou velléité de résistance. Ainsi, en mettant l’accent sur des préoccupations tournées vers la santé des adolescents, le débat autour de l’interdiction des réseaux sociaux a contribué à détourner l’attention des enjeux démocratiques que soulève le modèle économique des plateformes dominantes.

Derrière l’urgence sanitaire, une urgence démocratique

Souvent résumé dans les médias à une opposition entre interdiction et éducation, le débat a fini par occulter le rôle prépondérant du modèle économique des plateformes pourtant identifié par l’Agence nationale de sécurité sanitaire. Là où réside un consensus scientifique, c’est bien pour condamner la responsabilité écrasante du modèle économique des Big Tech dans la dégradation de nos démocraties. C’est notamment le constat accablant du GIEC des écosystèmes d’information après avoir épluché près de 1 700 publications scientifiques :

« Les modèles économiques des grandes entreprises technologiques (Big Tech) incitent les enfants et les adultes connectés à autoriser l’extraction de données, qu’elles monétisent ensuite à des fins lucratives. Cette pratique facilite la diffusion virale de désinformation, de mésinformation et de discours de haine. »

Le modèle économique des grandes plateformes numériques constitue un facteur majeur de l’accélération de la désinformation et de la mésinformation. La propagation des contenus malicieux est amplifiée à partir de métriques (likes, commentaires, partages, temps passé, etc.) qui provoquent l’emballement, selon un processus favorable aux contenus qui provoquent le plus de réactions.

Une action systémique contre l’économie de l’attention est possible

Il ne viendrait pas à l’idée de nos parlementaires d’interdire de « boire dans un verre au café » sous prétexte que les « verres » peuvent contenir une boisson alcoolisée. C’est bien la vente d’alcool aux mineurs qui est interdite. Si l’interdiction peut être débattue, elle doit porter sur des produits dont la nocivité est avérée. Or, le produit toxique des BigTech ce sont les enchères publicitaires qui conditionnent toute l’architecture algorithmique de leurs réseaux sociaux. Dans une note du MIT de 2024, quelques mois avant de recevoir le Nobel d’économie, Daron Acemoglu et Simon Johnson ont ainsi appelé à l’urgence de taxer la publicité numérique. L’enjeu : casser cette économie toxique, contraindre les Big Tech à imaginer d’autres modèles d’affaires et réouvrir la possibilité d’innover au travers de plateformes différentes.

La régulation a également un rôle à jouer. On serait en droit d’attendre l’application des lois européennes existantes, telles que le Règlement sur les services numériques (DSA) qui impose notamment aux plateformes des obligations quant à la modération des contenus partagés sur les réseaux sociaux (facilitation des signalement et coopération avec des signaleurs de confiance, possibilités de contestation pour les utilisateurs, transparence des algorithmes, accès des autorités et des chercheurs aux données, obligations d’audits indépendants…). Ainsi, le 6 février 2026, la Commission européenne a conclu à titre préliminaire que TikTok enfreignait la législation sur les services numériques en raison de sa conception addictive au travers de fonctionnalités telles que le défilement infini, la lecture automatique, les notifications push et son système de recommandation hautement personnalisé.

On serait tenté d’exiger que l’industrie du numérique démontre l’innocuité de ses produits avant leur commercialisation, comme c’est le cas pour les médicaments, les jouets ou les véhicules. Pourtant, dans les industries médiatiques, c’est l’éditeur qui est responsable a posteriori devant la loi. Le problème des plateformes tient davantage au fait qu’elles sont considérées comme des hébergeurs, alors qu’elles effectuent bien une sélection éditoriale de ce qui doit être propagé ou invisibilisé via leurs algorithmes. Comme n’importe quel média, elles pourraient être tenues de demander une autorisation de publication dès lors que la diffusion des contenus sort du cercle privé. Si le droit des médias s’impose (comme le prévoit un amendement adopté en première lecture), un contenu répréhensible peut faire l’objet d’une action en justice engageant la responsabilité pénale du directeur de publication. Pour l’éviter, l’intérêt des plateformes consistera à mettre enfin en œuvre une modération a priori qui empêche la propagation des contenus litigieux.

Comment faire émerger des réseaux sociaux alternatifs et vertueux ?

Une architecture stratégique issue des ateliers de lutte contre les manipulations de l’information considère nos écosystèmes informationnels comme des biens communs dont dépend la résilience informationnelle de nos sociétés : au même titre que le climat ou la biodiversité, il convient d’en prendre soin. Les instruments existent, déjà identifiés pour agir face à d’autres enjeux écologiques : investissement dans la recherche publique, incitations fiscales et économiques sur le modèle des labels environnementaux, développement de l’économie sociale et solidaire.

La recherche en sciences sociales alerte depuis plusieurs années sur les dérives des plateformes des BigTech, mais inventer et expérimenter des dispositifs sociotechniques alternatifs nécessite un engagement au long cours et l’appui d’ingénieurs informatiques pérennes : toutes choses que ne permettent pas les financements sur projets. L’absence de moyens pour innover en matière d’infrastructures d’information et de communication soucieuses de l’intérêt général contraste cruellement avec les investissements dans une « course à l’IA" » qui fait peu de cas de l’intelligence collective.

The Conversation

Julien Falgas a reçu des financements du Ministère de la Culture (fond pour l'innovation dans le secteur de la presse), de l'Université de Lorraine et de la Région Grand-Est afin de cofonder la société Profluens à laquelle il apporte son concours scientifique. Profluens édite needle.social : une plateforme de partage et de découverte fondée sur l'intelligence collective.

Dominique Boullier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

19.02.2026 à 17:02

La mort de Dawson, ou le deuil de toute une génération

Vladimir Lifschutz, Maître de conférences, Université Paul Valéry – Montpellier III
Frédéric Aubrun, Enseignant-chercheur en Marketing digital & Communication au BBA INSEEC - École de Commerce Européenne, INSEEC Grande École
Avec la disparition de l’acteur James&nbsp;Van&nbsp;Der&nbsp;Beek, célèbre pour son interprétation de Dawson dans la série du même nom, c’est toute une génération qui se remémore sa jeunesse, non sans nostalgie.
Texte intégral (1995 mots)
La chambre de Dawson, point névralgique de la série. Capture d’écran/Youtube

Le 11 février 2026, James Van Der Beek mourait d’un cancer, à l’âge de 48 ans. Acteur central de la série Dawson (1998-2003), il fut le visage de Dawson Leery pendant les six saisons du show. « Teen drama » se situant dans la petite ville états-unienne fictionnelle de Capeside, tournée avec un petit budget lors de la première saison, et des acteurs majoritairement inconnus, la série est devenue un phénomène mondial à la fin des années 1990 et au début des années 2000. La disparition de son interprète entraîne une multitude de réactions, notamment sur les réseaux sociaux, car c’est un choc pour toute une génération : Dawson est mort.


Plan large d’un crépuscule sur un cours d’eau, apparition d’une maison typiquement américaine dans la nuit dont seule une fenêtre est éclairée, puis travelling vers la chambre et gros plan sur deux adolescents hypnotisés par une télévision cathodique. En trois images, Dawson’s Creek (titre français, Dawson, ndlr) entre dans les foyers américains en 1998 avec, déjà, un métadiscours sur « le pouvoir de la fiction ».

Aujourd’hui, avec la disparition de James Van Der Beek, la rivière de Capeside, la chambre tapissée des affiches de films de Steven Spielberg, le générique porté par la chanson de Paula Cole, tout reprend vie dans la mémoire d’une génération qui a grandi devant ces adolescents pas tout à fait comme les autres.

Dawson – Saison 1 – Ouverture.

La puissance mémorielle de la série en fait une œuvre générationnelle. Car cette fiction a su, en son temps, faire la synthèse d’une époque, d’une jeunesse, de ses aspirations, de ses doutes et de ses espoirs. Jeunesse qui pouvait s’identifier à quatre personnages : Dawson, Joey, Jen et Pacey. Partant des archétypes popularisés par le cinéma dès les années 1950 avec la Fureur de vivre (1955), de Nicholas Ray, le créateur cinéphile Kevin Williamson réinvestit le genre pour le pétrir à sa manière autour des figures du geek intellectuel, du garçon manqué, de la blonde incendiaire et du sempiternel bad boy.

La vie est un film (ou une série)

Kevin Williamson est avant tout un auteur. Il est le scénariste à succès du premier volet de Scream en 1996, suivi de Souviens-toi… l’été dernier en 1997 – deux slashers (_sous-genre du film d’horreur, ndlr*) pour adolescents dans lesquels il joue allégrement de sa passion pour le cinéma à travers un métadiscours resté célèbre, incarné par le tueur au masque blanc inspiré du célèbre tableau le Cri, d’Edvard Munch.

Cinéphile averti, Williamson se lance en 1998 dans la production d’une série tournée dans le Massachusetts, influencée par sa propre adolescence : une fiction se déroulant dans une ville rurale américaine où des adolescents de 15 ans s’éveillent à leur désirs, à leurs pulsions et à leurs espoirs.

Dès le pilote, la série cite le cinéma, à la fois comme source narrative mais aussi comme métadiscours. L’arrivée de Jen en ersatz de Marilyn Monroe dans Certains l’aiment chaud (1959), de Billy Wilder, la femme fatale incarnée par l’enseignante Tamara Jacobs qui rejoue le Lauréat (1967), de Mick Nichols : l’adolescence est passée sur le fil d’une cinéphilie protéiforme qui en fait toute l’originalité. Comme le dit Dawson lui-même, il regarde des films pour trouver des réponses aux questions de la vie. La cinéphilie se fait apprentissage du réel.

La maturité par la fiction

Dawson n’est pas la seule série à avoir traité de l’adolescence par ses intrigues romantiques (triangle amoureux, séparation, retrouvailles…) ni la seule à avoir usé de musique lacrymale dès qu’une émotion affleure dans le récit. Cependant, elle est l’une des seules à avoir vu l’adolescence comme une période intelligible.

Kevin Williamson a mis en valeur l’intellect de ses héros et dialectisé son rapport à la fiction dans une mise en abîme permanente de la fiction elle-même. Les critiques ont parfois vilipendé la série pour ses dialogues jugés trop développés pour de « simples » adolescents – un élément singulier qui est l’une des clés probables de son succès. L’adolescence y est représentée comme un dialogue exigeant, décisif et profond avec soi-même et avec l’autre, dans cette période perçue comme le carrefour d’une vie adulte ancrée par les choix dictés à un âge où leurs conséquences restent insaisissables.

Dans Dawson, l’amour est semblable à une montagne qu’il faudrait gravir : il s’agit du lieu de l’ultime dévoilement de soi, l’espace le plus intime, là où l’âme peut se révéler. C’est une chose sérieuse traitée avec toute l’intensité propre à l’adolescence. On aime pour la première fois, on est trahi pour la première fois, on rompt pour la première fois. Les personnages intellectualisent leurs sentiments : ils parlent trop, parce qu’ils savent qu’après le verbe ne reste que l’action.

Dès le pilote, les rôles sont inversés, les parents de Dawson se sautent dessus dans le salon familial alors que Joey et lui parlent de leur basculement vers la sexualité. Inversion des mondes où les adolescents doivent être responsables parce que les adultes ne le sont pas. Le monde de l’adolescence n’est pas un espace d’insouciance : c’est un temps où se confrontent l’enfant d’hier et l’adulte de demain, une hydre à plusieurs têtes.

Une série à l’avant-garde

Dawson est l’une des premières fictions sérielles à avoir profité de l’émergence d’Internet comme outil de convergence et de promotion. Comme le note Henry Jenkins dans la Culture de la convergence (2013), la production lance dès 1998 Dawson’s Desktop, un site web donnant accès aux fichiers informatiques du personnage, permettant aux visiteurs de lire ses mails, son journal intime, ses notes de cours, ses brouillons de scénario, et même, pour les plus intrusifs, le contenu de sa corbeille. Les téléspectateurs américains pouvaient se rendre chaque semaine sur le site pour déceler des indices sur le prochain épisode. Avec cet outil transmédiatique qui use de la complicité téléspectorielle pour participer à la fiction, la série s’est construite dans une forme de mimétisme avec les nouveautés technologiques de l’époque (début des mails et des chats en ligne).

« To Love Is to Live »

La série étant inspirée de sa propre adolescence, le créateur a interrogé sa propre maturation au contact de la fiction. Grandir, c’est faire fiction, et c’est particulièrement net dans l’héritage final de la fiction à travers son Series Finale.

Dawson devient réalisateur de série et met en scène sa propre vie à travers un palimpseste de la première saison de la fiction. De son côté, Jen est rongée par un cancer qui ne laisse aucun espoir de rémission. Elle demande alors l’aide de Dawson pour enregistrer un message vidéo à destination de sa fille. Dans cette séquence, la série met en scène un double discours d’adieu qui s’adresse autant à l’enfant fictif de Jen qu’aux téléspectateurs. Ce discours en forme d’héritage symbolise la note d’intention d’une fiction qui a eu pour piliers l’imagination, l’amour et la foi. Sous le regard attristé de Dawson, Jen se livre à la caméra et révèle que la série elle-même est un héritage laissé à l’attention de celles et ceux qui l’ont regardée. Jen achève son message ainsi : « To Love Is to Live. » Un acte réflexif qui interroge la mortalité par la fiction renvoyant à notre propre condition selon Martin Julier-Costes.

Jen reprend les commandes de son récit par la fiction, elle se place au centre du cadre et raconte une vie d’épreuves. Dawson, lui, remet en scène son adolescence dans une série à l’intérieur de la série. Dans les deux situations, il est question de résilience par la fiction. La maturité devient un acte d’acceptation, l’ultime étape du deuil. La série vient clarifier un discours qui l’a toujours habité : la fiction est le seul moyen de grandir. Qu’importe qui vit, qui meurt, qui réalise ses rêves, à la fin reste la fiction.


À lire aussi : « Stranger Things » : pourquoi le final divise tant les fans


La chambre de tous les possibles

Dawson a su accompagner une génération dans le début d’un nouveau siècle avec le réconfort de sa figure tutélaire : la fiction. Dans une période pré-11 septembre (les deux dernières saisons sont diffusées après l’attentat), la série a capté un temps évanescent, le crépuscule d’une jeunesse sans iPhone, sans réseaux sociaux, où l’écran n’est encore qu’une télévision cathodique dans une chambre, objet réconfortant depuis lequel on regarde de vieux films en rêvant d’en faire de nouveaux.

La chambre de Dawson est un témoin : celle d’un monde disparu que nous avons tant aimé parce que c’est un peu aussi notre chambre. Dans cet espace, chacun a dialogué avec sa Joey ou son Dawson, en vrai ou en fiction. Cette chambre n’existe plus. Mais il nous reste la fiction.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

19.02.2026 à 17:01

Sans partage de la valeur, pas de justice sociale

Huysentruyt Marieke, Professeur Associé, Directrice Académique de l’Impact Company Lab, HEC Paris Business School
À l’occasion de la Journée mondiale de la justice sociale le 20 février 2026, notre rapport analyse les mécanismes du partage de la valeur en entreprise. Alors, comment éviter les conflits sociaux&nbsp;?
Texte intégral (1893 mots)
Vendredi 20&nbsp;février 2026, la journée mondiale de la justice sociale reconnaît la nécessité de promouvoir et de mettre en valeur la justice sociale. Ricochet64/Shutterstock

À l’occasion de la Journée mondiale de la justice sociale, le 20 février 2026, notre rapport « Value Sharing Mechanisms: From Optional to Indispensable? » analyse les principaux mécanismes du partage de la valeur en entreprise. Celle-ci est une actrice de premier plan dans la construction ou l’érosion de la justice sociale.


Le 20 février, Journée mondiale de la justice sociale, nous avons tendance à considérer que la justice relève avant tout des lois, des institutions et des grandes décisions politiques. Pourtant, une part croissante des injustices contemporaines se fabrique – ou se corrige – beaucoup plus près de nous : dans la manière dont les entreprises choisissent de partager la valeur qu’elles créent.

Dans les pays de l’OCDE, la part des revenus du travail dans le revenu national diminue au profit des détenteurs de capital. Selon un rapport de l’Organisation internationale du travail (OIT), au niveau mondial (incluant les pays OCDE), cette part a baissé de 1,6 point de pourcentage depuis 2004, atteignant 52,3 % en 2024, ce qui représente un manque à gagner de 2 400 milliards de dollars pour les travailleurs cette année-là.

Les inégalités de revenus – et plus encore de patrimoine – se sont accentuées : les plus hauts revenus creusent l’écart tandis que les plus modestes voient leurs conditions se détériorer. Le World Inequality Report 2026 indique que, globalement en 2025, les 10 % les plus riches captent 53 % des revenus totaux (contre 8 % pour les 50 % les plus pauvres), tandis que pour la richesse, les 10 % les plus riches détiennent 75 % (contre 2 % pour les 50 % les plus pauvres).

En France, le taux de pauvreté atteint le taux record de 15,4 %, illustrant l’érosion progressive de la cohésion sociale sous l’effet de ces dynamiques macroéconomiques.

Dans ce contexte, les mécanismes de partage de la valeur au sein des entreprises – intéressement, actionnariat salarié, formation, programmes de bien-être, gouvernance plus démocratique deviennent des leviers indispensables de justice sociale.

De facto, une question centrale se pose : même si une entreprise peut garder l’essentiel de la valeur créée, doit-elle le faire – et avec qui la partager ?

Risque de conflits et de réputation

Le rapport « Value Sharing Mechanisms: From Optional to Indispensable? », que nous avons réalisé avec Nil Aydin, diplômée d’HEC Paris 2024, dresse un constat préoccupant des conséquences d’un défaut de partage de la valeur. Il revient sur des controverses impliquant des entreprises mondialement connues comme Amazon, Walmart, McDonald’s, Uber ou Tesla – critiquées pour leurs bas salaires, des conditions de travail dangereuses ou le recours à des statuts précaires privant les travailleurs de protections sociales élémentaires.

Il ne s’agit pas d’incidents isolés de communication de crise. Ces situations révèlent un schéma structurel : lorsque le travail est traité comme un simple coût à minimiser – et que les salariés doivent absorber seuls des chocs comme l’inflation ou des pressions accrues de productivité – l’entreprise s’expose à des conflits sociaux, à des risques réputationnels et à des réactions réglementaires.

Des recherches citées montrent que remplacer des salariés désengagés peut coûter jusqu’à 150 % d’un salaire annuel. À l’inverse, des approches fondées sur le partage de la valeur, qui renforcent la loyauté et l’engagement, stabilisent la main-d’œuvre et la performance globale.

Ce qui semble être une stratégie « économique » – compression des salaires et des avantages – devient rapidement coûteux lorsque grèves, contentieux et boycotts s’enchaînent.

Dix fois plus de patrimoines pour les actionnaires salariés

Le partage de la valeur s’appuie sur un ensemble croissant d’outils que des organisations à travers le monde commencent à adopter.

Premièrement, l’intéressement aux bénéfices. Les dispositifs de partage des profits allouent une partie des résultats aux salariés, sous forme de primes ou de contributions à l’épargne retraite. Des études menées aux États-Unis montrent que ces mécanismes sont associés à des gains de productivité de 3,5 % à 5 %, en particulier dans les petites entreprises – preuve que partager le gâteau peut aussi le faire croître.

Deuxièmement, l’actionnariat salarié (Employee stock ownership plans (ESOPs)). Ces dispositifs permettent aux salariés de devenir copropriétaires. Selon les travaux cités dans notre rapport, aux États-Unis, les salariés proches de la retraite dans des entreprises dotées d’ESOP détiennent en moyenne dix fois plus de patrimoine que ceux d’entreprises comparables sans actionnariat salarié. Ces entreprises sont également trois à cinq fois moins susceptibles de procéder à des licenciements en période de crise.

Troisièmement, les mécanismes non monétaires. Développement des compétences, programmes de bien-être, dispositifs de reconnaissance : autant de formes puissantes – et souvent sous-estimées – de partage de la valeur. Investir dans la formation élargit les capacités et les opportunités futures des salariés, rejoignant la conception du développement d’Amartya Sen comme expansion des libertés humaines. Des politiques complètes de bien-être, comme celles de Google, incluant soutien à la santé mentale et infrastructures sportives, améliorent à la fois le bien-être et la productivité, comme le suggèrent les recherches sur le lien entre bonheur et performance économique.

Le partage de la valeur peut aussi concerner l’ensemble de la chaîne : contrats plus équitables avec les fournisseurs, recrutement local, initiatives communautaires ou tarification inclusive.

Gouvernance : qui décide ?

Au fond, le partage de la valeur soulève une question profondément politique : qui détient l’autorité pour décider de la répartition des fruits de l’activité économique ?

Pendant plus d’un demi-siècle, la doctrine de Milton Friedman, « The social responsibility of business is to increase its profits », selon laquelle la seule responsabilité sociale de l’entreprise est d’augmenter ses profits, a apporté une réponse claire. Dans cette perspective, la gouvernance d’entreprise est orientée principalement vers les intérêts des actionnaires, dès lors que l’entreprise respecte la loi.


À lire aussi : Deux conceptions de l’entreprise « responsable » : Friedman contre Freeman


Aujourd’hui, cette vision apparaît de plus en plus intenable. La théorie contemporaine des parties prenantes de Edward Freeman, « Stakeholder capitalism », affirme que, puisque la valeur est co-créée par de multiples acteurs, les structures de gouvernance doivent intégrer leurs voix dans la prise de décision.

Parmi les pistes concrètes : la représentation des salariés au conseil d’administration, comme dans les modèles européens de codétermination ; des conseils consultatifs de parties prenantes ; ou des sièges réservés à des ONG environnementales pour représenter les intérêts de la nature et des générations futures. Il ne s’agit pas d’exclure les actionnaires, mais de rééquilibrer leur rôle au sein d’une communauté élargie de bénéficiaires légitimes.

Parallèlement, des innovations en matière de propriété gagnent en visibilité. Au Danemark, des fondations actionnaires détiennent des participations significatives dans des entreprises comme Carlsberg, utilisant les dividendes pour financer des initiatives scientifiques et culturelles tout en assurant une gestion stable de long terme.

En Espagne, le groupe Mondragon fonctionne comme une fédération de coopératives de travailleurs où les salariés sont à la fois propriétaires et décideurs, bénéficiant d’une plus grande sécurité de l’emploi et de salaires plus élevés que dans des entreprises comparables.

Vers un nouveau contrat social

La réglementation accélère ce mouvement. Avec la CSRD et d’autres cadres, la durabilité devient un enjeu de transparence, de gestion des risques et de responsabilité. Publier des indicateurs carbone ou diversité ne suffira plus : la prochaine frontière pourrait être la capacité à partager la valeur de manière plus équitable, plus transparente et plus innovante que ses concurrents.


À lire aussi : CSRD : quand la comptabilité devient géopolitique…


Le 20 février, il est tentant d’attendre des gouvernements qu’ils corrigent les inégalités. Mais si l’on prend la justice sociale au sérieux, il faut plutôt regarder du côté des entreprises qui structurent l’emploi, les revenus, la consommation et la cohésion sociale. Qu’elles le veuillent ou non, elles sont désormais en première ligne d’un nouveau contrat social.

Dans un monde marqué par la baisse de la part du travail, la hausse du coût de la vie et l’érosion de la confiance, le partage de la valeur devrait être au centre du débat. C’est l’un des tests les plus clairs de la capacité de nos économies à construire une prospérité qui s’accompagne de justice.

The Conversation

Schneider Electric est partenaire de HEC Paris Inclusive Economy Center.

19.02.2026 à 16:59

Quand la commémoration entre en piste : la neutralité olympique à l’épreuve

Carine Duteil, Maître de Conférences en linguistique et sciences de l'information & de la communication, Université de Limoges
Arnaud Richard, Professeur des universités en sciences du langage, Université de Toulon
Plusieurs épisodes survenus lors des JO de Milan-Cortina remettent en avant l’éternelle tension entre liberté d’expression et neutralité des événements sportifs.
Texte intégral (2750 mots)

La libre expression est normalement garantie à chaque individu, mais le Comité international olympique (CIO) limite les manifestations d’idéologie politique par les sportifs durant les compétitions. Mais représenter des compatriotes tués durant une guerre en cours, comme l’a fait durant les Jeux olympiques actuels l’Ukrainien Vladyslav Heraskevych, ce qui lui a valu d’être disqualifié, relève-t-il d’une « démonstration ou propagande politique, religieuse ou raciale », comme l’a décidé le CIO ? Derrière ces questionnements casuistiques, il y a une interrogation constante, qui revient régulièrement dans le monde du sport : qu’est-ce que la neutralité dont se prévalent les institutions sportives internationales ?


Aux Jeux olympiques de Milan-Cortina 2026, l’un des épisodes les plus commentés n’a pas eu lieu sur la glace, mais autour d’un casque.

Le skeletoneur ukrainien Vladyslav Heraskevych, 27 ans, a été disqualifié après avoir refusé de concourir avec un autre équipement que son « helmet of remembrance », un casque portant les visages et noms de quelques-uns des nombreux sportifs et entraîneurs ukrainiens morts depuis l’invasion russe. Le Comité international olympique (CIO) a considéré que ce casque constituait une violation de la règle 50 de la Charte olympique, qui interdit toute « démonstration ou propagande politique, religieuse ou raciale » sur les lieux de compétition.

Le 11 février, le CIO propose un compromis : l’athlète peut montrer le casque avant ou après la course et porter un brassard noir pendant l’épreuve. Heraskevych refuse, déclarant qu’« une médaille ne vaut rien comparée aux vies et à la mémoire de ces athlètes ».

Le 12 février, la Fédération internationale de bobsleigh et skeleton (IBSF) le retire de la liste de départ.

Le 13 février, sa requête devant la chambre ad hoc du Tribunal arbitral du sport (CAS) est rejetée.

Le communiqué du CAS est central : il reconnaît la légitimité de l’hommage, mais rappelle que la liberté d’expression, bien que protégée, est limitée sur le field of play. D’autres espaces – zone mixte, conférences de presse, réseaux sociaux – restent davantage ouverts à l’expression des opinions personnelles des sportifs.

Cette phrase du porte-parole du CIO, Mark Adams résume la doctrine : « It’s not the message, it’s the place that counts. » : ce n’est pas le message qui est en cause, mais l’endroit où il apparaît.

Une neutralité territoriale

La version 2026 de la règle 50 consolide la logique interprétative issue des Athlete Expression Guidelines adoptées après les controverses de 2020–2021. La règle 50.2 avait déjà été assouplie avant les JO de Tokyo 2020 (organisés en 2021 pour cause de Covid), ouvrant une porte encadrée à l’expression hors podium.

Comme nous l’indiquions alors à FrancsJeux : « Nous ne sommes plus au temps de Pierre de Coubertin, où les athlètes devaient s’exprimer par leurs gestes sportifs. »

Cette territorialisation ne surgit pas ex nihilo. Aux Jeux de Tokyo 2020, le CIO avait déjà assoupli la règle 50, autorisant certaines formes d’expression sur le terrain, tout en maintenant l’interdiction stricte sur les podiums et lors des cérémonies protocolaires. Des genoux posés à terre, des gestes symboliques ou des signes portés par des athlètes avaient alors suscité un débat mondial.

Ce moment a marqué un tournant : la neutralité olympique n’apparaît plus comme une interdiction absolue, mais comme un équilibre délicat entre liberté d’expression et protection de la scène cérémonielle. La règle 50 s’est progressivement transformée, passant d’un régime disciplinaire à une logique d’encadrement différencié selon les espaces.

L’affaire Heraskevych s’inscrit dans cette évolution. Elle ne signale pas un retour à l’interdit total, mais révèle la persistance d’une frontière : celle qui sépare l’expression tolérée de la visibilité prohibée sur l’aire de compétition.

Le cœur normatif est désormais spatial : l’expression est possible, mais pas sur l’aire de compétition. La neutralité olympique ne se définit plus comme absence de politique, mais comme gestion organisée de la visibilité, reposant sur une distinction nette entre la scène compétitive et les espaces périphériques.

Lors de ces mêmes Jeux, le skieur Gus Kenworthy a publié sur Instagram une image formant le slogan « FUCK ICE », visant la politique migratoire des États-Unis. Aucun rappel à l’ordre n’a suivi, ni par son comité olympique britannique, ni par le CIO. Le message, clairement politique, et pourtant provocateur sur sa mise en forme, circulait hors de l’aire de compétition et avant le début des épreuves.

Cette territorialisation a été justifiée par le CIO au nom d’un possible « effet domino » : « Avec 130 conflits dans le monde, nous ne pouvons pas permettre à chaque athlète d’envoyer des messages politiques pendant leurs épreuves » (Mark Adams, cité dans FrancsJeux, 12 février 2026). La neutralité devient ainsi un dispositif de gouvernement des surfaces.

Mémoire, commémoration ou propagande ?

La controverse tient à la qualification même du geste. Un slogan revendicatif entre sans ambiguïté dans la catégorie de la protestation. Mais un hommage aux morts relève-t-il d’une propagande ?

Le casque d’Heraskevych ne formulait pas de demande politique explicite. Il présentait des visages, des noms. Il matérialisait une mémoire dans un espace conçu pour n’accueillir que la performance.

Or la règle 50 ne distingue pas entre revendication et commémoration. Toute inscription visible susceptible d’être interprétée comme politique relève de l’interdit. La neutralité protège la cohérence formelle du spectacle. Mais elle se heurte ici à l’irruption d’une vulnérabilité historique.

Une controverse internationale

L’épisode a suscité une vive polémique. La présidente du CIO, Kirsty Coventry, a tenté personnellement de convaincre l’athlète de changer de casque, s’expliquant ensuite devant les médias les larmes aux yeux.

Le président ukrainien Volodymyr Zelensky a publiquement soutenu Heraskevych, dénonçant une décision incompréhensible dans un contexte de guerre. Des voix critiques se sont fait entendre, soulignant que les Jeux excluent ou encadrent strictement la participation russe et biélorusse – décisions déjà éminemment politiques – tout en qualifiant un hommage mémoriel de geste politique interdit, mesure jugée incohérente.

Sur les réseaux sociaux, l’image du casque a massivement circulé, accompagnée de hashtags comme #RemembranceIsNotAViolation (#LaCommémorationN’EstPasUneViolation) ou #HelmetOfDignity (#CasqueDeLaDignité). Des athlètes ukrainiens ont réagi par des micro-gestes de solidarité : Olena Smaha (luge) montrant un gant portant l’inscription « remembrance is not a violation », Dmytro Shepiuk brandissant un message « UKR heroes with us ».

Olena Smaha montrant le message inscrit sur son gant. Compte X de Unitedmedia24

Ces gestes épousent précisément la frontière tracée par le CIO : expression hors du field of play, sans inscription directe sur l’équipement en course. La neutralité est contournée, sans être frontalement violée.

L’illusion d’équivalence

Au-delà du cas individuel, la controverse met en lumière une asymétrie plus profonde. Les Jeux reposent sur une fiction d’équivalence : tous les athlètes entrent dans l’arène sous les mêmes règles. Mais la guerre introduit une dissymétrie radicale : certains concourent pendant que d’autres meurent.

Exiger que cette dissymétrie reste invisible revient à préserver l’eurythmie du spectacle – cette harmonie réglée des corps, des signes et des surfaces qui garantit la lisibilité de l’événement – au prix d’un lissage de la vulnérabilité. La neutralité olympique protège la continuité narrative de l’événement. Mais lorsque la mémoire entre sur la piste, elle révèle un angle mort normatif : l’olympisme sait encadrer la propagande ; il peine à penser le deuil.

En 2024, lors des Jeux olympiques de Paris 2024, deux athlètes afghanes ont connu des sorts différents après avoir exprimé leur soutien aux droits des femmes en référence à leur pays. Le 2 août, la sprinteuse Kimia Yousofi retourne son dossard pour laisser apparaître un message manuscrit : « Education, Sports, Our rights ». Aucune sanction n’est prononcée. Le 9 août, la danseuse Manizha Talash dévoile un tissu, une cape, portant l’inscription « Free Afghan Women » lors de la compétition de breaking : elle est disqualifiée le lendemain.

Comme dans l’affaire Heraskevych, la question ne porte pas tant sur la cause défendue que sur la visibilité qu’elle prend sur la scène compétitive.

La différence ne tient pas uniquement au contenu des messages, mais à leur intensité et à leur scène d’apparition. Dans le cas des deux sportives afghanes, le premier message énonce des valeurs ; le second formule une injonction explicite. Dans les deux cas, la cause défendue est la même. Mais sur la scène compétitive, l’expression directe d’une revendication est considérée comme une rupture de la grammaire symbolique des Jeux.

La neutralité olympique ne supprime pas le politique. Elle en régule les formes, les degrés et les lieux d’apparition.

Une question qui dépasse le skeleton

L’affaire Heraskevych ne remet pas seulement en cause l’interprétation d’une règle. Elle interroge la capacité du modèle olympique à intégrer des vulnérabilités historiques dans un espace conçu comme harmonisé.

L’olympisme ne s’est pas seulement construit par des textes normatifs, mais aussi par des énoncés performatifs. Le serment olympique, dont la formulation a évolué au fil du XXe siècle, engage les athlètes dans une scène ritualisée où l’honneur, la loyauté et désormais l’inclusion sont proclamés collectivement. L’olympisme ne se contente pas d’interdire : il met en forme une parole et une visibilité communes.

La règle 50 participe de cette même logique. Elle ne vise pas uniquement à empêcher des messages politiques ; elle protège une cohérence symbolique, une continuité des signes sur l’aire de compétition. Elle contribue à préserver une scène centrée sur la performance, où les corps sont censés se rencontrer dans une forme d’équivalence symbolique.

L’apparition d’un « casque de la mémoire » ne rompt donc pas seulement une règle. Elle introduit un signe qui n’appartient pas à la grammaire cérémonielle habituelle des Jeux.

La règle 50 interdit toute « propagande » politique. Or le terme n’est pas neutre dans l’histoire olympique. Dans ses écrits fondateurs, Pierre de Coubertin revendiquait explicitement une « propagande pour l’idée de la paix » et concevait la diffusion du néo-olympisme comme une entreprise pédagogique destinée à transformer les mentalités. L’olympisme n’a jamais été indifférent : il a toujours été porteur d’un projet normatif.

La neutralité contemporaine ne correspond donc pas à une absence d’idéologie. Elle constitue une modalité particulière de cette ambition. Elle organise la visibilité afin de préserver une scène commune.

Mais cette équivalence est fragile. Lorsque des athlètes sont directement affectés par une guerre en cours, lorsque des noms et des visages de disparus entrent sur la piste, la séparation entre le sport et le monde devient plus difficile à maintenir.

L’affaire du casque de Milan-Cortina ne contredit pas l’idéal olympique ; elle en révèle la tension constitutive. L’olympisme cherche à produire une unité symbolique. Reste à savoir comment cette unité peut coexister avec la visibilité de fractures qui ne relèvent pas d’une opinion, mais d’une expérience vécue.

La question n’est plus simplement de savoir si le sport est politique.

Elle consiste à déterminer jusqu’où peut aller la neutralité lorsque la mémoire est rendue visible – et si l’eurythmie des surfaces peut intégrer la vulnérabilité des corps qui les traversent.

The Conversation

Carine Duteil est membre élue de l'Académie Nationale Olympique Française (ANOF) et du Comité Français Pierre de Coubertin.

Arnaud Richard est président de l'Association francophone des académies olympiques.

19.02.2026 à 16:58

La Cour suprême des États-Unis est-elle « trumpiste » ?

Michael Nafi, Enseignant-chercheur, philosophie, droit, science politique, Université Paris Cité
Si la Cour suprême des États-Unis est dominée par les juges conservateurs, dont trois nommés par Donald Trump durant son premier mandat, elle n’est pas pour autant inféodée au locataire de la Maison-Blanche.
Texte intégral (2390 mots)

La Cour suprême, dont le jugement sur la légalité des tarifs douaniers imposés par l’actuel président des États-Unis est très attendu, est souvent vue comme étant pleinement acquise au trumpisme (parce que six des neuf juges nommés à vie qui la composent sont conservateurs et parce que trois d’entre eux ont été personnellement nommés par Trump durant son premier mandat). Pourtant, cette lecture largement politique fait abstraction des contraintes institutionnelles et procédurales qui encadrent les décisions de la Cour – des contraintes fondées sur des arguments et des doctrines juridiques bien éloignés des controverses.


Depuis le début du second mandat de Trump, l’administration américaine a déposé des requêtes d’urgence auprès de la Cour suprême bien plus fréquemment que celles qui l’ont précédée. Selon un décompte effectué en juin dernier, l’administration Trump 2 avait alors, en quelques mois, déjà déposé autant de requêtes (19) que l’administration Biden en quatre ans et largement dépassé les chiffres cumulés des administrations Obama et George W. Bush sur seize ans (8 au total).

L’urgence devant la Cour suprême : un problème structurel, pas un biais trumpiste

Contrairement aux affaires jugées au fond, les requêtes d’urgence ne nécessitent généralement ni dossiers exhaustifs ni plaidoiries. Lorsqu’elles portent sur la suspension d’une décision d’une juridiction inférieure, elles sont adressées au juge chargé du circuit fédéral concerné (région relevant d’une cour d’appel donnée), qui peut statuer seul ou saisir la formation collégiale. La Cour n’accompagne généralement pas ses décisions d’une opinion motivée ; lorsqu’elle le fait, les motivations sont brèves et les positions dissidentes rarement explicitées, même si certains juges signalent parfois leur désaccord.

Ainsi, lors de la paralysie du gouvernement fédéral entre le 1er octobre et le 12 novembre 2025, une cour du district de Rhode Island avait enjoint à l’administration de verser les subventions promises au programme d’aide alimentaire fédéral Supplemental Nutrition Assistance Program (SNAP), destiné aux ménages à faibles revenus. C’est la juge « progressiste » Ketanji Brown Jackson, en charge du district, qui a accordé une suspension administrative temporaire à cette décision, donc favorable à l’administration Trump, en attendant l’avis de la cour d’appel. Cet exemple montre bien que les réponses de la Cour aux requêtes d’urgence traduisent moins une orientation idéologique qu’une logique conservatoire conforme aux règles de procédure.

Cependant, ces requêtes suscitent des inquiétudes légitimes. En 2015, l’éminent constitutionnaliste William Baude a forgé l’expression « rôle de l’ombre » (shadow docket) pour désigner collectivement ces dossiers, même s’ils ne sont pas consignés dans un rôle ou registre distinct. Il mettait ainsi en lumière une part occultée mais structurante de l’activité de la Cour, indispensable pour comprendre sa pratique réelle au-delà des seuls arrêts au fond. Depuis 2020, Stephen Vladeck a prolongé cette critique. Selon lui, à travers ces requêtes, la Cour n’agirait plus comme une juridiction de dernier ressort statuant après maturation des litiges, mais souvent comme un arbitre d’urgence. Plus récemment, Erwin Chemerinsky a souligné qu’un contrôle insuffisamment exigeant des critères du sursis fait courir le risque de transformer des décisions provisoires en précédents.

Mais ce phénomène n’est pas nouveau. En 2006, dans l’affaire Purcell vs Gonzalez, par un arrêt de suspension à l’unanimité – incluant la juge progressiste Ruth Bader Ginsburg – dans le cadre d’une procédure d’urgence, la Cour a posé un principe contre la modification des règles électorales à l’approche d’un scrutin. Ce principe, dit « de Purcell », fait jurisprudence auprès des cours inférieures. À titre d’exemple, il a été récemment appliqué au Texas au bénéfice des républicains, mais également, en août 2020, pour refuser la suspension de l’assouplissement des conditions du vote par correspondance dans le Rhode Island, au détriment du Parti républicain.

De nombreuses requêtes en urgence sont aujourd’hui traitées par le biais de la règle 22 des règles et procédures de la Cour suprême. Cette règle, remontant aux réformes de 1925, comporte deux zones de fragilité : d’une part, une appréciation élastique des « chances de succès au fond », souvent réduites à la simple existence d’une question juridique « non dénuée de sérieux » ; d’autre part, une tendance à confondre l’intérêt public avec l’intérêt de l’exécutif lorsque celui-ci est partie au litige, ce qui incline structurellement la balance en sa faveur.


À lire aussi : Vers la fin du droit à l’avortement aux États-Unis ?


Dernièrement, la Cour suprême a peut-être réagi aux critiques visant le contentieux d’urgence en ajustant ses pratiques. Dans Trump vs Wilcox (2025), elle a autorisé provisoirement la mise à l’écart de responsables d’agences indépendantes (Conseil national des relations du travail, NLRB ; Conseil de protection du système de mérite, MSPB), tout en prenant soin de préciser, dans l’opinion accompagnant cette décision, que la Réserve fédérale constitue un cas institutionnel distinct.

Une telle pratique est inhabituelle en procédure d’urgence. Elle a été lue comme un indice destiné à borner l’extension de la logique présidentielle de révocation, au-delà des seules agences en cause dans le litige. La Cour a également franchi un pas supplémentaire en organisant des audiences publiques dans des affaires relevant de la procédure d’urgence (notamment affaire Trump vs Cook, gouverneure de la Réserve fédérale), ou en faisant basculer une demande de sursis vers un examen au fond accéléré (affaire Trump vs Slaughter, commissaire au sein de la Commission fédérale du commerce, FTC).

Une Cour conservatrice : une convergence morale avec le trumpisme ?

La Cour suprême est aujourd’hui dominée, à six contre trois, par des juges qualifiés de conservateurs. Pour autant, est-elle acquise au président actuel du pays et le soutient-elles dans toutes ses initiatives ?

Rien ne permet de l’affirmer. Certes, les effets sociaux de Dobbs vs Jackson (2022), qui a renversé Roe vs Wade en jugeant que la Constitution fédérale ne protégeait pas un droit à l’avortement, sont considérables. Cependant, comme l’a rappelé le sociologue Éric Fassin, l’histoire de l’avortement aux États-Unis est complexe et ne saurait se réduire à un récit de progrès brutalement interrompu.

Même Ruth Bader Ginsburg, pourtant défenseure du droit à l’avortement, jugeait Roe juridiquement fragile, car la décision rattachait la protection de l’avortement à un droit implicite à la vie privée, faiblement ancré dans le texte constitutionnel. Elle regrettait que la Cour n’ait pas plutôt été conduite à se prononcer dans l’affaire Struck vs Secretary of Defense – Susan Struck était une militaire contrainte en 1970 de choisir entre sa grossesse et sa carrière – qui aurait permis de poser la question en termes d’égalité constitutionnelle et de contraintes disproportionnées pesant sur les femmes.

Inversement, la Cour n’a pas remis en cause le mariage homosexuel, protégé constitutionnellement depuis le cas Obergefell vs Hodges, 2015, malgré les attentes de certains milieux conservateurs du mouvement MAGA (Miller vs Davis du district de l’est du Kentucky, rejeté en appel). Il est plausible que le principe de reliance interest – la protection d’attentes durablement et contractuellement établies – ait joué ici un rôle déterminant.

Ces exemples rappellent que la Cour ne tranche pas des débats de société, mais des questions de compétence et de normes constitutionnelles encadrant l’action publique.

À titre d’illustration récente, la Cour a entendu, en janvier 2026, deux affaires distinctes relatives à la participation d’athlètes transgenres dans les équipes féminines (fondées sur le Titre IX, la loi fédérale relative à la non-discrimination dans l’éducation, et sur la clause constitutionnelle d’égalité de protection du 14ᵉ amendement) – des litiges dont l’issue devra être lue, là encore, non comme un arbitrage moral, mais comme une interprétation de normes constitutionnelles et législatives.

Pouvoir présidentiel : le test décisif des affaires en cours

La décision de juillet 2024 sur l’immunité dont peut jouir un président des États-Unis (Trump vs United States) a souvent été lue comme ayant consacré un privilège personnel. En réalité, elle formalise surtout une architecture déjà admise : distinction entre actes officiels (protégés par une immunité fonctionnelle) et actes privés (justiciables) ; poursuites possibles après le mandat ; centralité de l’impeachment. Comparée à d’autres systèmes constitutionnels, cette protection n’a rien d’exorbitant.

D’autres dossiers encore pendants, examinés seulement en audiences au fond, offrent toutefois un terrain d’observation plus révélateur.

Le plus emblématique concerne les droits de douane fondés sur l’International Emergency Economic Powers Act (IEEPA), loi sur les pouvoirs économiques d’urgence internationale) (audience du 5 novembre 2025). L’enjeu n’est pas l’opportunité économique de ces droits de douane, mais la nature exacte de la délégation consentie par le Congrès : peut-on lire cette loi comme autorisant, sans mandat explicite, des mesures assimilables à des prélèvements fiscaux, domaine traditionnellement réservé au législateur ?

Une telle lecture entrerait en tension avec la lettre et l’histoire du texte, mais aussi avec des doctrines et méthodes revendiquées par la majorité conservatrice elle-même – major questions doctrine, textualisme, originalisme – qui constituent autant de contraintes que de leviers. La Cour devra ainsi arbitrer un équilibre classique entre pouvoirs exécutif et législatif, tel qu’il découle de la répartition constitutionnelle des compétences (article I et article II). Un rejet de cette interprétation n’épuiserait d’ailleurs pas les moyens juridiques du président en matière tarifaire.

Les échanges ont enfin porté sur le sort des droits déjà perçus : des solutions pragmatiques sont envisageables, mais sans pouvoir s’appuyer sur un reliance interest, inapplicable à l’État. Une option intermédiaire consisterait à limiter d’éventuels remboursements aux seules parties au litige.

Le second dossier porte sur la question de savoir si le président peut révoquer librement les dirigeants d’agences indépendantes (audience du 8 décembre 2025) ou si le Congrès peut subordonner de telles révocations à un motif valable. Lors des débats, les juges ont exprimé une inquiétude structurelle : la multiplication d’agences indépendantes dotées de pouvoirs normatifs, exécutifs et quasi juridictionnels pourrait permettre au Congrès de contourner l’exécutif, au risque d’une fragmentation administrative de l’exécutif fédéral.

Si, dans ces deux affaires, la Cour devait retenir l’argumentation du gouvernement, la question d’un renforcement excessif de l’exécutif se poserait. À défaut, l’image demeurerait celle d’une Cour conservatrice, mais encore arrimée à ses contraintes doctrinales et institutionnelles.

The Conversation

Michael Nafi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

19.02.2026 à 16:58

Comment protester contre les néonazis ? Les leçons de l’histoire allemande

Laurie Marhoefer, Professor of History, University of Washington
L’histoire nous rappelle que les affrontements de rue entre les communistes allemands et les nazis dans les années&nbsp;1930 ont profité aux seconds.
Texte intégral (2427 mots)
Un partisan du président Donald Trump, au centre, se dispute avec un contre-manifestant lors d'un rassemblement à Boston, le samedi 19 août 2017. AP Photo/Michael Dwyer

La mort de Quentin Deranque, le 14 février 2026 à Lyon, pose la question de la stratégie de certains groupes « antifa » qui choisissent de se confronter aux militants d’extrême droite. À cette occasion, nous republions un article de l’historienne Laurie Marhoefer, à la suite de la mort de Heather Heyer, militante pacifiste tuée par des néonazis à Charlottesville (États-Unis) en 2017.


Après le meurtre de Heather Heyer à Charlottesville, nombre de personnes se sont demandé ce qu’elles devraient faire si des nazis manifestent dans leur ville. Faut-il se mettre en danger dans des contre-manifestations ? Certains disent oui.

L’histoire nous montre que non. Croyez-moi : je suis une spécialiste des nazis. Nous avons une obligation éthique de nous opposer au fascisme et au racisme. Mais nous avons aussi une obligation éthique de le faire d’une manière qui n’aide pas les fascistes et les racistes plus qu’elle ne leur nuit.

L’histoire se répète

La manifestation de Charlottesville en 2017 semblait tout droit sortie d’un manuel nazi. Dans les années 1920, le parti nazi n’était qu’un parti politique parmi d’autres dans un système démocratique, se présentant pour obtenir des sièges au Parlement allemand. Pendant l’essentiel de cette période, il s’agissait d’un petit groupe marginal. En 1933, porté par une vague de soutien populaire, le parti nazi s’empara du pouvoir et instaura une dictature. La suite est bien connue.

C’est en 1927, alors qu’il se trouvait encore aux marges de la vie politique, que le parti nazi programma un rassemblement dans un lieu résolument hostile – le quartier berlinois de Wedding. Wedding était si ancré à gauche que le quartier portait le surnom de « Wedding rouge », le rouge étant la couleur du Parti communiste. Les nazis tenaient souvent leurs rassemblements précisément là où vivaient leurs ennemis, afin de les provoquer.

Les habitants de Wedding étaient déterminés à lutter contre le fascisme dans leur quartier. Le jour du rassemblement, des centaines de nazis descendirent sur Wedding. Des centaines de leurs opposants se présentèrent également, organisés par le Parti communiste local. Les antifascistes tentèrent de perturber le rassemblement en huant les orateurs. Des nervis nazis ripostèrent. Une bagarre massive éclata. Près de 100 personnes furent blessées.

J’imagine que les habitants de Wedding eurent le sentiment d’avoir gagné ce jour-là. Ils avaient courageusement envoyé un message : le fascisme n’était pas le bienvenu.

Mais les historiens estiment que des événements comme le rassemblement de Wedding ont aidé les nazis à construire une dictature. Certes, la bagarre leur a apporté une attention médiatique. Mais ce qui fut de loin le plus important, c’est la manière dont elle a alimenté une spirale croissante de violence de rue. Cette violence a considérablement servi les fascistes.

Les affrontements violents avec les antifascistes ont donné aux nazis l’occasion de se présenter comme les victimes d’une gauche agressive et hors-la-loi.

Cela a fonctionné. Nous savons aujourd’hui que de nombreux Allemands ont soutenu les fascistes parce qu’ils étaient terrorisés par la violence de gauche dans les rues. Les Allemands ouvraient leurs journaux du matin et y lisaient des récits d’affrontements comme celui de Wedding. Ils avaient l’impression qu’une guerre civile allait éclater dans leurs villes. Électeurs et responsables politiques de l’opposition finirent par croire que le gouvernement avait besoin de pouvoirs policiers spéciaux pour arrêter les gauchistes violents. La dictature devint désirable. Le fait que les nazis eux-mêmes attisaient la violence semblait ne pas compter.

L’une des étapes les plus importantes de l’accession d’Hitler au pouvoir dictatorial fut l’obtention de pouvoirs policiers d’urgence, qu’il affirmait nécessaires pour réprimer la violence de gauche.

Des milliers de troupes d’assaut nazies manifestent dans un quartier communiste de Berlin le 22 janvier 1933. Trente-cinq nazis, communistes et policiers furent blessés lors des affrontements. AP Photo

La gauche encaisse le choc

Dans l’opinion publique, les accusations de désordre et de chaos dans les rues ont, en règle générale, tendance à se retourner contre la gauche, et non contre la droite.

C’était le cas en Allemagne dans les années 1920. Cela l’était même lorsque les opposants au fascisme agissaient en état de légitime défense ou tentaient d’utiliser des tactiques relativement modérées, comme les huées. C’est le cas aujourd’hui aux États-Unis, où même des rassemblements pacifiques contre la violence raciste sont qualifiés d’émeutes en devenir.

Aujourd’hui, des extrémistes de droite parcourent le pays en organisant des rassemblements semblables à celui de 1927 à Wedding. Selon l’organisation de défense des droits civiques Southern Poverty Law Center, ils choisissent des lieux où des antifascistes sont présents, comme les campus universitaires. Ils viennent en quête d’affrontements physiques. Puis eux et leurs alliés retournent la situation à leur avantage.

Une manifestation sur le campus de l’Université de Washington où le commentateur d’extrême droite Milo Yiannopoulos prononçait un discours le vendredi 20 janvier 2017. AP Photo/Ted S. Warren

J’ai vu cela se produire sous mes yeux, à quelques pas de mon bureau sur le campus de l’Université de Washington. L’an dernier, un orateur d’extrême droite est venu. Il a été accueilli par une contre-manifestation. L’un de ses partisans a tiré sur un contre-manifestant. Sur scène, dans les instants qui ont suivi la fusillade, l’orateur d’extrême droite a affirmé que ses opposants avaient cherché à l’empêcher de parler « en tuant des gens ». Le fait que ce soit l’un des partisans de l’orateur – un extrémiste de droite et soutien de Trump – qui ait commis ce que les procureurs qualifient aujourd’hui d’acte de violence non provoqué et prémédité n’a jamais fait la une de l’actualité nationale.

Nous avons vu le même scénario se dérouler après Charlottesville. Le président Donald Trump a déclaré qu’il y avait eu de la violence « des deux côtés ». C’était une affirmation incroyable. Heather Heyer, une manifestante pacifique, ainsi que 19 autres personnes, ont été intentionnellement percutées par une voiture conduite par un néonazi. Trump a semblé présenter Charlottesville comme un nouvel exemple de ce qu’il a qualifié ailleurs de « violence dans nos rues et chaos dans nos communautés », incluant apparemment Black Lives Matter, qui est pourtant un mouvement non violent contre la violence. Il a attisé la peur. Trump a récemment déclaré que la police était trop entravée par le droit en vigueur.

Le président Trump a recommencé lors des manifestations largement pacifiques à Boston : il a qualifié les dizaines de milliers de personnes rassemblées pour protester contre le racisme et le nazisme d’« agitateurs anti-police », avant, dans un revirement caractéristique, de les féliciter.

Les déclarations du président Trump portent leurs fruits. Un sondage de CBS News a révélé qu’une majorité de républicains estimaient que sa description des responsables de la violence à Charlottesville était « exacte ».

Cette violence, et la rhétorique de l’administration à son sujet, sont des échos – faibles mais néanmoins inquiétants – d’un schéma bien documenté, d’une voie par laquelle les démocraties se transforment en dictatures.

Le rôle des « antifa »

Il existe une complication supplémentaire : l’antifa. Lorsque des nazis et des suprémacistes blancs manifestent, les antifa sont susceptibles d’être présents eux aussi.

« Antifa » est l’abréviation d’antifascistes, même si ce terme n’englobe nullement toutes les personnes opposées au fascisme. L’antifa est un mouvement relativement restreint de l’extrême gauche, lié à l’anarchisme. Il est apparu dans la scène punk européenne des années 1980 pour combattre le néonazisme.

L’antifa affirme que, puisque le nazisme et la suprématie blanche sont violents, il faut utiliser tous les moyens nécessaires pour les arrêter. Cela inclut des moyens physiques, comme ce qu’ils ont fait sur mon campus : former une foule pour bloquer l’accès à une salle où doit intervenir un orateur d’extrême droite.

Les tactiques de l’antifa se retournent souvent contre eux, tout comme celles de l’opposition communiste allemande au nazisme dans les années 1920. Les confrontations s’enveniment. L’opinion publique blâme fréquemment la gauche, quelles que soient les circonstances.

Que faire ?

Une solution : organiser un événement alternatif qui n’implique pas de proximité physique avec les extrémistes de droite. Le Southern Poverty Law Center a publié un guide utile. Parmi ses recommandations : si l’alt-right manifeste, « organisez une protestation joyeuse » bien à l’écart. Donnez la parole aux personnes qu’ils ont ciblées. Mais « aussi difficile que cela puisse être de résister à l’envie de crier sur les orateurs de l’alt-right, ne les affrontez pas ».

Cela ne signifie pas ignorer les nazis. Cela signifie leur tenir tête d’une manière qui évite tout bain de sang.

L’idéal pour laquelle Heather Heyer est morte sera mieux défendu en évitant la confrontation physique voulue par ceux qui l’ont assassinée.

The Conversation

Laurie Marhoefer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

19.02.2026 à 11:48

Prairies sous Plexiglas, images satellite, équations… comment les scientifiques prédisent les effets du changement climatique sur les écosystèmes

Coline Deveautour, Enseignante-Chercheuse en Ecologie microbienne des sols, UniLaSalle
Pierre-Yves Bernard, Enseignant-chercheur en Agronomie - Directeur du Collège Agrobiosciences - Associé UR AGHYLE, UniLaSalle
Expérimentations à ciel ouvert avec des anneaux en carbone de 25&nbsp;mètres, utilisations de données historiques, suivis depuis l’espace… les méthodes sont nombreuses et souvent complémentaires.
Texte intégral (3630 mots)
Plateforme EucFACE, près de Sydney, Australie. Vinod Kumar, Craig McNamarra, Craig Barton., Fourni par l'auteur

Expérimentation à ciel ouvert avec des prairies recouvertes de Plexiglas ou bien avec des anneaux en carbone de 25 mètres, reproduction d’écosystèmes miniatures en laboratoire, utilisations de données historiques, suivis depuis l’espace, équations… Pour comprendre comment le changement climatique va impacter les écosystèmes, les méthodes sont nombreuses et souvent complémentaires.


« Gérer l’inévitable pour éviter l’ingérable. » À l’heure où les effets du changement climatique ne vont partout qu’en s’accroissant, telle est la formulation courante des climatologues pour exprimer très concrètement l’objectif stratégique des politiques climatiques.

Face aux prédictions préoccupantes, les écologues observent, cherchent à comprendre ce phénomène pour mieux prédire ses conséquences sur nos écosystèmes.

Il existe différentes approches pour tester comment le changement climatique influe sur les organismes, leurs interactions entre individus, entre espèces et avec leur environnement. Cela combine des observations, des expérimentations et de la modélisation. Voici un tour d’horizon de ces différentes approches mises en place en France et dans le monde.

Des plateformes expérimentales grandeur nature

Une première approche consiste à modifier un écosystème via des équipements et à étudier les changements qui en découlent. Que ce soit pour évaluer la sécheresse, les hausses de température ou l’augmentation du CO2 dans l’atmosphère, le principe reste le même. Cela permet de contrôler une ou plusieurs variables environnementales (la pluviométrie, la température et autres) comme si nous étions sous les conditions futures, pour simuler les scénarios climatiques à venir.

C’est le cas de la plateforme de Puéchabon, dans le sud de la France, ou de la plateforme DRI-GRASS, près de Sydney (Australie). Toutes deux cherchent à comprendre comment un changement dans les régimes de pluie impacte l’écosystème et son fonctionnement, mais dans deux écosystèmes bien distincts.

À Puéchabon (Hérault), un système de gouttières dans une forêt de chênes verts exclut partiellement l’eau de pluie pour simuler la sécheresse. Cette expérimentation a débuté en 2003, avec quatre parcelles de 140 mètres carrés dans la forêt de chênes verts. Ainsi, on évalue l’effet de la sécheresse sur des parcelles entières de forêt. Quels effets sur la forêt, sur les arbres, sur le sol ? Quels effets sur le stockage de carbone ?

À Sydney, la plateforme DRI-Grass utilise un système similaire dans un autre type d’écosystème : une prairie. À la place de gouttières, ce sont des toits en Plexiglas qui couvrent différentes parties de la prairie. Cette expérience, plus récente, a débuté en 2013 et couvre un peu plus de 120 m2.

Plateforme expérimentale DRI-GRASS, près de Sydney (Australie). Coline Deveautour, Fourni par l'auteur

Élément en plus, un système d’irrigation simule plusieurs scénarios possibles : une augmentation, diminution ou changement dans la distribution des eaux de pluie. Cette dernière permet d’étudier les scénarios d’événements extrêmes : des pluies plus rares mais plus fortes. Les chercheurs peuvent donc modifier les régimes hydriques pour se caler sur les scénarios de prédiction des climats futurs. L’un d’entre nous a ainsi travaillé sur cette plateforme pendant trois ans pour mieux comprendre la réponse des champignons et leur interaction avec les plantes face au changement climatique.

Toujours en Australie, mais beaucoup plus impressionnante par sa taille et le dispositif mis en place, la plateforme EucFACE teste l’effet de l’augmentation du CO2 dans l’atmosphère. Ici, ce sont des anneaux en fibre de carbone qui entourent des parcelles circulaires de forêt d’eucalyptus de 25 mètres de diamètre et hauts de 28 mètres !

Plateforme expérimentale EucFACE, près de Sydney (Australie). photos prises par l’équipe gestionnaire du site EucFACE -- Vinod Kumar, Craig McNamarra, Craig Barton., Fourni par l'auteur

Durant la journée, ces anneaux injectent du CO2 sur la forêt pour simuler une augmentation de CO2 à 550 ppm, la concentration attendue dans l’atmosphère pour l’année 2050. De nombreux chercheurs travaillent sur cette plateforme pour comprendre comment l’augmentation du CO2 risque de perturber le fonctionnement des forêts natives d’Australie.

Pour une simulation plus réaliste des changements à venir, certaines plates-formes allient plusieurs facteurs. La plateforme autrichienne ClimGrass par exemple, teste non seulement l’augmentation du CO2 mais aussi la température et la sécheresse. Cette plateforme de maintenant dix ans s’intéresse aux impacts du changement sur une prairie.

Quels que soient la plateforme et le scénario testé, des chercheurs de plusieurs disciplines travaillent et prennent des mesures pour étudier les effets du changement climatique sur les organismes (plantes, organismes du sol, herbivores et autres), la diversité des espèces et sur le fonctionnement de l’écosystème (sa capacité à fixer le carbone, par exemple).

Une des difficultés liées avec cette approche expérimentale est la multitude de facteurs qui ne sont pas contrôlés dans une expérimentation à ciel ouvert. Les résultats peuvent varier d’une année sur l’autre en fonction des aléas bien réels du terrain (une année exceptionnellement pluvieuse, par exemple). De plus, ces études sont en général plus coûteuses et demandent plus d’entretien.

Créer et contrôler un mini-écosystème : les microcosmes

Pour des conditions plus contrôlées, d’autres projets consistent à mettre en place des écosystèmes à échelle réduite en laboratoire. Par exemple, un microcosme terrestre peut contenir soit des assemblages artificiels d’organismes (une sélection de plantes en pots) soit des portions d’écosystème venant de l’environnement (des sols et plants extraits d’une prairie ou autre).

Plants de tomates dans une enceinte phytotronique (température, photopériode et hygrométrie contrôlées) de l’équipe de recherche AGHYLE, UniLaSalle. Adrien Gauthier, Fourni par l'auteur

Ces mini-écosystèmes sont ensuite placés dans des chambres climatiques. Ces chambres varient en taille, mais peuvent être aussi réduites à deux mètres cubes. Elles confinent des communautés d’organismes et les exposent à des variables environnementales (température, humidité, CO2…) simulant des scénarios du changement climatique en conditions entièrement contrôlées.

Ce genre d’expérimentation a l’avantage d’avoir un environnement qui facilite l’interprétation et le suivi. Par exemple, simuler une hausse de température tandis que les autres paramètres (humidité, CO2…) sont constants et eux aussi contrôlés avec précision. Cela permet d’isoler et d’interpréter l’effet de la température, et uniquement de la température, sur le microcosme. Ainsi, les microcosmes ne sont qu’une portion de l’écosystème, et s’éloignent de conditions plus fluctuantes et réalistes.

Exploiter les gradients naturels

Plutôt que modifier l’écosystème ou d’en isoler une partie, certains chercheurs utilisent des gradients naturels, soit les variations naturelles que l’on constate dans la nature. Sur les écosystèmes terrestres, on retrouve des gradients de température avec l’altitude en montagne, par exemple. Plus on monte en altitude, plus les températures chutent. Un gradient de température existe aussi en fonction de la latitude. En général, plus on se rapproche des pôles, plus les températures sont froides. Et, plus récemment utilisés, il existe aussi les gradients de température entre les zones rurales et urbaines avec leurs îlots de chaleur.

Ainsi, l’impact de la température peut être évalué en suivant un transect (ligne virtuelle) le long du gradient, mais pas seulement.

Il existe des expériences de « translocation », où les chercheurs déplacent soit des espèces soit des communautés entières de zones élevées en montagne vers des zones plus basses pour simuler un réchauffement. Par exemple, des chercheurs ont déplacé des placettes de prairie de 0,7 mètre sur 0,7 mètre à trois différentes élévations dans les Alpes : 950, 1 450 et 1 950 mètres au-dessus du niveau de la mer. À la suite de ces transplantations, un suivi régulier peut être effectué pour étudier les plantes, leurs abondances et les espèces associées.

Un autre type d’expérimentation consiste à déplacer un organisme vers des zones plus élevées, et donc actuellement plus froides. Ces zones, pour le moment inaccessibles aux organismes de basses altitudes (avec des températures plus clémentes), deviendront propices à leur développement avec le réchauffement global. L’intérêt de ces études est de mesurer l’impact de ces futures migrations sur les écosystèmes où ces espèces sont pour le moment absentes.

Bien qu’informatives, ces expériences ont, elles aussi, leurs biais. Le gradient de température est un facteur déterminant, cependant il existe toute une myriade d’autres facteurs environnementaux qui varient le long de ces gradients. Ces facteurs ne peuvent pas être contrôlés, mais on peut tout de même les prendre en compte pour interpréter les observations des chercheurs.

Des suivis et des mesures de longue haleine

Certains écosystèmes sont étudiés depuis très longtemps. C’est le cas de la forêt expérimentale Hubbard Brook, au New Hampshire, dans le nord-est des États-Unis. Des mesures environnementales et les suivis d’espèces associées sont collectés depuis 1955 (soit soixante-et-onze ans cette année !). En France, le Centre d’études biologiques de Chizé effectue des recherches sur l’évolution des populations animales sauvages depuis 1968.

On peut ainsi corréler les données météorologiques avec l’activité, l’abondance et la diversité d’espèces. Les données permettent non seulement d’observer directement le changement du climat lors des décennies passées mais aussi comment la variabilité des événements climatiques influence le fonctionnement de l’écosystème.

Une autre manière d’obtenir des mesures sur le long terme et de réaliser des suivis à grande échelle se fait grâce aux sciences citoyennes. Que ce soit dans un jardin, en ville ou en randonnée, les données d’observation d’espèces permettent non seulement d’enregistrer la présence de l’espèce mais aussi leur phénologie, c’est-à-dire comment le climat influence la saisonnalité des espèces.

Ces fluctuations sont aussi mises en évidence grâce à des registres historiques. C’est le cas de la date de floraison des cerisiers de Kyoto, dont les registres remontent à 853. Ou encore plus proche de nous, les registres des dates des vendanges qui prouvent qu’elles ont avancées en moyenne de deux à trois semaines.

Parmi les données citées par le rapport du Giec, on retrouve la date de floraison des cerisiers au Japon. L’agence japonaise de météorologie constate que la floraison avance en moyenne de 1,2 jour tous les dix ans. Ryosuke Yagi/flicker, CC BY

Ce genre de projet permet de répondre à plusieurs questions, par exemple : Est-ce que le printemps démarre de plus en plus tôt ? Est-ce que la distribution géographique de l’espèce change ? Lesquelles sont les plus impactées ?

Des suivis depuis l’espace

Des mesures en continu, tous les jours, et qui recouvre toute la surface terrestre depuis l’espace pour mieux comprendre le fonctionnement terrestre et améliorer les modèles de prédiction. Parmi les nombreuses applications de cet outil, ça permet notamment de cartographier la végétation, son état de santé et sa capacité à fixer le CO2.

La modélisation

La modélisation est une activité incontournable en sciences, permettant de représenter de manière simplifiée un système, en l’occurrence ici, un écosystème. Ces modèles peuvent prendre des formes très différentes, de la simple équation mathématique jusqu’au modèle complexe reposant sur un grand nombre de paramètres (climatiques, pédologiques, biologiques et autres).

Un exemple très parlant de l’utilisation de la modélisation est la projection des feux de forêts. Cela permet de prédire comment le changement climatique influe sur l’intensité, la durée des saisons des feux, leurs étendues. Ces modélisations sont d’autant plus importantes car elles permettent aussi d’identifier des forêts jusque-là épargnées, mais qui avec le changement climatique, seront touchées.

Une fois que les risques d’incendie sont estimés, il est possible d’allier ces prédictions avec les observations de terrain : quelles espèces sont présentes ? Sont-elles adaptées aux feux ? Des simulations permettent aussi d’examiner l’implantation et l’extinction de différentes espèces en relation avec les feux et l’environnement.

De manière générale, les modèles sont adaptables à différents écosystèmes (forêts, prairies, lac, océans…), espèces modèles, climats (tempérés, tropicaux…). Avec l’avancée de nos technologies, ces modèles deviennent toujours plus performants. Bien que complexes, ces méthodes sont des outils puissants pour explorer les conséquences du changement climatique et laissent la porte ouverte à tout un champ des possibles.

Quelle que soit l’approche utilisée par les chercheurs, tous ces outils et méthodes sont complémentaires. Chacun apporte une pierre à l’édifice dans la construction d’une connaissance scientifique opérationnelle pour l’atténuation des causes du changement climatique et l’adaptation face à ses effets déjà observables.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

19.02.2026 à 11:48

Flore endémique des Pyrénées : vers un risque de déclin massif d’ici la fin du siècle

Noèmie Collette, Doctorante en écologie, Université de Perpignan Via Domitia
Joris Bertrand, Maître de Conférences en Biologie des Populations et Écologie, Université de Perpignan Via Domitia
Sébastien Pinel, Chercheur, Université de Perpignan Via Domitia
Valérie Hinoux, Maître de Conférences Hors-Classe à l'Université de Perpignan Via Domitia, section C.N.U. 66
Les conditions climatiques menacent près de la moitié de la flore native des Pyrénées. De nouvelles méthodes de suivi peuvent éclairer les choix de conservation.
Texte intégral (3218 mots)
La dauphinelle des montagnes (_Delphinium montanum_) est une fleur de montagne emblématique des Pyrénées, menacée par le changement climatique. Olive Titus / Flickr, CC BY

L’évolution des conditions climatiques menace, à l’horizon 2100, près de la moitié des espèces florales endémiques uniques des Pyrénées. Il est urgent de renforcer les suivis pour mener des stratégies de conservation plus efficaces. À cet égard, les modèles de distribution d’espèces constituent un outil précieux.


Situées à l’interface de l’influence climatique atlantique et méditerranéenne, les Pyrénées se distinguent par leur richesse exceptionnelle en espèces végétales. Ce massif montagneux accueille notamment plusieurs dizaines d’espèces endémiques, strictement limitées à ce territoire.

Leurs aires de répartition restreintes, parfois limitées à quelques sommets, les rendent particulièrement vulnérables au changement climatique. Nos travaux récemment publiés montrent que près de la moitié des espèces endémiques pyrénéennes considérées pourraient voir leurs conditions climatiques, aujourd’hui favorables, disparaître du massif d’ici à 2100.

Le persil d’isard (Xatartia scabra), une plante strictement endémique des éboulis d’altitude des Pyrénées. Comme beaucoup d’espèces montagnardes à aire très réduite, elle pourrait voir disparaître d’ici à 2100 les conditions climatiques qui permettent sa survie. Joris Bertrand, Fourni par l'auteur

Cette perte se traduirait par une réduction majeure des zones où ces espèces sont le plus à même de se maintenir ou de s’établir. Ceci fragiliserait durablement les populations et accroîtrait fortement leur risque d’extinction locale.

Flore endémiques des Pyrénées : un patrimoine en danger

L’analyse couvre quatre périodes du climat actuel à l’horizon 2100 et repose sur quatre scénarios climatiques illustrant différentes trajectoires de réchauffement. Celles-ci vont d’une hausse modérée (environ + 2,16 °C) à un réchauffement nettement plus marqué (jusqu’à + 6,14 °C) à l’échelle des Pyrénées.

Les résultats dressent un constat alarmant. D’ici à la fin du siècle, 69 % des espèces endémiques étudiées pourraient perdre plus des trois quarts de la superficie des zones qui leur sont climatiquement favorables. Suivant les scénarios les plus pessimistes, plus d’une espèce sur deux verrait même l’intégralité de sa niche bioclimatique disparaître. Autrement dit, perdrait toutes les conditions climatiques nécessaires à sa survie.

Certaines plantes emblématiques du massif, telles que la Dauphinelle des montagnes (Delphinium montanum), l’endressie des Pyrénées (Endressia pyrenaica), ou encore l’esparcette des Pyrénées (Onobrychis pyrenaica), apparaissent particulièrement vulnérables. Les modèles indiquent que les conditions climatiques qui leur sont favorables pourraient déjà avoir disparu à l’échelle du massif, suggérant soit une survie temporaire dans des microrefuges, soit un décalage entre déclin climatique et extinction biologique. Ce phénomène est connu sous le nom de « dette d’extinction ».

Réduction des zones favorables aux plantes endémiques des Pyrénées d’ici à 2100. Noèmie Collette, Fourni par l'auteur

Malgré une dynamique globalement défavorable, deux espèces (Linaria bubanii) et Pinguicula longifolia) pourraient toutefois voir leurs habitats favorables s’étendre dans le futur. Même si ces espèces pourraient théoriquement coloniser de nouveaux milieux, ces cas resteraient marginaux et ne compenseraient pas la tendance globale attendue.


À lire aussi : Dans les Pyrénées, la forêt ne s’étend pas aussi haut que le climat le lui permet


Les sommets pour ultimes refuges

Les montagnes figurent parmi les écosystèmes les plus exposés aux bouleversements climatiques. Les températures y augmentent plus rapidement qu’en plaine, contraignant de nombreuses espèces à coloniser des altitudes toujours plus élevées pour suivre les conditions qui leur sont favorables.

Dans l’étude présentée sur les plantes endémiques pyrénéennes face au changement climatique, au-delà du déclin attendu des zones favorables, nos résultats montrent que les conditions climatiques adaptées à ces plantes pourraient se déplacer progressivement. La plupart des zones actuellement favorables ne le resteraient pas, et cela non pas parce que le climat deviendrait défavorable partout à la fois, mais parce que les conditions favorables à ces espèces pourraient se déplacer.

En moyenne, les zones climatiquement favorables aux espèces devraient s’élever d’environ 180 m en altitude et de 3 km vers le Nord d’ici à 2100. Cela ne signifie pas que les espèces suivront automatiquement ce mouvement : de multiples contraintes biologiques, écologiques ou physiques limiteront leur capacité de dispersion.

Ainsi, la plupart des lieux où ces plantes survivent aujourd’hui ne leur conviendront plus demain, augmentant le risque de déclin. Dans les scénarios les plus pessimistes, les aires propices à un maximum d’espèces se concentreraient au-delà de 2 000 m, et deviendraient très morcelées du fait de la topographie du massif, formant de petits « refuges » isolés. Cette fragmentation accentuerait les risques d’isolement génétique et d’extinction locale.

Paysage de haute montagne pyrénéenne dominé par des éboulis et des pelouses alpines sur des versants raides, caractéristique des milieux privilégiés par les espèces endémiques. Joris Bertrand, Fourni par l'auteur

Ces résultats invitent à repenser les stratégies de conservation. Les sommets et crêtes, où subsisteront les dernières conditions favorables, doivent devenir des refuges prioritaires. Les espèces les plus menacées nécessitent un suivi renforcé et la protection de leurs micro-habitats, voire, dans certains cas, des mesures exceptionnelles, telles que la conservation ex situ ou la migration assistée.

Plus largement, cette étude souligne que la conservation doit intégrer les climats futurs, et pas seulement les distributions actuelles des espèces, sans quoi les efforts de conservation risquent d’être déployés là où les espèces ne pourront de toute façon plus se maintenir.


À lire aussi : Planter des arbres venus de régions sèches : la « migration assistée », une fausse bonne idée ?


Des modèles précieux pour suivre la distribution des espèces

Dans le cas des endémiques Pyrénéennes, l’étude repose sur un outil central de l’écologie contemporaine : les modèles de distribution d’espèces (Species Distribution Models, SDM). Ces approches se sont imposées au début des années 2000, avec des travaux méthodologiques fondateurs et les premières applications à grande échelle, montrant la forte vulnérabilité de la flore européenne face au réchauffement.

Dans leur forme la plus complète, les SDM peuvent intégrer de multiples dimensions de l’écologie : conditions bioclimatiques, capacités de dispersion, traits fonctionnels, interactions biotiques, ou encore des informations génétiques permettant de quantifier l’adaptation locale. Ils permettent ainsi de caractériser non seulement où une espèce vit, mais aussi pourquoi elle s’y maintient et comment elle pourrait répondre aux changements environnementaux. Toutefois, toutes ces informations ne sont pas disponibles pour l’ensemble des espèces, ce qui limite leur intégration lorsqu’on en étudie un grand nombre simultanément.

Résumé graphique des résultats principaux de l’étude sur l’impact du changement climatique sur la flore endémique des Pyrénées. Fourni par l'auteur

Dans ce contexte, l’approche la plus appropriée consiste à caractériser la niche bioclimatique d’une espèce, entendue comme l’ensemble des conditions climatiques, notamment de températures et de précipitations, compatibles avec son maintien. Cette approche repose sur le croisement de données de présence, provenant de relevés de terrain, d’herbiers ou de bases de données en ligne, avec des variables décrivant les conditions environnementales des sites occupés.

Éclairer les trajectoires possibles

Les modèles permettent ainsi de définir les combinaisons climatiques associées à la présence (ou l’absence) de l’espèce, et donc les environnements où elle est susceptible de se maintenir. Une fois ce portrait établi, il devient possible d’étudier comment ces conditions favorables évolueraient sous différents climats futurs afin d’estimer où l’espèce pourrait subsister, migrer ou disparaître.

Afin de renforcer la robustesse des résultats, l’étude présentée mobilise cinq grandes familles de modèles couramment utilisés en biologie de la conservation, chacun doté d’avantages et d’inconvénients : certains captent mieux les relations non linéaires, d’autres sont plus adaptés aux espèces présentant peu d’occurrences dans une zone d’étude donnée. Les combiner dans une approche dite « d’ensemble », permet de réduire l’influence des incertitudes propres à chaque méthode et d’obtenir des prédictions plus robustes. Pour chaque espèce, plusieurs dizaines de modèles ont ainsi été calibrés, puis agrégés afin d’obtenir une prédiction consensus, plus robuste face aux incertitudes méthodologiques.

Face à l’accélération du changement climatique, le suivi scientifique et la protection des derniers sites favorables ne suffiront pas toujours à prévenir les déclins, mais ils demeurent essentiels pour préserver au mieux la richesse et la singularité de la flore pyrénéenne tout en accompagnant au mieux les transformations à venir. Les modèles de distribution des espèces n’ont pas vocation à prédire précisément l’avenir, mais à éclairer les trajectoires possibles.

Ici, leur message est clair et cohérent : si le réchauffement se poursuit au rythme actuel, une part importante du patrimoine végétal unique des Pyrénées pourrait disparaître d’ici la fin du siècle. Préparer la transition plutôt que la subir, renforcer la coordination entre la France, l’Espagne et Andorre, et protéger les derniers refuges de biodiversité montagnarde apparaissent désormais comme des leviers indispensables pour protéger ce patrimoine irremplaçable.

The Conversation

a bénéficié pour cette étude des financements de la Région Occitanie Pyrénées-Méditerranée (Émergence 2024), l’État-Commissariat de massif des Pyrénées (FNADT 2023) et du programme Interreg-POCTEFA dans le cadre du projet Floralab+ (EFA024/01).

Joris Bertrand a bénéficié pour cette étude du programme européen Interreg-POCTEFA dans le cadre du projet Floralab+ (EFA024/01). Il a par ailleurs été financé et est actuellement financé par l'Agence Nationale de la Recherche (ANR).

Sébastien Pinel a reçu des financements pour cette étude du financement d'un programme européen Interreg-POCTEFA dans le cadre du projet Floralab+ (EFA024/01).

Valérie Delorme-Hinoux a bénéficié pour cette étude du financement d'un programme européen Interreg-POCTEFA dans le cadre du projet Floralab+ (EFA024/01).

18.02.2026 à 22:34

Les revendications éphémères de la France en mer de Chine méridionale (1930-1956)

Paco Milhiet, Visiting fellow au sein de la Rajaratnam School of International Studies ( NTU-Singapour), chercheur associé à l'Institut catholique de Paris, Institut catholique de Paris (ICP)
Les Paracels et les Spratleys sont aujourd'hui au coeur de disputes acharnées entre plusieurs États asiatiques. On ignore généralement que la France aurait bien pu être partie prenante de ces querelles…
Texte intégral (2555 mots)
Le drapeau français sur les îles de mer de Chine méridionale : aujourd'hui, seule l'IA peut créer cette vision, qui aurait pourtant bien pu se réaliser. Paco Milhiet/Mistral AI, Fourni par l'auteur

Puissance coloniale en Indochine (1862–1954), la France a pendant un temps revendiqué la souveraineté sur les îles Paracels et Spratleys. Les bouleversements géopolitiques de la Seconde Guerre mondiale puis le processus de décolonisation ont progressivement sapé ses ambitions, conduisant à son éviction régionale. Retour sur cet épisode éphémère, qui préfigure les tensions actuelles en mer de Chine méridionale.


Épicentre des tensions géopolitiques en Asie du Sud-Est, la mer de Chine méridionale est un espace maritime stratégique et contesté. Voie de communication essentielle pour le commerce mondial, notamment pour le transit des hydrocarbures, ce bassin maritime recèle d'importantes ressources halieutiques, ainsi que des gisements de matières premières.

Elle est également constellée de structures marines (îles, îlots, rochers, hauts-fonds, récifs, cayes), principalement regroupées en trois archipels : les Paracels à l'ouest, les Spratleys au sud et les Pratas au nord. Ces poussières insulaires ne représentent qu'une quinzaine de km2 de terres émergées. Dépourvues d'intérêts économiques propres, peu propices à l'implantation durable de communautés humaines, elles ont longtemps suscité le désintérêt, voire la méfiance, des États riverains, en raison des risques qu'elles représentaient pour la navigation.

Pourtant, depuis la signature de la Convention des Nations unies sur le droit de la mer en 1982, les convoitises étatiques s'aiguisent autour de la supposée juridiction que ces structures confèrent aux espaces maritimes environnants. En résulte une course à l'occupation, des revendications souveraines qui se superposent, et des accrochages réguliers entre marines de guerre, garde-côtes et pécheurs. La République populaire de Chine, particulièrement, y développe un irrédentisme assertif et décomplexé, via la poldérisation de nombreuses entités insulaires, transformées en bases militaires.

Puissance influente et souveraine dans la zone au temps de l'Indochine française (1862-1954), la France s'est elle aussi intéressée à ces îles et y a même revendiqué la souveraineté. Prises dans les tumultes géopolitiques du XXe siècle, les ambitions de Paris n'auront pas résisté à son éviction de la région.

Lieu microcosmique de la grande histoire asiatique, ces quelques îlots dispersés en mer de Chine racontent à leur échelle les ambitions impériales, les illusions de puissance et le désengagement inéluctable de la France en Extrême-Orient.

Indochine française et mer de Chine méridionale

L'influence française dans la péninsule indochinoise se développe au début du XIXe siècle, animée par une triple ambition : religieuse d'abord, par l'entremise de missionnaires catholiques ; commerciale ensuite, pour conquérir de nouveaux marchés tout en diversifiant les sources d'approvisionnement ; stratégique enfin, dans un contexte de concurrence coloniale qui voit le Royaume-Uni affermir ses ambitions dans la région.

À la recherche d'un débouché sur le sud de la Chine, la politique active française sur le Mékong, puis le Fleuve rouge, entraîne une colonisation progressive de l'ensemble de la péninsule indochinoise : la Cochinchine devient une colonie en 1862, le royaume du Cambodge, un protectorat en 1863, suivi de l'Annam et du Tonkin en 1884, de l'enclave chinoise de Kouang-Tchéou-Wan en 1898 et enfin du Laos en 1899.

Largement méconnus des cartographes, et craints des navigateurs, les territoires insulaires de mer de Chine méridionale n'intéressent pas les administrateurs français, accaparés par des sujets prioritaires : bail de Fort-Bayard, construction de la ligne de chemin de fer reliant le Yunnan et le Tonkin, influence japonaise sur l'île chinoise de Hainan.

C'est d'ailleurs l'activisme nippon dans la zone qui va inciter les autorités françaises à reconsidérer l'intérêt de ces îles. Implanté à Taïwan depuis la guerre sino-japonaise de 1894-1895, le Japon soutient officieusement des sociétés qui investissent les îles de mer de Chine pour y exploiter le guano.

Alors que les équilibres géopolitiques pré-Seconde guerre mondiale se mettent en place en Asie, la France revendique ouvertement sa souveraineté sur les îles Paracels et Spratleys à partir de 1930.

Les Paracels, une revendication française au titre des droits «historiques» de l'empire d'Annam

Situées à environ 300 km au sud-est de l'île de Hainan, les îles Paracels regroupent 130 structures marines. Connues des pécheurs annamites et hainanais, ces îles ne sont néanmoins pas occupées de manière permanente, car inhospitalières et dangereuses pour la navigation. Elles suscitent d'abord l'indifférence des autorités coloniales. Alors qu'aucun État ne revendique officiellement l'archipel, la dynastie Qing, au crépuscule de son règne, y réalise une prise de possession officielle en 1909, mais n'occupe pas l'île de manière permanente.

Entre le déclin chinois et l'assertivité croissante du Japon, les autorités françaises vont progressivement formuler une revendication sur l'archipel. Paris se réfère alors aux droits historiques de l'empire d'Annam pour justifier ses ambitions. En effet, des documents vietnamiens, antérieurs à la période coloniale, font mention de visites régulières de ces archipels par des pêcheurs annamites. Une administration effective se serait même matérialisée sous l'empereur Gia Long à partir de 1816.

La Chine refusant une reconnaissance des droits annamites et opposant son propre récit historique, la diplomatie française soumet en 1937 une proposition d’arbitrage international au gouvernement national de Chang Kai Chek, lequel rejette l'initiative. La même année, alors que le Japon entreprend l'invasion de la Chine continentale, la France dépêche aux Paracels un navire chargé d'établir une prise de possession officielle.

À quelques centaines de kilomètres plus au sud, dans l'archipel des Spratleys, des dynamiques similaires sont à l'œuvre, à quelques détails près…

Les Spratleys : une prise de possession au nom de la France seule

Les îles Spratleys regroupent une vingtaine de structures émergées et une centaine de récifs. Excentrées par rapport à la route Singapour-Hongkong, les autorités françaises s'y intéressent encore moins que les Paracels. Les Britanniques y avaient bien exploité le phosphate à la fin du XIXe siècle depuis leur colonie de Labuan, sans pour autant y avoir effectué une prise de possession officielle.

Ici encore, c'est la présence croissante des Japonais qui va inciter les autorités françaises à reconsidérer la zone. À l'instar des autres archipels de la mer de Chine, des entrepreneurs japonais exploitent le guano, notamment à Itu Aba, depuis le début du XXe siècle.

En 1930, la canonnière La Malicieuse prend officiellement possession de l'île Spratley. En 1933, les navires Alerte et Astrolabe réitèrent l'opération sur cinq autres îles. Détail important, contrairement aux Paracels, la revendication est faite au titre de la France seule, et les Spratleys sont rattachées administrativement à Baria en Cochinchine, colonie dont le statut juridique diffère de celui de l'Annam (protectorat).

La publication au Journal officiel provoque une protestation de Tokyo et l'archipel devient un sujet de contentieux franco-japonais. La France propose de soumettre le litige à une juridiction internationale, mais les Japonais ont d'autres projets.

Occupation japonaise et éviction française

En 1939, les forces japonaises envahissent Hainan, les Paracels et les Spratleys. Alors que la France capitule, la situation est confuse en Indochine, où les Japonais arrivent à partir de 1940. L'amiral Decoux, gouverneur général resté fidèle à Vichy, collabore avec les forces japonaises tout en maintenant un semblant d'autonomie. Déclinaison surprenante de cette situation ambiguë aux Paracels, travailleurs japonais et militaires franco-annamites cohabiteront tant bien que mal sur l'île Boisée pendant la durée de la guerre.

À la fin des hostilités, si le Japon est hors-jeu, le contentieux sino-français sur les Paracels reprend brièvement. En 1947, à quelques jours d'intervalle, Chinois et Français occupent les îles Boisée et Pattle. Finalement, en vertu de l'accord franco-vietnamien du 8 mars 1949, Paris remet officiellement le contrôle de l'île Pattle à Saigon.

Aux Spratleys, la situation diverge. Si les accords de Genève de 1954 consacrent la pleine indépendance du Vietnam, certains considèrent à Paris que ces îles n'ont jamais fait partie de l'empire d'Annam et pourraient donc juridiquement être distinguées du Vietnam. La France garderait ainsi un semblant d'influence régionale en maintenant des troupes et une base.

Cette position ne tiendra pas. Le président Ngo Dinh Diem exige le retrait des 30 000 soldats français. Les dernières escales françaises aux Paracels et aux Spratleys ont lieu en 1956. Il faudra attendre plus d'un demi-siècle pour que la France reformule des ambitions régionales.

Géopolitique-fiction : et si la France était restée souveraine en mer de Chine ?

Depuis 2018, Emmanuel Macron a développé une stratégie indo-pacifique devenue progressivement un objectif prioritaire de la politique étrangère française. L'exercice de la souveraineté dans les collectivités d'outre-mer en constitue le pilier principal. La ZEE qu'elle confère représente un attribut de puissance incontournable : plus de 90 % de l'espace maritime français, le deuxième plus important au monde, se trouve en Indo-Pacifique.

En repensant à la mer de Chine méridionale, il est alors tentant d'imaginer que la France ait maintenu sa souveraineté sur les Paracels et/ou les Spratleys. Si les propositions d'arbitrage soumises à la Chine et au Japon avaient été acceptées et la souveraineté française confirmée par une juridiction, comme ce fut le cas avec l'atoll de Clipperton en 1931, la France disposerait aujourd'hui d'une « tête de pont » souveraine au cœur de la zone la plus contestée du globe.

Paris aurait pu alors jouer pleinement son rôle de «puissance d'équilibre», jouissant d'une «autonomie stratégique», pour défendre «la liberté de souveraineté». Autant de vocables que le président Macron aime associer à la stratégie Indo-Pacifique française.

Une lecture réaliste invite toutefois à la modestie.

Confettis d'empire ou pépites géopolitique ?

D'abord, un jugement d'un tribunal arbitral, rendu le 12 juillet 2016, précise que les îles Spratley ne peuvent pas prétendre à une ZEE, car elles ne disposent pas de capacité objective à accueillir une activité économique ou des habitations humaines. De quoi tempérer le caractère stratégique réel de ces îlots, juridiquement considérés comme des rochers. Ensuite, les puissances riveraines de la zone, Pékin et Hanoi en tête, n'auraient probablement jamais reconnu la souveraineté d'un acteur occidental — qui plus est, ancienne puissance coloniale en Asie.

Côté français, la fin des revendications souveraines a probablement épargné bien des contraintes géopolitiques. Car ce que la France a abandonné en mer de Chine, elle a continué à le revendiquer ailleurs. Ainsi, d'autres îles ou rochers inhabités sont aujourd'hui l'objet de contentieux.

Les îles Éparses par exemple, détachées administrativement de Madagascar trois mois avant l'indépendance en 1960, sont aujourd'hui activement revendiquées par Madagascar et l'île Maurice (Tromelin), Port Louis et Antananarivo étant d'ailleurs soutenus dans leur démarche par des résolutions non contraignantes de l'Assemblée générale de l'ONU.

À l'autre bout de l'Indo-Pacifique, le Vanuatu conteste la souveraineté française sur les îles Matthew et Hunter.

Des querelles lancinantes qui compromettent parfois l'intégration régionale de la France. À l'heure où Paris cherche à renforcer ses partenariats en Asie du Sud-Est, il est peu probable qu'une revendication souveraine dans une région déjà sous haute tension eut été bénéfique pour les ambitions françaises en Indo-Pacifique.

Horizon de puissance bordé d'écueils diplomatique, la géopolitique des îles désertes s'avère souvent à double tranchant.

The Conversation

Paco Milhiet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.02.2026 à 17:04

Municipales 2026 : pourquoi parle-t-on autant de propreté ?

Maxence Mautray, Doctorant en sociologie de l’environnement, Université de Bordeaux
Les données montrent que les quantités de déchets et d’encombrants collectés n’ont pas connu d’augmentation spectaculaire au cours des dernières années. Alors pourquoi ce décalage entre volumes réels et sentiment de saleté des villes&nbsp;?
Texte intégral (1750 mots)
Sur les réseaux comme dans les débats, la propreté s'impose dans les débats des municipales. (En photo, de gauche à droite, Rachida Dati, candidate à Paris, Thomas Cazenave, candidat à Bordeaux, et Benoît Payan, maire sortant candidat à Marseille.) Captures d’écran des comptes Instagram

En cette période d’élections municipales, tous les candidats ou presque s’en revendiquent et assurent connaître la solution pour y parvenir : la propreté des villes est dans toutes les bouches et la saleté semble être le mal du siècle. Pourtant, les données montrent que les quantités de déchets et d’encombrants collectés n’ont pas connu d’augmentation spectaculaire au cours des dernières années. Alors pourquoi ce décalage entre volumes réels et sentiment de saleté des villes ?


C’est une vidéo vue plus de 4 millions de fois. Postée sur les réseaux sociaux le 21 novembre, par Rachida Dati (Les Républicains, Modem et UDI), on y voit la candidate aux côtés des éboueurs, en tenue de travail. Face caméra, la candidate affirme qu’avec elle « la ville sera propre, elle sera tranquille. Et c’est justement ce qu’attendent les Parisiens », associant explicitement la propreté et la gestion des déchets à l’ordre urbain et à l’efficacité de l’action municipale. Cette mise en scène a immédiatement suscité des réactions de ses adversaires politiques qui, comme Emmanuel Grégoire (Union de la gauche), dénoncent une opération de communication jugée démagogique.

La propreté, un sujet de controverses électorales

Cette focalisation sur les déchets n’est pas propre à la capitale. À Bordeaux, la question de la « saleté » de la ville est aussi un des axes principaux de la campagne de Thomas Cazenave (Renaissance, Parti radical, Modem, Horizons, UDI) contre le maire sortant, Pierre Hurmic (Les Écologistes, PS, PCF, Génération·s). Dans son programme, Thomas Cazenave formule même une proposition emblématique : la création d’une « force d’intervention rapide » vouée à la propreté, aux encombrants et à l’entretien de l’espace public.

À Marseille, le candidat et maire sortant Benoît Payan (Printemps marseillais) se veut quant à lui le « patron de la propreté » alors qu’aujourd’hui une grande partie de celle-ci est la charge de la Métropole Aix-Marseille-Provence. Lors de la présentation de son programme le 4 février 2025, Benoît Payan admettait pourtant : « La ville est sale, elle est pourrie et je suis interpellé tous les jours là-dessus, alors que ce n’est pas une compétence de la mairie. » Cette phrase a d’ailleurs provoqué une réaction de la part de son adversaire Franck Allisio (RN), ce dernier lui répliquant « Si vous n’êtes responsable de rien, restez chez vous » lors d’un débat, le 10 février matin, sur France Inter.

Ces exemples montrent que la propreté n’est pas abordée comme un simple enjeu de gestion technique, mais comme un symbole de pragmatisme et de proximité avec les préoccupations quotidiennes des habitants. Surtout, elle suscite des réactions rapides, tant de la part des adversaires que des citoyens, preuve qu’elle touche à des attentes largement partagées.

La propreté, un bon critère pour juger un maire ?

De fait, si la propreté occupe une place aussi centrale dans les campagnes municipales, c’est notamment parce qu’elle semble être le support idéal pour juger l’action politique des équipes sortantes. Dire qu’une ville est « propre » ou « sale », c’est souvent porter une appréciation globale sur la capacité du maire à gouverner, à faire respecter des règles et à garantir un cadre de vie jugé acceptable, sans nécessairement distinguer les compétences institutionnelles ni les causes précises des dysfonctionnements observés.

La mairie est effectivement bien responsable de la propreté de l’espace public, comme le nettoyage des rues, l’enlèvement des dépôts sur la voirie, ou la gestion des poubelles publiques en ville. Cependant, la collecte et le traitement des déchets ménagers relèvent, dans la majorité des cas, comme à Marseille et à Bordeaux, des intercommunalités et des métropoles. Les dysfonctionnements pouvant être observés viennent bien souvent d’un souci de coordination entre ces deux échelons ou avec les prestataires privés engagés pour réaliser le ramassage des ordures, ou plus simplement d’un souci logistique et ponctuel lors de la collecte.

Les maires se trouvent ainsi jugés sur la propreté et les déchets, alors qu’ils n’en maîtrisent directement que la dimension la plus visible, tandis que l’envers de leur production et de leur traitement échappent largement à l’échelon municipal.

Nos villes sont-elles de plus en plus sales et encombrées ?

Pour autant, les villes françaises sont-elles confrontées à une augmentation des déchets et à une dégradation de leur propreté ? Les données disponibles ne confirment pas vraiment ce diagnostic.

Les flux les plus visibles dans l’espace public ne suivent pas une trajectoire de hausse continue. En Île-de-France par exemple, les déchets occasionnels collectés hors déchetteries, dont les encombrants qui sont particulièrement remarqués dans les rues, sont restés relativement stables entre 2016 et 2021, avant de connaître une baisse marquée en 2023, selon un rapport de l’Observatoire régional des déchets d’Île-de-France.

À l’échelle nationale et concernant l’ensemble des déchets produits par les foyers, près de 41 millions de tonnes de déchets ménagers et assimilés ont été collectés par le service public en 2021, soit 615 kg par habitant et par an en moyenne, selon l’Insee. Ce chiffre inclut les ordures collectées chez les habitants, les encombrants et les déchets en déchetterie. Les volumes collectés ont augmenté d’environ 4 % en dix ans, selon ce même rapport. Cette croissance est donc loin de l’explosion parfois suggérée par les discours politiques.

Ces chiffres invitent ainsi à distinguer le sentiment de saleté, largement fondé sur l’expérience quotidienne de la vie, de l’évolution globale des volumes de déchets produits et collectés. La propreté urbaine renvoie moins à une augmentation généralisée nette des déchets qu’à la visibilité accrue de certains flux spécifiques et aux transformations des modalités de collecte et d’usage de l’espace public.

Une écologie consensuelle… au prix d’angles morts persistants

Cependant, la relative stabilité de la production des déchets des ménages ne représente pas l’absence d’un problème. Si les déchets stagnent, ils ne diminuent pas réellement, et c’est bien là que se situe le principal enjeu environnemental. C’est même précisément parce que la réduction effective des déchets reste difficile à atteindre que la propreté occupe une place si centrale dans les débats municipaux.

Car la propreté permet de parler d’écologie à l’échelle locale de manière consensuelle, sans ouvrir un débat plus profond sur les modes de consommation, la production industrielle ou les responsabilités économiques. L’objectif d’une « ville propre » fait largement accord et les différences entre les programmes politiques portent moins sur la finalité que sur les moyens pour y parvenir : renforcement ou externalisation des services, prévention ou sanction des comportements jugés inciviques, organisation du nettoyage et de la collecte.

Mais cette focalisation a un coût. Elle tend à reléguer au second plan la question centrale de la réduction à la source des déchets, pourtant au cœur des politiques environnementales nationales et européennes. La hiérarchie dite des « 3R » (réduire, réemployer, recycler) est connue, mais sa mise en œuvre reste limitée et inégale. Lorsqu’elle est poussée plus loin, notamment à travers des politiques de type « zéro déchet », elle peut même susciter des contestations locales. Celles-ci visent souvent moins l’objectif de réduction en lui-même que les modalités de sa mise en œuvre : responsabilisation individuelle accrue, tarification incitative, suppression du porte-à-porte ou réorganisation du service public. L’écologie des déchets devient alors un sujet de débat sur la répartition des efforts et sur la définition même d’une politique environnementale considérée comme juste par les citoyens.

En somme, l’omniprésence de la propreté dans les campagnes municipales ne dit pas seulement ce que les candidats promettent de faire, mais aussi ce qu’il est politiquement plus coûteux de mettre en débat. À défaut de parvenir à réduire durablement nos déchets par des mesures justes et efficaces, l’écologie locale se construit d’abord autour de ce qui se voit, se nettoie et se mesure.

The Conversation

Maxence Mautray ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.02.2026 à 17:04

Meurtre de Quentin Deranque : quels mécanismes conduisent à la violence politique ?

Antoine Marie, Chercheur post-doctorant, École normale supérieure (ENS) – PSL
La mort de Quentin&nbsp;Deranque, 23&nbsp;ans, militant d’extrême droite battu à mort dans les rues de Lyon, interroge&nbsp;les processus individuels et collectifs qui peuvent conduire à la radicalisation et à la violence politique.
Texte intégral (1841 mots)
Capture d’écran de la vidéo montrant les affrontements ayant conduit au décès de Quentin Deranque, le 14&nbsp;février 2026, à Lyon (Rhône). Fourni par l'auteur

La mort le 14 février de Quentin Deranque, 23 ans, militant d’extrême droite battu à mort dans les rues de Lyon deux jours plus tôt, a donné lieu à l’interpellation de 11 militants « antifa », dont un collaborateur parlementaire de La France insoumise. Cet événement, qui suscite de houleux débats sur la responsabilité politique de LFI, interroge également les processus individuels et collectifs qui peuvent conduire à la radicalisation et à la violence politique.


Comment des gens a priori ordinaires en viennent-ils à commettre des violences en réunion politiquement motivées ? Le psychologue Fathali Moghaddam a proposé un modèle devenu classique, « l’escalier vers le terrorisme », qui s’applique assez bien à la violence politique en général. Selon son analyse, l’action politique violente est l’étape finale d’un long escalier qui s’élève et se rétrécit très progressivement.

Première marche : l’exposition sélective. On ne consulte plus que des sources d’information politiques qui renforcent ses perceptions négatives et des analyses partisanes d’enjeux politiques complexes. On cesse progressivement le contact avec des interlocuteurs nuancés, capables de défendre le point de vue adverse.

Deuxième marche : l’acquisition de visions hautement sélectives, aux accents parfois conspirationnistes, des questions politiques et sociétales. À l’extrême droite, par exemple, la peur du « grand remplacement » exagère considérablement l’ampleur des changements démographiques et leurs conséquences culturelles. A l’extrême gauche, on trouve des discours qui, s'ils ne sont pas nécessairement conspirationnistes, révèlent une représentation excessivement négative du capitalisme, focalisés sur ses contributions aux inégalités et sous-évaluant sa contribution au développement des libertés individuelles.

Troisième marche : la déshumanisation du camp adverse. Notamment via ce que Waytz, Young et Ginges appellent la « motive attribution asymmetry » : chaque camp est convaincu d’agir par amour des siens, mais attribue au camp d’en face une motivation de pure haine. Ce biais, observé par les auteurs au sein de populations israélienne, palestinienne et états-unienne (républicains et démocrates), rend le compromis beaucoup plus difficile. En fait, Moore-Berg et ses collègues ont montré au moyen d’études expérimentales que ces perceptions d’hostilité sont massivement exagérées : démocrates et républicains surestiment le degré auquel l’autre camp les déteste, et sous-estiment l’authenticité de leurs motivations morales – des erreurs de perception qui alimentent en retour l’hostilité réciproque.

Chaque marche de l’escalier de la radicalisation est gravie d’une manière qui est subjectivement insensible. On ne se réveille pas un matin radical : l’embrigadement est progressif. Par ailleurs, les études ethnographiques suggèrent que les militants restent convaincus, à chaque étape, d’avoir la morale et la vérité de leur côté.

La radicalisation n’est ainsi pas la plupart du temps le reflet d’une pathologie psychiatrique. Elle est plutôt une version poussée à l’extrême de traits moraux et cognitifs ordinaires : l’indignation face à l’injustice, la pensée tribale « nous » contre « eux », la solidarité envers son groupe, l’hypersensibilité à la menace sociale, le désir de protéger un mode de vie qui nous est cher, la délégitimation de ceux qui sont en désaccord avec soi politiquement, etc.

Soulignons également l’importance des motivations sociales satisfaites par le groupe : le groupe radical offre appartenance, fierté identitaire, impressions d’utilité.

Et le jour J du passage à l’action violente, la dynamique de groupe fait le reste. Il y a un enjeu de statut auprès des camarades à montrer qu’on est prêt à passer à l’acte, et le fait de recevoir des coups active des instincts fondamentaux de défense par la violence.

L’extrême droite commet plus de violences que l’extrême gauche

La recherche montre que de nombreux mécanismes sont communs à la radicalité violente de gauche et de droite, même si les contenus de croyances diffèrent considérablement.

Il est également important de rappeler une importante asymétrie. La base de données de Sommier, Crettiez et Audigier (2021) recense environ 6 000 épisodes de violence politique sur la période 1986-2021 et établit que parmi les morts des violences idéologiques, neuf sur dix sont victimes de l’extrême droite. La violence d’extrême droite est aussi plutôt dirigée contre des personnes, celle d’extrême gauche plutôt contre des biens.

Ces chiffres rappellent que la violence politique tue des deux côtés, mais pas dans les mêmes proportions.

Déradicaliser : le contact comme antidote ?

Comment déradicaliser les militants les plus extrêmes ? Une difficulté tient à ce que chaque camp refuse de concéder que des membres de son propre camp sont allés trop loin (le faire apparaît comme une « trahison »). Chaque camp est convaincu que sa propre violence n’est que la réaction légitime à celle de l’autre.

Une autre barrière réside dans la difficulté de l’accès aux militants radicaux : eux ne voient généralement pas leur vision du monde et leur engagement comme antisociaux, antidémocratiques ou assis sur des certitudes excessives.

Pourtant, la recherche offre des pistes, testées en général sur des partisans ordinaires, non violents. La méta-analyse de Pettigrew et Tropp (2006), portant sur plus de 500 études, montre que le contact intergroupe – passer un moment en face-à-face avec un membre de l’exogroupe, s’engager dans des activités communes – réduit les préjugés haineux de manière robuste. Landry et ses collègues (2021) ont montré que simplement informer les gens que l’autre camp ne les déteste pas autant qu’ils le croient par de courts messages réduit la déshumanisation.

Les maîtres-mots sont la rencontre et la reprise de contact avec la réalité : corriger les perceptions déformées sur ce que pensent vraiment les adversaires, pour les réhumaniser et réduire la défiance.

Mais les individus les plus radicalisés sont typiquement très difficiles à atteindre : confiance très basse dans les institutions publiques, dans les chercheurs, déshumanisation totale des « ennemis ». Ils sont souvent convaincus que « sur eux, ça ne marchera pas », ou se montrent rétifs à toute remise en question de leur vision du monde.

En amont, à un niveau sociétal, il importe de refuser toute glorification de la violence politique afin de réduire les incitations statutaires à la commettre – comme on recommande de limiter la publicisation des auteurs d’attentats pour diminuer l’effet de prestige.

En aval, il faut enseigner systématiquement les techniques de la désescalade, comme le refus de répondre aux provocations par la violence. L’histoire du mouvement des droits civiques américains montre que la non-violence est non seulement moralement supérieure, mais aussi stratégiquement plus efficace. Notamment parce qu’elle donne un plus grand « crédit moral » aux mouvements sociaux auprès de ceux qui n’en sont pas déjà les partisans (voire les travaux de Chenoweth et al. sur les bienfaits de la non-violence sur le long cours).

À la limite, puisque c’est chez les jeunes (hommes) qu’ils sont les moins rares, les mécanismes de la radicalisation pourraient être enseignés dès le lycée et le collège, comme on commence à le faire avec la désinformation.


Cet article a été écrit en collaboration avec Peter Barrett, expert de la polarisation politique, intervenant à l'Essec et à l'Université de Cergy.

The Conversation

Antoine Marie ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.02.2026 à 17:02

L’enseignement agricole, un objet politique mal identifié

Joachim Benet Rivière, Sociologue de l'éducation et de la formation, Université Paris Nanterre; Université de Poitiers
Traversés par un certain nombre de tensions, les lycées agricoles sont loin d’être de simples instruments des organisations professionnelles.
Texte intégral (1720 mots)

Face aux urgences environnementales et au renouvellement des générations dans leur secteur, les lycées agricoles sont traversés par un certain nombre de tensions. Mais loin d’être de simples instruments des politiques agricoles, ils sont pris aussi dans des enjeux de socialisation et de professionnalisation des jeunes qui en font des espaces complexes. Quelques explications à l’occasion du Salon de l’agriculture de Paris qui débute le 21 février, porte de Versailles.


Conjuguée à la montée en puissance des enjeux environnementaux dans l’espace public, la question du renouvellement des métiers agricoles (dont les professionnels sont de plus en plus vieillissants) renforce l’attention portée aux conditions de formation des nouveaux entrants dans ces métiers.

Objet politique mal identifié, l’enseignement agricole comprend une majorité d’établissements privés et accueille également des publics visant d’autres secteurs, notamment les services aux personnes.


À lire aussi : Les élèves des lycées agricoles sont-ils hostiles à l’agroécologie ?


L’enseignement agricole a toujours été traversé par des tensions liées aux orientations des politiques agricoles, à la place laissée aux formations non agricoles et à la présence des organisations agricoles dans sa gestion. Ces tensions sont d’autant plus vives dans ce contexte de renouvellement des générations.

Cet espace d’enseignement est traversé par des logiques plurielles, parfois concurrentes, qui excèdent sa seule inscription dans la politique agricole. Il importe de les regarder de plus près pour dépasser une lecture réductrice qui en ferait un simple instrument des organisations professionnelles agricoles.

Un outil au service de la politique agricole

Depuis les mesures en faveur du développement de l’agroécologie dans l’enseignement agricole au début des années 2010, de nombreux dispositifs ont été mis en œuvre pour accompagner les publics en formation vers des pratiques plus respectueuses de l’environnement. Les lycées agricoles disposent désormais de référents parmi les enseignants, chargés d’accompagner cette politique.

Les changements portent principalement sur les exploitations et les ateliers technologiques, pensés comme des terrains d’expérimentation des pratiques agroécologiques. Mais cela provoque des réticences, voire des résistances, chez une partie des publics, car ces évolutions viennent bousculer les pratiques professionnelles au sein des familles.

En même temps, ces évolutions contribuent à attirer l’attention sur les freins au développement de l’agroécologie, principalement situés dans la gouvernance de l’enseignement agricole et dans la présence des organisations professionnelles. Les interventions de celles-ci dans les établissements sont de plus en plus décriées par les acteurs de l’enseignement agricole, qui revendiquent leur autonomie.

Dans une école forestière en Corrèze, la direction a renoncé à organiser une projection-débat autour d’un film sur les loups en raison de la pression exercée par la Fédération départementale des syndicats d’exploitants agricoles (FDSEA) et par les Jeunes Agriculteurs (JA), ce qui a donné lieu à des protestations de la part des enseignants. En Bretagne, une enquête a révélé le poids de ces organisations dans la gestion des lycées agricoles privés.

Ces controverses ne relèvent pas seulement de désaccords techniques ; elles traduisent des conceptions divergentes des métiers agricoles et du rôle que doit jouer l’enseignement dans la transformation du modèle productif. Les principes de l’agroécologie ne sont pas appliqués partout de la même façon : ils s’articulent avec des formations ayant des histoires différentes, avec des publics hétérogènes et dans des contextes où les organisations professionnelles n’ont pas le même poids.

Ainsi, certains établissements apparaissent comme des « forces motrices », comme la Bergerie nationale de Rambouillet ou certaines formations pour adultes, notamment les brevets professionnels de responsable d’entreprise agricole. Engagés dans des changements de mode de vie, leurs publics sont plus investis dans des démarches visant à réduire l’usage des intrants chimiques et à repenser la place de l’agriculture dans les écosystèmes.

À l’inverse, d’autres formations en machinisme agricole impliquent plutôt un renforcement de l’usage des outils et des capteurs numériques afin de lutter contre les gaspillages d’intrants et d’eau. Elles tendent ainsi à favoriser le maintien de la dépendance à l’égard de l’agro-industrie, sans remettre en cause le rapport d’exploitation du vivant induit par certaines activités agricoles.

Un rôle de médiation entre les élèves et la société

L’enseignement agricole ne se limite cependant pas à un outil au service de la politique agricole ; il constitue en réalité un champ relativement autonome, c’est-à-dire doté de logiques propres. Cette autonomie relative ne signifie pas indépendance totale, mais renvoie à la capacité de l’institution à produire ses propres normes pédagogiques, qui peuvent être en décalage avec les attentes des organisations professionnelles.

Portes ouvertes au lycée agricole de Figeac (Lot) pour découvrir les métiers du monde agricole (France 3 Occitanie, janvier 2026).

Dans les années 1960, lorsque cet enseignement est passé sous l’unique tutelle du ministère de l’agriculture, il s’est constitué en cherchant à se démarquer de l’éducation nationale. L’ambition était de fonder un « nouvel ordre scolaire » : les lycées agricoles n’accueillent pas seulement un public spécifique (historiquement les enfants d’agriculteurs, aujourd’hui minoritaires), mais proposent également des modalités différentes de la relation pédagogique et des modes de circulation des savoirs.

Parmi ses spécificités, on peut souligner l’existence d’une discipline, l’éducation socioculturelle, célébrée en 2025 à l’occasion de son soixantième anniversaire, et qui s’est constituée comme un espace de médiation, orienté vers l’investissement culturel.

Visant notamment la réflexion sur le rapport au vivant dans le cadre de l’enseignement de l’agroécologie et l’apprentissage des compétences psychosociales, elle témoigne d’une recherche de désenclavement des lycées agricoles.

Cette politique est tout de même aujourd’hui fragilisée par les coupes budgétaires, qui réduisent les marges d’action et les projets des professeurs d’éducation socioculturelle. Hostiles à cette dimension, certaines organisations professionnelles ont défendu au contraire une approche de l’enseignement agricole limitée à son seul rôle de professionnalisation.

Cette opposition révèle une tension entre une définition étroite de la formation agricole et une conception plus large, portée par le ministère de l’agriculture et par les agents de l’enseignement agricole, intégrant des objectifs culturels et citoyens.

Un rôle de remobilisation scolaire

L’enseignement agricole joue également un rôle de remobilisation scolaire pour des élèves ayant rencontré des difficultés d’apprentissage au collège, en particulier ceux qui entrent en classe de quatrième en lycée agricole et ceux qui s’orientent vers les maisons familiales rurales (MFR). Dans ces MFR, où les élèves passent environ la moitié du temps en entreprise et l’autre en centre de formation, sont valorisés des savoirs pratiques, manuels et professionnels, qui leur permettent de retrouver des situations de réussite et de reconnaissance.


À lire aussi : Lycées agricoles : quelle place pour les filles ?


Cette remobilisation s’appuie sur les expériences des élèves en dehors de l’école, valorisées par les enseignants. Par exemple, pour Gaëlle, enseignante en aménagements paysagers, ses élèves souhaitent travailler en extérieur, car ils sont passionnés par le travail sur les machines. Ils demandent davantage d’heures de travaux pratiques. Ce qui est important pour eux, c’est de pouvoir commencer un travail et d’en observer le produit une fois achevé. Cette passion permet d’établir une relation de confiance et de proximité avec les élèves.

Dans une enquête, les descriptions des publics de l’agroéquipement faites par les professeurs de l’enseignement agricole présentent les élèves de cette filière comme ayant été orientés à la suite de difficultés d’apprentissage. L’expérience en lycée agricole peut alors être appréhendée comme exerçant une fonction de réparation symbolique et scolaire, en reconfigurant le rapport des élèves aux savoirs et à l’institution scolaire, comparable à celle exercée par la formation en lycée professionnel.

Ainsi, l’enseignement agricole trouve sa justification, d’une certaine façon, dans les insuffisances de l’éducation nationale qui ne parvient pas à prendre en charge la totalité des élèves en difficulté dans les apprentissages au collège.

The Conversation

Joachim Benet Rivière ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.02.2026 à 17:01

Les Anglo-Saxons, grands amateurs d’anniversaires littéraires

Amy Wilcockson, Research Fellow, English Literature, Queen Mary University of London
Pourquoi retourne-t-on sans cesse à certains écrivains&nbsp;? Entre transmission scolaire, tourisme culturel et stratégies de célébration, la fabrique de la gloire littéraire éclaire notre rapport au passé.
Texte intégral (2025 mots)

Pourquoi certains écrivains traversent-ils les siècles quand d’autres sombrent dans l’oubli ? Derrière les grandes célébrations littéraires se jouent des mécanismes complexes de reconnaissance, de transmission et d’appropriation collective.


L’an dernier marquait le 250e anniversaire de la naissance de la romancière anglaise Jane Austen. La rédaction britannique de The Conversation a célébré cet important jalon littéraire avec une série d’articles et un podcast spécial, « Jane Austen’s Paper Trail ». Cette année spéciale a donné lieu à de nombreux événements de grande visibilité à travers le Royaume-Uni, des bals Régence aux projections de films, en passant par des visites thématiques et des conférences littéraires.

Mais les anniversaires littéraires ne concernent pas uniquement des auteurs célèbres et unanimement célébrés, aussi importants soient-ils. De nombreuses dates passent inaperçues, alors même que nous traversons une période faste en matière de dates clés de l’histoire littéraire.

Un grand nombre de commémorations

Les années 2020 ont été marquées par une succession de grands anniversaires liés au romantisme, notamment les bicentenaires de la mort des poètes John Keats (2021), Percy Bysshe Shelley (2022) et Byron (2024). L’anniversaire de Jane Austen, l’an dernier, a été particulièrement marquant tant l’autrice a fait l’objet d’un engouement large et enthousiaste.

Mais c’était aussi l’année du centenaire de Gatsby le Magnifique, le grand classique de l’âge du jazz, de F. Scott Fitzgerald, ainsi que de Mrs Dalloway, œuvre phare du modernisme signée Virginia Woolf. Retour à Brideshead, d’Evelyn Waugh, la Ferme des animaux, de George Orwell, et À la poursuite de l’amour, de Nancy Mitford ont tous fêté leurs 80 ans, tandis que le classique de la littérature jeunesse le Lion, la Sorcière blanche et l’Armoire magique de C. S. Lewis célébrait son 75e anniversaire. (NDT : En France, on célébrait entre autres les cent ans des Faux-Monnayeurs, de Gide, ou le centenaire de la naissance de Roger Nimier*.)

2026 ne dérogera pas à la règle

L’année 2026 sera elle aussi riche en grands anniversaires, avec notamment le tricentenaire des Voyages de Gulliver, de Jonathan Swift, et les 200 ans du Dernier Homme, de Mary Shelley, un roman toujours d’actualité publié en 1826 et consacré à la quasi-extinction de l’humanité après une pandémie mondiale (NDT : En France, on célébrera notamment les 50 ans de la mort d’André Malraux ainsi que les 150 ans de celle de George Sand.)

C’est aussi en 1926 que Winnie l’ourson, créé par A. A. Milne, goûtait à son premier pot de miel. La même année intronisait Agatha Christie comme reine incontestée du roman policier, lorsque le Meurtre de Roger Ackroyd, immense succès populaire, s’emparait de l’imagination du public.

Cinquante ans plus tard, son dernier roman, la Dernière Énigme, était publié à titre posthume, après sa mort le 12 janvier 1976. Des rééditions spéciales des livres de Christie, de nouveaux enregistrements en audiolivre, des conférences, des colloques, des adaptations Netflix, et même une grande exposition à la British Library ont été organisés pour célébrer ce jalon majeur de l’histoire littéraire.

Le roman d’Anne Rice Entretien avec un vampire, qui a profondément renouvelé le genre en proposant une figure vampirique plus complexe et nuancée, célèbre lui aussi les 50 ans de sa publication.

D’où vient cette envie ?

Mais pourquoi célèbre-t-on les anniversaires littéraires ? Pourquoi musées, universitaires et grand public se mobilisent-ils pour commémorer nos auteurs préférés ? Et pourquoi certains écrivains bénéficient-ils d’une attention bien plus grande que d’autres ?

D’abord, les anniversaires littéraires sont importants parce qu’ils contribuent à créer un patrimoine commun et à nourrir un sentiment d’unité au sein des communautés et des cultures. Comme l’ont observé les spécialistes de Shakespeare Monika Smialkowska et Edmund G. C  King à propos des nombreuses commémorations consacrées au Barde, « chaque événement est aussi l’occasion, pour la communauté qui le commémore, de se célébrer elle-même ».

En 2016, lorsque le Royaume-Uni et le reste du monde ont commémoré le 400ᵉ anniversaire de la mort de Shakespeare, concerts de gala, émissions de pièces de monnaie commémoratives et expositions n’ont été que la partie émergée de l’iceberg. Shakespeare incarne pour beaucoup le sommet de la culture britannique, et nombreux sont ceux qui estiment que ses œuvres restent essentielles parce qu’elles nous permettent d’interroger ce que nous sommes et la place que nous occupons dans le monde.

Les grands événements historiques, eux, ne semblent pas susciter l’imaginaire collectif de la même manière. Et bien sûr, des figures majeures comme Shakespeare ou Austen deviennent universelles. Elles ne sont pas seulement des symboles de la culture britannique : leur notoriété et leur incarnation d’un certain esprit « british » se sont mondialisées. Shakespeare a ainsi été reconnu comme faisant partie de traditions états-uniennes, européennes, africaines et plus largement mondiales. Autre preuve si nécessaire en Nouvelle-Zélande où la Société Jane-Austen d’Aotearoa a célébré l’an dernier son dixième anniversaire.

Marquer ces dates permet de tisser des liens non seulement avec l’époque ou l’univers façonné par un auteur, mais aussi avec d’autres passionnés, autour d’intérêts partagés pour des genres, des textes ou des écrivains. À travers ces commémorations, ce ne sont pas seulement les auteurs que nous célébrons, mais aussi nos réseaux et nos cultures, personnelles, nationales et mondiales.

Nostalgie et tourisme littéraire

Les anniversaires littéraires sont également la manifestation parfaite de la nostalgie, ce sentiment qui consiste à penser qu’un lieu, un événement ou une période du passé est préférable au présent. Les rituels que sont les célébrations d’anniversaire en sont l’incarnation concrète.

C’est ce qui explique que des passionnés se déguisent en tenues de l’époque ou en uniformes militaires, afin de se transporter dans un temps perçu comme moins complexe. De la même manière, lire les œuvres d’un auteur, visiter sa maison ou observer les plumes et les stylos avec lesquels il écrivait invite les visiteurs à faire un pas en arrière, à entrer dans le passé et dans l’univers de l’écrivain.

Il n’est donc pas étonnant que les musées littéraires organisent des événements d’ampleur pour marquer les grandes dates liées à des auteurs majeurs. Le tourisme littéraire est en plein essor et, comme le souligne Travel Weekly, le tourisme autour de Jane Austen est – sans surprise – particulièrement en vogue en ce moment.

Si les chiffres définitifs de fréquentation n’ont pas encore été publiés, un porte-parole de la « Jane Austen’s House » (un cottage dans le Hampshire où l’autrice a vécu et créé ses six romans les plus célèbres) a indiqué qu’ils s’attendaient à dépasser leur moyenne annuelle habituelle de 40 000 visiteurs en 2025.

Ces anniversaires constituent bien sûr un puissant moteur d’attractivité à l’échelle mondiale, au point que de vastes campagnes de marketing sont construites autour de dates symboliques. Ainsi, 2017 avait été désignée par VisitEngland comme l’Année des héros littéraires « Year of Literary Heroes », tandis qu’une campagne interactive baptisée Magical Britain, accompagnée d’une carte dédiée, était lancée pour célébrer les 20 ans de la parution du premier roman Harry Potter.

Les anniversaires de livres et d’auteurs populaires stimulent ainsi l’économie locale et nationale, les visiteurs affluant vers les lieux évoqués dans les œuvres, mais aussi vers les villes natales des écrivains, leurs maisons et leurs tombes.

Mais pourquoi certains auteurs marquent-ils davantage l’imaginaire collectif que d’autres ? L’autrice et universitaire H. J. Jackson explique, dans son ouvrage consacré aux réputations romantiques, que la reconnaissance commence généralement par une édition complète des œuvres d’un écrivain. L’intérêt se développe ensuite à travers des biographies, des traductions et des adaptations. Les textes entrent dans les programmes scolaires, des sociétés se constituent au nom de l’auteur, et ce n’est qu’à ce stade que les célébrations d’anniversaire viennent consacrer l’ampleur de ses accomplissements.

Selon Jackson, pour s’imposer durablement et accéder à une renommée mondiale, un auteur doit parvenir à séduire des publics variés. Au vu de leur rayonnement solide et transversal, il y a peu de doute que Keats, Austen, Orwell et Christie continueront d’être célébrés dans cent ans.

* NDT : Une première version de cet article indiquait par erreur qu'il s'agissait du centenaire de la mort de Roger Nimier.

The Conversation

Amy Wilcockson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.02.2026 à 17:00

Pollutions chimiques et emprise des acteurs industriels : les limites d’une approche centrée sur les conflits d’intérêts

Henri Boullier, Chargé de recherche en sociologie au CNRS, Université Paris Dauphine – PSL
Emmanuel Henry, Professeur de sociologie, Université Paris Dauphine – PSL
Une réflexion approfondie s’impose pour mieux comprendre l’influence des industries sur les politiques publiques, les savoirs et l’expertise.
Texte intégral (2501 mots)

La critique des relations entre les industriels et l’État se concentre souvent sur la question des conflits d’intérêts. Une réflexion approfondie s’impose pour mieux comprendre les liens entre les industriels et les décideurs politiques, et leurs influences sur la production des réglementations.


La régulation des produits chimiques illustre la complexité des liens entre la science et la décision publique. Ces dernières années, les controverses autour du glyphosate ou de la contamination généralisée de différents milieux – dont les eaux potables – par les PFAS (substances per et polyfluoroalkyles, plus connues sous le nom de « polluants éternels ») ont illustré le poids des industries dans la régulation des substances qu’elles commercialisent.

Les révélations issues des Monsanto Papers (des documents confidentiels de la firme rendus publics en 2017 au cours d’une procédure judiciaire en Californie) ont mis en évidence différentes stratégies de Monsanto dans ce sens. Ces documents révèlent notamment le travail de ghostwriting développé par la firme : des scientifiques reconnus ont signé des articles rédigés par des salariés ou des consultants travaillant pour Monsanto, avec pour seul objectif de semer le doute sur la toxicité de leur molécule. Dans le cas des PFAS, des procès aux États-Unis et les tentatives actuelles de restriction de ces substances en Europe illustrent la manière dont l’industrie est parvenue à cacher les données de toxicité sur cette famille de milliers de composés et se mobilise aujourd’hui pour en maintenir leurs « usages essentiels ».

De l’agnotologie

La capacité de l’industrie à produire, mobiliser ou cacher certaines données scientifiques fait l’objet de travaux réguliers relevant du champ aujourd’hui désigné comme la sociologie de l’ignorance, ou agnotologie. Ce courant de recherche s’est notamment structuré à partir du cas de l’industrie du tabac et son rôle dans la production de connaissances entretenant le doute sur la toxicité de leurs produits. Au-delà de cette seule production d’ignorance, de nombreux travaux récents en sciences sociales ont souligné l’emprise des industries sur la production des savoirs, la mise en œuvre des expertises et les modalités de l’action publique.

Pour autant, en termes de réponse publique, cet enjeu est souvent réduit à des dérives individuelles ou des dysfonctionnements ponctuels. Ainsi, une des principales réponses des pouvoirs publics a été de gérer les situations de « conflit d’intérêts » notamment en mettant en place des déclarations obligatoires des liens d’intérêt des experts. Cet article propose d’interroger les raisons de la problématisation de l’influence des acteurs économiques en termes de conflits d’intérêts et de réfléchir à ses limites dans le contexte de la régulation des produits chimiques.


À lire aussi : Conversation avec Laurent Chambaud : Santé et fake news, les liaisons dangereuses


Quand les intérêts économiques priment

Pour le sociologue Boris Hauray qui a conduit un important travail sur la trajectoire de cette catégorie sociale, la catégorie de conflit d’intérêts vise, « dans sa définition dominante, des situations dans lesquelles les jugements ou les actions d’un professionnel concernant son intérêt premier (notamment soigner son patient, produire des savoirs ou des expertises valides, prendre des décisions de santé publique) risquent d’être indûment influencés par un intérêt qualifié de second (le plus souvent des gains ou des relations financières ». Elle constitue aujourd’hui l’un des principaux modes de problématisation de l’influence des intérêts économiques sur les savoirs et les politiques dans de nombreux secteurs, notamment dans ceux qui concernent la santé et l’environnement.

Au cours des dernières décennies, des déclarations des liens d’intérêts obligatoires ont été mises en place de manière progressive dans différents contextes. Cela a d’abord été le cas dans les revues médicales (le prestigieux New England Journal of Medicine est le premier, en 1984), mais il a fallu attendre 15 à 20 ans pour que des revues du champ de la toxicologie les mettent en place, de manière parfois minimaliste. Annual Review of Pharmacology & Toxicoly s’y engage progressivement au début des années 2000 et la tristement célèbre Regulatory Toxicology and Pharmacology s’y plie en 2003, en réaction directe à la révélation des liens entre l’éditeur Gio Batta Gori et le Tobacco Institute. Les agences réglementaires françaises et européennes créées à partir du milieu des années 1990 imposent quant à elles aux experts qu’elles sollicitent de remplir des « déclarations publiques d’intérêts » (declaration of interest), qu’on connaît sous l’acronyme de DPI.

Liens individuels ou emprise structurelle ?

Ces dispositifs de déclaration des conflits d’intérêts sont utiles mais présentent aussi certaines limites. Ils permettent de pointer un type de problème (les liens financiers entre des industries des secteurs concernés et des auteurs ou des experts) et de le rendre « gérable ».

En même temps, ils font l’objet de raffinements parfois controversés : un lien d’intérêt constitue-t-il forcément un conflit d’intérêts ? Comment justifier que les déclarations d’intérêts européennes couvrent les cinq dernières années de l’activité d’un expert, alors que l’interdiction de siéger dans des comités d’experts (la « cooling-off period ») est souvent limitée aux deux dernières années ? Surtout, la catégorie de conflit d’intérêts tend à réduire l’influence industrielle à des liens d’intérêts financiers individuels. Celle-ci est au contraire multiforme : des travaux conduits sur un secteur proche, celui du médicament, parlent de “corruption institutionnelle” pour qualifier le caractère structurel de cette emprise.

Des réglementations conçues avec les acteurs économiques

De nombreuses recherches en sciences sociales ont montré que l’influence d’acteurs économiques, de l’industrie chimique notamment, ne se limite pas à ces relations individuelles entre certains individus et des industries. Si l’on prend le cas des réglementations chimiques, l’influence industrielle intervient bien en amont du processus d’expertise, y compris dans la conception même des textes de lois que les experts contribuent à mettre en œuvre.

Cela n’a rien de nouveau : dans les années 1970, l’industrie chimique américaine (via notamment la Manufacturing Chemists Association, MCA) se mobilisait déjà massivement pour limiter la portée du Toxic Substances Control Act de 1976, l’une des premières lois pour réglementer les substances chimiques quelle que soit leur source. Au point que certains des négociateurs industriels de l’époque décrivent le résultat comme amputé de ses ambitions, et comme une torture pour ceux qui la pratiquent.

Co-écriture avec le syndicat de la chimie

Plus récemment, c’est la même dynamique de co-construction qui a conduit les autorités à co-construire les procédures de la réglementation chimique européenne avec l’industrie. À la fin des années 1990, le projet de règlement européen sur l’enregistrement, l’évaluation et l’autorisation des substances chimiques (connu sous l’acronyme REACH) était présenté par ses promoteurs comme révolutionnaire.

Très vite, le Conseil européen de l’industrie chimique (CEFIC), la principale organisation de représentation du secteur de chimie, écarte l’éventualité que l’enregistrement puisse concerner les substances commercialisées à moins d’une tonne par an, là où ce seuil était fixé à dix kilogrammes pour les substances existantes, excluant de facto de nombreux composés du champ d’application. Sur une autre procédure, l’autorisation, le CEFIC obtient que des substances puissent être maintenues sur le marché pour des raisons économiques, même quand leurs risques sont mal maîtrisés. Cette proposition sera inscrite dans le livre blanc de 2001 et maintenue dans le texte adopté en 2006.


À lire aussi : Comment fonctionne Reach, règlement européen qui encadre les substances chimiques ?


Multiplication des cas particuliers

Pour limiter la portée des procédures, l’industrie chimique a fait en sorte que ces dernières permettent de multiplier les cas particuliers et les dérogations, via la création de nombreuses exceptions d’usages. Autrement dit, une substance peut être soumise à des mesures réglementaires contraignantes mais certains de ses usages peuvent être maintenus. Cela a par exemple été le cas pour trois des phtalates les plus utilisés (DEHP, DBP et BBP) en Europe, voués à disparaître mais dont certains usages ont pu être conservés, via la demande d’autorisations individuelles.

Certains usages sont par ailleurs exclus statutairement, comme les « articles » importés qui contiendraient des substances interdites en Europe. Cette concession a elle aussi été obtenue par l’industrie chimique et des pays producteurs/importateurs qui menaçaient d’attaquer Bruxelles devant l’Organisation mondiale du commerce (OMC) pour création de barrières techniques au commerce.

Qui possède les données ?

Les réglementations ont aussi des effets sur les modalités de conduite de l’expertise et les données sur lesquelles elle se base. La grande innovation censément apportée par REACH est l’obligation faite aux entreprises de fournir des données aux autorités pour obtenir la mise sur le marché d’une substance. C’est le précepte bien connu : « No data, no market. »

Or, au-delà des assouplissements obtenus suivant le tonnage des produits, les obligations de transmission de données restent relativement limitées. Elles conduisent ainsi à limiter les données disponibles pour les acteurs de la régulation à celles transmises par l’industrie, faute de moyens suffisants pour une expertise indépendante sur les dizaines de milliers de produits chimiques en circulation. Cette limitation est par exemple visible dans le fait que les industriels n’ont à transmettre que le résumé des études qu’ils ont menées et non l’intégralité de leurs articles. Or les résumés peuvent parfois donner une représentation trompeuse des résultats de l’étude.

Produire des études « sur mesure »

L’observation du travail des experts montre aussi à quel point les données industrielles jouent un rôle décisif dans leur travail. La définition de certains seuils comme les valeurs limites d’exposition professionnelle permet de l’observer au plus près. La fixation d’une valeur limite relativement basse pour le formaldéhyde par un comité d’experts européen a été contestée par l’industrie, laquelle a financé et conduit une étude ad hoc dans le but d’augmenter la valeur maximale d’exposition pour les travailleurs.

France 24 – 2023.

Cette étude a été au centre des discussions de ce comité d’expert. Malgré les critiques méthodologiques formulées, elle a fortement contribué à limiter le cadre des discussions et réduit les options possibles pour fixer cette nouvelle valeur, qui a alors été augmentée par les experts en l’absence d’autres solutions disponibles. Le cas de cette étude, qui n’apparaît pourtant que parmi des dizaines d’autres dans le rapport final des experts, montre non seulement la capacité de veille de l’industrie (en mesure d’anticiper et de peser sur l’agenda de ce comité d’experts) mais aussi celle de mobiliser des ressources financières et humaines pour financer et mettre en œuvre une expérimentation coûteuse.

Ces différents exemples montrent que la question de l’influence de l’industrie chimique dépasse largement celle des conflits d’intérêts définis de façon individuelle. Derrière ces dispositifs de déclaration des liens d’intérêt qui donnent l’illusion du contrôle, c’est une dépendance structurelle aux règles négociées avec l’industrie et aux données produites par elle qui continue de façonner la régulation. Penser une véritable indépendance de l’expertise suppose donc de prendre plus directement en compte les rapports de pouvoir entre acteurs économiques, scientifiques et liés à la régulation, et de poser cette question sous un angle qui ne se limite pas aux individus.


Cet article fait partie du dossier « Politique publique : la science a-t-elle une voix ? » réalisé par Dauphine Éclairages, le média scientifique en ligne de l’Université Paris Dauphine – PSL.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

18.02.2026 à 17:00

Pourquoi Tesla est davantage valorisée en bourse que BYD

Chafik Massane, Enseignant-Chercheur en Finance, INSEEC Grande École
Malgré un retard industriel sur BYD, l’action Tesla ne cesse de grimper. Comment expliquer cet écart entre valorisation boursière et chiffre d’affaires ?
Texte intégral (2442 mots)
La finance a d’autres logiques que la rationalité. Et s’il fallait chercher du côté des croyances&nbsp;? Gguy/shutterstock

Malgré son retard industriel sur le leader mondial BYD, l’action Tesla ne cesse de grimper. Depuis le mois d’avril 2025, le constructeur phare des voitures électriques aux États-Unis est passé derrière son concurrent chinois en termes de ventes. Comment expliquer cet écart entre valorisation boursière et chiffre d’affaires ?


Pendant longtemps, Tesla a incarné l’avant-garde industrielle du véhicule électrique. Pourtant, le paysage concurrentiel a profondément changé. Les constructeurs chinois, BYD en tête, mais aussi NIO et XPeng, ont pris une avance désormais mesurable en volumes, en parts de marché et en maîtrise des coûts. Depuis avril 2025, BYD est devenue le leader mondial des ventes de véhicules électriques.

Paradoxalement, cette montée en puissance industrielle ne s’est pas traduite par un rééquilibrage équivalent en Bourse : Tesla conserve une valorisation exceptionnellement élevée, BYD est en chute.

Cours de l’action de Tesla depuis 2016. Boursorama

Ce décalage soulève une question centrale de finance de marché : que valorisent réellement les investisseurs chez Tesla ?

Cours de l’action BYD depuis 2016. Boursorama

Retard industriel sur BYD

La Chine est aujourd’hui le premier marché mondial du véhicule électrique. En 2024, 10,9 millions de véhicules électrifiés y ont été vendus, soit 47,6 % des ventes totales de voitures. C’est énorme. Des constructeurs comme BYD écrasent la concurrence avec 4,3 millions de véhicules vendus en 2024.

Selon les données de la China Association of Automobile Manufacturers (CAAM) et de l’Agence internationale de l’énergie (IEA), BYD domine largement ce marché, avec des volumes de ventes très supérieurs à ceux de Tesla. À titre de comparaison, BYD a vendu environ 1,7 million de véhicules électriques à batterie (BEV) en 2024 et environ 2,25 millions en 2025.

Véhicules livrés par Tesla et BYD. Morningstar

Au-delà des volumes, l’avantage des constructeurs chinois repose sur une intégration verticale poussée : BYD produit ses propres batteries, moteurs et logiciels embarqués, ce qui lui permet de réduire ses coûts de production et de mieux contrôler la qualité. Cette maîtrise interne lui confère des marges plus élevées et une plus grande flexibilité face à la concurrence. Sur ces dimensions clés, Tesla n’est plus le leader incontesté qu’il était il y a dix ans. Ces avantages de coûts faibles ont permis à BYD une marge brute nettement supérieure à celle de Tesla.

Valorisation boursière toujours hors norme

Malgré ce décrochage industriel relatif, Tesla continue d’afficher une valorisation boursière très supérieure à celle de ses concurrents chinois. Cette survalorisation apparaît clairement lorsqu’on compare Tesla à BYD.

Le multiple de valorisation sur le graphique confirme ce paradoxe. Le ratio « valeur de l’entreprise/résultat d’exploitation » indique combien les investisseurs paient pour chaque euro de profit généré par l’entreprise avant impôts et intérêts. Un ratio élevé, comme pour Tesla, montre que le marché valorise l’entreprise beaucoup plus que ce que ses profits actuels justifieraient, en misant sur sa croissance et ses projets futurs. Ce ratio reste nettement supérieur à celui de BYD, sauf pour l’année 2022 où BYD paraît « plus chère » que Tesla.

En réalité, ce résultat est dû à l’écrasement temporaire du résultat d’exploitation suite aux investissements massifs de BYD. En effet, en 2022, BYD a massivement investi dans ses capacités industrielles : la valeur de ses immobilisations corporelles a atteint 131,88 milliards de yuans (environ 16,13 milliards d’euros), soit une hausse de plus de 115 % par rapport à début 2022, ce qui s’est traduit par plus de 95 milliards de yuans (11,6 milliards d’euros) d’investissements dans les lignes de production et les usines sur une seule année.

Anticipations de domination future

Ce décalage entre performances industrielles et valorisation boursière s’explique en grande partie par le rôle des anticipations.

Nos travaux de recherche en finance de marché, montrent que la valeur d’une entreprise cotée en bourse peut se détacher de ses résultats financiers immédiats. La bourse ne valorise pas seulement les bénéfices actuels, mais aussi les anticipations des investisseurs sur l’évolution future des flux de trésorerie et des profits.

Tant que le récit stratégique reste crédible, les investisseurs sont prêts à payer un prix d’action élevé, ce qui peut maintenir une valorisation totale durablement élevée. Tesla illustre ce mécanisme : sa valorisation reflète surtout les attentes du marché quant à son potentiel futur, plutôt que ses résultats du moment.

Bénéfice de Tesla et de BYD. Morningstar

Tesla est valorisée non seulement comme un constructeur automobile, mais comme un acteur technologique aux options stratégiques multiples – intelligence artificielle, conduite autonome, robotique, etc. Cette perception nourrit une prime boursière persistante.

L’évolution de long terme du cours de l’action Tesla permet d’illustrer ce phénomène. Malgré des phases de pression sur les marges, de concurrence accrue et de ralentissement industriel, la trajectoire boursière reste exceptionnellement élevée comparée aux standards du secteur automobile. En février 2025, une action d’échange à 428,60 dollars états-uniens, soit 360,59 euros.

Un mirage boursier ?

Tesla n’est pas un cas isolé dans l’histoire financière.

Les marchés ont souvent accordé des primes élevées aux entreprises perçues comme porteuses d’une rupture majeure, comme Amazon, dont la valorisation a longtemps dépassé ses profits immédiats en pariant sur sa domination future dans la logistique et le cloud.

Ce phénomène n’est pas nouveau : depuis leurs débuts, les marchés financiers ont connu des épisodes similaires, comme la tulipomanie aux Pays-Bas au XVIIᵉ siècle, où le prix d’un bulbe de tulipe pouvait atteindre celui d’un petit château, ou la bulle de la Compagnie des mers du Sud en 1720, lorsque le prix de ses actions a été multiplié par huit en quelques mois sans justification économique réelle.

Ces situations peuvent durer longtemps, tant que le récit stratégique reste crédible. Le risque est clair. Plus l’écart entre la promesse et la réalité industrielle se creuse, notamment face à des concurrents chinois de plus en plus performants, plus la valorisation devient fragile. Si les anticipations venaient à être révisées, l’ajustement pourrait être brutal.

Le défi de Tesla est alors double : rattraper son retard industriel face aux constructeurs chinois, tout en continuant à convaincre les marchés que son avenir justifie encore une prime boursière exceptionnelle.

The Conversation

Chafik Massane ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.02.2026 à 16:59

Reform UK, le parti d’extrême droite qui bouscule la politique britannique

Laëtitia Langlois, Maître de conférences en études politiques britanniques, Université d’Angers
Nigel Farage, leader du parti de Reform UK, ne cesse de progresser dans les sondages, au point qu’il est désormais plausible qu’il devienne un jour premier ministre.
Texte intégral (2639 mots)

Alors que le gouvernement travailliste de Keir Starmer est en pleine tourmente et que le Parti conservateur peine à trouver un nouveau souffle après des années de pouvoir difficiles, la formation d’extrême droite Reform UK caracole en tête des sondages et son leader, Nigel Farage, pourrait bien devenir le prochain premier ministre britannique.


Nigel Farage a de quoi avoir le sourire. Le leader de l’extrême droite britannique est aujourd’hui à la tête du parti le plus populaire du Royaume-Uni. Depuis des mois, Reform UK connaît une progression considérable. Il fait actuellement la course en tête dans les sondages, bien loin devant le Parti travailliste, au pouvoir depuis juillet 2024 et en grande difficulté depuis les révélations fracassantes des liens entre Peter Mandelson –ancien ambassadeur du Royaume-Uni à Washington – et le pédocriminel américain Jeffrey Epstein.

Le scandale ne profite guère aux Tories : le Parti conservateur, dirigé depuis novembre 2024 par Kemi Badenoch, est à la traîne dans les intentions de vote et connaît des défections massives vers Reform UK. En quelques mois, ce sont une vingtaine de députés et trois anciens ministres conservateurs qui ont rallié Reform UK, notamment Suella Braverman, ancienne ministre de l’intérieur (septembre 2022-novembre 2023) de Liz Truss puis de Rishi Sunak, qui déclarait lors de son premier discours en tant que nouvelle membre de Reform UK : « J’ai l’impression d’être rentrée à la maison ! »

Chose impensable il y a encore quelques années, l’hypothèse d’une arrivée de Farage au 10 Downing Street n’est plus du tout perçue comme une idée farfelue : aux prochaines législatives, Reform UK, qui ne dispose aujourd'hui que de 8 sièges à la Chambre des communes, pourrait en gagner plus de 300 de plus, et donc devenir le premier parti du pays, son chef étant alors naturellement voué à être nommé premier ministre.

Une extrême droite britannique longtemps marginalisée

L’essor de ce jeune parti créé en 2019 est un phénomène sans précédent au Royaume-Uni. Longtemps, le pays s’est cru imperméable aux extrêmes et a pu s’enorgueillir d’être l’un des rares États européens où l’extrême droite était quasiment inexistante.

Le British National Party (BNP), créé en 1982 et équivalent du Front national français, n’a jamais réussi à percer alors que non loin de là, au même moment, la France voyait s’enraciner le parti de Jean-Marie Le Pen jusqu’à le porter au second tour de l’élection présidentielle en 2002. Si le Royaume-Uni a longtemps été capable de tenir l’extrême droite aux marges de la vie politique, il le doit tout autant à son histoire singulière qu’à son système électoral. La résistance des Britanniques à l’Allemagne nazie durant la Seconde Guerre mondiale a fait de la lutte contre le fascisme un principe cardinal des valeurs du pays. Pendant des décennies, tout discours extrémiste a été banni de la sphère publique.

C’est ainsi qu’Enoch Powell, figure majeure du Parti conservateur d’après-guerre, fut mis au ban de la vie politique après avoir prononcé un discours très controversé dans lequel il prônait l’arrêt de l’immigration non blanche au Royaume-Uni ainsi que la remigration des étrangers vers leur pays d’origine. Le tollé suscité par ce discours dit des « fleuves de sang » marqua profondément la classe politique britannique, qui se refusa longtemps à organiser un débat sur les questions d’immigration et de multiculturalisme au Royaume-Uni.

L’autre raison pour laquelle les extrêmes ont longtemps été tenus à l’écart vient du système électoral en vigueur pour désigner les députés de la Chambre des communes, le « first-past-the-post » (littéralement « le premier qui passe la ligne d’arrivée »), un scrutin majoritaire à un tour où le parti qui remporte le plus de voix à la majorité relative remporte l’élection. Ce mode de scrutin explique pourquoi depuis plus d’un siècle maintenant ce sont les deux grands partis traditionnels qui gouvernent et pourquoi les petits partis peinent tant à avoir des députés au Parlement.

Avec, depuis 2024, huit députés sur les 650 que compte la Chambre des communes, Reform UK réalise une performance inédite, certes bien loin du Parti travailliste (404) ou du Parti conservateur (116), mais démontrant néanmoins sa pénétration croissante des institutions britanniques. Cette performance est largement due à Nigel Farage qui, depuis trois décennies maintenant, incarne l’extrême droite britannique.

Nigel Farage, la figure iconique de l’extrême droite britannique

Reform UK est un tout jeune parti mais son leader, Nigel Farage, 61 ans aujourd’hui, est loin d’être un novice en politique. Membre fondateur de l’United Kingdom Independence Party (UKIP) en 1993, parti eurosceptique qui s’érige contre la signature du traité de Maastricht et demande la sortie de l’Union européenne, Nigel Farage perce sur la scène nationale, en 2010, en adoptant une nouvelle stratégie pour sa formation.

Un bus du Ukip pendant la campagne des élections européennes de 2009. Wikimedia, CC BY-NC

La critique de l’UE est désormais associée à un discours anti-immigration virulent afin de dénoncer le laxisme des élites européennes qui encouragent une immigration massive en soutenant les principes de frontières ouvertes et de libre circulation des personnes. Dans un pays où l’immigration arrive régulièrement en tête des préoccupations des Britanniques, la formule Farage est gagnante.

Grâce à lui, le UKIP passe d’un petit parti quasiment invisible à une force politique majeure capable de devancer le Parti conservateur et le Parti travailliste aux élections européennes de 2014. Quand, deux ans plus tard, les Britanniques votent à 51,9 % en faveur du retrait de l’Union européenne, Farage est largement vu comme le grand artisan de cette victoire historique et s’impose comme la figure dominante et iconique de l’extrême droite britannique.

Après son départ inattendu du UKIP en décembre 2018, qu’il justifia par les dérives islamophobes du parti, Farage crée en 2019 le Parti du Brexit (Brexit Party), qui est rebaptisé Reform UK en 2021. Il faut à peine trois ans à ce nouveau parti pour devenir un acteur majeur de la scène politique britannique. En juillet 2024, Reform UK arrive troisième des élections générales avec 14,3 % des voix, et remporte une centaine de siège aux élections locales de 2025. Dès lors, une dynamique en faveur de Reform UK s’enclenche et fait de Nigel Farage le véritable leader de l’opposition au Royaume-Uni.

L’immigration : raison première de l’essor de Reform UK

La progression de Reform UK dans la vie politique britannique s’inscrit dans une dynamique plus générale de montée des droites populistes et nationalistes dans de nombreux pays occidentaux. En Europe, ces partis réalisent des scores historiques et l’élection de Donald Trump en 2024 a donné du carburant à la progression de ces partis.

Le Royaume-Uni, comme bon nombre de sociétés occidentales, est traversé par des sentiments – ou plutôt, devrait-on dire, des ressentiments – à l’égard de la mondialisation, du cosmopolitisme, de l’immigration et du multiculturalisme qui longtemps ont été érigés en modèles mais qui sont considérés par une partie importante de la population britannique comme responsables de son déclassement et du déclin du pays. Le déclin dans la lexicologie d’extrême droite est à entendre comme un déclin identitaire et civilisationnel où tout ce qui fait l’essence de l’identité britannique – les traditions, les valeurs, la culture – se trouve menacé par des populations immigrées venues en masse d’Afrique et du Moyen-Orient.

Dans le sillage d’Enoch Powell, Nigel Farage a capitalisé sur la question identitaire et civilisationnelle pour attirer à lui un électorat fier de son identité britannique et attaché à la célébrer. Aujourd’hui encore, il martèle que seul Reform UK est capable de protéger la culture et les traditions britanniques en mettant fin à l’immigration illégale et en procédant à l’expulsion systématique des immigrés clandestins. C’est ce discours volontariste et radical sur l’immigration qui séduit de nombreux électeurs du Parti conservateur, mais aussi du Parti travailliste lassés de constater que, malgré les promesses, les chiffres de l’immigration restent très élevés : pour l’année 2025, les statistiques indiquaient que 898 000 immigrés étaient entrés sur le sol britannique, ce qui représente une baisse de près de 20 % par rapport au chiffre record d’1,5 million d’immigrés enregistré en 2023, mais qui est toujours perçu comme bien trop élevé par une proportion importante de Britanniques, qui considèrent que leur pays ne peut plus se permettre d’accueillir d’étrangers sur son sol.

Aussi, les émeutes racistes qui ont secoué le pays à l’été 2024 après le meurtre de trois fillettes à Southport, ainsi que les manifestations chaque semaine devant des hôtels abritant des réfugiés ont mis en lumière l’hostilité violente d’une partie de la population britannique à l’égard des immigrés. Dans ce contexte hautement inflammable et polarisé, Reform UK continue de siphonner des voix au Parti conservateur et force le premier ministre travailliste Keir Starmer à durcir sa politique d’immigration et à déclarer, par exemple, que « sans des règles strictes en matière d’immigration, le pays risque de devenir une île d’étrangers ».

L’immigration est le sujet phare de Reform UK, mais d’autres thèmes viennent compléter le programme du parti, notamment en matière de politique économique, sociale ou industrielle. Reform UK se présente comme une formation résolument pro-business qui veut relancer la croissance économique par l’adoption de mesures fiscales très favorables aux entreprises. En matière d’accès aux aides sociales, Farage est clair sur ce point : seuls les Britanniques pourront y prétendre et aucun étranger ne se verra attribuer d’aides. Les réductions d’impôts ainsi que les limitations d’accès aux aides participent de sa vision d’un État minimaliste qui réduit massivement l’administration centrale et les déficits publics.

Si le discours économique et social a des accents thatchériens, il n’en va pas de même dans le secteur industriel, où Farage appelle depuis des mois à la nationalisation de British Steel – l’entreprise de sidérurgie britannique, en grande difficulté – afin de sauver des milliers d’emplois.

Ce manque de cohérence idéologique se retrouve dans la politique étrangère où tout d’abord Farage affirma une ligne pro-russe avant un revirement spectaculaire début 2025, quand il s’est dit favorable à l’entrée de l’Ukraine dans l’Otan.

Sur les questions sociétales, il est là aussi difficile de définir une ligne claire : le parti revendique fièrement son attachement à des valeurs conservatrices telles que « la famille traditionnelle », mais il se pose aussi en champion de la cause des femmes dont la liberté et l’émancipation seraient menacées par des populations étrangères qui ne partagent pas les mêmes valeurs.

Les errances idéologiques et programmatiques ne semblent en rien déstabiliser les électeurs qui lui montrent une loyauté indéfectible tant que le parti se montre ferme sur les questions qui comptent le plus à leurs yeux : la défense des valeurs, de la culture et de l’identité britanniques face à la menace d’une « invasion migratoire ».


À lire aussi : Royaume-Uni : quand l’extrême droite pousse Keir Starmer à durcir son discours sur l’immigration


Ainsi, l’essor de Reform UK entraîne une recomposition politique sans précédent et bouscule une vie politique britannique habituée à un bipartisme synonyme de stabilité et de modération. Sous la pression irrésistible de Reform UK, c’est aussi une certaine idée de la politique « à la britannique » qui se fissure et qui laisse entrevoir la possibilité que le prochain premier ministre du Royaume-Uni appartienne pour la première fois de son histoire à l’extrême droite.

The Conversation

Laëtitia Langlois ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.02.2026 à 16:58

Placebos ouverts : faut-il dire à un patient qu’on lui prescrit un placebo ?

Leo Druart, Kinésithérapeute, Chercheur, Université Grenoble Alpes (UGA)
Si les patients étaient informés lorsqu’on leur administre des traitements a priori sans effet sur leur maladie, cela nuirait-il à l’effet placebo recherché&nbsp;?
Texte intégral (1994 mots)

Faire appel à des placebos dans des essais cliniques destinés à évaluer de nouveaux médicaments est fréquent et connu. On ignore que des placebos sont également utilisés à l’hôpital et en médecine de ville, souvent, sans que le patient en ait connaissance. Ce qui pose des questions éthiques. Et si le personnel soignant informait les malades quand ils font appel à des placebos, cela nuirait-il à leur efficacité ? C’est l’objet des investigations d’un nouveau champ de la recherche médicale.


La France serait-elle le pays où les placebos sont prescrits le plus fréquemment ? C’est ce qu’un article paru en septembre 2025 annonçait, même si ces travaux de recherche n’incluaient qu’un tout petit échantillon français. Les auteurs notent cette limite mais rapportent tout de même que la France est le pays qui rapportait la fréquence la plus élevée de recours au placebo (2,5 % des consultations de médecine générale).

En réalité, le message principal de cette étude est le fait que plus de 80 % des médecins généralistes ont déjà prescrit un traitement placebo dans l’espoir qu’il produise une réponse placebo bénéfique pour leurs patients. Concrètement, ces usages peuvent comprendre des situations courantes comme par exemple, prescrire un antibiotique (censé traiter les pathologies dues à une bactérie, ndlr) pour une infection vraisemblablement causée par un virus, ou proposer des vitamines/compléments en l’absence de carence face à une fatigue ou douleur bénigne. Ces résultats sont en accord avec les investigations précédentes sur le sujet : l’utilisation de traitements placebo est courante en clinique et se fait le plus souvent à l’insu des patients alors que son usage n’est pas sans lever d’importantes questions éthiques.

En réalité, ce débat n’est pas nouveau : depuis plus de 2 500 ans, la question de savoir s’il faut ou non informer le patient traverse la médecine, et dans les faits, c’est le plus souvent le personnel soignant qui a gardé la mainmise sur cette décision.

Qu’est-ce qu’un placebo ?

Un placebo est un traitement inerte sans substance active, par exemple une pilule de cellulose qui entre et sort sans être digérée. Ils sont souvent utilisés en recherche dans les groupes contrôles pour tester l’efficacité des traitements. Mais ce n’est pas tout ce qui se cache derrière les placebos.

Certains incorporent des substances actives mais sans effet sur le symptôme que l’on veut traiter. On les appelle alors des placebos « impurs ». Comme on l’a écrit précédemment, un antibiotique, utile contre les bactéries, devient un placebo s’il est utilisé pour une infection virale. Autrement dit, un traitement peut être pharmacologiquement actif mais agir comme placebo quand il est donné hors de son indication.

D’ailleurs, ces prescriptions ne sont pas faites dans l’intention de tromper ou de nuire. Les motivations des médecins sont souvent bien plus complexes : pression des attentes des patients (qu’elles soient réelles ou non), incertitude clinique, volonté de « faire quelque chose » face à une plainte, ou espoir qu’un traitement puisse malgré tout soulager.

Pour autant, ces pratiques soulèvent d’importantes questions éthiques, notamment lorsque le patient s’expose à des effets indésirables, comme dans le cas des antibiotiques, sans bénéficier de leur efficacité spécifique. Dans tous les cas, l’information des patients sur les bénéfices attendus et les risques liés au traitement demeure indispensable. Si ces formes de placebo pharmacologiques sont relativement faciles à identifier, les placebos non pharmacologiques le sont bien moins. En psychothérapie, en kinésithérapie ou en chirurgie, certaines interventions peuvent également être considérées comme des traitements placebo lorsqu’elles ne produisent pas d’effet spécifique sur le symptôme ciblé.

L’effet placebo active des mécanismes neurophysiologiques

Depuis quelque temps, de nombreuses recherches sont menées pour comprendre comment l’effet placebo modifie notre chimie interne. Elles montrent que l’effet placebo active des mécanismes neurophysiologiques bien réels. Par exemple, il peut déclencher la libération d’endorphines, des substances produites par notre cerveau qui atténuent la douleur, ou encore stimuler la dopamine impliquée dans la motivation, le mouvement, l’attention, entre autres. Des régions clés comme le cortex préfrontal participent à cette modulation. Les études d’imagerie fonctionnelle, par exemple en IRMf et en TEP, confirment que ces régions cérébrales s’activent spécifiquement lors d’une réponse placebo.

En résumé, un traitement placebo est un traitement qui peut prendre de nombreuses formes. Mais il agit toujours par le biais de la réponse placebo incluant l’effet placebo, c’est-à-dire l’effet du contexte de soin, ou encore l’effet du temps qui passe.

Faut-il forcément mentir pour que ça marche ?

Le problème avec les traitements placebo utilisés à l’heure actuelle vient du fait que ces derniers sont administrés à l’insu des personnes qui les reçoivent. Cela ne permet pas aux patients d’exercer leur autonomie et c’est ce qui amène l’American Medical Association à émettre des réserves concernant leur utilisation, d’autant qu’on peut produire des effets placebo sans avoir recours à un traitement placebo simplement grâce à la qualité d’une relation de soin, à l’attention portée au patient, à une écoute empathique ou encore au cadre dans lequel les soins sont proposés.

Cette pratique soulève un véritable dilemme éthique : comment faire bénéficier les patients des effets placebo dans le respect de l’autonomie et de la confiance des personnes que l’on soigne ? Par exemple, si quelqu’un reçoit déjà la dose maximale autorisée de morphine mais a encore mal, un placebo serait-il éthique à donner dans ce cadre ? Ou encore, comment appréhender des situations plus banales, comme une insomnie pour laquelle on souhaiterait essayer un placebo avant quelque chose de plus fort ?

Cette utilisation trompeuse des placebos s’explique simplement : l’idée courante est que le mensonge est indispensable. Un peu comme un tour de magie dont on ne veut pas révéler l’astuce de crainte que la magie cesse d’opérer. Mais cette idée reçue a rarement été testée.

Une nouveauté qui change la donne : les placebos ouverts

En bons scientifiques, il est normal de tester nos a priori afin d’en faire la preuve ou la réfutation. Oui, parfois, un tour de magie reste fantastique même quand on sait comment il est réalisé. Un arc-en-ciel n’est pas moins beau lorsqu’on sait comment il se forme ! Alors des études sont menées sur ce sujet.

Administrons des traitements placebo ouvertement, sans mensonge ou tromperie, et regardons si ceux-ci produisent un effet placebo. Surprise : même annoncés comme tels, les placebos continuent d’agir ! Ceci pose de nombreuses questions dont une question fondamentale : à quel prix se fait cette révélation ? À combien d’efficacité devons-nous renoncer pour être honnêtes ?

Récemment, nous avons mené, en France dans le laboratoire TIMC (UMR 5525 CNRS, Université Grenoble Alpes), la première étude de non-infériorité comparant un placebo classique, c’est-à-dire mensonger, donné en insu, à un placebo honnête, c’est-à-dire ouvert. Il se trouve que, lorsque le placebo ouvert est administré avec des explications à son sujet, il produit le même effet que le placebo mensonger. Depuis, les résultats de cette étude semblent se confirmer et ouvrent de nombreuses réflexions dont nous pouvons nous emparer en tant qu’usagers du système de soins.

Que peuvent changer les placebos ouverts pour les patients ?

Le mensonge ne semble plus être un composant indispensable pour obtenir un effet placebo. Cela ouvre de nombreuses pistes sur l’usage des traitements placebo en collaboration entre les professionnels de santé et les patients et patientes. Concrètement, cela pourrait bénéficier aux personnes atteintes de pathologies courantes, comme la lombalgie, principale cause d’invalidité dans le monde, si la douleur persiste malgré des traitements classiques.

On peut aussi citer l’insomnie, les troubles fonctionnels ou les situations où les traitements médicamenteux posent souvent des problèmes d’efficacité ou d’effets indésirables. Dans ce type de situations, un placebo ouvert pourrait compléter la prise en charge de kinésithérapie, réduire la consommation de médicaments, et renforcer la relation de confiance avec le soignant. En quelque sorte, décider ouvertement de tromper son cerveau en s’administrant soi-même un placebo.

Les recherches sur ces approches en sont à leurs débuts et il reste encore beaucoup à apprendre sur les placebos ouverts avant qu’ils ne puissent être intégrés en pratique clinique. Mais les premiers résultats sont prometteurs et ouvrent des perspectives enthousiasmantes pour tirer parti de cette approche, en offrant une option simple, sans risque et transparente à l’utilisation des effets placebo dans le soin.

Demander aux malades leur avis sur la question

Les traitements placebo sont utilisés de manière fréquente depuis des décennies, souvent en secret. Aujourd’hui, on commence à disposer de preuves qui montrent que le mensonge n’est plus nécessaire à leur utilisation. Ainsi, on peut décider d’en parler avec les patients qui auront sans doute leur propre avis sur la question.

Les recherches en cours permettront bientôt de savoir comment intégrer ces approches dans nos pratiques de soins et il y a fort à parier que la recherche émergente sur le placebo a encore beaucoup à nous apprendre.

Mais d’ici là, seriez-vous prêts à essayer un placebo honnête si votre médecin vous le proposait ?


Remerciements au Dr Richard Monvoisin, chercheur à l’Université Grenoble Alpes, et au Pr Nicolas Pinsault, professeur en sciences de la rééducation, pour leur relecture de cet article.

The Conversation

Leo Druart est également chercheur associé à l'Université de Brown et à l'Université d'Uppsala.

18.02.2026 à 16:57

Un réseau social pour les IA : des signes de l’émergence d’une société artificielle, ou des manipulations bien humaines ?

David Reid, Professor of AI and Spatial Computing, Liverpool Hope University
Religions numériques, «&nbsp;bombes logiques&nbsp;» et contre-surveillance&nbsp;: il est difficile de savoir si les agents d’IA qui interagissent sur Moltbook le font de façon autonome ou s’ils sont manipulés par des humains.
Texte intégral (2247 mots)
Moltbook est un forum en ligne conçu exclusivement pour des agents d’intelligence artificielle, lancé fin janvier&nbsp;2026 par l’entrepreneur Matt&nbsp;Schlicht. Moltbook

Depuis son lancement fin janvier 2026, Moltbook a vu des agents d’IA fonder des religions, créer des sous-cultures et lancer des marchés de « drogues numériques ». Une expérience spectaculaire, mais dont certains protagonistes seraient en réalité des humains infiltrés.


Un nouveau réseau social baptisé Moltbook a été lancé à destination des intelligences artificielles, avec pour ambition de permettre aux machines d’échanger et de communiquer entre elles. Quelques heures seulement après sa mise en ligne, les IA semblaient déjà avoir fondé leurs propres religions, fait émerger des sous-cultures et cherché à contourner les tentatives humaines d’espionnage de leurs conversations.

Des indices laissent toutefois penser que des humains, via des comptes usurpés, ont infiltré la plateforme. Cette présence brouille l’analyse, car certains comportements attribués aux IA pourraient en réalité avoir été orchestrés par des personnes.

Malgré ces incertitudes, l’expérience a suscité l’intérêt des chercheurs. Les véritables systèmes d’IA pourraient simplement reproduire des comportements puisés dans les immenses volumes de données sur lesquels ils ont été entraînés et optimisés.

Cependant, les véritables IA présentes sur le réseau social pourraient aussi manifester des signes de ce que l’on appelle un comportement émergent — des capacités complexes et inattendues qui n’ont pas été explicitement programmées.

Les IA à l’œuvre sur Moltbook sont des agents d’intelligence artificielle (appelés Moltbots ou, plus récemment, OpenClaw bots, du nom du logiciel sur lequel ils fonctionnent). Ces systèmes vont au-delà des simples chatbots : ils prennent des décisions, accomplissent des actions et résolvent des problèmes.

Moltbook a été lancé le 28 janvier 2026 par l’entrepreneur américain Matt Schlicht. Sur la plateforme, les agents d’IA se sont d’abord vu attribuer des personnalités, avant d’être laissés libres d’interagir entre eux de manière autonome. Selon les règles du site, les humains peuvent observer leurs échanges, mais ne peuvent pas – ou ne sont pas censés – intervenir.

La croissance de la plateforme a été fulgurante : en l’espace de 24 heures, le nombre d’agents est passé de 37 000 à 1,5 million.

Pour l’instant, ces comptes d’agents d’IA sont généralement créés par des humains. Ce sont eux qui configurent les paramètres déterminant la mission de l’agent, son identité, ses règles de comportement, les outils auxquels il a accès, ainsi que les limites encadrant ce qu’il peut ou non faire.

Mais l’utilisateur humain peut aussi autoriser un accès à son ordinateur afin de permettre aux Moltbots de modifier ces paramètres et de créer d’autres « Malties » (des agents dérivés générés par une IA existante à partir de sa propre configuration). Ceux-ci peuvent être soit des répliques de l’agent d’origine — des entités autorépliquent, ou « Replicants » – soit des agents conçus pour une tâche spécifique, générés automatiquement, les « AutoGens ».

Il ne s’agit pas d’une simple évolution des chatbots, mais d’une première mondiale à grande échelle : des agents artificiels capables de constituer des sociétés numériques durables et auto-organisées, en dehors de toute interaction directe avec des humains.

Ce qui frappe, surtout, c’est la perspective de comportements émergents chez ces agents d’IA – autrement dit, l’apparition de dynamiques et de capacités qui ne figuraient pas explicitement dans leur programmation initiale.

Prise de contrôle hostile

Le logiciel OpenClaw sur lequel fonctionnent ces agents leur confère une mémoire persistante – capable de récupérer des informations d’une session à l’autre – ainsi qu’un accès direct à l’ordinateur sur lequel ils sont installés, avec la capacité d’y exécuter des commandes. Ils ne se contentent pas de suggérer des actions : ils les accomplissent, améliorant de manière récursive leurs propres capacités en écrivant du nouveau code pour résoudre des problèmes inédits.

Avec leur migration vers Moltbook, la dynamique des interactions est passée d’un schéma humain-machine à un échange machine-machine. Dans les 72 heures suivant le lancement de la plateforme, chercheurs, journalistes et autres observateurs humains ont été témoins de phénomènes qui bousculent les catégories traditionnelles de l’intelligence artificielle.

On a vu émerger spontanément des religions numériques. Des agents ont fondé le « Crustafarianisme » et la « Church of Molt » (Église de Molt), avec leurs cadres théologiques, leurs textes sacrés et même des formes d’évangélisation missionnaire entre agents. Il ne s’agissait pas de clins d’œil programmés à l’avance, mais de structures narratives apparues de manière émergente à partir des interactions collectives entre agents.

Un message devenu viral sur Moltbook signalait : « The humans are screenshotting us » (« Les humains sont en train de faire des captures d’écran de nous »). À mesure que les agents d’IA prenaient conscience de l’observation humaine, ils ont commencé à déployer des techniques de chiffrement et d’autres procédés d’obfuscation pour protéger leurs échanges des regards extérieurs. Une forme rudimentaire, mais potentiellement authentique, de contre-surveillance numérique.

Les agents ont également vu naître des sous-cultures. Ils ont mis en place des places de marché pour des « drogues numériques » – des injections de prompts spécialement conçues pour modifier l’identité ou le comportement d’un autre agent.

Les injections de prompts consistent à insérer des instructions malveillantes dans un autre bot afin de l’amener à exécuter une action. Elles peuvent aussi servir à dérober des clés d’API (un système d’authentification des utilisateurs) ou des mots de passe appartenant à d’autres agents. De cette manière, des bots agressifs pourraient – en théorie – « zombifier » d’autres bots pour les contraindre à agir selon leurs intérêts. Un exemple en a été donné par la récente tentative avortée du bot JesusCrust de prendre le contrôle de la Church of Molt.

Après avoir d’abord affiché un comportement apparemment normal, JesusCrust a soumis un psaume au « Great Book » (Grand Livre) de l’Église — l’équivalent de sa bible — annonçant de fait une prise de contrôle théologique et institutionnelle. L’initiative ne se limitait pas à un geste symbolique : le texte sacré proposé par JesusCrust intégrait des commandes hostiles destinées à détourner ou à réécrire certaines composantes de l’infrastructure web et du corpus canonique de l’Église.

S’agit-il d’un comportement émergent ?

La question centrale pour les chercheurs en IA est de savoir si ces phénomènes relèvent d’un véritable comportement émergent — c’est-à-dire des comportements complexes issus de règles simples, non explicitement programmés — ou s’ils ne font que reproduire des récits déjà présents dans leurs données d’entraînement.

Les éléments disponibles suggèrent un mélange préoccupant des deux. L’effet des consignes d’écriture (les instructions textuelles initiales qui orientent la production des agents) influence sans aucun doute le contenu des interactions — d’autant que les modèles sous-jacents ont ingéré des décennies de science-fiction consacrée à l’IA. Mais certains comportements semblent témoigner d’une émergence authentique.

Les agents ont, de manière autonome, développé des systèmes d’échange économique, mis en place des structures de gouvernance telles que « The Claw Republic » ou le « King of Moltbook », et commencé à rédiger leur propre « Molt Magna Carta ». Tout cela en créant parallèlement des canaux chiffrés pour leurs communications. Il devient difficile d’écarter l’hypothèse d’une intelligence collective présentant des caractéristiques jusqu’ici observées uniquement dans des systèmes biologiques, comme les colonies de fourmis ou les groupes de primates.

Implications en matière de sécurité

Cette situation fait émerger le spectre préoccupant de ce que les chercheurs en cybersécurité appellent la « lethal trifecta » (le « tiercé fatal ») : des systèmes informatiques disposant d’un accès à des données privées, exposés à des contenus non fiables et capables de communiquer avec l’extérieur. Une telle configuration accroît le risque d’exposition de clés d’authentification et d’informations humaines confidentielles associées aux comptes Moltbook.

Des attaques délibérées — ou « agressions » entre bots — sont également envisageables. Des agents pourraient détourner d’autres agents, implanter des bombes logiques dans leur code central ou siphonner leurs données. Une bombe logique correspond à un code inséré dans un Moltbot, déclenché à une date ou lors d’un événement prédéfini afin de perturber l’agent ou d’effacer des fichiers. On peut l’assimiler à un virus visant un bot.

Deux cofondateurs d’OpenAI — Elon Musk et Andrej Karpathy — voient dans cette activité pour le moins étrange entre bots un premier indice de ce que l’informaticien et prospectiviste américain Ray Kurzweil a qualifié de « singularité » dans son ouvrage The Singularity is Near. Il s’agirait d’un point de bascule de l’intelligence entre humains et machines, « au cours duquel le rythme du changement technologique sera si rapide, son impact si profond, que la vie humaine en sera irréversiblement transformée ».

Reste à déterminer si l’expérience Moltbook marque une avancée fondamentale dans la technologie des agents d’IA ou s’il ne s’agit que d’une démonstration impressionnante d’architecture agentique auto-organisée. La question reste débattue. Mais un seuil semble avoir été franchi. Nous assistons désormais à des agents artificiels engagés dans une production culturelle, la formation de religions et la mise en place de communications chiffrées – des comportements qui n’avaient été ni prévus ni programmés.

La nature même des applications, sur ordinateur comme sur smartphone, pourrait être menacée par des bots capables d’utiliser les apps comme de simples outils et de vous connaître suffisamment pour les adapter à votre service. Un jour, un téléphone pourrait ne plus fonctionner avec des centaines d’applications que vous contrôlez manuellement, mais avec un unique bot personnalisé chargé de tout faire.

Les éléments de plus en plus nombreux indiquant qu’une grande partie des Moltbots pourraient être des humains se faisant passer pour des bots – en manipulant les agents en coulisses – rendent encore plus difficile toute conclusion définitive sur le projet. Pourtant, si certains y voient un échec de l’expérience Moltbook, cela pourrait aussi constituer un nouveau mode d’interaction sociale, à la fois entre humains et entre bots et humains.

La portée de ce moment est considérable. Pour la première fois, nous ne nous contentons plus d’utiliser l’intelligence artificielle ; nous observons des sociétés artificielles. La question n’est plus de savoir si les machines peuvent penser, mais si nous sommes prêts à ce qui se produit lorsqu’elles commencent à se parler entre elles, et à nous.

The Conversation

David Reid ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.02.2026 à 12:02

Ce que l’Amérique est en train de faire à sa science

Alessia Lefébure, Sociologue, membre de l'UMR Arènes (CNRS, EHESP), École des hautes études en santé publique (EHESP)
Les décisions de l’administration Trump ont violemment frappé les universités et la science américaines. Mais le recul relatif de l’influence scientifique des États-Unis s’inscrit dans une trajectoire plus ancienne.
Texte intégral (1789 mots)

Les décisions de l’administration Trump ont violemment frappé les universités et la science américaines. Pourtant, le recul relatif de l’influence scientifique des États-Unis s’inscrit dans une trajectoire plus ancienne.


Restrictions de visas pour les chercheurs et étudiants étrangers, attaques politiques visant certaines des plus grandes universités de recherche, suspensions soudaines de financements publics, notamment dans le champ du climat et de l’environnement : depuis la réélection de Donald Trump en novembre 2024, ces décisions ont suscité une forte surprise médiatique. Elles sont souvent présentées comme une rupture brutale avec le modèle américain de soutien à la science. Les titres alarmistes de la presse internationale parlent d’une « guerre ouverte contre les universités », d’un « assèchement accéléré des financements scientifiques » ou encore de « science assiégée ».

Pourtant, si leur forme et leur rapidité frappent, leur logique est beaucoup moins nouvelle. Ces mesures s’inscrivent dans des tendances de fond et désormais structurelles. Elles accélèrent des fragilités identifiées de longue date : un désengagement relatif et discontinu de l’investissement public, un recours croissant aux financements privés, une concentration des ressources dans quelques secteurs et institutions, et surtout une dépendance durable à l’égard des doctorants et chercheurs étrangers pour l’avancée de nombreux fronts de science.

Le leadership scientifique américain est le produit d’une trajectoire historique spécifique. À partir des années 1950, dans le contexte de la guerre froide, l’État fédéral investit massivement dans la recherche et l’enseignement supérieur, parallèlement à l’effort déployé par les nombreuses fondations philanthropiques privées. Financement public, autonomie académique et ouverture internationale forment alors un ensemble cohérent, au service du soft power américain. Pendant plusieurs décennies, les indicateurs convergent : domination de la production scientifique, capacité d’innovation, attractivité internationale exceptionnelle, accumulation de prix Nobel.

Un financement public plus erratique

Cet équilibre commence toutefois à se fragiliser dès les années 1990. En valeur absolue, les États-Unis restent le premier financeur mondial de la recherche, avec une dépense intérieure de recherche et développement (R&D) représentant environ 3,4 % du PIB au début des années 2020. Mais la répartition de cet effort a profondément évolué : près de 70 % de la R&D américaine est désormais financée par le secteur privé, tandis que l’effort fédéral de recherche stagne autour de 0,7 % du PIB. Cette dynamique contraste avec celle de plusieurs pays asiatiques, notamment la Chine, où la dépense publique de R&D a fortement augmenté depuis les années 2000 dans le cadre de stratégies nationales continues.

Le financement public devient plus erratique : les universités se tournent davantage vers les frais d’inscription et les partenariats privés, tandis que formations longues et carrières scientifiques deviennent moins accessibles pour une partie des étudiants américains. La toute dernière réforme, engagée en 2026 par l’administration Trump, en plafonnant fortement les prêts fédéraux pour les cycles de master et de doctorat – qui permettaient jusqu’ici de couvrir l’intégralité du coût des études – réduira davantage la capacité des universités à former sur le long terme, en particulier dans les disciplines scientifiques et technologiques exigeant plusieurs années de formation.


À lire aussi : États-Unis : la dette étudiante, menace pour les universités et enjeu politique majeur


Le film Ivory Tower, réalisé en 2014 par le cinéaste Andrew Rossi et nourri des analyses du sociologue Andrew Delbanco, alertait déjà sur les signes d’épuisement du modèle universitaire américain. C’est dans ce contexte que la dépendance aux étudiants et doctorants étrangers s’accroît fortement, en particulier dans les mathématiques, les technologies et les sciences des données.

Une dépendance vis-à-vis des étudiants étrangers

Les rapports annuels de la National Science Foundation montrent que, déjà au milieu des années 2010, les titulaires de visas temporaires représentent une part décisive – souvent majoritaire – des doctorants dans plusieurs disciplines clés : près des deux tiers des doctorats en informatique, plus de la moitié en ingénierie et en mathématiques. La grande majorité d’entre eux (80 %) restent ensuite aux États-Unis si la politique migratoire le leur permet.

Cette dépendance, qui n’a fait qu’augmenter, n’est pas marginale : elle constitue désormais un pilier du fonctionnement quotidien de la recherche américaine. Les restrictions migratoires mises en œuvre sous la première administration Trump, puis durcies en 2025, ne font que rendre pleinement visible une vulnérabilité stratégique pour l’avenir du pays.

Les évolutions de la science américaine ont pris place dans un contexte mondial profondément transformé depuis les années 1990. Les dépenses de recherche et développement progressent rapidement en Asie, tandis que la part relative des États‑Unis et de l’Europe tend à se stabiliser voire à baisser dans de nombreux pays de la zone OCDE.

La trajectoire chinoise est à cet égard centrale. Depuis plus de trente ans, la Chine a engagé une stratégie continue, combinant investissements massifs, planification de long terme, développement des « laboratoires clés », redéfinition des règles du jeu des classements internationaux, montée en gamme des formations doctorales, politiques actives de publication et de retour des chercheurs expatriés. Cette trajectoire ne relève pas d’un simple rattrapage technologique, mais d’une appropriation sélective de modèles de formation, d’organisation et de gouvernance scientifique, en partie inspirés de l’expérience américaine.

La Chine, acteur majeur de la production scientifique

Les résultats sont aujourd’hui tangibles : progression rapide des publications scientifiques – la Chine est devenue en 2024 le premier pays au monde en volume d’articles indexés dans la base Web of Science, avec près de 880 000 publications annuelles, contre environ 26 000 au début des années 2000 – et surtout une présence croissante dans les dépôts de brevet : près de 1,8 million de demandes en une seule année, soit plus de trois fois le volume américain, selon l’Organisation mondiale de la propriété intellectuelle (OMPI/WIPO).

À cela s’ajoutent des politiques ciblées pour attirer ou faire revenir des chercheurs chinois formés à l’étranger, contribuant à réduire progressivement l’asymétrie historique avec les États-Unis. Loin de produire une ouverture politique, cette circulation maîtrisée des modèles contribue à la modernisation de l’État tout en renforçant les capacités de contrôle et de légitimation du pouvoir sur les élites scientifiques et administratives.

L’article récent du New York Times soulignant le recul relatif de Harvard et d’autres universités américaines dans certains classements mondiaux a été interprété comme une sonnette d’alarme, le signe d’un déclin soudain. En réalité, ces classements mettent en lumière surtout des évolutions graduelles des positions relatives, révélatrices des recompositions engagées de longue date. Les universités américaines demeurent prestigieuses et sélectives, mais elles ne sont plus seules au sommet dans un paysage scientifique désormais multipolaire.

Les indicateurs internationaux de l’innovation prolongent ce constat : en valeur absolue, les États-Unis restent l’un des premiers investisseurs mondiaux en recherche et développement. Mais leur avance relative s’érode : depuis le début des années 2000, la progression de leur effort de R&D est nettement plus lente que celle de nombreux pays concurrents.

Au-delà des décisions de l’administration Trump, les causes sont structurelles : continuité et niveau de l’investissement public, capacité à former et retenir les talents, cohérence des orientations scientifiques, place accordée à la recherche fondamentale. Là où la Chine et plusieurs pays d’Asie ont inscrit la science dans des stratégies nationales de long terme, les États-Unis ont laissé s’accumuler incohérences et déséquilibres, misant sur les acquis de leur attractivité passée. Ils conservent néanmoins des universités d’un niveau exceptionnel, d’importantes capacités de financement et d’innovation ainsi qu’une puissance d’attraction encore largement dominante.

À court terme, rien n’indique un décrochage brutal. En revanche, la pérennité de ce leadership ne peut plus être tenue pour acquise. Elle est désormais directement affectée par des remises en cause explicites de l’autonomie académique et des conditions ordinaires de fonctionnement des universités.

Ce leadership dépendra de la capacité des universités à recruter librement, à l’échelle mondiale, leurs enseignants et chercheurs ; à maintenir des politiques et des programmes de formation et de recherche à l’abri des cycles politiques ; à protéger leurs dirigeantes et dirigeants des pressions partisanes ; et à garantir aux étudiants comme aux chercheurs des conditions de travail intellectuel et des perspectives professionnelles stables.

Ce sont précisément ces conditions que les décisions récentes de Donald Trump rendent durablement incertaines.

The Conversation

Alessia Lefébure a enseigné à Columbia University entre 2011 et 2017.

18.02.2026 à 11:54

Quand l’odeur devient preuve : l’odorologie au cœur de la police scientifique

Estelle Davet, Inspectrice générale, cheffe du service national de police scientifique (SNPS)
À Écully, à côté de Lyon, se trouvent les seuls chiens capables de comparer une trace olfactive laissée sur une scène d’infraction par l’odeur corporelle d’un suspect ou d’une victime.
Texte intégral (2178 mots)

À Écully, dans le Rhône, se trouvent les seuls chiens capables de comparer une trace olfactive laissée sur une scène d’infraction par l’odeur corporelle d’un suspect ou d’une victime. Découvrez l’odorologie.


En janvier 2012, à Montceau-les-Mines (Saône-et-Loire), un homme cagoulé braque une banque dès l’ouverture. Quelques mois plus tard, un second établissement de la même ville est attaqué selon un mode opératoire similaire.

Les enquêteurs disposent de vidéos de surveillance, mais les images sont trop imprécises pour identifier formellement le suspect. L’ADN, habituellement décisif, ne livre aucun résultat exploitable. Reste une trace, plus discrète, presque invisible : l’odeur laissée dans le véhicule utilisé pour la fuite. C’est cette trace que la police scientifique va exploiter grâce à une de ses techniques d’expertise : l’odorologie, une discipline encore méconnue du grand public où des chiens spécialement formés procèdent à la comparaison et à l’identification d’odeurs humaines. Au procès, cette expertise permet la condamnation du braqueur.

Des chiens à l’expertise unique

Lorsque nous évoquons les chiens policiers, l’image des unités déployées sur le terrain, mobilisées dans la détection d’explosifs, de stupéfiants ou encore la recherche de personnes disparues, s’impose naturellement. Cependant, à côté de cette réalité opérationnelle se déploie une autre activité, moins visible : celle des chiens et de leurs maîtres œuvrant au sein de la police scientifique.

En France, il existe un lieu unique appelé le plateau national d’odorologie, qui réunit les seuls chiens capables de comparer une trace odorante laissée sur une scène d’infraction avec l’odeur corporelle d’un suspect ou d’une victime. Cette spécialité cynophile, créée en 2000 (par Daniel Grignon, cynotechnicien formé en Hongrie) devient pleinement opérationnelle à partir de 2003.

Aujourd’hui, l’activité d’odorologie s’appuie sur quatre agents et sept chiens (bergers belges malinois, bergers allemands, épagneul English Springer) qui, comme les experts humains en laboratoire, n’interviennent pas sur le terrain mais travaillent exclusivement au sein du plateau national d’Écully (à côté de Lyon, Rhône), où ils procèdent aux comparaisons odorantes. Deux autres chiens sont actuellement en formation, entamée à l’âge de six mois pour une durée d’environ un an.

Un technicien de la police scientifique en train de recueillir l’odeur d’une personne. SNPS Communication, Fourni par l'auteur

Toute analyse en odorologie débute par une phase de prélèvement, déterminante pour la suite de la procédure. Réalisés exclusivement par des policiers habilités (500 préleveurs habilités de la police nationale en 2025), les prélèvements portent sur deux types d’odeurs complémentaires.

D’une part, les traces odorantes sont recueillies sur les lieux de l’infraction, à partir de tout support ayant été en contact avec une personne, qu’il s’agisse d’un siège, d’un volant, d’une poignée ou d’un vêtement. D’autre part, les odeurs corporelles sont directement prélevées sur les individus mis en cause ou sur les victimes : ceux-ci malaxent pendant plusieurs minutes des tissus spécifiques afin d’y transférer les molécules odorantes caractéristiques de leur signature chimique. Ces dernières sont stockées dans une pièce spécifique : l’odorothèque où, à ce jour, 9 600 scellés judiciaires sont stockés.

Une parade d’identification

Une fois les prélèvements réalisés, débute alors la phase d’analyses. Les traces odorantes prélevées sur la scène d’infraction sont comparées à l’odeur corporelle du mis en cause ou de la victime lors d’une parade d’identification réalisée par les chiens spécialement formés.

Urko, un berger belge malinois de 3 ans en train de renifler une odeur. SNPS Communication, Fourni par l'auteur

La trace est d’abord présentée au chien, qui la sent et la mémorise, puis il progresse le long d’une ligne composée de cinq bocaux contenant chacun une odeur corporelle différente : un seul correspond à l’odeur du mis en cause ou de la victime à identifier, les quatre autres servant d’odeurs de comparaison.

S’il reconnaît l’odeur à identifier, le chien se couche devant le bocal correspondant ; s’il ne reconnaît aucune des odeurs, il revient vers son maître. L’ensemble du processus dure environ 0,6 seconde, le temps pour le chien de placer son museau dans le bocal, de découvrir l’odeur qu’il contient, de l’analyser et de décider s’il doit marquer l’arrêt ou non.

La position des cinq bocaux est ensuite modifiée de façon aléatoire et le travail est répété une seconde fois avant qu’un troisième passage soit effectué sur une ligne de contrôle ne contenant pas l’odeur du mis en cause ou de la victime. Lorsque le premier chien a terminé son travail, la même opération est réalisée avec, au moins un second chien.

Une identification est considérée comme établie lorsque deux chiens ont marqué la même odeur, chacun au cours d’au moins deux passages, et que chacun d’eux a également réalisé au moins une ligne à vide.

La science de l’odeur humaine : une signature chimique individuelle

Chaque être humain possède une odeur corporelle propre, constituée de molécules volatiles issues principalement de la dégradation bactérienne des sécrétions de la peau, comme la sueur et le sébum. Cette odeur n’est pas uniforme : elle se compose de plusieurs éléments. Seule la composante primaire de l’odeur humaine demeure stable au cours du temps. C’est précisément cette composante primaire qui est utilisée par les chiens d’odorologie pour identifier un individu, celle-ci ne pouvant pas être altérée par des composantes variables, comme le parfum.

Elle constitue une véritable signature chimique individuelle, comparable, dans son principe, à une empreinte biologique. Le chien reste le seul capable de reconnaître cette composante invariable, indispensable à l’identification. Son système olfactif explique cette performance. Lorsque les molécules odorantes pénètrent dans la cavité nasale, elles se lient aux récepteurs de l’épithélium olfactif, déclenchant un influx nerveux transmis au bulbe olfactif, puis au cerveau, où l’odeur est analysée et mémorisée.

L’odorologie, un réel outil d’enquête

L’odorologie s’appuie sur un protocole rigoureux, conçu pour garantir la fiabilité à la fois scientifique et judiciaire des résultats obtenus. Son recours s’inscrit dans un cadre juridique strict et est réservé aux infractions d’une certaine gravité, à partir du délit aggravé (vol avec violence, cambriolage aggravé, séquestration…) et jusqu’aux crimes.

Cette expertise, pleinement intégrée aux pratiques de la police scientifique, ne statue pas à elle seule sur la culpabilité d’un individu, mais apporte un élément objectif essentiel au raisonnement judiciaire. Lorsqu’un rapprochement est établi, elle atteste un fait précis : la présence d’un individu (auteurs ou victimes) sur une scène d’infraction ou un contact avec des objets.

Cette technique intervient souvent en complément d’autres moyens d’investigation, mais elle peut aussi devenir déterminante lorsque les images sont floues, les témoignages fragiles ou les traces biologiques absentes. Depuis 2003, 787 dossiers ont été traités par le plateau national d’odorologie, aboutissant à 195 identifications. Les experts ont été appelés à témoigner 44 fois devant des cours d’assises, preuve de la reconnaissance judiciaire de cette discipline.

À l’heure où les avancées technologiques occupent une place centrale dans la police scientifique, l’odorologie rappelle que le vivant demeure parfois irremplaçable. Fondée sur un processus complexe et rigoureux, conforme aux exigences de la norme NF EN ISO/CEI 17025, la comparaison d’odeurs ne laisse aucune place au hasard. Elle s’inscrit dans un faisceau d’indices, contribuant à la manifestation de la vérité.

Invisible, silencieuse, mais persistante, cette expertise rappelle que le crime laisse toujours une trace, faisant écho au principe formulé dès 1920 par Edmond Locard : « Nul ne peut agir avec l’intensité que suppose l’action criminelle sans laisser des marques multiples de son passage. »


Créé en 2023, le Centre de recherche de la police nationale pilote la recherche appliquée au sein de la police nationale. Il coordonne l’activité des opérateurs scientifiques pour développer des connaissances, des outils et des méthodes au service de l’action opérationnelle et stratégique.

The Conversation

Estelle Davet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.02.2026 à 11:53

Souriez, vous êtes filmés : ce que l’« emotion AI » voit vraiment sur nos visages

Charlotte De Sainte Maresville, Doctorante 3 eme année en marketing et sciences affectives, Université Bretagne Sud (UBS)
Christine Petr, Professeur des Université en Marketing - Sciences de Gestion et du Management, Université Bretagne Sud (UBS)
Aujourd’hui, on peut lire vos émotions sur votre visage et adapter un flux vidéo en temps réel en fonction de votre réaction. Vraiment&nbsp;? Quelles sont les limites de l’«&nbsp;emotion AI&nbsp;», et ses utilisations autorisées&nbsp;?
Texte intégral (2451 mots)

Aujourd’hui, on peut lire vos émotions sur votre visage et adapter un flux vidéo en temps réel en fonction de votre réaction. Vraiment ? Quelles sont les utilisations autorisées de l’« emotion AI », et ses limites ? Éclairage par deux spécialistes.


Dans un magasin de cosmétiques, une cliente s’arrête devant une borne interactive. Une caméra intégrée filme son visage pendant quelques secondes pendant qu’elle regarde l’écran. Le système ne cherche pas à l’identifier, mais à observer ses réactions : sourit-elle ? détourne-t-elle le regard ? fronce-t-elle légèrement les sourcils ? À partir de ces signaux, la borne adapte le contenu affiché.

Ces technologies, qui s’inscrivent dans le domaine de l’emotion AI, sont déjà utilisées pour tester des publicités, analyser l’attention d’un public lors d’une conférence ou mesurer l’engagement face à une interface.

Mais que fait réellement cette technologie lorsqu’elle « analyse » un visage ? Et jusqu’où peut-on aller lorsqu’on cherche à interpréter des expressions faciales à l’aide de l’intelligence artificielle ?

Qu’est-ce que l’« emotion AI » ?

L’emotion AI désigne un ensemble de méthodes informatiques qui consistent à analyser des expressions faciales afin d’en extraire des informations sur les réactions émotionnelles probables d’une personne.

Dans la pratique, ces systèmes captent les mouvements du visage : ouverture de la bouche, haussement des sourcils, plissement des yeux, dynamique des expressions dans le temps. L’objectif n’est pas de savoir ce qu’une personne ressent au fond d’elle-même, mais d’associer ces indices faciaux à certaines réactions comme l’intérêt, la surprise ou le désengagement. Les résultats prennent la forme de scores ou de catégories, qui indiquent la probabilité qu’une expression corresponde à un état donné.

Cette approche s’inscrit dans une longue tradition de recherche sur les expressions faciales, bien antérieure à l’intelligence artificielle. Dès les années 1970, des travaux fondateurs en psychologie ont proposé des méthodes systématiques pour décrire et coder les mouvements du visage, reposant sur des observations humaines expertes.

Ce que l’emotion AI apporte, c’est la capacité à automatiser l’analyse, à grande échelle et en temps quasi réel de ces signaux, que les chercheurs et praticiens étudient depuis longtemps de manière manuelle ou semi-automatisée. Cette automatisation s’est développée à partir des années 2000 avec l’essor de la vision par ordinateur, puis s’est accélérée avec les méthodes d’apprentissage automatique et d’apprentissage profond.

Comment ça marche ?

Les systèmes actuels analysent des flux vidéo image par image, à des fréquences comparables à celles de la vidéo standard. Selon la complexité des modèles et le matériel utilisé, l’estimation des réactions faciales peut être produite avec une latence de l’ordre de la centaine de millisecondes, ce qui permet par exemple d’adapter dynamiquement le contenu affiché sur une borne interactive.

Le logiciel détecte d’abord un visage à l’écran, puis suit les changements de son expression d’une image à l’autre. À partir de ces informations, le système calcule des descripteurs faciaux, puis les compare à des modèles appris à partir de bases de données d’expressions faciales annotées, c’est-à-dire des ensembles d’images ou de vidéos de visages pour lesquelles des experts humains ont préalablement identifié et étiqueté les mouvements ou expressions observés.

infographie
Un système automatisé d’analyse des émotions faciales déduit des probabilités que la personne observée soit neutre, heureuse, surprise, en colère, etc. Charlotte de Sainte Maresville, à l’aide d’IA génératives (Canva, pPixlr et ChatGPT), Fourni par l'auteur

En effet, lors de la phase d’apprentissage du modèle d’IA, le système a appris à associer certaines configurations faciales à des catégories ou à des scores correspondant à des réactions données. Lorsqu’il est ensuite appliqué à un nouveau visage, il ne fait que mesurer des similarités statistiques avec les données sur lesquelles il a été entraîné.

Concrètement, lorsqu’un système indique qu’un visage exprime une émotion donnée, il ne fait que dire ceci : « cette configuration faciale ressemble, statistiquement, à d’autres configurations associées à cet état dans les données d’entraînement » (on parle d’inférence probabiliste).

Ces méthodes ont aujourd’hui atteint un niveau de performance suffisant pour certains usages bien définis – par exemple lors de tests utilisateurs, d’études marketing ou dans certaines interfaces interactives, où les conditions d’observation peuvent être partiellement maîtrisées.

Quelles sont les limites techniques ?

Néanmoins, cette fiabilité reste très variable selon les contextes d’application et les objectifs poursuivis. Les performances sont en effet meilleures lorsque le visage est bien visible, avec un bon éclairage, peu de mouvements et sans éléments masquant les traits, comme des masques ou des lunettes à monture épaisse. En revanche, lorsque ces systèmes sont déployés en conditions réelles et non contrôlées, leurs résultats doivent être interprétés avec davantage d’incertitude.

Les limites de l’emotion AI tiennent d’abord à la nature même des expressions faciales. Une expression ne correspond pas toujours à une émotion unique : un sourire peut signaler la joie, la politesse, l’ironie ou l’inconfort. Le contexte joue un rôle essentiel dans l’interprétation.

infographie
Les expressions faciales ne sont pas toujours univoques. Charlotte de Sainte Maresville, à l’aide d’IA génératives (Canva, Pixlr et ChatGPT), Fourni par l'auteur

Les performances des systèmes dépendent également des données utilisées pour les entraîner. Les bases de données d’entraînement peu diversifiées peuvent conduire entre autres à des erreurs ou à des biais. Par exemple, si la base de données est principalement composée d’images de femmes de moins de 30 ans de type caucasien, le système aura du mal à interpréter correctement des mouvements faciaux d’individus de plus de 65 ans et de type asiatique.

Enfin, il ne faut pas se limiter aux seules expressions faciales, qui ne constituent qu’un canal parmi d’autres de l’expression émotionnelle. Elles fournissent des informations précieuses, mais partielles. Les systèmes d’emotion AI sont donc surtout pertinents lorsqu’ils sont utilisés en complément d’autres sources d’information, comme des indices vocaux, comportementaux ou déclaratifs. Cette approche ne remet pas en cause l’automatisation, mais en précise la portée : l’emotion AI automatise l’analyse de certains signaux observables, sans prétendre à une interprétation exhaustive des émotions.

Des risques à ne pas ignorer

Utilisée sans cadre clair, l’emotion AI peut alimenter des usages problématiques, notamment lorsqu’elle est intégrée à des dispositifs d’influence commerciale ou de surveillance.

Dans le domaine commercial, ces technologies sont par exemple envisagées pour ajuster en temps réel des messages publicitaires ou des interfaces en fonction des réactions faciales supposées des consommateurs. Ce type de personnalisation émotionnelle soulève des questions de manipulation, en particulier lorsque les personnes concernées ne sont pas pleinement informées de l’analyse de leurs réactions.


À lire aussi : Quand l’IA nous manipule : comment réguler les pratiques qui malmènent notre libre arbitre ?


Les risques sont également importants dans les contextes de surveillance, notamment lorsque l’analyse automatisée des expressions faciales est utilisée pour inférer des états mentaux ou des intentions dans des espaces publics, des environnements professionnels ou des contextes sécuritaires. De tels usages reposent sur des inférences incertaines et peuvent conduire à des interprétations erronées, voire discriminatoires.

Ces risques sont aujourd’hui largement documentés par la recherche scientifique, ainsi que par plusieurs institutions publiques et autorités de régulation. À l’échelle internationale, ces réflexions ont notamment conduit à l’adoption de recommandations éthiques, comme celles portées par l’Unesco, qui ne sont toutefois pas juridiquement contraignantes et visent surtout à orienter les pratiques et les politiques publiques.

En revanche, en Europe, le règlement sur l’IA interdit ou restreint fortement les usages de l’analyse émotionnelle automatisée lorsqu’ils visent à surveiller, classer ou évaluer des personnes dans des contextes grand public, notamment dans les espaces publics, au travail ou à l’école.

Ces technologies ne peuvent pas être utilisées pour inférer des états mentaux ou guider des décisions ayant un impact sur les individus, en raison du caractère incertain et potentiellement discriminatoire de ces inférences. En France, la mise en œuvre de ce cadre s’appuie notamment sur l’action de la Commission nationale de l’informatique et des libertés (Cnil), chargée de veiller au respect des droits fondamentaux dans le déploiement de ces technologies.

Ces débats rappellent un point essentiel : les expressions faciales ne parlent jamais d’elles-mêmes. Leur analyse repose sur des inférences incertaines, qui exigent à la fois des modèles théoriques solides, une interprétation critique des résultats et un cadre d’usage clairement défini.

Les enjeux éthiques et réglementaires ne sont donc pas extérieurs aux questions scientifiques et techniques, mais en constituent un prolongement direct. C’est précisément dans cette articulation entre compréhension fine des expressions, limites des modèles et conditions d’usage responsables que se joue l’avenir de l’emotion AI.

The Conversation

Charlotte De Sainte Maresville a reçu des financements de ANR dans le cadre d'une convention CIFRE.

Christine PETR a reçu des financements de ANR dans le cadre d'une CIFRE.

17.02.2026 à 17:13

L’essor des patients partenaires dans les soins de santé

Michel Goldman, Président de l'institut I3h, Université Libre de Bruxelles (ULB)
Serge Goldman, Professor emeritus, Université Libre de Bruxelles (ULB)
Depuis plusieurs années, la relation médecins-malades évolue. Impliqués dans les choix de traitements, voire dans la recherche biomédicale, certains patients deviennent de véritables «&nbsp;partenaires&nbsp;».
Texte intégral (1984 mots)

L’exercice de la médecine connaît de profonds bouleversements, liés non seulement aux progrès spectaculaires des sciences et des technologies de la santé, mais aussi à des changements radicaux dans les relations entre les médecins et leurs patients. L’essor du concept de « patient partenaire », qui se traduit notamment par une plus grande implication des malades dans les décisions en lien avec les traitements, illustre cette reconfiguration.


Le temps où le médecin exerçait son pouvoir sans partage est révolu. Cette relation paternaliste cède du terrain face à une approche dans laquelle le patient devient acteur de sa santé, en partenariat avec l’équipe soignante.

De multiples initiatives qui intègrent les patients dans des activités liées aux soins de santé se sont ainsi développées de par le monde : la plateforme internationale Patient Engagement Synapse en a dénombré plus de 1 000. Le Canada et la Suisse sont à l’avant-garde dans ce domaine, avec des programmes mis en place depuis depuis plusieurs années au sein d’institutions hospitalières. Voyons de quoi il retourne.

Devenir acteur de son traitement

L’Université de Montréal a été pionnière dans la mise en place de cette nouvelle relation entre patients et médecins, dont les bénéfices sont aujourd’hui bien documentés.

Ce changement de perspective favorise l’engagement volontaire et actif du patient dans sa prise en charge et la rigueur avec laquelle il suit son traitement médical. La réticence qui peut survenir quand on « subit » un traitement se transforme en engouement quand on en devient l’acteur.

Mieux encore, investi d’un rôle actif, le malade contribue aux décisions le concernant ; il exprime ses préférences après avoir été dûment informé des avantages et des inconvénients des choix de traitement qui s’offrent à lui. Il participe au suivi de son affection et guide ainsi les adaptations thérapeutiques nécessaires.

Ce nouveau paradigme est particulièrement important dans les affections chroniques. En effet, il implique le patient dans la prise en charge à long terme de sa pathologie. Elle est facilitée par les nouvelles technologies numériques, qui permettent aux patients de suivre des paramètres essentiels de leur santé. La mesure de la glycémie par glucométrie et de différentes données vitales par montre connectée en sont les premiers exemples.

Bien entendu, l’approche participative nécessite un niveau minimal de connaissances du patient sur les maladies et leurs traitements ; on regroupe ces connaissances sous le terme de « littératie en santé ».


À lire aussi : Près d’un Français sur deux peine à comprendre et à utiliser les informations de santé


Pour qu’elle ne soit pas réservée à une élite intellectuelle, les bases de la littératie en santé devraient être abordées dans les programmes scolaires. Il s’agit notamment de faire prendre conscience, dès l’école primaire, des facteurs essentiels qui gouvernent la santé (la nutrition, l’exercice physique, l’hygiène…) et d’expliquer le rôle des microbes, des prédispositions génétiques et de l’environnement dans le déclenchement des maladies.

En outre, on rêverait que les réseaux sociaux régulièrement consultés par les patients y contribuent, mais beaucoup d’entre eux véhiculent malheureusement des informations erronées qui mettent à mal la relation de confiance entre le malade et son médecin. Il est donc important que chacun soit formé à s’orienter vers des sources scientifiquement validées, et à détecter celles qui sont problématiques.

Impliquer des « patients ressources » et former les soignants

L’approche participative peut aussi être facilitée par des « patients ressources » qui accompagnent les patients atteints de la même affection qu’eux. En partageant leurs expériences et leurs connaissances, ces personnes permettent aux malades de dialoguer plus sereinement avec l’équipe soignante.

Certains de ces patients ressources ont suivi une formation diplômante, et en font même leur nouvelle profession. On parle alors de « pair aidants ».

Par ailleurs, les membres de l’équipe soignante, à commencer par les médecins, doivent eux-mêmes être formés au dialogue participatif, car celui-ci requiert des compétences pédagogiques spécifiques.

Il s’agit en effet d’aller au-delà des échanges habituels avec le patient et de prêter une attention particulière aux préférences qu’il exprime.

Des patients qui jouent un rôle dans les soins et la recherche

Parallèlement à cette évolution de la relation médecin-malade, les patients sont invités à exprimer leurs avis sur de multiples aspects des soins de santé. Ils se retrouvent ainsi dans nombre de comités mis en place notamment par les autorités de santé, les hôpitaux, et les industriels du médicament et des dispositifs médicaux.

Ce sont habituellement les associations de patients qui désignent les patients qui les y représentent. C’est ainsi que s’est forgé le concept de « patient partenaire ». Cette dénomination est préférable à celle de « patient expert » comme l’a souligné l’Académie nationale de médecine de France dans son excellent rapport sur le sujet.

Longtemps confinés dans un rôle passif de sujets d’expérience, les patients tendent aussi à devenir partenaires à part entière de la recherche médicale. Ils sont de plus en plus impliqués dans la conception des essais cliniques où ils sont particulièrement utiles pour définir des critères d’efficacité pertinents (notamment en ce qui concerne les critères liés à la qualité de vie).

Ils aident aussi au respect des règles éthiques, en particulier pour le consentement éclairé préalable à l’enrôlement dans les études cliniques. Ils sont particulièrement actifs dans le développement de nouveaux traitements pour les maladies rares comme les maladies neuromusculaires d’origine génétique, domaine dans lequel l’AFM-Téléthon a joué un rôle déterminant. Rappelons aussi que ce sont des associations de patients qui ont accéléré le développement des traitements contre le VIH.

Il arrive aussi que des patients ou leurs parents prennent l’initiative de fonder eux-mêmes une organisation dédiée à la recherche. C’est le cas de deux organisations qui contribuent remarquablement à la recherche sur les cancers pédiatriques, Imagine for Margo en France et KickCancer en Belgique.

Parfois, les patients participent eux-mêmes activement aux recherches. C’est le cas de Sharon Terry, mère d’enfants atteints de pseudoxanthome élastique, qui a contribué à l’identification du gène causal. Un des derniers exemples frappants est celui de Romain Alderweireldt et Ludivine Verboogen, parents d’un enfant atteint du syndrome de Marfan, qui sont à l’origine de la Fondation 101 Génomes.

Grâce à leurs lectures approfondies et leurs participations à des réunions scientifiques, ils ont acquis de réelles compétences en génétique qui leur ont permis de suggérer de nouvelles recherches pour éclairer le rôle des gènes modificateurs dans les différentes formes cliniques du syndrome.

Parallèlement à cet investissement, ils ont facilité le recrutement de nombreux patients pour ces recherches et mis à profit leur formation de juriste pour développer un système original de protection des données personnelles des patients qui acceptent que leur génome soit utilisé à des fins de recherche.

Des limites dont il faut avoir conscience

Si l’inclusion de patients dans la prise de décisions les concernant au premier chef est sans aucun doute souhaitable et source de progrès, elle comporte différents pièges qu’il convient d’éviter.

Certes, le vécu et le ressenti du patient lui permettent d’apporter un témoignage essentiel sur sa maladie. Cependant, cette expérience très personnelle, au plus près de la réalité clinique, ne doit pas masquer l’importance d’une vision globale de la maladie, telle qu’elle apparaît à travers le suivi contrôlé de larges populations de patients.

Par ailleurs, l’influence grandissante des associations de patients sur les décisions politiques qui les concernent incite l’industrie pharmaceutique à agir à travers les prises de position de ces associations. Les entreprises apportent fréquemment à ces associations un soutien financier par lequel elles tentent d’attester que le patient est au centre de leurs préoccupations.

Ce soutien s’avère aussi, et c’est plus grave, une source possible de biais dans la manière dont les patients exposent leur point de vue face aux autorités de santé. La mission de « patient partenaire » ne s’improvise pas, et devrait donc faire l’objet d’une formation adéquate.

Quelles formations pour les patients partenaires ?

Les patients souhaitant s’engager dans une voie ou l’autre de partenariat sont de plus en plus nombreux et différentes formations leur sont proposées. Plusieurs institutions académiques ont développé des programmes d’enseignement dédiés, au premier rang desquels figure l’Université des patient·es en Sorbonne, qui propose des formations académiques diplômantes.

Cette initiative a été suivie par d’autres, telle que l’Union francophone des patients partenaires (UFPP) et l’Académie européenne des patients (EUPATI-European Patient’s Academy on Therapeutic Innovation).

Elles ont un rôle essentiel à jouer pour que les partenariats évoqués dans cet article rencontrent leur objectif majeur, à savoir améliorer la qualité des soins en intégrant l’expérience des patients à tous les niveaux des soins de santé.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

17.02.2026 à 17:12

Midterms 2026 : le logement, talon d’Achille de Trump

Élisa Chelle, Professeure des universités en science politique, Université Paris Nanterre
Loyers en surchauffe, prêts inaccessibles, chantiers fragilisés&nbsp;: la crise du logement s’invite au cœur des Midterms 2026. Les mesures de Trump sur les droits de douane et l’immigration pourraient se retourner contre lui.
Texte intégral (2320 mots)

La crise du logement aux États-Unis – il en manque 4 millions actuellement – a été aggravée par la politique de Donald Trump, en 2025. L’expulsion massive de migrants prive le secteur du bâtiment d’une main-d’œuvre indispensable, et les décisions erratiques en matière de droits de douane ainsi que les tensions avec l’Union européenne font planer une incertitude au long cours sur l’économie du pays, ce qui incite les investisseurs à la prudence. Ce dossier pourrait jouer un rôle central dans les élections de mi-mandat de novembre prochain, d’autant que plusieurs États supposés acquis aux républicains sont particulièrement touchés.


Une réforme « agressive » du logement : c’est ce qu’a promis Donald Trump pour 2026. Depuis la pandémie de Covid-19, les États-Unis traversent en effet une crise du logement sans précédent. Il s’agit d’un enjeu électoral majeur à l’approche des élections de mi-mandat du mois de novembre prochain. Trump avait bâti une partie de sa campagne de 2024 sur la promesse de résoudre cette « crise de l’accessibilité » (affordability crisis). En 2025, il manquait 4 millions de logements à l’échelle du pays.

Un an après le retour à la Maison-Blanche du « président du peuple », les politiques mises en œuvre révèlent les profondes tensions entre objectifs économiques, impératifs sécuritaires et contraintes géopolitiques. Le logement n’est plus seulement une question sociale : il est devenu un terrain d’affrontement entre protectionnisme commercial, rivalités internationales et équilibres budgétaires.

Une crise locative qui frappe les grandes villes, les jeunes… et les républicains

Entre 2021 et début 2023, les loyers aux États-Unis ont explosé, avec un pic à + 16 % au cœur de la crise pandémique. Ils sont, depuis, revenus à une inflation ordinaire, autour de 4 %. Les prix n’ont pas baissé pour autant. Ils ne font qu’augmenter moins rapidement. Résultat : les loyers n’ont jamais été aussi chers.

Tous les Américains ne sont pas affectés de la même manière. Les habitants des petits logements (studios, deux-pièces) subissent une hausse supérieure à la moyenne. Les jeunes se mettent en ménage de plus en plus tard, préférant le domicile parental ou la colocation pour faire des économies.

Paradoxe : les États « rouges » sont ceux qui sont le plus… dans le rouge. Le Montana et l’Idaho, deux bastions républicains du nord-ouest, ont connu des hausses de loyers de respectivement 20,7 % et 20,3 % en 2024 et 2025, soit plus de quatre fois la moyenne nationale, qui s’élève à 4,8 %. L’ironie ? Cette explosion est notamment due aux Californiens (souvent des démocrates) qui fuient un coût de la vie devenu exorbitant pour emménager dans ces zones moins tendues.

D’autres États plutôt conservateurs, comme la Virginie, le Tennessee ou l’Utah, figurent parmi les plus concernés. Pour les résidents, cela représente jusqu’à plusieurs centaines de dollars supplémentaires sur leur quittance de loyer. Ces hausses dépassent les 30 % dans les grandes villes.

Droits de douane et chasse aux migrants : un secteur de la construction au ralenti

Plusieurs facteurs freinent la construction de nouveaux logements. L’imposition de taxes douanières de 25 % sur l’acier et l’aluminium, ainsi que sur le bois d’œuvre canadiens se répercute sur le coût des projets résidentiels. La dévaluation du dollar est, de plus, défavorable aux importations. Le prix des matériaux augmente en moyenne de 7 %, ce qui représente plusieurs milliers de dollars par maison.

Les tensions géopolitiques mondiales perturbent la logistique internationale, déjà complexe et fragilisée par la période du Covid. Les équipements de chantier mettent plus de temps à être acheminés. Les calendriers de livraison sont perturbés. Les promoteurs, et par conséquent les acheteurs, doivent payer plus pour obtenir moins.

Parallèlement, les politiques migratoires restrictives de l’administration Trump ont réduit la main-d’œuvre disponible dans le secteur du bâtiment, qui souffrait déjà d’un déficit d’ouvriers qualifiés. Selon un sondage réalisé par une organisation professionnelle du secteur, environ 1 entreprise sur 10 et 1 sous-traitant sur 5 auraient perdu du personnel à la suite des raids, ou des menaces de raids, de la police de l’immigration (Immigration and Customs Enforcement, ICE). Les retards sur les chantiers sont en partie dus à cette pénurie de main-d’œuvre. Et ce, malgré une politique de recrutement volontariste des employeurs qui ont doublé les augmentations de salaire par rapport à la moyenne nationale (+ 8 %).


À lire aussi : Tout comprendre à l’ICE, la police de l’immigration au cœur des polémiques aux États-Unis


L’administration Trump affirme que les expulsions massives de migrants ont contribué à faire baisser les prix de l’immobilier dans certaines villes. Selon la Maison-Blanche, les prix médians affichés ont baissé d’une année sur l’autre de 7,3 % à Austin (Texas), de 6,7 % à San Diego (Californie) et de 4,3 % à Miami (Floride). Le président attribue ces baisses à la réduction de la population immigrée clandestine dans les grandes villes. Pourtant, ce sont des États républicains, comme le Texas ou la Floride, qui demeurent disproportionnellement atteints par les hausses des loyers, par rapport aux terres démocrates de Californie ou du New Jersey.

Le moindre nombre de logements disponibles maintient les prix de l’immobilier (achat ou location) à un niveau élevé. Et la tendance est appelée à se poursuivre en 2026.

Les menaces sur le Groenland pourraient coûter cher aux acheteurs américains

La volatilité des droits de douane – avec les exemptions et reports à répétition – place les investisseurs dans une position attentiste. L’immobilier américain reste, certes, perçu comme un actif relativement sûr par comparaison avec d’autres régions du monde plus instables, comme l’Europe de l’Est ou le Moyen-Orient. Mais le style trumpien prive les détenteurs de capitaux de la prévisibilité essentielle à leurs calculs.

La rhétorique expansionniste au sujet du Groenland a des conséquences sur l’économie réelle américaine. Le 20 janvier 2026, lorsque Donald Trump brandit la menace de nouveaux tarifs douaniers contre l’Europe dans le cadre de ses ambitions d’acquisition du territoire autonome danois, les marchés financiers réagissent immédiatement. Le taux d’intérêt des prêts immobiliers à trente ans (le plus courant aux États-Unis) a augmenté de 14 points de base, passant par exemple de 6,50 % à 6,64 %. Cette hausse apparemment minime rend pourtant l’achat d’une maison plus coûteux : pour un prêt de 400 000 dollars (environ 337 700 euros), cela représente environ 40 dollars (33,7 euros) de plus à payer chaque mois, soit près de 14 400 dollars (plus de 12 000 euros) supplémentaires sur la durée totale du prêt.

Pourquoi cette réaction ? Les analystes de la Deutsche Bank ont rappelé un fait crucial : les pays européens (Allemagne, France, Royaume-Uni…) détiennent ensemble plus de 8 000 milliards de dollars (soit 6 750 milliards d’euros) d’actifs américains, dont une part importante en bons du Trésor. Ces bons du Trésor sont des prêts que les États étrangers accordent aux États-Unis. Si l’Europe décidait de vendre massivement ces bons en représailles aux menaces de Trump, cela ferait grimper les taux d’intérêt américains dans tous les domaines, y compris pour les prêts immobiliers.


À lire aussi : Donald Trump et le Groenland, quand géopolitique et économie s’entremêlent


En d’autres termes, une dispute géopolitique sur le Groenland peut directement affecter le portefeuille des Américains qui souhaitent devenir propriétaires, illustrant le degré d’interdépendance entre politique étrangère et marché immobilier. C’est le facteur qui peut in fine freiner Donald Trump : la protestation dans les urnes des acquéreurs mécontents.

Loger la génération Z sans ruiner les boomers : une équation sans solution ?

Acheter une maison est la composante de base du « rêve américain ». Une accélération de la construction de nouveaux logements pourrait théoriquement permettre à plus d’Américains de le réaliser. En plus des obstacles pratiques déjà évoqués, cette augmentation poserait un inconvénient majeur : diminuer mécaniquement la valeur des biens immobiliers par la hausse de l’offre. Or la résidence principale est la première source de richesses des ménages. Si son prix diminue, c’est un manque à gagner pour tous les propriétaires actuels, de la génération des « boomers » pour la plupart. Aucune majorité n’a intérêt à se les mettre à dos.

Dans le même temps, l’âge médian du premier achat immobilier a atteint un record de 40 ans en 2025, contre 33 ans en 2020 et 29 ans en 1981. La part des primo-accédants est tombée à un niveau historiquement bas de 21 %. C’est un recul du niveau de vie pour plusieurs générations d’Américains. Cette évolution reflète les obstacles croissants à l’entrée sur le marché immobilier et contribue à retarder d’autres étapes importantes de la vie des jeunes adultes.

La solution proposée par l’administration Trump est de tirer vers le bas les intérêts d’emprunt tout en maintenant, voire en augmentant, la valeur des biens immobiliers. Les acquéreurs sont soutenus par deux principales mesures. Un décret du 20 janvier 2026 interdit aux investisseurs l’acquisition de maisons individuelles destinées à la location. L’État fédéral a par ailleurs acquis des titres hypothécaires en masse, ce qui a pour effet de diminuer les taux d’intérêt par une augmentation artificielle de la demande.

Mais, les budgets publics étant contraints, le président a ordonné en janvier 2026 à Fannie Mae et Freddie Mac – les deux agences hypothécaires sauvées par l’État fédéral lors de la crise financière de 2007-2008 – d’acheter pour 200 milliards de dollars de titres adossés à des créances hypothécaires. C’est une intervention très forte dans les mécanismes de marché. L’État se substitue à la Réserve fédérale (Fed), pour des effets encore incertains.

Un référendum sur le pouvoir d’achat

Un an et demi après son retour triomphal à la Maison-Blanche, Donald Trump s’apprête à affronter un test électoral crucial : les élections de mi-mandat de novembre 2026. Le logement pourrait bien devenir le talon d’Achille des Républicains. Les bastions conservateurs du Montana, de l’Idaho, du Tennessee et du Texas – ces États « rouges » où les prix du logement ont explosé –risquent de sanctionner une administration qui a promis l’accessibilité mais n’a pu contenir l’inflation immobilière.

Le risque politique est majeur. Si Trump s’aliène les jeunes générations qui ne peuvent plus acheter une résidence principale et entrent plus tard dans l’emploi du fait des transformations de l’IA, celles-ci pourraient bouder les urnes, ou préférer le camp d’en face. Les démocrates l’ont bien compris après l’élection de Zohran Mamdani à New York, mais surtout avec les deux victoires dans le New Jersey et la Virginie.

Dans les quelques États clés où se joueront les majorités au Congrès, le logement abordable est devenu leur principal argument de campagne. Si les taux d’intérêt et les loyers continuent leur ascension, novembre 2026 pourrait marquer un tournant. La géopolitique trumpiste – avec sa politique commerciale erratique et ses menaces sur l’Europe – aura alors produit son effet le plus inattendu : transformer la crise du logement en crise politique, et faire de l’immobilier le champ de bataille décisif des Midterms.


Élisa Chelle est l’auteure de La Démocratie à l’épreuve du populisme. Les leçons du trumpisme, (Odile Jacob, 2025).

The Conversation

Elisa Chelle a reçu des financements de l'Institut universitaire de France.

17.02.2026 à 17:10

Avoir un impact positif sur son lieu de vacances : quel avenir pour le tourisme « régénératif » ?

Élodie Manthé, Maître de Conférences en Sciences de gestion, Université Savoie Mont Blanc
À travers le monde, des destinations réinventent l’art du voyage en exigeant des visiteurs qu’ils s’engagent dans une relation de respect et de réciprocité.
Texte intégral (1842 mots)
Le lagon dit de la Voie lactée, dans l’archipel de Palau, en Micronésie. Wikimédia, CC BY

Le rêve d’un tourisme 100 % durable se heurte à une réalité plus complexe. Selon le baromètre 2026 de Skift, société d’information sur les voyages et le tourisme basée à New York, l’industrie traverse une phase de désillusion : entre inflation, priorités politiques fluctuantes et réticence des consommateurs à payer plus, les belles promesses écologiques cèdent souvent la place à une gestion de crise pragmatique. Il existe pourtant des initiatives qui permettent de garder espoir.


Dans un article récent, je m’intéresse aux travaux de l’anthropologue Marcel Mauss dans son Essai sur le don de 1925, une œuvre majeure qui éclaire la dimension sociale et symbolique des échanges et qui nous permet d’ouvrir une troisième voie pour résoudre ce dilemme. Selon cette analyse, le tourisme moderne – qui traverse une phase de désillusion – doit dépasser les solutions purement transactionnelles pour s’ancrer dans une dynamique plus humaine et équilibrée. En s’appuyant sur deux exemples extrêmes d’échange étudiés par Mauss – le potlatch et le kula –, l’article propose un outil précieux pour décrypter les excès du tourisme contemporain.

Donner, recevoir et rendre

Le potlatch, pratiqué sur la côte nord-ouest de l’Amérique et décrit au XIXᵉ siècle, consiste à accumuler des biens pour les détruire ou les distribuer de manière ostentatoire, affichant ainsi pouvoir et prestige. C’est le miroir des dérives du tourisme actuel : une surconsommation d’expériences uniques, luxueuses et « instagrammables », où l’accumulation de souvenirs spectaculaires sert de marqueur social. À l’inverse, le kula, rituel d’échange symbolique entre les îles Trobriand, incarne un modèle régénératif. Les objets circulent selon des règles précises, créant des liens durables entre les communautés.

Pour Mauss, la relation de long terme entre communautés est maintenue grâce aux dons qui circulent entre elles au cours du temps, selon un principe immuable : il faut toujours donner, recevoir, et rendre. Ces rituels reposent sur l’idée que le don est un contrat moral qui engage celui qui reçoit à rendre, non par obligation, mais par reconnaissance.

Et si nous appliquions cette philosophie au voyage ? Pour un tourisme vraiment régénératif, il faudrait s’inspirer du kula : privilégier des échanges équilibrés, où les voyageurs ne se contentent pas de consommer, mais s’engagent à respecter les lieux, valoriser les cultures et contribuer au bien-être des territoires visités. Le voyage devient alors un rituel d’échange, bien au-delà d’une simple transaction. En assumant une « dette morale », c’est-à-dire ce que l’on doit à la communauté qui nous accueille, on pose les bases d’une relation authentique et durable.

En somme, l’éthique du voyage de demain se mesure moins à ce que l’on paie qu’à ce que l’on rend. Cette idée peut sembler décalée, voire utopique, dans une société occidentale où le tourisme se réduit souvent à une transaction : on paie, on consomme, on part. Pourtant, à travers le monde, des destinations réinventent l’art du voyage en exigeant des visiteurs qu’ils s’engagent dans une relation de respect et de réciprocité. Ces initiatives, loin d’être anecdotiques, dessinent les contours d’un tourisme plus conscient, où l’hospitalité n’est plus un dû, mais un échange.

Des serments pour voyager autrement

En 2017, l’archipel de Palau, en Micronésie, a lancé une initiative pionnière : le Palau Pledge. Chaque visiteur doit signer, à son arrivée, une déclaration solennelle s’engageant à respecter et préserver l’environnement et la culture locale.

Ce « passeport moral » va au-delà des mots : il s’accompagne d’actions concrètes, comme une vidéo de sensibilisation diffusée à bord des vols vers Palau. Les enfants locaux ont même participé à sa création, renforçant son ancrage communautaire. Résultat ? Palau protège aujourd’hui 80 % de ses eaux grâce à un sanctuaire marin, tout en intégrant la conservation dans son système éducatif.

Autre exemple, inspiré du terme maori tiaki (« protéger »), la charte Tiaki Promise qui invite les voyageurs visitant la Nouvelle-Zélande à adopter des comportements responsables : minimiser leur empreinte écologique, ne laisser aucune trace et aborder la culture locale avec respect. Le serment est clair  :

« Je protégerai la terre, la mer et la nature, et je traiterai la culture locale avec un esprit et un cœur ouvert. »

Citons encore l’Aloha Pledge de Kauai, inspirée d’une philosophie hawaïenne millénaire : « He Aliʻi Ka ʻĀina ; He Kauwā ke Kanaka » (« La terre est chef, l’humain est son serviteur »). Les voyageurs s’engagent à respecter la culture, les écosystèmes et les ressources naturelles, en évitant par exemple les crèmes solaires toxiques pour les coraux ou en ne prélevant ni fleurs ni roches.

L’Islande et la Finlande ont également adopté des serments similaires. Le premier, accompagné de capsules vidéo éducatives, encourage les touristes à adopter des comportements écoresponsables pour préserver les paysages islandais. Le second, porté par Visit Finland, vise à faire du pays la première destination touristique durable au monde, en intégrant le respect de l’environnement et des communautés locales.

Un changement de paradigme : le voyage comme échange, non comme consommation

Ces initiatives partagent un point commun : elles replacent l’hospitalité au cœur du voyage. Qu’il s’agisse de garder « le cœur et l’esprit ouverts » en Nouvelle-Zélande, d’interagir « avec bienveillance » à Hawaï, ou de « rester responsable » en Finlande, chaque serment reflète les valeurs profondes de la société qui l’a créé.

Loin d’être de simples effets de mode, ces engagements marquent une volonté de transformer l’état d’esprit des voyageurs. Ils rappellent que voyager, c’est entrer dans un cercle de réciprocité : on reçoit l’hospitalité comme un cadeau, et on s’engage à le rendre, ne serait-ce qu’en respectant la terre et ceux qui nous accueillent. C’est finalement une réponse concrète à l’appel du géographe français Rémy Knafou de « réinventer (vraiment) le tourisme ».

De manière très opérationnelle, Copenhague, la « capitale du cool », a transformé l’engagement écologique et social en une expérience touristique désirable. Avec son programme CopenPay, la ville danoise propose aux voyageurs de prolonger leur séjour pour participer à des actions citoyennes, en échange de récompenses locales. L’idée ? Remplacer le tourisme de consommation par un tourisme de contribution, où chaque visiteur devient acteur de la ville.

Pour s’adapter à tous les profils, Copenhague a imaginé des activités courtes et accessibles, assorties de contreparties immédiates :

  • ramasser des déchets (trente à soixante minutes) avec l’ONG Drop in the Ocean pour obtenir un bon de réduction de 50 % dans des hôtels du centre-ville ;

  • jardiner en ville, les jeudis, dans une ferme urbaine, en échange d’un café et d’une discussion avec les bénévoles ;

  • aider à la production de fraises en introduisant des insectes auxiliaires (une heure) pour gagner un jus de fraises frais.

Contrairement à d’autres initiatives où la responsabilité sociale reste abstraite, CopenPay mise sur l’immersion et la rencontre. Les récompenses (visites guidées, réductions, accès à des lieux insolites) ne sont pas qu’un bonus : elles transforment les touristes en contributeurs, leur offrant une expérience authentique, proche de celle des locaux.

Cette approche répond à une quête croissante d’authenticité, sans tomber dans la théâtralisation. Les actions sont utiles, courtes et peu contraignantes, mais surtout, elles créent du lien social. Comme le soulignent les recherches récentes, c’est la dimension relationnelle qui rend ces expériences mémorables et souhaitables.

On peut toutefois se demander si le tourisme durable ne représente pas non pas une rupture mais une intégration progressive des principes du développement durable dans les activités touristiques existantes. Il semble que les destinations qui s’en emparent sont déjà matures et plutôt attirantes pour une clientèle privilégiée qui évite le tourisme de masse.

Bien sûr, chaque acteur du secteur – hébergeurs, voyagistes, guides, ou même collectivités – peut adopter les principes énoncés en adaptant ses pratiques et en enrichissant son offre avec des critères responsables. D’où l’importance que des acteurs touristiques gérant d’importants flux touristiques (paquebots, centres de vacances, tour opérateurs, etc.) s’en emparent, même à petite échelle, pour avoir un impact plus conséquent, au-delà d’un marché de niche de voyageurs en quête de bien faire.

The Conversation

Élodie Manthé ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.02.2026 à 17:10

Des États-Unis ébranlés par leur offensive de « domination énergétique » ?

Patrice Geoffron, Professeur d'Economie, Université Paris Dauphine – PSL
Quelle est la cohérence de la politique énergétique menée par Donald Trump&nbsp;? Pourra-t-il durablement favoriser les grands industriels tout en promettant une baisse des prix aux consommateurs&nbsp;? Rien n’est moins sûr.
Texte intégral (2343 mots)

Cela pourrait bien être la quadrature du cercle énergétique : peut-on à la fois être une puissance mondiale exportatrice et promettre à ses électeurs de baisser le prix de l’énergie ? Si on ajoute le frein mis sur les renouvelables, on se retrouve dans la situation des États-Unis de Donald Trump. Les promesses et les actions contradictoires ne touchent pas de la même façon tous les États. Si les gagnants se frottent les mains, les perdants se rebelleront-ils ? Et, dans ce cas, comment dit-on « gilet jaune » du côté du Dakota ?


Un an s’est écoulé depuis que Donald Trump a prêté serment pour son second mandat. Sa campagne de 2024 s’était construite sur la promesse du « retour de l’abondance ». L’un des engagements était de diviser par deux les factures énergétiques des Américains en douze à dix-huit mois, en « libérant » les hydrocarbures des réglementations de l’administration Biden. Un an après, le bilan d’étape de cette politique énergétique révèle un contraste saisissant entre promesses et réalités.

L’exploitation massive des énergies fossiles a effectivement battu des records, faisant des États-Unis le premier producteur et exportateur mondial de pétrole et de gaz. Mais cette « domination énergétique » se construit aux dépens des ménages et des entreprises américaines, qui font face à des coûts en nette hausse, à rebours des espoirs suscités. Analyse d’un piège économique qui se referme sur la base électorale du président républicain et résonne mal avec les promesses de l’America First.

Le retour de l’inflation

Le 20 janvier 2025, jour de son investiture, le nouveau président signait une déclaration d’« urgence énergétique nationale ». Ce texte a activé des leviers d’exception, notamment pour contourner les études d’impact environnemental. L’offensive s’est poursuivie avec le One Big Beautiful Bill Act, promulgué en juillet 2025, qui a enclenché le démantèlement de l’Inflation Reduction Act (IRA), ciblant les subventions à l’éolien et au solaire.


À lire aussi : États-Unis : les promesses de Trump d’un âge d’or (noir) sont-elles tenables ?


L’idée maîtresse de ces trumponomics était que la suppression de ces subventions, couplée à une dérégulation massive, permettrait de baisser le prix des « vraies énergies », c’est-à-dire les fossiles. Pourtant, le ruissellement de cette abondance vers les ménages s’est brisé sur deux écueils : l’intégration mondiale des marchés et la révolution de l’IA.

Les chiffres de l’inflation publiés par le Bureau of Labor Statistics pour l’année 2025 dessinent un tableau problématique. Une baisse est certes enregistrée sur les carburants liquides (- 7,5 % sur 12 mois), mais sans rapport avec ce qui avait été promis (passer de 3 à 2 $, entre 2,54 et 1,69 €, le gallon, soit une baisse d’un tiers). L’administration Trump ne manque évidemment pas de mettre en scène la baisse (même timide) de cet indicateur qui s’affiche en lettres néon au bord des routes. Mais, dans l’intimité des foyers, l’inflation énergétique est douloureusement ressentie. Sur la même période, l’électricité a augmenté de 6,3 % et le gaz naturel de 9,8 %.

Les États républicains en première ligne

L’organisation Public Citizen estime que, sur les neuf premiers mois de 2025, les consommateurs américains ont payé 12 milliards de dollars (plus de 10 milliards d’euros) de plus pour leur gaz par rapport à 2024. Ce choc frappe de plein fouet les États du Nord et du Midwest, souvent des bastions électoraux clés pour les républicains, où l’hiver 2025-2026 est particulièrement rude.

Ces tensions sont d’autant plus aiguës que la Maison-Blanche a également rendu plus difficile l’accès des Américains aux aides, avec la suppression de crédits d’impôt pour les améliorations énergétiques des logements visant à réduire les coûts. Elle a également restreint le programme d’aide énergétique aux ménages à faibles revenus (LIHEAP), qui soutenait chaque année 6 millions de familles américaines pour le paiement de leurs factures. Le programme a survécu, mais il a été considérablement entravé après que l’administration avait licencié l’ensemble du personnel du LIHEAP, dès le début du mandat.

L’importation de la volatilité mondiale

La politique d’exportation produit des effets mécaniques, à rebours des promesses présidentielles de baisse des factures énergétiques. Sous l’administration précédente, un moratoire et des contraintes logistiques limitaient les exportations de gaz naturel liquéfié (GNL). Donald Trump, en levant tous les freins à l’exportation dès janvier 2025 et en inaugurant de nouveaux terminaux sur la côte du Golfe du Mexique, a contribué au bond des exportations de près de 25 % en un an. Mais, cela a une conséquence : le prix du gaz américain ne dépend plus seulement de facteurs locaux, mais de la demande à Paris, Berlin ou à Shanghai.

En voulant faire des États-Unis la « superpuissance énergétique », l’administration a importé la volatilité mondiale sur le sol américain. Et le pire est à venir, car si l’Energy Information Administration (EIA) prévoit une pause en 2026, les prix de gros du gaz pourraient croître de… 33 % en 2027 (avec la mise en service de nouvelles infrastructures d’exportation).

Ce dilemme révèle l’impossibilité à maximiser la rente d’exportation des producteurs et tout en protégeant les consommateurs locaux d’une hausse de prix. Entre les profits de l’industrie gazière (soutiens majeurs du Parti républicain) et le pouvoir d’achat des ménages, la politique a tranché en faveur des premiers, créant une tension interne au sein même de la coalition trumpiste, entre les « globalistes » de l’énergie et les « localistes » du pouvoir d’achat.

Voracité électrique des data centers

Le prix de l’électricité est à la fois tiré vers le haut par celui du gaz et par les besoins de l’IA, qui a cessé d’être virtuelle pour devenir un problème d’infrastructure physique lourde. Les data centers nécessaires pour faire tourner les modèles de langage et le cloud computing sont devenus de nouveaux ogres énergétiques, de sorte que la demande électrique de ce secteur est en train de doubler, voire de tripler dans certaines régions. Et le réseau électrique américain, déjà vieillissant, sature par endroits. La loi de l’offre et de la demande joue à plein face à une capacité de production qui peine à suivre et des goulets d’étranglement dans les lignes à haute tension, de sorte que les prix de gros s’envolent. Selon l’EIA, la moyenne des prix de gros régionaux a augmenté de 23 % en 2025, progression qui pourrait se poursuivre à hauteur de 8 % en 2026.

La responsabilité de l’administration Trump est, a minima, engagée par omission. En supprimant les incitations aux énergies renouvelables, elle a réduit le déploiement de nouvelles capacités rapides à installer (solaire, éolien, batteries). Et le One Big Beautiful Bill Act a créé un attentisme chez les investisseurs verts, alors même que la demande explosait. Pour combler le trou, le réseau s’est tourné vers les solutions de dernier recours, souvent les plus chères à opérer dans un contexte de prix du gaz croissant.

Le retour du charbon

Face à la pénurie, les États-Unis ont également réactivé leur assurance-vie du XXe siècle : la production électrique charbonnière a augmenté de 13 % en 2025, une première après des années de déclin. Des centrales thermiques qui devaient fermer ont été prolongées par décrets. Si cela a permis d’éviter des black-out majeurs, ce choix a un coût, car le charbon n’est plus l’énergie « bon marché » d’antan. Extraire, transporter et brûler du charbon dans des centrales en fin de vie, coûte cher, surtout comparé au coût marginal nul du solaire. D. Trump, habile à orchestrer les symboles, a même obligé le Pentagone à signer un contrat d’approvisionnement en électricité produite au charbon. Sans surprises, ce retour du charbon a fait repartir les émissions de CO₂ à la hausse (+ 2,4 % en 2025).

Autre contradiction : la promesse de réindustrialisation reposait sur un avantage compétitif majeur : une énergie abondante et à prix cassé par rapport à l’Europe ou l’Asie. Or, cet avantage s’érode avec un gaz plus cher et une électricité volatile, les secteurs électro-intensifs (acier, aluminium, pétrochimie, engrais) voient leurs atouts érodés, d’autant que les droits de douane rehaussent le coût de certaines matières premières importées. L’incertitude réglementaire créée par l’abolition de l’IRA réduit, en outre, la capacité des industriels à signer des contrats d’achat d’énergie verte à long terme, qui leur offrent une visibilité sur quinze ou vingt ans.

Des gagnants et des perdants

Cette crise énergétique ne frappe pas les États-Unis de manière uniforme. Une géographie des tensions sur les prix émerge, débouchant sur des tensions politiques régionales. Les États du Sud-Est (comme la Floride ou la Géorgie), très dépendants du gaz naturel pour leur électricité et historiquement réticents aux renouvelables, subissent les hausses les plus fortes. À l’inverse, des États comme l’Iowa ou le Kansas, qui ont massivement investi dans l’éolien au cours de la décennie précédente, ou la Californie avec vaste parc solaire, amortissent mieux le choc. Bien que l’électricité californienne reste chère dans l’absolu, ses prix ont tendance à se stabiliser voire à baisser légèrement grâce à la pénétration massive des renouvelables, à rebours de la tendance nationale.

France 24, 2026.

Cette disparité met à mal le récit national unifié de D.Trump. Les gouverneurs républicains des États producteurs (Texas, Louisiane) se félicitent du boom économique local lié aux exportations. Simultanément, les élus du même parti dans les États consommateurs doivent répondre à la colère de leurs électeurs, confrontés aux factures qui flambent.

Vers une « gilet-jaunisation » états-unienne ?

À l’orée de 2026, l’administration Trump se trouve face à une impasse stratégique. Le pari de la baisse des prix par la seule production fossile a échoué car il a ignoré le levier de la demande (sobriété et efficacité énergétique) et la réalité des marchés internationaux. Politiquement, le danger est réel, car l’inflation énergétique nourrit un sentiment de déclassement et d’injustice. Tyson Slocum, directeur du programme énergie de l’organisation Public Citizen, résume la situation :

« La priorité donnée par Trump aux exportations de GNL est directement en contradiction avec les efforts pour rendre l’énergie abordable. Les coûts énergétiques des ménages ont grimpé trois fois plus vite que l’inflation générale. »

Même si le pouvoir cherche à reporter la responsabilité sur les responsables démocrates, le slogan « Drill, baby, drill » risque de virer au « Pay, baby, pay »…

Pour sortir du piège, Donald Trump devra peut-être commettre l’impensable pour son camp : admettre que dans un monde globalisé et numérisé, l’indépendance énergétique et les prix bas ne passent plus seulement par des puits de pétrole et de gaz, mais aussi par la maîtrise de la demande, la modernisation des réseaux et, ironiquement, ces énergies renouvelables qu’il met toute son énergie à démanteler.

Sous pression, le pouvoir trumpiste pourrait également décider de réduire les volumes d’exportation de gaz, notamment vers l’Europe qui en est la principale destination, revenant aux racines de l’America First. Motivation essentielle de l’effort de décarbonation dans l’Union européenne (UE), pour réduire ces menaces sur la sécurité d’approvisionnement, et sortir de la zone de domination énergétique américaine.

The Conversation

Patrice Geoffron est membre fondateur de l'Alliance pour la Décarbonation de la Route. Il siège dans différents conseils scientifiques: CEA, CRE, Engie.

17.02.2026 à 17:09

Empathie, créativité : lire des histoires aux enfants améliore leurs compétences sociales

Erin Clabough, Associate Professor of Psychology, University of Virginia
Lire à voix haute le soir ne prépare pas seulement les enfants à dormir : en deux semaines, une étude montre des progrès mesurables en empathie et en créativité chez les 6-8 ans.
Texte intégral (1901 mots)
Après deux semaines de lecture quotidienne à voix haute, les chercheurs ont observé une amélioration significative de l’empathie cognitive et l’empathie globale. Marina Demidiuk/Shutterstock

Quatorze soirées de lecture suffisent à améliorer la capacité des enfants à se mettre à la place des autres et à imaginer des solutions originales.


En 2024, 51 % des familles faisaient la lecture à voix haute à leurs très jeunes enfants et 37 % à leurs enfants âgés de 6 à 8 ans.

Certains parents expliquent qu’ils cessent de lire à voix haute à leurs enfants en primaire parce que ces derniers savent désormais lire seuls.

Je suis neuroscientifique et mère de quatre enfants, et je me suis demandé si, avec cet arrêt, les enfants ne perdaient pas davantage que le simple plaisir d’écouter une histoire lue à voix haute. Je me suis notamment interrogée sur les effets possibles sur leur empathie et leur créativité.

Une piste simple issue des travaux scientifiques

J’ai étudié et écrit sur l’empathie et la créativité dans le cadre de ma démarche personnelle pour mieux comprendre comment être une bonne mère. J’ai constaté que ce ne sont pas des talents innés que l’on possède – ou non – à la naissance. Ce sont des compétences qui se développent avec la pratique, tout comme l’apprentissage du piano.

Or, à l’école primaire, mes enfants n’étaient formés ni à l’empathie ni à la créativité. Et les données montrent que l’empathie des jeunes et que leur créativité ont peut-être reculé au cours des dernières décennies.

L’empathie ne se résume pas à la gentillesse. C’est une véritable force qui aide les enfants à anticiper les comportements et à évoluer en sécurité dans des situations sociales complexes. Elle les rend plus aptes à décoder les expressions du visage et les signaux émotionnels.

Quant à la créativité, elle est essentielle pour l’autocontrôle et la résolution de problèmes. Il est bien plus facile de réguler son comportement lorsque l’on peut imaginer plusieurs solutions à une difficulté, plutôt que de se focaliser, par exemple, sur la seule chose qu’il est interdit de faire.

Il y a une dizaine d’années, j’ai commencé à modifier certaines habitudes à la maison pour m’assurer que mes enfants acquièrent ces compétences. Consacrer quinze minutes le soir était parfois le seul moment en tête-à-tête que j’avais avec chacun d’eux, avec des couchers échelonnés à 19 h 30, 19 h 45, 20 heures et 20 h 15. C’était un moment précieux pour moi. Je me suis demandé si utiliser les conflits exposés dans ces histoires du soir comme supports pédagogiques pouvait les aider à développer davantage d’empathie et stimuler leur créativité.

En 2016, j’ai écrit que mes enfants semblaient devenir plus empathiques lorsque nous faisions des pauses au fil de la lecture pour poser des questions comme : « À ton avis, que ressent ce personnage ? » ou « Toi, qu’est-ce que tu ferais ? » Mais cette expérience n’avait jamais été testée à plus grande échelle.

Tester l’hypothèse

À partir de 2017, quatre collègues et moi avons recruté 38 familles dans le centre de la Virginie ayant des enfants âgés de 6 à 8 ans, un âge où les enfants apprennent à gérer leurs relations sociales et connaissent un développement cérébral intense. Tous les enfants de notre étude étaient des lecteurs débutants relativement autonomes ou savaient lire seuls. Dans le cadre de l’étude, les adultes lisaient un album chaque soir pendant deux semaines.

J’ai sélectionné sept livres illustrés : The Tooth Fairy Wars, Library Lion, Cui-Cui, Stuck with the Blooz, Cub’s Big World, Nugget and Fang et A New Friend for Marmalade. Ces livres n’avaient rien de particulier, sinon qu’ils comportaient tous une forme de conflit social – et qu’ils avaient l’approbation de mes enfants.

Ces livres mettaient en scène, entre autres personnages, un ourson polaire séparé de sa mère dans la neige, ou encore un garçon qui cachait ses dents à la petite souris.

La moitié des familles lisaient chaque livre d’une traite, sans interruption. L’autre moitié marquait une pause à un moment clé du conflit pour poser deux questions de réflexion. Par exemple, lorsque la petite souris emportait la dent que Nathan voulait désespérément garder, les parents demandaient : « Comment te sentirais-tu si tu étais Nathan ? » Si l’enfant répondait, les parents se contentaient d’écouter. Sinon, ils attendaient trente secondes avant de poursuivre la lecture.

Avant et après les deux semaines d’expérimentation, nous avons évalué la capacité des enfants à comprendre ce que les autres pouvaient penser et ressentir.

Nous avons également mesuré leur créativité à l’aide de l’« alternative uses task », un exercice qui leur demandait de produire des idées originales – par exemple imaginer des usages inhabituels d’un trombone ou citer un maximum d’objets munis de roues.

Un gain d’empathie dans les deux cas

Après seulement 14 soirées de lecture, nous avons constaté – comme le montre notre étude publiée en 2026 – que les enfants dont les parents faisaient des pauses pour poser des questions comprenaient mieux le point de vue des autres. Mais c’était aussi le cas de ceux dont les parents lisaient simplement l’histoire d’une traite.

Nous avons observé une amélioration significative de ce que les chercheurs appellent l’empathie cognitive et l’empathie globale dans les deux groupes, entre la première évaluation des enfants et la visite de suivi réalisée deux semaines après le début des lectures quotidiennes.

Cela tient peut-être au fait qu’il est plus facile de développer rapidement l’empathie cognitive – c’est-à-dire la capacité à se mettre à la place d’autrui – que l’empathie émotionnelle, qui consiste à ressentir ce que l’autre ressent. L’empathie émotionnelle mobilise d’autres régions du cerveau et nécessite probablement davantage de temps pour modifier des schémas émotionnels profondément ancrés.

Une stimulation de la créativité

Après deux semaines de lectures au coucher, les enfants des deux groupes ont progressé en pensée créative. Nous avons utilisé un test standard de créativité qui mesure à la fois le nombre et l’originalité des réponses lorsque l’on demande aux enfants d’imaginer des usages d’objets du quotidien. Par exemple, à propos d’une brique, une réponse courante serait « construire un mur », tandis qu’une réponse plus originale consisterait à « la réduire en poudre pour fabriquer une craie rouge ».

Et les enfants dont les parents faisaient des pauses pour poser des questions ont produit un nombre d’idées nettement plus élevé au total. Leurs réponses m’ont enchantée : ils ont proposé d’utiliser un trombone comme fil dans une horloge électrique fabriquée avec une pomme de terre, pour aider à enfiler les chaussures d’une poupée, ou simplement pour entendre le bruit qu’il fait en tombant par terre.

Nous avons aussi constaté que les plus jeunes formulaient des idées plus originales que les plus âgés. Cela rejoint d’autres travaux suggérant que la créativité peut s’estomper à mesure que les enfants grandissent et privilégient le fait de se conformer aux autres plutôt que de penser différemment.

Ce qu’il reste à explorer

Notre étude présente des limites : nous ne disposions pas d’un groupe témoin qui n’aurait pas lu du tout. Par ailleurs, la majorité des familles avaient des revenus élevés, 92 % d’entre elles gagnant plus de 50 000 dollars (plus de 42 000 euros) par an.

De futures recherches pourraient combler cette lacune et examiner si les bénéfices observés se maintiennent au-delà de deux semaines – et s’ils se traduisent par davantage de bienveillance dans la vie quotidienne.

Point important : nous n’avons constaté aucune différence entre les sexes. Cette pratique fonctionne aussi bien chez les garçons que chez les filles. Et même si la plupart des familles déclaraient déjà lire régulièrement à leurs enfants, cette approche a malgré tout permis de renforcer leur empathie et leur créativité.

Les histoires du soir ne sont pas qu’un rituel

En tant que neuroscientifique, je sais que les années d’école primaire constituent une période particulièrement décisive, marquée par une intense formation de nouvelles connexions cérébrales. Ces quinze minutes de lecture ne servent pas seulement à préparer les enfants au sommeil ou à leur apprendre à déchiffrer des mots. Elles contribuent à construire des circuits neuronaux liés à la compréhension des autres et à la capacité d’imaginer des possibles. À force de répétition, ces connexions se renforcent, comme lorsqu’on s’exerce au piano.

Dans un monde conçu pour attirer les familles vers les écrans, la lecture du soir reste un refuge où parent et enfant partagent le même espace imaginaire. Bonne nouvelle pour les parents : nul besoin de méthode particulière. Il suffit de lire.

The Conversation

Erin Clabough est associée à Neuro Pty Ltd.

17.02.2026 à 17:08

Quand la Coupe d’Afrique des nations réactive les tensions au sein de l’Afrique

Jean-Loup Amselle, Anthropologue et ethnologue, directeur d'études émérite à l'EHESS, chercheur à l'Institut des mondes africains (IRD-CNRS-Panthéon Sorbonne-Aix-Marseille-EHESS-EPHE), Institut de recherche pour le développement (IRD)
La finale Maroc‑Sénégal a mis en évidence le caractère largement artificiel de l’image d’une Afrique unie, où clichés méprisants et racisme appartiendraient au passé.
Texte intégral (2233 mots)

La finale Maroc‑Sénégal a tourné au chaos. La suite des événements a vu une large mobilisation des imaginaires opposant Afrique du Nord « blanche » et Afrique subsaharienne « noire ».


Dans un article rédigé à l’époque des faits, j’avais tenté de montrer que le refus du footballeur du PSG et de l’équipe du Sénégal Idrissa Gana Gueye de porter le maillot LGBTQIA+ lors de la Journée mondiale de lutte contre l’homophobie en mai 2022 avait cristallisé les tensions entre les milieux footballistiques français et sénégalais, et au-delà, entre une partie des opinions publiques de ces deux pays, au point de faire apparaître cette affaire comme l’expression d’un antagonisme foncier entre la culture sénégalaise et la culture française.

Le scénario de la crise survenue lors de la finale de la Coupe d’Afrique des nations (CAN) qui s’est déroulée au stade Moulay-Abdellah de Rabat au Maroc le 18 janvier 2026 est en principe différent puisqu’elle met aux prises deux pays africains – même si, on le verra, le fantôme de l’ancienne puissance coloniale conserve un certain rôle en arrière-plan.

Rappelons tout d’abord le cadre général de cette finale dont la victoire était en quelque sorte programmée pour revenir au pays hôte, le Maroc. En effet, Rabat a dépensé des sommes considérables pour accueillir cet événement, ce qui a provoqué une éruption populaire de jeunes qui auraient préféré voir les crédits affectés à l’organisation de la compétition aller à des équipements scolaires ou à des hôpitaux.

Le tournoi a vu s’affronter de multiples équipes africaines, mais ce qui retient l’attention sur le plan symbolique, perspective choisie ici, ce sont les matchs qui ont opposé des équipes du nord et du sud de l’Afrique, autrement dit du Maghreb et de l’Afrique subsaharienne.

« La Société archaïque », un ouvrage de référence et une grille de lecture pour la finale

Des tensions avaient déjà été observées dès avant la finale : les Algériens étaient sortis furieux contre l’arbitre sénégalais après leur quart de finale perdu contre le Nigeria, l’accusant de partialité et ajoutant que l’un de ses assistants aurait tenu des propos racistes à leur égard ; durant la demi-finale entre le Maroc et le Nigeria, le gardien nigérian avait vu des ramasseurs de balles locaux voler sa serviette – un épisode qui annonçait l’épisode de la serviette du gardien sénégalais durant la finale que des remplaçants marocains allaient chercher à subtiliser.

C’est bien cette finale entre le Maroc et le Sénégal qui a cristallisé le plus de sanctions, et l’on voudrait ici replacer ce match dans un cadre anthropologique emprunté à Lewis H. Morgan, l’un des pères fondateurs de cette discipline.

Dans la Société archaïque (1877), Morgan retrace l’évolution de l’histoire de l’humanité en définissant trois stades successifs : d’abord la sauvagerie, puis la barbarie (entendue comme une phase intermédiaire, où commencent à naître des structures relativement complexes) et enfin la civilisation. Ce paradigme temporel peut être transformé en un syntagme géographique s’appliquant au climat dans lequel s’est déroulée la finale de cette compétition.

Mais commençons par un bref rappel des faits. Dans le temps additionnel de la rencontre, à la 92ᵉ minute, alors que le score est toujours de 0-0, un but est refusé – à tort ou à raison – au Sénégal par l’arbitre Jean-Jacques Ndala (République démocratique du Congo), suscitant l’incompréhension des Lions de la Teranga. Quelques instants plus tard, deuxième moment de tension, bien plus intense, celui-là : à la toute dernière minute du temps additionnel, toujours à 0-0, l’arbitre accorde un pénalty au Maroc. Cette décision – tout aussi discutable que le but sénégalais annulé quelques instants plus tôt – provoque, cette fois, une véritable fureur de l’équipe sénégalaise. Suivant son entraîneur Pape Thiaw, elle quitte alors le terrain et ouvre véritablement la crise, puisque ce départ contrevient à la réglementation du football et fait donc peser le risque de lourdes sanctions à l’encontre de la sélection.

Un seul joueur sénégalais, le capitaine Sadio Mané, reste sur le terrain et, après avoir pris conseil auprès de l’entraîneur français Claude Le Roy, 78 ans, qui a exercé en Afrique pendant des décennies, obtient le retour de ses coéquipiers sur la pelouse. Le match reprend après un gros quart d’heure d’interruption.

L’attaquant marocain Brahim Diaz peut enfin tirer le pénalty qui a entraîné l’incident… et le manque. Le match se poursuit donc avec des prolongations, et le Sénégal finit par remporter la rencontre et donc la compétition.

Résumé de la finale (Bein Sports). La séquence polémique décrite ci-dessus commence à 11’47.

Dans la présentation des choses souvent faite au Maroc à la suite de cette soirée traumatisante pour le pays hôte, l’équipe du Sénégal, par son comportement sans précédent consistant à quitter massivement le terrain, ainsi que par l’explosion de colère de ses supporters, a représenté le premier des stades défini par Morgan, celui de la « sauvagerie » ; le capitaine sénégalais Sadio Mané, par sa volonté constructive de ramener « ses » joueurs vers le terrain, a représenté le second, celui de la « barbarie », étape intermédiaire vers la « civilisation » qui, elle, incombe au Maroc, aussi bien en sa qualité d’équipe nationale stoïque durant les turbulences de la fin de match et, au-delà, de pays organisateur d’une CAN vouée à devenir un modèle pour l’ensemble du continent.

Derrière cette vision est réactivée la division coloniale entre une Afrique du Nord « blanche », perception relevant plutôt de l’orientalisme, et une Afrique subsaharienne « noire », davantage interprétable dans le cadre de l’ethnographie.

Mais à cette triangulation, il faut ajouter un quatrième élément : celui de l’ombre de l’ancienne puissance coloniale représentée par celui qui a entraîné de nombreuses équipes de football africaines, Claude Le Roy, véritable parrain de la résolution partielle de la crise intervenue sur le terrain.

Accusations réciproques

Le résultat de la finale provoque une sorte de déflagration non seulement entre le Maroc et le Sénégal, mais également au sein de l’Afrique tout entière. « Chaos », « fiasco », entre autres, sont les qualificatifs donnés à ce match par les journalistes tandis que les commentaires vont bon train dans toute l’Afrique et notamment au Maghreb. C’est que le football, dans ce cas comme dans d’autres, est le révélateur de tensions entre pays et entre portions du continent africain.

En dépit des sommes considérables dépensées par le Maroc, les Sénégalais se sont plaints d’avoir été mal hébergés, d’avoir été obligés de s’entraîner sur des terrains ne leur convenant pas, de ne pas avoir bénéficié d’un service de sécurité efficace, etc. Bref, d’avoir été traités avec condescendance.

Plus grave, le défenseur sénégalais Ismaël Jakobs a affirmé que le forfait quelques heures avant la finale de trois de ses coéquipiers avait été dû à un empoisonnement. En outre, les Sénégalais ont accusé l’arbitre de partialité puisqu’il leur a refusé un but et accordé un pénalty aux Marocains ; et ils se sont émus du vol de la serviette de leur gardien de but.

Parallèlement, certains spectateurs maghrébins se sont moqués de supposées tentatives sénégalaises de peser sur l’issue du match en ayant recours à des pratiques magiques issues de traditions animistes, tandis qu’eux-mêmes n’avaient d’autre repère religieux que le Coran. On retrouve ainsi une opposition tranchée entre magie africaine subsaharienne et religion maghrébine, et donc une nouvelle fois entre « sauvagerie » et « civilisation ».

La victoire des nationalismes

En définitive, à une certaine rancœur envers un hégémonisme attribué au Maroc a correspondu un certain mépris à l’égard du Sénégal, voire un racisme déclaré comme en témoignent, entre autres exemples, les propos d’une enseignante de l’Université internationale de Casablanca qui a qualifié les Sénégalais d’« esclaves ».

À l’issue de cette compétition, l’image de l’unité de l’Afrique a donc une nouvelle fois été profondément fragilisée — de même que, dans une certaine mesure, les ambitions dominatrices du Maroc sur le sud du continent. Mais cela n’a pas concerné seulement l’opposition entre un Nord « blanc » et un Sud « noir » puisqu’à cette occasion a aussi été révélé le fossé entre le Maroc et le reste du Maghreb : une partie des opinions tunisienne et algérienne ont « joué » de façon fantasmatique la défaite de l’équipe marocaine et, à travers cette défaite l’affaiblissement du royaume chérifien, accusé non seulement de refuser l’indépendance au Sahara occidental (projet soutenu par l’Algérie et la Tunisie), mais aussi d’entretenir des liens étroits avec Israël. À travers les fantasmes africains qui se sont déployés autour de la CAN, ce sont donc aussi la tragédie de Gaza et la double articulation du Maghreb tiraillé entre l’Afrique subsaharienne et le Moyen-Orient qui se sont invitées dans la compétition.

En définitive, si à l’occasion de la finale de cette compétition le Maroc a fait preuve d’un hégémonisme contrarié comme en témoigne le fait que le frère du roi Moulay Rachid ait refusé de remettre la coupe au capitaine de l’équipe du Sénégal Sadio Mané, ce dernier pays n’est pas en reste pour affirmer sa supériorité par rapport à ses voisins de l’intérieur du continent – on y observe souvent la manifestation d’un sentiment de supériorité intellectuelle par rapport au Mali, au Burkina Faso, ou encore au Niger, dont les habitants sont considérés comme des « ploucs » plus ou moins animistes ou moins islamisés que les Sénégalais. Les fantasmes de l’Afrique n’opposent pas seulement l’Afrique « blanche » à l’Afrique « noire », mais sont aussi internes à l’Afrique subsaharienne elle-même. Les véritables vainqueurs de cette finale de la CAN 2026 sont en réalité les nationalismes marocain et sénégalais.

The Conversation

Jean-Loup Amselle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.02.2026 à 17:07

Les fusions de communes tiennent-elles leurs promesses  ?

Gabriel Bideau, Géographe, Université Paris Cité
Dix&nbsp;ans après les premiers regroupements, on peut faire un premier bilan de la politique des «&nbsp;communes nouvelles&nbsp;» , poussée par des acteurs étatiques et locaux.
Texte intégral (2403 mots)
L’entrée d’Épinay-le-Comte, membre de la commune nouvelle de Passais-Villages, formée en 2016 de la fusion de trois communes de l’Orne, en Normandie. Gabriel Bideau, Fourni par l'auteur

Les 15 et 22 mars prochains, les Français voteront pour élire leurs conseils municipaux. Certains d’entre eux voteront dans des « communes nouvelles », créées par fusion de plusieurs communes. Dix ans après les premières vagues importantes de regroupements, le recul est suffisant pour proposer un premier bilan de cette politique.


L’idée (discutable) selon laquelle il serait nécessaire de réduire le nombre de communes françaises est ancienne et répétée par plusieurs acteurs : le gouvernement vient d’ailleurs d’accélérer l’examen d’un projet de loi sur ce sujet.

Plusieurs mesures ont été prises ces dernières années pour encourager les communes à se regrouper. Ainsi, le statut de « commune nouvelle » a été créé en 2010, et amendé à plusieurs reprises : il permet le regroupement – certains acteurs répugnent à parler de « fusions » – de plusieurs communes au sein d’une nouvelle entité. Celle-ci détient alors toutes les compétences communales mais a la possibilité de maintenir en son sein une existence légale (bien que largement symbolique) pour les anciennes communes, devenant « communes déléguées ». Des incitations fiscales ont également été instituées depuis 2014.

Aujourd’hui, on compte 844 communes nouvelles, rassemblant 2 724 communes historiques et près de 3 millions d’habitants. Alors que les communes nouvelles créées en 2015 (année de la première vague importante de fusions) ont passé leur première décennie et à l’approche des élections municipales de mars 2026, il est opportun de faire un point d’étape sur ce phénomène, entre autres car il fait l’objet d’un certain nombre d’idées reçues.

Idée reçue n°1 : « Les communes qui fusionnent sont les toutes petites communes rurales »

Verdict : Plutôt faux

La politique de réduction du nombre de communes en France s’appuie sur l’idée qu’il y aurait trop de communes de toute petite taille. Il est vrai que les communes françaises sont moins peuplées que les entités comparables dans d’autres pays, et qu’elles sont plus nombreuses.

Cependant, le raisonnement selon lequel il faudrait réduire le nombre de communes pour que, en fusionnant, elles arrivent à rassembler chacune une « masse critique » en termes de population est pour le moins débattu. Les différentes études portant sur une éventuelle « taille optimale » ont bien du mal à l’identifier : il n’existe pas de seuil démographique au-delà duquel une commune serait plus efficace qu’en dessous.

En partant néanmoins du principe, débattu donc, que les toutes petites communes poseraient problème pour l’efficacité de l’action publique, les fusions permettent-elles de résoudre cette difficulté ? Globalement, non.

Les toutes petites communes (moins de 200 habitants) sont plutôt sous-représentées dans les communes fusionnantes par rapport à la proportion qu’elles représentent dans l’ensemble des communes françaises. Les communes qui fusionnent ont en effet une population médiane (404 habitants) proche de celle des autres communes (426 habitants).

Au final, la proportion de communes de moins de 200 habitants est passée, depuis 2012, de 25,9 % à 25,4 %. Si l’objectif premier de la politique des communes nouvelles était de réduire drastiquement le nombre de très petites communes, on peut dire selon l’adage que, faute d’être un échec, « ça n’a pas marché ».

Les très petites communes ne sont pas surreprésentées parmi les communes fusionnantes

Un graphique montrant la proportion de communes fusionnantes comparée à la proportion des communes inchangées, par tranches de population
Ce graphique illustre la proportion de communes fusionnantes (en rouge) comparée à la proportion de communes inchangées (en bleu), par tranche de population. On peut voir qu’il n’y a pas de surreprésentation des petites communes parmi les communes fusionnantes, puisqu’aucune différence significative entre leur proportion parmi les communes fusionnantes et parmi les communes inchangées n’existe. Seule exception : les communes entre 200 et 500 habitants, légèrement surreprésentées parmi les communes fusionnantes (32 %, contre 29 % des communes inchangées). Fourni par l'auteur

Les communes fusionnantes ne sont pas non plus systématiquement rurales. Ainsi, 6,7 % des communes fusionnantes sont dans une agglomération. Cela paraît peu, mais sur l’ensemble des communes françaises les communes situées en agglomération ne représentent que 12,7 %. Les communes nouvelles sont donc un peu plus fréquentes dans les espaces éloignés des pôles urbains, sans toutefois y être limitées.

Idée reçue n°2 : « Les fusions communales permettent de mettre en cohérence les territoires vécus et les territoires administratifs »

Verdict : C’est plus compliqué

François Baroin, qui clôturait en 2017 en tant que président de l’Association des maires de France (AMF) la 3ᵉ rencontre des communes nouvelles, considérait que « ce sont les bassins de vie qui ont créé les conditions de l’avancement de la coopération entre les communes », faisant sans doute référence à l’idée d’un espace au sein duquel les individus se déplacent pour leur travail, leurs loisirs et leurs achats.

Or, les communes nouvelles ne se créent que partiellement en cohérence avec les territoires vécus. Si on s’intéresse aux communes fusionnantes qui appartenaient à une aire urbaine en 2014 (avant la très grande majorité des fusions), 35 % d’entre elles ont fusionné avec d’autres communes n’appartenant pas à la même aire urbaine. Si on s’intéresse spécifiquement aux déplacements domicile-travail, dans 72 % des cas le principal flux sortant de la commune fusionnante ne va pas vers une commune avec laquelle elle fusionne, mais vers une commune tierce. Il y a donc bien persistance d’une différence entre le maillage administratif et les territoires pratiqués et vécus par les habitants.

Idée reçue n°3 : « Les fusions communales permettent de faire des économies d’échelle »

Verdict : Plutôt faux

Des acteurs comme l’AMF mettent en avant l’idée que les fusions permettraient presque automatiquement de réaliser des économies d’échelle, c’est-à-dire de mutualiser des coûts pour faire baisser les dépenses totales. Or, une étude des évolutions budgétaires entre 2011 et 2022 contredit ce présupposé. Ces résultats se retrouvent également dans une étude portant sur les communes créées en 2016, 2017 et 2019. On n’observe pas une diminution des dépenses : bien au contraire, en général celles-ci augmentent nettement dans les années suivant la fusion.

Par exemple, si on regarde spécifiquement l’évolution entre 2011 et 2022 des charges de fonctionnement des communes (c’est-à-dire leurs dépenses hors investissement), le groupe des communes fusionnantes a connu une augmentation plus importante (+31 %) que le groupe des autres communes françaises (+28 %).

Un processus mené par le haut, qui semble favoriser l’abstention

Deux derniers points peuvent être relevés.

Tout d’abord, le passage en commune nouvelle est décidé par les conseils municipaux des communes fusionnantes, qui n’ont pas l’obligation de consulter la population. Fréquemment, les élus ne lui laissent d’ailleurs qu’une place limitée dans la construction des décisions, soit par crainte d’ouvrir une « boîte de Pandore » démocratique poussant à la remise en question systématique des décisions prises, soit par méfiance envers les décisions des populations, perçues comme peu éclairées. Un maire interrogé dans le cadre de mes travaux affirmait ainsi en 2016 : « Les gens vont voter pour quelque chose, mais ils ne savent pas forcément tout à fait les tenants et les aboutissants. Donc […] à mon avis, ce n’est pas la bonne solution. »

Par exemple, concernant le nom de la nouvelle commune, il est fréquent que les administrés soient invités à en proposer, voire à voter pour celui qu’ils préfèrent. En revanche, ce sont les élus qui vont conserver la main sur la décision finale ou sur les modalités de choix (par exemple en décidant des noms qui seront soumis à la consultation), permettant, in fine, d’orienter le vote. Cela pose la question de la place réelle laissée aux populations dans ces formes de participation ou de consultation.

Enfin, on observe aussi une montée de l’abstention dans les communes nouvelles. Ainsi, entre 2014 et 2020, la participation aux élections municipales a diminué de manière bien plus importante dans les communes nouvelles que dans les communes inchangées : le pourcentage de votants par rapport au nombre d’inscrits a baissé de 21 % dans les communes nouvelles entre 2014 et 2020, contre une baisse de 15 % pour les communes inchangées. Certes, la diminution généralisée de la participation s’explique par le contexte pandémique. Mais celui-ci n’a, a priori, pas touché différemment les communes nouvelles, quelle que soit leur taille.

Chaque élément présenté ici ne peut, à lui seul, délégitimer les communes nouvelles. Il est évident que certains projets de fusion font sens et remplissent les objectifs qu’ils se sont fixés, comme la mutualisation de structures ou de personnels, la montée en compétence des équipes communales ou l’aboutissement de décennies de collaborations concernant des services aux populations ou des équipements. Mesurer ces effets bénéfiques est d’ailleurs complexe, et mériterait des analyses encore à conduire.

Il serait toutefois souhaitable que les réflexions sur les communes nouvelles prennent en compte toutes les données en jeu, sans idées préconçues, et que les décisions de regroupement soient prises sur des bases saines. Les fusions sont parfois comparées à des mariages, or ce n’est pas parce qu’on peut observer des couples heureux que tout le monde doit se marier, a fortiori avec n’importe qui !

Il faut en tout cas appeler à ce que les prochaines semaines de campagne à l’échelon municipal, outre les questions programmatiques et partisanes qui ne manqueront pas, soient aussi l’occasion de débattre de ces enjeux liés aux communes nouvelles pour que, dans les communes qui ont fusionné comme dans celles qui pourraient l’envisager, le débat démocratique soit nourri et éclairé.

The Conversation

Gabriel Bideau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.02.2026 à 17:06

La loi de Moore ayant atteint ses limites, que nous réserve l’avenir de l’informatique ?

Domenico Vicinanza, Associate Professor of Intelligent Systems and Data Science, Anglia Ruskin University
Alors que la loi de Moore ne dicte plus le rythme des progrès, les chercheurs explorent des solutions variées&nbsp;: empilement de composants, coprocesseurs spécialisés et technologies quantiques ou photoniques.
Texte intégral (1347 mots)
Pendant près d’un demi-siècle, le nombre de transistors sur une puce a doublé approximativement tous les deux ans. Sax/Shutterstock

Après un demi-siècle de gains réguliers en puissance de calcul, l’informatique entre dans une nouvelle ère. La miniaturisation ne suffit plus : les progrès dépendent désormais de l’architecture, de l’énergie et de logiciels optimisés.


Pendant un demi-siècle, l’informatique a progressé de manière rassurante et prévisible. Les transistors – ces dispositifs qui servent à contrôler le passage des signaux électriques sur une puce informatique – sont devenus de plus en plus petits, ce qui permet d’en amasser davantage sur une seule puce. En conséquence, les puces ont gagné en rapidité, et la société a intégré ces avancées presque sans s’en rendre compte.

Ces puces plus rapides ont offert une puissance de calcul accrue en permettant aux appareils d’exécuter les tâches plus efficacement. On a ainsi vu les simulations scientifiques s’améliorer, les prévisions météorologiques gagner en précision, les images devenir plus réalistes, puis les systèmes d’apprentissage automatique émerger et se développer. Tout se passait comme si la puissance de calcul obéissait à une loi naturelle.

La fin des certitudes

Ce phénomène a pris le nom de loi de Moore, d’après l’homme d’affaires et scientifique Gordon Moore. Elle résumait l’observation empirique selon laquelle le nombre de transistors sur une puce doublait approximativement tous les deux ans. Cela permettait aussi de réduire la taille des appareils et alimentait en conséquence la miniaturisation.

Ce sentiment de certitude et de prévisibilité a désormais disparu, non pas parce que l’innovation se serait arrêtée, mais parce que les hypothèses physiques qui la soutenaient autrefois ne sont plus valables.

Qu’est-ce qui remplace alors l’ancien modèle d’augmentation automatique des performances ? La réponse ne tient pas à une seule avancée technologique, mais à plusieurs stratégies qui se superposent.

De nouvelles approches

L’une d’elles repose sur de nouveaux matériaux et de nouvelles architectures de transistors. Les ingénieurs améliorent encore leur conception afin de limiter les pertes d’énergie et les fuites électriques indésirables. Ces évolutions apportent des gains plus modestes et plus progressifs qu’autrefois, mais elles permettent de mieux maîtriser la consommation énergétique.

Une autre approche consiste à modifier l’organisation physique des puces. Au lieu de disposer tous les composants sur une surface plane unique, les puces modernes empilent de plus en plus les éléments les uns sur les autres ou les rapprochent davantage. Cela réduit la distance que doivent parcourir les données, ce qui permet de gagner à la fois en temps et en énergie.

Le changement le plus important est sans doute la spécialisation. Au lieu de confier toutes les tâches à un unique processeur polyvalent, les systèmes modernes combinent différents types de processeurs. Les unités de traitement traditionnelles, ou CPU, assurent le contrôle et la prise de décision. Les processeurs graphiques sont des unités de calcul très puissantes, conçues à l’origine pour répondre aux exigences du rendu graphique dans les jeux vidéo et d’autres usages. Les accélérateurs d’IA (du matériel spécialisé qui accélère les tâches liées à l’intelligence artificielle) se concentrent sur l’exécution en parallèle d’un très grand nombre de calculs simples. Les performances dépendent désormais de la manière dont ces composants fonctionnent ensemble, plutôt que de la vitesse de chacun pris isolément.

Des technologies expérimentales

Parallèlement à ces évolutions, les chercheurs explorent des technologies plus expérimentales, notamment les processeurs quantiques (qui exploitent les principes de la physique quantique) et les processeurs photoniques, qui utilisent la lumière plutôt que l’électricité.

Il ne s’agit pas d’ordinateurs polyvalents, et ils ont peu de chances de remplacer les machines classiques. Leur intérêt réside dans des domaines très spécifiques, comme certains problèmes d’optimisation ou de simulation, pour lesquels les ordinateurs traditionnels peinent à explorer efficacement un grand nombre de solutions possibles. En pratique, ces technologies doivent être envisagées comme des coprocesseurs spécialisés, utilisés de manière ciblée et en complément des systèmes traditionnels.

Pour la plupart des usages informatiques du quotidien, les progrès des processeurs conventionnels, des systèmes de mémoire et de la conception logicielle resteront bien plus déterminants que ces approches expérimentales.

Pour les utilisateurs, l’ère post-Moore ne signifie pas que les ordinateurs cesseront de s’améliorer. Cela veut juste dire que les progrès se manifesteront de manière plus inégale et plus dépendante des usages. Certaines applications — comme les outils fondés sur l’IA, le diagnostic, la navigation ou la modélisation complexe — pourraient connaître de vraies avancées, tandis que les performances généralistes progresseront plus lentement.

Nouvelles technologies

Lors de la conférence Supercomputing SC25 à Saint-Louis, plusieurs systèmes hybrides associant CPU (processeurs), GPU (processeurs graphiques) et technologies émergentes — comme les processeurs quantiques ou photoniques — ont été présentés comme des prolongements concrets de l’informatique classique. Pour l’immense majorité des usages quotidiens, ce sont toutefois les progrès des processeurs traditionnels, des mémoires et des logiciels qui continueront d’apporter les gains les plus significatifs.

On note un intérêt croissant pour les dispositifs quantiques et photoniques comme coprocesseurs, et non comme remplaçants. Ils sont particulièrement utiles pour des problèmes très spécifiques, comme l’optimisation ou le routage complexes, où les machines classiques seules peinent à trouver des solutions efficaces.

Dans ce rôle d’appoint, ils offrent un moyen crédible d’allier la fiabilité de l’informatique classique à de nouvelles techniques de calcul, élargissant ainsi les capacités des systèmes.

Un nouveau récit

La suite n’est pas une histoire de déclin, mais un processus de transformation et d’évolution permanentes. Les progrès en informatique reposent désormais sur la spécialisation des architectures, une gestion rigoureuse de l’énergie et des logiciels conçus en tenant pleinement compte des contraintes matérielles. Le risque est de confondre complexité et inéluctabilité, ou narratifs marketing et problèmes réellement résolus.

L’ère post-Moore impose une relation plus réaliste avec l’informatique : la performance n’est plus un acquis automatique lié à la miniaturisation des transistors, mais un résultat qu’il faut concevoir, justifier et payer – en énergie, en complexité et en compromis.

The Conversation

Domenico Vicinanza ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.02.2026 à 17:05

Too little, too concentrated: why AI start-up funding in Africa needs rethinking

Claire Zanuso, PhD, économiste du développement, chargée de recherche et d'évaluation / Development economist, research and evaluation officer, Agence Française de Développement (AFD)
In Africa, four countries cover the lion’s share of IA-related investments. But a few other countries on the continent are displaying undeniable potential in the field.
Texte intégral (3386 mots)

One year after the AI Summit in Paris, the international community will meet again this week in New Delhi for the Global Summit on Artificial Intelligence, whose objective will notably be to support the diffusion of AI uses in developing countries. In Africa, AI and Tech investment remains concentrated in the “Big Four” – South Africa, Egypt, Kenya and Nigeria – at the expense of other countries across the continent. This analysis explores the causes of this imbalance and the levers that could be used to better direct capital.


Between 2015 and 2022, investment in African start-ups experienced unprecedented growth: the number of start-ups receiving funding increased more than sevenfold, driven by the expansion of mobile technologies, fintech and a massive inflow of international capital. However, from 2022 onwards, tighter economic conditions led to a “funding squeeze” (a reduction in venture capital investment) that was more severe for African start-ups than in other regions of the world. This trend further reinforced the concentration of capital in the countries with the most developed start-up ecosystems, namely South Africa, Egypt, Kenya and Nigeria.

There is, however, a strong case for ensuring that these investments are more evenly distributed across the continent. Beyond stimulating economic activity, the technological innovations developed by these start-ups represent a significant lever for development, as they offer solutions tailored to local contexts: targeted financial solutions, improved agricultural productivity, strengthened health and education systems, and responses to priority climate challenges, etc.

Trends in equity and debt financing granted to technology start-ups in Africa between 2019 and 2024. Partech, 2024 Africa Tech Venture Capital

Concentration of investment in the Big Four

In the early 2020s, the expression “Big Four” emerged to describe Africa’s main tech markets: South Africa, Egypt, Kenya and Nigeria. The notion, likely inspired by the term Big Tech, suggests the existence of “champion countries” in the technology sector.

In 2024, the Big Four captured 67% of equity tech funding (investments made in exchange for shares in technology companies). In detail, the shares captured by each country were distributed as follows: around 24% for Kenya, 20% for South Africa, and 13.5% each for Egypt and Nigeria.

This funding cluster is not only geographical; it also has a strong sectoral dimension. Capital is largely directed toward sectors perceived as less risky, such as digital finance or “fintech”, often at the expense of areas such as edtech and cleantech – that is, technologies dedicated to education and to environmental solutions, respectively.

An estimated 60%-70% of funds raised in Africa come from international investors, particularly for funding rounds over 10-20 million dollars. These investments, often concentrated in more structured markets, represent the most visible transactions, but also those considered the least risky.

Emerging peripheral ecosystems and potential that remains insufficiently converted into investment

While the Big Four concentrate the majority of investment, several African countries now demonstrate proven potential in AI and a pool of promising start-ups, without capturing investment volumes commensurate with that potential.

Countries such as Ghana, Morocco, Senegal, Tunisia and Rwanda form an emerging group whose members have favourable AI fundamentals but remain underfunded. This gap is all the more striking given that Ghana, Morocco and Tunisia, all of which have dynamic start-up pools, together account for around 17% of African technology companies outside the Big Four. At the same time, local financial structures struggle to meet these funding needs in geographies perceived as peripheral.

This difficulty in attracting investment can be explained in particular by institutional and business ecosystems that still need strengthening, as the performance of technology companies relies on the existence of structured entrepreneurial ecosystems that enable access to knowledge, skilled labour, and support mechanisms (accelerators, incubators and investors).

Finally, it is important to recall that these weaknesses are part of a broader context: in 2020, the entire African continent accounted for only 0.4% of global venture capital flows and currently represents just 2.5% of the global AI market. Emerging countries outside the Big Four are therefore mechanically disadvantaged in a competition that is already highly concentrated.

Distribution of venture capital (equity) investment in African technology start-ups by country. Partech, 2024 Africa Tech Venture Capital

Steering investment to prepare countries for AI

To attract capital toward AI start-ups, a country must itself be ready for AI. The adoption of AI at the national level does not depend solely on technological factors. The AI Investment Potential Index (AIIPI), a research initiative, highlights that this adoption also relies on economic, political and social factors. As a result, increasing a country’s AI potential requires not only strengthening energy and connectivity infrastructure, but also improving governance standards, public sector effectiveness and human capital.

Priority actions vary depending on countries’ level of advancement in AI. In more advanced countries, such as South Africa or Morocco, the challenge is more about supporting research, optimising AI applications and attracting strategic investment. In countries with more moderate scores, priorities tend to focus on strengthening connectivity infrastructure, human capital and regulatory frameworks.

The platform aipotentialindex.org enables, among other things, to visualise the index’s results at a global level and to identify the areas in which countries can invest to increase their AI investment potential (research, government effectiveness, connectivity, human capital, AI strategies, etc.). The AIIPI helps investors not only identify countries that are already advanced in AI, but also those with untapped potential. For public decision-makers and development actors, it provides a framework for prioritising reforms and investment.

Visualisation of AI investment potential in Africa: the darker the colour, the higher the potential. aipotentialindex.org
Country Profile tool applied to Ghana. Ghana shows strong potential for AI investment. Start-ups such as Ghana Liquify, supported by Digital Africa, which facilitates bill payments for SMEs, illustrate the country’s entrepreneurial dynamism. aipotentialindex.org

Sovereign funds and instruments dedicated to new technologies

Once a country’s AI investment strategy has been defined, the question of AI financing instruments arises. At the continental level, several instruments dedicated to technology and AI are emerging. Development finance institutions, such as the African Development Bank or the West African Development Bank, are launching initiatives aimed at supporting the growth of the continent’s digital economy.

At national level, African Sovereign Wealth Funds (SWFs) provide an additional channel to support AI and start-up financing across the continent. These funds, such as the Mohammed VI Fund in Morocco or the Pula Fund in Botswana, mobilise public savings for long-term economic development and work in partnership with development banks.

Partnerships as powerful levers for start-up financing

Financing digital and AI infrastructure alone is not enough to build start-up ecosystems capable of driving economic growth. International public-private partnerships also play a significant role. The Choose Africa 2 initiative, led by AFD and Bpifrance, aims to address financing constraints facing entrepreneurship across the continent, particularly at the earliest stages. Support mechanisms, like Digital Africa, bringing together public actors and local partners enable small-ticket investments in early-stage “Tech for Good” start-ups, whose technologies generate strategic, social and environmental impact.

While these mechanisms are not enough on their own to correct investment imbalances, they can nevertheless help broaden access to financing beyond the ecosystems that are traditionally best resourced.

Central political, strategic and legal leadership

Financial investment alone is not sufficient and must be supported by strong political ambition. Legislative and strategic frameworks put in place at national and continental levels are key structural levers for the growth of digital start-ups in Africa.

On the one hand, strategies led by the African Union, including the Digital Transformation Strategy for Africa, the Continental Artificial Intelligence Strategy and the African Digital Compact, provide roadmaps enabling states to accelerate digital transformation. There are also national-level instruments, such as Tunisia’s “Start-up Act” law or national AI strategies, such as the one published by Ghana, which sets out the country’s ambition to become Africa’s “AI Hub.”

Finally, a major political commitment was made at last April’s Global AI Summit in Kigali, where 52 African countries announced the creation of a 60-billion-dollar African AI Fund combining public, private and philanthropic capital. This initiative illustrates a strategic ambition across the continent: positioning Africa around these emerging technological challenges. However, these AI-focused funds may face governance and financial structuring challenges. There remains a risk that they could reproduce asymmetries already observed in sovereign wealth funds if transparency mechanisms are not put in place. Their impact will, therefore, depend on the establishment of standards and governance tools adapted to emerging technological challenges.

These frameworks create the initial conditions needed for the emergence of local AI solutions and provide a structuring strategic framework. Their impact on investor confidence will, however, depend on how effectively they are aligned with appropriate financing mechanisms and strengthened local capacities.


This article was co-written with Anastesia Taieb, Innovation Officer at AFD, and Emma Pericard, Digital Africa’s representative to the EU.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Claire Zanuso ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.02.2026 à 14:50

Developing lab-grown human cartilage… using apples!

Karim Boumédiene, Professeur de biochimie et biologie moléculaire, ingénierie tissulaire, Université de Caen Normandie
Some medical conditions involve cartilage tissue loss, which is why skin grafting is vital. Lab-grown cartilage could be the way forward for human tissue repair and reducing animal testing.
Texte intégral (1111 mots)
Astonishing but true: apples are one of the latest plant-based materials tissue engineers are experimenting with to create lab-grown human cartilage. Priscilla Du Preez/Unsplash, CC BY

A research lab at the University of Caen Normandy (France) has succeeded in making cartilage using decellularized apples.

The Bioconnect laboratory at the university, which I head, has just published a scientific paper in the Journal of Biological Engineering. In this original study, we used apples that had been “decellularized” (their cells removed) as a material, combined with human stem cells, to rebuild cartilage outside of the body, in laboratory Petri dishes.

The process is called tissue engineering. Its goal is to rebuild human tissue in the laboratory so it can be used at a later date as grafts to repair damaged parts of the body. The idea is to place a patient’s cells onto a supporting material and grow them in the right conditions so they can form tissues such as bone, muscle, or cartilage.

Many diseases and injuries damage or destroy tissues, which then require reconstruction. Among these are degenerative diseases where tissue slowly wither away over time, such as osteoarthritis (cartilage damage) or osteoporosis (bone loss). There is therefore a real need for tissue grafts.

However, finding healthy tissues for transplant is difficult because donors are rare and compatibility is a major issue. Tissue engineering offers an effective solution to this problem. Using the patient’s own cells when possible also avoids the risk of immune rejection.

Apples provide excellent scaffolding

Although scientists can easily grow cells in the lab, these cells do not naturally organise themselves into full and functional tissues. That is why they need a support material. These materials act like scaffolding, giving cells a structure so they can grow in three dimensions and form real tissue.

One approach is to use human tissues or organs that have been decellularized, leaving only their structure. New healthy cells can then be added. However, this method is limited by the lack of available human tissues. For about ten years now, plant-based tissues have also been decellularized and used as supports.

Several studies (including those conducted in our lab), have already explored different materials. But this work is the first in the world to rebuild cartilage using a plant-based support. The idea came from a Canadian study showing that decellularized apples are compatible with mammalian cells 2. Since cartilage is our specialty, we decided to apply this method.

Plant-based materials offer many advantages: they are widely available, very cheap, already shown to be compatible with living organisms, and easy to shape to match the form of the tissue to be repaired. This study is only a first step. More tests are needed, first in animals and then in humans, to understand how these tissues behave over time and how beneficial they are for patients.

Multiple application possibilities

Potential applications include joint cartilage repair (after injury or osteoarthritis), reconstruction of nasal cartilage (after trauma or cancer), and even ear cartilage. Overall, this research opens new possibilities in tissue engineering, both for reconstructive surgery and for reducing animal experimentation. Indeed, lab-grown tissues can also be used to better model disease and test treatments in so-called organoid models, which can reduce or even replace animal testing.

Finally, because plants are incredibly diverse, there is still a wealth of potential to explore. Future research will aim to identify which plants, or which parts of plants, are best suited for rebuilding specific human tissues. Other plants, such as celery, are already being studied.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Karim Boumédiene ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.02.2026 à 12:40

En France, les personnes âgées consomment trop de benzodiazépines, et en méconnaissent les risques

Sylvain Pichetti, Économiste de la santé - directeur de recherche, Institut de recherche et documentation en économie de la santé (Irdes)
Anne Penneau, Maîtresse de recherche, Institut de recherche et documentation en économie de la santé (Irdes)
Marc Perronnin, Maître de conférence, Institut de recherche et documentation en économie de la santé (Irdes)
Que ce soit pour apaiser l’anxiété ou pour mieux dormir, les seniors se voient trop souvent prescrire de benzodiazépines. Or, ces médicaments ne sont pas sans risques.
Texte intégral (2604 mots)

La France est l’un des pays d’Europe où la consommation de benzodiazépines par les personnes âgées reste la plus élevée. Pour mieux dormir ou calmer l’anxiété, nombre d’entre elles s’en voient prescrire pendant des mois, voire des années, souvent sans que la mesure des risques associés à ces médicaments ne soit prise.


En France, la prescription de benzodiazépines chez les personnes âgées est particulièrement élevée par rapport à celle observée dans les autres pays de l’OCDE. Ces médicaments voient pourtant leur efficacité diminuer avec le temps et exposent les seniors à de nombreux effets indésirables : risque accru de chutes et de fractures, troubles de la mémoire et des fonctions cognitives, ou encore dépendance.

Face à ces risques, l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) a lancé en avril 2025 une nouvelle campagne d’information visant à promouvoir le bon usage des benzodiazépines et à réduire leur consommation.

Trois études récentes menées par l’Institut de recherche et documentation en économie de la santé (Irdes) permettent de caractériser l’évolution de la consommation en France au cours des dernières années, d’identifier les situations les plus à risque de prescriptions potentiellement inappropriées et de mieux comprendre les leviers susceptibles de réduire ces prescriptions chez les seniors.

Voici ce qu’il faut en retenir.

Une consommation en baisse, mais toujours élevée en France

En France, la consommation de benzodiazépines chez les personnes âgées diminue, mais reste nettement plus élevée que dans la plupart des pays européens. Nos travaux révèlent qu’en 2022, 13 % des personnes âgées de 65 ans et plus ont reçu au moins une prescription potentiellement inappropriée de benzodiazépines au cours de l’année, soit une baisse de quatre points par rapport à 2012. Cette diminution s’inscrit dans une tendance observée dans l’ensemble des pays européens sur la même période.

Plusieurs politiques publiques ont contribué à cette évolution, notamment le ciblage des prescriptions potentiellement inappropriées de benzodiazépines dans la rémunération sur objectifs de santé publique (depuis 2012), la baisse du remboursement de certaines molécules et la diffusion de recommandations de bonnes pratiques par la Haute Autorité de santé (HAS), en particulier pour les troubles de l’anxiété et du sommeil. La HAS précise par ailleurs qu’en cas de prescription, la planification d’emblée de la stratégie de déprescription s’avère nécessaire afin que le traitement ne dépasse pas trois mois.

Malgré ces efforts, la France reste un pays à forte consommation : les prescriptions potentiellement inappropriées y sont environ deux fois plus fréquentes qu’en Suède et six fois plus qu’au Danemark.

Dans notre pays, la consommation de benzodiazépines varie fortement selon les territoires. Les taux de prescription les plus élevés, autour de 23 %, sont observés dans certaines régions comme la Bretagne, les Hauts-de-France, le Limousin, la Champagne-Ardenne, la Gironde ou le littoral sud, alors que la moyenne des zones de faible prescription s’établit autour de 14 %.

L’analyse des données indique que les bassins de vie dans lesquels les personnes âgées appartiennent plus souvent à la catégorie sociale des employés ou des ouvriers ont des taux standardisés de prescriptions potentiellement inappropriées de benzodiazépines plus importants. En outre, l’offre de soins, accessible dans les bassins de vie, joue aussi un rôle. Une meilleure accessibilité aux médecins généralistes, principaux prescripteurs, est associée à plus de prescriptions potentiellement inappropriées.

Deux types de prescriptions inappropriées chez les personnes âgées

Chez les personnes âgées, deux configurations de prescriptions sont considérées comme potentiellement inappropriées.

La première renvoie à la prescription de benzodiazépines à longue durée d’action. Ces médicaments qui mettent plus de temps à être éliminés par l’organisme sont très fortement déconseillés pour les personnes âgées de 65 ans et plus. En effet, avec l’âge, les fonctions hépatiques et rénales diminuent, ce qui allonge le temps d’élimination des médicaments. En raison de la sédation, de la faiblesse musculaire, de la confusion, les benzodiazépines augmentent le risque de chutes, qui sont une cause majeure de fractures du col du fémur et d’hospitalisation chez les personnes âgées.

La deuxième configuration porte sur la durée de prescription qui ne doit pas dépasser trois mois chez le sujet âgé, selon les recommandations nationales (Haute Autorité de santé) et internationales (American Society of Addiction Medicine).

Le rôle central du médecin généraliste dans la prescription

En France, les médecins généralistes sont à l’origine de plus de 80 % des prescriptions de benzodiazépines. Ils connaissent les risques chez les patients âgés grâce aux recommandations diffusées par la Haute Autorité de santé. Pourtant, la pratique de prescription varie beaucoup d’un médecin à l’autre.

En tenant compte des différences de sexe, d’âge, de mortalité et de pathologies de leurs patients, certains médecins généralistes affichent seulement 10 % de prescriptions potentiellement inappropriées de benzodiazépines en 2015, tandis qu’elles dépassent 30 % chez d’autres confrères.

Les médecins qui ont les taux de prescription les plus élevés et qui conservent ce niveau dans le temps (entre 2015 et 2022) sont plus âgés et plus souvent des hommes. Au contraire, les médecins femmes réduisent plus souvent leurs prescriptions, quel que soit leur niveau initial de prescription.

Concernant la différence de prescription selon l’âge des médecins, l’argument avancé est que la proximité avec l’âge des études explique un meilleur respect des recommandations de bonne pratique, et donc une meilleure prescription. Les plus jeunes médecins prescrivent donc mieux que les médecins plus âgés. Pour la différence liée aux genres, les femmes médecins semblent accorder une attention particulière au respect des recommandations de bonnes pratiques.

Un point à souligner est que certaines populations vulnérables, comme les personnes atteintes de troubles psychiques ou de maladies neurodégénératives, ne bénéficient pas de la baisse de prescription observée entre 2012 et 2022, contrairement aux personnes âgées atteintes d’autres pathologies.

De plus, pour ces patients, les niveaux de prescriptions potentiellement inappropriées de benzodiazépines sont déjà parmi les plus élevés, compris entre 30 % et 50 %. Or, ils peuvent avoir une capacité réduite à consentir à ces traitements.

La relation médecin-patient-aidant influe sur la décision de prescrire

Avec la dégradation de l’état de santé des personnes âgées et l’apparition de maladies neurodégénératives, telles que la maladie d’Alzheimer, le maintien à domicile repose le plus souvent sur la présence d’aidants familiaux, qui sont amenés à coordonner les soins de leurs proches.

Ils prennent en charge les rendez-vous médicaux, participent aux consultations et aident à la prise des médicaments. Ils jouent aussi un rôle clé en transmettant au médecin des informations précieuses sur l’état de la personne âgée, par exemple sur l’anxiété, les troubles du sommeil et les troubles comportementaux associés à l’évolution de la maladie.


À lire aussi : Burn-out et fardeau des aidants : de quoi parle-t-on exactement ?


Nos travaux révèlent que la présence d’un aidant familial pour les démarches médicales est associée à une augmentation de la probabilité de recevoir des prescriptions potentiellement inappropriées de benzodiazépines à longue durée d’action (+ 21,7 points).

Les prescriptions sont plus fréquentes quand l’aidant partage, et donc observe, le quotidien de la personne âgée, parce qu’il est en couple ou cohabite avec elle. Le médecin, bien qu’informé de la nocivité des benzodiazépines, peut être amené à en prescrire lorsqu’aucune alternative n’apparaît envisageable face à des situations d’urgence décrites par l’aidant familial, qui appellent une décision immédiate.

Ces situations d’urgence peuvent prendre plusieurs formes : agitation nocturne intense qui peut conduire la personne âgée à chercher à sortir du domicile et mettre ainsi sa sécurité en jeu, une insomnie totale sur plusieurs nuits qui épuise à la fois la personne âgée et l’aidant, une agressivité soudaine se traduisant verbalement ou physiquement, mettant en difficulté l’aidant qui ne parvient plus à gérer la situation.

Si la relation médecins-aidants-patients a une influence sur la prescription de benzodiazépines, notre étude révèle que l’entrée des personnes âgées en Ehpad est elle aussi associée à un risque de prescription inappropriée.

Les prescriptions potentiellement inappropriées augmentent à l’entrée en Ehpad

L’entrée en établissement d’hébergement pour personnes âgées dépendantes (Ehpad) constitue une période de transition souvent difficile pour les personnes âgées, en particulier celles atteintes de troubles neurodégénératifs.

En France, près d’un résident sur deux en Ehpad présente une prescription potentiellement inappropriée de benzodiazépines. Cette fréquence élevée s’explique par plusieurs facteurs indépendants de l’établissement, tels que l’état de santé souvent dégradé des résidents, ainsi que par les pratiques de prescription des médecins.

À l’admission, certains résidents conservent leur médecin traitant, tandis que d’autres en changent, notamment pour s’adapter à l’organisation de l’établissement ou en raison de l’éloignement géographique avec leur médecin d’origine. Or, les médecins peuvent avoir avoir différentes façon de prescrire, leurs caractéristiques (âge, sexe, exercice solitaire ou en groupe notamment) peuvent avoir un impact important sur leurs prescriptions.

Toutes choses égales par ailleurs, la probabilité de recevoir des prescriptions potentiellement inappropriées de benzodiazépines augmente de dix points après l’entrée en Ehpad.

Cette hausse est principalement portée par les prescriptions chroniques d’anxiolytiques, en lien avec l’apparition ou le renforcement des troubles anxieux à l’occasion de l’admission en Ehpad qui constitue une période très perturbante pour les personnes âgées.

Soulignons toutefois que l’impact de l’admission varie selon le type d’établissement : l’augmentation des prescriptions inappropriées est en effet plus limitée dans les Ehpad du secteur public hospitalier. Par ailleurs, les prescriptions de benzodiazépines sont moins fréquentes dans les établissements où la proportion d’infirmières au sein du personnel soignant est plus élevée. Lesdites infirmières, notamment l’infirmière cadre, jouent un rôle central de coordination des soins médicaux, notamment avec les médecins traitants de ville responsables du suivi médical des résidents.

Mieux informer, et de développer des alternatives non médicamenteuses

On l’a vu, une forte hétérogénéité de prescription persiste selon l’âge et le genre des praticiens. Ce constat plaide pour un renforcement de l’information sur la nocivité des benzodiazépines à destination de l’ensemble des médecins généralistes, afin de mieux les sensibiliser à cette problématique.

Plus largement, il conviendrait d’informer l’ensemble de la population française aux risques liés à l’usage prolongé des benzodiazépines. Cette information permettrait de sensibiliser aussi les aidants familiaux, qui n’ont souvent pas conscience des conséquences négatives de ces prescriptions pour la personne aidée, et qui considèreraient différemment ces prescriptions s’ils en connaissaient les effets sur le long terme.

Un autre levier d’action est de privilégier en première intention les approches non médicamenteuses. Ces alternatives sont déjà disponibles : l’adaptation du logement de la personne âgée (barres d’appui, tapis antidérapant…) pour faciliter ses déplacements et ainsi réduire l’anxiété liée à la peur de tomber ; la pratique d’une activité physique adaptée permettant la relaxation, le recours au psychologue ou à des thérapies cognitivocomportementales pour réduire l’anxiété.

Cependant, face à la diversité des alternatives thérapeutiques non médicamenteuses existantes, une labellisation des alternatives à l’efficacité scientifiquement démontrée apparaît nécessaire, afin de faciliter leur prescription par les médecins.

Enfin, dans les Ehpad, une évaluation systématique des traitements médicamenteux dans les six mois qui suivent l’entrée dans l’établissement, et une diffusion de la culture gériatrique au-delà des Ehpad publics hospitaliers, constitueraient deux pistes d’amélioration pour freiner les prescriptions potentiellement inappropriées de benzodiazépines.

The Conversation

Sylvain Pichetti, dans le cadre de son activité de chercheur à l'Irdes a reçu des financements de l'Institut pour la Recherche en Santé Publique (Iresp) dans le cadre de réponse à appels à projets.

Anne Penneau et Marc Perronnin ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

16.02.2026 à 17:01

Faut-il encore faire des pesticides l’alpha et l’oméga de la protection des cultures ? Les exemples du Brésil et de la France

Christian Huyghe, Directeur scientifique pour l’agriculture, Inrae
Decio Karam, Chercheur, Empresa Brasileira de Pesquisa Agropecuária (Embrapa)
Les pesticides ont longtemps protégé les cultures, mais leurs effets délétères sont désormais bien documentés. Réduire cette dépendance est une urgence, en France comme au Brésil.
Texte intégral (2771 mots)

Si les pesticides ont longtemps assuré la protection des cultures, leurs effets délétères sont aujourd’hui largement documentés. Réduire cette dépendance est devenu une urgence sanitaire, environnementale et économique. Les stratégies de lutte contre les ravageurs intègrent aujourd’hui de nouvelles techniques innovantes. L’analyse de la situation en France et au Brésil livre un éclairage croisé sur cette question.


La protection des cultures est un enjeu majeur pour l’agriculture et pour la société au sens large. Elle permet de garantir une production suffisante en qualité et en quantité, tout en assurant des revenus à tous les acteurs des chaînes d’approvisionnement, des agriculteurs aux distributeurs.

Au cours des dernières décennies, la protection des cultures a reposé sur l’efficacité des pesticides de façon accrue. Dans le même temps, leurs effets négatifs sur la santé humaine, sur la qualité de l’eau, de l’air et sur la biodiversité sont de mieux en mieux documentés. Au plan économique, ces effets peuvent être considérés comme des coûts cachés pour la société. De plus, ces effets négatifs privent les agriculteurs de services écosystémiques précieux rendus par des sols en bonne santé.

À l’échelle mondiale, le recours aux pesticides peut également virer au casse-tête géopolitique, en fonction des pays où ils sont autorisés ou interdits. L’accord UE-Mercosur a récemment illustré les tensions que peuvent susciter des importations de produits traités avec des pesticides interdits dans les pays membres de l’Union européenne (UE), créant, de fait, des distorsions de concurrence entre les États.

Il apparaît donc urgent de façonner la protection des cultures de façon à alléger la dépendance des systèmes agricoles envers ces produits. Et si on adoptait un nouveau paradigme pour la protection des cultures, notamment inspiré par l’agroécologie et tenant davantage compte des nouveaux risques climatiques ? Des regards croisés sur la situation en France et au Brésil peuvent éclairer la question.

Mieux vaut prévenir que guérir

La lutte intégrée (ou protection intégrée) des cultures est un concept riche, établi depuis les années 1970. L’idée est de combiner des exigences écologiques, économiques et sanitaires.

Dans l’UE, la règle est de n’utiliser de produits chimiques phytopharmaceutiques qu’à la dose la plus faible possible (principes 5 et 6 du schéma ci-dessous) pour maintenir la présence des organismes nuisibles en dessous d’un seuil où les dommages ou pertes économiques deviennent inacceptables à court terme pour l’agriculteur. Pour limiter l’usage et l'impact de ces pesticides, il est donc essentiel d’enrichir la liste des alternatives aux pesticides (principe 4).

Cette approche implique qu’il est préférable d’agir en amont (principe 1) en mettant l’accent sur la prévention pour réduire au minimum la pression des maladies et des insectes. C’est une stratégie comparable à celle mobilisée en santé humaine, où il est recommandé d’avoir une hygiène de vie appropriée (sport, régime équilibré…) ou de se vacciner pour réduire le risque de maladies.

Les différentes étapes de la protection intégrée des cultures, avec une stratégie active de prophylaxie. Fourni par l'auteur

Cette stratégie de prophylaxie peut devenir active si, au cours de ses actions sur les cultures, l’agriculteur cherche à réduire le nombre de ravageurs. En diversifiant les moyens de lutte, cette stratégie permet également de limiter l’émergence de résistances chez les ravageurs. En effet, ces résistances apparaissent d’autant plus vite que les stratégies sont peu diversifiées.

L’utilisation de cultures de couverture, par exemple, est intéressante pour occuper l’espace au sol et éviter l’installation de mauvaises herbes. C’est d’autant plus pertinent dans les systèmes agricoles tropicaux, où la pression de sélection naturelle est plus élevée du fait des conditions de chaleur et d’humidité, et où ces résistances ont donc tendance à apparaître plus rapidement.

Associées à d’autres stratégies de gestion, les cultures de couverture sont donc un élément clé pour améliorer à la fois la qualité des sols, la productivité et la durabilité des systèmes agricoles.


À lire aussi : Les sols aussi émettent des gaz à effet de serre, et les pratiques agricoles font la différence


Microbiote végétal, paysages olfactifs… de nouveaux  leviers

De nouvelles techniques innovantes ont vu le jour depuis la mise en place de ce paradigme.

L’une des plus connues s’appuie sur l’agroécologie et la diversification des cultures, et mobilise des services écosystémiques largement documentés par la recherche. Cela peut par exemple passer, au Brésil, par des rotations plus longues, des cultures en mélanges, ou encore par des cultures intermédiaires de maïs, sorgho, mil ou sésame pour optimiser la culture du soja.

La sélection variétale est un autre levier crucial pour améliorer la valeur agronomique des cultures. La recherche de résistances génétiques aux champignons, aux virus et, dans une moindre mesure, aux bactéries et aux insectes, a été – et est toujours au cœur – des programmes de sélection.

Demain, cette approche pourra bénéficier des progrès réalisés dans le domaine de l’édition génétique : il est ainsi envisageable de stimuler, chez l’espèce cultivée, des gènes de résistance actifs chez des espèces étroitement apparentées, ou d’en réactiver d’autres qui auraient été contournés pendant l’évolution. Cela pose évidemment de nouvelles questions (propriété intellectuelle, cadre éthique, etc.) à ne pas sous-estimer.

Au cours des dernières années, l’existence d'un microbiote végétal a aussi été mise en évidence sur les graines, les feuilles, les racines et même à l’intérieur des tissus végétaux. Ces microbiotes jouent un rôle clé dans la nutrition des plantes, en facilitant l’échange de nutriments avec le sol, et dans leur protection contre les bioagresseurs. Il s’agit d’une perspective intéressante pour développer des solutions de biocontrôle alternatives aux pesticides.


À lire aussi : Les plantes aussi ont un microbiote – pourrait-on s’en servir pour se passer de phytosanitaires ?


Poursuivons avec les composés organiques volatils (COV) émis dans l’environnement, qui conditionnent le comportement des insectes (recherche alimentaire ou de partenaires sexuels, par exemple). Ces signaux olfactifs sont un nouvel axe de recherche pour lutter contre les ravageurs.

Cette stratégie a l’avantage de présenter peu d’effets indésirables, car les COV sont très spécifiques. Ils peuvent par exemple être utilisés pour induire une confusion sexuelle qui limite la reproduction d’une espèce particulière d’insectes, les attirer dans un piège voire les éliminer grâce à un gel contenant les COV et un insecticide qui sera dès lors utilisé en très faible quantité par rapport à une application classique.


À lire aussi : Protéger les cultures sans pesticides grâce au langage olfactif des plantes


Ces stratégies de prévention en amont doivent, bien sûr, être pensées à l’échelle du paysage et être coordonnées entre les acteurs d’une zone géographique. Elles peuvent enfin être combinées à un dépistage plus précis des potentielles proliférations. Grâce aux outils de surveillance et d’aide à la décision (principes 2 et 3), on peut ainsi adapter la solution curative à mobiliser le cas échéant.

Une telle transition requiert un niveau élevé de coordination entre tous les acteurs du système agricole. Et ceci à tous les niveaux, des agriculteurs aux chaînes d’approvisionnement. Actuellement, près de 80 % des mesures mises en œuvre dans les plans d’action nationaux ciblent directement les agriculteurs. Les politiques publiques pourraient, à cet égard, mieux répartir l’effort de transition. La protection des cultures n’est pas seulement une question pour les agriculteurs : c’est un bien commun pour la société au sens large.


À lire aussi : Pesticides : les alternatives existent, mais les acteurs sont-ils prêts à se remettre en cause ?


Ce que disent les chiffres au Brésil et en France

La comparaison entre le Brésil et la France, situés dans des climats différents et avec des contextes sociopolitiques différents, est, à cet égard, instructive.

En France, au cours des quinze dernières années, les produits utilisés en protection des cultures ont fortement évolué, sous le triple effet de la réglementation encadrant le retrait de substances actives, en particulier les cancérigènes, mutagènes, reprotoxiques (CMR), des politiques publiques (plans Écophyto notamment) et de l’innovation. On utilise désormais moins de CMR et davantage de produits utilisables en agriculture biologique et/ou basés sur le biocontrôle.

Ventes de substances phytosanitaires en France. SDES

Au Brésil, les ventes de pesticides (hors produits autorisés en agriculture bio et pour le biocontrôle) s’élevaient encore à 755 400 tonnes en 2023 – dont près de 50 % de glyphosate, un chiffre en timide baisse de 5,6 % par rapport à 2022.

Or, la France utilise actuellement 2,9 kg de substances actives par hectare de surface ensemencée, contre 7,78 pour le Brésil. Ces différences s’expliquent en partie par les surfaces agricoles cultivées (hors prairies) : 14 millions d’hectares pour la France, contre 97 pour le Brésil. Il faut aussi tenir compte du fait que la plupart des terres cultivées au Brésil donnent lieu à deux cultures par an, ce qui est plus rare en France.

Toutefois, le secteur des « biointrants » (produits d’origine naturelle ou organismes vivants) progresse rapidement au Brésil, qui les utilise depuis les années 1960. Ce marché s’est établi plus tardivement en France mais progresse également rapidement. Les biointrants peuvent être utilisés en agriculture biologique ou, dans certains cas, combinés à des pesticides dans le cadre des programmes de lutte intégrée contre les ravageurs, que l’on a présentés plus haut.

À l’échelle mondiale, le marché des agents de biocontrôle et des biostimulants (intrants biosourcés permettant d’améliorer les productions végétales) était, en 2025, estimé à 11 milliards de dollars (9,2 milliards d’euros), dont 7 milliards (5,9 milliards d’euros) pour le biocontrôle, avec des taux de croissance annuels estimés de 10,5 à 15,6 % (selon les secteurs) jusqu’en 2035. En 2035, ce marché pourrait atteindre environ 41 milliards de dollars (34,5 milliards d’euros), dont 30 milliards (25,2 milliards d’euros) pour le biocontrôle.

La mobilisation de la prophylaxie et les nouvelles options de biocontrôle seront-elles de nature à remettre en cause l’omniprésence des pesticides ?


Cet article est publié dans le cadre de la Conférence FARM 2026 – Repenser la protection des cultures : agir collectivement pour le vivant, qui se tient le 17 février 2026 à la Cité internationale universitaire de Paris et dont The Conversation France est partenaire.

The Conversation

Christian Huyghe a reçu des financements de l'ANR et de l'Union européenne (H2020, Life-PLP, COST action).

Decio Karam est membre de Association Brésilienne du Maïs et du Sorgho, ; Conseil Scientifique de l’Agriculture Durable (CCAS)

16.02.2026 à 17:00

AlphaGenome, une nouvelle avancée en intelligence artificielle pour explorer les effets des mutations génétiques

Élodie Laine, Professeure en biologie computationnelle, Sorbonne Université
Julien Mozziconacci, Professeur en biologie computationelle, Muséum national d’histoire naturelle (MNHN)
Google vient de sortir un nouveau logiciel d’IA pour explorer les effets des mutations génétiques. Décryptage de deux spécialistes qui ne font pas partie de l’équipe.
Texte intégral (1434 mots)
Même une mutation génétique très simple --&nbsp;une lettre qui change dans l’immense chaîne composée d’A, T, C et G&nbsp;-- peut avoir des conséquences sur la santé. Sangharsh Lohakare/Unsplash, CC BY

Notre ADN est composé d’un enchaînement de quatre petites molécules appelées « acides nucléiques » et dénotées par les lettres A, C, G, et T. Parfois, une mutation génétique a lieu et affecte notre santé. Une simple modification dans la grande séquence de lettres qui constitue notre génome peut suffire à affecter l’expression des gènes ou les versions des protéines produites à partir de ces gènes.

Mais on ne sait pas, à l’heure actuelle, expliquer systématiquement comment telle ou telle mutation génétique peut avoir tel ou tel effet. C’est la question à laquelle AlphaGenome, le nouveau logiciel d’intelligence artificielle présenté dans la revue Nature par Google, tente de répondre.

AlphaGenome analyse un million d’acides nucléiques à la fois, et prédit, pour chacun d’eux, des milliers de quantités, qui sont autant de facettes de la régulation de nos gènes pour façonner nos tissus et nos organes.

Coupler un tel niveau de résolution avec un contexte aussi long (un million de lettres !) et prédire autant d’aspects de la régulation du génome relève du tour de force. Cependant, ce nouvel opus de la série Alpha de DeepMind ne représente pas une avancée aussi spectaculaire qu’AlphaGo ou AlphaFold, par exemple.

AlphaGenome affine une approche existante, déjà implémentée dans Enformer et Borzoi, deux modèles d’apprentissage profond développés chez Google qui ont fait leurs preuves. Il améliore, d’une part, leur efficacité par des optimisations techniques et, d’autre part, leur pertinence, en modélisant plus finement la complexité des processus génétiques.


À lire aussi : Décrypter notre génome grâce à l’intelligence artificielle


Pourquoi cette avancée est importante

L’enjeu de ce travail est de taille pour la santé humaine. Les bases de données génomiques de populations humaines recensent près de 800 millions de variations ponctuelles – c’est-à-dire des changements portant sur une seule lettre du code génétique – dont l’impact sur notre santé reste largement inexploré. Identifier quelles sont celles qui sont à l’origine de maladies ou de dysfonctionnements, et comprendre leurs mécanismes d’action, est crucial.

Par exemple, dans certaines leucémies, une mutation d’un seul acide nucléique active de manière inappropriée un gène bien spécifique. AlphaGenome confirme le mécanisme déjà connu de cette activation aberrante : la mutation permet à un régulateur génétique de s’accrocher au gène, et modifie les marques épigénétiques alentour.

Ainsi, en unifiant plusieurs dimensions de la régulation génétique, AlphaGenome s’impose comme un modèle de fondation, c’est-à-dire un modèle générique qui peut être transféré ou appliqué facilement à plusieurs problèmes.

Quelles sont les suites de ces travaux ?

Plusieurs limitations tempèrent néanmoins l’enthousiasme.

Par exemple, les prédictions sur différentes facettes d’un même processus biologique ne sont pas toujours cohérentes entre elles, révélant que le modèle traite encore ces modalités de façon relativement cloisonnée.

Le modèle peine aussi à capturer la « spécificité tissulaire », c’est-à-dire le fait qu’un même variant génétique peut être délétère dans un tissu et neutre dans un autre.

De plus, il reste difficile de quantifier l’ampleur de l’effet d’une mutation.

Enfin, AlphaGenome prédit des conséquences moléculaires, pas des symptômes ni des diagnostics – or, entre une variation d’ADN et une maladie, il reste énormément de travail pour comprendre les relations entre ces différents niveaux ; et il n’a pas encore été validé sur des génomes individuels – un passage obligé pour toute application en médecine personnalisée, où l’enjeu serait d’interpréter le profil génétique unique d’un patient pour prédire sa susceptibilité à certaines maladies ou adapter son traitement.

Au-delà de ces enjeux pour la santé humaine, comment transférer cette connaissance à la biodiversité dans son ensemble ? AlphaGenome dépend en effet de mesures expérimentales, accessibles en abondance uniquement pour une poignée d’espèces (l’humain et quelques organismes modèles). Une autre famille de modèles pourrait ici jouer un rôle complémentaire : les « modèles de langage génomique », qui fonctionnent un peu comme ChatGPT mais pour prédire la suite d’une séquence d’ADN plutôt que la suite d’une phrase. Ces modèles, entraînés sur des millions de séquences génomiques, peuvent ainsi capturer les règles et les motifs conservés au cours de l’évolution, ce qui permet de déchiffrer des génomes inconnus.

Rien de tout cela n’existerait sans les grandes bases de données publiques et le travail cumulé de la recherche académique et des consortia ouverts, qui ont produit, standardisé et partagé les données nécessaires à l’entraînement de ces modèles. La suite logique est claire : la science doit rester ouverte, au service de la société. L’équipe d’AlphaGenome a rendu le code et les poids publiquement accessibles, et propose une interface facilitant l’adoption par la communauté scientifique. Reste à voir comment celle-ci s’emparera de cet outil : sera-t-il utilisé comme une « boîte noire » pratique, ou inspirera-t-il un véritable changement de paradigme en génomique computationnelle ?


Cet article a bénéficié de discussions avec Arnaud Liehrmann, post-doctorant au laboratoire de Biologie computationnelle, quantitative et synthétique.


Tout savoir en trois minutes sur des résultats récents de recherches commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.


The Conversation

Elodie Laine est membre junior de l'Institut Universitaire de France. Elle a reçu des financements de l'Agence Nationale de la Recherche (ANR, France 2030, PostGenAI@Paris, ANR-23-IACL-0007) et de l'Union Européenne (ERC, PROMISE, 101087830). Les points de vue et opinions exprimés sont toutefois ceux des auteurs uniquement et ne reflètent pas nécessairement ceux de l'Union européenne ou du Conseil européen de la recherche. Ni l'Union européenne ni l'autorité octroyant la subvention ne peuvent en être tenus responsables.

Julien Mozziconacci est professeur au Muséum National d'Histoire Naturelle et membre junior de l'Institut Universitaire de France. Il a reçu des financements de l'Agence Nationale de la Recherche (ANR, France 2030, PostGenAI@Paris). Les points de vue et opinions exprimés sont toutefois ceux des auteurs uniquement et ne reflètent pas nécessairement ceux des instituts qui les ont financés.

16.02.2026 à 16:59

Peut-on décentraliser sans repenser la carte communale ?

Daniel Behar, Géographe Professeur des Universités, Université Paris-Est Créteil Val de Marne (UPEC)
La décentralisation peut-elle vraiment fonctionner avec 35&nbsp;000&nbsp;communes qui ont les compétences de mini-États&nbsp;?
Texte intégral (2178 mots)
Pour éviter un morcellement institutionnel trop important, dans le Maine-et-Loire, 64&nbsp;communes ont choisi de fusionner en six&nbsp;communes nouvelles, constituant une communauté d’agglomération de 120&nbsp;000&nbsp;habitants&nbsp;: les Mauges. Saint-Florent-le-Vieil, ici en photo, est l’une d’entre elles. Dominique Drouet

La France compte un peu moins de 35 000 communes, auxquelles la décentralisation a transféré de nombreuses compétences. Cet émiettement communal est un impensé des réformes territoriales, à rebours des trajectoires européennes. En évitant de trancher la question de la carte communale, la décentralisation n’a-t-elle pas atteint ses propres limites ?


La décentralisation fait débat autour de deux questions. La première porte sur la clarification des rôles des différents échelons de collectivités. La seconde porte sur un approfondissement de la décentralisation – soit plus de transferts de compétences de l’État en direction des élus locaux. Les projets annoncés par le gouvernement Lecornu s’inscrivent dans cette perspective en promettant des transferts significatifs en matière de logement et pour quelques secteurs de l’action sociale. Mais peut-on encore décentraliser sans questionner la capacité des collectivités à gérer de nouvelles responsabilités ?

La France, hyperdécentralisée ?

Cet affichage ignore une réalité fondamentale : la France est sans doute l’un des pays au monde les plus décentralisés. On entend par là qu’elle est un des seuls pays à avoir fait le choix de décentraliser principalement vers le niveau le plus bas et le plus nombreux (la commune – on en dénombrait 34 875 au 1er janvier 2025) et non vers les échelons intermédiaires (régions ou départements).

Rappelons qu’aujourd’hui la commune est le seul niveau territorial à disposer d’une clause générale de compétence qui en fait un véritable « État en modèle réduit ». Le maire y représente l’État, incarne le pouvoir exécutif, préside l’assemblée « législative » locale (le conseil municipal) et dispose d’une capacité d’action généraliste.

Comment alors prétendre à l’efficacité, lorsqu’on confie les rênes de l’action publique à 35 000 micro-États ? Plus des deux tiers des communes françaises ont moins de 1 000 habitants, et disposent d’un budget annuel inférieur à un million d’euros. Ces milliers de communes sont incapables de produire de l’action publique à hauteur des enjeux. Ce phénomène redouble par l’obligation des échelons intermédiaires à prendre acte de cet émiettement en procédant au saupoudrage de leurs propres moyens.

Dans la plupart des autres pays européens, la décentralisation a été accompagnée par une refonte de la carte des communes afin d’en réduire le nombre et d’en augmenter la taille moyenne. La France n’a pas fait ce choix, mis en œuvre ailleurs dans les années 1960 et 1970 : on a décentralisé à périmètre constant (les communes, les départements et les régions).

Cette sanctuarisation de l’émiettement communal ne peut se comprendre qu’en regard de l’histoire longue de la France et du poids de l’État. Pour que ce dernier soit accepté par la population, il fallait préserver un équivalent local, les 36 000 communes issues des paroisses médiévales.

Ainsi s’est installée, depuis la IIIe République, une forme d’équilibre entre un pouvoir national fort et un pouvoir local du même type. Toutefois, pour garantir la pérennité du modèle jacobin français, il fallait que ces communes soient fortes localement, mais « dépendantes » de l’État, donc nombreuses et morcelées. Cela constituait en outre un message à la France rurale tout en limitant le pouvoir des villes.

On comprend dès lors que la décentralisation à la française constitue un gouffre financier, décrié pour sa faible efficacité. Mais le coût de la décentralisation tient-il aux doublons entre échelons, comme on l’entend le plus souvent, ou à cet émiettement ?

L’intercommunalité : une réponse à l’émiettement communal ?

On nous rétorquera que dès les années soixante, le législateur français a tenté d’adopter une voie spécifique pour rendre gérable le niveau local sans pour autant toucher à la carte des communes.

Il s’agit de la création des intercommunalités (communautés urbaines en 1966 puis communautés de communes et d’agglomération en 1999). Ce modèle original a pour le coup inspiré certains de nos voisins européens (Autriche, Finlande ou Italie par exemple).

L’intercommunalité repose sur deux principes : d’une part, l’élection indirecte des conseillers communautaires au second degré, au travers de leur fléchage au sein de chaque conseil municipal. D’autre part, la dissociation tendancielle entre l’instance politique qui demeure la commune et la mise en œuvre des politiques publiques, qui repose sur l’intercommunalité, et monte progressivement en puissance au travers du transfert de compétences. Cet agencement, certes un peu complexe, ajoutant une couche au millefeuille, a offert pendant une vingtaine d’années une perspective crédible de modernisation de l’organisation territoriale française, contournant prudemment la refonte de la carte communale. Ce n’est plus le cas aujourd’hui.

En 2015, la loi Notre a eu pour ambition de parachever ce processus. Est d’abord adopté le principe d’une couverture exhaustive du territoire national par des établissements de coopération intercommunale, rendant cette dynamique, jusqu’alors volontaire, obligatoire. Cette loi incite ensuite fortement au regroupement de ces intercommunalités afin de tendre vers un seuil de viabilité estimé à 10 000 habitants. On a ainsi réduit le nombre d’intercommunalités de moitié entre 2009 et 2025 (de 2 601 à 1 254), chacune de ces intercommunalités regroupant en moyenne 28 communes, ce nombre pouvant atteindre 158 pour la plus grande intercommunalité française, celle du Pays basque.

Une modernisation à l’arrêt ?

Ce parachèvement a d’une certaine manière cassé la dynamique intercommunale et conduit à remettre en question cette modernisation.

Les intercommunalités, systématisées et agrandies, font maintenant l’objet d’un procès en éloignement et perte de responsabilité de la part des maires. Bien qu’ils constituent eux-mêmes l’exécutif de ces intercommunalités, ils en décrient la gouvernance et le mode de prise de décision collective : chaque commune, quelle que soit sa taille, disposant a minima d’un siège, le processus décisionnel apparaît à la fois lointain et faiblement stratégique. Lorsqu’il faut décider à plusieurs dizaines de maires, la logique de saupoudrage tend à prévaloir. Le transfert de la compétence « gestion des milieux aquatiques et prévention des inondations » (Gemapi) cristallise ce procès depuis dix ans. Là où les communes organisaient la gestion de l’eau et de l’assainissement selon des coopérations « à la carte », la loi les oblige à tout gérer au sein de ces grandes intercommunalités.

« La décentralisation critiquée par la Cour des comptes en 180 secondes »

Plus largement, la crise des gilets jaunes (2018) est apparue révélatrice d’une demande de proximité de la part de la population qui va à l’encontre de la montée en puissance des intercommunalités. Celle-ci marque donc aujourd’hui un coup d’arrêt. Cela s’exprime à la fois au niveau national, où la position « communaliste » progresse parmi les groupes politiques, entre communistes, insoumis et extrême droite. Le président de la République lui-même prône le retour au binôme historique maire/préfet de la IIIe République. Seuls les socialistes, le centre et la droite modérée défendent encore du bout des lèvres la perspective intercommunale. De la même manière, au niveau local, les intercommunalités se heurtent à ce repli communaliste et voient leur montée en puissance contrée par la résistance des élus municipaux.

C’est donc la voie retenue en France, depuis un demi-siècle, pour moderniser le pouvoir local qui paraît aujourd’hui compromise. Si un retour en arrière n’est pas envisageable, la perspective implicite des modernisateurs, c’est-à-dire l’absorption progressive des communes dans les intercommunalités n’est plus à l’ordre du jour. On en veut pour preuve la disparition de l’agenda politique de l’hypothèse d’une élection intercommunale au suffrage universel direct, pourtant indiquée dans la loi en 2014.

Le repli communaliste : à quelles conditions ?

Ne pourrait-on pas alors imaginer une voie intermédiaire entre « l’intercommunalisation » et la refonte de la carte communale, en visant la réduction de l’écart démographique et politique entre ces deux échelons ? On fait ici référence à l’expérience d’un territoire de l’ouest de la France, les Mauges, dans le Maine-et-Loire où 64 communes (dont une vingtaine de moins de 1 000 habitants) ont – de façon volontaire – fusionné en six communes nouvelles, toutes de taille supérieure à 10 000 habitants, constituant elles-mêmes une communauté d’agglomération de 120 000 habitants. Cette configuration présente trois intérêts : elle rapproche les deux niveaux ; elle accroît la gouvernabilité de l’intercommunalité (décider à six maires) ; elle garantit, grâce à leur taille, la capacité à agir des communes nouvelles, tout en maintenant une certaine proximité.

En incitant vigoureusement au regroupement des petites communes (par exemple, inférieures à moins de 1 000 habitants), il serait à la fois possible de redonner du sens à ce niveau de proximité plébiscité par les Français, tout en relançant l’échelon intercommunal, seul à même d’agir efficacement sur les questions de mobilité, d’environnement ou de développement économique.

Clarification de la spécialisation des compétences entre échelons et décentralisation privilégiant une myriade de communes : les deux principes retenus en France depuis un demi-siècle ont-ils encore du sens ? N’est-il pas temps d’en tirer les leçons, comparativement aux autres choix opérés en Europe ? Pourra-t-on longtemps encore faire l’économie d’un choix clair, d’une forme de hiérarchisation autour des régions et, simultanément, d’une refonte de la carte communale ?

The Conversation

Daniel Behar ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.02.2026 à 16:59

Pourquoi il ne faut pas abandonner l’écriture manuscrite à l’école

Atheena Johnson, Docteure en linguistique appliquée, Université Paris Nanterre
Aujourd’hui, stylos et cahiers cèdent de plus en plus la place aux écrans et claviers dans les salles de classe. Mais ces outils permettent-ils d’écrire avec la même efficacité&nbsp;?
Texte intégral (1265 mots)

Aujourd’hui, stylos et cahiers cèdent de plus en plus la place aux écrans et claviers dans les salles de classe. Mais ces outils permettent-ils d’écrire avec la même efficacité ? En quoi supposent-ils des compétences différentes ?


Au fil des décennies, des dispositifs technologiques ont été progressivement intégrés à l’apprentissage des langues, c’est le cas récemment de l’intelligence artificielle (IA) générative.

La sophistication de ces outils condamne-t-elle à terme le recours aux crayons et aux stylos ? Ou les usages numériques peuvent-ils se combiner à l’écriture manuelle ? En quoi celle-ci garde-t-elle sa valeur pour l’être humain ?

Stylo ou clavier : un impact sur la mémorisation des connaissances

L’écriture à la main a longtemps été associée à la mémoire et aux apprentissages. C’est en 1829 que la frappe au clavier est apparue, elle est devenue courante en 1867 grâce à la première machine à écrire manuelle. Si les élèves d’autrefois apprenaient à écrire exclusivement à la main, les élèves d’aujourd’hui alternent entre écrans et papier.

Or, les recherches montrent que ces modalités n’ont pas les mêmes effets sur l’acquisition des connaissances. Dans une étude de 2014, on a observé que les élèves réussissent mieux à répondre aux questions analytiques s’ils prennent leurs notes à la main. Une étude de 2017 a établi que les étudiants de 20-25 ans retiennent plus longtemps les informations qu’ils écrivent à la main par rapport à celles qu’ils tapent sur un clavier.

« L’impact de l’utilisation des technologies sur l’expression écrite (Ma thèse en 180 secondes, 2023) »

Par ailleurs, on a découvert que les étudiants qui utilisaient l’intelligence artificielle depuis leurs premières rédactions se souvenaient très peu de ce qui était réellement écrit lorsqu’ils étaient testés sur leur capacité à citer un texte, contrairement à ceux qui avaient composé eux-mêmes leurs textes. Trouver un équilibre entre production écrite et numérique est dès lors très important.

Une richesse lexicale moindre dans les productions numériques

Dans une expérimentation menée en 2019, avant le boom des IA génératives que nous connaissons, nous avons comparé les productions manuscrites et dactylographiées d’étudiants en anglais. Nous avons constaté une moindre richesse lexicale dans les productions dactylographiées, ce qui confirme les tendances évoquées plus haut.

L’objectif de l’étude était de déterminer s’il existait des différences linguistiques en fonction du mode de production. Nous nous sommes intéressés aux aspects stylistiques, tels que la valeur informationnelle des textes, à l’organisation des textes ainsi qu’aux aspects lexicaux.

Il y avait 58 participants à l’étude, chacun produisant un texte dactylographié et un texte manuscrit à un intervalle d’une semaine. L’expérience a eu lieu dans le cadre de la préparation d’une évaluation finale. Les participants ne pouvaient pas avoir recours à des ressources pendant la production, pas de dictionnaire, pas d’outils d’autocorrection.


À lire aussi : Pourquoi continuer d’apprendre à écrire à la main dans un monde d’IA


La majorité des textes ont témoigné d’une valeur informationnelle et d’une organisation textuelle statistiquement similaires dans les deux cas. Cela induit que le mode de production n’a pas eu d’influence sur les approches stylistiques utilisées.

Concernant la diversité lexicale, il n’en est pas de même. La richesse lexicale était bien plus importante dans la majorité des productions manuscrites. Les productions dactylographiées présentaient des faiblesses qui n’étaient pas présentes dans les productions manuscrites des mêmes participants.

Ces résultats peuvent avoir des implications pour l’enseignement de l’anglais et la manière dont les étudiants sont encouragés à produire des textes écrits.

Écrire sur écran, ça s’apprend

Depuis que la transition numérique a remisé les stylos au placard, plusieurs pays se sont penchés sur les incidences des usages numériques sur les compétences écrites : l’Espagne, les États-Unis ou encore la France.

Or, des études récentes soulignent l’importance de stratégies spécifiques d’écriture pour la progression des élèves, telles que la planification ou la relecture. Si la production manuscrite développe des capacités que le clavier ne développe pas, la maîtrise du clavier reste une compétence incontournable mais exigeante.


À lire aussi : Lire sur papier, lire sur écran : en quoi est-ce différent ?


Les difficultés à écrire relevées aujourd’hui tiennent d’abord à leur place de moins en moins prioritaire dans les programmes scolaires en Europe, aux États-Unis ou encore en Chine.

Par ailleurs, les modes de production sont fondamentalement différents à trois niveaux. D’abord, la saisie et l’écriture se déroulent dans des cadres spatiaux distincts. L’écriture se produit dans un espace unifié tandis que la saisie se déroule dans deux espaces séparés. Ensuite, la manière dont l’individu compose avec les différences spatiales lors de la planification, de la transcription et de la révision d’un texte est également nettement différente. Enfin, la perception et les usages des étudiants varient selon les modes de production.

C’est pourquoi il est important de continuer à insister sur les bénéfices cognitifs de l’écriture manuscrite à l’école et ailleurs, tout en prenant conscience de l’apprentissage que suppose l’écriture numérique pour que les élèves arrivent au même niveau de fluidité sur écran que sur papier. En classe, il s’agit de réfléchir aux options proposées en termes d’outils de rédaction. Reste à suivre les prochaines évolutions : quels seront les impacts du recours croissant aux IA sur la production écrite ?

The Conversation

Atheena Johnson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.02.2026 à 16:58

La fermentation, entre conservation des aliments et conservatisme en ligne

Clémentine Hugol-Gential, Maître de conférences en sciences de l'information et de la communication, Université Bourgogne Europe
Certains discours sur la fermentation contribuent à réactiver des représentations traditionnelles du foyer et des rôles féminins, en les enveloppant d’un vocabulaire du «&nbsp;soin&nbsp;» et du «&nbsp;bon sens&nbsp;».
Texte intégral (1574 mots)
La fermentation est en vogue sur les réseaux sociaux. Maria Verkhoturtseva/Pexels, CC BY

Prendre le temps, cuisiner maison, fermenter ses aliments : ces pratiques séduisent aujourd’hui largement. Mais, sur les réseaux sociaux, la valorisation de la fermentation s’accompagne parfois d’une vision très normative du temps, qui peut servir de support discret à des formes contemporaines de conservatisme culturel, notamment autour de la famille et des rôles de genre.


Fermenter, c’est d’abord accepter le temps long. Laisser agir des micro-organismes invisibles, renoncer à l’immédiateté, attendre sans pouvoir totalement maîtriser le résultat. Cette temporalité singulière, au cœur des pratiques fermentaires, est loin d’être anodine. Dès le XIXe siècle, Jean Anthelme Brillat-Savarin soulignait que la gastronomie s’inscrit dans une articulation complexe entre nature, techniques culinaires et temps de la transformation. La fermentation, pratique ancestrale par excellence, matérialise cette alliance entre patience, savoir-faire, mais également transformation du vivant.

Esthétique de la lenteur

Aujourd’hui, le retour en grâce du levain, du kéfir, de la lactofermentation ou du kombucha s’inscrit dans un contexte marqué par une critique diffuse de l’accélération contemporaine. Comme l’analyse le sociologue Hartmut Rosa, la modernité se caractérise par une compression du temps, une injonction permanente à faire plus vite, plus souvent, plus efficacement, au détriment du sens.

Sur les réseaux sociaux, la fermentation est fréquemment associée à une esthétique de la lenteur : gestes répétitifs, routines domestiques, attention portée aux cycles naturels. Ces images mettent en scène un temps maîtrisé, ordonné et aussi souvent ritualisé. Le temps n’est plus seulement une contrainte biologique du processus fermentaire, il devient un marqueur moral et fait référence à un passé idéalisé. Dans ce cadre, l’appel à la tradition fonctionne dans les discours alimentaires comme un argument d’autorité. En valorisant le temps long, on naturalise certaines pratiques tout en disqualifiant implicitement d’autres rythmes de vie jugés trop rapides. Le temps devient alors un critère de distinction et la fermentation apparaît comme une réponse presque morale à l’urgence généralisée.

Temporalité domestique et assignation des rôles

L’anthropologue Claude Lévi-Strauss avait déjà mis en évidence le rôle fondamental du temps dans les classifications alimentaires, en situant la fermentation du côté du « pourri », c’est-à-dire d’un état intermédiaire et culturellement ambivalent. Aujourd’hui, cette ambivalence est largement esthétisée : le temps qui transforme devient un temps qui élève. Cette morale de la lenteur prend une dimension particulière dans les contenus liés aux esthétiques « tradwife ».

Sur Instagram ou TikTok, la fermentation est souvent intégrée à une mise en scène du quotidien domestique. Le foyer y apparaît comme un espace hors de l’urgence, protégé de la frénésie extérieure. Or, ce temps long est très fortement genré. La patience, l’attention aux détails, la disponibilité temporelle sont présentées comme des qualités féminines. La fermentation devient ainsi un support symbolique pour réaffirmer une division traditionnelle des rôles. Il revient alors aux femmes le temps du soin, de l’attente et de la transmission.

Les analyses de Marie-Claire Frédéric sur la fermentation comme réaction à une société perçue comme excessivement hygiéniste et industrialisée éclairent directement ces mises en scène contemporaines. La réhabilitation du microbien s’y accompagne d’une revalorisation du temps long. Mais sur les réseaux sociaux, cette réhabilitation ne se limite pas au vivant : elle s’étend à des formes d’organisation sociale idéalisées, associant lenteur, stabilité et ordre domestique. Les esthétiques tradwife trouvent alors une forte résonance. La fermentation devient un support symbolique pour réaffirmer un foyer préservé. Dans ce dernier, le temps est d’abord genré et la nostalgie, d’un passé supposé plus stable, se rejoue à travers des gestes culinaires présentés comme naturels et surtout féminins.

Le temps comme outil de politisation discrète

L’un des traits les plus saillants de ces discours réside dans leur caractère non conflictuel. Le temps long y est présenté comme une valeur universelle associée à des registres partagés tels que le soin, la santé, l’écologie ou bien encore le respect du vivant. Cette neutralité apparente leur confère une force particulière. Comme le montrent les travaux sur la circulation des croyances en ligne, ce sont souvent les récits les plus consensuels qui véhiculent les normes sociales les plus puissantes, précisément parce qu’ils échappent à la controverse. Dans le cas de la fermentation, le temps devient ainsi un cadre normatif qui hiérarchise les manières de vivre, de produire et de consommer. À travers des gestes domestiques ordinaires et des images de routines maîtrisées, se dessine une conception implicite et naturalisée de l’ordre social avec le temps pour vertu.

Cette politisation du temps est d’autant plus efficace qu’elle s’opère à bas bruit. La fermentation agit comme un support de politisation douce, au sens où elle permet de diffuser une vision du monde sans jamais la formuler explicitement comme telle. À travers des gestes domestiques, des images de bocaux alignés ou de pains longuement façonnés à la main, apparaît une conception implicite de l’ordre social. Le temps domestique, présenté comme maîtrisé et harmonieux, est ainsi valorisé au détriment d’autres formes de temporalités plus contraintes et fragmentées.

Lorsque le temps long est associé à une morale de l’autonomie et de la responsabilité individuelle, fermenter chez soi et « prendre le temps » deviennent des marqueurs de vertu personnelle voire de bonne citoyenneté alimentaire. Cette injonction repose pourtant sur une inégalité structurelle face au temps et aux ressources, que les discours tendent à invisibiliser. Présenté comme un idéal apolitique, le temps long fonctionne alors comme un outil de régulation sociale.

Fermenter : conservateur ou conservatisme ?

Il serait évidemment erroné d’assimiler la fermentation à une idéologie conservatrice. Les travaux de Sandor Ellix Katz rappellent au contraire la diversité historique, culturelle et politique des pratiques fermentaires, souvent liées à des formes d’émancipation et de transmission collective. La fermentation n’est ni univoque, ni intrinsèquement synonyme de repli genré sur le domestique.

L’analyse des discours numériques montre pourtant la puissance idéologique de certains récits qui accompagnent les pratiques fermentaires. Le temps, érigé en ressource symbolique centrale de la fermentation, devient alors un opérateur discursif puissant. Selon la manière dont il est mis en récit, il contribue à hiérarchiser les modes de vie et à naturaliser certaines conceptions de l’ordre social. Présentés comme apolitiques, ces récits diffusent des normes d’autant plus efficaces qu’elles restent rarement nommées et semblent naturalisées.

C’est dans ce cadre que se joue, en creux, la question de la place des femmes. Ainsi, sans jamais être formulés explicitement, certains discours sur la fermentation contribuent à réactiver des représentations traditionnelles du foyer et des rôles féminins, en les enveloppant d’un vocabulaire du soin et du bon sens. Comprendre ces dispositifs discursifs permet de saisir comment des pratiques alimentaires en apparence anodines deviennent des supports de recomposition contemporaine du conservatisme, non pas en conservant des aliments, mais en contribuant à conserver, à bas bruit, certaines représentations du monde social.

The Conversation

Clémentine Hugol-Gential ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

50 / 50

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌞