LePartisan - 3317 vues
MEDIAS REVUES BLOGS
URL du flux RSS

▸ les 50 dernières parutions

25.02.2026 à 16:49

Le rôle des entreprises dans le processus de paix colombien

Frédéric Martineau, PhD - Relations Internationales. Spécialisation en Diplomatie des affaires, Centre d'études diplomatiques et stratégiques (CEDS)
Les entreprises colombiennes sont devenues des actrices clés d’un processus de paix inachevé, dont la durabilité dépend d’un cadre institutionnel solide.
Texte intégral (2469 mots)

Les entreprises colombiennes se sont impliquées dans le processus de paix, depuis les premiers tâtonnements des années 1980 jusqu’aux négociations de La Havane avec les FARC en 2016. Cet engagement a fait du secteur privé un acteur désormais incontournable mais loin d’être homogène. Malgré l’accord de 2016, la paix demeure inachevée et la pérennité de l’engagement entrepreneurial dépend en bonne partie de l’environnement institutionnel.


À l’approche de l’élection présidentielle qui se déroulera en mai 2026, et alors que le président en exercice Gustavo Petro ne peut pas se représenter, le candidat de son parti (la coalition Pacto Historico, classée à gauche), Ivan Cepeda, se trouve actuellement en tête des sondages.

Les menaces exprimées par Donald Trump à l’encontre du gouvernement colombien, qui se sont renforcées dans la foulée de l’enlèvement de Nicolas Maduro au Venezuela voisin, participent sans doute de la désaffection populaire pour le principal candidat de la droite, Abelardo de la Espriella. Il n’en reste pas moins que les intentions de vote témoignent également de l’indulgence de la population colombienne à l’égard du parti au pouvoir, en dépit de l’échec de l’initiative de « paix totale » du président actuel.

Cette politique ambitieuse visait à négocier simultanément avec tous les groupes armés encore actifs dans le pays (guérillas, paramilitaires ou organisations criminelles) afin de parachever le processus de paix sur l’ensemble du territoire colombien. Rappelons que les autorités de Bogota et les Forces armées révolutionnaires de Colombie (FARC) ont signé en 2016 à La Havane un accord historique censé mettre fin à des décennies de guerre civile sanglante dont le bilan humain est évalué à au moins 450 664 morts, 121 768 disparus et 7,7 millions de déplacés.

Une paix inachevée

Depuis 2016, en dépit de l’accord, la violence continue de gangrener le pays. Elle est entretenue par l’Armée de libération nationale (ELN), groupe armé de gauche non signataire de l’accord de 2016 ; par des factions dissidentes des FARC, lesquelles ont été majoritairement démobilisées ; mais surtout par des organisations mafieuses devenues multicartes (drogue, trafic d’êtres humains, minerais) et de véritables multinationales du crime.

Le Clan del Golfo, héritier des groupes paramilitaires très à droite du spectre politique qui avaient pris part à la guerre civile contre les FARC, gère un chiffre d’affaires annuel de près de 18 milliards de dollars (plus de 15 milliards d’euros). C’est la plus grande organisation criminelle du pays ; elle cohabite avec une multitude de gangs locaux et avec les groupes armés dissidents. Les idéologies marxistes qui animaient les guérillas au début des années 1960 se sont progressivement transformées en un pragmatisme mêlant collaboration avec les cartels et prébendes du trafic de cocaïne. Le narratif révolutionnaire a disparu au profit du dieu Dollar.

Face à cette réalité persistante, il est instructif de retracer l’évolution du rôle joué par les entreprises dans ce processus de paix inachevé. En effet, dès le début des pourparlers et jusqu’à la signature des accords de La Havane, les entreprises ont joué un rôle important dans le processus de construction de la paix.

Aujourd’hui encore, elles demeurent des acteurs clés. Cependant, leur engagement n’est ni homogène, ni linéaire, ni constant. Les fondements structurels ou idéologiques de cette participation répondent à des intérêts économiques, territoriaux et politiques variés et complexes, comme le montre l’étude empirique menée par Rettberg et Aceros.

La diplomatie des affaires au service de la consolidation de la paix

Les modèles conceptuels de la diplomatie ont largement évolué. Le constat de l’inefficacité de la seule médiation gouvernementale pour la résolution des conflits avait conduit l’ancien diplomate américain Joseph Montville à développer dans les années 1980 la notion de « diplomatie parallèle ». Elle traduit la partie informelle qui sous-tend les relations internationales.

Dans les années 1990, le modèle à voies multiples proposé par Louise Diamond et complété par l’ambassadeur John McDonald reflète mieux la complexité des diplomaties alternatives et l’augmentation des parties prenantes qui y participent. Les entreprises et la diplomatie des affaires deviennent une voie possible et crédible pour la résolution des conflits.

Le début de la décennie suivante offre une reconnaissance internationale du rôle accru des entreprises dans la bonne marche du monde. Le programme Global Compact des Nations unies tient compte de la puissance économique des multinationales – dont le chiffre d’affaires dépasse parfois le PIB de certains États – et les considère comme des acteurs essentiels pour atteindre certains objectifs de développement durable de l’Agenda 2030, notamment l’ODD 16, qui consiste à s’engager pour la paix, la justice et des institutions efficaces. Le plan stratégique (2024-2025) embarque les PME dans le programme.

Ce n’est pas seulement la philanthropie qui incite les entreprises à s’impliquer dans un processus de consolidation de la paix. Surtout lorsque le pays en conflit est riche en ressources renouvelables (terres agricoles fertiles, potentiel hydroélectrique, forêts…) ou en réserves épuisables (pétrole, gaz, charbon, or, diamants…).

Néanmoins, quel que soit l’intérêt qu’elles y trouvent (marges conséquentes, parts de marché, avantage concurrentiel, croissance rapide, RSE), les entreprises jouent indéniablement un rôle. Celui-ci peut être positif ou négatif. Elles ne sont en effet ni facilitatrices de la résolution d’un conflit par nature ni a contrario nécessairement alimentatrices de tensions existantes. Leur implication est toujours nuancée, elle dépend du contexte dans lequel elles opèrent. Les ONG documentent autant de cas montrant leurs apports à la construction de la paix que leurs comportements prédateurs.

Dans le cas de la Colombie, des acteurs du secteur privé ont participé aux négociations et à la signature des accords de paix avec les FARC en 2016. Ce succès représentait l’espoir de mettre fin au conflit le plus long du monde occidental, impliquant à partir des années 1990, la communauté internationale, qui apporta soutien et coopération aux autorités du pays.

Un référendum rejeta dans un premier temps le traité de paix. Mais, il fut révisé et approuvé par le Congrès colombien (plutôt que soumis à une autre validation populaire), sous le nom d’accord du théâtre Colón le 24 novembre 2016.

Une implication progressive des entreprises

L’engagement des entreprises colombiennes dans le processus de paix s’inscrit dans une trajectoire marquée par une intensification progressive et une professionnalisation croissante.

La période 1982-1998 constitue une phase d’apprentissage timide. En 1984, dans un discours télévisé, le président Belisario Betancur évoque l’importance des milieux d’affaires dans la recherche d’une solution pacifique au conflit. Cette reconnaissance marque le début d’une action accrue des entrepreneurs au sein des sphères publique et politique, dans un contexte marqué par des processus de négociation avec les groupes armés. Des personnalités du monde des affaires sont directement impliquées : Nicanor Restrepo, alors à la tête du Grupo Empresarial Antioqueño (GEA), un conglomérat regroupant près de 125 entreprises, est nommé Haut Commissaire pour la paix. À partir de 1992, le gouvernement prélève des impôts pour financer le processus de paix, une contribution largement acceptée par les entreprises.

Le tournant survient au milieu des années 1990 lorsque l’explosion de la violence multiplie les coûts pour les entreprises. Celles-ci soutiennent alors les marches citoyennes et le Mandat pour la paix, un vote symbolique non officiel lors des élections locales d’octobre 1997, qui recueille dix millions de voix. Les Colombiens expriment ainsi leur désir de voir la fin du conflit armé, faisant de ce geste l’une des plus grandes mobilisations citoyennes pour la paix de l’histoire latino-américaine. Néanmoins, peu d’entrepreneurs désirent faire partie intégrante de l’effort national pour la paix. Le conflit épargnant la majeure partie du tissu économique, qui est concentré dans les quatre grandes métropoles (Bogota, Barranquilla, Cali, Medellin), nombre d’entre eux adoptent une position prudente ou attentiste.

L’administration Pastrana (1998-2002) marque un changement radical. Le conflit affecte désormais directement les entreprises avec l’explosion du nombre d’enlèvements, dont près de 15 % touchent la communauté des affaires. Les FARC imposent, sur les territoires qu’elles contrôlent directement ou indirectement, une taxe de 10 % sur les actifs dépassant un million de dollars (849 000 euros environ), tandis que les dépenses de sécurité privée explosent pour représenter de 4 à 6 % des budgets d’entreprise. Les entrepreneurs participent activement aux négociations de San Vicente del Caguán, créent des think tanks et multiplient les actions locales.

Des initiatives structurées émergent et essaiment, comme le réseau national de programmes régionaux de développement et de paix. Elles tentent de s’attaquer aux causes structurelles de la violence que sont la pauvreté, l’accès à l’éducation et à la santé en associant les entreprises, l’Église (souvent la plus légitime à l’échelon territorial), les organisations internationales et les communautés locales.

Toutefois, l’échec du processus et l’escalade de la violence érodent progressivement ce soutien.

L’illusion d’une victoire militaire

Sous l’administration Uribe (2002-2010), l’approche se durcit. Le président privilégie la stratégie sécuritaire et la lutte armée. Le secteur privé soutient massivement cette orientation en acceptant une réforme fiscale sévère, payant simultanément pour la paix et la guerre. La réduction des homicides et des enlèvements améliore la perception de sécurité, conduisant certains entrepreneurs à envisager une solution purement militaire. Mais ils réalisent finalement qu’une paix durable ne peut résulter d’une politique exclusivement sécuritaire. Une étude de l’Université de Los Andes auprès de 1 113 entreprises révèle qu’en l’absence de violence, les entreprises investiraient davantage, confirmant l’existence d’un important « dividende de la paix ».

L’administration Santos (2012-2016) représente l’apogée de l’implication entrepreneuriale. Le gouvernement consulte régulièrement la communauté des affaires dès la phase exploratoire secrète. Les entreprises financent discrètement les contacts préliminaires et participent directement aux négociations. Une délégation de huit organisations patronales se rend à La Havane en novembre 2015, aboutissant à la création du Conseil d’entreprises pour la paix durable. Néanmoins, cette implication ne fait pas consensus. Certains entrepreneurs, craignant des concessions excessives, financent la campagne du « Non » au référendum d’octobre 2016.

La période post-accord, une occasion ratée ?

Un travail de recherche publié en 2019 montre que peu d’entreprises perçoivent un changement majeur dans leurs opérations. Le secteur minier constate que les groupes illégaux ont simplement remplacé les FARC. L’avantage principal reste l’accélération de projets déjà prévus et l’accès à de nouvelles zones d’opération qui bénéficient d’un classement spécial – les programmes de développement avec approche territoriale (PDET) et les zones les plus affectées par le conflit armé (ZOMAC) – qui donnent droit à des exonérations fiscales en contrepartie d’investissements notamment dans les infrastructures.

Ainsi, à travers ces quatre décennies, le secteur privé colombien est devenu un acteur incontournable du processus de paix, tout en restant fondamentalement hétérogène dans ses motivations, ses perceptions et ses actions. Cette trajectoire illustre la façon dont l’intensification du conflit, la perception croissante des coûts économiques, le développement de la culture RSE et l’apprentissage institutionnel ont transformé des entrepreneurs initialement distants en parties prenantes essentielles de la construction de la paix colombienne.

L’engagement du secteur privé, bien que motivé par des intérêts économiques, peut constituer un levier puissant pour la consolidation de la paix – à condition qu’il s’inscrive dans un cadre institutionnel solide et qu’il soit accompagné d’une véritable volonté politique et d’une collaboration entre l’ensemble des parties prenantes à une situation de conflit. La question qui se pose désormais est celle de la durabilité : comment maintenir cet engagement entrepreneurial dans la durée, particulièrement lorsque les « dividendes de la paix » tardent à se matérialiser ?

The Conversation

Frédéric Martineau est président de l'AMAEPF.

25.02.2026 à 16:48

Un singe star du Net, sa peluche et une expérience vieille de 70 ans : ce que Punch nous dit de la théorie de l’attachement

Mark Nielsen, Associate Professor, School of Psychology, The University of Queensland
Pourquoi un bébé singe préfère-t-il une peluche à une source de nourriture ? L’histoire virale de Punch, le bébé macaque du zoo d’Ichikawa, au Japon, ravive un débat ancien sur la place du réconfort dans le développement.
Texte intégral (1556 mots)

La vidéo d’un petit singe blotti contre une peluche a ému la planète. Derrière l’émotion, elle rappelle une leçon majeure de la psychologie : on ne grandit pas seulement avec de la nourriture, mais avec du lien.


Sa quête de réconfort a ému des millions d’internautes. Punch, un bébé macaque, est devenu une célébrité d’Internet. Abandonné par sa mère et rejeté par le reste de son groupe, il s’est vu offrir par les soigneurs du zoo municipal d’Ichikawa, au Japon, une peluche d’orang-outan pour lui servir de mère de substitution. Les vidéos le montrant agrippé au jouet ont depuis fait le tour du monde.

Mais l’attachement de Punch à son compagnon inanimé ne se résume pas à une vidéo bouleversante. Il renvoie aussi à l’histoire d’une célèbre série d’expériences en psychologie, menées dans les années 1950 par le chercheur américain Harry Harlow.

Les résultats de ces travaux ont nourri plusieurs des principes fondamentaux de la théorie de l’attachement, selon laquelle le lien entre le parent et l’enfant joue un rôle déterminant dans le développement de ce dernier.

En quoi consistaient les expériences de Harlow ?

Harry Harlow a séparé des singes rhésus de leur mère dès la naissance. Ces petits ont ensuite été élevés dans un enclos où ils avaient accès à deux « mères » de substitution.

La première était une structure en fil de fer, à laquelle on avait donné la forme d’une guenon, équipée d’un petit dispositif permettant de fournir nourriture et boisson.

La seconde était une poupée en forme de singe, recouverte d’éponge et de tissu éponge. Douce et réconfortante, elle n’apportait pourtant ni nourriture ni eau : ce n’était guère plus qu’une silhouette moelleuse à laquelle le petit pouvait s’agripper.

Un petit singe repose blotti contre sa mère de substitution en tissu
La « mère » en fil de fer et la « mère » en tissu dans l’expérience de Harlow. H. F. Harlow (1958). « The nature of love », American Psychologist, 13(12), 673–685

On se retrouve donc avec, d’un côté, une « mère » qui offre du réconfort mais ni nourriture ni boisson, et, de l’autre, une structure froide, dure et métallique, qui assure l’apport alimentaire.

Ces expériences répondaient au béhaviorisme, courant théorique dominant à l’époque. Les béhavioristes soutenaient que les bébés s’attachent à celles et ceux qui satisfont leurs besoins biologiques, comme la nourriture et l’abri.

Harlow a ainsi battu en brèche cette théorie en affirmant qu’un bébé ne se construit pas seulement à coups de biberons : il a besoin de contact, de chaleur et d’attention pour s’attacher.

Selon une lecture strictement béhavioriste, les petits singes auraient dû rester en permanence auprès de la « mère » en fil de fer, celle qui les nourrissait. C’est l’inverse qui s’est produit. Ils passaient l’essentiel de leur temps agrippés à la « mère » en tissu, douce mais incapable de leur donner à manger.

Dans les années 1950, Harlow a ainsi démontré que l’attachement repose d’abord sur le réconfort et la tendresse. Face au choix, les bébés privilégient la sécurité affective à la simple satisfaction des besoins alimentaires.

En quoi cela a-t-il influencé la théorie moderne de l’attachement ?

La découverte de Harlow a marqué un tournant, car elle a profondément remis en cause la vision béhavioriste dominante à l’époque. Selon cette approche, les primates – humains compris – fonctionneraient avant tout selon des mécanismes de récompense et de punition, et s’attacheraient à celles et ceux qui répondent à leurs besoins physiques, comme la faim ou la soif.

Dans ce cadre théorique, la dimension affective n’avait pas sa place. En menant ses expériences, Harlow a renversé cette grille de lecture : il a montré que l’attachement ne se réduit pas à la satisfaction des besoins biologiques, mais repose aussi, et surtout, sur le lien émotionnel.

La préférence des petits singes pour la « nourriture émotionnelle » – en l’occurrence les câlins à la mère de substitution recouverte de tissu éponge – a posé les bases de la théorie de l’attachement.

Selon cette théorie, le développement harmonieux d’un enfant dépend de la qualité du lien qu’il tisse avec la personne qui s’occupe de lui. On parle d’attachement « sécurisé » lorsque le parent ou le proche référent apporte chaleur, attention, bienveillance et disponibilité. À l’inverse, un attachement insécure se construit dans la froideur, la distance, la négligence ou la maltraitance.

Comme chez les singes rhésus, nourrir un bébé humain ne suffit pas. Vous pouvez couvrir tous ses besoins alimentaires, mais sans affection ni chaleur, il ne développera pas de véritable attachement envers vous.

Que nous apprend le cas de Punch ?

Le zoo ne menait évidemment aucune expérience. Mais la situation de Punch reproduit, presque malgré elle, le dispositif imaginé par Harlow. Cette fois, ce n’est plus un laboratoire, mais un environnement bien réel – et pourtant, le résultat est étonnamment similaire. Comme les petits singes de Harlow qui privilégiaient la « mère » en tissu éponge, Punch s’est attaché à sa peluche Ikea.

Dans le cas du zoo, il manque évidemment un élément clé de l’expérience originale : il n’y a pas, en face, d’option dure mais nourricière avec laquelle comparer. Mais au fond, ce n’est pas ce que cherchait le singe. Ce qu’il voulait, c’était un refuge doux et rassurant – et c’est précisément ce que lui offrait la peluche.

Les expériences de Harlow étaient-elles éthiques ?

Aujourd’hui, une grande partie de la communauté internationale reconnaît aux primates des droits qui, dans certains cas, s’apparentent à ceux accordés aux humains.

Avec le recul, les expériences de Harlow apparaissent comme particulièrement cruelles. On n’envisagerait pas de séparer un bébé humain de sa mère pour mener une telle étude ; pour beaucoup, il ne devrait pas davantage être acceptable de l’infliger à des primates.

Il est frappant de voir à quel point ce parallèle avec une expérience menée il y a plus de 70 ans continue de fasciner. Punch n’est pas seulement la nouvelle star animale d’Internet : il nous rappelle l’importance du réconfort et du lien.

Nous avons tous besoin d’espaces doux. Nous avons tous besoin d’endroits où nous sentir en sécurité. Pour notre équilibre et notre capacité à avancer, l’amour et la chaleur humaine comptent bien davantage que la simple satisfaction des besoins physiques.

The Conversation

Mark Nielsen a reçu des financements de l'Australian Research Council.

25.02.2026 à 16:40

European Capitals of Culture: a diplomatic linchpin in an unstable world?

Maria Elena Buslacchi, socio-anthropologue, chercheuse post-doc à L'Observatoire des publics et pratiques de la culture, MESOPOLHIS UMR 7064, Sciences Po / CNRS / Aix-Marseille Université, Aix-Marseille Université (AMU)
In a geopolitical landscape that is more and more fragmented, the European Capitals of Culture initiative and its evolving role in fostering diplomacy and unity are up for debate.
Texte intégral (2257 mots)
Trenčín in Slovakia (pictured here with its castle on a hill), and Finland's main port city Oulu jointly carry the 2026 European Capital of Culture crown. CC BY

This year the cities of Trenčín in Slovakia and Oulu in Finland took the helm as Europe’s cultural beacon cities. As the Old Continent redefines its role on the global geopolitical stage, the European Capitals of Culture (ECoC) programme is at a turning point. The European Commission recently launched a public forum initiative to collectively rethink the future of the programme after 2033. ECoC’s role as a tool for cultural diplomacy is now more important than ever.

Created in 1985 against a backdrop of thawing Cold war tensions and the political construction of the European Union project, the European Capital of Culture initiative was initially designed to celebrate the continent’s cultural diversity. Since then, it has become a laboratory for contemporary policies, but also a barometer of the hopes, contradictions and challenges of Europe itself.

Historical context is key to understanding the launch of the European Capitals of Culture: the end of the Cold War, in a divided Europe where the Iron Curtain was beginning to crumble and the European Economic Community (EEC) was gradually expanding. The programme came about, incidentally, thanks to a chance conversation at an airport between two prominent politicians: Jack Lang, who was France’s Minister for Culture Culture at the time, and Melina Mercouri, an activist actress who was then Greece’s Secretary of State for Culture.

Both had an ambitious vision: to use culture as a vehicle for unity, even though it seemed an overlooked aspect of European policy, as Monica Sassatelli, a sociologist at the University of Bologna, points out in her study on the role of culture in the historiography of European politics. The first cities which were chosen – Athens, Florence, Amsterdam, then Paris translates an aspiration for awarding the future European Union symbolic legitimacy. These historical capitals, as beacons of artistic and intellectual heritage, embody Europe’s arts, creativity and traditions, which transcend political and economic division.

Culture as a tool for urban generation

Next up was Glasgow (Scotland, UK). A declining industrial city marked by deindustrialisation and endemic unemployment, Glasgow City Council developed a strategy to revitalise the city centre in the late 1980s, aiming to mark a symbolic turning point and pave the way for its title as European Capital of Culture in 1990.

The promotional campaign “Glasgow’s Miles Better” pioneered the mix of former warehouses and culture, with the aim of revamping certain key cultural institutions (Scottish Opera, Ballet and Orchestra, BBC Symphony Orchestra, Citizen Theatre) and creating a new exhibition centre capable of hosting local and international artists and events. The Scottish city’s Arts Director Robert Palmer, future author of the first report on the initiative in 2004, considered the 1990 event as the starting point for a participatory process of redefining local culture “from the bottom up”, which could include artistic excellence as well as historical, rural and industrial traditions, and reconnect with a well-established tradition of popular culture and leisure activities.

Alongside major concerts by Luciano Pavarotti and Frank Sinatra, a whole series of associations and small local collectives took to the stage. In Glasgow, the year 1990 redefined the boundaries of the word “culture”, ultimately embracing the city’s industrial history and allowing its population to identify with it.

According to sociologist Beatriz Garcia, this regenerative effect on images and local identities is the strongest and most lasting legacy of the ECoC, beyond its economic and material impacts. This pioneering case, alongside other contemporary examples such as Bilbao and Barcelona in Spain, serves as a model. In other European cities, industrial premises are being transformed into theatres, museums or festival venues: the “Creative City” attracts millions of visitors and stimulates the local economy. When Lille in Northern France was elected “ECoC 2004”, it unveiled a dozen “maisons folies” across greater Lille and Belgium. These “crucibles of artistic and cultural innovation”, local initiatives cropped up, for the most part, on abandoned sites or former industrial wasteland.

The Maison folie in Wazemmes (Lille). Wikimedia, Karlsupart, CC BY

In 2008, Liverpool (England, UK) used the programme to regenerate its waterfront and attract investment. At the turn of the century, the ECoC initiative was no longer limited to promoting cities that were already shining a light on international cultural scene, but became a real tool for urban transformation, used by places that were struggling to economically or socially reinvent and reposition themselves.

This change marks an evolution in urban policy, where culture is increasingly seen as a lever for economic development, on a par with infrastructure and policies designed to attract visitors. European Capitals of Culture are becoming an instrument of this policy, capable of attracting public and private funding, creating jobs in the cultural and tourism sectors, and improving the image of cities that are often stigmatised.

ECoC: an experimental space for testing contemporary transitions

However, this approach has its critics. The first reflective studies conducted in the early 2010s highlight how they can also exacerbate social and spatial inequalities if they are not accompanied by inclusive public policies. In Marseille in the South of France, in 2013, the issue became public with the organisation of an unofficial programme on the sidelines – i.e. parallel and alternative fringe events denouncing the side effects and undesirable consequences of the official programme. While Marseille’s stint as an ECoC was still an expression of the regeneration logic at work in previous years, it also marked the moment when social inclusion emerged as a central issue for these mega-events.

The Europe-wide cultural initiative has always been open to criticism, partly thanks to the very mechanics of the project, which often sees people who played a key role in previous editions of the programme returning to the selection panels for electing new European Capitals of Culture. Their participation, which had been questioned during Marseille-Provence 2013, has thus become an essential part of successive editions – in Matera-Basilicata (Italy) 2019, and citizen involvement will be one of the project’s key themes.

At the end of the 2010s, European Capitals of Culture also became a platform for the major challenges of the 21st century and a space for experimenting with ecological, social and digital transitions. Rijeka, Croatia, European Capital of Culture in 2020, illustrates the evolution. The city, marked by its industrial past and significant migration flows, focuses its programme on issues of migration and minorities, echoing the humanitarian crises affecting Europe. The cultural projects that have been set up: exhibitions, artist residencies, public debates brought together under the slogan ‘Port of Diversity’ – aim to promote intercultural dialogue and question the multiple identities of contemporary Europe. Similarly in the French town Bourges, in the running for 2028, is building its bid around ecological transition. The “Bourges, territory of the future” project is taking on the challenge of carbon neutrality for the event, using the ECoC as a springboard for climate action at the local level.

2033 and beyond: ECoC facing geopolitical and environmental challenges

While the European Capitals of Culture scheme is currently scheduled to run until 2033, the future of the title is under debate. The European Commission has launched a public consultation to imagine tomorrow’s ECoCs, in a context marked by geopolitical and environmental crises. The 2025 European Capitals of Culture, Chemnitz (Germany) and Nova Gorica/Gorizia (Slovenia), have developed a white paper on the future of the cultural initiative, based on observations from 64 past and future European Capitals of Culture. Forty recommendations are proposed to influence the programme reform process in the post-2034 cycle.

Among its key themes, the white paper emphasises the desire to strengthen the European dimension. This could be achieved by introducing a fundamental selection criterion based on European identity, emphasising European values in programming, developing a unified branding strategy and strengthening cross-border cooperation.

The selection and monitoring process, deemed too bureaucratic, is also being called into question, with the main recommendation being to favour encouraging rather than punitive monitoring. The legacy of the event is also up for debate: cities should be held accountable for delivering on the promises made in their bids, and national governments should be more involved in supporting cities during and after their capital year. The dissemination of good practices, peer review and mentoring between former and future ECoCs, which already exist informally, should be recognised and institutionalised, in particular through the possible creation of a central platform supported by the European institutions.

The challenge now is reconciling its symbolic and strategic role, ensuring that future editions do not merely celebrate, but aim to bolster democratic participation and transnational solidarity in an increasingly fragmented geopolitical landscape.

A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!

The Conversation

Maria Elena Buslacchi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

25.02.2026 à 12:48

Autrefois dissimulés, les « assassinats ciblés » sont devenus des instruments assumés du pouvoir d’État

Kevin Foster, Associate Professor, School of Languages, Literatures, Cultures and Linguistics, Monash University
Dans « Death to Order », l’historien Simon Ball montre comment l’assassinat, longtemps dissimulé derrière le secret d’État, est devenu un instrument revendiqué de la puissance publique.
Texte intégral (3600 mots)

Frappes de drones, annonces sur les réseaux sociaux, revendications publiques : l’assassinat n’est plus une opération clandestine honteuse mais un message politique. Dans son nouveau livre, l’historien Simon Ball enquête sur la normalisation d’une violence d’État.


En novembre 2012, les Forces de défense israéliennes (FDI) ont utilisé Twitter – comme on l’appelait alors – pour annoncer qu’elles avaient tué Ahmed al-Jabari, chef des Brigades al-Qassam, la branche militaire du Hamas, à Gaza.

Cette annonce, accompagnée d’un lien vers une vidéo pixellisée de la frappe aérienne visant la voiture d’al-Jabari, marquait le début d’une nouvelle incursion des FDI à Gaza. Comme l’ont noté les historiennes Adi Kuntsman et Rebecca L. Stein dans leur livre Digital Militarism, elle a fait de l’opération « Pilier de défense » d’Israël « la première campagne militaire à avoir été déclarée via Twitter ».

Ce qui frappait également dans cette annonce, c’était la fierté et l’audace avec lesquelles les FDI célébraient ce qu’elles avaient fait. À peine une décennie plus tôt, Israël, comme les États-Unis, le Royaume-Uni et les puissances européennes, aurait éludé les questions sur sa responsabilité dans l’attaque ou nié avec ténacité. Les gouvernements n’assassinaient pas des personnes – c’était le fait de fanatiques politiques et d’extrémistes religieux.

Les choses avaient changé. Et profondément. La même année, le président Barack Obama demanda à John Brennan, son conseiller adjoint à la sécurité intérieure et à la lutte contre le terrorisme, de faire une déclaration publique sans ambiguïté sur la politique des États-Unis concernant l’usage de frappes de drones pour cibler des ennemis nommément désignés des États-Unis. Dans un discours au Wilson Center, Brennan déclara :

en totale conformité avec la loi, et afin de prévenir des attaques terroristes contre les États-Unis et de sauver des vies américaines, le gouvernement des États-Unis mène des frappes ciblées contre des terroristes spécifiques d’al-Qaida.

Le fait que les Américains, ainsi qu’un certain nombre de leurs alliés, tuaient – ou tentaient de tuer – leurs ennemis était, observa Brennan, « le secret le moins bien gardé du monde ». Il était temps que la « mascarade » prenne fin, d’appeler les choses par leur nom – ou, plus précisément, d’appeler une mise à mort ciblée un assassinat.

La nouvelle, cette semaine, selon laquelle le dissident russe Alexeï Navalny est mort après avoir prétendument ingéré du poison provenant d’une grenouille sud-américaine alors qu’il était emprisonné dans l’Arctique, rappelle que la Russie possède elle aussi une longue histoire d’assassinats de critiques du régime.

Dans Death to Order : A Modern History of Assassination (non traduit en français), Simon Ball propose une histoire de l’assassinat au cours du dernier siècle environ, fondée sur des recherches minutieuses et d’une lecture particulièrement captivante. Ball est professeur d’histoire et de politique internationales, et ces spécialités structurent l’approche du livre.

En conséquence, son livre s’intéresse moins à l’évolution des armes ou aux changements tactiques nécessaires aux mises à mort ciblées – jusqu’au développement du drone, ceux-ci sont restés en grande partie inchangés pendant plus d’un siècle – qu’à l’assassinat en tant qu’instrument de la politique d’État.

Dans une comparaison particulièrement imagée, Ball affirme que l’étude de l’assassinat « revient à faire glisser une lame de rasoir le long de l’histoire de la politique internationale ». La coupure qui en résulte peut être étroite, mais elle est longue et profonde. Elle révèle « l’exercice réel du pouvoir dans la politique internationale ».

Assauts déterminés

Si nombre des assassinats les plus marquants du siècle dernier – Mahatma Gandhi, John F. Kennedy, Martin Luther King Jr., Robert Kennedy, le Premier ministre suédois Olof Palme – sont évoqués, ils ne constituent pas le cœur de l’ouvrage.

Chacun de ces assassinats a donné lieu à des enquêtes approfondies et souvent prolongées, visant à établir un mobile politique et à identifier la main cachée d’une puissance hostile. Ainsi, l’enquête officielle sur le meurtre de Palme, en février 1986, n’a été close qu’en 2020.

Dans une affaire plus célèbre encore, l’assassinat du président Kennedy à Dallas en novembre 1963, les enquêteurs américains se sont employés avec ténacité à établir une éventuelle implication soviétique, d’abord au sein de la Commission Warren, puis de la Commission spéciale de la Chambre des représentants sur les assassinats, convoquée treize ans après les faits.

Le président John F. Kennedy à Dallas, au Texas, quelques minutes avant son assassinat, le 22 novembre 1963. Walt Cisco, Dallas Morning News, Public domain, via Wikimedia

Malgré la soif du public et du monde politique pour des révélations de complots dignes de romans d’espionnage, Ball rappelle avec constance qu’aucune preuve n’est venue étayer une telle thèse. Ces assassinats furent le fait d’individus isolés, animés par des vendettas personnelles, des haines intimes ou des troubles psychiques.

Ils ne sont donc pas au cœur de son propos. Les victimes qu’il étudie sont moins des chefs d’État que leurs serviteurs loyaux. Son enquête révèle à quel point proconsuls, diplomates et responsables de la sécurité des grandes puissances étaient exposés aux attaques résolues de leurs adversaires.

Ne pas paraître faible

Pendant près d’un siècle, les partisans de l’émancipation face à la domination étrangère et à l’oppression économique ont fait exploser des bombes, parfois poignardé, mais le plus souvent abattu à bout portant, à l’arme légère, des représentants des puissances occupantes. Des assassinats ciblés ont eu lieu en Inde, en Irlande, en Algérie, en Malaisie, au Vietnam, en Palestine, en Égypte – bref, dans presque toutes les régions du monde passées sous la coupe d’un empire. La violence a même gagné les capitales des puissances coloniales.

L’une des révélations les plus frappantes du livre tient au temps qu’il fallut aux Britanniques surtout – mais aussi aux Français et aux Américains – pour admettre que la menace pesant sur leurs agents en poste à l’étranger, dans des environnements instables, était démesurément élevée. Pendant des décennies, le prestige impérial interdisait à ses représentants toute manifestation visible d’inquiétude pour leur sécurité personnelle. À Londres, bien après la Seconde Guerre mondiale, on estimait encore qu’une attention excessive portée à la sécurité risquait d’entamer la mystique d’autorité de la puissance dominante et de donner le sentiment d’un aveu de faiblesse.

Sur le terrain, les agents ne partageaient pas cet état d’esprit. Des dizaines d’entre eux furent poignardés ou abattus avant de convaincre leurs ministres de revoir leur position et de mettre en place des dispositifs de protection adéquats.

Si ce tournant se fit tant attendre, c’est que, tout en reconnaissant en privé la menace que des oppositions bien organisées faisaient peser sur leur domination, les gouvernements s’astreignaient publiquement à minimiser la portée d’actes de violence politique présentés comme isolés – ainsi que l’ampleur du soutien dont ces mouvements bénéficiaient parmi les populations occupées ou opprimées.

Le règlement de ces questions, plus larges, de légitimité et d’autorité reposait sur un dialogue prolongé entre les administrations coloniales et les élites politiques émergentes dans les territoires occupés. Il exigeait des négociations minutieuses et des compromis douloureux, impossibles à arracher dans la fournaise d’un soulèvement populaire. D’où la nécessité d’entretenir l’illusion du calme.

Le « script libéral » qui a façonné, pendant une grande partie du XXe siècle, la réponse du gouvernement britannique aux assassinats de ses représentants a pris forme sous le gouvernement de H.H. Asquith (1908-1916). Il s’articulait autour de trois principes essentiels :

1) Il existait des preuves d’un complot organisé visant à commettre des assassinats.

2) Très peu de personnes étaient impliquées dans ce complot.

3) Ce complot était dangereux en raison de la violence de ses méthodes, et non parce qu’il constituait la partie émergée d’un mouvement plus large.

En soutenant que ces meurtres étaient le fait d’un petit nombre de fanatiques – et non l’expression d’une opposition vaste et structurée –, les autorités pouvaient circonscrire, voire étouffer, l’agitation politique. Dans le même temps, les négociations se poursuivaient lentement, à huis clos.

« Assassins d’honneur » et activités clandestines

L’assassinat n’a eu aucune influence significative sur le cours, la conduite ou l’issue de la Seconde Guerre mondiale. En revanche, la guerre a profondément transformé l’assassinat en tant qu’outil d’État.

L’action des deux Tchèques qui tuèrent le général nazi Reinhard Heydrich, les multiples tentatives avortées d’assassinat contre Hitler, ou encore le geste de l’aristocrate irlandaise, troublée ou animée de principes inébranlables, Violet Gibson, qui, en avril 1926, tira sur Mussolini au « museau » (« In the snout », selon la formule inimitable de la chanteuse folk Lisa O’Neill) sans parvenir à le tuer, ont offert de nombreux exemples – plus souvent morts que vivants – de ce que l’on a appelé « l’assassin d’honneur ».

Benito Mussolini en 1926, peu après la tentative d’assassinat de Violet Gibson. Public domain, via Wikimedia

Pour ceux attachés à la démocratie libérale, il n’y avait qu’un pas entre la figure du tueur agissant par principe et l’idée que des puissances démocratiques fortes devaient elles aussi se doter de la capacité de procéder à des éliminations ciblées. Il s’agissait de prévenir la montée de l’intolérance en supprimant ses porte-voix, de combattre le feu par le feu.

Dans les années 1950 et 1960, certains gouvernements démocratiques, au premier rang desquels la France et les États-Unis, ont supervisé – ou laissé faire – des assassinats politiques de représailles contre leurs ennemis. Cette pratique a fini par être admise au point que les conflits militaires de grande ampleur en Algérie et au Vietnam ont été menés, pour une part non négligeable, à travers des programmes d’assassinats conduits à l’échelle industrielle.

Les questions d’autorité et de protocole devinrent centrales. Au début des années 1960, la branche spécialisée de la CIA chargée des « opérations exécutives » s’employait à déstabiliser des régimes en Amérique centrale, en organisant et en armant des insurrections, et en appuyant des opérations d’assassinat. D’autres services de l’agence rédigeaient les textes nécessaires – un véritable manuel d’assassinat à l’usage de l’homme de terrain – et définissaient la doctrine encadrant ces activités clandestines. En somme, il s’agissait de décider qui était habilité à autoriser un assassinat.

À mesure que cette responsabilité remontait progressivement jusqu’au bureau du président, l’assassinat s’imposa comme un instrument explosif de l’art de gouverner – un outil susceptible de faire voler en éclats la façade du gouvernement en place et de mettre en cause son discours sur la défense des principes démocratiques.

Assassinats ciblés

Au fil des années 1970 et jusque dans les années 1980, les troubles en Irlande du Nord se sont progressivement étendus au territoire britannique. À mesure que le conflit gagnait le continent, les efforts du gouvernement pour maintenir le scénario « asquithien » se sont effondrés. L’idée implicite selon laquelle un certain niveau d’assassinats constituait le prix à payer pour exercer le pouvoir dans une société libérale, ouverte et démocratique n’était plus tenable.

À mesure que les attaques de l’IRA contre l’élite politique britannique devenaient plus sophistiquées, plus ciblées et plus meurtrières, un tournant décisif s’est opéré dans les cercles dirigeants en matière de sécurité. En 1982, la « Protection » est devenue un commandement permanent au sein de la Metropolitan Police, la police de Londres.

Alors que des débouchés lucratifs s’ouvraient pour d’anciens membres des forces spéciales dans les nouvelles industries de la sécurité, les chercheurs américains en matière de défense continuaient d’affiner les capacités permettant de frapper des ennemis avec une précision accrue, à des distances toujours plus grandes.

Avec l’entrée en service des premiers drones armés, l’administration de George W. Bush a redéfini la notion d’assassinat afin d’en exclure les frappes « défensives » préventives visant des individus nommément désignés et considérés comme une menace pour les États-Unis ou leurs personnels. De là, il n’y eut qu’un pas vers le recours massif aux assassinats ciblés en Asie centrale, au Moyen-Orient et en Afrique de l’Ouest.

Alors que d’anciens membres des forces spéciales trouvaient des débouchés très rémunérateurs dans les nouvelles entreprises privées de sécurité, les chercheurs américains travaillant pour la défense perfectionnaient, eux, des technologies permettant de viser leurs ennemis avec une précision croissante, à des distances toujours plus grandes.

Avec l’entrée en service des premiers drones armés, l’administration de George W. Bush a redéfini la notion d’assassinat afin d’en exclure les frappes « défensives » préventives visant des individus nommément désignés et considérés comme une menace pour les États-Unis ou leurs personnels. De là, il n’y eut qu’un pas vers le recours massif aux assassinats ciblés en Asie centrale, au Moyen-Orient et en Afrique de l’Ouest.

En 2007, l’armée américaine disposait de 24 drones dédiés aux opérations d’élimination ciblée. Deux ans plus tard, ce chiffre atteignait 180 appareils, dotés d’une capacité d’emport quinze fois supérieure à celle des modèles précédents. En 2025, le département américain de la Défense – récemment rebaptisé « département de la Guerre » – comptait plus de 11 000 aéronefs sans pilote dans son arsenal. Tous ne sont pas destinés à des missions d’élimination, certes. Mais les ordres de grandeur parlent d’eux-mêmes.

Autrefois arme privilégiée des combattants de la liberté, des mouvements d’indépendance et de leurs branches insurrectionnelles, l’assassinat est devenu aujourd’hui un instrument assumé de l’État et une composante à part entière de l’arsenal de ses forces armées.

Death to Order regorge d’épisodes saisissants et d’anecdotes frappantes – notamment celle d’une jeune Elizabeth II s’étonnant que personne n’ait glissé quelque chose dans le café du turbulent dirigeant nationaliste égyptien, le général Gamal Abdel Nasser.

Mais l’apport le plus marquant de l’ouvrage de Ball tient sans doute à la manière dont il retrace avec précision la sortie progressive de l’assassinat des coulisses du secret gouvernemental et militaire pour son exposition en pleine lumière, au cœur de la communication et de la propagande.

Depuis les attentats du 11 septembre 2001 – et plus encore au cours de la dernière décennie – la mise en scène de l’assassinat comme symbole concentré de la puissance étatique et de sa volonté implacable est devenue un puissant instrument de dissuasion contre toute opposition active, ainsi qu’un levier majeur de guerre informationnelle.

Doté d’un pouvoir de surveillance quasi divin, de son œil omniscient dans le ciel, le drone sait ce que vous avez fait et où vous vous trouvez. Nul n’échappe à sa vengeance. Les ides de mars sont là.

The Conversation

Kevin Foster ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

25.02.2026 à 12:44

La crise des vocations enseignantes, un défi récurrent dans l’histoire de l’école ?

Sébastien-Akira Alix, Professeur des universités en sciences de l'éducation et de la formation, Université Paris-Est Créteil Val de Marne (UPEC)
Les difficultés à recruter des enseignants reviennent régulièrement dans l’actualité. Mais sont-elles si récentes ?
Texte intégral (2361 mots)

Les difficultés à recruter des enseignants reviennent régulièrement dans l’actualité. Mais sont-elles si récentes ? Autour de quels enjeux s’articulent-elles ? Publié en février 2026 aux Presses du Septentrion, sous la coordination de Sébastien-Akira Alix, l’ouvrage Crises dans et hors l’école en France. Éclairages socio-historiques (des années 1960 à nos jours) nous aide à replacer dans une perspective historique le sujet, ainsi que d’autres questions comme la « baisse du niveau » des élèves, la dilution de l’autorité, les violences scolaires. Les analyses qui suivent sont extraites de l’introduction de l’ouvrage.


D’une manière générale, les recherches sur l’histoire de l’enseignement en France interdisent de penser que ce qu’on appelle communément dans le débat public « la crise des vocations enseignantes », « la crise d’attractivité des métiers de l’enseignement » ou « la crise du recrutement des enseignants » serait un phénomène d’origine récente et le signe d’un malaise propre au XXIe siècle. À cet égard, dans son ouvrage la Formation des maîtres en France, 1792-1914, l’historien Marcel Grandière a bien mis en lumière les importantes difficultés de recrutement que rencontrent les écoles normales primaires en France à partir de 1887, période pourtant souvent présentée dans le débat public comme un « âge d’or » de l’École sous la IIIe République.

À l’époque, ces écoles normales primaires, en charge de la formation des instituteurs et des institutrices du primaire, connaissent une baisse notable d’admissions alors que de nombreuses places sont disponibles et que les besoins de recrutement demeurent importants. Pour pallier ce manque, « les inspecteurs d’académie puisent largement dans le vivier des brevetés, sans formation ». Cette situation s’inscrit, à l’époque, dans la durée puisqu’en 1911, « une moyenne de 2 500 instituteurs et 3 200 institutrices sont recrutés chaque année, sur lesquels les normaliens ne comptent que pour 1 500, et les normaliennes 1 800. Les moyens manquent pour faire mieux ». Dans ce contexte spécifique, la crise devient, d’après Marcel Grandière, un problème public :

« Car, pour ajouter à la difficulté, les écoles normales souffrent, à partir de 1888, d’une sensible et durable crise des vocations. À partir de 1890 surtout, les revues spécialisées, puis la presse, s’en émeuvent : la crise du recrutement devient un problème public. À la chambre des députés, on parle de “péril primaire” en évoquant la difficulté du recrutement : “Le nombre de candidats à ces écoles normales, qui était inférieur de beaucoup à ce qu’il était antérieurement, s’est à peine relevé, si bien que la sélection n’a pu opérer comme on était en droit de le penser, et qu’on peut craindre que l’avenir ne révèle entre ces dernières promotions et celles qui les ont précédées une différence marquée. […] Il y a là pour l’avenir de nos écoles publiques un danger qui constitue ce qu’on a appelé le péril primaire.” »

À l’époque, cette baisse sensible du nombre de candidats – il y en avait 6 000 en 1882 contre 2 848 en 1888 – s’explique, en partie, par des raisons économiques, la loi du 19 juillet 1889 n’ayant « pas donné aux instituteurs les améliorations de revenus qu’ils attendaient depuis longtemps ».


À lire aussi : Le boom des profs non titulaires, un tournant pour l’Éducation nationale ?


D’autres travaux, comme ceux de Frédéric Charles sur les instituteurs entre 1955 et 1984, ont cherché à expliquer, à partir de « l’étude de l’évolution et des transformations du recrutement des normaliens et normaliennes des deux Écoles normales de Paris », la crise de recrutement que connaît l’enseignement primaire français au début des années 1980, en particulier en 1986, année où « l’Éducation nationale n’a pas réussi à recruter tous les instituteurs dont elle avait besoin : sur 5 000 postes, seulement 4 700 furent pourvus ». D’après Frédéric Charles, cette crise est alors liée à la dévalorisation du statut social des enseignants du primaire – ressentie fortement par les jeunes instituteurs – dans le contexte de la démocratisation quantitative du système éducatif, qui fait perdre à l’école primaire sa place centrale. Au cours de ces années, le métier d’instituteur fait, en effet, l’objet d’un processus de dévaluation lié « aux effets des réformes de 1959 qui […] situent désormais l’enseignement primaire comme une simple étape du cursus scolaire » ainsi qu’à la transformation corrélative des « dispositions des candidats, [et de] leurs rapports à l’institution ».

Sous l’effet de l’allongement de la scolarité obligatoire, la valeur distinctive du niveau de diplôme des enseignants est fortement relativisée, contribuant à une perte de prestige du métier : l’instituteur voit désormais « sa fonction se banaliser et sa reconnaissance sociale décroître ». Le métier cesse ainsi progressivement d’être une voie de promotion sociale pour les candidats, en particulier à partir de 1973, date à laquelle le recrutement en école normale ne se fait plus qu’après le baccalauréat. La composition sociale des écoles normales et le rapport que les élèves entretiennent à son égard s’en trouvent modifiés : « Faute d’avoir réussi dans l’entreprise de leurs études supérieures à l’Université, mais surtout d’avoir pu accéder à une grande école ou à l’École normale supérieure », une partie des normaliens « ont été amenés alors, pour éviter un déclassement social, à se rabattre sur la petite École normale d’instituteurs ». L’École normale n’apparaît ainsi pratiquement plus génératrice de mobilité sociale et l’intégration en son sein correspond, pour beaucoup de candidats, à « des stratégies de reclassement ou de lutte contre un déclassement social », sauf pour des jeunes femmes qui ont pu valoriser ces diplômes.

À côté de cette problématique propre aux normaliens, qui constituent 50 % du personnel enseignant primaire de la région parisienne, l’enseignement primaire fait face, dès les années 1950, à une « très grave crise » du recrutement. Pour y pallier, on recrute des « bacheliers sans aucune formation professionnelle » comme auxiliaires.

Selon une enquête d’Ida Berger, menée auprès des personnels enseignants du premier degré en 1957 pour le Centre d’études sociologiques de Paris, cette crise est, pour partie, liée au « malaise socio-professionnel », dont les causes sont liées à des salaires trop faibles ; au « manque de perspectives d’avenir dans la profession » ; à « la perte du prestige social de leur profession » ; ainsi qu’à la vétusté des bâtiments et au trop grand nombre d’élèves par classe. À cet égard, Ida Berger note :

« En face de 45-50 enfants, habitant souvent des taudis, mal nourris et hypernerveux, combien d’instituteurs sont à contrecœur obligés d’abdiquer en tant que pédagogues et de se transformer en “gendarmes” pour maintenir un semblant de discipline dans leur classe ? »

Dans l’enseignement secondaire, l’explosion scolaire, engagée dès les années 1960, conduit également à l’émergence d’une crise aiguë du recrutement entre 1955 et 1965. Avec l’arrivée de nouveaux publics, « la distance subjectivement vécue entre la carrière ambitionnée et la réalité actuellement perçue du professorat » est, pour un certain nombre d’enseignants, symptomatique d’une crise révélatrice d’« une baisse du statut du professorat de l’enseignement secondaire ». Le malaise enseignant devient, d’ailleurs, à cette époque une « catégorie médiatique ».


À lire aussi : Pourquoi tant de difficultés à recruter des enseignants ?


Si on peut être tenté de considérer que la création du statut de professeur des écoles en 1989 – qui rapproche le statut des instituteurs d’une partie des enseignants du secondaire, avec lesquels ils sont d’ailleurs formés, dès 1991, dans les Instituts universitaires de formation des maîtres (IUFM) –, aurait pu contribuer à clore cet épisode de « crise » pour les enseignants du primaire, il n’en est rien. L’historien Jean-François Condette a, de ce point de vue, bien souligné que « le contexte de création des IUFM est inséparable d’une crise aiguë de recrutement ». En effet, les besoins en recrutement d’enseignants, dans le primaire comme dans le secondaire, demeurent très importants pour affronter la seconde vague de la massification liée à l’objectif de 80 % d’une classe d’âge au niveau du baccalauréat. Le ministère peine, pendant cette période, à recruter : en 1988, 27 % des postes de certificat d’aptitude au professorat de l’enseignement du second degré (capes) et 15 % des postes d’agrégés ne sont pas pourvus, en dépit de la création des concours internes du capes et de l’agrégation. Les besoins en recrutement sont ainsi « estimés à 360 000 entre 1988 et 2000 ».

Dans le contexte des années 1990 et 2000, la question de la « crise du recrutement » et « des vocations » prend, en France, une tournure nouvelle, notamment liée aux transformations de la morphologie enseignante, avec une remise en question de l’accès au métier selon « un modèle d’accomplissement de vocation », dont la période présente est l’héritière. De ce point de vue, les importants travaux du sociologue Pierre Périer ont montré le caractère sectoriel de la « crise du recrutement » et de la « crise d’attractivité du métier d’enseignant » fortement mises en avant dans le débat public au cours des deux dernières décennies.

À partir d’une enquête réalisée en 2015 auprès de 1 103 étudiants de différentes filières de troisième année de licence, Pierre Périer montre que « la problématique d’attractivité des métiers de l’enseignement apparaît à la fois inégale et paradoxale » et que l’affectivité spécifique et le sentiment d’urgence ou de catastrophe véhiculés par les discours sur la crise du recrutement dans le débat public doivent être relativisés :

« Aussi préoccupants soient-ils, ces constats [sur les difficultés de recrutement d’enseignants] confirment le caractère sectoriel et paradoxal de difficultés qui, en réalité, ne sont pas nouvelles. On peut rappeler, en effet, que le nombre de candidats présents pour un poste en 1993 était de 2,6, identique à celui observé en 2015 ou 2016 mais deux fois inférieur à celui du début des années 2000. La comparaison vaut également pour le secondaire avec 2,7 candidats pour un poste en 1993 ou encore 3,7 en 1994 et 3,4 en 2015. Ajoutons que la part des enseignants non titulaires dans le second degré public a déjà été à plusieurs reprises supérieure à ce qu’elle représente aujourd’hui (près de 8 % en 1993 contre moins de 6 % en 2015). »

Et Pierre Périer de souligner que « le manque de candidats aux concours a un caractère académique dans le premier degré et disciplinaire dans le secondaire ». Le sociologue montre également que la « crise de recrutement » masque, en réalité, « une tension en forme de dilemme d’orientation » pour les étudiants qui « met en rapport, d’un côté, un intérêt personnel manifeste pour les fondements et contenus du métier et, de l’autre, des appréhensions et, plus encore, une incertitude sur ce que recouvre le “devenir enseignant”, que ce soit en termes d’accès, de conditions d’exercice ou de carrière ».

The Conversation

Sébastien-Akira Alix ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

25.02.2026 à 12:42

Comment les excréments d’oiseaux ont alimenté l’essor du puissant royaume chincha au Pérou

Jo Osborn, Assistant Professor of Anthropology, Texas A&M University
Emily Milton, Peter Buck Postdoctoral Fellow, Smithsonian Institution
Jacob L. Bongers, Tom Austen Brown Postdoctoral Research Associate, University of Sydney
Le royaume chincha tirait sa puissance d’une ressource inattendue : le guano d’oiseaux marins. Une nouvelle étude montre comment cet engrais naturel a transformé l’agriculture et renforcé son influence régionale.
Texte intégral (2640 mots)
Le guano est un engrais naturel très riche en azote, phosphore et potassium, constitué principalement d’excréments d’oiseaux marins ou de chauves-souris. Jo Osborn

Bien plus qu’un simple engrais, le guano a façonné l’économie, la culture et les alliances politiques du royaume chincha. Une nouvelle étude montre comment cette ressource naturelle a soutenu l’émergence d’une puissance majeure du Pérou préhispanique.


En 1532, dans la ville de Cajamarca, au Pérou, le conquistador espagnol Francisco Pizarro et un groupe d’Européens prirent en otage le souverain inca Atahualpa, préparant ainsi la chute de l’Empire inca.

Avant cette attaque fatale, le frère de Pizarro, Pedro Pizarro, fit une observation curieuse : en dehors de l’Inca lui-même, le seigneur de Chincha était la seule personne à Cajamarca transportée sur une litière, une plateforme de transport portée à bras d’homme.

Pourquoi le seigneur de Chincha occupait-il une position aussi élevée dans la société inca ? Dans notre nouvelle étude, publiée dans PLOS One, nous mettons en évidence une source potentielle de pouvoir et d’influence aussi surprenante qu’inattendue : les excréments d’oiseaux.

Une ressource puissante et précieuse

Chincha, dans le sud du Pérou, est l’une des nombreuses vallées fluviales situées le long de la côte désertique et alimentées par les eaux des hautes terres andines, essentielles depuis longtemps à l’agriculture irriguée. À environ 25 kilomètres au large se trouvent les îles Chincha, qui abritent les plus grands dépôts de guano du Pacifique.

Le guano d’oiseaux marins, c’est-à-dire leurs déjections, est un engrais organique extrêmement puissant. Comparé aux fertilisants terrestres comme le fumier de vache, le guano contient des quantités bien plus élevées d’azote et de phosphore, essentiels à la croissance des plantes.

Au large de la côte péruvienne, le courant océanique de Humboldt (ou courant du Pérou) crée des zones de pêche extrêmement riches. Ces ressources halieutiques soutiennent d’immenses colonies d’oiseaux marins qui nichent sur les îles rocheuses au large.

Des rochers couverts de déjections
Les oiseaux marins utilisent les îles côtières pour construire leurs nids et trouvent leur nourriture à proximité, dans les zones de pêche riches alimentées par le courant du Pérou. Jo Osborn

Grâce au climat sec, presque dépourvu de pluie, le guano des oiseaux marins n’est pas emporté, mais continue de s’accumuler jusqu’à atteindre plusieurs mètres de hauteur. Cette combinaison environnementale unique rend le guano péruvien particulièrement précieux.

Notre recherche combine l’iconographie, des sources écrites historiques et l’analyse des isotopes stables de maïs (Zea mays) retrouvé sur des sites archéologiques pour montrer que les communautés autochtones de la vallée de Chincha utilisaient le guano d’oiseaux marins il y a au moins 800 ans pour fertiliser leurs cultures et accroître la production agricole.

Nous suggérons que le guano a probablement contribué à l’essor du royaume de Chincha et à la relation qu’il a ensuite entretenue avec l’Empire inca.

Les seigneurs de la côte désertique

Le royaume de Chincha (1000–1400 de notre ère) était une société majeure qui comptait environ 100 000 habitants. Elle reposait sur une organisation structurée en communautés spécialisées, notamment des pêcheurs, des agriculteurs et des marchands. Le royaume domina la vallée de Chincha jusqu’à son intégration dans l’Empire inca au XVe siècle.

En raison de la proximité des importants gisements de guano des îles Chincha, l’historien péruvien Marco Curatola a avancé dès 1997 que le guano d’oiseaux marins constituait une source essentielle de la richesse du royaume. Notre étude confirme fortement cette hypothèse.

Un test biochimique

L’analyse biochimique constitue une méthode fiable pour identifier l’usage d’engrais dans le passé. Une étude expérimentale menée en 2012 a montré que les plantes fertilisées avec du fumier de camélidés (alpagas et lamas) et du guano d’oiseaux marins présentent des valeurs isotopiques de l’azote plus élevées que les cultures non fertilisées.

Des épis de maïs
Des épis de maïs issus de sites archéologiques de la vallée de Chincha ont été prélevés pour une analyse isotopique. C. O’Shea

Nous avons analysé 35 échantillons de maïs retrouvés dans des tombes de la vallée de Chincha, documentés dans le cadre d’une étude antérieure sur les pratiques funéraires.

La plupart des échantillons présentent des valeurs isotopiques de l’azote plus élevées que celles attendues pour du maïs non fertilisé, ce qui indique qu’une forme de fertilisation a été utilisée. Environ la moitié affichent des valeurs extrêmement élevées. À ce jour, ces résultats ne sont compatibles qu’avec l’utilisation de guano d’oiseaux marins.

Cette analyse chimique confirme l’usage du guano pour fertiliser les cultures à l’époque préhispanique.

Images et sources écrites

Le guano – et les oiseaux qui le produisent – occupait également une place plus large dans la culture des Chincha.

Notre analyse des artefacts archéologiques montre que les Chincha avaient une compréhension profonde des liens entre la terre, la mer et le ciel. L’utilisation du guano et leur relation avec les îles ne relevaient pas seulement d’un choix pratique ; elles étaient profondément ancrées dans leur vision du monde.

Pagaie en bois sculpté, décorée de peinture rouge, verte et jaune, présentant une rangée de petites figures en partie supérieure et des motifs d’animaux sculptés le long de la partie centrale
Cet objet en bois décoré provenant de Chincha, interprété soit comme une pagaie cérémonielle, soit comme un bâton à fouir, représente des oiseaux marins et des poissons aux côtés de figures humaines et de motifs géométriques. The Met Museum, 1979.206.1025

Cette vénération se reflète dans la culture matérielle des Chincha. Sur leurs textiles, leurs céramiques, leurs frises architecturales et leurs objets en métal, apparaissent de manière récurrente des représentations d’oiseaux marins, de poissons, de vagues et de maïs en germination.

Ces images montrent que les Chincha comprenaient l’ensemble du cycle écologique : les oiseaux marins se nourrissaient de poissons, produisaient du guano, le guano fertilisait le maïs, et le maïs nourrissait les populations.

Cette relation se retrouve peut-être encore aujourd’hui dans certains toponymes péruviens. Pisco dérive d’un mot quechua signifiant « oiseau », et Lunahuaná pourrait se traduire par « peuple du guano ».

Le pouvoir du guano

En tant qu’engrais à la fois efficace et extrêmement précieux, le guano a permis aux communautés chincha d’augmenter leurs rendements agricoles et d’étendre leurs réseaux commerciaux, contribuant ainsi à l’expansion économique du royaume.

Nous suggérons que des pêcheurs se rendaient en mer jusqu’aux îles Chincha pour collecter le guano, qu’ils fournissaient ensuite aux agriculteurs ainsi qu’aux marchands maritimes, qui l’échangeaient le long de la côte et jusque dans les hautes terres andines.

La productivité agricole de Chincha et l’essor de sa puissance commerciale ont renforcé son importance stratégique aux yeux de l’Empire inca. Vers 1400 de notre ère, les Incas intégrèrent le royaume chincha à la suite d’une capitulation « pacifique », donnant naissance à l’une des rares alliances de ce type.

Bien que les termes de cet « accord » entre Chincha et l’Empire inca restent débattus, nous suggérons que le guano d’oiseaux marins a joué un rôle dans ces négociations, l’État inca s’intéressant particulièrement au maïs tout en ne disposant pas d’un accès direct aux engrais marins. Cela pourrait expliquer pourquoi le seigneur de Chincha jouissait d’un statut si élevé qu’il était transporté sur une litière, comme l’avait observé Pedro Pizarro.

Les Incas accordaient une telle valeur à cet engrais qu’ils en réglementèrent strictement l’accès sur les îles à guano pendant la saison de reproduction et interdirent de tuer les oiseaux producteurs de guano, sur les îles comme en dehors, sous peine de mort.

Notre étude élargit l’étendue géographique connue de la fertilisation au guano dans le monde préinca et apporte un soutien solide aux travaux qui avaient anticipé son rôle dans l’essor du royaume de Chincha. Il reste toutefois beaucoup à découvrir sur l’ampleur réelle de cette pratique et sur le moment où elle a commencé.

Notre étude élargit l’aire géographique connue de la fertilisation au guano dans le monde préinca et confirme avec force les travaux qui avaient anticipé son rôle dans l’essor du royaume de Chincha. Il reste toutefois à déterminer dans quelle mesure cette pratique était répandue et à partir de quand elle a été mise en œuvre.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

24.02.2026 à 19:44

Chiens de race : l’esthétique peut-elle justifier la souffrance ?

Valérie Chansigaud, Historienne des sciences et de l'environnement, chercheuse associée au laboratoire Sphère (Paris Cité - CNRS), Université Paris Cité
Alors que l’UE tâche de poser des limites à la sélection génétique de certaines races de chiens et de chats, retour sur un phénomène tout sauf nouveau : l’obsession humaine pour l’apparence animale.
Texte intégral (2835 mots)
Un bouledogue français, un Cavalier King Charles Spaniel, un chat sans poil sphynx, un teckel à poil ras. Greggabet photographie caudry/Cavalier King Charles Spaniels/Dmitry Makeev/Dalila Dalprat Sousa Santos , CC BY

Afin de limiter la souffrance animale, la Commission européenne tâche de poser des limites à la sélection génétique des races de chiens et de chats aux traits dits extrêmes. Si cette avancée demeure inédite, elle réagit à un phénomène tout sauf nouveau : l’obsession de l’être humain pour l’apparence des animaux domestiques.


Le Conseil et le Parlement européens ont récemment adopté une accord provisoire visant à encadrer plus strictement l’élevage des chiens et des chats, en interdisant notamment la reproduction et la mise en avant d’animaux présentant des « formes extrêmes ».

Sont particulièrement concernées certaines morphologies associées à des troubles graves et durables, comme les chiens au museau écrasé, chez lesquels les difficultés respiratoires, l’intolérance à l’effort ou les problèmes locomoteurs sont désormais bien documentés.

Cette évolution réglementaire répond à des alertes répétées du monde vétérinaire et à une sensibilité croissante de l’opinion publique à la souffrance animale. Elle s’inscrit également dans une longue histoire de la place démesurée accordée par les sociétés humaines à l’apparence des animaux domestiques et à leur volonté de la façonner.

Sélectionner l’apparence : une pratique ancienne aux usages multiples

Il est impossible de dater précisément le moment où les humains auraient commencé à sélectionner des animaux sur des critères esthétiques. Bien avant l’existence des « races » au sens moderne (un phénomène qui émerge au XIXᵉ siècle), des animaux étaient déjà choisis en fonction de leur sexe, de leur âge, de leur couleur ou de leur conformation.

Dans de nombreuses sociétés anciennes, les animaux destinés au sacrifice devaient ainsi répondre à des critères précis d’apparence et d’intégrité corporelle : dans les cultes grecs et romains, seuls des animaux « sans défauts » étaient admis devant les divinités ; en Chine, sous la dynastie Zhou (XIᵉ siècle avant notre ère), les sacrifices royaux exigeaient également des bêtes jugées parfaites, tant extérieurement qu’intérieurement.

Autrement dit la sélection sur l’apparence est probablement aussi ancienne que la domestication elle-même. Elle n’était jamais isolée : elle s’entremêlait à des critères religieux, sociaux, économiques ou politiques, par exemple lorsque le pouvoir politique affirme sa puissance en imposant des animaux sacrificiels répondant à des normes précises.

Ce qui change à l’époque contemporaine, c’est que l’apparence peut devenir, dans certains cas, le critère central, voire exclusif, de la création des races. Posséder un chien de race peut ainsi marquer un rang, une appartenance sociale ou un certain rapport au monde, comme d’autres animaux ont pu, à différentes époques, signaler le prestige ou le pouvoir de leur propriétaire, à commencer par le cheval, mais aussi certains chiens de chasse.

Une préoccupation tardive pour la santé et le bien-être

Les races modernes émergent au XIXᵉ siècle, dans un contexte marqué par le goût pour la classification, la hiérarchisation et la distinction sociale fondée sur la notion de « race ». Cette passion pour les lignées « pures » n’est pas sans lien avec les cadres intellectuels qui, à la même époque, voient se développer les théories raciales appliquées aux humains.

Photographies de l’exposition canine, au jardin des Tuileries en mai 1898
Photographies de l’Exposition canine, au jardin des Tuileries (Paris), en mai 1898. Jules Beau/Gallica BNF, Fourni par l'auteur

Pendant longtemps, les effets de la sélection ont été évalués presque exclusivement à l’aune de la productivité, de l’efficacité ou de la conformité à un standard. La souffrance animale était connue, mais largement tolérée, considérée comme secondaire, voire inévitable. Les pratiques vétérinaires elles-mêmes en témoignent : pendant une longue période, des interventions lourdes ont été pratiquées sans anesthésie, comme la stérilisation des chiennes.

D’autres gestes, aujourd’hui reconnus comme inutiles et douloureux, étaient également courants : on sectionnait par exemple le frein de la langue chez les chiens, dans l’idée erronée de prévenir la rage.

Ces pratiques témoignent d’un rapport au corps animal dans lequel la souffrance était largement ignorée, par indifférence plus que par méconnaissance.

Ce n’est qu’à partir de la seconde moitié du XXᵉ siècle que la douleur chronique, la qualité de vie ou la santé à long terme des animaux commencent à être pensées comme des problèmes en tant que tels. Les inquiétudes actuelles concernant les chiens aux morphologies extrêmes – difficultés respiratoires, troubles locomoteurs, intolérance à l’effort – s’inscrivent pleinement dans cette histoire récente de la sensibilité au bien-être animal.

Des chats qui ont longtemps échappé à cette logique

La récente réglementation européenne semble concerner plus directement les chiens que les chats, et cette impression correspond à une réalité historique, biologique et sociologique. En France, comme dans de nombreux pays européens, les chiens de race sont proportionnellement plus nombreux que les chats de race. Cette différence s’explique en grande partie par l’histoire de l’élevage.

L’intérêt pour les races de chiens est ancien et structurant. La sélection de types morphologiques spécifiques devient l’un des moteurs centraux de l’élevage canin au XIXᵉ siècle, en systématisant et en normant des pratiques bien plus anciennes de différenciation fonctionnelle. Dès l’Antiquité, certains chiens sont ainsi recherchés pour des usages guerriers ou de combat, en fonction de leur taille, de leur puissance ou de leur agressivité.

Ce type de sélection n’est d’ailleurs pas propre aux chiens : chez les gallinacés, des individus ont été privilégiés très tôt pour des usages non alimentaires, notamment pour le combat de coqs ou comme animaux d’ornement, bien avant que ne s’impose une sélection orientée vers la production de chair ou d’œufs.

À l’inverse, les chats ont longtemps échappé à cette logique. Les premiers concours félins du XIXᵉ siècle récompensaient des individus – souvent des chats de gouttière – et non des représentants de races qui n’étaient pas encore standardisées. Le chat est resté plus longtemps un animal ordinaire, moins soumis aux impératifs de sélection morphologique.

Exposition féline à la salle Wagram en 1934
Exposition féline à la salle Wagram (Paris), en 1934. Gallica/BNF

Quels chiens demain ?

Populaires sur les réseaux sociaux, les Pomskys sont issus de croisements entre des Huskys sibériens et de spitz-nains
Populaires sur les réseaux sociaux, les pomskys sont issus de croisements de huskys sibériens et de spitz nains. GJH-hoond, CC BY

Les croisements récents, comme le pomsky (issu du croisement du husky sibérien et du spitz nain), témoignent aujourd’hui d’une forte demande pour des animaux perçus comme originaux et attendrissants, mais qui sont surtout emblématiques d’un effet de mode.

Le choix de ces chiens relève moins d’une réflexion sur leurs besoins ou leur santé que d’une logique de distinction : on choisit un chien comme on choisirait une paire de chaussures, parce qu’il flatte l’ego de son propriétaire et signale une position sociale. Dénoncées depuis longtemps par les vétérinaires, qui constatent au quotidien les conséquences de la sélection de morphologies extrêmes, ces pratiques pourraient être freinées par la nouvelle réglementation européenne, en rappelant clairement que tout croisement n’est pas acceptable dès lors qu’il compromet la santé ou le bien-être des animaux concernés.

Prédire à quoi ressembleront les chiens du futur reste toutefois hasardeux. L’histoire montre que les avancées en matière de protection animale ne sont ni linéaires ni irréversibles. L’émergence d’idéologies brutales ou violentes pourrait très bien conduire à un recul de la prise en compte de la souffrance animale. L’interdiction des formes extrêmes révèle ainsi une tension ancienne entre la vanité des désirs humains parfois cruels et la nécessité d’établir des règles morales pour en limiter les effets – un débat aussi vieux que la philosophie elle-même.

Cette réflexion trouve un écho particulier dans certaines initiatives muséales récentes. L’exposition « Domestique-moi, si tu peux », présentée au Muséum de Toulouse (Haute-Garonne), propose ainsi de revisiter l’histoire longue de la domestication en montrant qu’il ne s’agit pas d’un phénomène « naturel » et qu’elle est façonnée par des choix humains parfois irrationnels. Elle met surtout en évidence la place centrale de la domestication dans la construction des cultures humaines, la sélection artificielle ayant pour objectif principal de rendre des organismes vivants – animaux comme végétaux – compatibles avec les modes de vie et les besoins humains.


L’exposition « Domestique-moi, si tu peux » retrace l’histoire des domestications animales et végétales et leurs conséquences sur la biodiversité. On peut la visiter jusqu’au 5 juillet 2026 au Muséum de Toulouse. L’historienne Valérie Chansigaud en est la commissaire scientifique.

The Conversation

Valérie Chansigaud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.02.2026 à 17:03

L’« IA edge », qu’est-ce que c’est et à quoi ça sert ?

Georgios Bouloukakis, Assistant Professor, University of Patras; Institut Mines-Télécom (IMT)
En déplaçant les capacités de calcul vers la périphérie des réseaux, l’edge computing et l’edge AI ouvrent la voie à une intelligence artificielle plus rapide, plus frugale et plus respectueuse de la vie privée.
Texte intégral (2419 mots)
Décentraliser les calculs comporte des avantages et de nombreux défis techniques. Kieran Woo/Unsplash, CC BY

Pour analyser les énormes volumes de données, notamment ceux générés par les nombreux capteurs qui peuplent désormais nos vies – du lave-vaisselle à la voiture, sans parler de nos téléphones –, on les envoie sur le cloud. Pour permettre des calculs plus rapides et plus sécurisés, l’edge computing se développe. Son pendant IA est l’edge AI (en anglais), une manière de faire de l’IA sans recourir au cloud. Explications d’un spécialiste.


Les capteurs nous accompagnent partout : dans les maisons, dans les bureaux, à l’hôpital, dans les systèmes de transport et à la ferme. Ils offrent la possibilité d’améliorer la sécurité publique et la qualité de vie.

L’« Internet des objets » (IoT en anglais, pour Internet of Things) inclut les capteurs de température et de qualité de l’air qui visent à améliorer le confort intérieur, les capteurs portables pour surveiller la santé, les lidars et les radars pour fluidifier le trafic ainsi que les détecteurs permettant une intervention rapide lors d’un incendie.

Ces dispositifs génèrent d’énormes volumes de données, qui sont utilisées pour entraîner des modèles d’intelligence artificielle. Ceux-ci apprennent un modèle de l’environnement opérationnel du capteur afin d’en améliorer les performances.

Par exemple, les données de connectivité provenant des points d’accès wifi ou des balises Bluetooth déployés dans les grands bâtiments peuvent être analysées à l’aide d’algorithmes d’IA afin d’identifier les modèles d’occupation et de mouvement à différentes périodes de l’année et pour différents types d’événements, en fonction du type de bâtiment (par exemple, bureau, hôpital ou université). Ces modèles peuvent ensuite être exploités pour optimiser le chauffage, la ventilation, les évacuations, etc.

Combiner l’Internet des objets et l’intelligence artificielle s’accompagne de défis techniques

L’ « intelligence artificielle des objets » (AIoT, en anglais) combine l’IA et l’IoT. Il s’agit de mieux optimiser et automatiser les systèmes interconnectés, et d’ouvrir la voie à une prise de décision intelligente. En effet, les systèmes AIoT s’appuient sur des données réelles, à grande échelle, pour améliorer la précision et la robustesse de leurs prédictions.

Mais pour tirer des informations des données collectées par les capteurs IoT, celles-ci doivent être collectées, traitées et gérées efficacement.

Pour ce faire, on utilise généralement des « plateformes cloud » (par exemple, Amazon Web Services, Google Cloud Platform, etc.), qui hébergent des modèles d’IA à forte intensité de calcul – notamment les modèles de fondations récents.

Que sont les modèles de fondation ?

  • Les modèles de fondation sont un type de modèles d’apprentissage automatique entraînés sur des données généralistes et conçus pour s’adapter à diverses tâches en aval. Ils englobent, sans s’y limiter, les grands modèles de langage (LLM), qui traitent principalement des données textuelles, mais aussi les modèles dits « multimodaux » qui peuvent travailler avec des images, de l’audio, de la vidéo et des données chronologiques.
  • En IA générative, les modèles de fondation servent de base à la génération de contenus (textes, images, audio ou code).
  • Contrairement aux systèmes d’IA conventionnels qui s’appuient sur des ensembles de données spécifiques à une tâche et sur un prétraitement approfondi, les modèles de fondation ont la capacité d’apprendre sur la base de peu ou pas d’exemples (on parle respectivement de « few-shot learning » et de « zero-shot learning »). Ceci leur permet de s’adapter à de nouvelles tâches et de nouveaux domaines avec un minimum de personnalisation.
  • Bien que les modèles de fondation en soient encore à leurs débuts, ils ont un grand potentiel de création de valeur pour les entreprises de tous les secteurs : leur essor marque donc un changement de paradigme dans le domaine de l’intelligence artificielle appliquée.

Les limites du cloud pour traiter les données de l’IoT

L’hébergement de systèmes lourds d’IA ou de modèles de fondation sur des plateformes cloud offre l’avantage de ressources informatiques abondantes, mais il présente également plusieurs limites.

En particulier, la transmission de grands volumes de données IoT vers le cloud peut augmenter considérablement les temps de réponse des applications AIoT, avec des délais allant de quelques centaines de millisecondes à plusieurs secondes selon les conditions du réseau et le volume de données.

De plus, le transfert de données vers le cloud, en particulier d’informations sensibles ou privées, soulève des questions de confidentialité. On considère généralement que l’idéal pour la confidentialité est de traiter localement les données, à proximité des utilisateurs finaux, pour limiter les transferts.

Par exemple, dans une maison intelligente, les données provenant des compteurs intelligents ou des commandes d’éclairage peuvent révéler des habitudes d’occupation ou permettre la localisation à l’intérieur (par exemple, détecter qu’Hélène est généralement dans la cuisine à 8 h 30 pour préparer le petit-déjeuner). Il est préférable que ces déductions se fassent à proximité de la source de données afin de minimiser les retards liés à la communication entre l’edge et le cloud, et afin de réduire l’exposition des informations privées sur les plateformes cloud tierces.


À lire aussi : Calculs sur le cloud : comment stocker et exploiter les données de façon sûre… et pas trop onéreuse


Qu’est-ce que l’« edge computing » et l’« edge AI » ?

Pour réduire la latence et améliorer la confidentialité des données, l’edge computing est une bonne option, car il fournit des ressources informatiques (c’est-à-dire des appareils dotés de capacités de mémoire et de traitement) plus proches des appareils IoT et des utilisateurs finaux, généralement dans le même bâtiment, sur des passerelles locales ou dans des microcentres de données à proximité.

Cependant, ces ressources dites « périphériques » (edge) sont nettement plus limitées en termes de puissance de traitement, de mémoire et de stockage que les plateformes cloud centralisées, ce qui pose des défis pour le déploiement de modèles d’IA complexes dans des environnements distribués.

Le domaine émergent de l’edge AI, particulièrement actif en Europe, cherche à y remédier pour une exécution efficace de tâches d’IA sur des ressources plus frugales.

L’une de ces méthodes est le split computing, qui partitionne les modèles d’apprentissage profond entre plusieurs nœuds au sein d’un même espace (par exemple, un bâtiment), ou même entre différents quartiers ou villes.

La complexité augmente encore avec l’intégration des modèles de fondation, qui rendent la conception et l’exécution des stratégies de split computing encore plus difficile.

Quels changements cela implique-t-il en termes de consommation d’énergie, de confidentialité et de vitesse ?

L’edge computing améliore considérablement les temps de réponse en traitant les données plus près des utilisateurs finaux, éliminant ainsi la nécessité de transmettre les informations à des centres de données cloud éloignés. Cette approche améliore également la confidentialité, en particulier avec l’avènement des techniques d’edge AI.

Par exemple, l’apprentissage fédéré permet de former des modèles d’apprentissage automatique directement sur des appareils locaux, voire directement sur de nouveaux appareils IoT. En effet, ceux-ci sont dotés de capacités de traitement, garantissant ainsi que les données brutes restent sur l’appareil tandis que seules les mises à jour des modèles d’IA sont transmises aux plateformes edge ou cloud, où ils peuvent être agrégés et passer la dernière phase d’entraînement.

La confidentialité est également préservée pendant l’inférence. En effet, une fois entraînés, les modèles d’IA peuvent être déployés sur les ressources de calcul distribuées (à l’edge), ce qui permet de traiter les données localement sans les exposer aux infrastructures du cloud.

C’est particulièrement utile pour les entreprises qui souhaitent exploiter les grands modèles de langage au sein de leurs infrastructures. Par exemple, ceux-ci peuvent être utilisés pour répondre à des requêtes sur l’état de fonctionnement des machines industrielles, la prévision des besoins de maintenance à partir des données des capteurs – des points qui utilisent des données sensibles et confidentielles. Le fait de conserver les requêtes et les réponses au sein de l’organisation permet de protéger les informations sensibles et de se conformer aux exigences en matière de confidentialité et de conformité.

Comment ça marche ?

Contrairement aux plateformes cloud matures, comme Amazon Web Services et Google Cloud, il n’existe actuellement aucune plateforme bien établie pour prendre en charge le déploiement à grande échelle d’applications et de services edge.

Cependant, les fournisseurs de télécommunications commencent à exploiter les ressources locales existantes sur les sites d’antennes afin d’offrir des capacités de calcul plus proches des utilisateurs finaux. La gestion de ces ressources distribuées reste difficile en raison de leur variabilité et de leur hétérogénéité, impliquant souvent de nombreux serveurs et appareils de faible capacité.

À mon avis, la complexité de la maintenance est un obstacle majeur au déploiement des services d’edge AI. Mais le domaine progresse rapidement, avec des pistes prometteuses pour améliorer l’utilisation et la gestion des ressources distribuées.

Allocation des ressources à travers le continuum IoT-Edge-Cloud pour des applications AIoT sûres et efficaces

Afin de permettre un déploiement fiable et efficace des systèmes AIoT dans les espaces intelligents (tels que les maisons, les bureaux, les industries et les hôpitaux), notre groupe de recherche, en collaboration avec des partenaires à travers l’Europe, développe un cadre basé sur l’IA dans le cadre du projet Horizon Europe PANDORA.

PANDORA fournit des modèles d’« IA en tant que service » (AIaaS) adaptés aux besoins des utilisateurs finaux (par exemple, latence, précision, consommation d’énergie). Ces modèles peuvent être entraînés soit au moment de la conception, soit au moment de l’exécution, à l’aide des données collectées à partir des appareils IoT déployés dans les espaces intelligents.

PANDORA offre aussi des ressources informatiques en tant que service (CaaS) sur l’ensemble du continuum IoT-Edge-Cloud afin de prendre en charge le déploiement des modèles d’IA. Le cadre gère le cycle de vie complet du modèle d’IA, garantissant un fonctionnement continu, robuste et axé sur les intentions des applications AIoT pour les utilisateurs finaux.

Au moment de l’exécution, les applications AIoT sont déployées de manière dynamique sur l’ensemble du continuum IoT-Edge-Cloud, en fonction de mesures de performance, telles que l’efficacité énergétique, la latence et la capacité de calcul. Le CaaS alloue intelligemment les charges de travail aux ressources au niveau le plus approprié (IoT-Edge-Cloud), maximisant ainsi l’utilisation des ressources. Les modèles sont sélectionnés en fonction des exigences spécifiques au domaine (par exemple, minimiser la consommation d’énergie ou réduire le temps d’inférence) et sont continuellement surveillés et mis à jour afin de maintenir des performances optimales.

The Conversation

This work has received funding from the European Union’s Horizon Europe research and innovation actions under grant agreement No. 101135775 (PANDORA) with a total budget of approximately €9 million and brings together 25 partners from multiple European countries, including IISC and UOFT from India and Canada.

24.02.2026 à 17:03

Les raisons de la mobilisation agricole en Europe expliquées par les agriculteurs eux-mêmes

Sophie Thoyer, Directrice de département Scientifique, Inrae
Pauline Lecole, Maitresse de conférence en économie et politiques agricoles, Montpellier SupAgro
Les protestations agricoles européennes ont souvent été réduites au rejet des normes environnementales. Une enquête auprès des agriculteurs mobilisés montre une image bien plus nuancée.
Texte intégral (2051 mots)

Depuis l’hiver 2024, les mobilisations agricoles ont été largement interprétées, au plan médiatique, comme un rejet massif des normes environnementales. Mais est-ce vraiment le cas ? Qu’en disent eux-mêmes les agriculteurs mobilisés ? Une vaste étude a recensé leurs réponses en France, en Allemagne, en Belgique et aux Pays-Bas. Elle livre une image bien plus nuancée en fonction des États, où le poids des normes environnementales n’est finalement qu’un enjeu secondaire. Celui-ci a pourtant été au cœur de la réponse politique.


Blocages d’autoroutes, convois de tracteurs vers les capitales, déversements de fumier devant les bâtiments publics… depuis l’hiver 2024, les agriculteurs européens se mobilisent de façon spectaculaire. Très visibles, ces mouvements restent pourtant mal compris. Entre cadrages médiatiques hâtifs et récupérations politiques, leurs revendications ont souvent été résumées à un rejet des normes environnementales. Mais est-ce réellement ce que disent les agriculteurs eux-mêmes ?

Pour répondre à cette question, nous avons récemment publié une étude qui s’est appuyée sur une vase enquête en ligne, menée entre avril et juillet 2024, auprès de plus de 2 200 agriculteurs ayant participé aux mobilisations en France, en Allemagne, en Belgique et aux Pays-Bas.

Plutôt qu’une liste fermée de griefs, nous avons préféré leur poser une question simple et surtout ouverte : « Pourquoi vous mobilisez-vous ? » Les agriculteurs ont ainsi pu répondre de façon anonyme et sous une forme libre : parfois en quelques mots, parfois en plusieurs paragraphes.


À lire aussi : Colère des agriculteurs : « Ce qui était cohérent et cohésif est devenu explosif »


Une pluralité de motivations

Cette méthode a permis d’éviter d’orienter les réponses et de saisir les motivations telles que formulées spontanément par les intéressés eux-mêmes. Les textes ont ensuite été analysés, dans leur langue d’origine, grâce à un grand modèle de langage (LLM), type d’outil relevant de l’intelligence artificielle (IA), pour identifier les principales revendications. Un codage manuel a ensuite permis, pour la France, de vérifier la cohérence de l’analyse faite par l’IA.

Nous avons ainsi pu identifier les grands thèmes récurrents, et ceci en limitant les biais d’interprétation. À la clé, une dizaine de catégories de motivations, que nous avons résumées dans le tableau ci-dessous :

Principales motivations de la colère des agriculteurs identifiées par l’étude. Fourni par l'auteur

En termes de codage, une réponse peut entrer dans plusieurs catégories de motivations à la fois. Par exemple, un exploitant français cultivant 175 hectares (ha) a indiqué en réponse à l’enquête :

« On nous fait marcher à la baguette, on nous pond des interdictions de partout qui nous compliquent [le] travail, alors que l’on travaille beaucoup à un tarif horaire de misère. »

Cette réponse a pu ainsi être classée à la fois dans les catégories « réglementation », « difficultés financières », « politiques publiques » et « conditions de travail ».

Des revendications différenciées en Europe

Contrairement à l’idée d’un mouvement unifié partout en Europe autour du rejet des normes environnementales et des insatisfactions liées au revenu, les motivations sont apparues comme fortement différenciées selon les pays.

Les raisons de mobilisation déclarées par les agriculteurs varient en fonction des pays. Fourni par l'auteur
  • En France et en Belgique, les difficultés financières dominent largement : plus d’un agriculteur sur deux évoque la faiblesse des revenus, la hausse des coûts des intrants et des prix jugés insuffisamment rémunérateurs.

  • En Allemagne, la première préoccupation concerne la charge administrative, citée dans plus de la moitié des réponses.

  • Aux Pays-Bas, les critiques visent plus directement l’inadéquation des réponses en terme de politiques publiques aux besoins et contraintes du monde agricole.

La dénonciation explicite des règles environnementales arrive loin derrière, sauf dans le cas de la Belgique. En France, elle n’est mentionnée que dans une faible proportion des réponses, bien en deçà des enjeux de revenu, de reconnaissance ou de concurrence.

Le mouvement de 2024 apparaît ainsi loin d’être homogène à l’échelle européenne, malgré les tentatives de certains acteurs syndicaux de porter un message unitaire.


À lire aussi : La FNSEA, syndicat radical ? Derrière le mal-être des agriculteurs, des tensions plus profondes


Un décalage entre les revendications et les réponses politiques

Nous avons ensuite comparé ces motivations aux mesures politiques adoptées entre fin 2023 et septembre 2024 aux niveaux national et européen.

Dans certains cas, les réponses publiques ont été en phase avec les préoccupations exprimées. En Allemagne, l’accent a été mis sur la simplification administrative, qui correspond à la principale revendication identifiée dans notre enquête. En France et en Belgique, plusieurs mesures ont visé à atténuer les difficultés de revenu, mais les moyens mis en œuvre sont restés limités.

En revanche, certaines thématiques ont reçu une attention politique disproportionnée au regard de leur poids réel dans les déclarations des agriculteurs. C’est notamment le cas des régulations environnementales.

Cela s’est traduit notamment dans le paquet simplification de la politique agricole commune (PAC) de mai 2024, qui a accordé des dérogations et des flexibilités supplémentaires à l’application des règles de conditionnalité dans les États membres.

Alors qu’elle n’arrivait qu’en septième position des préoccupations déclarées par les agriculteurs, la réduction des contraintes environnementales a été le troisième chantier législatif en Allemagne, en terme de nombre de mesures prises. Aux Pays-Bas, ce fut même le premier.

De la même manière en France, seuls 7 % des agriculteurs se sont exprimés explicitement pour critiquer le poids des normes environnementales. Pourtant, le gouvernement français a répondu par une suspension du plan Écophyto (destiné à réduire l’usage des pesticides) et par l’allègement des contrôles liés aux obligations environnementales.

Plus tard, une grande partie des débats sur le contenu de la loi d’orientation pour la souveraineté alimentaire et le renouvellement des générations en agriculture, finalement promulguée en mars 2025, et de la proposition de loi sur les contraintes à l’exercice du métier d’agriculteur (dite « loi Duplomb »), ont été extrêmement concentrés sur l’allègement des normes environnementales.


À lire aussi : Loi Duplomb et pesticides : comment la FNSEA a imposé ses revendications


Entre expression sociale et cadrage stratégique

Cette focalisation sur les normes environnementales interroge. Elle suggère que certaines revendications ont été amplifiées dans l’espace public, au croisement d’intérêts syndicaux, économiques et politiques. Comme dans tout mouvement social, les mots d’ordre qui circulent ne reflètent pas toujours l’ensemble des préoccupations individuelles.

Donner directement la parole aux agriculteurs ne permet pas seulement de nuancer le récit dominant : cela met en lumière la profondeur du malaise. Au-delà des normes ou des aides, beaucoup expriment un sentiment de déclassement, de perte de sens et d’absence de perspectives pour les générations futures.

Comprendre ces mobilisations suppose donc d’aller au-delà des slogans et de reconnaître leur diversité interne. Faute de quoi, les réponses politiques risquent de traiter seulement les symptômes stratégiquement mis en visibilité par les groupes d’influence plutôt que les causes structurelles du malaise agricole européen.


Solal Courtois-Thobois a participé à la réalisation de cet article.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

24.02.2026 à 17:02

Marx permet-il encore de penser notre monde ?

Jean-Numa Ducange, Professeur des Universités, Université de Rouen Normandie
Karl Marx est l’un des pères fondateurs des sciences sociales. Dans quelle mesure ses concepts et analyses sont-ils encore pertinents ?
Texte intégral (1596 mots)
Statue de Karl Marx à Chemnitz, rebaptisée Karl-Marx-Stadt de 1953 à 1990, (Saxe, Allemagne, 29 mai 2023). Neurobit

Le marxisme n’est plus en vogue chez les intellectuels depuis l’effondrement de l’URSS. Pourtant, Karl Marx demeure l’un des pères fondateurs des sciences sociales et l’un des rares auteurs à proposer une analyse globale du capitalisme de son temps. Aujourd’hui, le détricotage des États-providence et l’augmentation des inégalités nous conduisent à réinterroger la persistance d’une forme de lutte des classes.


Certes, aujourd’hui, le personnel politique parle beaucoup moins de Marx que dans les années 1960 et 1970. La lutte des classes, les contradictions de capitalisme qui se résorberaient par une révolution prolétarienne, tout cela semble daté. La dissolution de l’URSS qui prétendait incarner ses idées est aussi passée par là. Le philosophe allemand reste tout de même une référence incontournable pour la gauche française, du Parti socialiste jusqu’aux groupes révolutionnaires.

Certaines de ses idées sont souvent reprises par la médiation de la lecture qu’en faisait Jean Jaurès. Ce dernier, républicain, bien intégré dans les institutions de la IIIᵉ République et figure marquante de l’Assemblée nationale, considérait qu’il fallait se servir de la pensée de l’auteur du Capital pour l’emmener vers autre chose. Telle est la démarche qui est aujourd’hui celle de nombreux responsables politiques mais aussi celle de chercheurs et chercheuses.

Car, paradoxalement, la fin du soviétisme a eu l’effet inverse dans le monde universitaire. Sans doute a-t-elle permis de redécouvrir que marxisme ne rimait pas nécessairement avec stalinisme et que la pensée originelle est bien plus complexe que l’image que l’on en avait. Il est peu contesté dorénavant que, à côté d’Émile Durkheim, d’Adam Smith, de David Ricardo ou ce Max Weber, Karl Marx compte parmi les pères fondateurs des sciences sociales. Se plonger dans sa pensée n’est toutefois pas chose aisée. Ses écrits sont aujourd’hui assez difficiles à lire. Cela demande un certain volume de connaissances sur ce qu’était le XIXᵉ siècle pour comprendre le propos et maîtriser un lexique qui n’est plus très actuel.

Si on continue de s’y référer, c’est tout d’abord parce que Marx est un des rares à proposer une analyse assez complète et globalisante du capitalisme de son temps, le capitalisme britannique du XIXᵉ siècle. Sa pensée possède une puissance analytique spécifique car elle allie plusieurs composantes.

On retrouve tout d’abord une dimension philosophique, notamment lorsque, dans ses jeunes années, il développe le concept d’aliénation pour désigner le sentiment éprouvé par un travailleur dépossédé des fruits de son travail. Marx, c’est aussi, dans l’Idéologie allemande notamment, une manière de lire l’histoire que l’on nomme le « matérialisme historique ». Elle peut être selon lui comprise à partir des rapports sociaux de production, l’infrastructure sur laquelle repose tout le reste. La religion ou l’organisation de l’État peuvent, selon Marx, être expliquées à partir de la manière dont l’économie produit. Ces rapports sociaux deviennent parfois contradictoires, et c’est ainsi que l’Europe aurait évolué de l’esclavagisme vers le féodalisme et du féodalisme vers le capitalisme. Marx pense également comme un économiste dans le Capital et tente d’analyser la formation de la plus-value, l’évolution du taux de profit ou encore les conséquences de la mécanisation des usines sur la productivité.

Quand bien même on ne partage pas la pensée de Marx, le fait même d’étudier pareil cadre global reste inspirant. Marx essaie de penser le système capitaliste et de lui donner une cohérence qui, parfois même, on le soupçonne moins, est vue comme une force par l’auteur. On trouve des textes de Marx qui traduisent une forme d’admiration pour le capitalisme et sa force propulsive à l’époque.

Marx et son complice et mécène Engels ont certes perdu leur pari lancé en 1848 avec le Manifeste du parti communiste : que la prolétarisation d’une grande partie de la société, petits bourgeois et paysans notamment, mène à une opposition de plus en plus frontale entre deux classes sociales et finalement à une révolution. L’émergence de la classe moyenne au XXᵉ siècle est un phénomène qui ne peut pas exister dans le logiciel de Marx.

Le travail des enfants, la surexploitation, tout cela n’existe plus vraiment. Marx dit des choses intéressantes sur la politique, mais un certain nombre de processus n’étaient pas visibles à son époque : la professionnalisation du personnel politique, y compris à gauche, l’intégration du socialisme dans l’appareil d’État et la naissance d’un État social… Marx a sans doute sous-estimé la capacité du capitalisme à surmonter ses contradictions.

Malgré cela, la brutalité des rapports sociaux semble aujourd’hui de retour avec le détricotage des États-providence. On observe une concentration des richesses d’un côté de la société et une augmentation de la pauvreté de l’autre. L’idée de lutte des classes ne peut pas être pensée comme au XIXᵉ siècle, mais d’une certaine manière, elle correspond sans doute mieux à notre réalité qu’à celle des Trente Glorieuses, au moment pourtant de l’histoire où les partis politiques citaient le plus Marx. Sa pensée retrouve aussi une certaine actualité à travers cela. De même, la « perte de sens au travail » si souvent mentionnée sur LinkedIn et dans moult essais n’est pas si éloignée de la théorie de l’aliénation.

L’enjeu intellectuel de Marx était de lier la place de la bourgeoisie dans le système économique à ses objectifs politiques. Ce n’était pas faire de l’économie pour faire de l’économie. Cette attitude peut encore nous permettre de penser notre monde. Réserves de pétrole, intelligence artificielle, nouvelles technologies… Un marxiste aura le réflexe de se demander ce que ces enjeux économiques peuvent produire socialement et politiquement.

Le risque avec le marxisme est de rester nostalgique de logiques sociales anciennes, incarnées par exemple dans de grandes usines : évoluer vers de nouvelles lectures est un pari intellectuel intéressant et audacieux. Un autre est de se limiter à cette approche qui ne voit en l’individu qu’un membre d’une classe surdéterminée par des intérêts économiques. Cela reste fondamental, mais d’autres choses entrent en ligne de compte pour comprendre les actions des individus. Psychanalyse, sciences cognitives, autres approches de la rationalité… Marx, fervent défenseur de la science et qui saluait volontiers ses avancées, à l’instar des écrits de Charles Darwin, s’y serait très vraisemblablement intéressé également.


Cette contribution est publiée en partenariat avec le Printemps de l’économie, cycle de conférences-débats qui se tiendront du 17 au 20 mars au Conseil économique, social et environnemental (Cese) à Paris. Retrouvez ici le programme complet de l’édition 2026, « Le temps des rapports de force ».

The Conversation

24.02.2026 à 17:02

« Cinquante nuances de blanc », ce que le défilé Dolce & Gabbana révèle vraiment des représentations dans la mode

Aurore Bardey, Professeur Associé en Marketing, Burgundy School of Business
La polémique née du défilé de la marque Dolce & Gabbana renvoie à la question du « bon corps » que l’on peut montrer. Au-delà des déclarations d’intention de l’industrie de la mode, le chemin à parcourir est encore long.
Texte intégral (1639 mots)

Il faut prendre ce que dit la publicité au sérieux. Surtout quand il s’agit de mode et de diversité. La récente polémique autour des « 50 nuances de blanc » du défilé d’une maison italienne n’est pas qu’une affaire de vêtements. Plus fondamentalement, elle dit aussi comment nous nous représentons collectivement. Et la place donnée à chacun.


En janvier 2026, le défilé masculin de Dolce & Gabbana à Milan a déclenché une polémique internationale. Sur les réseaux sociaux et dans les journaux, internautes et journalistes ont dénoncé un casting quasi exclusivement blanc, ironiquement rebaptisé « 50 nuances de blanc » (en référence à l’expression anglaise « 50 shades of white »).

Dans une industrie qui se veut le miroir de notre société, comment expliquer un tel paradoxe ? Et surtout, que révèle-t-il des conséquences psychologiques de l’absence de représentation de tous ces consommateurs ?

Ce que vend la publicité

La publicité ne vend pas seulement des produits (en l’espèce des vêtements) ; elle raconte une histoire. Elle dit à quoi ressemble le succès, le désir, la normalité. Elle dessine, souvent sans le dire, les contours de ce qui serait « « le beau ». De Marilyn Monroe à Margot Robbie, d’Alain Delon à Pedro Pascal, chaque époque a ses icônes. Des visages, des silhouettes, des corps érigés en modèles. Mais ces figures ne surgissent pas par hasard : elles reflètent les normes et les rapports de force d’une société donnée.

L’idéal de beauté n’est ni universel ni figé. Il est construit. Il évolue au fil du temps, sous l’influence de contextes culturels, historiques et sociaux. Aujourd’hui, dans les sociétés occidentales, la minceur, la jeunesse, la blancheur de la peau, restent largement valorisées. Les médias de mode jouent un rôle déterminant dans cette construction, en mettant en avant certaines morphologies, certaines carnations, certains types de cheveux ou de traits comme étant la norme désirable.

En étant continuellement reproduites, ces représentations partielles, fondées sur un idéal de beauté restreint et excluant, s’installent progressivement comme une norme perçue comme « normale ». Pourtant, elles ont un coût psychologique. Des recherches académiques montrent que l’exposition constante à des corps idéalisés fragilise l’image de soi, favorise l’insatisfaction corporelle et peut influencer les comportements alimentaires et leurs dérèglements.

Le coût de la non-reconnaissance

Ne pas se reconnaître dans ces représentations peut générer un sentiment d’écart, de manque, voire d’infériorité. Les réseaux sociaux amplifient encore cette dynamique. Ils transforment la comparaison en réflexe quotidien, multipliant les occasions de se mesurer à des images retouchées ou mises en scène. Et lorsque certains visages, certaines couleurs de peau ou certaines textures de cheveux sont absents, ce silence visuel envoie un message puissant. Les sociologues parlent d’annihilation symbolique : ne pas être représenté, c’est être rendu invisible.


À lire aussi : Mode : les consommateurs seniors encore loin de l’inclusion


Dans ce contexte, un défilé composé presque exclusivement de mannequins blancs ne relève pas seulement d’une direction artistique. Il s’inscrit dans une histoire longue de sous-représentation des minorités dans la mode. Et ce n’est pas uniquement une question d’image.

Visibilité ne signifie pas inclusion

Ces thèmes sont au cœur de nos travaux de recherche récemment publiés. Ces travaux se sont consacrés à la manière dont les consommateurs noirs perçoivent leur représentation dans la publicité de mode. Notre étude qualitative menée auprès de 19 consommateurs noirs en France et au Royaume-Uni montre un point central : la question n’est pas seulement qui apparaît dans la publicité, mais comment et pourquoi.

Les participants reconnaissent que la visibilité des personnes noires a augmenté ces dernières années. Pourtant, ils décrivent souvent cette présence comme superficielle :

  • recours à des célébrités pour « cocher une case » ;

  • modèles noirs relégués à des rôles secondaires ;

  • préférence pour des profils métissés ou conformes aux standards eurocentriques (personne noire avec des cheveux blonds et lisses par exemple).

Ce phénomène a été conceptualisé sous le terme de diversity-washing : une inclusion performative où des corps racisés servent de capital symbolique sans transformation structurelle. Cette logique peut être comprise à la lumière de la théorie de dominance sociale : même lorsque la diversité est affichée, les hiérarchies ethniques peuvent être reproduites par des formes d’inclusion conditionnelle.

De l’inclusion superficielle à l’exclusion visible

Le cas des « 50 nuances de blanc » représente l’autre versant du problème, en passant de l’inclusion superficielle à l’exclusion visible. Dans les deux cas, le message implicite est similaire : la « blanchité » reste la norme centrale.

Notre étude révèle des impacts profonds sur l’identité. Plusieurs participants décrivent avoir intériorisé des normes eurocentriques : ils évoquent le désir de lisser leurs cheveux, d’éclaircir leur peau, un sentiment d’infériorité ou de non-appartenance. À l’inverse, lorsque la représentation est perçue comme authentique, elle produit des effets positifs : affirmation identitaire, sentiment de reconnaissance, engagement accru envers la marque.

Au travers de nos travaux de recherche, nous proposons ainsi le concept de congruence conditionnelle : l’identification à un mannequin ou à une marque ne dépend pas uniquement de la similarité ethnique, mais de la perception d’authenticité, de respect et de cohérence entre le discours et les pratiques. Autrement dit, les consommateurs ne se contentent pas de voir : ils interprètent. Ils évaluent l’intention, la narration, la sincérité.

Un symptôme structurel

L’« affaire » Dolce & Gabbana ne doit pas être analysée comme un simple faux pas créatif. Elle révèle une tension structurelle entre :

  • une industrie mondialisée mais centrée sur des standards occidentaux ;

  • une communication inclusive, mais des pratiques parfois homogènes ;

  • une prise de conscience sociale accrue, notamment parmi les membres de la génération Z et les millennials.

Dans notre étude, les participants insistent sur un point : la représentation ne peut être réduite à l’image finale. Elle suppose une transformation du côté des coulisses avec une diversité des équipes créatives, des directions artistiques, des comités décisionnels. Sans cela, la diversité reste esthétique. Et son absence, comme dans ces « 50 nuances de blanc », devient un révélateur brutal des angles morts de l’industrie de la mode.

Arte 2025.

Une industrie vraiment inclusive

À partir de nos résultats, nous avons proposé un guide pratique pour une publicité de mode véritablement inclusive. Parmi les principes clés :

  • représenter des identités multidimensionnelles, non stéréotypées ;

  • intégrer la diversité intragroupe (teintes de peau, morphologies, styles) ;

  • garantir une cohérence entre message public et pratiques organisationnelles ;

  • associer les communautés concernées au processus créatif ;

  • inscrire l’inclusion dans une stratégie de long terme, et non dans une campagne ponctuelle.

Le débat suscité par les « 50 nuances de blanc » rappelle que la mode façonne l’imaginaire collectif. Elle dit qui est désirable, qui est central, qui est périphérique.

La question n’est donc pas seulement esthétique ou commerciale. Elle est profondément psychologique et éthique : quelles identités juge-t-on dignes d’être vues ? Et qui décide de cette visibilité ?

The Conversation

Aurore Bardey ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.02.2026 à 17:01

Fonction publique : ces doctorants qui aident les collectivités territoriales à innover

Christine Gautier Chovelon, Enseignante chercheure en sciences de l'éducation et de la formation - Affiliée au laboratoire de recherche LINE, Université Côte d’Azur
Alors que communes, départements et régions sont sommés d’innover, l’accueil de doctorants en sciences humaines permet de rapprocher recherche scientifique et expertise politique.
Texte intégral (1193 mots)

Alors que communes, départements et régions sont sommés d’innover, comment leur permettre de se nourrir d’expertise scientifique pour renouveler leurs modes de gouvernance ? L’accueil de doctorants en thèse Cifre introduit dans les administrations une autre culture de l’innovation et de l’évaluation. Mais cela redessine-t-il vraiment les profils des élites locales ?


Face à la complexité croissante des politiques publiques, et à des enjeux comme la transition écologique, l’inclusion sociale ou la participation citoyenne, les collectivités sont sommées d’innover. Mais avec quelles expertises ?

Depuis 2011, afin de produire justement des connaissances scientifiques directement utiles à la décision publique, les administrations territoriales sollicitent des doctorants en sciences humaines et sociales. Pour ce faire, elles s’appuient sur le dispositif Cifre (Convention industrielle de formation par la recherche), porté par l’Association nationale de la recherche et de la technologie (ANRT) et initialement conçu pour rapprocher recherche et entreprise.

Cette alliance est-elle fructueuse sur le plan de l’action publique ? Le recours à ces compétences fait-il évoluer la place du doctorat dans la société française ? Les résultats d’une enquête inédite présentée par l’ANRT en 2025 mettent en lumière une réalité contrastée : une contribution réelle à la transformation des pratiques, mais une reconnaissance encore fragile.

Une expertise stratégique mais inégalement valorisée

Les doctorants Cifre travaillent aujourd’hui sur des enjeux très concrets : adaptation au changement climatique, politiques éducatives, inclusion sociale, participation citoyenne, transformation organisationnelle. La production de savoirs n’est plus seulement universitaire : elle devient une ressource intégrée à la fabrique des politiques publiques.

Dans de nombreuses collectivités, la recherche se mue ainsi en levier d’aide à la décision. Elle introduit du recul dans des environnements dominés par l’urgence, structure les diagnostics et nourrit les stratégies à long terme. Elle contribue aussi à diffuser une culture de l’évaluation, en cohérence avec les recommandations de France Stratégie ou les travaux de l’OCDE sur l’innovation publique.

Face à des problèmes publics complexes, cette fonction analytique est précieuse. Les doctorants apportent méthodes d’enquête, analyses comparatives et capacité à documenter les décisions. Ils introduisent aussi du recul et de la rigueur pour nourrir les stratégies à long terme dans un environnement où l’urgence et les logiques politiques dominent.

Pourtant, la reconnaissance de ces compétences reste inégale. Dans certaines collectivités, la recherche est perçue comme un appui ponctuel plutôt qu’un levier structurant. L’intégration durable des docteurs après la thèse demeure incertaine, et leur contribution est parfois minimisée face aux contraintes politiques ou bureaucratiques.

À l’interface de la science et de l’administration

La singularité des doctorants Cifre réside dans leur position hybride, à la fois chercheurs et salariés de la collectivité. Ils participent aux projets opérationnels tout en produisant des connaissances scientifiques. Concrètement, ils organisent des ateliers participatifs, élaborent des diagnostics territoriaux, conçoivent des outils d’aide à la décision ou accompagnent des réorganisations internes.

Cette double appartenance leur permet de naviguer entre services, directions générales, élus et partenaires. Ils décloisonnent des espaces fragmentés et favorisent des approches intégrées, croisant dimensions sociales, environnementales et organisationnelles. Dans certains cas, ils deviennent de véritables médiateurs entre savoir scientifique et décision politique, légitimant les stratégies de la collectivité tout en influençant les choix.

Mais cette hybridité crée aussi des tensions. Les doctorants se trouvent à l’interface de deux mondes historiquement distincts : élites administratives et élites scientifiques. Leur présence interroge les hiérarchies établies et les modes de reconnaissance professionnelle. Elle soulève également des enjeux politiques : quel poids donner à l’expertise scientifique face à la décision politique ?


À lire aussi : Le coronavirus est-il moral ? Savant et politique face à la pandémie


L’impact des doctorants se manifeste souvent sous la forme d’« innovations ordinaires » : amélioration des coopérations internes, structuration de démarches participatives, diffusion d’une culture scientifique. Mais derrière cette modestie apparente se joue une recomposition subtile des rapports de pouvoir. En structurant l’information et en introduisant des méthodes d’analyse rigoureuse, les doctorants influencent la manière dont les décisions sont prises, même dans un cadre politique contraint.

Lorsque ces profils sont rattachés à des directions générales ou stratégiques, leur légitimité est renforcée et leur contribution devient plus visible. Ils participent à la montée en compétence des collectivités, introduisant une culture de l’évaluation et de la documentation. Pourtant, leur rôle est souvent perçu comme temporaire, et la reconnaissance institutionnelle et politique demeure fragile.

Vers une recomposition des élites locales

L’arrivée des doctorants dans les collectivités révèle une transformation plus profonde : l’émergence progressive d’une élite scientifique intégrée à l’action publique locale. Ces profils développent des compétences rares : analyse des politiques publiques, compréhension fine des territoires, capacité de médiation entre savoir et décision. Ils incarnent une figure professionnelle nouvelle, à la croisée de la recherche et de l’administration, capable de renouveler les pratiques et les modes de gouvernance. Ils deviennent des acteurs politiques à part entière, orientant les priorités et modifiant subtilement la distribution du pouvoir au sein des administrations.

Reste une question décisive : les collectivités sont-elles prêtes à faire de la recherche un levier durable de formation et de renouvellement de leurs élites ? Car si ces doctorants contribuent déjà à transformer les pratiques publiques, il s’agit de dépasser la logique ponctuelle du contrat Cifre, où l’expertise scientifique devient un élément reconnu de l’architecture politique locale.

Les doctorants en collectivités représentent une innovation à la fois organisationnelle et politique. Leur intégration durable pourrait renforcer la légitimité des décisions, recomposer les rapports de pouvoir et faire de la recherche un levier de professionnalisation et de renouvellement des administrations territoriales.

The Conversation

Christine Gautier Chovelon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.02.2026 à 17:00

L’Australie : puissance régionale, dépendance globale ?

Pierre-Christophe Pantz, Enseignant vacataire et chercheur associé à l'Université de la Nouvelle-Calédonie (UNC), Université de la Nouvelle-Calédonie
Gilles Pestana, Maître de conférences en géographie et aménagement, Université de la Nouvelle-Calédonie
La mise en œuvre de l’accord par lequel Washington doit fournir des sous-marins nucléaires à l’Australie prend du retard, incitant Canberra à chercher des partenaires sécuritaires dans sa région.
Texte intégral (1739 mots)

Il y a cinq ans, l’Australie dénonçait l’« accord du siècle » qu’elle avait signé avec la France sur la livraison de 12 sous-marins traditionnels, optant à la place pour une alliance avec les États-Unis et le Royaume-Uni – AUKUS – devant lui permettre de recevoir des sous-marins nucléaires fournis par Washington. Ce projet prend déjà du retard. Sans sortir d’AUKUS, Canberra se rapproche d’autres pays de l’Indo-Pacifique pour renforcer sa défense dans un contexte sur lequel plane toujours le risque de la déflagration que constituerait une invasion de Taïwan par la Chine.


Les doutes formulés fin janvier par le Congressional Research Service (CRS) sur la capacité des États-Unis à livrer des sous-marins à l’Australie ravivent le sentiment de vulnérabilité stratégique de Canberra.

Alors que la rivalité s’intensifie dans l’Indo-Pacifique, l’Australie renforce ses partenariats de sécurité dans son voisinage immédiat, comme en témoignent les récents accords conclus avec la Papouasie-Nouvelle-Guinée (2025) et l’Indonésie (2026) dans une tentative de limiter sa dépendance à l’égard de Washington et de renforcer sa marge d’autonomie stratégique.

AUKUS : une stratégie finalement incertaine pour l’Australie

L’alliance AUKUS, pacte de sécurité tripartite signé en 2021 entre l’Australie, le Royaume-Uni et les États-Unis, a marqué un tournant pour la défense australienne. Par ce partenariat, Canberra rompait le « contrat du siècle » précédemment signé avec la France, qui prévoyait la livraison par Paris de douze sous-marins conventionnels, pour se tourner vers une flotte à propulsion nucléaire de conception américaine. Le pilier n°1 de cette alliance, le « transfert de sous-marins nucléaires », devait moderniser la flotte australienne et garantir l’accès aux technologies avancées.

Près de cinq ans après la signature, la mise en œuvre accuse des retards importants et des coûts croissants. Aucun sous-marin australien de nouvelle génération ne sera probablement opérationnel avant le début des années 2040, ce qui place l’Australie dans une situation de dépendance et de vulnérabilité stratégique. Plusieurs experts expriment leur scepticisme quant à la capacité des États-Unis à respecter leurs engagements de livraison.

Ces incertitudes se sont aggravées depuis 2025 avec le retour à la présidence de Donald Trump et de sa doctrine America First, qui tend à concevoir les alliances sous un angle plus transactionnel, évaluées à l’aune des intérêts immédiats et révisés des États-Unis. En effet, lors de la visite du premier ministre Anthony Albanese à la Maison Blanche en octobre 2025, les discussions sur AUKUS avaient été largement éclipsées par un accord sur les terres rares australiennes, prioritaire pour Washington face aux initiatives chinoises en la matière.

Trump a néanmoins tenté de rassurer Canberra sur la livraison des sous-marins, promettant le respect des engagements du « pilier 1 », mais ces assurances apparaissent en partie intéressées, s’inscrivant avant tout dans le contexte du traité sur les terres rares. Dans ce contexte, et comme le confirme la récente National Security Strategy publiée par la Maison Blanche, le Pacifique Sud semble relégué au second plan dans les priorités américaines, ce qui nourrit les interrogations australiennes quant à la solidité de l’engagement de Washington.

Les inquiétudes australiennes se trouvent renforcées par un rapport du CRS publié en janvier 2026. Le document souligne que les sous-marins promis pourraient rester sous commandement américain tout en opérant depuis des bases australiennes, les États-Unis souhaitant conserver le contrôle de ces appareils en vue d’un hypothétique conflit avec la Chine au sujet de Taïwan. Expression du rapport, cette « division du travail militaire » confirmerait que l’Australie pourrait rester un simple relais stratégique sans pleine autonomie opérationnelle. Bien que le CRS n’engage pas la position officielle de l’administration américaine, ce rapport renforce les doutes sur la fiabilité de l’alliance.

Renforcer l’influence régionale pour sécuriser son voisinage

Face à ce contexte incertain et les avancées de la présence chinoise dans le Pacifique – notamment à travers les Nouvelles Routes de la soie – l’Australie mène une contre-offensive diplomatique et sécuritaire destinée à préserver ce qui relève, de son point de vue, de sa sphère d’influence.

Ces toutes dernières années, Canberra a ainsi consolidé un réseau d’accords sécuritaires avec plusieurs États du Pacifique, à l’image du traité Falepili signé avec Tuvalu en 2023 ou de l’accord bilatéral conclu avec Nauru en 2024. Cette stratégie de verrouillage vise, sans les nommer, à limiter les ingérences chinoises et à réaffirmer l’influence australienne dans son environnement régional. Cette évolution traduit une évolution notable de la culture stratégique australienne, longtemps marquée par une dépendance assumée au parapluie américain.

Dans cette continuité, le traité Pukpuk signé avec la Papouasie-Nouvelle-Guinée (octobre 2025) et l’accord, encore plus récent, conclu avec l’Indonésie (février 2026) constituent deux accords sécuritaires majeurs, scellés à quelques mois d’intervalle, révélant une priorité stratégique désormais assumée : faire du voisinage septentrional un glacis destiné à tenir la rivalité sino-occidentale à distance du sanctuaire australien.

Ces dispositifs associent coopération militaire, intégration des forces et structuration d’un réseau régional destiné à sécuriser ses « marches » mélanésiennes et au-delà. Ils s’inscrivent dans un espace où d’autres acteurs conservent également des intérêts structurants, au premier rang desquels la France, présente en Nouvelle-Calédonie, dont la permanence stratégique contribue, elle aussi, à la configuration sécuritaire du Pacifique insulaire.

Toutefois, derrière le discours de partenariat « d’égal à égal », ils traduisent aussi un équilibre délicat entre protection et contrôle : pour les États insulaires du Pacifique, qui ne peuvent que constater la persistance d’une asymétrie de puissance, ces dispositifs constituent une garantie de sécurité face aux pressions chinoises, tout en ravivant le risque de dépendance à l’égard de l’Australie.

Le paradoxe d’une puissance moyenne : leadership régional sous dépendance américaine

À ce jour, une rupture avec l’AUKUS demeure toutefois très improbable tant les interdépendances militaires et technologiques sont profondes. Pourtant, les incertitudes entourant l’exécution du traité rappellent que les priorités de Washington peuvent évoluer au risque de cantonner Canberra à un rôle de « partenaire subordonné ».

À ce titre, si l’Australie ne cherche pas une autonomie stratégique complète vis-à-vis des États-Unis, elle s’efforce en revanche de compenser cette dépendance par sa capacité à regagner une influence régionale érodée par les initiatives de Pékin. En effet, en consolidant son ancrage (diplomatique, politique, sécuritaire, économique) dans le Pacifique, elle ambitionne moins de s’émanciper des États-Unis que de devenir un acteur régional incontournable capable de concurrencer et de contenir l’influence spectaculaire et multiforme de la Chine.

Cette posture reflète la condition classique d’une puissance moyenne : assez influente pour structurer son environnement immédiat, mais trop dépendante pour s’affranchir des rapports de force imposés par les grandes puissances, en l’occurrence chinoise et américaine. Canberra se trouve par ailleurs dans un exercice d’équilibriste : contenir la Chine tout en préservant avec elle une relation économique et commerciale essentielle et, dans le même temps, affirmer son leadership sans apparaître comme un simple relais de la nouvelle stratégie américaine de l’administration Trump.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

24.02.2026 à 17:00

L’audition des Clinton peut-elle faire basculer l’affaire Epstein ?

Frédérique Sandretto, Adjunct assistant professor, Sciences Po
Après avoir longtemps refusé de témoigner devant la commission enquêtant sur l'affaire Epstein, les Clinton ont changé de stratégie. Leur audience est attendue par tout un pays, et même au-delà.
Texte intégral (1994 mots)

L’ancien président des États-Unis (1993-2001) et son épouse, ancienne secrétaire d’État (2009-2013) et candidate démocrate à la présidence en 2016, vont témoigner devant la Chambre des représentants dans le cadre de la commission d’enquête sur Jeffrey Epstein. Une audience choc qui pourrait se dérouler selon plusieurs scénarios différents.


Les auditions de Bill et Hillary Clinton devant la commission d’enquête de la Chambre des représentants sur l’affaire Epstein, les 26 et 27 février prochain, s’annoncent comme un moment politique et médiatique majeur aux États-Unis. Jeffrey Epstein, financier déchu condamné pour infractions sexuelles, est au cœur d’un vaste scandale mêlant exploitation de mineures, réseaux d’influence et complaisances au sommet de l’État, qui continue de produire des répliques bien après sa mort en détention en 2019.

Bill Clinton a effectué plusieurs vols à bord du jet privé d’Epstein et la publication de photos le montrant aux côtés de Ghislaine Maxwell a nourri soupçons et théories, faisant de son nom l’un des plus scrutés dans ce dossier. Hillary est, elle, convoquée car elle doit préciser ce qu’elle sait des relations entre son mari et Epstein.

Pourquoi les Clinton ont-ils fini par accepter de témoigner ?

Pendant des mois, le couple Clinton a opposé une résistance frontale à la commission de contrôle de la Chambre, arguant que les convocations étaient juridiquement contestables et politiquement motivées.

Rappelons que la « commission sur l’affaire Epstein » n’est pas une institution permanente ; elle a été créée spécialement pour le dossier Epstein. Il s’agit d’une enquête conduite par des commissions existantes, principalement la commission de contrôle (Oversight), qui disposent du pouvoir d’assigner des témoins et d’organiser des auditions.

Les Clinton estiment que la commission de la Chambre des représentants chargée d’enquêter sur l’affaire Epstein leur est hostile parce qu’elle est contrôlée par la majorité républicaine, politiquement opposée à leur camp, notamment sous la présidence du républicain James Comer, à la tête de la House Committee on Oversight and Accountability. Ils dénoncent une focalisation jugée excessive sur les relations passées entre Bill Clinton et Jeffrey Epstein, estimant que d’autres personnalités liées à Epstein ne font pas l’objet de la même attention, ce qui selon eux révèle un ciblage politique.

Ils critiquent également des méthodes d’enquête qu’ils jugent agressives, comme les assignations à comparaître, les auditions sous serment à huis clos et la menace de poursuites pour entrave en cas de refus de coopérer, considérant que ces procédés suggèrent une présomption de culpabilité. Enfin, ils affirment que la convocation de Hillary Clinton s’inscrit dans un contexte de polarisation politique intense aux États-Unis, où certaines commissions parlementaires sont utilisées pour affaiblir des adversaires médiatiquement, alors même qu’elle n’est pas inculpée dans cette affaire et qu’elle est entendue comme témoin.

Le ton des échanges s’est durci jusqu’à la menace explicite d’un vote pour outrage au Congrès, signe que le bras de fer dépassait le simple cadre procédural. Sous cette pression, Bill et Hillary Clinton ont finalement accepté de témoigner dans des dépositions distinctes mais coordonnées, transformant un affrontement institutionnel en événement national.

Ce basculement s’explique aussi par la déclassification progressive des dossiers Epstein par le département de la Justice. Des dizaines de milliers de pages mêlant dossiers judiciaires, relevés bancaires, photographies et notes internes ont été rendues publiques, sous forme partiellement caviardée pour protéger les victimes. Cette mise à nu d’un système de prédation et de connivences a intensifié la demande de transparence. Chaque publication a relancé spéculations et appels à rendre des comptes. Dans ce contexte, le refus persistant des Clinton de se présenter à une audition devenait politiquement intenable. Lors d’un vote au Congrès lié à leur refus initial de témoigner, plusieurs élus démocrates ont voté avec les républicains pour les sanctionner pour outrage au Congrès, affirmant privilégier la responsabilité et la justice pour les victimes plutôt que la loyauté partisane.

La déclassification a fourni à la commission des éléments documentaires et créé un climat où l’absence des témoins les plus exposés devenait toxique sur le plan politique.

Une audience ouverte

Au-delà du cas Epstein, la convocation d’un ancien président et d’une ancienne secrétaire d’État soulève une question historique. Des présidents ont déjà été confrontés à des enquêtes lourdes ou à des procédures de destitution, mais voir un ex-président appelé comme témoin dans une commission parlementaire focalisée sur un scandale d’abus sexuels et de compromission d’élites constitue une situation quasi inédite par sa charge symbolique. La combinaison d’un ancien couple présidentiel, d’une affaire criminelle devenue symbole de l’impunité des puissants et d’un climat politique polarisé confère à cette audition une dimension exceptionnelle.

Initialement, les discussions sur les modalités du témoignage relevaient d’une gestion classique des risques : huis clos, temps de parole encadré, protocole strict pour limiter les fuites. Les avocats des Clinton plaidaient pour une audition technique et non spectaculaire. La stratégie a toutefois connu une rupture lorsque Hillary Clinton a demandé publiquement que l’audience soit ouverte et retransmise. Ce choix vise à renverser l’accusation d’opacité et à empêcher la diffusion d’extraits partiels susceptibles d’être instrumentalisés. L’audition devient ainsi une scène politique autant qu’un exercice de reddition de comptes.

Cette revendication de transparence répond à la crainte d’une instrumentalisation partisane. Hillary Clinton cherche à apparaître comme une témoin volontaire, exposée à la lumière pour éviter toute manipulation. En rendant la séance publique, elle oblige ses interrogateurs à assumer leurs questions devant l’opinion et tente de déplacer l’attention vers les défaillances institutionnelles qui ont permis à Epstein d’agir. Elle ambitionne ainsi de transformer une position défensive en posture offensive, en se plaçant du côté des victimes et de la vérité.

Au cœur de cette stratégie figure la promesse de révélations importantes sur la manière dont l’État et certaines élites ont géré le cas Epstein. Hillary Clinton a évoqué des documents accablants et des défaillances systémiques, laissant entendre que le scandale dépasse la question des relations personnelles pour toucher à des choix institutionnels et à des signaux d’alerte ignorés. La question demeure de savoir jusqu’où elle est prête à aller dans la mise en cause d’un système dont elle a elle-même fait partie.

L’audition autour de l’affaire Epstein pourrait se dérouler selon quatre scénarios clés, chacun susceptible de produire un impact concret sur la perception publique et l’évolution judiciaire du dossier.

Quatre scénarios

Le premier scénario reste celui du choc maîtrisé. Les Clinton pourraient reconnaître certaines relations sociales ou financières jugées aujourd’hui discutables, tout en niant toute connaissance des crimes d’Epstein. Dans ce cadre, l’audition se transformerait en un exercice de clarification : le public et les enquêteurs obtiendraient quelques confirmations sur les fréquentations et les rendez-vous, mais aucune révélation explosive ne viendrait bouleverser les positions déjà établies. L’effet immédiat serait limité : la couverture médiatique serait intense mais essentiellement centrée sur les contradictions mineures ou sur la perception de sincérité des Clinton.

Le second scénario plausible serait celui de la mise en cause institutionnelle. L’audition pourrait révéler que certains manquements au sein des agences fédérales, des forces de l’ordre ou des structures judiciaires ont permis à Epstein de continuer ses activités sans véritable sanction. Ce scénario élargirait l’enquête au-delà des Clinton, mettant sous pression d’autres responsables politiques ou financiers et déclenchant des appels à des réformes structurelles. Les documents et témoignages mis en avant pourraient révéler un système de protection indirecte ou de négligence, redessinant la compréhension publique des défaillances institutionnelles.

Un troisième scénario envisageable serait l’audition comme affrontement politique. Dans ce cas, chaque camp chercherait à instrumentaliser les déclarations pour déstabiliser l’adversaire, transformant le moment judiciaire en bataille idéologique. Les Clinton, mais aussi leurs opposants, pourraient chercher à utiliser chaque mot à des fins de communication politique, détournant l’attention du cœur du dossier. Ce scénario risquerait de brouiller le récit central de l’affaire, mais pourrait aussi révéler des stratégies de manipulation et d’influence autour du scandale.

Enfin, un scénario complémentaire mais non négligeable serait celui de révélations inédites ou confirmations de défaillances systémiques. L’audition pourrait mettre au jour des documents jusque-là confidentiels ou des témoignages de victimes, donnant une dimension criminelle renouvelée au dossier. Dans ce cas, l’affaire Epstein ne se limiterait plus à un scandale médiatique ou à une controverse politique : elle deviendrait le symbole d’un échec généralisé des institutions à protéger les victimes et à sanctionner les auteurs.

Un grand moment de vérité ?

Dans tous ces scénarios, le point commun est la mise en lumière de la fragilité d’un système où le pouvoir et le réseau social peuvent, dans certains cas, prévaloir sur la justice. L’audition des Clinton, qu’elle soit prudente ou révélatrice, pourrait donc devenir un moment de vérité national : elle a le potentiel de transformer le scandale Epstein d’affaire privée en affaire systémique, exposant non seulement les acteurs directs mais aussi les complicités et défaillances qui ont permis à ces crimes de perdurer.

Dans la presse, cette audience sera scrutée comme un révélateur du fonctionnement réel du pouvoir, un moment où les lignes partisanes pourraient s’effacer devant l’urgence de la transparence et de la vérité judiciaire.

The Conversation

Frédérique Sandretto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.02.2026 à 16:59

Le Mexique à feu et à sang après l’élimination par l’armée d’un baron de la drogue

Raul Zepeda Gil, Research Fellow in the War Studies Department, King's College London
La pratique consistant à éliminer physiquement des parrains de la drogue n’a jamais abouti à une baisse durable du trafic. En revanche, elle expose le pays à une flambée de violence.
Texte intégral (1660 mots)

« El Mencho », chef d’un puissant cartel, a été abattu pendant une opération militaire le 22 février. Immédiatement, son organisation a semé la terreur dans de nombreux États du pays. On dénombre déjà plusieurs dizaines de morts. Ce type d’épisode intervient fréquemment, notamment sous la pression de Washington, qui exige des autorités mexicaines qu’elles s’en prennent aux trafiquants locaux, dont la production est en large partie destinée aux États-Unis. Mais l’efficacité des éliminations physiques des parrains reste à démontrer.


Le chef du cartel Jalisco New Generation (CJNG), Nemesio Oseguera Cervantes, plus connu sous le nom d’« El Mencho », a succombé à ses blessures le 22 février, peu après avoir été capturé par les autorités mexicaines dans l’État de Jalisco (ouest du pays) pendant une opération au cours de laquelle il avait été touché par des tirs. Cette opération, qui s’est déroulée sur fond d’exigences états-uniennes quant à des « résultats tangibles » du Mexique dans la lutte contre le trafic de fentanyl, semble avoir bénéficié du soutien des services de renseignement de Washington.

Il s’agit de l’intervention la plus importante des forces de l’ordre mexicaines contre les cartels depuis la capture de l’ancien baron de la drogue Joaquín « El Chapo » Guzmán en 2016. Le CJNG est l’une des organisations criminelles les plus puissantes du Mexique et est accusé par les États-Unis, de même que le cartel de Sinaloa, de jouer un rôle clé en matière de production et de trafic de fentanyl.

Éliminer des individus n’entraîne pas la disparition ni même l’amoindrissement du marché de la drogue

L’élimination d’« El Mencho » a peut-être permis aux autorités mexicaines de remporter une victoire politique auprès de Washington. Mais le pays paie déjà un tribut élevé pour cette opération. Lorsque l’État mexicain élimine une figure importante d’un cartel, s’ensuit souvent une longue période de violence et d’instabilité. Dès l’annonce du décès du trafiquant, une vague de violences commises par ses hommes a balayé le pays.

Dans mes recherches sur les conflits criminels dans la région de Tierra Caliente, dans l’ouest du Mexique, je retrace la façon dont les premières vagues d’arrestations et d’éliminations par l’État ont remodelé les groupes criminels locaux, brisé des alliances et ouvert la voie à de nouveaux acteurs et dirigeants. C’est grâce à ce cycle de répression étatique et de réorganisation des cartels qu’El Mencho s’est fait connaître.

El Mencho a démarré dans sa carrière de criminel en tant que membre opérationnel lié au cartel Valencia, une organisation basée dans l’État de Michoacán. Le groupe a perdu du terrain à la fin des années 2000 sous la pression soutenue des autorités. Après le démantèlement des éléments clés du réseau Valencia vers 2010, El Mencho et d’autres membres restants du groupe se sont déplacés vers Jalisco, plus au nord, et ont fondé le CJNG.

Les conditions qui ont permis l’ascension du CJNG proviennent du même répertoire de mesures répressives que les autorités déploient aujourd’hui contre lui. Ce schéma est important, car il remet en cause une hypothèse courante parmi les décideurs politiques, y compris au sein d’agences états-uniennes telles que la Drug Enforcement Administration, selon laquelle éliminer un « chef » équivaut à démanteler un marché criminel.

En réalité, l’élimination des parrains mexicains n’entraîne pas la disparition du marché de la drogue, ni celle des routes de trafic. Ce qui change, c’est l’équilibre des pouvoirs entre les groupes qui se disputent le territoire, la main-d’œuvre et l’accès aux ports, aux routes et aux autorités locales.

Des études de la stratégie dite « kingpin », qui consiste pour les forces de l’ordre à cibler délibérément les chefs de cartels, ont montré que les arrestations et les éliminations entraînent souvent une augmentation à court terme des homicides et de l’instabilité au Mexique. Certaines études suggèrent que la violence augmente pendant plusieurs mois après l’élimination d’un chef, tandis que d’autres recherches montrent que l’assassinat d’un parrain peut provoquer une augmentation des violences plus forte qu’une arrestation.

Cela s’explique par le fait qu’un cartel touché est confronté à une succession soudaine et recourt à la violence pour empêcher – ou contrer – ses rivaux qui testent la nouvelle direction et tentent de renégocier les zones de contrôle. Les groupes criminels ne pouvant pas recourir au système judiciaire officiel pour résoudre leurs différends, ils ont tendance à le faire par le biais de violences ouvertes ou de négociations imposées par la force.

Cette logique se manifeste une nouvelle fois après la mort d’El Mencho. Les rapports faisant état de membres armés du cartel bloquant les routes, commettant des incendies criminels et semant le chaos dans plusieurs États correspondent à un scénario familier : une organisation touchée signale que sa capacité demeure intacte, punit l’État et avertit ses rivaux locaux qu’ils n’ont pas intérêt à chercher à profiter de la situation.

Même si l’État parvient à contenir cette vague de violence, le risque le plus grave réside dans ce qui suivra. Un vide au niveau du leadership favorise les divisions internes et l’opportunisme externe de la part de rivaux qui attendaient une occasion pour tester les limites et régler leurs comptes.

Par exemple, en 2024, l’arrestation du chef du cartel de Sinaloa, Ismael « El Mayo » Zambada, a provoqué une vague de violence dans l’État de Sinaloa, les différentes factions de l’organisation se disputant le pouvoir.

La politique de lutte contre la drogue des États-Unis

Un autre cycle qui se répète sans cesse en Amérique latine : la politique états-unienne en matière de drogues façonne les programmes de sécurité dans toute la région. Une augmentation du nombre de décès par overdose aux États-Unis, par exemple, peut y provoquer une panique politique et inciter Washington à faire pression sur les gouvernements latino-américains pour qu’ils prennent des mesures, généralement par le biais d’une répression militarisée.

Ces gouvernements réagissent par des mesures répressives, des raids et des arrestations très médiatisées. S’ensuit alors une recrudescence de la violence à mesure que les organisations criminelles se fragmentent ; puis, après un certain temps, les gouvernements tentent de désamorcer la situation. Le cycle recommence un peu plus tard, lorsque les États-Unis placent de nouveau le trafic de drogue en tête de leurs priorités.

L’interdiction des drogues perpétue ce cycle en excluant toute réponse autre que la force ou le droit pénal, sans pour autant produire de résultats significatifs. La plupart des pays ont criminalisé les drogues. Mais malgré les rapports des gouvernements faisant état d’une augmentation des saisies de drogues chaque année, les décès liés à la consommation de drogues dans le monde continuent d’augmenter.

Mêmes causes, mêmes effets

Les forces de sécurité mexicaines ne peuvent mettre fin à un marché transnational largement financé par la demande états-unienne, quel que soit le nombre d’arrestations spectaculaires qu’elles effectuent. Les opérations qui aboutissent à l’élimination ou à la détention de figures importantes des cartels ne font que rediriger et réorganiser le trafic de drogue, tout en intensifiant souvent la violence.

Si le Mexique et les États-Unis veulent réduire le nombre de décès liés aux cartels, ils doivent cesser de considérer l’élimination des barons de la drogue comme le principal indicateur de réussite. Si une opération très médiatisée satisfait temporairement Washington, ce sont les citoyens mexicains qui doivent trop souvent en subir les conséquences.

The Conversation

Raul Zepeda Gil ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.02.2026 à 16:59

Nouveaux médicaments antiobésité : l’arrêt des injections entraîne une reprise de poids beaucoup plus rapide que prévu

Sam West, Postdoctoral Researcher, Primary Care Health Sciences, University of Oxford
Dimitrios Koutoukidis, Senior Researcher, Behavioural Science, University of Oxford
Susan Jebb, Professor of Diet and Population Health, University of Oxford
Les nouveaux médicaments antiobésité par injections comme Wegovy et Mounjaro montrent une certaine efficacité pour maigrir. Mais en cas d’arrêt du traitement, la reprise de poids est rapide.
Texte intégral (2046 mots)
Les médicaments antiobésité par injections sont disponibles exclusivement sur prescription médicale mais doivent être payés par les patients, sans prise en charge par l’Assurance-maladie. martenaba/Shutterstock.com

Les nouveaux médicaments antiobésité par injections, comme Wegovy ou Mounjaro, montrent une certaine efficacité pour maigrir. Mais en cas d’arrêt du traitement, la reprise de poids est rapide. C’est ce que montre une étude récente publiée dans le British Medical Journal. Les chercheurs britanniques interrogent le rapport coût-efficacité pour le système de santé du Royaume-Uni de ces traitements vendus très cher par leurs fabricants. Une analyse éclairante aussi pour la France, où ces médicaments ne sont pas remboursés par l’Assurance-maladie.


Les médicaments antiobésité sous forme de seringues injectables, telles que Wegovy et Mounjaro, ont été présentés comme révolutionnaires. Dans des essais cliniques, les participants ont perdu en moyenne 15 à 20 % de leur poids corporel, des résultats qui semblaient presque miraculeux par rapport aux programmes traditionnels basés sur des régimes et la pratique d’activité physique.

Aujourd’hui, 1 personne sur 50 au Royaume-Uni a recours à ces traitements. La plupart d’entre elles, environ 90 %, les paient de leur poche, pour un coût mensuel compris entre 120 et 250 livres sterling (soit entre 137 et 286 euros, ndlr). Mais il y a un hic : plus de la moitié des personnes arrêtent de prendre ces médicaments dans l’année, principalement pour des raisons financières.

(En France, trois médicaments de cette famille dite des analogues du GLP-1 – Wegovy [sémaglutide], Mounjaro [tirzépatide] et Saxenda [liraglutide] – sont autorisés dans le traitement de l’obésité, sur prescription médicale, et en seconde intention, en cas d’échec de la prise en charge nutritionnelle, en association à un régime hypocalorique et à une activité physique. Ces trois médicaments sont vendus à un prix fixé librement par le laboratoire pharmaceutique qui les commercialise et ne sont pas remboursés par l’Assurance-maladie dans cette indication, ndlr.)

Nos dernières recherches révèlent ce qui se passe ensuite, et cela donne à réfléchir. En moyenne, dans les essais cliniques, les personnes reprennent tout le poids qu’elles ont perdu dans les 18 mois suivant l’arrêt du traitement.

Ce qui est surprenant, c’est la rapidité avec laquelle cela se produit, près de quatre fois plus vite que la reprise de poids observée après l’arrêt de programmes de perte de poids basés sur l’alimentation et l’activité physique. Les améliorations en matière de santé disparaissent également puisque la tension artérielle, le taux de cholestérol et la glycémie reviennent à leurs niveaux initiaux.

Une personne en train de prendre sa tension artérielle
Après arrêt des médicaments antiobésité, la tension artérielle, qui était améliorée par les injections, revient à son niveau d’avant traitement. ThamKC/Shutterstock

Ces constats revêtent une certaine importance, car ils suggèrent que ces médicaments pourraient devoir être pris sur le long terme, voire à vie, pour maintenir leurs effets bénéfiques. Certains prestataires privés proposent un accompagnement intensif en plus du traitement médicamenteux, et notre analyse a montré que cela aidait les patients à perdre en moyenne 4,6 kg supplémentaires. Cependant, rien ne prouve que l’accompagnement pendant ou après l’arrêt du traitement aide à ralentir la reprise de poids.

Ce rebond rapide soulève de sérieuses questions d’équité dans la prise en charge mais aussi interroge sur le fait de savoir si ces traitements valent le coût du point de vue du NHS (National Health System, qui correspond au système de santé britannique, ndlr). L’obésité est beaucoup plus fréquente chez les personnes vivant dans des zones défavorisées, qui sont également celles pour qui s’offrir un traitement privé est le plus difficile. L’accès au système de santé est essentiel pour garantir à tous des soins égaux, quel que soit les revenus.

Le NHS met progressivement ces médicaments à disposition, mais uniquement pour les personnes en situation d’obésité sévère (IMC supérieur à 40) et concernées par quatre pathologies liées à l’obésité, comme par exemple l’hypertension artérielle. Cela signifie que de nombreuses personnes qui pourraient en bénéficier en sont effectivement exclues, à moins qu’elles ne paient de leur poche.

Les coûts pourraient finir par baisser à mesure que les brevets existants expirent et que des versions orales (sous la forme de comprimés, ndlr) moins coûteuses sont développées. Mais cela pourrait prendre des années. En attendant, nous devons nous assurer que l’accès à ces médicaments par le NHS présente le meilleur coût rapporté à leur efficacité afin que davantage de personnes puissent en bénéficier.

Coûts versus bénéfices

Le National Institute for Health and Care Excellence (en français, Institut national pour la santé et l’excellence clinique), ou [NICE],(https://www.nice.org.uk/) a approuvé l’utilisation de ces médicaments dans le cadre du système de santé publique britannique (NHS) car il a évalué le rapport coût-efficacité selon ses critères habituels. Mais ces calculs partaient du principe que le traitement durerait deux ans et que le poids serait repris trois ans après l’arrêt du traitement. Nos données montrent que lorsque le traitement prend fin, la reprise de poids se produit étonnamment vite.

Nous avons également constaté que les améliorations observées au niveau de la tension artérielle et du cholestérol – qui sont les principales raisons pour lesquelles le NHS traite l’obésité – disparaissaient dans les mêmes délais. Cela suggère que le traitements devrait être poursuivi sur le long terme pour obtenir une perte de poids durable et garantir ses bienfaits pour la santé, ce qui modifie complètement le calcul des coûts.

Des recherches supplémentaires sont nécessaires pour évaluer le véritable rapport coût-efficacité de ces médicaments, en dehors des essais cliniques rigoureusement contrôlés, et pour les patients réellement traités.

Pour les personnes en situation d’obésité qui ne remplissent pas encore les critères stricts du NHS permettant de bénéficier de ces traitements, le rapport coût-efficacité pourrait ne pas être favorable dans le cadre d’une utilisation qui serait généralisée par le NHS tant que leur prix n’aura pas considérablement baissé.

Pour cette population, les programmes traditionnels de gestion du poids restent la base du traitement de l’obésité. Les programmes de remplacement total de l’alimentation, au cours desquels les personnes consomment des soupes et des boissons nutritives équilibrées à la place de repas normaux pendant huit à douze semaines, permettent d’obtenir une perte de poids similaire à celle obtenue avec des médicaments, pour un coût nettement inférieur.


À lire aussi : Pourquoi l’obésité progresse-t-elle depuis trente ans ?


Les programmes de perte de poids en groupe, comme Weight Watchers et Slimming World, permettent d’obtenir des pertes de poids moyennes moins importantes, mais peuvent avoir un rapport coût-efficacité favorable et même permettre au NHS de réaliser des économies.

Ces nouveaux médicaments antiobésité ont montré à quel point les gens ont désespérément besoin d’aide pour perdre du poids. Mais l’évaluation du coût rapporté à l’efficacité reste floue. Rendre les programmes amaigrissants moins chers et accessibles à toute personne en situation d’obésité qui souhaite bénéficier d’un soutien permettrait un accès plus équitable aux traitements et améliorerait la santé publique, même si les résultats individuels risquent d’être moins spectaculaires que ceux obtenus avec un traitement médicamenteux pris sur le long terme.

The Conversation

Sam West a reçu des financements du « National Institute of Health Research » et participe à trois essais cliniques sur la perte de poids financés par la Fondation Novo Nordisk.

Dimitrios Koutoukidis a reçu des financements du « National Institute of Health Research ». Il est l'investigateur principal d’études financées par des fonds publics et menées par des chercheurs, dans lesquelles Oviva et Nestlé Health Sciences ont contribué sur le plan financier ou concernant la mise en œuvre d'interventions visant à la perte de poids. Il a supervisé une bourse de doctorat iCASE dans laquelle Second Nature était un partenaire industriel.

Susan Jebb bénéficie d'une bourse de recherche du « National Institute of Health Research ». Elle est l'investigatrice principale d’un programme de recherche financé par la Fondation Novo Nordisk. Oviva, Second Nature et Nestlé Health Sciences ont contribué sur le plan financier ou concernant la mise en œuvre d'interventions visant à la perte de poids dans le cadre de certaines études financées par le National Institute of Health Research.

24.02.2026 à 16:58

Les capitales européennes de la culture : un outil de diplomatie culturelle dans un monde instable ?

Maria Elena Buslacchi, socio-anthropologue, chercheuse post-doc à L'Observatoire des publics et pratiques de la culture, MESOPOLHIS UMR 7064, Sciences Po / CNRS / Aix-Marseille Université, Aix-Marseille Université (AMU)
Dans un paysage géopolitique de plus en plus fractionné, les capitales européennes de la culture, en pleine transformation, ont un rôle à jouer.
Texte intégral (2276 mots)
Le château de Trenčín, en Slovaquie. La ville est capitale européenne de la culture en 2026, au même titre qu’Oulu, en Finlande. CC BY

En 2026, les villes de Trenčín en Slovaquie et d’Oulu en Finlande ont été sélectionnées pour promouvoir la culture en Europe. Alors que le Vieux Continent doit redéfinir son rôle sur l’échiquier géopolitique mondial, le programme des capitales européennes de la culture (CEC) est à un tournant. Tout récemment, la Commission européenne a ouvert aux citoyens une consultation pour repenser collectivement l’avenir du dispositif après 2033. Son rôle d’outil de diplomatie culturelle en ressort plus important que jamais.


Né en 1985 dans un contexte de distension de la guerre froide et de construction politique du projet de l’Union européenne, le titre de « Capitale européenne de la culture » a été initialement conçu pour célébrer la diversité culturelle du continent. Depuis, il est devenu un laboratoire des politiques contemporaines, mais aussi un thermomètre des espoirs, des contradictions et des défis de l’Europe elle-même.

Le lancement des capitales (d’abord « villes ») européennes de la culture (CEC) ne peut se comprendre sans le replacer dans son contexte historique : l’horizon de la fin de la guerre froide, dans une Europe divisée où le rideau de fer commence à s’effriter et la Communauté économique européenne (CEE) s’élargit progressivement. Le programme verrait alors le jour, pour l’anecdote, grâce à une discussion fortuite, à l’aéroport, entre deux figures politiques emblématiques de l’époque : Jack Lang, alors ministre français de la culture, et Melina Mercouri, actrice engagée et ministre grecque de la culture.

Les deux portent une vision ambitieuse : utiliser la culture comme un vecteur d’unité, alors qu’elle paraît demeurer un impensé du projet politique européen, comme l’indique Monica Sassatelli, sociologue à l’Université de Bologne, dans son analyse de la place de la culture dans l’historiographie des politiques européennes. Le choix des premières villes – Athènes, Florence, Amsterdam, puis Paris – traduit cette aspiration à donner une légitimation symbolique à la future Union européenne. Ces capitales historiques, porteuses d’un patrimoine artistique et intellectuel emblématique, incarnent une Europe des arts, de la création, des traditions qui est censée dépasser les clivages politiques et économiques.

La culture comme instrument de régénération urbaine

Et puis vint Glasgow (Écosse, Royaume-Uni). Ville industrielle en déclin, marquée par la désindustrialisation et un chômage endémique, dès la fin des années 1980, Glasgow avait vu son administration élaborer une stratégie de relance du centre-ville visant à marquer un tournant symbolique et à préparer le terrain de la CEC 1990.

La campagne de promotion « Glasgow’s Miles Better » associait de manière pionnière les anciens espaces industriels et la culture, dans le but de revitaliser certaines institutions culturelles centrales (Scottish Opera, Ballet and Orchestra, BBC Symphony Orchestra, Citizen Theatre) et de créer un nouveau centre d’exposition capable d’accueillir des artistes et des événements, locaux et internationaux. Le directeur artistique de la capitale Robert Palmer, futur auteur du premier rapport sur les CEC en 2004, considérait l’événement de 1990 comme le point de départ d’un processus participatif de redéfinition « par le bas » de la culture locale, qui pouvait inclure tant l’excellence artistique que la tradition historique, rurale et industrielle et renouer avec une tradition déjà affirmée de culture populaire et de loisirs.

À côté des grands concerts de Luciano Pavarotti et de Frank Sinatra était alors montée en scène toute une série d’associations et de petits collectifs locaux. À Glasgow, l’année 1990 a redéfini les limites du mot « culture », en finissant par y inclure l’histoire industrielle de la ville et par permettre à sa population de s’y reconnaître. Selon la sociologue Beatriz Garcia, cet effet de régénération sur les images et les identités locales est l’héritage le plus fort et le plus durable de la CEC, au-delà des impacts économiques et matériels.

Ce cas pionnier, à côté d’autres cas emblématiques contemporains, comme Bilbao ou Barcelone en Espagne, fait office de modèle. Dans d’autres villes européennes, les espaces industriels se transforment en théâtres, en musées, ou accueillent des festivals : la « ville créative » attire des millions de visiteurs et stimule l’économie locale. Lille (Nord), CEC 2004, ouvre une douzaine de « maisons folie » entre la métropole lilloise et la Belgique, « fabriques culturelles » de proximité installées pour la plupart sur des sites abandonnés ou d’anciennes friches industrielles.

La Maison folie de Wazemmes, à Lille. Wikimédia, Karlsupart, CC BY

Liverpool (Angleterre, R.-U.), en 2008, utilise les CEC pour réhabiliter son front de mer et attirer des investissements. Au tournant du siècle, le programme des CEC ne se limite plus à mettre en valeur des villes déjà rayonnantes sur la scène culturelle internationale, mais devient un vrai outil de transformation urbaine, utilisé par des territoires en difficulté économique ou sociale pour se réinventer et se repositionner.

Ce changement marque une évolution dans les politiques urbaines, où la culture est de plus en plus perçue comme un levier de développement économique, au même titre que les infrastructures ou les politiques d’attractivité. Les CEC deviennent un instrument de cette politique, capable d’attirer des financements publics et privés, de créer des emplois dans les secteurs culturels et touristiques, et d’améliorer l’image de villes souvent stigmatisées.

Les CEC, laboratoire des transitions contemporaines

Cependant, cette approche reçoit des critiques. Les premières études réflexives menées sur les CEC, au début des années 2010, soulignent comment elles peuvent aussi exacerber les inégalités sociales et spatiales si elles ne sont pas accompagnées de politiques publiques inclusives. À Marseille (Bouches-du-Rhône), en 2013, la question se fait publique, avec l’organisation d’une vraie programmation off – c’est-à-dire d’événements parallèles et alternatifs dénonçant les effets secondaires et indésirables de la programmation officielle. Si la CEC marseillaise était encore l’expression de la logique de régénération à l’œuvre observée dans les années précédentes, elle représente aussi le moment où l’inclusion sociale émerge comme un enjeu central de ces méga-événements.

Le programme des CEC a toujours su intégrer la critique, entre autres grâce à la mécanique même du projet, qui permet de retrouver souvent dans les jurys de sélection des nouvelles CEC des personnes ayant joué un rôle clé dans les CEC antérieures. La participation, qui avait été questionnée à l’occasion de Marseille-Provence 2013, devient ainsi un incontournable des CEC successives – à Matera-Basilicata (Italie) 2019, l’implication des citoyens sera l’un des axes porteurs du projet.

À la fin des années 2010, les capitales européennes de la culture deviennent aussi une tribune pour les grands enjeux du XXIᵉ siècle et un espace d’expérimentation des transitions écologiques, sociales et numériques. Rijeka, en Croatie, capitale européenne de la culture en 2020, illustre cette évolution. La ville, marquée par un passé industriel et des flux migratoires importants, centre son programme sur les questions de migrations et de minorités, en écho aux crises humanitaires qui traversent l’Europe. Les projets culturels mis en place – expositions, résidences d’artistes, débats publics réunis sous le slogan « Port de la diversité » – visent à favoriser le dialogue interculturel et à interroger les identités multiples de l’Europe contemporaine. De même en France, Bourges (Cher), future CEC en 2028, construit sa candidature autour de la transition écologique. Le projet « Bourges, territoire d’avenir » lance le défi de la neutralité carbone de la visite, se servant de la CEC comme d’un catalyseur de l’action climatique au niveau local.

2033 et au-delà : les CEC face aux défis géopolitiques et environnementaux

Alors que les CEC sont pour l’instant programmées jusqu’en 2033, l’avenir du titre fait l’objet de débats. La Commission européenne a lancé une consultation publique pour imaginer les CEC de demain, dans un contexte marqué par des crises géopolitiques et environnementales. Les CEC 2025, Chemnitz (Allemagne) et Nova Gorica/Gorizia (Slovénie), ont élaboré un « Livre blanc pour le futur des CEC », en s’appuyant sur les observations de 64 CEC passées et à venir. Quarante recommandations sont proposées pour influencer le processus de réforme du programme dans le cycle après 2034.

Parmi ses thèmes clés, le livre blanc insiste sur la volonté de renforcer la dimension européenne. Cela pourrait se faire en introduisant un critère de sélection fondamental fondé sur l’identité européenne, en mettant l’accent sur les valeurs européennes dans la programmation, en développant une stratégie de marque unifiée et en renforçant la coopération transfrontalière.

Le processus de sélection et de suivi, jugé trop bureaucratique, est également remis en question, la recommandation principale étant de privilégier un suivi encourageant plutôt que punitif. L’héritage de l’événement est remis en question : les villes devraient être tenues responsables de la réalisation des promesses faites dans leurs dossiers de candidature et les gouvernements nationaux devraient s’impliquer davantage dans le soutien aux villes pendant et après leur année capitale. La diffusion des bonnes pratiques, l’évaluation par les pairs et le mentorat entre les anciennes et les futures CEC, qui existent déjà de manière informelle, devraient être reconnus et institutionnalisés, notamment par la création éventuelle d’une plateforme centrale soutenue par les institutions européennes.

Le défi consiste désormais à concilier son rôle symbolique et stratégique, en veillant à ce que les prochaines éditions ne se contentent pas de célébrer, mais visent à renforcer la participation démocratique et la solidarité transnationale dans un paysage géopolitique de plus en plus fragmenté.

The Conversation

Maria Elena Buslacchi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.02.2026 à 12:31

Agroecology: rethinking global policy efficiency and funding priorities to overcome the blind spot in climate action

Fabio G. Santeramo, Associate Professor, Università di Foggia
Policy frameworks shaping farming in the EU and beyond are suffering from funding misalignment and fragmented priorities, resulting in ineffective global climate efforts.
Texte intégral (2334 mots)

Amid mounting concerns surrounding climate mitigation in the agriculture and forestry sectors, science-based evidence suggests a need for more effective, fair and coherent policy frameworks for cutting greenhouse gas emissions in the European Union and further afield.

International policies to protect the environment are at a crossroads: bold targets coexist with fragmented priorities, threatening the agenda. The debate is often dominated by the least effective measures, while high-impact solutions struggle to gain space and resources. Funding streams show only a faint prioritisation of green objectives, eroding the consistency of environmental action. These dynamics become especially evident in sectors where emissions are high and policies are numerous, yet strategic alignment and assessment remain scarce.

The Agriculture, Forestry and Other Land Use (AFOLU) sector, responsible for over 20% of global emissions, continues to fall through the cracks of climate policy. In the European Union, it is often described as “the missing piece in climate policy.” Yet, it continues to be regulated with several national and local initiatives, while suffering from weak coordination at the macro level (e.g. EU, multilateral agreements).

Calls for policy efficiency and multilateral climate governance

Despite a wide range of local and national initiatives targeting emissions reductions in the AFOLU sector, there remains a striking lack of assessment studies evaluating their real-world effectiveness.

Ex-post analyses, though far fewer in number, provide evidence-based insights that are key to refining future strategies. Many initiatives prioritise conventional agricultural goals (i.e income growth, yield improvement) over environmental ones. A recent OECD review on policy effectiveness, echoed by university researchers, warns of incoherence in political agendas when it comes to lowering emissions. The findings highlight differences in the performance of policy tools, raising the question: Are the most effective instruments being prioritised and funded within current policy agendas?

Russia’s invasion of Ukraine has triggered one of the largest increases in conflict-related food insecurity. The United Nations’ Food and Agriculture Organization (FAO) warns that, due to the war, millions of people could still be chronically undernourished by 2030. The crisis has pushed food security to the top of the political agenda, with the need to ensure food supply often putting environmental and climate priorities in the background.

On June 20 2025, the European Commission withdrew its Green Claims Directive, a planned crackdown on misleading environmental claims. In the EU Parliament, the move sparked strong criticism from Socialists and Liberals and marked a setback in the fight against greenwashing.

Ahead of COP30, the UN’s annual meeting for climate cooperation, held in the Amazonian city of Belém in November 2025, Brazil’s National Secretary for the Environment and Climate Change, Ana Toni, raised serious concerns about the world’s “uncertain” response to the climate crisis.

One month before COP30, only one third of the nearly 200 countries had submitted plans to meet the requirements required by the 2015 Paris Agreement, while ongoing military and trade conflicts continued to divert attention and resources away from climate action.

India’s plans for one, still remain to be seen. Described as the world’s fifth largest economy and third biggest emitter of global greenhouse gases, the country was closely watched at the UN meeting.

Highest emitting economies are on the UN’s radar

COP30 absentees included China’s President Xi Jinping and US President Donald Trump. China and the US are the two biggest emitters of planet-warming gases. At the summit China came under the closest scrutiny as the world’s second-largest economy and the biggest emitter of greenhouse gases. What alarms analysts is that China approved 11.29 gigawatts (GW) of new coal-fired power plants in the first three months of 2025, already surpassing the 10.34 GW approved in the first half of 2024. Reducing coal use is essential for China to meet its targets of peaking carbon emissions by 2030 and achieving carbon neutrality by 2060.

Meanwhile, last June, in the US, Donald Trump was already laying the groundwork to open up 58 million acres of national forest backcountry to road construction and development, rolling back protections that have been in place since 2001. In detail, the Trump administration announced plans to repeal the 2001 Roadless Rule (describing it as outdated) which had preserved the wild character of nearly one-third of the land in national forests across the United States.

These trends could ultimately be summed up in one sentence: a policy agenda whose attention toward the environment is slowly declining, despite the growing urgency of sustainability challenges.

The Environmental impact of agricultural policies: Beyond market instruments

The expectations on the debate about agriculture’s inclusion in the EU Emissions Trading System (ETS) may be exaggerated. Our research shows that similar policies (i.e. carbon taxes, emissions trading schemes, and subsidies) are barely effective and tend to reduce emissions by percentage as high as 9%.

Agriculture potentially becoming part of the ETS is a major topic in the current policy debate. However, turning this into action faces challenges. Denmark’s recent decision to introduce a carbon tax on agricultural emissions by 2030, aiming to cut emissions by up to 70%, shows the level of ambition.

Setting a price on emissions through a fair and balanced application of the polluter pays principle makes sense. It helps cleaner alternatives compete, raises money to support a fair transition, and makes polluters take financial responsibility for the damage they cause. But for a future agricultural ETS to truly work, it must be designed properly: it needs a strict emissions cap, no free pollution permits, and a fair and efficient use of the revenues.

In the current Common Agricultural Policy (CAP), the adoption of eco-scheme uptake has been poor. To make matters worse, CAP rules have been watered down, weakening several of the “good agricultural and environmental conditions” and giving EU member stateseven more flexibility in the approval process of their strategic plans. In this context, putting a price on pollution won’t change much if the rest of the system keeps supporting polluting practices. A carbon price only works if the broader framework stops rewarding emissions in the first place.

By co ntrast, non-market policies – i.e. Protected Areas (PA), Forest Management Programs (FMP), Payments for Environmental Services (PES), and Non-Tariff Measures (NTM) – often deliver better results, with stronger impacts on reducing emissions than market-based policies. PA, broadly adopted in Indonesia and Thailand, can achieve emission reductions of up to 60%, placing them among the most impactful policy instruments available. FMP and PES show encouraging results in land-use changes, such as the conversion of croplands into forests.

Research finds that FMP, widely adopted in Brazil, are the most effective in triggering substantial shifts in land use, with forest cover increasing to as much as 50%. One reason for this is that this type of policy makes it more appealing for farmers to transition: by conserving their land, they gain access to valuable resources such as timber and other ecosystem services. It’s a win-win, for the environment and for local communities.

While non-market-based policies demonstrate strong effectiveness in reducing emissions, they continue to face significant challenges. The EU Deforestation Regulation (EUDR) is an example of this. Although the EUDR was introduced as a landmark effort to curb global deforestation by ensuring that products sold in the EU are deforestation-free, it is now facing significant political pushback. Eighteen EU member states have called on the European Commission to ease the regulation, arguing that it imposes disproportionate and costly administrative burdens even on countries with negligible deforestation risk. They warn that the law, in its current form, could hurt competitiveness, drive up production costs, and disrupt supply chains; pressures that have already led to the postponement of its enforcement and risk diluting its environmental ambition before it is fully implemented.

Effective agricultural policy vs current funding priorities

If we are truly committed to climate goals, especially in the AFOLU sector, we must focus on policies that are direct, enforceable, and grounded on solid science. The research evidence illustrates that the most meaningful progress comes from mandatory rules-based approaches, such as PA.

According to the European Commission’s financial report for 2023, a total of €378.5 billion has been made available under the CAP since January 2021.

Of this, “The vast majority, around €283.9 billion, goes to direct payments and market measures through the European Agricultural Guarantee Fund (EAGF), primarily to support farmers’ incomes. Meanwhile, just €94.2 billion is allocated to rural development via the European Agricultural Fund for Rural Development (EAFRD), the branch of the CAP that funds environmental protection and biodiversity efforts, such as PA.”

In theory, the CAP aims to place environmental protection at the heart of its strategy. But when we follow the money, the picture is less balanced. Between 2021 and 2027, over €40 billion per year was directed to market-related expenditure and direct payments, while rural development, the pillar supporting green initiatives, receives less than half of that.

What’s the upshot?

Most of the funding still goes to policies that are least effective at protecting the environment, especially when it comes to cutting emissions, while the more impactful measures remain underfunded. It is a mismatch that risks undermining Europe’s climate and biodiversity ambitions.


This article was co-authored with Irene Maccarone, a Research Fellow at the University of Foggia (Italy).


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Fabio G. Santeramo is also affiliated with the European University Institute.

24.02.2026 à 11:51

Lissages capillaires : attention au risque d’insuffisance rénale aiguë

Pauline Guillou, Chargée de projet scientifique, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
Elodie Lontsi, Chef de projet cosmétovigilance et tatouvigilance, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
Sandrine Charles, Toxicologue, chef de projet, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
Il existe très probablement un lien entre l’acide glyoxylique utilisé dans des lissages capillaires (parfois appelés lissages « brésiliens » ou « indiens ») et des cas d’insuffisance rénale aiguë.
Texte intégral (2180 mots)

L’Agence nationale de sécurité sanitaire (Anses) a conclu, en janvier 2025, à un lien fortement probable entre la présence d’acide glyoxylique, un ingrédient utilisé dans certains produits de lissages capillaires, et la survenue de cas d’insuffisances rénales aiguës. En attendant une évaluation des risques au niveau européen, cette substance ne fait l’objet d’aucun encadrement ni restriction d’usage. Les consommateurs sont appelés à ne pas utiliser ces produits afin de limiter les risques pour leur santé.


Après plusieurs signalements de cas d’insuffisance rénale aiguë à la suite de la réalisation de lissages capillaires en France et à l’étranger, des études scientifiques ont montré qu’une substance contenue dans ces produits, l’acide glyoxylique, pouvait être à l’origine de ces effets.

Dans un avis rendu en janvier 2025, l’Agence nationale de sécurité sanitaire, de l’alimentation, de l’environnement et du travail (Anses) a confirmé un lien fortement probable entre cet ingrédient et cet effet indésirable et préconise une évaluation des risques au niveau européen.

Quelles recommandations pour la sécurité des consommateurs ?

Pour l’heure, les autorités sanitaires conseillent d’éviter d’utiliser des produits capillaires contenant de l’acide glyoxylique et d’être vigilant en cas de symptômes inhabituels après un lissage.

En attendant d’éventuelles mesures réglementaires, l’Anses émet les recommandations suivantes :

  • Ne pas utiliser de produits de lissage capillaire contenant de l’acide glyoxylique ;
  • En cas de symptômes inhabituels pendant l’application ou dans les heures suivant la réalisation d’un lissage capillaire (douleurs lombaires, fatigue, nausées…), que le produit contienne de l’acide glyoxylique ou non, il est recommandé de consulter un médecin ou de contacter un centre antipoison en indiquant la réalisation d’un lissage capillaire ;
  • Pour contacter un centre antipoison : se rendre sur le site Internet Centres-antipoison.net ou appeler le (33)1 45 42 59 59 ;
  • En cas de symptômes inhabituels pendant l'application ou dans les heures suivant la réalisation d'un lissage capillaire (douleurs lombaires, fatigue, nausées…), que le produit contienne de l'acide glyoxylique ou non, il est également recommandé de déclarer l'incident sur le portail de signalement des évènements sanitaires indésirables du ministère en charge de la santé : Signalement.social-sante.gouv.fr/

À noter que la vigilance doit être de mise pour des lissages capillaires réalisés chez le coiffeur, en salon ou à domicile, mais aussi directement par le consommateur. Les produits capillaires lissants susceptibles de contenir de l’acide glyoxylique (même si leur étiquetage ne le précise pas) sont en effet disponibles dans le commerce et peuvent être achetés directement par le grand public. Ces lissages sont parfois – mais pas systématiquement – présentés sous certaines dénominations (« lissages brésiliens », « lissages indiens », etc.).

Une première alerte auprès du dispositif de cosmétovigilance en France

En janvier 2024, l’Anses, nouvellement en charge de la cosmétovigilance en France, a reçu de la part d’un néphrologue le signalement d’un cas d’insuffisance rénale aiguë supposée en lien avec l’utilisation d’un produit de lissage capillaire. Ce signalement concernait une femme ayant connu trois épisodes d’insuffisance rénale aiguë en trois ans qui se sont déclarés systématiquement quelques heures après la réalisation d’un lissage capillaire. Le seul événement commun aux trois épisodes était en effet l’application d’un soin capillaire le jour du début des symptômes (La cosmétovigilance consiste à assurer une surveillance et, le cas échéant, à identifier des effets indésirables chez l’humain liés à des produits d’hygiène ou de beauté que l’on classe, selon la réglementation, dans la catégorie dite des « cosmétiques », ndlr.)

Lors des trois épisodes, les premiers symptômes étaient une sensation de brûlure du cuir chevelu durant toute la durée de l’application, puis l’apparition d’ulcérations du cuir chevelu. Une douleur lombaire apparaissait dans l’heure suivant le soin, suivie de nausées et d’asthénie le jour même. Les produits utilisés lors des deux premiers soins lissants n’ont pu être identifiés. Le troisième produit, lui, était connu.

Des effets indésirables graves qui suscitent l’attention

Les néphrologues ayant pris en charge cette patiente ont mené des recherches afin d’identifier l’origine de cet effet. Ils ont ainsi établi un lien de causalité entre l’insuffisance rénale aiguë et une substance contenue dans le produit utilisé lors du troisième soin, l’acide glyoxylique. Ces conclusions résultent, d’une part, de l’observation de la toxicité rénale de l’acide glyoxylique chez la souris et, d’autre part, de l’existence de cas humains similaires identifiés dans plusieurs pays, notamment en Israël.

L’acide glyoxylique est utilisé dans les produits de lissage capillaire en remplacement du formaldéhyde. Le formaldéhyde était utilisé dans les produits cosmétiques et notamment pour les lissages capillaires, mais a été interdit en 2019 du fait de son classement comme substance cancérogène en 2014 dans le cadre du règlement européen CLP. L’industrie a alors développé des alternatives, dont l’acide glyoxylique.

Au regard de ces éléments, l’Anses s’est autosaisie pour dresser un état des lieux des connaissances sur la toxicité rénale de l’acide glyoxylique présent dans les produits lissants et déterminer si un encadrement des conditions d’utilisation de cette substance était nécessaire.

En août 2024, deux nouveaux signalements d’insuffisance rénale aiguë chez des personnes s’étant fait lisser les cheveux ont été adressés à l’Anses. Ces signalements concernaient des femmes, ayant présenté des symptômes tels que des maux de tête, des douleurs lombaires, des nausées, de la fatigue, ou encore une soif excessive dans les heures suivant le soin. Leurs analyses de sang ont mis en évidence une augmentation significative des taux de créatinine, un marqueur biologique de l’insuffisance rénale. Aucune autre cause explicative n’a pu être identifiée. L’évolution de leur état de santé a été favorable, après une hydratation, voire une hospitalisation de plusieurs jours pour l’une d’elles.

Appliqué sur le cuir chevelu, l’acide glyoxylique peut pénétrer dans l’organisme

L’analyse de la littérature scientifique menée par l’Anses a permis d’identifier des données à la fois expérimentales et cliniques établissant un lien entre l’utilisation de produits lissants pouvant contenir de l’acide glyoxylique et la survenue d’une insuffisance rénale aiguë dans les heures qui suivent.

Concernant les 26 cas similaires survenus entre 2019 et 2022 en Israël, pour certains d’entre eux, des biopsies rénales ont révélé la présence des dépôts de cristaux d’oxalate de calcium. Ces derniers peuvent constituer des calculs rénaux qui altèrent le fonctionnement des reins de façon parfois sévère. Parmi ces 26 cas, 11 patientes ont été exposées à des produits de lissage à base de kératine affichant, dans leur composition, des « dérivés de l’acide glycolique ». Pour les autres, le type de produit lissant n’a pas été identifié.

À également été recensé en Suisse, et présenté dans une publication datant de 2024, le cas d’une femme d’une quarantaine d’années ayant développé une insuffisance rénale aiguë après un lissage des cheveux. La biopsie rénale avait également montré des dépôts de cristaux d’oxalate de calcium. La composition du produit utilisé reste cependant inconnue.

Par ailleurs, des tests expérimentaux menés sur des rongeurs ont confirmé le rôle néphrotoxique de l’acide glyoxylique lors d’une exposition par voie cutanée. Enfin, la formation de cristaux d’oxalate dans l’organisme à partir de l’acide glyoxylique a également été démontrée.

L’ensemble de ces données suggèrent donc que l’acide glyoxylique, lorsqu’il est appliqué sur le cuir chevelu, peut pénétrer dans l’organisme et se transformer en oxalate de calcium.

Une substance dont l’utilisation n’est ni encadrée ni limitée

À la suite de l’analyse de l’ensemble des données existantes, l’Anses a donc publié en janvier 2025 un avis qui conclut au rôle causal fortement probable de l’acide glyoxylique dans la survenue d’insuffisances rénales aiguës observées après l’application de produits lissants.

À ce jour, cette substance ne fait cependant pas l’objet de dispositions spécifiques dans le cadre du règlement cosmétique (en particulier selon les annexes II et III, qui correspondent respectivement aux substances interdites et aux substances faisant l’objet de restrictions). Son utilisation n’est donc ni encadrée ni limitée.

Comme l’interdiction ou la restriction d’une substance cosmétique ne peut se faire au niveau national, l’Anses recommande donc de réaliser une évaluation des risques au niveau européen afin de statuer sur la sécurité de l’utilisation de cette substance dans les produits de soins capillaires et, par voie de conséquence, sur la nécessité de telles mesures réglementaires.

De plus, l’Anses préconise qu’une attention particulière soit portée aux substances (présentes dans les produits capillaires et autres produits cosmétiques) pouvant se métaboliser en acide glyoxylique.

En mars 2025, l’Anses a présenté ses travaux devant le groupe de travail sur les cosmétiques organisé par la Commission européenne réunissant les États membres et les parties prenantes. À la suite de quoi, un appel à données a été lancé par la Commission européenne dans le but de compiler toutes les informations scientifiques disponibles afin d’évaluer la sécurité de cette substance dans les produits cosmétiques. Cet appel à données est ouvert jusqu’au 8 avril 2026.

Se mobiliser pour protéger le public en Europe et dans l’Union européenne

Il est à noter que, depuis octobre 2024, 15 nouveaux cas d’insuffisance rénale aiguë ont été signalés en France. Ces nouveaux cas ont, par ailleurs, montré que l’acide glyoxylique pouvait être présent dans les produits même si ce n’était pas mentionné sur l’étiquette.

En effet, parmi les six produits pour lesquels il n’était pas fait mention de la substance dans la composition, l’analyse de trois d’entre eux a confirmé qu’ils en contenaient. Deux nouveaux cas ont également été publiés dans la littérature scientifique en Tunisie et en Algérie.

Cet exemple démontre par ailleurs l’importance de signaler tout effet indésirable lié à ces produits et aux produits cosmétiques sur le portail de signalement des événements indésirables du ministère en charge de la santé. Ces signalements sont essentiels afin de mieux comprendre les risques et protéger les consommateurs.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

23.02.2026 à 17:18

Municipales 2026 : comprendre la gratuité des transports en graphiques

Félicien Boiron, Doctorant en science politique (LAET-ENTPE), ENTPE; Université Lumière Lyon 2
Décryptage des impacts de la gratuité totale des transports en commun de Dunkerque à Aubagne, en passant par Morlaix ou par le syndicat de transport de l’Artois. Décryptage en graphiques.
Texte intégral (2157 mots)
À Montpellier (Hérault), la gratuité des transports en commun est présentée par les élus comme un instrument pour améliorer le pouvoir d’achat des classes moyennes et populaires. Rvillalon/Shutterstock

Dunkerque, Montpellier, Calais, Nantes… toutes ces villes ont mis en place la gratuité totale des transports en commun. Promue par certains candidats, conspuée par d’autres, cette mesure devient un élément central des campagnes électorales municipales de 2026. Mais qu’en disent les experts ? Quels sont ses effets bénéfiques et pernicieux ? Décryptage en graphique et en données.


La gratuité des transports en commun, rarement débattue aux élections municipales de 2014 et encore relativement discrète en 2020, se trouve désormais au cœur des campagnes municipales de 2026. Mobiliser une forme de gratuité semble être devenu un passage obligé des débats locaux.

À Lyon (Rhône), après avoir mis en place la gratuité pour les moins de 10 ans, le président de la Métropole Bruno Bernard (Les Écologistes) fait campagne en mobilisant la gratuité des enfants abonnés TCL. De son côté Jean-Michel Aulas (LR, Ensemble) propose une gratuité pour les personnes gagnant moins de 2 500 euros.

Des débats similaires s’ouvrent dans des villes de tailles et de contexte variés comme Angers (Maine-et-Loire), Dijon (Côte-d’Or), Marseille (Bouches-du-Rhône), Paris.

Gratuité totale des transports

Alors même que les transports en commun relèvent le plus souvent de la compétence des intercommunalités, les décisions de gratuité sont prises par une large diversité de collectivités locales, parfois au titre d’autres compétences.

La gratuité est longtemps restée cantonnée à des territoires de petites tailles, avec des transports en commun peu utilisés et de faibles recettes de billetique. À présent, elle s’invite dans des territoires pluriels. Si elle reste principalement mise en œuvre à l’échelle territoriale des villes, elle se développe au sein de communautés urbaines, comme Poher Communauté en Bretagne, ou par les syndicats de transport comme dans le Douaisis, dans le nord de la France.

Après les records de mise en place de cette mesure dans les villes d’Aubagne (100 000 habitants, Bouches-du-Rhône) en 2009, puis de Dunkerque (200 000 habitants, Nord) en 2018, Montpellier (Hérault) a fait franchir un nouveau seuil à la gratuité à partir de 2021 en instaurant la mesure pour ses habitants sur un réseau comprenant plusieurs lignes de trams. Pour sa part, depuis janvier 2026, le syndicat de transports de l’Artois, dans le Nord, est devenu le plus grand territoire français aux transports totalement gratuits avec 650 000 habitants pouvant bénéficier d’une telle mesure.

Si certains partis ont fait de la gratuité des transports un élément fréquent dans leur programme comme le Parti communiste français (PCF), ou plus récemment La France insoumise (LFI), la gratuité n’est pas réservée aux politiques de gauche. Elle est mise en œuvre aussi bien par la droite, comme à Calais (Pas-de-Calais) ou à Châteauroux (Indre), que par la gauche, comme à Morlaix (Finistère) ou Libourne (Gironde). La mesure résiste aux alternances politiques, en étant rarement remise en question.

Report modal de la marche vers les transports en commun

Depuis plusieurs années, les rapports et positions sur la gratuité des transports en commun font légion. Alors que, jusque dans les années 2010, la mesure était peu étudiée, essentiellement par les services du ministère de l’environnement, de nombreuses évaluations se sont développées. Des études ont été commandées par la Ville de Paris, par l’Île-de-France Mobilités ou encore par le syndicat de transports lyonnais (Sytral).

Dans ces études, la gratuité des transports en commun est largement évaluée selon ses effets sur la répartition modale, comprise comme le pourcentage d’utilisation des différents modes de transports. La gratuité est jugée bonne si elle permet un bon report modal, c’est-à-dire d’un mode polluant vers un mode moins polluant – de la voiture au vélo, par exemple. Les rapports concluent que la gratuité est inefficace, puisqu’elle engendrerait un report modal, essentiellement depuis la marche et le vélo vers les transports en commun. Même la Cour des comptes a récemment pointé cette inefficacité à produire un bon report modal.


À lire aussi : Gratuité des transports : comprendre un débat aux multiples enjeux


Ce constat d’inefficacité est alors largement relayé au-delà de la sphère experte, notamment par des acteurs institutionnels et des groupes d’intérêts du transport, qui s’appuient sur ces évaluations pour structurer leur opposition à la gratuité. Les groupes d’intérêts du transport, comme le GART, qui regroupe les collectivités, ou l’UTPF, qui regroupe les entreprises de transport, s’appuient sur ces constats pour s’opposer à la mesure. Les groupes d’intérêts du transport mobilisent ces expertises pour s’opposer assez unanimement à la gratuité. La FNAUT qui représente les usagers et usagères des transports défend que « la gratuité totale, isolée de toute autre mesure, ne favorise pas un report modal ».

Politique publique de mobilité

Si la gratuité des transports est fréquemment étudiée comme une politique publique de mobilité, les élus qui la mobilisent le font au nom d’une grande variété d’objectifs. Nombreux sont les motifs évoqués pour défendre la gratuité, tels que réduction de la pollution de l’air, attractivité territoriale et des commerces, protection du pouvoir d’achat, etc.

À Aubagne, c’est la recherche de liberté et d’accessibilité sociale accrue aux transports qui sont mises en avant. À Dunkerque, on y voit un instrument d’aménagement urbain pour redynamiser le centre-ville. À Montpellier, la mesure est présentée comme un instrument de gouvernance territoriale, pour améliorer le pouvoir d’achat des classes moyennes et populaires. À Calais, on souhaite répondre au mouvement des gilets jaunes et au coût des déplacements. À Nantes (Loire-Atlantique), la gratuité le week-end est associée à des objectifs sociaux et de réduction de l’autosolisme.

Une grande partie des effets prétendus à la gratuité des transports échappe à l’évaluation. Les effets sociaux de la mesure, notamment sur l’isolement de certaines populations, sur la facilité d’accès au transport, ont été encore peu étudiés. Même lorsque l’Observatoire des villes du transport gratuit s’intéresse aux conséquences sur les automobilistes ou sur les jeunes, ce sont essentiellement leurs chiffres sur le report modal qui sont repris dans les débats.

Financer les transports

En France, les transports en commun sont financés par trois sources principales :

  • le versement mobilité, impôt sur la masse salariale, payée par les entreprises, administrations et associations ;

  • les recettes tarifaires, payées par les usagers et usagères ;

  • les subventions des collectivités locales.

Les proportions de ces trois sources varient en fonction des territoires, mais le versement mobilité est souvent la source principale du financement. Les territoires denses et au réseau de transport bien structuré présentent en général des recettes tarifaires plus élevées. Aussi, si la gratuité totale des transports en commun supprime des coûts liés à la billetique (distributeurs automatiques de titres, valideurs, logiciels, application, contrôleurs, etc.), dans les grands réseaux, ces coûts sont généralement plus faibles que ce que rapportent les recettes commerciales.

Une politique totem

Si l’opposition à la gratuité totale des transports en commun est si forte, c’est que, pour beaucoup, la mesure dévaloriserait le transport. « Aucun service n’est réellement gratuit », « la gratuité n’existe pas » sont autant d’expressions révélant une valorisation d’un service par son prix.

Parler de gratuité des transports en commun est révélateur du caractère anormal de la mesure. Parlons-nous ainsi de « gratuité de la police » ? Dans un secteur plus proche, nous ne parlons pas non plus de gratuité des routes, alors que celles-ci sont très largement gratuites et que leur coût est largement supporté par les contribuables plutôt que les usagers et usagères. Comme pour les transports en commun, beaucoup d’économistes défendent pourtant une tarification de la route.

La gratuité des transports est une politique totem. Souvent intégrée à des projets de mobilités, l’intégralité des effets de la mesure demeure encore largement inconnue, tant les sens associés à la mesure sont divers. Les débats sur la gratuité des transports interrogent ainsi la légitimité d’un financement collectif renforcé des mobilités, mais aussi les cadres d’expertise à partir desquels les politiques publiques sont évaluées et jugées.

The Conversation

La thèse de Félicien Boiron est financée par le ministère de la Transition écologique.

23.02.2026 à 17:17

Abstention, vote extrême : ce que la précarité fait à la politique

Nonna Mayer, Directrice de recherche au CNRS/Centre d'études européennes, Sciences Po
La précarité progresse fortement en France. Quels sont ses effets sur l’abstention et sur les choix de vote ? Enquête.
Texte intégral (1642 mots)

La précarité progresse en France et touche désormais bien au-delà des plus pauvres. Plusieurs enquêtes électorales permettent d’étudier ses effets sur l’abstention, le rapport à la politique et les choix de vote. L’exclusion sociale contribue, de façon marquée, à l’éloignement des urnes et de la politique partisane. Analyse.


En France, la pauvreté atteint son niveau le plus élevé depuis 1996 : 15,4 % de la population vit sous le seuil de pauvreté monétaire, près de 13 % est en situation de privation matérielle et sociale, incapable de faire face à des dépenses courantes, comme chauffer son logement ou acheter des vêtements. Et l’emploi ne protège pas toujours de la pauvreté, puisqu’on compte un million de travailleurs sous le seuil de pauvreté, tout particulièrement chez les femmes et les jeunes. Plus largement, depuis les années 1970, on assiste au retour de la précarité ou de « l’insécurité sociale », au sens où la définissait le sociologue Robert Castel :

« Le fait d’être à la merci du moindre aléa de l’existence, par exemple une maladie, un accident, une interruption de travail qui rompent le cours de la vie ordinaire et risquent de vous faire basculer dans l’assistance, voire dans la déchéance sociale. »

Ce phénomène gagne du terrain et fragilise la démocratie.

De l’exclusion sociale à l’exclusion politique

Pour le mesurer, on dispose d’un instrument mis au point dans les années 1990 afin de détecter les personnes socialement vulnérables, le score Epices (pour Évaluation de la précarité et des inégalités de santé dans les centres d’examens de santé). Outre la pauvreté et les privations matérielles, l’indicateur repère l’isolement social et culturel des individus, à partir de 11 questions simples auxquelles les enquêtés doivent répondre par « oui » ou par « non ».

Les réponses permettent de les classer sur un gradient de précarité croissante allant de 0 à 100. Par convention, une personne est considérée comme précaire lorsque son score Epices est égal ou supérieur à 30.

En 2022, au lendemain du scrutin présidentiel, c’est le cas de 29 % d’un échantillon représentatif de la population inscrite sur les listes électorales, soit un chiffre nettement plus élevé que celui du chômage (7,7 %) ou de la pauvreté monétaire (14,4 %).

Cette précarité est en train de se diffuser, touchant même les tranches de revenus intermédiaires (22 %) et les diplômés du supérieur (14 %). Et elle a des conséquences politiques majeures.

Sur la base de cette même enquête, la conclusion est sans appel : l’exclusion sociale va de pair avec l’exclusion politique. En 2022, la propension à se désintéresser de la politique, à ne se sentir proche d’aucun parti et à bouder les urnes est deux fois plus fréquente chez les 20 % de la population les plus précaires (quintile 5) que chez les 20 % les moins exposés à la précarité (quintile 1).

Pareillement, la proportion d’abstentionnistes aux deux tours est trois fois plus importante dans le premier groupe, celui des plus précaires.

Et cet effet politique de la précarité se maintient, quels que soient le genre, l’âge, le niveau de diplôme et de revenu, la taille de la commune de résidence, la pratique religieuse ou l’origine des sondés.

L’insécurité sociale favorise avant tout le retrait du politique. S’inscrire ou aller voter passent au second plan quand la préoccupation première est de survivre. Du coup, la voix des plus précaires est inaudible. Un rapport de l’Association américaine de science politique (APSA) sur les conséquences politiques des inégalités sociales aux États-Unis le disait joliment, les riches ont l’oreille des dirigeants, parce qu’ils « rugissent », leur voix porte, tandis que les pauvres eux « chuchotent quand ils ne se taisent pas. On ne les entend que par intermittence, par exemple lors de la mobilisation des gilets jaunes que les ouvriers et les employés précarisés ont été les plus nombreux à soutenir, avec le sentiment de retrouver leur dignité dans cette colère.

Comment l’exclusion sociale influence les choix électoraux

L’effet de l’insécurité sociale sur les choix électoraux est plus complexe. Les précaires forment un groupe qui n’est ni socialement ni politiquement homogène, et leurs choix évoluent dans le temps.

Lors de la présidentielle de 2012, nous avions mené une enquête sur les effets de la précarité, mesurée par le même score Epices. Elle montre l’absence de relation statistiquement significative entre le vote pour Marine Le Pen au 1er tour et le degré de précarité sociale. Malgré sa popularité chez les plus démunis, c’est la gauche qui a leur faveur. Au 1er tour, les voix recueillies par les candidats et candidates écologistes, de gauche et d’extrême gauche passent de 43 % chez les moins précaires à 51 % chez les plus précaires. Au second tour, les scores de François Hollande passent de 49 % chez les moins précaires à 63 % chez les plus précaires.

Les entretiens menés parallèlement à l’enquête par sondage de 2012 auprès de personnes en situation de grande précarité dans les agglomérations de Paris, Grenoble (Isère) et Bordeaux (Gironde) montrent qu’entre Nicolas Sarkozy « le président des riches » et le candidat socialiste il n’y avait pas d’hésitation possible, pour elles la gauche c’était «&nbsple socialnbsp;», la gauche c’était «&nbsple cœur ».

Cinq ans après, la gauche a déçu l’électorat précaire, qui se tourne vers Marine Le Pen. À l’élection présidentielle de 2017, au 1er tour son score passe de 11 % chez les moins précaires à 36 % chez les plus précaires. Au second tour, c’est 19 % chez les moins précaires contre 53 % chez les plus précaires.

Il en va de même lors de l’élection présidentielle de 2022 : le score de Marine Le Pen au premier tour est trois fois plus élevé chez les personnes les plus précaires comparées aux moins précaires. Au second tour, il est trois fois et demi plus élevé.

Mais dans le contexte particulier des législatives anticipées de 2024, on observe chez les plus précaires un retour en grâce de la gauche, les chances qu’ils votent pour le Nouveau Front populaire égalant alors celles de voter pour le RN.

Contrairement aux idées reçues, le vote des précaires pour l’extrême droite n’est donc pas inéluctable. Il y a plutôt, en fonction du contexte politique, un vote de rejet du pouvoir en place, contre Nicolas Sarkozy hier, contre François Hollande en 2017, contre Emmanuel Macron depuis 2022.

Demain, il peut se traduire par un vote aussi bien pour Marine Le Pen que pour la gauche, comme ce fut le cas aux législatives de 2024, quand la gauche unie retrouvait grâce aux yeux de ces oubliés de la démocratie, en promettant d’en finir avec la brutalité des années Macron.

The Conversation

Nonna Mayer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.02.2026 à 17:17

Moins de déchets mais un tri encore imparfait : plongée dans les poubelles des Français

Romuald Caumont, Chef du service Coordination, évaluation et valorisation à la direction économie circulaire l’Ademe, Ademe (Agence de la transition écologique)
L’Ademe s’est plongée dans le contenu de nos poubelles. Elle révèle l’impact positif des politiques publiques des dernières décennies, mais aussi une importante marge de progression.
Texte intégral (1612 mots)

Que contiennent vraiment nos poubelles et comment leur composition a-t-elle évolué au cours des dernières années ? Une vaste étude de l’Ademe révèle les progrès du tri en France : la poubelle grise s’allège et les nouvelles filières de collecte s’inscrivent peu à peu dans les habitudes. Pourtant, un peu moins de 70 % du contenu de nos poubelles grises ne devrait pas s’y trouver : des axes de progression restent donc à développer.


Nos déchets constituent, sans doute, l’objet le plus tangible qui nous lie aux enjeux écologiques. Nous utilisons une poubelle plusieurs fois par jour et c’est, pour beaucoup d’entre nous, le premier sujet par lequel nous avons été sensibilisés à l’environnement. Au cours des dernières décennies, le tri et ses évolutions se sont peu à peu inscrits dans nos habitudes, même s’il reste une marge de progression pour qu’il soit parfaitement mis en œuvre.

Afin de comprendre comment la composition des déchets a évolué dans le temps, l’Agence de la transition écologique (Ademe) a fait l’exercice de se plonger dans le contenu de nos poubelles. L’enjeu était de connaître leur composition détaillée dans un certain nombre de communes, selon des protocoles et des plans d’échantillonnage bien précis afin de s’assurer que ces chiffres soient représentatifs. Ces résultats, publiés fin 2025, ont porté sur les chiffres de 2024.

De telles études avaient déjà été menées par le passé : en 1993, en 2007 puis en 2017. L’objectif, désormais, est d’annualiser cette enquête afin de mieux évaluer l’efficacité des politiques publiques de gestion des déchets. Une démarche qui permet d’identifier les gisements de déchets d’emballages plastiques, autrement dit les potentiels de valorisation à développer. En se penchant sur chaque type de déchets, ce premier travail livre déjà un certain nombre d’enseignements.

La poubelle grise au régime : 44 % moins lourde qu’il y a trente ans

Débutons par la fameuse poubelle grise vouée aux ordures ménagères résiduelles. Entre 1993 et 2024, son poids moyen a diminué de 44 %, passant de 396 kg à 223 kg par habitant. Un résultat encourageant, qui s’explique en partie par l’accroissement au cours de cette période de la mise en place du tri, qui n’était pas généralisé il y a trente ans.

Depuis 2017 en particulier, des progrès notables ont eu lieu : 30 kg en moins, là aussi, sans doute, grâce à l’amélioration du tri à la source et la mise en place de la collecte des biodéchets, qui ont chuté de 10 % sur cette période dans les poubelles grises.

Ademe

Ce bilan appelle toutefois quelques nuances. Certes, le poids de nos poubelles grises diminue, mais, aujourd’hui encore, 69 % des déchets présents dans les poubelles grises ne devraient pas s’y trouver. Une proportion qui n’évolue pas. Leur composition se répartit comme suit :

  • un tiers correspond à des biodéchets ;

  • près d’un autre tiers, à des emballages et des papiers destinés à la poubelle jaune ;

  • 5 %, à du verre ;

  • et 6 %, à des déchets qui devraient faire l’objet d’autres collectes, en particulier textiles et électroniques.

Par ailleurs, si la part des biodéchets et certains emballages et papiers recyclables ont diminué (respectivement, de 10 et 17 % en moins), la quantité de textiles sanitaires (couches, lingettes, essuie-tout, etc.), en revanche, connaît une forte hausse.


À lire aussi : L’histoire peu connue du compost en France : de la chasse à l’engrais à la chasse au déchet


Dans les poubelles jaunes : moins de papiers mais plus d’erreurs

Du côté des déchets de la poubelle jaune, vouée aux emballages et au papier, la tendance est inverse. Leur poids, qui s’élève aujourd’hui à 52,8 kg par an et par habitant, a légèrement augmenté. Ils représentaient 49,4 kg en 2017, contre 45,8 en 2007. Cette hausse de 15 % en plus de quinze ans est logique, le tri étant depuis entré dans les mœurs et ses consignes ayant été élargies. Ce chiffre est une bonne nouvelle : les Français trient davantage.

Toutefois, on observe en même temps une augmentation des erreurs de tri, avec une part de déchets non conformes en progression depuis 2017. Ainsi, en 2024, ces erreurs concernent 19 % des déchets qui se retrouvent dans les bacs jaunes, contre 12,4 % en 2017. Dans la grande majorité, elles concernent des déchets résiduels qui devraient être dans la poubelle grise.

On y observe par ailleurs une forte diminution des papiers entre 2017 et 2024, probablement liée à la numérisation des usages, et au contraire une hausse des cartons – sans doute causée par la progression des livraisons du fait du commerce en ligne – et des emballages plastiques. Cela se rattache à l’extension des consignes de tri en 2023 à l’ensemble des emballages plastiques, qui semble produire des effets.

Une appropriation progressive du tri des biodéchets

Depuis la généralisation du tri à la source des biodéchets au 1er janvier 2024, les collectivités territoriales se sont massivement mobilisées. Aujourd’hui, la quasi-totalité d’entre elles propose une solution de proximité (compostage individuel ou partagé) tandis qu’environ 30 % ont également déployé un service de collecte spécifique.

En moyenne, 13 % des déchets déposés dans les bacs de biodéchets sont des erreurs de tri. Le contenu de ces bacs se compose majoritairement de biodéchets alimentaires (69 %), dont 12,5 % relèvent encore du gaspillage alimentaire, et de déchets verts (5,5 %).

Le bilan est donc plutôt positif. Des disparités territoriales subsistent toutefois, notamment entre les collectivités ayant installé une collecte séparée et celles qui privilégient uniquement des solutions de compostage de proximité. Les études annuelles permettront de voir à quelle vitesse la pratique se généralise, à la fois par la mise en place de solutions par les communes et l’appropriation par les citoyens.

Un dernier aspect pointé par l’étude concerne les déchetteries, où la composition des bennes de tout-venant présente une grande diversité, avec 75 % de déchets qui devraient être traités en amont par une filière responsabilité élargie du producteur, dite filière REP, particulière – notamment pour les produits de matériaux de construction du bâtiment, qui occupent un quart des bennes. Cela témoigne d’une forte marge de manœuvre existante sur la structuration des filières REP, et sans doute d’une amélioration de l’information vis-à-vis des usagers.

De manière générale, l’étude menée ici se concentre sur une caractérisation des déchets ménagers et apporte des résultats encourageants sur l’impact des politiques publiques. Elle mériterait toutefois d’être complétée par une approche comportementale auprès des ménages afin de mieux comprendre les freins et les obstacles qui expliquent, notamment, que 69 % du contenu des poubelles grises n’y ait pas sa place.

The Conversation

Romuald Caumont ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.02.2026 à 17:16

Pour les enfants, le pouvoir a-t-il un genre ?

Jean-Baptiste Van der Henst, Docteur - Sciences Cognitives, Centre national de la recherche scientifique (CNRS)
Alexandre Foncelle, Ingénieur en analyse de données, Inserm
Anna Eve Helmlinger, Chercheuse post doctorante en psychologie du développement, Université Lumière Lyon 2
Cristina-Ioana Galusca, Postdoc en Psychologie du développement, Université Grenoble Alpes (UGA)
Elodie Barat, Maître de conférences, Institut catholique de Paris (ICP)
Hélène Maire, maîtresse de conférences en psychologie, Université de Lorraine
Rawan Charafeddine, Docteure en psychologie, directrice de mémoires à l'école des psychologues praticiens, Institut catholique de Paris (ICP)
Influencés par leur environnement, les enfants associent souvent pouvoir et masculinité. Mais la propension à valoriser son groupe de genre peut contrecarrer cette tendance.
Texte intégral (1988 mots)

Grandissant dans un environnement imprégné par la mise en scène du pouvoir masculin, les enfants sont très tôt sensibles aux stéréotypes de genre. Comment cela influence-t-il leurs attitudes ? Considèrent-ils alors le pouvoir féminin comme moins légitime ? Ou se positionnent-ils contre les clichés ? La recherche fait avancer notre connaissance de ces représentations enfantines.


Exercer le pouvoir ? « Les garçons, ça leur va bien ! » Voilà ce que nous a répondu Léo, 5 ans, lors d’un entretien, et ces propos interrogent. Se pourrait-il que les enfants intériorisent si jeunes l’idée que le pouvoir est une affaire masculine et que les filles, dans leurs interactions avec les garçons, doivent se rallier à leurs décisions ?

Depuis longtemps, les travaux en psychologie ont montré que des stéréotypes, conformes aux normes sociales genrées, émergent à un âge précoce. Les enfants associent à chaque genre des normes d’apparence, des types de jeux, mais aussi des compétences et des comportements distincts.

Par exemple, la littérature scientifique met en évidence une opposition entre les comportements agentiques, comme l’affirmation de soi, la compétition ou l’agressivité, davantage associés aux garçons, et les comportements communaux, renvoyant au « care » et à l’attention à autrui, plus souvent associés aux filles. Cette approche, centrée sur l’attribution de caractéristiques individuelles, a toutefois négligé la manière dont les enfants conçoivent les interactions sociales genrées.

C’est dans cette perspective que s’inscrivent nos travaux. Dans le cadre du projet CHILD-GAP, soutenu par l’Agence nationale de la recherche (ANR), nous examinons ces représentations des dynamiques de pouvoir – par exemple, lorsqu’un individu impose ses choix à un autre.

Associer pouvoir et masculinité ? Ce qu’en pensent les enfants

Lors d’une recherche antérieure menée en France, au Liban et en Norvège, nous avons présenté à des enfants de 3 à 6 ans une situation montrant deux personnages en interaction, l’un dominant et l’autre subordonné.

Nous leur avons ensuite demandé de deviner quel était le genre de chacun (du pouvoir au genre, voir Figure A). À partir de 4 ans, dans les trois pays, les filles comme les garçons voyaient en majorité un personnage masculin exerçant le pouvoir sur un personnage féminin.

Pour autant, les filles ne se rangent pas toujours derrière cette vision genrée du pouvoir. Car lorsque notre expérimentation a adopté une logique inverse, consistant non plus à deviner le genre des personnages à partir d’une situation de pouvoir (du pouvoir au genre, Figure A), mais à deviner qui exerçait le pouvoir dans un scénario opposant un duo mixte de marionnettes (du genre au pouvoir, Figure B), les réponses différaient selon le genre des participants.

Fourni par l'auteur

Les garçons (73 %) associaient encore le pouvoir au masculin, mais cette tendance avait disparu chez les filles (44 %). Il est probable que des mécanismes de valorisation de son propre genre soient ici à l’œuvre : chez les garçons, ils renforceraient l’association entre pouvoir et masculinité ; chez les filles, ils tendraient à la contrecarrer, sans pour autant l’inverser.

Des stéréotypes de genre à la prescription de comportements

Lorsque l’on demande aux enfants de raisonner sur les groupes sociaux, ils ont tendance à transformer les régularités qu’ils observent (c’est-à-dire le monde tel qu’il est) en règles (soit le monde tel qu’il doit être). Par exemple, dans une recherche menée aux États-Unis, des enfants ont observé deux groupes de personnages consommant chacun un aliment spécifique. Mais lorsque l’un des personnages s’est mis à adopter l’habitude alimentaire de l’autre groupe, les enfants ont désapprouvé son comportement.

C’est ce glissement qui rend les stéréotypes de genre problématiques : ils peuvent se transformer en prescriptions implicites façonnant le regard sur autrui, ou sur soi-même. De tels biais existent chez l’adulte. Des travaux sur l’« effet backlash » montrent que les femmes sont davantage critiquées, et pénalisées sur le plan économique, que les hommes lorsqu’elles affichent du pouvoir.

L’association entre pouvoir et masculinité se traduirait-elle aussi par des attitudes prescriptives chez l’enfant ? Pour répondre à cette question, nous avons présenté à 653 participants de 3 à 8 ans des saynètes dans lesquelles un personnage imposait ses choix de jeux à un autre. Certaines de ces interactions étaient non mixtes (fille > fille ou garçon > garçon), et d’autres étaient mixtes, allant soit dans le sens du stéréotype (garçon > fille), soit dans le sens inverse (fille > garçon).

Pour saisir les attitudes des enfants, nous leur avons demandé de répartir trois autocollants entre les deux personnages. Ils pouvaient ainsi choisir d’avantager le personnage dominant, reconnaissant la légitimité de sa position, ou de favoriser le subordonné pour compenser l’inégalité initiale. Restait alors à savoir si un biais en faveur du dominant masculin allait émerger.

Les résultats n’ont pas confirmé cette hypothèse. Au niveau global, les enfants interrogés n’ont pas plus avantagé le pouvoir quand il était exercé par un garçon plutôt que par une fille. Ces résultats pourraient plaider pour l’hypothèse d’une émergence plus tardive d’une telle tendance.

Valoriser son groupe de genre

Au-delà de l’absence de favoritisme envers le pouvoir masculin, nous avons pu observer deux résultats. Le premier fut une influence de l’âge, déjà mise en évidence dans d’autres études : les plus jeunes (3-4 ans) ont privilégié le personnage dominant, tandis que les enfants de 7-8 ans ont favorisé le personnage subordonné. En grandissant, les enfants tendent donc à juger négativement les asymétries de pouvoir, du moins dans des contextes de jeu comme celui étudié ici.


À lire aussi : Les jeux d’enfants ont-ils un genre ?


La seconde observation fut que les enfants ont donné plus d’autocollants au personnage de leur genre. Cela s’est avéré particulièrement marqué chez les filles, qui ont privilégié le personnage féminin plus fortement que ne l’ont fait les garçons avec le personnage masculin.

Dans le cas particulier des relations de pouvoir, la valorisation de son groupe de genre pourrait ainsi agir comme un contrepoids aux stéréotypes. Nous avons d’ailleurs pu observer ce favoritisme dans d’autres situations. Dans une étude qui examinait les tendances affiliatives, nous avons montré à des enfants de 3 à 6 ans des conflits de ressource entre une femme et un homme, puis nous leur avons demandé avec qui ils préféreraient jouer. Leurs choix se sont portés sur le personnage victorieux, mais uniquement lorsqu’il était du même genre qu’eux.


À lire aussi : Insultes entre élèves : lutter contre le sexisme dès l’école primaire


Dans une autre étude, nous avons cette fois utilisé un test d’association implicite pour déceler les attitudes automatiques que les enfants peuvent avoir face au pouvoir genré. Il s’agissait ici d’établir si l’association « pouvoir masculin = positif » était plus automatique que « pouvoir féminin = positif ». Une fois encore, c’est un effet en faveur de son propre genre qui fut observé : les filles associaient plus rapidement un stimulus positif (un smiley) à une image montrant une femme en train de diriger un homme, alors que les garçons faisaient plus rapidement l’association inverse.

Pour conclure, citons Mia, âgée de 7 ans, qui, dans l’une de nos études en cours, a choisi de s’attribuer une position dominante face à un personnage masculin : « Ça fait du bien ! C’est toujours les garçons qui commandent. » Alors que la lucidité de Mia quant à l’existence d’une hiérarchie genrée ne fait ici aucun doute, cela ne l’amène pourtant pas à s’y soumettre. À la lumière de nos résultats, il apparaît que l’identification à son groupe de genre ainsi qu’une préférence croissante pour l’égalité alimentent cette résistance.

The Conversation

Jean-Baptiste Van der Henst a reçu des financements de l'ANR, du CNRS, de l'INSERM, de la Fondation de France, de la région Rhône Alpes, et de l'Université de Lyon 1.

Alexandre Foncelle a reçu des financements de l'Agence Nationale de la Recherche.

Anna Eve Helmlinger a reçu des financements de l'Agence Nationale de la Recherche.

Cristina-Ioana Galusca a reçu des financements de l'Agence Nationale de la Recherche, de Carnot Cognition, de Cercog (Université Grenoble Alpes) et de Diverse Intelligences Summer Institute (Templeton Foundation).

Elodie Barat a reçu des financements de l'Agence nationale de la recherche (ANR) .

Hélène Maire a reçu des financements de l'Agence nationale de la recherche.

Rawan Charafeddine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.02.2026 à 17:15

Ce qu’un plat de la Renaissance révèle sur la bibliothèque d’Isabelle d’Este

Maria Clotilde Camboni, Honorary Research Fellow, Faculty of Medieval and Modern Languages, University of Oxford
Comment un plat en céramique de la Renaissance richement décoré a permis de reconstituer l’histoire d’un manuscrit et de la bibliothèque d’Isabelle d’Este.
Texte intégral (1975 mots)
Le plat en céramique fabriqué pour Isabelle d’Este-Gonzaga en 1524. Victoria-and-Albert Museum, CC BY-NC-ND

On a coutume de dire « servi sur un plateau d’argent ». Mais c’est grâce au décor peint d’un plat en céramique qu’a été résolue une petite énigme historique, en découvrant que la « première dame de la Renaissance », Isabelle d’Este, était la propriétaire d’un manuscrit aujourd’hui conservé à Paris.


Cette céramique, de style majolique, comporte trois imprese, c’est-à-dire des emblèmes qui étaient utilisés à la Renaissance comme insignes personnels. On voit, sous un blason, une partition musicale ; sur une balustrade au premier plan, on peut lire la devise latine Nec spe nec metu (« Ni par l’espoir ni par la crainte ») et, répété deux fois, un nombre latin, XXVII (27).

J’avais déjà vu ce numéro quelques années auparavant, dans une décoration figurant sur la première page d’un manuscrit à la Bibliothèque nationale de France à Paris, non loin de l’endroit où le plat en majolique était exposé, prêté temporairement par le Victoria-and-Albert Museum à la Fondation Al Thani Collection. Le manuscrit était une copie partielle d’un manuscrit perdu, et j’essayais de déterminer d’où il provenait.

Les armoiries et les différentes « imprese » étaient toutes celles d’Isabelle d’Este (1474-1539), marquise de Mantoue, fille d’Hercule Ier d’Este duc de Ferrare et d’Éléonore d’Aragon, fille du roi de Naples Ferdinand Ier. La réponse m’est soudain apparue comme une évidence : le manuscrit parisien se trouvait à l’origine dans sa bibliothèque personnelle.

Portrait au crayon d’Isabelle d’Este
Portrait d’Isabelle d’Este par Léonard de Vinci (1499). Louvre

Bien qu’elle se soit mariée à seulement 16 ans, Isabelle était une femme extrêmement cultivée. Cela l’a probablement aidée à jouer son rôle dans la gouvernance de Mantoue, en particulier lorsque son mari Francesco Gonzaga (dit François II de Mantoue) partit combattre dans les guerres italiennes, puis fut fait prisonnier. Elle disposait également de ressources financières personnelles considérables et était libre de dépenser son argent comme elle le souhaitait, ce qui lui a permis de devenir la plus importante collectionneuse de la Renaissance italienne.

Mécène des arts, Isabelle a été représentée sur des médailles, des peintures et des dessins par plusieurs artistes, dont Léonard de Vinci. Pour abriter ses antiquités et ses œuvres d’art, elle a aménagé certaines pièces de ses appartements. L’une d’elles était connue sous le nom de studiolo, une pièce consacrée à la lecture et à l’écriture privées. De nombreux artistes de renom ont été chargés de réaliser des peintures pour le décorer, de même que son appartement à Mantoue, où elle s’est installée après la mort de son mari en 1519.

La vaste bibliothèque d’Isabelle y était également conservée. Un inventaire partiel dressé après sa mort révèle qu’elle ressemblait davantage aux bibliothèques des hommes de l’élite de la Renaissance qu’à celles des femmes nobles de son époque. Elle se composait principalement d’ouvrages contemporains et profanes, plutôt que de volumes hérités et de textes religieux, et contenait une proportion inhabituellement élevée de livres manuscrits.

Au cours de sa vie, Isabelle utilisa au moins huit imprese différentes. Il pouvait s’agir de marques de propriété, comme on le voit sur le manuscrit parisien et l’assiette du Victoria-and-Albert Museum, ainsi que sur les 23 autres pièces survivantes de son service de table. Cependant, elles étaient également destinées à transmettre des messages codés.

Une impresa de la Renaissance contenait une sorte de déclaration personnelle concernant la situation, la philosophie, les aspirations et les qualités personnelles de son titulaire. Contrairement aux armoiries, qui étaient héritées, elle n’exprimait rien en rapport avec la lignée familiale ou le statut social, pouvait être utilisée par toute personne qui décidait d’en concevoir une et pouvait être modifiée ou abandonnée à volonté.

Comme sa véritable signification nécessitait une interprétation, une impresa était souvent ambiguë. Les silences (pauses dans la musique) visibles sur la partition musicale représentés sur ce plat peuvent signifier le silence, une vertu associée aux femmes à l’époque. Par leur symétrie, ils peuvent aussi symboliser un principe d’équilibre, à l’instar de la devise latine. Quelle que soit sa signification, c’est celle qu’Isabelle a choisie pour orner les robes qu’elle portait lors d’occasions spéciales, notamment le mariage de son frère Alphonse avec Lucrezia Borgia en 1502.

Peinture représentant des dieux admirés par des hommes
L’une des nombreuses peintures commandées pour le studiolo d’Isabelle, Le Parnasse, d’Andrea Mantegna (1496-1497). Louvre

La marquise n’appréciait pas les explications trop compliquées de ses imprese. En 1506, lorsque l’auteur Mario Equicola écrivit un livret sur sa devise latine, elle déclara dans une lettre à sa mécène, une femme de la noblesse, « nous ne l’avons pas créée avec autant de mystères qu’il lui en a attribués ».

La devise latine d’Isabelle fut, fait inhabituel, réutilisée par d’autres, notamment par l’un de ses fils et par un roi d’Espagne. Ce ne fut pas le cas de l’énigmatique nombre XXVII. Sa présence sur la première page du manuscrit parisien prouve donc qu’il appartenait à Isabelle.

Il existait déjà d’autres indices de cette appartenance. Le manuscrit parisien est une copie partielle de la Raccolta Aragonese, une anthologie de poèmes italiens anciens rares, offerte par l’homme d’État Lorenzo de Médicis à Federico d’Aragona, fils du roi de Naples, vers 1477. Dernier souverain de sa dynastie, Federico s’exila en France avec ses livres.

Après sa mort, la plupart de ses livres sont passés entre les mains de sa veuve, qui s’est installée à Ferrare sous la protection de la famille d’Isabelle. Ses lettres révèlent que, en janvier 1512, elle a réussi à emprunter la collection :

« Le livre des premiers poètes vernaculaires que Votre Majesté a eu la bonté de me prêter, je le conserverai avec tout le respect et la révérence qui lui sont dus, et il ne tombera entre les mains de personne d’autre. Dès que j’aurai fini de le lire, je le renverrai à Votre Majesté, que je remercie pour sa grande humanité à mon égard. »

Isabelle ne mentait pas. Elle voulait ce livre en raison de la rareté de son contenu, et elle aimait être la seule ou presque la seule propriétaire des textes. Nous pouvions déjà émettre l’hypothèse qu’elle en avait commandé une copie, et nous savons maintenant que c’est vrai. Grâce à son initiative, ces poèmes rares ont bénéficié d’une plus large diffusion, mais ni elle ni son correspondant n’auraient pu le prévoir.

The Conversation

Maria Clotilde Camboni ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.02.2026 à 17:14

La transparence fiscale des entreprises commence dans les conseils d’administration

Domenico Campa, Full Professor of Accounting, International University of Monaco
Gianluca Ginesti, Associate professor in Accounting, University of Naples Federico II
La transparence fiscale des grandes entreprises ne s’obtient pas spontanément. Pour y parvenir, il existe certains leviers. Découvrez lesquels.
Texte intégral (1505 mots)

La fiscalité des grandes entreprises semble parfois opaque en dépit des demandes de la société civile, des incitations ou des lois. Quel est le facteur déterminant qui incite une entreprise à être plus ou moins transparente en matière de fiscalité ?


Alors que la fiscalité des grandes entreprises cotées et les exigences de transparence liées aux critères de la responsabilité sociétale des entreprises (RSE) occupent une place croissante dans le débat public en France et en Europe, une question reste largement sous-estimée : qui décide concrètement de ce que ces entreprises révèlent sur leurs impôts ? Derrière les obligations réglementaires, la réponse se trouve souvent au cœur de la gouvernance des entreprises, dans les conseils d’administration.

Ces dernières années, les gouvernements européens ont multiplié les initiatives pour lutter contre l’évitement fiscal et renforcer la transparence. Reporting, pays par pays, obligations de publication extra-financière, nouvelles normes de durabilité : les entreprises doivent désormais expliquer non seulement combien d’impôts elles paient, mais aussi où et comment elles les paient. Cette évolution répond à une attente sociale forte. L’impôt sur les sociétés finance des services publics essentiels, et les révélations successives sur les pratiques fiscales de certaines multinationales ont durablement fragilisé la confiance du public.


À lire aussi : Responsabilité sociale des entreprises : un droit fiscal à contre-courant ?


Pourtant, malgré des règles de plus en plus détaillées, la transparence fiscale reste très inégale. À obligations comparables, certaines entreprises publient des informations précises sur leur stratégie fiscale, leurs risques et leur contribution économique dans chaque pays, tandis que d’autres se limitent au strict minimum légal. Ces écarts ne s’expliquent pas uniquement par la réglementation.

La transparence fiscale, un choix de gouvernance

La transparence fiscale n’est pas seulement une affaire de conformité juridique : c’est aussi un choix de gouvernance. Lorsqu’un sujet est politiquement sensible et potentiellement coûteux en termes de réputation, comme la fiscalité, les décisions ne relèvent pas uniquement des experts techniques. Elles sont arbitrées au plus haut niveau de l’entreprise, celui du conseil d’administration.

Depuis une dizaine d’années, de nombreuses entreprises ont cherché à intégrer la fiscalité dans leur approche de la responsabilité sociétale et environnementale. Dans ce contexte, un outil de gouvernance s’est largement diffusé : la création d’un comité du conseil d’administration consacré à la RSE, parfois appelé comité RSE ou comité durabilité. Chargés de superviser les enjeux sociaux, éthiques et environnementaux, ces comités sont souvent présentés comme la preuve de l’engagement des entreprises envers leurs parties prenantes.

Mais ces comités ont-ils un impact réel sur les pratiques, ou servent-ils surtout à afficher de bonnes intentions ? C’est précisément cette question qu’examine une étude récente.

Inscrire la fiscalité dans une stratégie globale

Notre étude académique, fondée sur une analyse quantitative de données européennes portant sur des grandes entreprises cotées, analyse le lien entre la présence de comités RSE au niveau du conseil d’administration et la qualité des informations fiscales publiées dans les rapports annuels, en utilisant le cadre fourni par PwC comme base de l’indice de divulgation fiscale. Plutôt que de s’appuyer sur des notations RSE globales, l’analyse se concentre sur ce que ces entreprises disent concrètement de leur fiscalité : stratégie fiscale, gestion des risques, impôts payés et contribution économique dans les pays où elles opèrent.

Les résultats sont nets. En moyenne, les entreprises dotées d’un comité RSE sont plus transparentes sur le plan fiscal. Elles expliquent davantage comment la fiscalité s’inscrit dans leur stratégie globale et comment elles contribuent aux finances publiques. Cela suggère que le fait d’attribuer explicitement la responsabilité des enjeux sociaux au niveau du conseil d’administration favorise une approche plus ouverte de la fiscalité. Les résultats de l’étude montrent que les entreprises disposant d’un comité RSE présentent un niveau de transparence fiscale significativement plus élevé que celles qui n’en ont pas.

Une question de composition et de fonctionnement

Tous les comités RSE ne produisent cependant pas les mêmes effets. Leur efficacité dépend fortement de leur composition et de leur fonctionnement. L’un des résultats les plus marquants concerne le rôle du dirigeant exécutif. Lorsque le directeur général siège au comité RSE, le niveau de transparence fiscale est significativement plus faible. Ces entreprises divulguent moins d’informations sur leurs stratégies fiscales et leurs risques.

Ce constat met en lumière une tension centrale de la gouvernance d’entreprise. Les dirigeants exécutifs ont de fortes incitations à maîtriser le risque réputationnel et à limiter l’exposition publique, en particulier sur des sujets politiquement sensibles comme l’impôt. Lorsque le pouvoir exécutif domine la gouvernance RSE, la transparence tend à reculer.

À l’inverse, certaines caractéristiques apparaissent favorables à l’ouverture. Les entreprises dont le comité RSE est présidé par une femme publient en moyenne davantage d’informations fiscales. De même, les comités comprenant une proportion plus élevée de membres disposant d’une formation avancée, comme un MBA ou un doctorat, sont associés à une transparence accrue. La fiscalité est un sujet complexe, et un manque d’expertise ou de confiance technique peut conduire les conseils d’administration à éviter la divulgation plutôt qu’à s’y confronter.

Un frein à l’évitement fiscal

La transparence fiscale ne se limite pas à un exercice de communication. Elle a des effets concrets sur les comportements. Les entreprises les plus transparentes sont aussi celles qui recourent le moins à des stratégies d’optimisation fiscale agressives. Expliquer en détail sa stratégie fiscale rend certaines pratiques plus difficiles à justifier et plus faciles à contester.

Lamy Liaisons Décembre 2024.

Pour les régulateurs, cet enseignement est central. La transparence n’est pas seulement un outil d’information à destination des investisseurs ou du public. Elle peut aussi jouer un rôle disciplinaire, en complément des mécanismes formels de contrôle et de sanction.

Des choix très concrets

Alors que la France et l’Union européenne misent de plus en plus sur des dispositifs fondés sur la transparence, qu’il s’agisse de fiscalité ou de durabilité, ces résultats invitent à élargir le regard. Imposer des obligations de publication est nécessaire mais insuffisant. La manière dont les entreprises organisent la gouvernance de ces sujets sensibles est tout aussi déterminante.

La transparence fiscale ne commence ni dans l’administration fiscale ni dans les annexes d’un rapport annuel. Elle prend forme dans les conseils d’administration, à travers des choix très concrets : qui supervise la fiscalité ? Avec quelle indépendance et avec quelles compétences ? De ces choix dépend la capacité des entreprises à traiter la fiscalité comme une composante à part entière de leur responsabilité sociétale, et à convaincre durablement le public de la crédibilité de leurs engagements.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

23.02.2026 à 17:14

« Nudges », sciences comportementales… Faut-il en finir avec les incitations à mieux gérer nos déchets ?

Service Environnement, The Conversation France
Le risque serait d’invisibiliser les déterminants matériels, sociaux et politiques de la production des déchets.
Texte intégral (699 mots)

Pour réduire la quantité de déchets, les politiques publiques misent de plus en plus sur les sciences comportementales, par exemple les « nudges ». Au risque d’invisibiliser les déterminants matériels, sociaux et politiques de la production des déchets.


Depuis une dizaine d’années, les collectivités territoriales, les agences nationales et une partie du secteur privé se sont engouffrés dans l’application des sciences comportementales à la réduction des déchets. L’idée ? Si les individus trient mal, les jettent au mauvais endroit ou en produisent trop, c’est qu’ils manquent d’information et de motivation. Il suffirait de mener des campagnes bien ciblées pour les rendre plus vertueux.

Ce récit est séduisant, car il permet d’agir vite, à moindre coût et sans remettre en cause les logiques structurelles qui génèrent les déchets. Il est pourtant réducteur, dans la mesure où il méconnaît les rapports sociaux et les inégalités. Il ramène la question politique des déchets à l’échelle individuelle : les habitants sont vus comme des acteurs indisciplinés mais rationnalisables à coup de micro-incitations.

Logique de salubrité contre récupération informelle

Sur le terrain, mes observations ethnographiques montrent que ce sujet est davantage structuré par des dispositifs sociotechniques, économiques, et organisationnels que par les intentions individuelles. Dans de nombreux quartiers, le tri est entravé par des infrastructures inadaptées : par exemple, vide-ordures encore en usage qui empêchent toute séparation des flux à la source, bacs trop éloignés ou difficilement d’accès…

Dans les quartiers populaires, des pratiques de circulation d’objets – don, récupération informelle… – se trouvent également placées sous un régime de suspicions et de sanctions. Les acteurs institutionnels chargés de la gestion des déchets valorisent avant tout une logique de salubrité et se concentrent sur l’entretien visuel de la voie publique. Le déchet y est traité comme un rebut dont il faut se débarrasser au plus vite, et non comme une ressource susceptible d’être valorisée.

Les déchets deviennent alors des marqueurs sociaux. Ils servent à requalifier des groupes, à leur attribuer des comportements naturalisés, à désigner des « responsabilités » qui coïncident souvent avec des groupes ethno-sociaux déjà stigmatisés. Les plus précaires sont ainsi les premiers visés par les dispositifs correctifs.

Un cadrage qui élude des problèmes réels

Dans ce contexte, le recours aux sciences comportementales détourne l’attention des problèmes concrets qui structurent la gestion des déchets au quotidien : infrastructures défaillantes ou mal pensées, conditions de travail éprouvantes (par exemple pour les éboueurs ou les gardiens d’immeubles), conflits entre acteurs (par exemple, entre bailleurs, métropole, prestataires…). Au lieu de rendre ces dysfonctionnements visibles, l’analyse se concentre sur le dernier maillon de la chaîne : l’habitant.

Au-delà de l’argument du coût, les institutions plébiscitent cette approche car elle évite de rouvrir le dossier, plus conflictuel, de la réduction à la source (régulation de la production par exemple) ou de la reconfiguration des infrastructures. Elle s’accorde enfin avec une conception néolibérale de l’action publique où chacun est sommé d’être responsable de son empreinte. Or, si les sciences comportementales peuvent livrer des outils ponctuels, elles ne constituent ni une théorie sociale ni une politique publique durable.


Cet article est la version courte de celui écrit par Camille Dormoy (Le Mans Université/Université Picardie Jules Verne), initialement publié en janvier 2026.

The Conversation

Service Environnement ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.02.2026 à 17:13

L’affaire Epstein et « la révolte des élites »

Frédérique Sandretto, Adjunct assistant professor, Sciences Po
Au-delà des faits concrets révélés, le scandale alimente une défiance profonde déjà ancrée dans de larges pans de l’opinion publique mondiale à l’encontre des élites.
Texte intégral (2103 mots)

Ce qui transparaît à tort ou à raison derrière les révélations liées à l’affaire Epstein, c’est une forme de solidarité interne propre à l’ensemble des « élites mondialisées », et leur conviction d’exister au-dessus de la loi commune. Chaque nouvel élément de preuve renforce le sentiment, auprès de très nombreux citoyens de divers pays, que ces élites se seraient révoltées contre les règles censées s’imposer à tout un chacun, et auraient ainsi trahi le contrat démocratique – ce qui souligne une fois de plus la justesse de l’analyse formulée par Christopher Lasch dans la Révolte des élites et la trahison de la démocratie, un ouvrage paru il y a déjà près de trente ans…


L’affaire Epstein apparaît aujourd’hui comme le révélateur d’une crise profonde de légitimité des élites occidentales. Au-delà de l’horreur des crimes commis et du système de prédation sexuelle mis au jour, ce scandale a surtout exposé l’existence d’un entre-soi où richesse extrême, influence politique et prestige social semblent avoir constitué, sinon une protection absolue, du moins un amortisseur face aux mécanismes ordinaires de la justice.

L’image qui en résulte est celle d’une élite mondialisée évoluant dans des espaces séparés, disposant de ressources juridiques, relationnelles et symboliques inaccessibles au commun des citoyens.

Des personnalités de premier plan citées dans les archives Epstein

La déclassification de nouvelles pièces judiciaires le 30 janvier 2026 a ravivé cette perception. Dans ces documents, largement commentés mais juridiquement hétérogènes – témoignages, dépositions, correspondances, carnets d’adresses –, sont mentionnées de nombreuses personnalités issues du monde politique, économique et culturel. Il convient de rappeler que la simple présence d’un nom dans ces archives ne constitue pas en soi une preuve de culpabilité ni même d’implication criminelle : il s’agit souvent de personnes ayant croisé Epstein dans des contextes mondains ou professionnels. Néanmoins, l’effet symbolique est considérable, car il renforce l’idée d’une proximité structurelle entre les sphères du pouvoir et un individu devenu l’incarnation de la corruption morale.

Parmi les figures dont l’évocation est le plus commentée figurent l’ancien président des États-Unis Bill Clinton, dont les contacts avec Epstein étaient déjà connus et documentés, ainsi que l’ex-prince britannique Andrew, dont les liens avec le pédocriminel ont donné lieu à une procédure civile conclue par un accord financier en 2022, ce qui ne l’a pas empêché d’être brièvement arrêté par la justice de son pays ce 19 février.

Le nom de Donald Trump apparaît également dans certains témoignages historiques relatifs à la sociabilité mondaine new-yorkaise des années 1990 et 2000, sans que ces mentions n’aient débouché sur des poursuites. D’autres personnalités du monde des affaires et de la technologie, telles que Bill Gates, ont été citées pour des rencontres ou échanges passés, déjà reconnus publiquement par les intéressés. La médiatisation de ces noms contribue à construire une cartographie imaginaire du pouvoir global, où se croiseraient dirigeants politiques, magnats financiers et figures de la philanthropie.

L’image d’un « État profond » mondial

C’est dans ce contexte que s’est imposée, dans certains segments de l’opinion, l’idée d’un « deep state », c’est-à-dire d’un État parallèle informel composé de réseaux politiques, administratifs, financiers et sécuritaires capables d’échapper au contrôle démocratique. L’affaire Epstein apparaît dans cette vision des choses comme la preuve de l’existence d’un système de protection mutuelle au sommet, où les élites se préserveraient collectivement des conséquences judiciaires de leurs actions.

Si cette lecture relève souvent d’une extrapolation conspirationniste, elle traduit néanmoins une défiance radicale envers la transparence des institutions. L’absence perçue de responsabilités clairement établies alimente l’hypothèse d’un pouvoir occulte plutôt que celle, plus prosaïque, de dysfonctionnements institutionnels et judiciaires.

L’ouvrage est paru en France chez Flammarion. Couverture de la réédition de 2020.

Ce phénomène illustre la thèse développée par l’historien américain Christopher Lasch en 1995 dans un ouvrage qui a eu un important retentissement, la Révolte des élites : la sécession progressive des classes dirigeantes vis-à-vis du reste de la société. Selon Lasch, les élites contemporaines ne se définissent plus par leur responsabilité envers la nation ou la communauté, mais par leur capacité à circuler dans des réseaux transnationaux fondés sur la richesse, l’éducation et l’influence.

L’affaire Epstein incarne cette mondialisation des élites, dont les liens personnels transcendent les frontières politiques et idéologiques. La fréquentation d’un même individu par des responsables issus de camps opposés alimente l’idée d’une homogénéité sociale au sommet, par-delà les clivages publics.

Un soupçon généralisé à l’égard des dominants

L’impact sur l’opinion est majeur. La publication des documents a renforcé la conviction d’un système à deux vitesses, où les puissants bénéficieraient d’une indulgence structurelle. Même en l’absence de preuves pénales contre la plupart des personnalités citées, la simple association symbolique suffit à nourrir la défiance. Dans un contexte déjà marqué par les inégalités économiques et la crise de la représentation démocratique, l’affaire agit comme un catalyseur du ressentiment populaire. Elle offre un récit simple et puissant : celui d’élites perçues comme moralement corrompues, protégées par leurs réseaux et déconnectées des normes qu’elles imposent au reste de la société.

Dans les discours politiques populistes et sur les réseaux sociaux, l’affaire est ainsi devenue la preuve narrative d’une collusion entre pouvoir économique, appareil d’État et sphères d’influence internationales. Le « deep state » y est décrit comme un mécanisme d’autoprotection des élites, capable d’étouffer des scandales, de ralentir les enquêtes ou de discréditer les accusations. Pourtant, aucune démonstration empirique solide n’est venue confirmer l’existence d’une structure coordonnée de cette nature. Ce décalage entre absence de preuve et persistance de la croyance révèle surtout l’ampleur de la défiance envers les institutions représentatives et judiciaires. Lorsque la confiance disparaît, l’explication conspirationniste devient psychologiquement plus satisfaisante que l’hypothèse de dysfonctionnements bureaucratiques, d’erreurs humaines ou de contraintes procédurales.

L’affaire Epstein illustre ainsi un phénomène plus large : la transformation du soupçon en grille de lecture dominante du pouvoir. Dans un contexte de polarisation politique et de circulation accélérée de l’information, chaque zone d’ombre tend à être interprétée comme la trace d’une intention cachée. Les élites apparaissent alors non seulement comme privilégiées, mais comme fondamentalement étrangères au corps social, évoluant dans un univers de règles implicites distinctes.

En définitive, l’invocation du « deep state » dans le contexte de l’affaire Epstein fonctionne moins comme une description empirique du réel que comme un symptôme politique et culturel. Elle exprime l’angoisse d’un monde perçu comme gouverné par des forces invisibles et irresponsables, ainsi que la conviction que les mécanismes démocratiques ne suffisent plus à garantir l’égalité devant la loi. L’affaire agit donc comme un miroir grossissant des fractures contemporaines : fracture de confiance, fracture sociale et fracture cognitive entre ceux qui adhèrent encore aux explications institutionnelles et ceux qui privilégient une lecture systémique du pouvoir.

Cette perception est amplifiée par la logique médiatique contemporaine, où la circulation fragmentée des informations favorise les interprétations maximalistes. Les documents judiciaires, complexes et souvent ambigus, sont réduits à des listes de noms, transformées en preuves supposées de l’existence d’un système occulte. Ainsi se construit une vision quasi mythologique du pouvoir, où l’idée d’une collusion généralisée remplace l’analyse des responsabilités individuelles et des défaillances institutionnelles concrètes.

Un moment de vérité

L’affaire Epstein révèle en définitive moins une conspiration structurée qu’une crise de confiance radicale envers les élites. Elle met en lumière la fragilité de leur légitimité dans des sociétés où l’exigence d’exemplarité est devenue centrale.

Lorsque ceux qui incarnent la réussite économique, politique ou culturelle apparaissent liés – même indirectement – à des scandales majeurs, c’est l’ensemble du pacte social qui vacille. La perception d’élites immorales protégées par un système opaque devient alors un prisme interprétatif global, susceptible d’alimenter le populisme, la défiance institutionnelle et les théories complotistes.

En ce sens, le scandale Epstein dépasse largement la chronique judiciaire. Il constitue un moment de vérité sur la relation entre pouvoir et responsabilité dans les démocraties contemporaines. La question centrale n’est plus seulement celle des crimes d’un individu, mais celle des conditions sociales et politiques qui ont rendu possible sa longévité au cœur des réseaux d’influence. Tant que cette interrogation demeurera sans réponse pleinement satisfaisante, l’affaire continuera d’alimenter l’idée d’une fracture irréversible entre les élites et le reste de la société.

The Conversation

Frédérique Sandretto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.02.2026 à 17:13

Comment Andrew Mountbatten-Windsor pourrait être retiré de la ligne de succession au trône

Anne Twomey, Professor Emerita in Constitutional Law, University of Sydney
Le retrait du prince Andrew de l’ordre de succession au trône concernerait aussi les autres entités du royaume au sein du Commonwealth, notamment l’Australie.
Texte intégral (2078 mots)

Le 30 octobre 2025, le roi Charles III retirait à son frère cadet Andrew le titre de prince, du fait de la révélation de l’étroite proximité entre ce dernier et le pédocriminel Jeffrey Epstein (Andrew avait notamment accepté de verser une forte somme à Virginia Giuffre, l’une des victimes du trafic sexuel mis en place par Epstein). L’ex-prince s’appelle donc désormais « simplement » Andrew Mountbatten-Windsor, mais reste à ce jour présent dans l’ordre de succession de la couronne britannique. De nouveaux documents relatifs à l’affaire Epstein récemment rendus publics poussent aujourd’hui la monarchie à l’exclure de cet ordre de succession, ce qui aurait aussi un impact direct sur les autres entités du royaume au sein du Commonwealth, à commencer par l’Australie.


La place d’Andrew Mountbatten-Windsor dans la succession au trône britannique semble être menacée.

Mountbatten-Windsor est actuellement huitième dans l’ordre de succession (après le prince William et ses trois enfants, puis le prince Harry et ses deux enfants) à la couronne du Royaume-Uni et de l’ensemble des quinze royaumes du Commonwealth. Il est donc assez improbable qu’il devienne un jour monarque, mais sa répudiation serait avant tout un acte symbolique.

Est-il possible de le retirer de l’ordre de succession ? La réponse est oui – mais cela demanderait du temps, et nécessiterait l’adoption de décisions en ce sens par de nombreux Parlements. Ce questionnement est particulièrement vivace aujourd’hui en Australie, l’un des quinze royaumes du Commonwealth.

Ordre de succession au trône actuel.

La ligne de succession s’applique-t-elle aux couronnes britannique et australienne ?

Quand l’Australie accède à l’indépendance, en 1901, la Couronne britannique est qualifiée d’ une et indivisible ». La reine Victoria exerce des pouvoirs constitutionnels sur toutes ses colonies, s’appuyant sur les conseils de ministres britanniques.

Mais après la Première Guerre mondiale, cette dynamique change, à la suite d’une série de conférences impériales. En 1930, les « dominions » autonomes (Australie, Canada, Nouvelle-Zélande, Afrique du Sud, État libre d’Irlande et Terre-Neuve) obtiennent leurs propres couronnes. Ainsi, le premier ministre australien a désormais le droit de conseiller le monarque sur la nomination du gouverneur général d’Australie et sur d’autres questions fédérales australiennes.

Cependant, les lois de succession à ces diverses couronnes restent les mêmes. Il s’agit d’un mélange hétéroclite de lois anglaises, comprenant des règles générales relatives à l’héritage et des documents tels que la Charte des droits de 1689 et l’Acte d’établissement de 1701.

Ces lois sont devenues partie intégrante du droit australien au XVIIIe siècle mais, longtemps, les Parlements australiens n’avaient eu aucune possibilité de les modifier. L’adoption du Statut de Westminster en 1931 vient toutefois changer les choses. Cette charte donne aux dominions le pouvoir d’abroger ou de modifier les lois britanniques applicables dans leur pays.

Cependant, étant donné que cela pourrait engendrer des complications concernant la succession à la Couronne, un passage est inclus dans le préambule du texte, établissant que « toute modification du droit relatif à la succession au trône » devait recevoir l’assentiment des Parlements de tous les dominions ainsi que du Royaume-Uni. L’article 4 du Statut maintient le pouvoir du Parlement britannique de légiférer pour un dominion, mais uniquement à la demande et avec le consentement de celui-ci.

En 1936, lorsque le roi Édouard VIII abdique, le Parlement britannique adopte une loi modifiant les règles de succession afin d’en exclure tout enfant que le roi pourrait avoir. L’Australie consent à ce que cette loi britannique s’applique également sur son territoire.

Depuis l’adoption de l’article 1 de l’Australia Act de 1986, aucune loi du Parlement britannique ne peut désormais faire partie du droit du Commonwealth, d’un État ou d’un territoire australien. Toute modification de règles sur la succession à la Couronne d’Australie doit donc être effectuée en Australie.

Comment l’Australie pourrait-elle modifier la loi sur la succession ?

Lors de l’adoption de la Constitution du Commonwealth, la Couronne était encore considérée comme « une et indivisible ». Il n’a donc pas été prévu de disposition donnant au Parlement du Commonwealth le pouvoir de légiférer sur la succession à la Couronne. Toutefois, les rédacteurs de la Constitution ont prévu un mécanisme permettant de faire face à ce type d’évolution imprévue.

L’article 51(xxxviii) de la Constitution prévoit que le Parlement du Commonwealth australien peut exercer un pouvoir qui, en 1901, relevait uniquement du Parlement britannique, à condition d’en recevoir la demande ou l’accord de tous les États concernés. Cela signifie que les Parlements du Commonwealth et des États peuvent coopérer pour modifier les règles de succession à la Couronne d’Australie.

La question s’est posée en 2011, lorsque les différents royaumes du Commonwealth (c’est-à-dire les pays qui reconnaissaient toujours la reine Elizabeth II comme chef d’État) sont convenus de modifier les règles de succession afin de supprimer la préférence masculine et l’exclusion des héritiers ayant épousé un (ou une) catholique.

Le Parlement britannique a adopté le Succession to the Crown Act en 2013 pour donner effet à cette réforme. Il en a toutefois différé l’entrée en vigueur jusqu’à ce que les autres royaumes aient adopté des dispositions similaires. La loi britannique ne modifiait la succession que pour la Couronne du Royaume-Uni.

La princesse Charlotte, fille du prince William née en 2015, est troisième dans l’ordre de succession, après son père et son frère aîné George, né en 2013. Jubilé de platine de la reine Élizabeth, 2022, CC BY-NC

Certains royaumes ont estimé devoir modifier leur propre droit interne. D’autres ont considéré que cela n’était pas nécessaire, leur Constitution désignant automatiquement comme souverain la personne qui est roi ou reine du Royaume-Uni. Finalement, des lois ont été adoptées en Australie, à la Barbade, au Canada, en Nouvelle-Zélande, à Saint-Christophe-et-Niévès et à Saint-Vincent-et-les-Grenadines.

En Australie, chacun des États fédérés a adopté une loi intitulée Succession to the Crown Act 2015. Le processus australien a été long, en raison de priorités législatives différentes, de calendriers parlementaires et de périodes électorales dans les États.

L’Australie a été le dernier pays à adopter sa loi. La modification de la succession est ensuite entrée en vigueur simultanément dans tous les royaumes concernés.

Comment le processus fonctionnerait-il aujourd’hui ?

Si l’on envisageait aujourd’hui de retirer Mountbatten-Windsor de l’ordre de succession, le gouvernement britannique chercherait probablement d’abord à obtenir l’accord des autres royaumes du Commonwealth. Même si ce n’est pas juridiquement obligatoire, une consultation est importante pour maintenir un monarque commun.

Le Parlement britannique préparerait ensuite un projet de loi servant de modèle aux autres juridictions, afin d’assurer l’uniformité des règles. Le texte préciserait si l’exclusion de Mountbatten-Windsor concernerait aussi bien ses héritières, les princesses Beatrice et Eugenie, ainsi que leurs enfants. Sous l’ancienne loi, une personne de la famille royale qui épousait un ou une catholique était considérée juridiquement « morte » afin que les droits héréditaires de ses descendants ne soient pas affectés. Une solution comparable pourrait être retenue dans le cas de Mountbatten-Windsor.

Les mêmes Parlements qui avaient adopté les lois lors de la précédente réforme (à l’exception de la Barbade, devenue république) devraient voter une loi équivalente s’ils souhaitent conserver des règles identiques. Toutefois, présenter un tel texte pourrait ouvrir un débat plus large sur le rôle de la monarchie dans ces différents États.

L’Australie pourrait-elle agir seule ?

L’Australie pourrait, en théorie, adopter seule une loi retirant Mountbatten-Windsor de la succession à la Couronne d’Australie. Il est cependant peu probable qu’elle le fasse.

D’abord, cela supposerait un processus législatif complexe, mobilisant sept Parlements pour adopter une mesure qui aurait probablement peu d’effet concret, compte tenu de la place éloignée de Mountbatten-Windsor dans l’ordre de succession.

Ensuite, la clause 2 des dispositions introductives de la Constitution du Commonwealth prévoit que les références à « la Reine » s’étendent à « ses héritiers et successeurs dans la souveraineté du Royaume-Uni ». Mais s’agit-il seulement d’une règle d’usage ou cette disposition produit-elle des effets juridiques substantiels ?

Pour beaucoup, maintenir les mêmes règles de succession en Australie et au Royaume-Uni évite d’ouvrir la boîte de Pandore.

The Conversation

Anne Twomey a reçu des financements de l'Australian Research Council et effectue occasionnellement des missions de conseil pour des gouvernements et des organismes intergouvernementaux.

23.02.2026 à 17:12

Aliments : le changement climatique modifie la biodisponibilité des (micro)nutriments

Emmanuelle Reboul, Directrice de recherche, Inrae; Inserm; Aix-Marseille Université (AMU)
Le changement climatique a des conséquences sur la composition des aliments ainsi que sur la biodisponibilité des nutriments qu’ils contiennent, autrement dit la fraction assimilable par l’organisme.
Texte intégral (2177 mots)

Les transformations profondes dues au changement climatique en cours affectent directement les systèmes de production alimentaire. Outre les problèmes de rendement, la biodisponibilité des nutriments présents dans les aliments est également modifiée, ce qui pourrait avoir des conséquences sur la nutrition humaine.


Parmi les impacts les plus marquants du changement climatique figurent la diminution des rendements agricoles due à des événements climatiques extrêmes tels que les sécheresses, les inondations ou l’exposition à l’ozone troposphérique.

De ce fait, l’accès aux aliments de base (blé, maïs, riz) pourrait devenir plus difficile, particulièrement pour les populations les plus vulnérables d’un point de vue socio-économique.

Favorisée par des températures plus élevées, la prolifération de bactéries et de champignons, qui accroît les risques de maladies d’origine alimentaire, pourrait encore aggraver cette situation.

Mais ce n’est pas tout, car au-delà de ces questions de sécurité alimentaire se pose un autre problème, moins visible : celui de la biodisponibilité des nutriments présents dans les aliments. Ce paramètre, qui désigne la fraction d’un composé alimentaire absorbée par l’organisme et acheminée vers les tissus après digestion, est également perturbé par ces bouleversements.

Pour la première fois, nous avons analysé les liens, à la fois directs et indirects, entre le changement climatique et la biodisponibilité de composés alimentaires clés : protéines, micronutriments liposolubles, minéraux, composés phénoliques et glucosinolates. Voici ce que nous a appris l’analyse de la littérature.

Le changement climatique menace les approvisionnements en protéines

Le changement climatique remet en question les sources traditionnelles de protéines animales (viande rouge notamment, dont il faudrait réduire la consommation pour améliorer la durabilité de notre alimentation, mais aussi certaines sources de protéines végétales (blé, maïs, riz) au profit de sources plus résilientes au changement climatique (millet, sorgho).

Cependant, il faut souligner que la qualité, la digestibilité et la biodisponibilité des protéines végétales peuvent être inférieures à celles des protéines animales. Ceci s’explique notamment par un manque en certains acides aminés essentiels comme la lysine, ou la présence de composés dits « antinutritionnels » tels que les phytates ou les tannins, qui interfèrent avec les enzymes durant la digestion.

En outre, l’augmentation des concentrations de CO₂ pourrait réduire la teneur en protéines des végétaux, jusqu’à 15 % pour le blé, le riz et l’orge, en faveur d’une production accrue de glucides. En revanche, les pics de chaleurs pourraient augmenter la teneur en protéines.

Micronutriments liposolubles : une vulnérabilité accrue

Les micronutriments liposolubles, comme les vitamines A, D, E, K, sont des molécules indispensables pour se maintenir en bonne santé. Or, les sources naturelles de nutriments vont probablement subir dans les années à venir les effets du changement climatique. Ce dernier menace notamment déjà certaines populations de poissons gras riches en vitamine D.

Dans le même temps, la vitamine D présente dans la viande, le lait ou les œufs pourrait être amenée à augmenter selon les régions, car sa teneur dépend de l’exposition des animaux au soleil.

Autre exemple : le changement climatique pourrait induire une baisse drastique des populations de pollinisateurs, ce qui impacterait directement la production de fruits et légumes riches en caroténoïdes provitaminiques A. Actuellement, environ 70 % de la vitamine A des aliments vient de cultures dépendantes de l’action de pollinisateurs.

Bien que l’exposition aux UV stimule la synthèse de caroténoïdes dans certaines plantes, leur teneur diminue sous des taux élevés de CO₂. Sécheresse et chaleur augmentent également les teneurs en phytates et en fibres, qui réduisent la biodisponibilité des micronutriments liposolubles en interférant avec le fonctionnement des enzymes digestives ou en ralentissant la digestion.

Les insectes comestibles pourraient offrir une solution innovante pour recycler ces composés dans la chaîne alimentaire.

Les minéraux : une disponibilité en déclin

Les carences en minéraux essentiels, tels que le fer, le zinc et le calcium, devraient s’aggraver d’ici 2050, avec une réduction estimée de 14 à 20 % de leur disponibilité globale.

Les cultures céréalières, les légumineuses, les poissons et les fruits de mer, sources majeures de minéraux, sont particulièrement vulnérables aux stress climatiques. Sous l’effet d’un CO₂ élevé, les teneurs en fer, zinc, calcium et magnésium diminuent, pouvant atteindre jusqu’à 30 % pour le fer dans les légumes-feuilles.

Cependant, l’association du CO₂ et de températures plus chaudes peut atténuer cette baisse pour certains minéraux, comme le zinc dans le blé. Comme pour les micronutriments liposolubles, la biodisponibilité des minéraux est directement affectée par la présence de phytates et de fibres.

Les composés phénoliques et glucosinolates : des réponses contrastées

Les polyphénols, abondants dans les fruits, légumes, céréales et légumineuses, jouent un rôle clé dans la prévention des maladies chroniques grâce à leurs propriétés antioxydantes et anti-inflammatoires.

Les glucosinolates, présents dans les crucifères comme le brocoli et le chou, sont quant à eux reconnus pour leurs effets anticancéreux.

Les réponses des plantes aux stress climatiques sont variables : sécheresse et chaleur peuvent soit augmenter, soit réduire les teneurs en polyphénols et en glucosinolates, selon les espèces. Leur biodisponibilité dépend également de la présence de composés antinutritionnels et de fibres.

Pour atténuer les impacts délétères du changement climatique sur la biodisponibilité des (micro)nutriments et des bioactifs d’intérêt, plusieurs pistes sont envisagées.

Enrichir et préserver les micronutriments

L’enrichissement des cultures en micronutriments, par le biais de la biofortification constitue une stratégie clé pour lutter contre les carences nutritionnelles.

Par ailleurs, l’optimisation des procédés de transformation alimentaire (haute pressionLe traitement à haute pression est une technique non thermique de conservation des aliments qui tue les micro-organismes susceptibles de provoquer des maladies ou d’altérer les aliments.
Basé sur l’application d’une pression très élevée pendant un certain temps, il a des effets minimes sur le goût, la texture, l’aspect ou la valeur nutritive.
, champs électriques pulsésL’emploi de champs électriques pulsés de haute intensité est un processus non thermique utilisé pour traiter différents types de nourriture.
Il est utilisé depuis des décennies, notamment pour pasteuriser des aliments liquides (jus de fruits, lait, œufs liquides, smoothies); extraire du jus, de l’eau et des composés bioactifs des plantes; déshydrater des tissus.
, microfluidisationApparue dans les années 80, la microfluidisation est une technique qui permet la formation de microémulsions, améliorant notamment la stabilité d'un produit.) permet de préserver la biodisponibilité des nutriments, notamment en éliminant les composés antinutritionnels, tout ayant un impact environnemental réduit par rapport aux procédés traditionnels.

Enfin, des méthodes traditionnelles comme la germination et la fermentation permettent aussi de maintenir la biodisponibilité des nutriments (comme dans le cas du quinoa).

Diversifier les sources

Il est essentiel non seulement de promouvoir des cultures résilientes, mais aussi de développer des sources de protéines alternatives.

En ce qui concerne les protéines d’origine végétale, les scientifiques travaillent à identifier des céréales qui sont non seulement résistantes aux stress climatiques, mais qui présentent également des profils nutritionnels intéressants. C’est par exemple le cas du millet et du sorgho, cultivés en Afrique et en Asie, ainsi que des légumineuses comme les pois chiches.

Soulignons que la complémentarité entre les protéines de céréales et de légumineuses, dans un ratio de 2 :1, reste essentielle pour équilibrer les apports en acides aminés essentiels et optimiser la qualité protéique des régimes végétaux. L’emploi des protéines de pomme de terre est également envisagé.

Ces céréales pourraient remplacer les céréales actuelles dans leurs principaux usages (farines pour le pain, les pâtes, etc.), et pour circonvenir les problèmes techniques ou d’acceptation par les consommateurs, il pourrait être envisageable de ne remplacer que partiellement la céréale utilisée traditionnellement, ou d’adapter les recettes.

Par ailleurs, les protéines alternatives, comme celles issues d’insectes, de microalgues (spiruline, chlorella) ou d’organismes unicellulaires (levures), suscitent un intérêt croissant. Elles offrent un double avantage : elles présentent des profils nutritionnels favorables et leur empreinte écologique est faible.

En définitive, seule une approche globale, combinant innovation agricole, transformation durable et politiques publiques adaptées, permettra d’adapter les systèmes alimentaires aux défis posés par le changement climatique.

The Conversation

Emmanuelle Reboul ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.02.2026 à 17:09

Une nouvelle technique permet (enfin) de révéler les fonds marins côtiers du monde entier

Rafael Almar, Chercheur en dynamique littorale, Institut de recherche pour le développement (IRD)
Erwin Bergsma, Expert en océanographie côtière, Centre national d’études spatiales (CNES)
Sophie Loyer, Ingénieur R&D, Service hydrographique et océanographique de la marine (Shom)
Une nouvelle méthode permet, en utilisant des satellites de mesurer les caractéristiques des vagues afin d’estimer la profondeur et donc de mieux connaître les fonds marins à l’échelle du monde entier.
Texte intégral (1680 mots)

Bien connaître les fonds marins est crucial dans de nombreux domaines. Or, jusqu’à présent on ne savait en cartographier qu’une très faible proportion. Une nouvelle méthode permet, en utilisant des satellites, de mesurer les caractéristiques des vagues afin d’estimer la profondeur et donc de mieux connaître les fonds marins à l’échelle des côtes du monde entier.


Nous connaissons bien les cartes topographiques des zones terrestres, avec leurs plaines, vallées, canyons et sommets. La topographie sous-marine est beaucoup moins connue, car elle est difficile à voir et à mesurer. Pourtant, lors du dernier âge glaciaire, lorsque le niveau de la mer se situait 120 mètres plus bas et qu’il était possible de traverser la Manche à pied, ces zones étaient apparentes. Dans le passé, la Méditerranée se serait également asséchée par évaporation, coupant le lien avec l’océan Atlantique à Gibraltar et révélant aux habitants de la Terre de l’époque ses fonds marins. Malheureusement, pour les explorer au sec, il faudrait que les fonds marins se découvrent, mais les prévisions actuelles de changement climatique, liées aux activités anthropiques, indiquent plutôt une hausse du niveau de la mer de l’ordre du mètre pour le XXIe siècle.

Cartographier ces fonds marins est un véritable enjeu actuel pour de multiples aspects : navigation, développement des énergies marines renouvelables (éoliennes, câbles sous-marins), mais aussi sécurité civile et risques de submersion/érosion. Ces mesures sont réalisées au moyen de navires océanographiques équipés de sondes (poids au bout d’un fil, puis échosondeurs), ce qui est coûteux et dangereux notamment lorsqu’il s’agit de s’approcher des petits fonds, en présence de vagues et de courants.

Des fonds encore largement méconnus

En France, c’est le Service hydrographique et océanographique de la Marine (Shom) qui est chargé de la cartographie des fonds marins pour le compte de l’État. Avec près de 11 millions de km2, la France possède la deuxième plus grande zone maritime au monde et le Shom ne peut mesurer qu’environ 1 % de cette surface. Au niveau mondial, seulement environ la moitié des zones côtières ont été mesurées, souvent une seule fois, et ces informations datent souvent de plusieurs décennies. Or, ces fonds peuvent évoluer sous l’action de mouvements tectoniques, de déplacements sédimentaires dus aux vagues et aux courants, aux rivières et aux estuaires, ainsi qu’aux dunes et bancs de sable sous-marins, aux chenaux de navigation, etc. Une réactualisation régulière est donc primordiale. Aujourd’hui, les missions de satellites d’observation de la Terre sont de plus en plus nombreuses, fréquentes et précises, offrant des capacités d’observation inégalées et en constante progression. C’est dans ce contexte que nous avons cherché à développer, avec le programme S2Shores (Satellites to Shores), une approche permettant d’utiliser cette nouvelle opportunité pour cartographier l’ensemble des fonds marins côtiers à l’échelle mondiale par satellite.

Dans un environnement côtier très dynamique, il est essentiel pour la sécurité de la navigation de disposer d’un état actualisé des fonds marins. Cela permet également d’améliorer la précision des modèles de vagues, de marée et de courants, dont les performances dépendent principalement de la connaissance de l’état des fonds marins. Face à l’augmentation des risques de submersion et d’érosion côtières liée au changement climatique, il est essentiel de pouvoir anticiper et prévenir ces phénomènes dans le cadre d’événements extrêmes. Cela permet également de réaliser des bilans sédimentaires en quantifiant les stocks de sable. Dans les pays du Sud, qui ne bénéficient pas de moyens traditionnels coûteux de cartographie des fonds marins, les promesses offertes par ces nouvelles techniques satellitaires, ainsi que les attentes, sont grandes.

Comment fonctionne cette nouvelle méthodologie ?

Les méthodes satellitaires existantes pour estimer les fonds marins sont principalement basées sur l’observation directe du fond : on mesure ce que l’on voit. Cette approche est efficace dans les eaux claires et transparentes, comme dans les atolls, mais elle est moins performante dans les eaux turbides et troubles, comme autour des panaches de rivières, dans les zones sableuses ou vaseuses. En moyenne, on considère que la profondeur atteignable est d’environ 15 mètres. Une calibration avec des mesures sur place, dites in situ, est la plupart du temps nécessaire.

Exemple d’application de l’estimation satellite des fonds marin (S2Shores) sur la baie du Bengale. Des chenaux et autres structures fines sont bien visibles. Fourni par l'auteur

L’approche que nous avons développée est fondée sur une méthode inverse : on mesure les vagues dont les caractéristiques géométriques (longueur d’onde, c’est-à-dire la distance entre deux crêtes) et cinématiques (vitesse) sont modulées par les fonds marins en zone côtière afin d’estimer la profondeur. Cette méthode permet d’étendre le champ d’application des méthodes spatiales aux eaux turbides et plus profondes, jusqu’aux plateaux continentaux, à des profondeurs de plus de 50 mètres, soit une augmentation potentielle de +58 % ou 3,1 millions de km2 par rapport aux méthodes basées sur la couleur de l’eau avec une moyenne mondiale grossière de visibilité des fonds de 15 mètres.

En pratique, nous utilisons les images optiques des satellites de la mission Sentinel-2 de l’Agence spatiale européenne, qui offrent une réactualisation régulière, de l’ordre de cinq à dix jours selon les zones, avec une résolution de 10 mètres. Sentinel-2 dispose de plusieurs bandes de couleur, dont le rouge et le vert, que nous utilisons ici. Ces bandes ne sont pas acquises exactement au même moment. C’est ce décalage d’environ 1 seconde entre ces deux bandes que nous exploitons pour détecter la propagation des vagues, de l’ordre de 1 à 10 mètres par seconde. Tout cela est possible avec un satellite qui passe à environ 700 km d’altitude et 7 km par seconde.

Établir cet atlas global des fonds marins des zones côtières est également une prouesse en termes de traitement de masse de plus d’un million d’images sur le supercalculateur TREX du Cnes, où sont également stockées toutes ces images pour un temps d’accès minimum.

Une chaîne de traitement a été réalisée dans le cadre du programme S2Shores afin d’optimiser ces traitements de manière automatisée.

Nous continuons à faire progresser le cœur du code d’estimation des fonds marins et incorporons différentes missions, comme la récente C03D développée conjointement par le Cnes et Airbus Defence and Space. Après cette démonstration globale à basse résolution (1 km), ces codes sont ouverts et libres d’utilisation pour répondre à des besoins spécifiques, comme des projets d’aménagement, par exemple, ou dans le cadre de jumeaux numériques pour réaliser des scénarios d’inondation ou d’érosion côtière, lorsqu’ils sont combinés à un modèle numérique.

The Conversation

Rafael Almar a reçu des financements de l'Agence Nationale de la Recherche (ANR) à travers le projet GLOBCOASTS (ANR-22-ASTR-0013)

Erwin Bergsma a reçu des financements du CNES.

Sophie Loyer a reçu des financements de l'Agence Nationale de la Recherche (ANR) à travers le projet GLOBCOASTS (ANR-22-ASTR-0013)

23.02.2026 à 16:36

Minding the gap between the art of deal-making and the art of diplomacy, or how to handle Donald Trump

Maxime Lefebvre, Permanent Affiliate Professor, ESCP Business School
Snap decisions, hard bargaining and public provocation… Donald Trump never ceases to throw off his partners. How can foreign policy best tackle his behaviour.
Texte intégral (2374 mots)

Since Donald Trump’s return to the White House, his shock tactics and explosive actions have made waves on the world stage. There is no shortage of adjectives characterising Donald Trump’s international modus operandi: narcissistic, transgressive, unpredictable and erratic, boastful, clumsy, even vulgar, dishonest, brutal… His tweets and curt sentence-based internal and external communications present leaders and diplomatic corps worldwide with a redoubtable challenge when for example, he shamelessly goes public about conversations that should have otherwise remained private and confidential (as was recently the case regarding a text exchange with Emmanuel Macron). Such disturbing behaviour would’ve caused a breadth of diplomatic havoc if it hadn’t come from the leader of the world’s biggest superpower, leaving partners of the United States with no choice but to adapt accordingly and keep up appearances.

Diplomacy in relations between foreign leaders and Trump, is still necessary, in the same way that international law retains its intrinsic value in relations between nations. Despite multiple breaches, including those by the current US President himself, diplomacy remains an art form in terms of communication, and compromise between parties that do not share the same perspective on the world, especially when they are in disagreement over a particular issue.

‘The Art of the Deal’ – A disruptive brand of foreign policy

The book The Art of the Deal (co-authored by Donald Trump and journalist Tony Schwartz) dates back to 1987, long before the businessman’s foray into politics. In the book, the Real Estate mogul describes his disruptive negotiating method, which consists of thinking big, asking for a lot, and using the media to his advantage. It was at that time that he started to publicly demand that the US lay down tariffs (global duty collections on imported goods), amid a context characterised by Japan’s economic boom and the widening of America’s trade deficit.

“Donald Trump is he a master negotiator or a bully?” ABC Australia, July 2025.
France 24, October 2025.

Donald Trump was unable to fully implement his policy during his first term because he was ill-prepared and held back by his administration, for example, in his attempts to build closer ties with North Korea. His second term kicked off with a more thought-out and resolute policy: aggressive trade measures (the “salvo of tariffs” announced on “Liberation Day” on April 2); by threats to the sovereignty of Canada and Greenland; by demanding that Latin American states comply with its orders on immigration control, the fight against drug trafficking, and relations with China; by the withdrawal of the United States from certain multilateral organizations (already begun in 2017-2020); and by the heavy-handed negotiation of several peace agreements (notably in Gaza).

This attitude, while striking in comparison to previous administrations, is not entirely unprecedented in American tradition when it comes to relations with the rest of the world. Pressure on allies, unilateral sanctions, the extraterritoriality of American law, the unilateral use of force, and the rejection of certain multilateral norms (the US has never ratified the Montego Bay Convention on the law of the sea or the Rome Statute establishing the International Criminal Court, and withdrew from UNESCO between 1984 and 2003) are not new practices. But Donald Trump adds his own brand of brutality, selfishness, and systematicity, in the name of ideology: America First.

Practical limitations

The US president has said that he sets no limits other than those of his “own morality”. However, there are two practical limits that are evident in his actions, which may reassure his partners somewhat.

Firstly, he does not like military adventures. On the one hand, this is due to his temperament (he did not do military service and believes more in business than in war). On the other hand, it is because his electoral base rejects military engagements. He intends to guarantee “peace through strength,” but the goal is indeed peace. He has demonstrated a clear preference for targeted strikes and operations (in Syria in 2017 and 2018, in Iran and Nigeria in 2025, and in Venezuela in 2026) instead of prolonged engagements.

He thus confirms that the page of the ‘war on terror’, which is estimated to have cost $8 trillion (€6.75 trillion) in the US between 2001 and 2021, has come to an end, without abandoning the military strikes that have become, since Barack Obama’s two terms in office, the preferred means of action against terrorist groups. The operation in Venezuela is a good illustration of a policy that is economical in its objectives (in this case, Maduro’s ousting and the fight against drug trafficking and Chinese influence, rather than regime change) and in its means.

Secondly, Donald Trump has demonstrated his pragmatism on more than one occasion, not hesitating to back down when he has gone too far. This is a corollary of his disruptive approach. The reactions of American public opinion and the stock market, as well as the limits imposed by his partners, ultimately influence an administration in which the president, surrounded by loyalists, does not ignore calls for caution. The tariffs enacted on ‘Liberation Day’ were immediately followed by a pause, largely due to the reaction of the markets, to the point that the Wall Street Journal hailed it a ‘Mitterrand moment’, drawing a parallel between Trump’s reversal on this occasion and the famous turn toward austerity initiated by the French socialist president in 1983.

In the Russia/Ukraine dossier, the American president listened to the Europeans and shifted his position to one less favourable to Moscow, to the point of accepting a form of American commitment in future security guarantees for Ukraine. On Greenland, he backed down in Davos by renouncing the military option. On Iran, he distanced himself from certain attempts to overthrow the regime in order to focus on the goal of nuclear negotiations.

France 24, January 2026.

He has been criticised for these U-turns (the acronym TACO, “Trump Always Chickens Out” has been very successful on social media), and it is not certain that they will pay off with the American electorate at the time of the midterms. But they show that there is a place for diplomacy in the art of managing Trump.

The art of managing Trump

World leaders are unsettled and their nerves are being tested. Many have been on the receiving end of his mockery and whims, particularly Western leaders or those considered hostile, but not directly “strong” leaders such as Xi Jinping and Vladimir Putin. Some have not been afraid to make fools of themselves, such as NATO Secretary General Mark Rutte, who reportedly called him ‘Daddy’.

Nevertheless, the US administration’s partners have managed over time to establish a working relationship with it and achieve results. Emmanuel Macron was the first to organise a meeting between Trump and Ukrainian President Zelensky, at the Notre-Dame reopening ceremony in December 2024. The European Commission concluded a trade deal with the United States in July 2025, which was criticised in France in particular, but welcomed by many states that wanted, above all, to preserve economic and trade ties with Washington. The NATO summit in The Hague in June 2025 passed without a hitch, avoiding American disengagement.

As relations with Canada became strained due to mounting disputes (tariffs, land claims, relations with China), [Mexican President Claudia Sheinbaum(https://www.latimes.com/world-nation/story/2026-01-30/trump-mexico-sheinbaum) demonstrated her skill in her relations with the American president]. Emmanuel Macron, until the recent confrontation over Greenland, had also managed to charm the White House host, who acknowledged this in Davos (“I really like Emmanuel Macron”) while sending him several jibes.

This reveals a certain method in the art of dealing with the US head of state:

  1. The need to keep a cool head. This should not become coldness, at least on the part of partners and allies. It is a matter of keeping calm, not getting drawn into verbal escalation, and countering whims with the authority of seriousness.

  2. Dialogue and cooperation: talking, taking American demands seriously, trying to understand them, attempting to respond to them, accepting and even seeking dialogue, looking for and accepting compromises.

  3. Firmness: setting and stating limits, reiterating positions of principle, acting or reacting with restraint, and strengthening one’s position by seeking allies.

The European approach

The way Europeans have dealt with Donald Trump so far has been quite exemplary: accepting a tariff compromise that avoids a trade war (the Turnberry agreement); drawing red lines on digital regulation; diplomacy backed by tools of power in Ukraine (increased aid and the establishment of a ‘coalition of the willing’ to provide security guarantees to Kiev); firmness in the Greenland affair (the statement of 6 January and the dispatch of a military mission); postponement of the ratification of the trade agreement. But the Europeans have always avoided entering into a futile confrontation, seeking, above all, to safeguard the future and preserve the transatlantic link, despite numerous calls (especially in France) for an uncompromising stance.

A different stance for the East

Relations with Russia and China appear more formal, colder and more egalitarian, as Trump treats them with greater deference. Xi Jinping appeared to use self-control to dominate his counterpart during their meeting in Korea, even though some saw it as an attempt by Donald Trump to gain the upper hand. Chinese culture, which places great importance on appearances and not losing face, is undoubtedly difficult to reconcile with the American president’s eccentricities. A similar situation occurred during the meeting with Vladimir Putin in Anchorage.

Behind the negotiations and diplomatic twists and turns, what is at stake involving global power relations and the future of the Western camp and its values is obviously far deeper. But whatever developments lie ahead, diplomacy will remain more necessary than ever for ensuring global stability. While diplomacy must still bend and shape itself around power relations, on the bright side, it is still producing results.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Maxime Lefebvre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.02.2026 à 11:43

Trump désavoué par la Cour suprême sur les droits de douane : et maintenant ?

Anne E. Deysine, Professeur émérite juriste et américaniste, spécialiste des États-Unis, questions politiques, sociales et juridiques (Cour suprême), Université Paris Nanterre
Si la décision de la Cour constitue un camouflet pour Donald Trump, elle ne signifie pas pour autant la fin de sa politique commerciale consistant à promulguer des droits de douane tous azimuts.
Texte intégral (2473 mots)

La décision était très attendue : la Cour suprême vient de juger que la promulgation d’une grande partie des droits de douane imposés par Donald Trump à de nombreux pays du monde relevait d’un abus de pouvoir. Il s’agit certes d’un net désaveu infligé au président par une Cour dont il semblait estimer qu’elle lui était totalement acquise ; il n’en demeure pas moins que le président des États-Unis dispose d’autres leviers pour poursuivre dans cette même voie.


Donald Trump a placé au cœur de sa politique économique les droits de douane qu’il impose de façon aléatoire à titre de représailles, en invoquant le plus souvent « une situation d’urgence » pour justifier ses actes. On l’a notamment constaté, dès les premières semaines de son second mandat, pour la Chine, le Mexique et le Canada, à qui il reprochait des efforts insuffisants pour combattre la circulation du fentanyl, puis le 2 avril 2025 – le fameux « Jour de la libération ».

Ce jour-là, invoquant l’International Emergency Economic Powers Act (IEEPA, texte de 1977 autorisant le président à réglementer le commerce après avoir déclaré une situation d’urgence nationale en réponse à une menace inhabituelle, extraordinaire et de source étrangère pour les États-Unis), Trump a promulgué des droits de douane tous azimuts, qui allaient ensuite être suspendus et modifiés à plusieurs reprises, en fonction du comportement de ses interlocuteurs ou des cadeaux apportés (que l’on songe à la récente controverse provoquée par le don au président d’une Rolex et d’un lingot d’or de la part de patrons suisses).

Retour sur l’histoire judiciaire et la question de droit

Plusieurs États et entreprises, conscients que ces mesures allaient renchérir leurs coûts et affecter leur activité économique, ont contesté ces décisions, certains devant une juridiction fédérale classique (qui n’était pas compétente), d’autres devant le Tribunal du commerce international des États-Unis (CIT) qui, en mai 2025, a conclu à l’illégalité du décret et suspendu sa mise en œuvre.

Le 29 août 2025, saisie par l’administration, la Cour d’appel pour le circuit fédéral (CAFC), qui a compétence en matière de commerce international sur tout le territoire états-unien, a confirmé la décision de première instance : s’appuyant sur « l’histoire législative » (les motivations du Congrès pour voter la loi IEEPA) et la séparation des pouvoirs, elle conclut que la promulgation des droits de douane au nom de l’IEEPA par Trump relève d’un abus de pouvoir du président.

Tous les droits de douane sont illégaux, sauf ceux imposés en vertu de la section 232 du Trade Expansion Act (TEA). Pourtant, malgré la décision de la CAFC, les droits de douane contestés sont entrés en vigueur et ont continué de s’appliquer… jusqu’à la décision que la Cour suprême vient de rendre le 20 février 2026.

En septembre 2025, l’administration Trump a demandé à la Cour d’intervenir en procédure d’urgence pour sauver ses droits de douane. Il faut souligner que la Cour a accepté nettement plus de recours en urgence sous Trump que sous ses prédécesseurs, ce qui traduit bien la conviction de l’actuel président que la Cour suprême (dont il a nommé trois juges, durant son premier mandat) est à son service pour lui permettre de faire ce qu’il veut, sans aucun contrôle ni contre-pouvoir. Pour autant, il lui a fallu suivre le processus normal et demander un examen au fond (merits case) en faisant une demande de certiorari que la Cour a acceptée.

La loi sur les pouvoirs économiques d’urgence (IEEPA) et la décision de la Cour suprême

Il s’est trouvé une majorité de six juges sur les neuf que compte la Cour suprême pour affirmer que le recours du président à la loi IEEPA est contraire à la séparation des pouvoirs, car la loi permet au président de « réguler » et d’« interdire » mais pas d’imposer des droits de douane, qui sont de la compétence du Congrès. Mais c’est une opinion fragmentée, avec quatre opinions convergentes et deux opinions dissidentes, chacun des juges tentant de justifier et d’ancrer ses préférences en matière d’interprétation de la loi et de la Constitution.

La loi IEEPA invoquée par Donald Trump pour imposer des droits de douane tous azimuts à quasiment tous les pays du monde est prévue pour les situations d’urgence, mais l’objectif du Congrès à l’époque de son adoption, en 1977, était de limiter les pouvoirs du président par rapport à une autre loi existante (Trading with the Enemy Act, datant de 1917). C’est ce qu’il est possible de comprendre en recherchant l’« intention du législateur » – une méthode prônée par la juge progressiste Ketanji Brown Jackson dans son opinion convergente, mais les juges « conservateurs » s’y refusent.

Le texte de l’IEEPA prévoit en cas d’urgence la possibilité pour le président de « réguler » ou de déclarer un embargo, par exemple, mais ne mentionne nulle part les droits de douane. Quant à considérer que le « dramatique déficit commercial » invoqué par Trump constitue une urgence, ce serait oublier que celui-ci n’est pas nouveau et existe depuis plusieurs décennies.

Les enjeux constitutionnels

Les enjeux économiques et constitutionnels étaient importants, ainsi qu’en témoigne le nombre élevé de pétitions amicus curiae (« ami de la cour ») que les personnes physiques (un économiste, un professeur de droit) ou morales (des groupes divers) ont la possibilité de déposer afin d’éclairer la cour sur leur lecture de l’affaire, les dangers ou le bien-fondé des positions défendues par l’administration et la solution qu’ils préconisent.

Presque toutes défendaient des arguments allant à l’encontre de la position de l’administration Trump, y compris les groupes de droite comme le Cato Institute (libertarien) ou la Washington Legal Foundation (qui défend généralement les causes de la droite, mais qui argumentait ici pour l’inconstitutionnalité du recours à la législation d’urgence).

Certains invoquaient des arguments économiques et plusieurs professeurs de droit soulignaient les dangers si la Cour ne met pas un coup d’arrêt aux velléités de cumul des pouvoirs par le président. Si la Cour ne sanctionne pas cet empiètement, expliquaient-ils, le risque est réel que le Congrès ne puisse jamais voter une loi, non seulement à la majorité simple mais, en cas de veto quasi certain, à la majorité des deux tiers.

Les juges avaient semblé conscients lors de l’audience de la quasi-impossibilité pour le Congrès de recouvrer ses pouvoirs et avaient posé de nombreuses questions sur ce sujet.

Que dit exactement la décision de la Cour suprême ?

La décision Learning Resources, Inc. v. Trump, traite de deux catégories de droits de douane : ceux qui ont été imposés sur le Mexique et le Canada pour lutter contre l’importation d’opiacés ; et les droits de douane plusieurs fois modifiés, instaurés le 2 avril 2025 dit « Jour de la libération ». Elle laisse en place les autres droits de douane imposés sur d’autres fondements, tels que les droits de douane de 25 % placés par la première administration Trump en vertu de la section 301 de la loi Trade Act de 1971, maintenus par le président Biden, qui ont ajouté des droits de douane de 100 % sur les véhicules électriques chinois.

Comme prévu, l’opinion de la majorité est rédigée par le Chief Justice et, comme largement anticipé après l’audience, elle statue contre le président, mais après avoir laissé les droits de douane en vigueur pendant près d’un an.

Le président de la Cour rédige une opinion courte dont la première partie, signée par lui-même et cinq autres juges, repose sur l’atteinte à la séparation des pouvoirs : la Constitution attribue au Congrès (et au Congrès seul) le pouvoir de lever l’impôt et d’imposer droits de douane et droits indirects.

Les juges progressistes ont voté avec la majorité sur le premier fondement parce que la décision permet d’interdire au président d’utiliser la loi IEEPA (qui, nous l’avons dit, prévoit interdictions ou embargos mais pas les droits de douane) et renforce la séparation des pouvoirs et la primauté du droit (Rule of Law). Mais pas sur le deuxième fondement, qui ne recueille l’adhésion que des juges conservateurs Gorsuch et Barrett (tous deux nommés par Trump).

Cette opinion de pluralité se fonde sur la doctrine de la question majeure (Major Questions Doctrine, MQD) en vertu de laquelle les décrets qui entraînent une modification majeure d’un secteur doivent être autorisés par une délégation de pouvoir précise et spécifique par le Congrès. Ici, l’imposition de droits de douane a causé une modification majeure de l’économie du pays et ne peut être autorisée. La question est développée sur près de 50 pages par le juge Gorsuch dans son opinion convergente.

Quelle signification et quelles suites ?

C’est un net revers pour Donald Trump, qui a placé les droits de douane au cœur de sa politique économique, mais la Cour ne se prononce pas sur les pouvoirs du président (et leurs limites) ni sur les multiples recours aux législations d’urgence, pas nécessairement motivés. C’est une décision limitée à la signification de la loi IEEPA et à ce qu’elle autorise (déclarer un embargo) et interdit (imposer des droits de douane).

Ce n’est pas l’annonce que la Cour suprême va dorénavant s’opposer à Trump, sauf sans doute sur le limogeage de la gouverneure de la Réserve fédérale (FED), ce qui accréditera la thèse que la majorité de droite à la Cour est du côté du business et protège l’économie du pays contre les politiques dangereuses du président.

Par ailleurs, la décision ne dit rien sur un éventuel remboursement qui serait versé aux entreprises lésées et ne prévoit aucun mécanisme en ce sens. Beaucoup soulignent que les entreprises n’ont aucun droit à un remboursement dans la mesure où elles ont répercuté l’augmentation des coûts sur les consommateurs finaux. Le gouverneur de Californie propose que chaque Américain reçoive un chèque de 1 700 dollars (1 420 euros environ) ; le gouverneur de l’Illinois a envoyé sa facture (8,4 milliards de dollars, soit plus de 7 milliards d’euros) à l’administration Trump. En d’autres termes, d’autres contentieux sont à prévoir. D’autant que les mesures ne sont pas parvenues à diminuer le déficit commercial en 2025 et que rembourser les quelque 140 milliards de dollars (plus de 118,6 milliards d’euros) indûment perçus creuserait un peu plus le déficit budgétaire.

Que peut faire Trump maintenant ?

Une autre question est elle aussi passée sous silence. Donald Trump dispose-t-il d’autres outils pour imposer d’autres droits de douane ? La réponse est oui, car, dans les années 1970, le Congrès a voté plusieurs lois (Trade Acts) déléguant de nombreux pouvoirs au président pour lui permettre de répliquer à des mesures discriminatoires prises par les partenaires commerciaux des États-Unis.

Trump, furieux de la décision de la Cour suprême, a immédiatement annoncé des droits de douane étendus à l’ensemble du monde de 10 %, puis de 15 % en recourant à la section 122 de la loi Trade Act de 1974. Dans ce cas, les droits ne peuvent dépasser 15 % et sont censés expirer au bout de 150 jours si le Congrès n’a pas voté pour confirmer la mesure. Connaissant le peu de cas que Trump fait des règles et du droit, il n’est pas impensable d’imaginer qu’il renouvellera les droits de douane pour d’autres périodes de 150 jours – en violation peut-être non pas de la lettre de la loi mais de son esprit. Ou bien il tentera d’utiliser d’autres outils (les sections 232 ou 301, par exemple).

En conclusion, la décision de la Cour ne clarifie guère la situation économique et, à ce jour, l’état du commerce international est toujours aussi instable et chaotique.

The Conversation

Anne E. Deysine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.02.2026 à 11:38

En Europe, les politiques sociales limitent l’appauvrissement des travailleurs en situation de handicap

Justine Bondoux, Responsable de la production de l'enquête SHARE en France, Université Paris Dauphine – PSL
Jusot Florence, Professeure en Sciences Economiques, Université Paris Dauphine – PSL
Thomas Barnay, Full Professor in Economics, Université Paris-Est Créteil Val de Marne (UPEC)
Après 50 ans, un handicap entraîne en Europe une perte moyenne de revenus de 20 %, avec de fortes disparités entre pays et un impact plus fort pour les femmes.
Texte intégral (1891 mots)
Malgré des revenus de remplacement, tels que les pensions d’invalidité, le revenu global d’un salarié en situation de handicap diminue en moyenne d’environ 20 %. Simonovstas/Shutterstock

La survenue d’un handicap grave après 50 ans entraîne une dégradation significative des revenus à court terme pour tous les salariés européens. Cette perte peut être largement amortie dans les pays où les systèmes de protection sociale sont généreux et les politiques d’intégration professionnelle efficaces. Alors, quelles disparités entre les pays européens ? Les femmes et les hommes ? Les différents revenus de compensation ?


Selon Eurostat, dans l’ensemble de l’Union européenne, l’écart de taux d’emploi entre les personnes en situation de handicap et celles sans handicap atteint 24 points de pourcentage (pp) en 2024. Derrière cette moyenne se cachent de fortes disparités. L’écart n’est que de 8 pp au Luxembourg et de 14 pp en Slovénie, mais dépasse 40 pp en Roumanie et en Croatie – un point de pourcentage correspond à l’écart absolu entre deux taux exprimés en pourcentage.

Graphique réalisé par les auteurs à partir des données Eurostat. Fourni par l'auteur

Sur le marché du travail, le désavantage des personnes en situation de handicap s’explique par plusieurs facteurs : la nécessité de soins réguliers, l’insuffisante adaptation des postes, une baisse de productivité perçue ou réelle, mais aussi des phénomènes de discrimination. Les caractéristiques du handicap telles que son intensité, son type – physique, cognitif, etc. – ou encore le moment de sa survenue – naissance, enfance, âge adulte – peuvent également jouer un rôle crucial.

Alors, que se passe-t-il lorsqu’un handicap survient en deuxième partie de carrière, chez des personnes initialement en emploi et sans limitation déclarée ? Comment cet événement affecte-t-il leurs revenus globaux deux années après ? C’est précisément la question que nous abordons dans une étude publiée dans la revue Annals of Economics and Statistics.

À partir de l’enquête Survey on Health Ageing and Retirement in Europe (SHARE), menée entre 2011 et 2015 auprès de plus de 2 500 individus âgés de 50 ans et plus, dans 12 pays européens, nous analysons l’effet de la survenue d’un handicap grave sur le revenu global. Nous distinguons ensuite les différents canaux à l’œuvre, en décomposant ce revenu entre salaires d’activité et revenus de remplacement, tels que les pensions ou les allocations.

Concrètement, quelles différences entre les pays européens ?

Chute de près de 79 % des salaires

À partir d’individus initialement en emploi et sans handicap en 2011, nous isolons l’effet du handicap sur le revenu global en combinant deux méthodes économétriques : le Propensity Score Matching et la méthode des différences de différences.

Cette approche permet de comparer, entre 2011 et 2015, les trajectoires de revenus d’individus déclarant un handicap en 2013 (qui perdure en 2015) à celle des individus ne déclarant pas de handicap en 2013 et 2015, tout en homogénéisant leurs caractéristiques initiales de 2011. La méthode permet de tenir compte non seulement des caractéristiques observables – âge, sexe, niveau d’éducation –, mais aussi de l’hétérogénéité non observée, comme la capacité des individus à faire face à leur handicap ou la discrimination des employeurs face aux individus en situation de handicap.

Nous postulons ensuite que cet événement va détériorer la situation sur le marché du travail comme la perte de productivité due au handicap, la réduction subie du temps de travail, voire du chômage. Tout en activant potentiellement des mécanismes de compensation. Pour tester ces hypothèses, nous décomposons le revenu global en salaire d’activité et en revenus de remplacement. Après l’apparition du handicap, les deux hypothèses sont bien confirmées : les salaires chutent fortement, tandis que les revenus de remplacement augmentent. Dans de nombreux cas, cette compensation reste insuffisante pour maintenir le revenu global.

L’apparition d’un handicap entraîne, en moyenne, une chute de près de 79 % des salaires. Malgré une augmentation massive – 200 % en moyenne – des revenus de remplacement tels que les pensions d’invalidité, le revenu global diminue en moyenne d’environ 20 %.

Différentes générosités des systèmes sociaux

Ces chiffres masquent de grandes inégalités entre pays. Dans les systèmes sociaux les plus généreux – Allemagne, Belgique, Danemark, France, Suède et Suisse –, la baisse des salaires est compensée par les revenus de remplacement comme les pensions d’invalidité. Résultat : le revenu global reste stable.

À l’inverse, dans les pays les moins généreux – Autriche, Espagne, Estonie, Italie, République tchèque et Slovénie –, ils ne suffisent pas à endiguer la perte de salaire, entraînant un appauvrissement marqué par une chute du revenu global de 27 %.

Cette hétérogénéité souligne l’importance de la générosité des systèmes sociaux et de leur capacité à protéger les individus face aux risques financiers liés au handicap. Les politiques publiques – allocations, pensions, mesures d’intégration et anti-discrimination – peuvent, par conséquent, couvrir l’intégralité de la perte de revenu lié au handicap.

Les pays nordiques combinent facilité d’accès aux prestations, mesures d’intégration sur le marché du travail et cumul des revenus de remplacement et d’un salaire. À l’inverse, certains pays d’Europe de l’Est faiblement généreux imposent, de surcroît, des conditions strictes pour cumuler pension et autres prestations, ce qui réduit fortement la protection des personnes en situation de handicap.

« Double peine » pour les femmes

Le handicap n’affecte pas les hommes et les femmes de la même manière. Chez les hommes, la baisse des salaires est souvent compensée par les revenus de remplacement, si bien que le revenu global n’est pas significativement affecté. Chez les femmes, les allocations compensent moins la chute des salaires, ce qui entraîne une diminution notable du revenu global de 32 %.

Cette « double peine » des femmes illustre des inégalités persistantes dans l’emploi et les revenus, confirmant des travaux antérieurs sur le sujet, comme ceux des économistes Morley Gunderson et Byron Lee, William John Hanna et Betsy Rogovsky ou Lisa Schur.

Vers une meilleure protection

Nos résultats montrent que la survenue d’un handicap grave après 50 ans entraîne une dégradation significative des revenus à court terme. Cette perte n’est pas inéluctable. Elle peut être largement amortie dans les pays où les systèmes de protection sociale sont généreux et où les politiques d’intégration professionnelle permettent de limiter les sorties du marché du travail.

Ils soulignent plusieurs leviers d’action pour les pouvoirs publics :

  • renforcer les dispositifs de maintien dans l’emploi ;

  • améliorer l’adaptation des postes de travail ;

  • ajuster les mécanismes de compensation financière lorsque l’activité professionnelle devient impossible.

Autrement dit, il ne s’agit pas seulement de compenser la perte de revenu, mais aussi de prévenir la rupture avec l’emploi, qui constitue un facteur majeur de fragilisation économique. Notre étude comporte néanmoins certaines limites. Elle porte exclusivement sur des Européens âgés de 50 ans et plus ; l’impact économique d’un handicap pourrait différer chez les actifs plus jeunes.

La durée de suivi, limitée à deux ans, ne permet pas de saisir pleinement les conséquences de moyen et long termes, notamment en matière de trajectoires professionnelles et de cumul des désavantages. Malgré ces réserves, les résultats apparaissent robustes : la générosité des systèmes sociaux et la capacité à intégrer durablement les personnes handicapées sur le marché du travail sont des déterminants essentiels de leur sécurité économique. À ce titre, les politiques publiques disposent de marges de manœuvre réelles pour protéger les individus face aux aléas de la santé et réduire les inégalités de revenus.

The Conversation

Cette étude a bénéficié d'un financement de la Caisse Nationale de Solidarité pour l’Autonomie (CNSA) dans le cadre du projet “Programme Handicap et Perte d’Autonomie - Session 8” de l'Institut de Recherche en Santé Publique (IReSP). Elle a également reçu le soutien du projet SHARE-France.

23.02.2026 à 11:38

Le « live shopping » : l’évolution du modèle d’achat en ligne

Basma Taieb, Enseignante-chercheuse en marketing digital , Pôle Léonard de Vinci
Jean-Eric Pelet, Associate professor, EBS Paris
Le « live shopping » désigne les ventes en ligne réalisées par des animateurs. Leur succès nécessite de suivre certaines règles.
Texte intégral (1183 mots)

Alors que TF1 vient de supprimer son téléshopping trente-huit ans après sa création, le « live shopping » connaît un succès grandissant. Reste que pour transformer le live en achats sonnants et trébuchants, des règles doivent être respectées. Si la confiance est nécessaire pour déclencher le processus d’achat, ce dernier carbure aussi à l’émotion.


Le live shopping, appelé aussi le live streaming commerce (LSC), consiste à vendre les produits en direct par vidéo. Le LSC est très populaire en Chine, il a connu dans ce pays une croissance sans précédent depuis 2017. L’achat en streaming en direct a fait son entrée sur le marché français en 2020 durant la pandémie de Covid-19, avec Les Galeries Lafayette.

Une recherche récente, menée auprès de 555 consommateurs français, propose un modèle éclairant des mécanismes sous-jacents à l’achat lors du LSC. Celui-ci révèle que le processus d’achat en ligne est déterminé par l’articulation séquentielle et complémentaire de deux dimensions : la confiance envers le produit (cognitive) et l’expérience de flow (affective). Bien mené, le live shopping peut être un canal de vente très puissant promettant des taux de conversion jusqu’à dix fois supérieurs à ceux du e-commerce traditionnel.

Lever les freins à l'achat en ligne

Dans l’univers asynchrone et parfois impersonnel des sites e-commerce traditionnels, le risque perçu et l’incertitude sur la qualité des produits peuvent freiner l’achat. Le LSC réintroduit une dimension sociale et interactive cruciale, incarnée par le streamer. Ce dernier n’est pas un simple présentateur, mais un véritable prescripteur dont les caractéristiques vont directement nourrir la confiance du consommateur à l’égard du produit.


À lire aussi : Le commerce de détail : un secteur en crise ?


Trois qualités se révèlent déterminantes :

  • son expertise technique sur les produits,

  • sa crédibilité perçue (honnêteté, sincérité)

  • et surtout sa réactivité à répondre en temps réel aux questions posées par les consommateurs via la boîte de dialogue.

Les résultats de cette recherche sont sans appel. Sans ces attributs, la confiance peine à s’établir.

« C'est qu’on peut poser nos questions et que la vendeuse est très réactive… Je trouvais que les précisions étaient toutes au rendez-vous, ça met vraiment en confiance. » (Sylvain, 30 ans, enquête qualitative)

Le rôle des émotions

Si la confiance du consommateur est le socle indispensable à l’achat lors du LSC, l’expérience de flow constitue un réel moteur émotionnel. Concept introduit par le psychologue Mihaly Csikszentmihalyi, le flow désigne cet état d’immersion totale et de plaisir dans une activité, au point d’en oublier le temps qui passe.

Le LSC est un terrain particulièrement propice pour générer cet état. Deux caractéristiques propres à ce format y contribuent : l’interactivité en temps réel (chat, réactions, sentiment de communauté) et l’attractivité de la présentation (visuels dynamiques, scénarisation, divertissement). Ces stimuli captivent l’attention et créent un engagement profond.

« On a vraiment l'impression d'être dans la pièce avec elle comme si on assistait à l'essayage en direct… J'étais très attentive aux commentaires des autres personnes, on a vraiment cette idée de communauté. » (Aurélien, 35 ans, enquête qualitative)

Une expérience captivante

Les résultats de l’enquête montrent que c’est précisément cette expérience de flow qui influence le plus fortement et directement l’intention d’achat. La rationalité (la confiance) prépare le terrain, mais c’est l’émotion (le flow) qui renforce l’intention d’achat. Autrement dit, la confiance est une condition nécessaire mais non suffisante. Elle agit comme un facilitateur essentiel, créant un environnement sécurisé et crédible. C’est ensuite en se transformant en expérience de flow qu’elle démultiplie son effet sur la décision du consommateur.

Cette voie « mixte », allant du cognitif à l'affectif est au cœur du processus d’intention d’achat en ligne lors du LSC. Elle explique pourquoi une simple démonstration du produit, même technique et fiable, peut échouer si elle n’est pas portée par une expérience captivante.

Des outils à manier avec stratégie

Cette compréhension fine du mécanisme d'achat en LSC offre des leviers d'action concrets pour les marques et les retailers :

  • Sélection et formation des streamers : prioriser l'expertise produit, l'authenticité et la capacité à interagir vite et bien. La réactivité est le facteur ayant le plus fort impact sur la confiance.

  • Scénarisation de l'expérience : concevoir les lives non comme des catalogues animés, mais comme des moments de divertissement et de socialisation. Intégrer des fonctionnalités ludiques (concours, jeux, récompenses) et favoriser les interactions entre les participants pour renforcer le sentiment de communauté et d'immersion.

  • Adopter une approche holistique : ne pas dissocier l'argumentaire (confiance) de la forme (flow). Une démonstration produit doit être à la fois précise et spectaculaire ; une interaction via le chat doit être à la fois rapide et chaleureuse.

Le live streaming commerce, loin d’être un phénomène éphémère, incarne ainsi l’avenir d’un e-commerce à la fois plus interactif et plus immersif. Son succès repose sur une alchimie subtile entre la confiance rationnelle dans le produit et l’expérience immersive, un équilibre que les marques doivent absolument maîtriser.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

23.02.2026 à 11:37

L’IA est conçue pour terminer le travail, pas pour le commencer

Gaurav Gupta, Professor of AI and Digital Entrepreneurship, Neoma Business School
Neha Chaudhuri, Professeur en management de l'information, TBS Education
L’IA est un outil qui repose sur le bon timing. Utilisée trop tôt, elle court-circuite la réflexion. Utilisée au bon moment, elle fait gagner du temps. Explication avec une étude lors d’un « hackathon ».
Texte intégral (1354 mots)
Une étude expérimentale a tenté d’identifier la valeur ajoutée de l’intelligence artificielle lors d’un *hackathon*. Wikimediacommons

L’IA ne remplace pas la collaboration humaine. C’est un outil qui repose sur le bon timing. Utilisée trop tôt, elle court-circuite la réflexion. Utilisée au bon moment, elle fait gagner du temps. Alors où l’IA est-elle la plus utile dans un projet, de la phase de lancement à la phase de suivi ?


Certains et certaines d’entre nous sont passés par là. Il est 16 h un mardi. Le tableau blanc est couvert de gribouillis, mais la « grande idée » ne vient pas. Le silence règne dans la pièce. L’énergie s’est évaporée dans l’air. Puis, quelqu’un ouvre son ordinateur portable et tape un prompt dans ChatGPT.

L’écran se remplit instantanément de points et de mots. La tension retombe. L’équipe approuve d’un signe de tête : on dirait une stratégie. On dirait un plan d’action. On dirait un progrès.

Mais ce n’est pas le cas.

Une expérience menée par le Boston Consulting Group révèle que cette sensation de soulagement est un piège : les performances de 750 consultants utilisant l’IA ont été inférieures de 23 % à celles de leurs collègues qui n’utilisaient pas l’IA.

Ce n’est pas un cas isolé. Cette expérience est symptomatique d’une incompréhension plus large sur la manière d’utiliser l’intelligence artificielle au bon moment.

C’est pourquoi dans une étude récente impliquant 107 consultants d’une entreprise du classement états-unien Fortune 500, nous avons suivi les performances des équipes utilisant l’IA lors d’un hackathon. Ces dernières devaient élaborer un plan de projet (objectifs, étapes, ressources et délais du projet) pour le lancement d’une nouvelle solution numérique.

Les résultats remettent en question l’idée selon laquelle « il vaut mieux trop que pas assez ». Nous avons constaté que l’IA générative offre une valeur ajoutée pendant la phase d’exécution d’un projet. Cependant, durant la phase critique de lancement, elle offre une valeur négligeable, voire parfois négative.

Le piège de la « moyenne »

Pourquoi un outil fondé sur la somme des connaissances humaines échoue-t-il dès le départ ? La réponse est simple : l’IA excelle dans les schémas préétablis, mais elle est mauvaise pour naviguer dans le flou, ou ce que les sciences de gestion nomment l’ambiguïté.

Lancer un projet nécessite une « pensée divergente ». Vous devez explorer des idées folles et contradictoires pour trouver une proposition de valeur unique.

Nos données montrent que l’IA générative nuit aux performances dans cette phase précise. Cette idée correspond au « principe de pertinence » dans la recherche en management. Comme les grands modèles linguistiques en IA sont des moteurs probabilistes, ils ne peuvent logiquement traduire une discussion spontanée. Le « mot suivant » rédigée par une IA est tiré d’une moyenne statistique des mots probables liés au mot précédent, au lieu d’un mot précis et idoine.


À lire aussi : Pourquoi l’IA oblige les entreprises à repenser la valeur du travail


Si ces algorithmes permettent d’éviter les idées « désastreuses », ils tuent les idées « farfelues ». L’IA rehausse le niveau de qualité minimum d’un projet en nivelant par le bas le niveau de qualité maximum. Vous obtenez un concept soigné, robuste, mais tout à fait moyen.

Moteur du « comment »

Une fois que les humains ont défini le « pourquoi » et le « quoi », l’IA devient le moteur du « comment ».

Comme nous le soulignons dans notre recherche, l’utilisation de l’IA se révèle davantage pertinente pendant les phases de planification et d’exécution. La « planification » consiste à transformer les objectifs en calendriers. L’« exécution » consiste à rédiger les livrables, tels que le code ou les textes marketing.

Deux mécanismes sont à l’origine de cette augmentation des performances lors de ces deux phases précises :

Traducteur des expertises

Des recherches suggèrent que l’IA agit comme un traducteur dans une équipe, notamment pour les experts. Par exemple, elle aide un spécialiste du marketing à rédiger un dossier technique ou un développeur à rédiger un communiqué de presse. Par ricochet, l’IA réduit les coûts de coordination.

Tâches fastidieuses

L’IA se charge des tâches fastidieuses telles que la rédaction de codes standardisés ou de diapositives. Dès lors, les humains peuvent se consacrer à des tâches à forte valeur ajoutée.

Signalement du « patron numérique »

La dernière phase, celle du suivi, recèle un danger caché.

Les outils modernes d’IA peuvent analyser les échanges de courriels, afin de détecter les risques humains autour d’un projet, comme une baisse de moral ou un stress avant qu’une échéance ne soit dépassée.


À lire aussi : Et si votre prochain collègue était un agent IA ?


Une étude sur le marketing d’influence nous met en garde : lorsque les employés se sentent surveillés par des algorithmes, l’authenticité disparaît. Ils commencent à « manipuler les indicateurs », en travaillant pour satisfaire l’IA plutôt que pour atteindre l’objectif.

Si l’IA devient un « patron numérique », la sécurité psychologique s’érode. Les équipes cessent de signaler honnêtement les risques d’un projet pour éviter d’être eux-mêmes signalées par l’IA.

Une stratégie en fonction des étapes

Les dirigeants doivent cesser de considérer l’IA générative comme une solution universelle. Ils doivent plutôt adopter une stratégie en fonction des étapes d’un projet.

Au cours de la phase de lancement

Établissez des « zones réservées aux humains ». Obligez les équipes à définir le problème sans algorithmes.

Au cours de la phase d’exécution

Utilisez l’IA pour faire se comprendre les équipes, notamment les experts, et accélérer les tâches fastidieuses et ingrates.

Au cours de la phase de suivi

Utilisez l’IA pour donner de la visibilité à l’équipe, non pour l’espionner.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

23.02.2026 à 11:37

Managers, abandonner n’est pas une preuve d’échec. C’est une compétence !

Julia Milner, Professeure de leadership, EDHEC Business School
Changer les routines n’est pas aisé. Mais l’échec ne trahit pas forcément un manque de volonté. Plutôt un défaut de méthode.
Texte intégral (1674 mots)

Cette fois, c’est décidé, tout va changer. On est lundi ; c’est le bon moment pour vous y mettre. Las ! Déjà 11 h 30 et toutes les routines que vous ne vouliez plus voir sont à l’œuvre. C’est reparti pour un tour ! Ne vous accablez pas outre mesure. Ce n’est pas un problème de personne mais de méthode. Découvrez celles éprouvées par la recherche qui montrent que pour changer, il faut peut-être commencer par changer la manière de penser… puis celle de faire.


Tous les lundis matin (ou presque), de nombreux managers se font la même promesse : fini les réunions inutiles ! Place à une meilleure délégation des tâches pour avoir enfin une semaine plus calme. Et pourtant, arrivé à midi, les points se sont multipliés, Slack est en effervescence et la nouvelle manière de travailler tant espérée est déjà oubliée. S’ensuit une nouvelle résolution : « Je n’ai pas le temps aujourd’hui, je commencerai vraiment lundi prochain. »

Et le même scénario se reproduit semaine après semaine, entretenant l’idée que changer n’est pas possible. Pourtant rien n’est moins vrai. Si le changement échoue, c’est parce que l’on se trompe sur sa nature profonde et, par conséquent, sur les moyens à mettre en œuvre pour y arriver. Un changement durable ne commence pas par l’ajout de contraintes supplémentaires à celles existant mais par un véritable lâcher-prise.


À lire aussi : Managers, et si vous redécouvriez l’art de la débrouille ?


Quand la persévérance devient obstination

Or, cette nécessaire disposition d’esprit bute sur des croyances bien ancrées chez de nombreux managers. Les responsables d’équipe valorisent la persévérance. Cela fait partie de leur formation et de la culture de leur métier. Pourtant, la persévérance qui est une qualité – peut vite devenir un défaut, quand elle devient obstination, cette disposition d’esprit qui maintient quoi qu’il en coûte des routines inutiles : des réunions récurrentes dont personne n’a besoin, à la production de rapports lus par personne, en passant par des boucles d’approbation qui ralentissent les décisions. Elles restent en place parce que les abandonner reviendrait à admettre que les mettre en place était une erreur. Et pourtant c’est bien connu, errare humanun est, perseverare diabolicum.

Il est nécessaire dès lors de changer de point de vue, de mindset. Loin d’être un recul, abandonner peut être stratégique. Pour cela, il est nécessaire d’apprendre de ce que vous abandonnez, de savoir trier pour conserver ce qui a fonctionné et, surtout, de distinguer la persévérance de l’obstination.

Mieux gérer ou abandonner ?

Par exemple, faut-il maintenir ou supprimer la réunion hebdomadaire d’état d’avancement des différents projets, dont on ne sait plus par qui elle a été instituée et quel est son réel objet. Si elle est devenue contre-productive, ne perdez pas votre temps à essayer de « mieux la gérer ». Conservez la fonction (partage d’informations, déblocage des décisions) et abandonnez le rituel. Remplacez-la, par exemple, par une mise à jour asynchrone et réservez un court laps de temps qui sera consacré uniquement aux décisions. Cela ne signifie pas que vous en faites moins ; vous libérez du temps pour mettre en place de nouvelles habitudes qui amélioreront la qualité du travail de votre équipe.

La même logique s’applique aux désaccords ou à une dynamique d’équipe ralentie. Lorsque les comportements se répètent, changer les conditions fonctionne souvent plus rapidement que de répéter la même conversation : déplacez la discussion, changez le rythme, réorganisez les étapes, puis observez à quelle vitesse les « habitudes » de l’équipe changent.

Quitter l’illusion du perfectionnisme

Le travail n’est pas un environnement sous total contrôle. Les délais changent, les priorités sont en concurrence permanente et l’énergie fluctue. Dans cet environnement normal, les managers continuent paradoxalement d’attendre que le changement soit linéaire et de s’adonner à une forme de perfectionnisme qui n’est pas adapté à la situation.

La notion d’optimalisme, travaillée en particulier par Tal Ben-Shahar, serait plus adaptée. Dans cette perspective, je propose de gérer de front ce décalage : lorsque la réalité change, les habitudes doivent s’adapter.

Il est dès lors essentiel de « normaliser » le redémarrage, en visant ce qui est immédiatement réalisable et en réduisant le coût du retour en arrière. Cela signifie considérer les possibles retours en arrière comme faisant partie du processus plutôt que comme le signe, ou pire encore, comme la preuve, d’une incapacité. Un manager doit pouvoir indiquer à ses équipes qu’il teste un nouvelle façon de travailler provisoirement.

Cela est particulièrement vrai pour les routines d’équipe. Si elles échouent, c’est rarement parce que « les gens s’en moquent », comme on l’entend trop souvent. Elles échouent parce que la pression augmente et qu’un seul faux pas devient toute une histoire. La réponse est l’itération : prototyper, ajuster, demander des commentaires, et redémarrer au lieu d’attendre le moment parfait.

BFM Business 2021.

Comment conserver l’élan ?

Si abandonner redonne du temps ; recommencer permet de conserver son élan. La question qui reste alors est de savoir comment développer des habitudes qui résistent aux réalités du monde du travail : délais, interruptions, stress, enjeux politiques internes…

Trois catégories de leviers ont été identifiées par la recherche :

  • le pouvoir (Power) invite à structurer en commençant, si nécessaire, pas des petits pas, dans le cadre de priorités formalisées ;

  • l’action (Move) s’appuie sur la régularité, sur la continuité, mais aussi sur le support d’autrui, en cohérence avec sa propre dynamique ;

  • le changement (Shift) désigne l’état d’esprit « positif », puisqu’il s’agit de changer en y prenant plaisir, en conciliant détermination et souplesse avec soi-même.

Pour les managers, le message est clair : cessez de traiter les habitudes de travail comme des problèmes privés de discipline. Commencez à les considérer comme des problèmes de conception et de méthodologie individuelles au sein d’un collectif.

La question de la délégation montre pourquoi cela est si important. Un leader ou un manager peut vouloir déléguer, mais revenir au contrôle lorsque les enjeux augmentent. « Move » consiste alors ajouter un léger contrôle pour favoriser l’autonomie plutôt que la surveillance. « Shift » conduit à nommer l’émotion sous-jacente la rechute : derrière la mise en place de normes se trouve souvent une forme d’anxiété déguisée.

Le mirage de la sur motivation

Le manque de temps ou de moyens peut aussi faire dérailler la mise en place de routines ou d’habitudes positives en raison d’une trop grande pression. C’est le domaine des discours que vous avez déjà entendus, des prétextes du type « oui mais je n’ai pas le temps », « vouloir changer était une erreur et j’ai préféré abandonner » etc. L’antidote à ces situations n’est pas à aller chercher dans des discours de sur motivation, souvent creux, mais dans la mise en place de mécanismes efficaces.

Quand on veut changer une habitude, il ne faut pas avoir peur d’opérer des vérifications fréquentes, d’enregistrer les microvictoires visibles. Un changement d’habitudes ne se fait pas par magie, il demande de la méthode, de l’organisation autant que de la persévérance.

Dans l’ensemble, la méthode que je décris est simple et peut être résumée en trois suggestions :

  • arrêter avec intention,

  • savoir recommencer sans drame

  • et redessiner les routines pour les adapter au système dans lequel vous travaillez réellement.

Car la pression et le changement ne sont pas des exceptions. Ils sont devenus la norme des organisations.

The Conversation

Julia Milner ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

22.02.2026 à 08:20

La place méconnue des ingénieurs dans l’histoire du management

Matthieu Mandard, Maître de conférences en sciences de gestion, Université de Rennes 1 - Université de Rennes
Les ingénieurs sont indissociables de l’histoire du management. Quelle est leur place exacte ? Et comment l’expliquer ?
Texte intégral (1841 mots)
Le Français Henri Fayol (1841-1925), ingénieur des mines, occupe une place importante dans l’histoire du management. Il est pourtant peu connu du grand public. Wikimedia commons, CC BY

On sait que les ingénieurs sont tous formés au management, et que nombre d’entre eux en seront des praticiens au cours de leur carrière. Ce qui est nettement moins connu, en revanche, c’est que le management est né au dix-neuvième siècle de l’activité même des ingénieurs, et que des ingénieurs ont systématiquement été au nombre de ses principaux théoriciens.


Les ingénieurs, dont le diplôme est réglementé en France par la Commission des titres d’ingénieurs (CTI), mais dont l’usage du titre au plan professionnel est libre, sont des spécialistes de la conception et de la mise en œuvre de projets techniques. Ils se doivent donc par définition de maîtriser les principes de base du management. Mais à quel point le métier d’ingénieur est-il lié à cette discipline, consacrée à l’élaboration de théories et de pratiques relatives au pilotage des organisations ?

À rebours d’une idée saugrenue, mais pourtant actuellement populaire, selon laquelle le management devrait pour partie son origine au nazisme, il s’avère que c’est plutôt du côté des ingénieurs qu’il faut regarder. Car leur activité est en effet historiquement liée à l’essor du management, comme nous l’écrivions dans un article récent dont nous retraçons les conclusions ici.

Révolutions technologiques et management

Le management a de toute évidence toujours existé, puisque de la construction des pyramides aux débuts de la première révolution industrielle en Angleterre au milieu du XVIIIᵉ siècle, en passant par l’édification des cathédrales, la conduite de grands projets a de tout temps nécessité le pilotage de collectifs importants. Mais il s’agissait alors d’initiatives locales, répondant à des contextes techniques et sociaux particuliers, qui ne faisaient pas encore système. Il faut en fait attendre le milieu du XIXᵉ siècle, et la deuxième révolution industrielle, pour voir le management constitué en tant que corpus de réflexion de portée générale relatif aux modalités de conduite des organisations.

Si le management apparaît à cette époque aux États-Unis, c’est en raison de l’essor du chemin de fer entamé au tournant du XIXᵉ siècle, qui implique la mise en place de grandes entreprises destinées à en assurer le pilotage de manière efficace et dans des conditions de sécurité satisfaisantes. Ce modèle de la grande entreprise se diffusera par la suite dans d’autres industries, telles que celle de l’acier, et se substituera progressivement aux petites entreprises artisanales jusqu’alors majoritaires.


À lire aussi : Le management par objectifs n’est pas une invention nazie


À cette première révolution technologique en succède une seconde, amorcée au milieu du XIXᵉ siècle, qui résulte du développement du machinisme et de la hausse des rythmes de production associés. Elle donne elle aussi lieu à des changements dans les modes d’organisation des entreprises, puisque l’on assiste, à partir de 1890, à la naissance d’usines performantes dont le fonctionnement doit être rationalisé et planifié de manière à en tirer parti au maximum.

Vient ensuite la révolution des transports, soutenue par l’essor de l’automobile et par le déploiement d’infrastructures routières. Celle-ci entraîne, au milieu du XXᵉ siècle, l’extension géographique des opérations des entreprises et l’élargissement de leurs périmètres d’activité afin de satisfaire de nouveaux marchés, et l’apparition de l’entreprise qualifiée de multi-divisionnelle.

Enfin, la quatrième révolution technologique habituellement retenue apparaît après la Seconde guerre mondiale, avec l’essor de l’informatique et des télécommunications. Celle-ci renforce la tendance à la dispersion géographique des entreprises déjà amorcée précédemment, et donne lieu à partir des années 1990 à un modèle de management de référence qualifié d’organisation en réseau.

Au total, ce que montrent les observations, et notamment les travaux récents de Bodrožić et d’Adler, c’est que les révolutions dans les modes et les méthodes de gestion des organisations ont systématiquement été la résultante de révolutions technologiques, qui furent elles-mêmes le fruit des activités d’ingénieurs.

Ingénieurs et théorisation du management

Les changements dans le fonctionnement des entreprises induits par ces révolutions technologiques ont nécessité l’élaboration de nouveaux modèles de management, entendus comme des préceptes quant à la meilleure manière de piloter les activités des organisations. Et ici encore, il s’avère que des ingénieurs ont toujours fait partie des principaux théoriciens de ces modèles.

L’essor des grandes entreprises du secteur des chemins de fer au XIXᵉ siècle est ainsi accompagné par les réflexions d’ingénieurs de ce secteur, Benjamin H. Latrobe, Daniel C. McCallum, et J. Edgar Thomson, qui mettent au point ce qui est alors appelé les structures hiérarchico-fonctionnelles. Face aux conditions de travail particulièrement rudes induites par ce modèle, des programmes de réformes sociales sont ensuite développés par des auteurs tels que l’ingénieur George Pullman, fondateur de la compagnie de wagons-lits du même nom.

Le fonctionnement des usines performantes qui apparaissent ensuite est quant à lui rationalisé par des auteurs bien connus, dont on oublie parfois qu’ils étaient tous trois des ingénieurs : le Français Henri Fayol, et les États-Uniens Henry Ford et Frederick Taylor. Ici encore, la rudesse des conditions de travail engendrées par la mise en place d’un management scientifique, ou du travail à la chaîne, amène à des réflexions, quant à la manière de restaurer un climat social dégradé, en partie conduites par un ingénieur du nom de George Pennock, tombé dans l’oubli.

Et les pratiques managériales induites par les deux révolutions technologiques les plus récentes sont à l’avenant. L’entreprise multidécisionnelle fut en bonne partie théorisée par un ancien président de General Motors, l’ingénieur Alfred Sloan, et les problématiques de qualité qu’elle engendra furent largement examinées par un ingénieur de Toyota du nom de Taiichi Ohno. Quant au modèle de l’organisation en réseau, il fut notamment pensé et amendé par des ingénieurs spécialistes des systèmes d’information, tels que Michael Hammer et James Champy, ou par un ingénieur de Hewlett-Packard, Charles Sieloff.

Comment expliquer cette importance historique des ingénieurs en matière de théorisation du management ? Ceci tient à deux raisons pratiques. Leur proximité avec les évolutions technologiques de leur époque les amène à identifier précocement les problèmes managériaux que ces changements soulèvent, et les rend aussi mieux à même de résoudre.

Arts et métiers, Alumni 2020.

Ingénieur et management, un lien à cultiver

Ainsi, le métier d’ingénieur a toujours eu partie liée au management. On ne sera donc pas surpris d’apprendre que, en Europe, l’enseignement du management a d’abord été dispensé en école d’ingénieurs au milieu du XIXe siècle, avant d’être confié aux écoles de commerce au tournant du XXe siècle. Et c’est ce qui explique également que deux des plus prestigieuses écoles d’ingénieurs françaises, l’École des mines de Paris et l’École polytechnique, disposent chacune d’un laboratoire de recherche dédié aux sciences de gestion et du management (respectivement, le Centre de gestion scientifique et le Centre de recherche en gestion), ou que des spécialistes du management interviennent plus généralement dans toutes les écoles d’ingénieurs.

En raison des défis technologiques qui s’annoncent (robotisation, essor de l’IA, sobriété énergétique), il s’avère que ce lien ingénieurs/management doit être affirmé et cultivé. Car ces évolutions s’accompagneront nécessairement de changements organisationnels qu’il sera nécessaire de penser si nous ne voulons pas les subir.

The Conversation

Matthieu Mandard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

22.02.2026 à 08:17

What is ‘Edge AI’? What does it do and what can be gained from this alternative to cloud computing?

Georgios Bouloukakis, Assistant Professor, University of Patras; Institut Mines-Télécom (IMT)
Does cloud-free AI have the cutting-edge over data processing and storage on centralised, remote servers by providers like Google Cloud? Is AI-powered edge computing safer? More trusted?
Texte intégral (1949 mots)

“Edge computing”, which was initially developed to make big data processing faster and more secure, has now been combined with AI to offer a cloud-free solution. Everyday connected appliances from dishwashers to cars or smartphones are examples of how this real-time data processing technology operates by letting machine learning models run directly on built-in sensors, cameras, or embedded systems.

Homes, offices, farms, hospitals and transportation systems are increasingly embedded with sensors, creating significant opportunities to enhance public safety and quality of life.

Indeed, connected devices, also called the Internet of Things (IoT), include temperature and air quality sensors to improve indoor comfort, wearable sensors to monitor patient health, LiDAR and radar to support traffic management, and cameras or smoke detectors to enable rapid-fire detection and emergency response.

These devices generate vast volumes of data that can be used to ‘learn’ patterns from their operating environment and improve application performance through AI-driven insights.

For example, connectivity data from wi-fi access points or Bluetooth beacons deployed in large buildings can be analysed using AI algorithms to identify occupancy and movement patterns across different periods of the year and event types, depending on the building type (e.g. office, hospital, or university). These patterns can then be leveraged for multiple purposes such as HVAC optimisation, evacuation planning, and more.

Combining the Internet of things and artificial intelligence comes with technical challenges

Artificial Intelligence of Things (AIoT) combines AI with IoT infrastructure to enable intelligent decision-making, automation, and optimisation across interconnected systems. AIoT systems rely on large-scale, real-world data to enhance accuracy and robustness of their predictions.

To support inference (that is, insights from collected IoT data) and decision-making, IoT data must be effectively collected, processed, and managed. For example, occupancy data can be processed to infer peak usage times in a building or predict future energy needs. This is typically achieved by leveraging cloud-based platforms like Amazon Web Services, Google Cloud Platform, etc. which host computationally intensive AI models – including the recently introduced Foundation Models.

What are Foundation Models?

  • Foundation Models are a type of Machine Learning model trained on broad data and designed to be adaptable to various downstream tasks. They encompass, but are not limited to, Large Language Models (LLMs), which primarily process textual data, but can also operate on other modalities, such as images, audio, video, and time series data.
  • In generative AI, Foundation Models serve as the base for generating content such as text, images, audio, or code.
  • Unlike conventional AI systems that rely heavily on task-specific datasets and extensive preprocessing, FMs introduce zero-shot and few-shot capabilities, allowing them to adapt to new tasks and domains with minimal customisation.
  • Although FMs are still in the early stages, they have the potential to unlock immense value for businesses across sectors. Therefore, the rise of FMs marks a paradigm shift in applied artificial intelligence.

The limits of cloud computing on IoT data

While hosting heavyweight AI or FM-based systems on cloud platforms offers the advantage of abundant computational resources, it also introduces several limitations. In particular, transmitting large volumes of IoT data to the cloud can significantly increase response times for AIoT applications, often with delays ranging from hundreds of milliseconds to several seconds, depending on network conditions and data volume.

Moreover, offloading data – particularly sensitive or confidential information – to the cloud raises privacy concerns and limits opportunities for local processing near data sources and end users.

For example, in a smart home, data from smart meters or lighting controls can reveal occupancy patterns or enable indoor localisation (for example, detecting that Helen is usually in the kitchen at 8:30 a.m. preparing breakfast). Such insights are best derived close to the data source to minimise delays from edge-to-cloud communication and reduce exposure of private information on third-party cloud platforms.


À lire aussi : Cloud-based computing: routes toward secure storage and affordable computation


What is edge computing and edge AI?

To reduce latency and enhance data privacy, Edge computing is a good option as it provides computational resources (i.e. devices with memory and processing capabilities) closer to IoT devices and end users, typically within the same building, on local gateways, or at nearby micro data centres.

However, these edge resources are significantly more limited in processing power, memory, and storage compared to centralised cloud platforms, which pose challenges for deploying complex AI models.

To address this, the emerging field of Edge AI – particularly active in Europe – investigates methods for efficiently running AI workloads at the edge.

One such method is Split Computing, which partitions deep learning models across multiple edge nodes within the same space (a building, for instance), or even across different neighbourhoods or cities. Deploying these models in distributed environments is non-trivial and requires sophisticated techniques. The complexity increases further with the integration of Foundation Models, making the design and execution of split computing strategies even more challenging.

What does it change in terms of energy consumption, privacy, and speed?

Edge computing significantly improves response times by processing data closer to end users, eliminating the need to transmit information to distant cloud data centres. Beyond performance, edge computing also enhances privacy, especially with the advent of Edge AI techniques.

For instance, Federated Learning enables Machine Learning model training directly on local Edge (or possibly novel IoT) devices with processing capabilities, ensuring that raw data remain on-device while only model updates are transmitted to Edge or cloud platforms for aggregation and final training.

Privacy is further preserved during inference: once trained, AI models can be deployed at the Edge, allowing data to be processed locally without exposure to cloud infrastructure.

This is particularly valuable for industries and SMEs aiming to leverage Large Language Models within their own infrastructure. Large Language Models can be used to answer queries related to system capabilities, monitoring, or task prediction where data confidentiality is essential. For example, queries can be related to the operational status of industrial machinery such as predicting maintenance needs based on sensor data where protecting sensitive or usage data is essential.

In such cases, keeping both queries and responses internal to the organisation safeguards sensitive information and aligns with privacy and compliance requirements.

How does it work?

Unlike mature cloud platforms, such as Amazon Web Services and Google Cloud, there are currently no well-established platforms to support large-scale deployment of applications and services at the Edge.

However, telecom providers are beginning to leverage existing local resources at antenna sites to offer compute capabilities closer to end users. Managing these Edge resources remains challenging due to their variability and heterogeneity – often involving many low-capacity servers and devices.

In my view, maintenance complexity is a key barrier to deploying Edge AI services. At the same time, advances in Edge AI present promising opportunities to enhance the utilisation and management of these distributed resources.

Allocating resources across the IoT-Edge-Cloud continuum for safe and efficient AIoT applications

To enable trustworthy and efficient deployment of AIoT systems in smart spaces such as homes, offices, industries, and hospitals; our research group, in collaboration with partners across Europe, is developing an AI-driven framework within the Horizon Europe project PANDORA.

PANDORA provides AI models as a Service (AIaaS) tailored to end-user requirements (e.g. latency, accuracy, energy consumption). These models can be trained either at design time or at runtime using data collected from IoT devices deployed in smart spaces. In addition, PANDORA offers Computing resources as a Service (CaaS) across the IoT–Edge–Cloud continuum to support AI model deployment. The framework manages the complete AI model lifecycle, ensuring continuous, robust, and intent-driven operation of AIoT applications for end users.

At runtime, AIoT applications are dynamically deployed across the IoT–Edge–Cloud continuum, guided by performance metrics such as energy efficiency, latency, and computational capacity. CaaS intelligently allocates workloads to resources at the most suitable layer (IoT-Edge-Cloud), maximising resource utilisation. Models are selected based on domain-specific intent requirements (e.g. minimising energy consumption or reducing inference time) and continuously monitored and updated to maintain optimal performance.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

This work has received funding from the European Union’s Horizon Europe research and innovation actions under grant agreement No. 101135775 (PANDORA) with a total budget of approximately €9 million and brings together 25 partners from multiple European countries, including IISC and UOFT from India and Canada.

21.02.2026 à 16:29

La Stratégie de sécurité nationale des États-Unis : 2022 contre 2025, continuités et ruptures

Olivier Sueur, Enseigne la compétition stratégique mondiale et les enjeux transatlantiques, Sciences Po
Une comparaison entre les stratégies de sécurité de Biden (2022) et de Trump (2025) met en évidence des points communs plus nombreux qu’on le croit, mais aussi une distinction fondamentale.
Texte intégral (1502 mots)

Aux États-Unis, chaque président a l’obligation de publier une Stratégie de sécurité nationale (National Security Strategy, NSS). Celle que l’administration Trump a rendue publique en novembre 2025 – un texte ouvertement partisan et centré sur les intérêts de Washington conformément à la doctrine « America First » – a heurté de front de nombreux responsables européens, qui se remémorent avec une certaine nostalgie l’époque de Joe Biden. Or, la comparaison de la NSS « Made in Trump » avec celle de l’administration Biden montre qu’il existe entre les deux documents plus de continuité qu’on le croit, même si une distinction majeure apparaît sur la question de l’idéologie sous-jacente.


La Stratégie de sécurité nationale des États-Unis publiée en novembre 2025 par l’administration Trump a déjà fait couler beaucoup d’encre, allant jusqu’à parler à propos de la relation à l’Europe d’un « divorce consommé, en attendant la séparation des biens ». Or, sa version précédente, publiée en octobre 2022 par l’administration Biden, constituait déjà une rupture sur bien des points : l’article que j’y avais consacré en janvier 2023 s’intitulait « Prendre acte de la fin d’un monde ».

Naturellement, le ton joue beaucoup : le document de l’administration de Joe Biden – « le bon » – était bien plus lissé et, soyons francs, plus aimable que celui de l’administration de Donald Trump – « la brute ». Néanmoins, si l’on cherche à dépasser la forme et à analyser le fond, ruptures et continuités s’affichent sous des couleurs nettement plus nuancées.

Des visions géopolitiques en réalité très proches

Les deux présidents démocrate et républicain, avec leurs administrations, font preuve d’une très grande continuité quant à, d’une part, la fin de la mondialisation économique et du libre-échange et, d’autre part, la priorisation des intérêts états-uniens à l’échelle mondiale.

La NSS 2022 était porteuse d’une virulente charge à l’encontre du bilan de la mondialisation des échanges économiques des trente dernières années et en tirait les conséquences : selon Jake Sullivan, conseiller à la Sécurité nationale de Joe Biden tout au long du mandat de celui-ci, « l’accès au marché a été pendant trente ans l’orthodoxie de toute politique commerciale : cela ne correspond plus aux enjeux actuels ».

L’enjeu clé est à présent la sécurité des chaînes d’approvisionnement, qui implique pour un certain nombre de produits stratégiques un découplage entre la Chine et les États-Unis : la sécurité économique redevient partie intégrante de la sécurité nationale.

Sur le plan domestique, le message était le grand retour de l’État dans l’économie avec la promotion d’« une stratégie industrielle et d’innovation moderne », la valorisation des investissements publics stratégiques et l’utilisation de la commande publique sur les marchés critiques afin de préserver la primauté technologique. La NSS 2025 ne dit pas autre chose en soulignant que « la sécurité économique est fondamentale pour la sécurité nationale » et reprend chaque sous-thème. La continuité est ici parfaite.

La priorisation géographique entre les deux NSS est également remarquable de continuité : 1) affirmation de la primauté de l’Indopacifique sur l’Europe ; 2) importance accordée aux Amériques, passées de la dernière place d’intérêt en 2015, derrière l’Afrique, à la troisième en 2022 et à la première en 2025.

Le premier point implique une concentration des efforts de Washington sur la Chine, et donc que le continent européen fasse enfin l’effort de prendre en charge sa propre sécurité afin de rétablir un équilibre stratégique vis-à-vis de la Russie. Le deuxième point se manifeste dans la NSS 2022 par la remontée des Amériques à la troisième place, devant le Moyen-Orient, et dans la NSS 2025 l’affirmation d’un « corollaire Trump à la doctrine Monroe », consistant à dénier à des compétiteurs extérieurs aux Amériques la possibilité d’y positionner des forces ou des capacités ou bien d’y contrôler des actifs critiques (tels que des ports sur le canal de Panama).

Dissensions idéologiques

Les deux présidents divergent sur deux points de clivage idéologique, à savoir la conception de la démocratie et le système international, y compris les questions climatiques.

La NSS 2022 avait réaffirmé le soutien sans ambiguïté des États-Unis à la démocratie et aux droits humains de par le monde, en introduisant néanmoins une nuance dans leurs relations internationales : sur le fondement du vote par 141 États de la résolution de l’ONU condamnant l’agression russe de l’Ukraine en mars 2022, l’administration Biden se montrait ouverte au partenariat avec tout État soutenant un ordre international fondé sur des règles telles que définies dans la Charte des Nations unies, sans préjuger de son régime politique.

La NSS 2025, au contraire, ne revendique rien de semblable : elle affirme avec force qu’elle se concentre sur les seuls intérêts nationaux essentiels des États-Unis (« America First »), proclame une « prédisposition au non-interventionnisme » et revendique un « réalisme adaptatif » (« Flexible Realism ») fondé sur l’absence de changement de régime politique, preuve en étant donnée avec le Venezuela, où le système chaviste n’a pas été renversé après l’enlèvement par les États-Unis de Nicolas Maduro.

De plus, la NSS 2025 redéfinit la compréhension même de la notion de démocratie autour d’une conception civilisationnelle aux contours très américains (liberté d’expression à la « sauce US », liberté religieuse et de conscience).

Second point de divergence : la NSS 2022 avait réaffirmé l’attachement de Washington au système des Nations unies, citées à huit reprises, et faisait de l’Union européenne (UE) un partenaire de choix dans un cadre bilatéral UE-États-Unis. C’est l’exact inverse dans la NSS 2025 : non seulement les Nations unies ne sont pas mentionnées une seule fois, mais les organisations internationales sont dénoncées comme érodant la souveraineté américaine.

En revanche, la primauté des nations est mise en exergue, et présentée comme antagoniste aux organisations transnationales. De plus, la notion d’allié est redéfinie à l’aune de l’adhésion aux principes démocratiques tels qu’exposés plsu haut. Cette évolution s’exprime plus particulièrement à l’égard de l’Europe.

La NSS 2025 et l’Europe

La partie de la NSS 2025 consacrée à l’Europe a été vivement critiquée dans les médias du Vieux Continent pour sa tonalité méprisante ; or le sujet n’est pas là. En effet, l’administration Trump opère une distinction fondamentale entre, d’une part, des nations qu’il convient de discriminer selon leur alignement avec la vision américaine de la démocratie et, d’autre part, l’UE, qu’il convient de détruire car elle constitue un contre-pouvoir nuisible. En d’autres termes, elle ne s’en prend pas à l’Europe en tant qu’entité géographique, mais à l’Union européenne en tant qu’organisation supranationale, les États-Unis se réservant ensuite le droit de juger de la qualité de la relation à établir avec chaque gouvernement européen en fonction de sa trajectoire idéologique propre.

La NSS 2025 exprime donc un solide consensus bipartisan sur les enjeux stratégiques auxquels sont confrontés les États-Unis et les réponses opérationnelles à y apporter, s’inscrivant ainsi dans la continuité du texte publié par l’administration Biden en 2022. Mais elle souligne aussi une divergence fondamentale sur les valeurs à mobiliser pour y faire face. C’est précisément ce que le secrétaire d’État Marco Rubio a rappelé dans son intervention lors de la conférence de Munich du 14 février 2026.

The Conversation

Olivier Sueur est chercheur associé au sein de l'Institut d'études de géopolitique appliquée (IEGA).

21.02.2026 à 16:28

Salon de l’agriculture : les Amap redonnent le pouvoir aux agriculteurs et agricultrices

Pascale Bueno Merino, Directrice de la Recherche, Enseignant-Chercheur en Management Stratégique, Pôle Léonard de Vinci
Hamdi Hamza, Docteur en sciences de gestion, Université Le Havre Normandie
Samuel Grandval, Professeur des Universités en sciences de gestion, Université Le Havre Normandie
Sonia Aissaoui, Maître de Conférences en Sciences de Gestion, Université de Caen Normandie
Une étude souligne les bénéfices d’une association pour le maintien d’une agriculture paysanne, ou Amap, pour le producteur agricole et les consommateurs – souvent citadins.
Texte intégral (1736 mots)
Des bénévoles de l’Amap Goutte d’Or-La Chapelle (Paris, XVIII<sup>e</sup>) travaillent au champ, avant de consommer les fruits (et surtout les légumes) de leur labeur. Wikimedia commons

À l’occasion du Salon international de l’agriculture de Paris, une étude met en lumière le double bénéfice des associations pour le maintien d’une agriculture paysanne, dites Amap : renforcer l’autonomie des agriculteurs et permettre aux bénévoles d’être des entrepreneurs… collectivement.


L’importance des échanges citoyens pour mettre en œuvre une agriculture durable est au cœur du programme de conférences du Salon international de l’agriculture. Les interrogations sur le « comment mieux manger ? » ou sur le « comment produire autrement ? » continuent de retenir l’attention.

Une des solutions à ces questionnements : l’entrepreneuriat collectif à travers les associations pour le maintien d’une agriculture paysanne (Amap). La finalité de l’Amap est la distribution hebdomadaire de paniers de produits agricoles frais, sous réserve d’un pré-paiement de la production par les membres adhérents. La coopération amapienne se matérialise par un engagement contractualisé de consommateurs bénévoles dans l’activité de production et de vente directe de produits alimentaires locaux. Elle repose sur le désir des membres d’interagir et de servir leur collectif.

En 2022, 375 Amap sont recensées rien qu’en Île-de-France, soit plus de 21 000 familles de bénévoles en partenariat avec environ 400 fermes.

Nos derniers résultats de recherche, issus d’entretiens, soulignent que cette collaboration augmente la capacité d’action et d’autonomisation de l’entrepreneur agricole. Elle confère au producteur agricole une aptitude à être maître de ses choix telle que définie dans la Charte initiale des Amap instaurée en 2003, puis révisée en 2024. Les Amap font émerger un environnement « capacitant » – qui permet la création ou le développement de capacités –, fondé sur la mise en place d’une communauté et l’apport de ressources et compétences externes.

Quatre principes de l’Amap

  • Les modalités de distribution, ainsi que les prix, sont fixés conjointement entre l’entrepreneur agricole et les adhérents ;

  • Le pré-paiement des paniers par les adhérents permet à l’entrepreneur agricole d’anticiper les quantités à distribuer et de sécuriser son revenu, notamment en cas d’insuffisance de la production ;

  • Les consommateurs amapiens participent à la vie de l’exploitation (distribution des paniers, centralisation de l’information, aide apportée à l’agriculteur sur son exploitation, etc.) ;

  • En contrepartie, l’agriculteur s’engage à produire des aliments selon des méthodes respectueuses de l’agro-écologie et à participer à la gestion de l’Amap.

Ces principes sont rédigés dans la charte des Amap.

Carte des Amap en France. Réseau Amap

Co-production, co-gestion et réciprocité apprenante

La participation bénévole des consommateurs amapiens aux activités des agriculteurs, entrepreneurs, engendre une relation de travail atypique. Celle-ci repose non pas sur une relation salariée avec lien de subordination, mais sur une relation horizontale basée sur un système de co-production, de co-gestion et de réciprocité apprenante.

Ces principes sont illustrés par des témoignages de membres adhérents d’Amap :

  • Sur le principe de co-production :

« Avec Marianne (la productrice), il y avait le chantier patates en septembre et puis elle avait demandé aussi pour planter des haies », témoigne une présidente d’Amap interviewée.

  • Sur le principe de co-gestion de l’Amap :

« On a une assemblée générale par an de l’Amap […] pour remettre à plat, voir si on change les prix des paniers, voir s’il y a des gens qui ont des choses à dire, qui ont des choses à mettre au point », rappelle un consommateur adhérent interrogé.

  • Sur le principe de réciprocité apprenante :

Ce dernier se matérialise par l’identification pour l’entrepreneur agricole des besoins des consommateurs d’une part, et la sensibilisation des consommateurs aux pratiques et difficultés de l’exploitant agricole d’autre part.

« Il y a Alain, le maraîcher, il est toujours là. Il nous présente son activité, il fait un retour sur ce qui s’est bien passé, ce qui s’est moins bien passé l’année passée, ce qu’il prévoit des fois comme nouvelle culture et répond aux questions. » (Président d’Amap.)


À lire aussi : L’Île-de-France pourrait-elle être autonome sur le plan alimentaire ?


En résumé, les consommateurs bénévoles deviennent acteurs du fonctionnement de l’Amap en tant que membres volontaires indépendants. Rappelons que les actes de volontariat s’exercent, selon le chercheur Léon Lemercier :

  • en toute liberté (c’est un choix personnel) ;
  • dans une structure ;
  • pour autrui ou la collectivité ;
  • gratuitement ;
  • sans contrainte ;
  • pour exécuter des tâches.

Militantisme et entrepreneuriat

La coopération amapienne permet d’entreprendre ensemble en partageant les risques financiers liés aux aléas de la production agricole. Elle fait émerger des liens de solidarité au sein d’un territoire et co-crée de la valeur sociale, comme l’explicite précisément un président d’Amap :

« Au-delà de la distribution des paniers, c’est aussi un engagement citoyen. C’est-à-dire qu’on veut aussi développer le mouvement des Amap. On est militant. »

Cette approche entrepreneuriale et altruiste de la relation de travail atypique renouvelle la littérature académique dédiée à son analyse, comme celle de la situation de vulnérabilité du travailleur – emploi temporaire, travail à temps partiel, relation de travail déguisée, etc.

Cette relation de travail non salarié s’inscrit dans le cadre d’un projet entrepreneurial collectif, caractérisé par l’union de compétences complémentaires au sein de l’Amap. Dans ce cas précis, l’agrégation de multiples contributions bénévoles, bien que temporaires et à temps partiel, peut concourir au développement d’une exploitation agricole.

Les bénévoles apportent des ressources spécifiques liées à leur propre parcours de vie : compétences professionnelles, disponibilité temporelle, ou encore expérience organisationnelle qui structurent les Amap.

« Je dirais que le problème de la gestion, on l’a résolu avec nos outils, c’est-à-dire qu’on a eu la chance pendant quelques années d’avoir pas mal de développeurs informatiques dans nos adhérents », déclare un président d’Amap interrogé.

La relation de travail amapienne se situe par conséquent entre bénévolat et professionnalisation puisque les consommateurs vont soutenir l’entrepreneur agricole de l’amont à l’aval de la chaîne de valeur de son activité : de fonctions principales (production, marketing, logistique et distribution) à des fonctions support (ressources humaines, système d’information et administration).

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

21.02.2026 à 09:17

Élevage d’insectes : s’inspirer des autres filières animales pour produire à grande échelle de façon durable

Caroline Wybraniec, Chercheuse post-doctorale, Université de Tours
Bertrand Méda, Ingénieur de Recherche, Inrae
Christophe Bressac, Chercheur, Université de Tours
Elisabeth Herniou, Directrice de Recherhce, Centre national de la recherche scientifique (CNRS); Université de Tours
Matthis Gouin, Doctorant en biologie et virologie, Université de Tours
Les débouchés de l’entomoculture sont nombreux : alimentation animale par exemple, mais aussi auxiliaires de contrôle biologique des cultures. Mais la filière doit mieux se structurer.
Texte intégral (3201 mots)

L’entomoculture est souvent présentée comme une alternative prometteuse face aux défis et aux limites des modes de production agricoles et alimentaires traditionnels. Quels enjeux cette filière émergente va-t-elle devoir relever pour continuer à se développer ? Il paraît crucial de s’inspirer de l’élevage traditionnel – qui s’appuie notamment sur des normes précises.


La start-up Ÿnsect a fait les gros titres de la presse ces dernières semaines suite à sa faillite. Certains dénoncent un « fiasco » ou interrogent sur la durabilité de l’élevage d’insectes à large échelle.

La critique est aisée, l’art est difficile. L’échec d’une initiative ne doit pas conduire à abandonner cette nouvelle façon de produire, en France, des ressources de grande qualité. Innovafeed, par exemple, redonne espoir à toute la filière grâce à ses récents succès commerciaux. Des entreprises comme Koppert et Biobest commercialisent également depuis des années des insectes auxiliaires pour la protection des cultures et la pollinisation.

Pour rappel, l’entomoculture consiste à élever des insectes en milieu contrôlé pour produire des protéines (alimentation animale ou humaine), des sous-produits (soie, colorants naturels, engrais) ou des insectes vivants (pour le biocontrôle en agriculture). Sur le plan environnemental, certains insectes peuvent également participer à l’économie circulaire. En effet, ils permettent de valoriser des coproduits de l’industrie agroalimentaire ou des déchets organiques. En agriculture, la protection des cultures par les insectes auxiliaires permet dans certains cas de remplacer les pesticides chimiques. En cela, elle s’inscrit dans les stratégies de lutte biologique encouragées par les politiques publiques.

Soutenue par la FAO depuis 2013 pour répondre aux enjeux de sécurité alimentaire et de résilience climatique, la filière est présentée comme une alternative à des modes de production alimentaires qui atteignent leurs limites face aux changements climatiques et à l’épuisement des ressources. Dans les faits toutefois, son développement fait encore face à des défis majeurs.

Des protéines pour l’alimentation animale

La consommation directe d’insectes par les Occidentaux reste limitée en raison de préjugés. En revanche, selon l’ADEME, plus de 70 % des Français accepteraient les protéines d’insectes dans l’alimentation animale, en remplacement des farines de poisson ou des tourteaux de soja massivement importés.

Bien que 2 000 espèces d’insectes soient comestibles dans le monde, l’UE n’en autorise qu’un nombre restreint : huit pour l’alimentation animale (ténébrion meunier, mouche soldat noire, grillons) et quatre pour l’alimentation humaine (criquet migrateur, ténébrion meunier, ténébrion de la litière, grillon domestique).

La France, qui figure parmi les leaders européens de ce secteur, mise sur les débouchés de production de protéines et de lutte biologique. Malgré des difficultés financières récentes, la filière conserve un fort potentiel.

gros plan sur une larve d’insecte
La larve de la mouche soldat noire, insecte utilisé pour l’alimentation animale. Matthis Gouin, Fourni par l'auteur

Dans le cadre d’un atelier sur le sujet mené à Orléans en septembre 2025, nous avons identifié trois défis techniques majeurs. Structurer cette filière émergente nécessite :

  • la maîtrise des cycles biologiques,

  • la garantie de la sécurité sanitaire

  • et le contrôle de la qualité nutritionnelle.

Maîtriser les cycles biologiques

Un élevage à large échelle exige une connaissance fine de la biologie des insectes (physiologie, comportements, pathologies) et un contrôle strict des paramètres environnementaux (humidité, température, etc.). Par exemple, l’humidité influence la masse des larves de vers de farine. Les professionnels doivent donc instaurer des seuils d’alerte pour détecter les dysfonctionnements, tout en adaptant l’automatisation des procédés d’élevage aux spécificités de chaque espèce.

Comme pour tous les animaux de rente, la maîtrise du cycle biologique des insectes est essentielle pour la durabilité des élevages. Or, dans le cas de l’entomoculture, les professionnels ne maîtrisent pas encore bien leur production : la diversité des espèces, la sélection génétique débutante et la variabilité des substrats d’élevage compliquent à ce stade l’optimisation des paramètres d’élevage.

Pour l’instant, l’objectif n’est pas d’accélérer la croissance (comme cela peut l’être pour d’autres types d’élevage), mais au contraire de pouvoir la freiner en agissant sur des facteurs biologiques et environnementaux. L’enjeu est de mieux piloter les étapes suivantes de la production, comme la transformation, le stockage et le transport. C’est d’autant plus important pour ceux qui vendent des insectes vivants, comme les auxiliaires de lutte biologique contre les parasites et prédateurs.

gros plan sur un insecte vert posé sur des fleurs blanches
La chrysope, un insecte utilisé comme auxiliaire de culture. Matthis Gouin, Fourni par l'auteur

Le contexte local (température, humidité, ressources) ajoute une couche de complexité, qui rend l’expertise humaine indispensable. Il faut combiner observation directe, expérience de terrain et adaptabilité. Afin de comparer les pratiques et identifier les facteurs de réussite, le recours à des indicateurs standardisés est nécessaire. Pour les mettre en place, la filière peut s’inspirer des référentiels techniques des élevages traditionnels, comme ceux de la filière porcine (GTTT, GTE), ou des bases de données collaboratives, comme le SYSAAF pour les filières avicoles et aquacoles.

Biosécurité : des enjeux sanitaires spécifiques

Comme pour les élevages traditionnels, l’entomoculture exige par ailleurs un haut niveau de sécurité sanitaire, adapté à la destination des produits : alimentation animale et humaine, ou auxiliaires de culture.

Pour garantir ces exigences, les entreprises doivent compartimenter leurs unités, prévoir des vides sanitaires et des protocoles stricts (gestion des contaminations, éradication des nuisibles, nettoyage). La surveillance des substrats et des supports d’élevage est cruciale, surtout s’ils sont stockés longtemps.

Les producteurs utilisent à cette fin des indicateurs (taux de mortalité, rendement en biomasse, durée des cycles) pour détecter les anomalies. Leurs causes peuvent être multiples : insectes compétiteurs, vecteurs de pathogènes, ou pathogènes cryptiques (c’est-à-dire, dont les signes d’infection ne sont pas immédiatement visibles).

À ce stade toutefois, la connaissance de ces menaces reste limitée : les données sur les virus infectant la mouche soldat noire, par exemple, sont récentes. Pour accompagner l’essor de cette filière, il serait judicieux qu’une nouvelle branche de médecine vétérinaire spécialisée dans les insectes voie le jour. La collaboration avec les laboratoires de recherche en biologie des insectes reste également indispensable pour développer protocoles et procédures de biosécurité sans tomber dans une asepsie totale, qui serait contre-productive : le microbiote des insectes est essentiel à leur croissance et leur fertilité), en d’autres termes à leur santé.

gros plan sur un insecte noir
Mouche soldat noire au stade adulte. Matthis Gouin, Fourni par l'auteur

La stimulation du système immunitaire des insectes, principalement innée, peut passer par une « vaccination naturelle », à travers l’exposition à de faibles doses de pathogènes. Cette approche, testée chez l’abeille contre la loque américaine, pourrait être étendue. Une autre piste est la récolte précoce en cas d’infection naissante, pour limiter les pertes.

Cette stratégie nécessite toutefois un arbitrage entre rendement optimal et gestion du risque sanitaire. Le cadre réglementaire actuel est inadapté : les élevages d’insectes ne sont pas couverts par la législation européenne sur la santé animale, et aucune obligation ne contraint à déclarer les pathogènes aux autorités sanitaires. Intégrer l’entomoculture au cadre réglementaire européen existant, tout en adaptant les normes à l’échelle et au budget des producteurs, semble donc indispensable.

Des normes de contrôle qualité à adapter

Se pose enfin la question de la composition nutritionnelle des produits, qui dépend directement de l’alimentation des insectes.

Un substrat riche en acides gras insaturés, par exemple, enrichira les produits finaux en ces mêmes nutriments. Toutefois, cette donnée reste à nuancer selon les espèces et les autres paramètres de production. Les substrats sélectionnés doivent donc correspondre aux critères et aux marchés visés mais également aux comportements alimentaires des espèces élevées et être optimisés pour fournir un rendement optimal. Pour les auxiliaires, un insecte de bonne qualité montre des signes visibles de vitalité et d’adaptabilité aux conditions d’application (culture, serre, verger…).

D’autres paramètres influencent la qualité : le stade et l’âge des insectes, la méthode de mise à mort, le processus de transformation (risque de dégradation nutritionnelle) et le choix de l’espèce. Les professionnels doivent maîtriser les besoins nutritionnels de leurs insectes, la variabilité, la digestibilité des substrats d’élevage et les rendements des processus de transformation. La qualité des produits issus de l’entomoculture doit, enfin, être contrôlée tout au long de la chaîne de production, avec des exigences renforcées pour les marchés de l’alimentation.

Face à ces enjeux, la filière se trouve confrontée à un dilemme réglementaire. Faut-il appliquer directement les normes d’autres productions animales (filières aquacoles ou avicoles par exemple), au risque d’imposer des contraintes inadaptées et potentiellement contre-productives pour une filière aux spécificités biologiques et techniques très différentes ?

Ou bien attendre l’élaboration de réglementations spécifiques aux insectes, au risque de ralentir le développement du secteur et de créer une incertitude juridique ? Une approche pragmatique serait d’adapter progressivement les normes existantes aux réalités de l’entomoculture.

Structurer une filière d’avenir

L’entomoculture représente une piste sérieuse pour relever les défis alimentaires et climatiques du XXIe siècle. Mais son succès dépendra de notre capacité collective à structurer cette filière naissante tout en préservant son potentiel innovant.

Pour qu’elle puisse répondre aux attentes futures, plusieurs défis doivent être relevés. D’abord, créer des référentiels et standardiser les pratiques : guides de bonnes pratiques partagés, protocoles cadrés par espèce, formations pour les opérateurs et décideurs. L’équilibre entre automatisation et expertise humaine reste crucial, notamment pour évaluer des paramètres non mesurables par des capteurs.

Ensuite, améliorer la gestion des risques en instaurant des seuils d’alerte et en hiérarchisant les causes possibles de dysfonctionnement pour les anticiper. Les élevages devront aussi s’adapter aux contextes locaux, particulièrement en matière d’énergie et de ressources disponibles.

Enfin, faire évoluer la législation pour inclure pleinement l’entomoculture, y compris dans les certifications, comme le bio, et les lois sur l’éthique animale dont les insectes restent aujourd’hui exclus. Cet angle mort réglementaire peut convenir provisoirement à certains opérateurs, mais constitue un frein à la crédibilité et à l’acceptabilité sociale de la filière dans son ensemble.

The Conversation

Caroline Wybraniec a reçu des financements de l'ANR FLYPATH (ANR-24-CE20-6083).

Bertrand Méda a reçu des financements de l'Institut Carnot France Futur Elevage (projet PINHS, 2020-2023).

Christophe Bressac a reçu des financements de la région centre val de Loire (projet BioSexFly) et de la BPI (i-Démo FrenchFly)

Elisabeth Herniou a reçu des financements de l'ANR FLYPATH (ANR-24-CE20-6083) et EU Marie Sklodowska-Curie grant agreement 859850 INSECT DOCTORS).

Matthis Gouin a reçu des financements de l'ANR FLYPATH (ANR-24-CE20-6083) et Région Centre Val de Loire

50 / 50

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌞