17.12.2025 à 16:25
The MAGA International: Trump’s 2025 National Security Strategy as an ideological manifesto
Texte intégral (2042 mots)
On December 4, 2025, the Trump administration released its new National Security Strategy. Far from being a dry technocratic document, it reads like a blistering broadside against Europe, a reaffirmation of American exceptionalism, and a self-portrait of the president as a heroic defender of Western civilization against mortal threats. It is less a set of policy guidelines than a full-blown ideological proclamation.
In theory, the National Security Strategy (NSS) is a technocratic, non-binding document that every US president must submit to Congress during their time in office to provide an overall framework for the country’s foreign policy.
The version published by the Trump administration in 2025, however, looks far less like a “state paper” than a MAGA (Make America Great Again) manifesto. It panders to Trump’s political base as much as the rest of the world – beginning with Washington’s European allies, accused of betraying “true” democracy. For the first time, compared with the 2017 NSS, national security is framed almost entirely through Trumpian obsessions: immigration, culture wars, and nationalism.
Three main narrative arcs
The 2025 NSS marks a clear break with the liberal tradition of constitutional democracy – fundamental rights, the rule of law, and political pluralism. It also rejects its international counterpart: the promotion of democracy through a multilateral, rules-based order. It rewrites the history of the post-Cold War era, stitches together a composite enemy (immigration, “globalist” elites, Europe), and hijacks the language of freedom and democracy for an ethno-populist vision of American exceptionalism.
The document unfolds as a grand narrative in three acts.
Act I: The betrayal of the elites
First comes the story of the failure of US policies since 1991, blamed on the hubris of elites who allegedly sought global hegemony. They are said to have waged “endless wars” and embraced “so-called free trade”. They also subjected the country to supranational institutions, at the expense of US industry, the middle class, national sovereignty, and cultural cohesion. This first act also highlights the lack of any credible new national narrative after the end of the Cold War. Trump builds his own story on that narrative vacuum.
Act II: Decline
In the Trump administration’s telling, America’s decline is economic, moral, geopolitical, and demographic all at once. It is manifested in deindustrialization, failed wars, and the crisis on the Mexican border. It echoes the “American carnage” denounced by Trump in his first inaugural address in 2017. The enemy is presented as both internal and external. Immigration is cast as an “invasion” tied to the cartels, while international institutions and foreign-policy elites – American and European alike – are portrayed as accomplices. All are folded into a single confrontational framework – that of a global war the Trump administration says it is prepared to wage against anyone who threatens US sovereignty, culture, and prosperity.
Act III: The Saviour
The NSS then casts the occupant of the White House as a providential leader, “The President of Peace,” correcting the betrayal of the elites. Trump appears as a heroic fixer – or anti-hero – who has supposedly “settled eight violent conflicts” in less than a year. He embodies a nation restored and ready to enter a “new golden age”.
This is a textbook American narrative pattern, rooted in the religious tradition of the jeremiad: a sermon that begins by denouncing sin and decadence, then calls for a return to founding principles to “save” the community. Historian Sacvan Bercovitch has shown how this jeremiad structure lies at the heart of the American national myth. A text that should have been technocratic and bureaucratic is thus refashioned into a story of fall and redemption.
American exceptionalism, Trump-style
Read closely, the 2025 NSS teems with tropes drawn from the grand myths of the United States. The aim is to “mythologize” the break with decades of foreign policy by presenting Trump’s course as a return to the nation’s origins.
The text invokes “God-given natural rights” as the foundation of sovereignty, freedom, the traditional family, and even the closing of borders. It calls on the Declaration of Independence and the “Founding Fathers” to justify selective non-interventionism. It claims the “America’s pioneering spirit” as “a key pillar” of “continued economic dominance and military superiority”.
The word exceptionalism never appears (nor does the phrase “indispensable nation”). Yet the strategy is saturated with formulations that present the United States as a unique nation with a special mission in the world – what scholars call American exceptionalism. It piles superlatives onto America’s economic and military power and casts the country as the central hub of the global monetary, technological, and strategic order.
This is foremost an exceptionalism of power. The text details at length the economic, energy, military, and financial dominance of the United States, then infers from it a moral superiority. If America is “the greatest and most successful nation in human history” and “the home of freedom on earth”, it is primarily because it is the most powerful. Virtue is no longer an ethical standard that might restrain power. Power itself is treated as evidence of virtue.
Within this framework, elites – including European elites – are portrayed as weakening America’s capacity in areas such as energy, industry, and border control. They are not just making strategic mistakes; they are accused of committing moral wrongs. In this view, exceptionalism is no longer the classic liberal idea of spreading democracy abroad. It becomes a “sovereignty-first” moral exceptionalism, with America cast as the chief guardian of “true” freedom – not only against its adversaries, but, when necessary, against some of its allies as well.
Where previous strategies stressed the defence of a “liberal international order,” the 2025 NSS casts the US primarily as a victim – exploited by its allies and shackled by hostile institutions. Exceptionalism becomes the story of a besieged superpower rather than a model of democracy.
Behind the rhetoric of “greatness”, the document often reads like a business plan designed to advance the interests of major industries – and, not incidentally, Trump’s own businesses. In this logic, profit is no longer constrained by morality; morality is re-engineered to serve profit.
A trumpist rewriting of the Monroe Doctrine
The NSS also offers a mythologized version of the Monroe Doctrine (1823), describing its approach as “a common sense and potent restoration of the historic vocation” of the United States – namely, to protect the Western Hemisphere from external interference. In reality, this appeal to the past serves to build a new doctrine – a “Trump Corollary,” echoing Theodore Roosevelt’s corollary. America is no longer merely defending the political independence of its neighbours; it is turning the region into a geo-economic and migratory preserve, a direct extension of its southern border and a showcase for US industrial power.
Under the guise of “restoring” Monroe, the text legitimizes a Trumpist version of regional leadership. It makes control over flows of capital, infrastructure, and people the very core of America’s mission. A quasi-imperial project is thus presented not as a break with the past, but as the natural continuation of American tradition.
The 2025 NSS, by contrast, openly embraces political interference in Europe. It promises to fight what it calls “undemocratic restrictions” imposed by European elites. In Washington’s view, these include regulations on US social-media platforms, limits on freedom of expression, and rules targeting nationalist or sovereigntist parties. The NSS also vows to weigh in on Europe’s energy, migration, and security choices.
In other words, Washington invokes Monroe to turn its own hemisphere into a protected sanctuary while claiming the right to intervene in European political and regulatory life – effectively granting itself what the doctrine denies to others.
Europe as the central battlefield
Europe is omnipresent in the 2025 NSS – mentioned around fifty times, roughly twice as often as China and five times more than Russia. It is described as the central theatre of a crisis that is at once political, demographic, and civilizational. The text systematically pits European “elites” against their own peoples. It accuses those elites of using regulations to impose deeper European integration and more open migration policies. Such policies are portrayed as a form of “civilizational erasure” that poses an existential threat to Europe. Without saying so, the document echoes the logic of French writer Renaud Camus’s “Great Replacement” theory, a well-documented far-right conspiracy narrative.
The Trump administration claims for itself an unprecedented right to ideological interference. It pledges to defend Europeans’ “real” freedoms against Brussels, the courts, and national governments, while implicitly backing ethno-nationalist far-right parties that present themselves as the voice of “betrayed peoples”. The European Union is portrayed as a suffocating norm-producing machine whose climate, economic, and social rules allegedly sap national sovereignty and demographic vitality.
In the process, the very meaning of “democracy” and “freedom” is turned on its head. These values are no longer guaranteed by liberal institutions and treaties but by their contestation in the name of a supposedly homogeneous and threatened people that Washington now claims to protect – even on European soil.
Russia, for its part, appears less as an existential foe than as a disruptive power, whose war in Ukraine mainly serves to hasten Europe’s decline. The 2025 NSS insists on the need for a swift end to hostilities and for a new strategic balance. China is the only true systemic rival, above all economically and technologically. Military rivalry (over Taiwan or the South China Sea) is acknowledged but is always framed through the key concern: preventing Beijing from turning its industrial might into regional and global hegemony.
The Middle East is no longer central. Thanks to energy independence, Washington seeks to offload the security burden onto regional allies, reserving for itself the role of dealmaker vis-à-vis a weakened Iran. Africa is considered as a geo-economic battleground with China, where the United States favours commercial and energy partnerships with a handful of “select countries” rather than aid programs or heavy-footprint interventions.
A doctrine that fails to command consensus
Despite the apparent coherence and the highly assertive tone of the strategy, the MAGA camp remains deeply divided over foreign policy. On one side stand “America First” isolationists, hostile to any costly projection of power; on the other, hawks who still want to use US military superiority to impose favourable power balances.
Above all, opinion polls (here, here, and here) suggest that while part of the Republican electorate embraces the language of toughness (on borders, China, and “the elites”), the American public as a whole remains broadly attached to liberal democracy, checks and balances, and traditional alliances. Americans may want fewer endless wars, but they are not clamouring for an illiberal retreat, nor for a frontal assault on the institutions that have underpinned the international order since 1945.
Jérôme Viala-Gaudefroy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.12.2025 à 16:23
Avion : qui est prêt à payer plus pour polluer moins ?
Texte intégral (2087 mots)
Les perspectives de croissance que connaît le secteur aérien mettent à mal ses tentatives technologiques pour se décarboner. Celles-ci, coûteuses, devront pour se déployer être répercutées sur le prix des billets. Mais les passagers sont-ils prêts à payer plus cher pour des vols plus vertueux ? Une enquête menée auprès de 1 150 personnes dans 18 pays nous donne quelques éléments de réponse.
Bien que le transport aérien ne représente qu’une part limitée des émissions de CO₂ (2,1 %) et de gaz à effet de serre (3,5 %), le secteur se trouve confronté à une situation complexe.
D’un côté, il a développé au cours des dernières décennies de nombreuses innovations technologiques qui lui permettent de réduire la consommation de kérosène et, par ricochet, les émissions de CO₂ par passager aérien transporté. De l’autre, la croissance du trafic aérien n’a jamais été aussi forte qu’au cours des années passées – la parenthèse du Covid-19 mise à part. Les prévisions semblent conforter cette tendance pour les vingt prochaines années, en particulier dans les pays en développement, ce qui gomme tous les efforts déployés par les acteurs de l’aérien.
Face à ce défi, le secteur aérien court après des innovations plus radicales, des carburants d’aviation plus durables, en passant par l’avion électrique. Mais ces innovations « vertes » sont complexes et coûteuses à développer et à adopter par les compagnies aériennes.
Un surcoût que les compagnies seront tentées d’absorber en les répercutant sur le prix du billet d’avion, ce qui pourra affecter directement le portefeuille des passagers. Mais ces derniers sont-ils vraiment prêts à accepter de payer plus cher pour voyager plus vert ? Nous avons essayé de répondre à cette question à travers une expérimentation menée dans 18 pays d’Europe, d’Amérique du Nord, d’Asie et d’Océanie, auprès de 1 150 personnes que nous avons interrogées pour mieux comprendre comment elles choisissent leurs billets d’avion.
Près de 10 centimes de plus pour 1 kg de CO₂ de moins
Nous leur avons proposé des vols avec différentes options : prix, confort, bagages, durée… mais aussi selon le type de carburant utilisé et les émissions de CO2. Le but ? Savoir s’ils étaient prêts à payer un peu plus pour des avions moins polluants.
Différentes innovations, chargées d’une empreinte environnementale plus ou moins forte, ont été proposées. Pour chacune d’entre elles, nous parvenons, sans jamais poser explicitement la question aux répondants, à calculer leur propension à payer, c’est-à-dire le montant supplémentaire qu’ils sont prêts à débourser pour réduire leurs émissions de CO2.
L’enquête a principalement montré que les passagers sont prêts à payer 10 centimes d’euros en moyenne pour diminuer leurs émissions de 1kg de CO2. Autrement dit, pour un vol domestique (à l’intérieur de la France) qui va émettre 80 kg de CO2, nos passagers seraient prêts à payer en moyenne 8 euros de plus pour ne pas polluer du tout.
Ces montants restent néanmoins modestes au regard des surcoûts réels liés à l’adoption de ces innovations. Par exemple, les carburants d’aviation durable coûtent 4 à 6 fois plus cher que le kérosène, de sorte que le surcoût pour la compagnie serait bien plus élevé que les 8 euros supplémentaires que nos passagers seraient prêts à payer.
Ceux qui culpabilisent sont prêts à payer plus
Pour autant, tous les passagers aériens ne sont pas prêts à payer le même montant, et certains accepteraient bien plus que 10 centimes par kilogramme. Qui sont ceux qui acceptent ?
Contrairement à ce que l’on pense, les jeunes (qui revendiquent généralement de plus fortes valeurs environnementales) ne sont pas enclins à payer plus que le reste de la population, et les personnes ayant un plus haut niveau d’études ne sont pas plus sensibles à ce sujet.
Certaines variables psychologiques semblent en revanche jouer un rôle bien plus important. Les passagers qui éprouvent une forte honte à l’idée de prendre l’avion (flight shame) – environ 13 % des répondants – se disent d’accord pour payer entre 4 et 5 fois plus que ceux n’en ressentent pas (27 centimes/kg, contre 6 centimes/kg de CO₂).
De même, les personnes ayant de fortes valeurs environnementales ou qui adoptent un comportement écologique au quotidien ont tendance à présenter une plus forte propension à payer (entre 17 et 34 centimes pour réduire leurs émissions de CO₂ d’un kilogramme).
De même, sur le plan comportemental, les voyageurs fréquents et les voyageurs d’affaires considèrent qu’ils pourraient payer autour de 15 % de plus que les autres voyageurs pour réduire les émissions de CO₂ liées à leurs vols.
Les compagnies aériennes devraient donc adopter une approche plus ciblée en se concentrant en priorité sur les passagers aériens motivés par leurs valeurs ou leurs comportements à faire des efforts.
La nécessité de mieux informer sur les innovations
Au-delà de ces résultats chiffrés, notre étude invite à une réflexion stratégique pour les acteurs du transport aérien. Les compagnies aériennes ne peuvent pas compter uniquement sur la bonne volonté des consommateurs pour financer leur transition écologique. Si les passagers sont globalement favorables à une aviation plus verte, leur consentement à payer reste inférieur aux besoins réels de financement.
Deux leviers s’avèrent donc essentiels : la pédagogie et les incitations.
D’un point de vue pédagogique, il est crucial de mieux communiquer sur les bénéfices environnementaux concrets des SAF (Sustainable Aviation Fuels, ou carburants d’aviation durable) et des autres technologies de rupture. Cette meilleure communication pourrait familiariser le grand public à ces innovations et ainsi augmenter leur confiance envers le secteur, voire leur propension à payer plus. Pour cela, des campagnes marketing ciblées et pédagogiques pourraient être mises en place. Tout en évitant le greenwashing, elles doivent s’ancrer dans une logique d’éducation et de transparence.
Côté incitations, mettre en place une tarification attractive sur les vols à faible impact ou valoriser les comportements écoresponsables dans les programmes de fidélité des compagnies pourrait permettre de convaincre une partie du public plus réticent, en les poussant à adopter des comportements plus vertueux pour des raisons autres que celles liées à l’environnement.
À lire aussi : Après le « greenwashing », le « greenhushing » ?
L’inévitable réduction du trafic aérien
Alors, payer plus pour polluer moins ? Nos résultats montrent que les voyageurs sont prêts à faire un effort, mais pas à hauteur des besoins colossaux de la transition. L’aviation durable ne pourra donc pas reposer uniquement sur la bonne volonté des passagers : elle nécessitera une mobilisation collective, où compagnies, pouvoirs publics, industriels et voyageurs devront agir de concert.
En effet, la consommation de SAF est limitée par les capacités d’approvisionnement actuelles pour répondre aux besoins de tous les secteurs industriels et notamment le transport routier. Le recours aux nouvelles formes d’énergie par l’aérien n’est donc qu’une partie de la solution pour agir à moyen et long terme. La réduction du trafic et les actions sur la demande sont inévitables pour baisser les émissions de CO₂ de l’aérien.
Aux compagnies de jouer la carte de la transparence, pour susciter la confiance et entraîner les comportements. Aux passagers et aux décideurs publics d’assumer leur part du prix d’un ciel plus vert. Car la question qui se profile n’est pas seulement de savoir combien coûtera le billet d’avion demain, mais de déterminer qui, collectivement, sera capable d’inventer un modèle de vol durable.
Article publié en collaboration avec d’autres chercheurs de la chaire Pégase (MBS School of Business) de l’Université de Montpellier et du Bauhaus Luftfahrt – Ulrike Schmalz, Camille Bildstein et Mengying Fu.
Sara Laurent est membre de la Chaire Pégase, une chaire dédiée à l’économie et au management du transport aérien. Cette chaire collabore régulièrement avec des acteurs du secteur aérien (compagnies aériennes, aéroports, constructeurs, régulateurs, etc.)
Anne-Sophie Fernandez est membre de la Chaire Pégase, une chaire dédiée à l’économie et au management du transport aérien. Cette chaire collabore régulièrement avec des acteurs du secteur aérien (compagnies aériennes, aéroports, constructeurs, régulateurs, etc.
Audrey Rouyre est responsable des activités spatiales de la Chaire Pégase, une chaire dédiée à l’économie et au management du transport aérien. Cette chaire collabore régulièrement avec des acteurs du secteur aérien (compagnies aériennes, aéroports, constructeurs, régulateurs, etc.
Paul Chiambaretto est directeur de la Chaire Pégase, une chaire dédiée à l’économie et au management du transport aérien. Cette chaire collabore régulièrement avec des acteurs du secteur aérien (compagnies aériennes, aéroports, constructeurs, régulateurs, etc.)
17.12.2025 à 16:20
Enseigner la langue des signes, c’est important pour tous les élèves, sourds et entendants
Texte intégral (2018 mots)
Si la langue des signes française (LSF) est officiellement reconnue par l’État depuis 2005, sa place dans les écoles reste fragile. Les récentes menaces sur le concours de recrutement de professeurs de LSF dans le second degré témoignent d’une méconnaissance des enjeux sous-jacents à la diffusion de cette langue.
Pour la première fois depuis sa création en 2010, le concours pour devenir professeur de langue des signes française dans le second degré (Capes de LSF) a failli ne pas ouvrir en 2026.
À la suite de sa suspension fin septembre 2025, un mouvement d’ampleur s’est mis en marche réunissant des étudiants – avec le lancement d’une pétition, des enseignants-chercheurs – avec une lettre ouverte adressée au ministère de l’enseignement supérieur – et des représentants de la communauté sourde – avec des courriers de la Fédération nationale des sourds de France (FNSF) et de l’Association nationale des parents d’enfants sourds (ANPES).
Face à cette forte mobilisation, relayée par des médias spécialisés comme généralistes, le ministère de l’éducation nationale est revenu sur sa décision fin octobre 2025 : le Capes de LSF ouvrira à la session 2026 au niveau de la Licence 3, conformément à la réforme de la formation et du recrutement des enseignants, publiée au Journal officiel le 19 avril 2025.
Cet événement a une portée symbolique. Même s’il aboutit à une victoire, il est révélateur de la fragilité de l’enseignement de et en langue des signes française (LSF) au sein du système éducatif français et de la méconnaissance des enjeux sous-jacents à la place de cette langue à l’école et dans la société.
Une histoire engagée de l’enseignement de/en LSF à l’école
Après le Congrès de Milan de 1880, qui déclare la supériorité de la méthode oraliste dans l’enseignement des élèves sourds, l’usage de la méthode gestuelle dans l’éducation des jeunes sourds est interrompu. Elle était pourtant l’héritage de l’œuvre de l’abbé de L’Épée qui avait fondé une école pour enfants sourds à Paris en 1760. Il faut attendre près d’un siècle pour que les langues des signes, et la LSF en particulier, retrouvent progressivement une place dans les établissements scolaires.
À partir des années 1970, les sourds entrent sur la scène publique et revendiquent la reconnaissance de leurs spécificités linguistiques et culturelles. Au cours de cette période appelée Réveil Sourd, les recherches menées sur la LSF – notamment par Bernard Mottez en sociologie et Christian Cuxac en linguistique – démontrent que la LSF est une langue à part entière, disposant notamment d’une grammaire et d’un lexique qui lui sont propres, et qu’elle est porteuse d’une culture, celle de la communauté sourde. Dans la mesure où tout ce qui s’exprime en français peut se signer en LSF (et inversement), les contours d’une éducation en LSF se dessinent et il est possible alors d’envisager « le droit de l’enfant sourd à grandir bilingue ».
Des progrès institutionnels ont été accomplis en ce sens. L’un des événements le plus significatif est la loi du 11 février 2005. Elle réaffirme et renforce la possibilité de choix linguistique pour l’enfant sourd et sa famille, établie par la loi du 18 janvier 1991 : « dans l’éducation et le parcours scolaire des jeunes sourds, la liberté de choix entre une communication bilingue, langue des signes et langue française, et une communication en langue française est de droit ».
C’est par cette loi également que l’État reconnaît officiellement la LSF (article 75), ce qui permet et incite à son recours dans l’éducation, les médias ou encore les services publics. Ont suivi la mise en place de l’option LSF au baccalauréat (2008), des pôles LSF (2008, devenus PASS en 2010 puis PEJS en 2017), permettant une mutualisation de moyens au service de la scolarisation collective des jeunes sourds en fonction de leur choix linguistique, des programmes d’enseignement de la LSF (2008-2009, puis 2017-2020), du Capes de LSF (2010) et, plus récemment, les programmes d’enseignement bilingue langue française écrite-langue des signes française pour les cycles 1 et 2 (2023).
Un combat permanent pour la reconnaissance de la LSF à l’école
Malgré ces avancées conséquentes, les Pôles d’enseignement des jeunes Sourds (PEJS) ne sont toujours pas déployés dans toutes les académies, comme le prévoit pourtant la circulaire n° 2017-011 du 3 février 2017. Parmi les PEJS bilingues mis en place, seule une minorité propose une offre complète de scolarisation en LSF de la maternelle au lycée (comme c’est le cas à Lyon, à Poitiers ou à Toulouse). Selon les données fournies par le ministère, si 33,7 % des élèves sourds ont formulé le choix d’une scolarisation en LSF à la rentrée, seuls 3,2 % sont scolarisés en PEJS bilingues.
Dans les faits, si les parents ont le « choix » du parcours de scolarisation pour leur enfant sourd, ils sont bien souvent contraints de déménager ou de se résigner à scolariser leur enfant dans une autre modalité. Ainsi, à ce jour, l’accès à un cursus bilingue n’est toujours pas garanti en France.
Ces progrès timides peuvent trouver leur source dans le nombre limité de personnes concernées par ces mesures : le nombre de candidats au concours n’a cessé de baisser depuis son ouverture (de 108 inscrits en 2010 à 10 en 2025) et le nombre d’étudiants se destinant au métier de professeur de LSF reste faible.
À cela s’ajoute le peu d’élèves potentiellement concernés par un enseignement de la LSF : 10 600 élèves sourds à la rentrée 2019, selon le rapport du conseil scientifique de l’éducation nationale, dont 3 573 ont fait le choix de la LSF dans leur parcours scolaire. De même, on compterait 100 000 sourds locuteurs de la LSF et 250 000 personnes pratiqueraient la LSF – sourds et entendants confondus.
L’engagement de l’État en faveur de la participation sociale et de la citoyenneté des personnes sourdes ne peut pourtant pas être assujetti à des logiques comptables. Dans le domaine scolaire, cet engagement doit prendre forme à deux niveaux : celui de la scolarisation des élèves sourds selon leur choix de langue première, et celui de la formation à la LSF et la sensibilisation à la surdité des élèves entendants.
L’enseignement de/en LSF : un enjeu fort pour une société plus inclusive
Pour les élèves sourds dont la LSF est la langue principale de communication, cette langue est à la fois langue enseignée et langue d’enseignement, comme l’est le français pour les élèves entendants. La LSF est enseignée comme langue première et le français écrit est enseigné (en LSF donc) comme langue seconde.
Dans cette situation, le regroupement des élèves signeurs et un enseignement dispensé directement en LSF par des professeurs bilingues, souvent eux-mêmes sourds, permettent de répondre aux besoins éducatifs particuliers des élèves sourds qui sont des êtres bilingues en construction. La LSF n’est pas tant un choix ici qu’une nécessité d’accessibilité, car, pour ces élèves, l’enseignement ne pourrait se faire efficacement en français vocal.
Même s’ils concernent peu d’élèves, ces PEJS bilingues sont donc essentiels pour garantir l’égalité des chances à l’école et permettre aux élèves sourds signeurs d’envisager une poursuite d’étude ultérieure, sans restriction.
Si l’enseignement de la LSF est vital pour les élèves sourds signeurs, il a aussi son importance pour les élèves entendants (ou sourds dont le français vocal est la langue principale). Certes, pour eux, la LSF est uniquement une langue enseignée et à titre facultatif. Mais cet enseignement participe d’une meilleure inclusion des sourds dans la société, car certains de ces élèves, sensibilisés à la langue des signes et à la culture sourde, vont poursuivre leur apprentissage de la LSF dans le supérieur (cinq universités proposent une licence avec une filière LSF : Lille, Rouen, Paris 8, Poitiers et Toulouse). Ils se destinent parfois à des carrières professionnelles en lien avec la LSF : enseignants, éducateurs, interprètes, orthophonistes, etc.
Face aux enjeux importants de l’enseignement de et en LSF aujourd’hui en France, la situation décrite ici suscite l’inquiétude de la communauté sourde, des enseignants de/en LSF et des universitaires engagés dans ces filières. Les élèves et les étudiants sourds mais aussi leurs familles, en majorité entendantes, sont également impactés.
Une information complète sur les différentes modalités de communication et de scolarisation possibles pour les enfants sourds et les bénéfices de la LSF dans leur développement langagier permettrait de dessiner ensemble un avenir favorable au bénéfice de chacun et de tous, sourds comme entendants.
Cet article est publié en partenariat avec la Délégation générale à la langue française et aux langues de France du ministère de la culture.
Diane Bedoin a reçu des financements de l'Agence Nationale de la Recherche (ANR) pour le projet DinLang (2021-2025) portant sur les pratiques langagières multimodales dans les dîners familiaux en français et en LSF.
Marie Perini est chargée de mission auprès de la DGESIP (Service de la stratégie des formations et de la vie étudiante), sur la question des formations universitaires en lien avec la LSF et le public sourd.
17.12.2025 à 16:17
Musées, expositions et sinologie : les nouveaux instruments du soft power chinois
Texte intégral (4308 mots)
Alors que de nombreuses critiques visent son système politique et certaines de ses pratiques économiques, la Chine multiplie les initiatives d’influence à l’étranger. En France, musées, expositions et centres de sinologie jouent un rôle clé dans la diffusion d’une image apaisée et avantageuse du pays, centrée sur sa richesse culturelle et artistique ainsi que sur ses liens d’amitié avec la France qui remontent à plusieurs siècles. Examen des principaux instruments de ce soft power chinois.
En France, et plus généralement dans les pays occidentaux, la République populaire de Chine a été, ces dernières années, largement critiquée pour sa volonté d’hégémonie, pour la concurrence déloyale que ses industries représentent pour leurs homologues européennes, pour les conditions de travail, la liberté d’opinion, la politique conduite dans la région du Xinjiang (Ouïghours) ou encore les tensions autour de Taïwan, liste non exhaustive.
Face à ces nombreuses critiques de son modèle, Pékin a décidé de développer des actions visant à redorer son image. Ces actions relèvent de ce que le politologue américain Joseph Nye a désigné dans les années 2000 comme le soft power : il s’agit de mettre en œuvre des stratégies d’influence par la diplomatie, l’aide économique ou encore la culture. Le but est d’améliorer sa réputation, d’orienter en sa faveur les décisions des acteurs internationaux et d’attirer les acheteurs étrangers.
Après l’implantation dans de nombreux pays au milieu des années 2000 des instituts Confucius qui visent à promouvoir la langue et la culture chinoise à l’international, de nouvelles actions ont émergé, ciblant davantage le volet culturel, historique et artistique. Celles-ci passent par les musées et les expositions.
Musées et expositions comme vision bienveillante de la culture chinoise
En 2001, Paris et Pékin signent une convention sur l’ouverture d’un centre culturel chinois en France. En 2002, le Centre culturel de Chine est inauguré à Paris sur 4 000 mètres carrés. C’est le premier centre de ce type dans un pays européen. Le jardin de style chinois comprend une reproduction de la Cité interdite et une statue de Confucius, deux symboles forts de la culture chinoise. En plus des cours de langue, le centre organise de nombreuses manifestations culturelles et dispose d’une bibliothèque-médiathèque.
En dehors des fêtes traditionnelles ou des festivals thématiques, les expositions y tiennent une place majeure. Leurs thèmes sont naturellement orientés vers une présentation harmonieuse et apaisée de la Chine (céramiques, calligraphie, porcelaine, zodiaque, costumes, médecine, pandas), et elles cherchent souvent à mettre en avant les relations amicales entre les deux pays (par exemple, en septembre 2025 ont été organisés le troisième festival mode et culture sino-français et une exposition sur les premiers dictionnaires français-chinois).
C’est aussi l’occasion de présenter la Chine comme destination touristique et de mettre en valeur sa diversité. Les provinces font régulièrement l’objet d’expositions aux titres évocateurs : « Xinjiang, une destination incontournable », mai 2025 (qui montre le côté tourisme et diversité, y compris chez les Ouïghours, pour contrer les critiques) ; « Pourquoi le Yangtsé est-il si fascinant », 2025 ; « Exposition thématique sur le tourisme culturel du Zhejiang », 2023 ; « Saveur de Chine, voyage gastronomique au Ningxia », 2023 ; et bien d’autres encore.
Peu après l’ouverture du Centre culturel de Chine à Paris, une vingtaine d’instituts Confucius ont été créés en France. Vingt ans après, il y en a aujourd’hui 17, répartis dans les différentes régions françaises. Ils associent le monde universitaire, les collectivités territoriales, le monde associatif.
La moitié d’entre eux sont des instituts cogérés par une université française et une université chinoise. Ces instituts culturels chargés de diffuser la culture et la langue s’inspirent du réseau de l’Alliance française (créée dès 1883), du British Council (1934), du Goethe Institute (1951), de l’Institut Cervantes (1991) et d’autres (une vingtaine de pays). Ils visent à faire connaître le pays de façon positive et attractive à travers sa culture : littérature, gastronomie, tai-chi, kung-fu, calligraphie, cérémonie du thé, etc.
Ainsi, ce soft power a été agrégé à la notion confucéenne d’harmonie comme fondement de la société (unité, camaraderie, paix et coordination permettant de s’appuyer sur la force morale plutôt que physique). Néanmoins, le Sénat a ouvert en juin 2021 une mission d’information conduisant à un rapport d’information intitulé « Mieux protéger notre patrimoine scientifique et nos libertés académiques ». Ce rapport abordait la question des instituts Confucius et rappelait que plusieurs dizaines ont fermé en Europe et en Amérique du Nord.
Aujourd’hui, ces instituts sont gérés par une fondation chinoise qui s’inspire dans son fonctionnement du modèle des alliances françaises. L’objectif est la dépolitisation de la dimension culturelle. Ainsi, tout ce qui est sujet à polémique est évité pour laisser la place aux sujets consensuels sur l’histoire, les traditions, les arts, le commerce.
Musées et expositions comme témoins de l’amitié franco-chinoise
L’amitié franco-chinoise repose sur plusieurs siècles de coopération et notamment sur les premiers échanges entre l’empereur Kangxi et Louis XIV.
Cette relation sert de levier pour renforcer les coopérations. Dès 2011, la coopération entre la Cité interdite et le musée du Louvre s’est renforcée, avec l’exposition « La Cité interdite s’expose au Louvre », consacrée à « l’histoire croisée des deux dynasties » et alliant architecture et œuvres d’art (costumes impériaux, portraits d’empereurs, objets de jade, porcelaine, bronze…). L’objectif est d’admirer la Chine impériale et son raffinement. L’idée est aussi de mettre en avant les similitudes et différences entre les deux pays et leurs cultures.
Plus tard, deux expositions « La Chine à Versailles. Art et diplomatie au XVIIIᵉ siècle » auront lieu pour célébrer le 50e anniversaire de l’établissement des relations diplomatiques (1964).
La première exposition, en 2014, vise à mettre en évidence les relations entre les deux pays dès le règne de Louis XIV, les liens d’admiration et d’intérêt réciproques et de nombreuses découvertes mutuelles. La famille royale à Versailles avait un attrait pour tout ce qui venait de Chine. L’exposition rappelle aussi le rôle des missionnaires jésuites envoyés en Chine et la naissance de la sinologie française. Au XVIIIᵉsiècle, il y a eu en France une fascination pour les produits artistiques chinois (porcelaines, étoffes, papiers peints, meubles en laque…). En 1775, la reine Marie-Antoinette fit aménager un jardin anglo-chinois, à proximité du petit château de Trianon avec un « jeu de bague chinois » (sorte de manège avec des paons, dragons et figures chinoises).
L’opération a été renouvelée en 2024 à l’occasion du soixantième anniversaire. Le château de Versailles et le musée du Palais de la Cité interdite ont présenté une exposition consacrée aux échanges entre la France et la Chine aux XVIIᵉ et XVIIIᵉ siècles. Celle-ci présente des collections des deux musées liées aux sciences, à l’art, à la diplomatie et aux échanges commerciaux. Elle montre comment, à la cour de France, la Chine et l’art chinois sont appréciés (importations, transformation, imitation des produits de la Chine…), et que l’art chinois a constitué une source d’inspiration pour les artistes français (peinture, architecture, jardins, littérature, musique, sciences…). Les œuvres rassemblées à Pékin visent aussi à montrer la réciprocité (intérêt des empereurs chinois pour les connaissances scientifiques françaises) et les liens d’amitié entre les deux pays.
Toujours en 2024, une année franco-chinoise du tourisme culturel a été programmée pour « faire découvrir les grands chefs-d’œuvre d’hier et d’aujourd’hui de la culture chinoise en France ». En France, le Musée national des arts asiatiques (musée Guimet) a été sollicité et a proposé des œuvres sur la Chine (porcelaines, orfèvreries Ming, œuvres d’art, peintures, calligraphie) issues des musées chinois. Un partenariat a ainsi été noué avec l’agence Art Exhibitions China et des représentations d’opéra chinois ont été organisées. Le centre Pompidou a lui aussi participé avec le West Bund Museum de Shanghai avec des artistes contemporains, témoins du changement de la Chine sur les dernières décennies. D’autres institutions, en province, ont été partenaires : exposition à Deauville, parc animalier du Morbihan, opéra de Bordeaux.
Enfin, un musée tient une place à part : le musée historique de l’Amitié Franco-Chinoise en France, situé à Montargis dans un ancien bâtiment de plus de 400 mètres carrés datant de plus de 300 ans, et acheté par le gouvernement de la Province du Hunan en 2015. L’inauguration officielle a lieu en 2016. Le musée, complété par diverses places, lieux et monuments dans la ville de Montargis, musée présente l’histoire du mouvement des étudiants-travailleurs chinois en France dans les années 1920 à Montargis. L’idée est de diffuser la culture, mais aussi de rappeler l’amitié et la compréhension mutuelle entre les deux pays. Le Mouvement Travail-Études avait à l’époque accueilli en France de futurs leaders chinois, tels que Zhou Enlai (1898-1976), arrivé en France en novembre 1920 et reparti en Chine en septembre 1924, ou Deng Xiaoping (1904-1997), arrivé en France en 1920 et reparti en Chine en 1927 (après une année en URSS).
Ces jeunes travailleurs ont étudié le marxisme et sont à l’origine de la fondation du Parti communiste chinois. Plus de 2 000 jeunes Chinois vont venir à Montargis comme étudiants-ouvriers.
Les centres de sinologie comme vecteur de la culture chinoise dans le monde académique
Plus récemment, la Chine a développé la notion de centres de sinologie avec notamment la création du Centre mondial de sinologie de l’Université des langues et cultures de Pékin, basé à Qingdao, dans la province du Shandong. L’objectif est de faire coopérer des sinologues de plus de 100 pays et de regrouper de nombreuses ressources (centre de connaissances, de traduction, de conférences…). Le Centre s’appuie sur l’expérience de l’Université des langues et cultures de Pékin (BLCU), communément appelée « la petite ONU », spécialisée notamment dans l’enseignement du chinois à l’échelle mondiale. Dans sa présentation officielle, il est indiqué que « le centre s’engage à contribuer à la construction d’un avenir commun pour l’humanité, ainsi qu’à la promotion des échanges culturels et de la compréhension mutuelle. […] Les experts du monde entier pourront mieux comprendre la Chine, raconter son histoire et avoir une compréhension plus claire de la culture chinoise ».
La Chine a également développé des centres et des chaires de sinologie dans différents pays. L’exemple de la Grèce est assez parlant avec le Hellenic Sinology Center (HSC). L’Université ionienne et l’Université des langues et cultures de Pékin ont signé un accord-cadre établissant le HSC, qui fonctionne comme un institut de recherche conjoint dans le cadre du Centre universitaire pour la recherche et l’innovation de l’Université ionienne (UCRI). Il est par ailleurs soutenu par la chaire Unesco sur les menaces pesant sur le patrimoine culturel et les activités liées au patrimoine culturel de l’Université ionienne. Il sert de pont pour la collaboration universitaire entre la Chine et la Grèce. La sinologie y est définie de la manière la plus large possible.
Toutes ces actions vont dans le même sens et ont le même but : promouvoir l’image de la Chine à travers sa richesse culturelle, en s’appuyant sur les liens existants et l’amitié entre les pays. Afin de ne pas se heurter à des critiques habituelles, l’idée de réciprocité est mise en avant par la Chine : les expositions et musées font l’objet de projets croisés (en France et en Chine). Les commissaires d’expositions sont français et chinois, à part égale.
L’exemple le plus symbolique est le film documentaire Kangxi et Louis XIV, sorti l’an dernier en France et en Chine, réalisé par le cinéaste français Gilles Thomson et le cinéaste chinois La Peikang, co-produit et appuyé par des conseillers scientifiques français et chinois.
On constate que l’ensemble de ces actions vont dans le même sens et sont coordonnées. L’objectif semble atteint, au regard du succès des manifestations, de l’engouement du public, et plus généralement de la consommation continue et croissante de produits chinois (le but final). Même si pour cette dernière, il est difficile de mesurer les effets réels du soft power, il semblerait que celui-ci joue un rôle. Ainsi, des critiques peuvent aussi exister à l’encontre de l’hégémonie américaine (McDonald’s, Apple, Google… ont fait l’objet de critiques et de sanctions) et il semble qu’aujourd’hui, à choisir entre Tesla et BYD, l’opinion publique française penche pour le produit chinois. Cette opinion est très volatile mais le soft power peut aider et, en la matière, les initiatives chinoises sont plus nombreuses que celles des États-Unis.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
17.12.2025 à 16:11
Timides, audacieux, anxieux… les poissons, aussi, ont une personnalité
Texte intégral (2215 mots)
Si vous pensiez que ce qui ressemble le plus à un bar est un autre bar, détrompez-vous, chaque individu a sa propre personnalité, et la recherche décortique ces traits pour mieux les comprendre et pour améliorer le bien-être des animaux.
Depuis des années, voire des siècles, la personnalité a été étudiée chez l’humain. En 1990, cinq tempéraments (ouverture, conscienciosité, extraversion, agréabilité et névrotisme) ont été définis et sont désormais utilisés pour décrire la personnalité humaine. Ces traits ont également été identifiés chez de nombreux animaux terrestres, notamment dans des environnements d’élevage comme les fermes bovines ou porcines afin de disposer d’indicateurs de performances ou de bien-être des animaux.
Chez les animaux, la personnalité a été déclinée en cinq traits : timidité et audace (en réponse à des situations à haut risque), exploration (en réponse à de nouvelles situations), niveau d’activité, d’agressivité et de sociabilité. Ces traits sont souvent liés, on parle alors de typologies comportementales. Deux types de réponses extrêmes sont distinguées et les individus qui composent une population se distribuent entre ces deux extrêmes selon un continuum. Il y a les individus plutôt proactifs qui ont une réponse de combat ou de fuite et, à l’opposé du continuum, les individus principalement réactifs qui ont une réponse de type immobilité et qui montrent une forte timidité.
Tout d’abord démontrées chez les oiseaux ou les mammifères, ces types de réponses conduisent à observer par exemple qu’un cochon plutôt proactif explore son milieu de vie rapidement et forme des routines (il va toujours très vite dans le même couloir chercher sa nourriture) alors qu’un individu plutôt réactif aura une exploration minutieuse de son milieu, sera enclin à changer de direction plus souvent et trouvera plus rapidement sa nourriture si elle a changé de couloir dans un labyrinthe.
Ce poisson est-il timide ou audacieux ?
Pour ma part, je m’intéresse aux poissons depuis plus de trente ans et plus particulièrement à leurs réponses comportementales et à leurs capacités d’adaptation à divers environnements. Chez eux également des travaux menés en laboratoire ou dans l’environnement naturel depuis plus de deux décennies ont contribué à démontrer que, comme tous les animaux, les poissons sont doués de capacités cognitives complexes, d’apprentissage et de mémoire : compétences socles de leur intelligence.
Ces compétences leur permettent de résoudre les problèmes qui se posent à eux pour survivre dans leur environnement naturel et social et, comme tous les animaux, la manière dont ils résolvent ces problèmes sera différente selon leur personnalité, s’ils sont plutôt timides ou audacieux. L’existence des patrons comportementaux correspondants aux deux typologies proactive/réactive a été largement montrée chez les poissons que ce soit dans un contexte d’élevage ou dans un contexte écologique.
Un prérequis pour ces recherches dans l’ensemble, mais aussi pour celles que j’ai conduites, a été d’imaginer des dispositifs expérimentaux pour mesurer ces traits de personnalité adaptés aux animaux en général sociaux que sont les poissons, au milieu aquatique et aux méthodes disponibles. En particulier, il est important de bien concevoir le dispositif et la procédure du test pour éviter les situations d’ambiguïté.
Dans certains cas par exemple, on souhaite mesurer les patrons comportementaux ou le niveau d’anxiété en réponse à un facteur de stress et il existe des tests pour cela, par exemple en plaçant l’individu dans un environnement nouveau et en mesurant immédiatement sa réponse (activité de nage).
Labyrinthes et arènes pour observer les poissons
Dans d’autres cas, on veut mesurer une autre caractéristique que la réponse à un facteur de stress, la méthode la plus simple consiste alors en l’ajout d’une période d’acclimatation qui n’est pas utilisée pour mesurer le trait comportemental d’intérêt. Dans mon laboratoire nous avons divers dispositifs afin de mesurer les capacités comportementales des poissons (comme le médaka marin, le poisson zèbre ou le bar) lors de challenges ou suite à des expositions à des molécules chimiques ou des situations mimant des changements climatiques ou globaux. Il s’agit de labyrinthes, de dispositifs de préférence de place (le poisson peut choisir entre un fond clair ou sombre dans son aquarium), des arènes d’observation (grand aquarium adapté à des petits groupes de poissons) dans lesquelles nous filmons les poissons pour ensuite déterminer leurs déplacements à l’aide de logiciels spécifiques.
Ainsi pour caractériser les traits de personnalité, par définition des caractéristiques individuelles, les expériences ont d’abord été généralement réalisées en travaillant avec des individus testés isolément. En adaptant des tests élaborés pour les rongeurs, nous étudions par exemple l’exploration d’un labyrinthe en Z chez les poissons marins (médaka marin, bar) avec des enregistrements par vidéo des déplacements en 2D.
Un individu est placé dans une zone de départ ombragée, et après quelques minutes d’acclimatation, une porte est ouverte à distance et permet l’exploration de quatre couloirs continus sans obtenir de récompense particulière. Ce test permet d’évaluer à la fois l’audace à travers la prise de risque (sortir de la zone protégée) et l’exploration d’un nouvel environnement. Cela nous a permis par exemple de montrer que l’expérience de vie antérieure chez le bar (être nourri à heure fixe ou à heure imprévisible) avait une influence sur le niveau d’audace : être nourris à heure fixe rendait les individus moins audacieux. Dans un autre contexte, celui de l’écotoxicologie, cela nous a aussi permis de démontrer que les polluants pouvaient altérer l’audace, l’activité et les capacités exploratoires de poissons exposés à certains polluants ou de leur descendance.
Cependant les manipulations exercées sur chaque individu testé constituent une source de stress pouvant aussi bien révéler qu’altérer les réponses comportementales et les capacités cognitives des individus. Pour contourner cela, nous réalisons aussi des enregistrements de l’activité de nage en petits groupes de 6 à 10 individus, cela nous permet de mesurer la réponse comportementale des individus au sein du groupe. Au-delà de l’activité plus ou moins intense, les distances entre les poissons et l’utilisation de l’espace dans cet environnement nouveau sont indicatrices du stress et de l’anxiété des animaux. Avec cette approche, nous évaluons l’activité, la thigmotaxie (déplacements répétés d’un individu qui suit les parois et évite le centre de l’aquarium) et la cohésion des groupes. Dans ce test, la zone centrale est aussi une zone plus exposée qui est préférée par un poisson audacieux, évitée par un poisson timide ou anxieux.
Pour faire la différence entre plusieurs traits comportementaux à l’issue d’un test, il peut être nécessaire de faire plusieurs tests différents et de s’assurer de la convergence des réponses. Par exemple, une baisse d’oxygène disponible augmente la thigmotaxie tout en réduisant l’activité et la cohésion du groupe. Ces indicateurs, combinés à des mesures sanguines de marqueurs du stress tels que le cortisol, permettent de qualifier le niveau de bien-être des animaux.
Des connaissances indispensables pour le bien-être
Toujours dans des groupes, nous avons été parmi les premiers à mesurer l’audace et l’activité individuelle dans de très grands groupes de 500 à 1500 bars. Pour cela nous avons installé dans les bassins d’élevage de 5m3 un séparateur avec un passage circulaire de 10 cm de diamètre au milieu.
Chaque poisson équipé d’une puce électronique a son identité lue par une antenne lorsqu’il quitte le groupe des poissons en zone ombragée et prend le risque d’aller de l’autre côté du séparateur. En répétant le même test trois fois à plusieurs semaines d’intervalle, ces travaux ont démontré un apprentissage du test – une mémorisation, que les traits de personnalité étaient stables dans le temps et que les individus les plus timides avaient une meilleure croissance dans les conditions de notre élevage. Documenter ces traits de personnalité est important en pisciculture pour éviter la sélection par inadvertance de certains traits comportementaux (par exemple, l’agressivité) qui pourraient avoir des conséquences négatives sur la production et surtout compromettre le bien-être des animaux.
En effet le bien-être d’un animal est défini par l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) comme l’état mental et physique positif lié à la satisfaction de ses besoins physiologiques et comportementaux ainsi que de ses attentes. Cet état varie en fonction de la perception de la situation par l’animal.
Ces différents exemples montrent comment en développant des méthodes d’observation adaptées, la mesure des réponses comportementales permet de voir autrement les poissons, montrer et démontrer leurs besoins et attentes, leur sensibilité et leurs capacités cognitives, oublier « la mémoire de poisson rouge ». Penser la place des animaux et des poissons différemment dans nos sociétés est une des étapes essentielles pour comprendre et préserver les poissons dans toute leur biodiversité, y compris celle de leurs comportements dans un contexte de changement global avéré.
Un grand merci à tous les étudiants et collègues qui ont développé ces études à mes côtés.
Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Marie-Laure Bégout a reçu des financements de l'ANR de l'Europe (FP7, H2020, Horizon).
17.12.2025 à 16:07
La France qui se dépeuple, la France qui croît : état des lieux démographique
Texte intégral (2022 mots)

Si l’accent a été mis cet été sur la fin observée de la croissance démographique naturelle en France, tous les territoires ne sont pas touchés de la même façon. Un rapide tour de France nous montre que les dynamiques restent très variées.
En juillet 2025, les médias se sont emparés d’un chiffre choquant : le solde naturel de la France (la différence entre le nombre de décès et le nombre de naissances) était négatif depuis douze mois, marquant l’arrêt de la croissance naturelle du pays. La croissance démographique de la France repose désormais sur le solde migratoire (différence entre les entrées et les sorties du territoire).
Ce phénomène, nouveau à l’échelle nationale, touche en fait de nombreuses communes, voire départements, depuis longtemps, notamment dans les zones rurales.
En France, depuis la fin de la Seconde Guerre mondiale, la croissance démographique a toujours été positive grâce à un solde naturel et un solde migratoire positifs. Depuis quelques mois, le solde naturel est désormais négatif à l’échelle nationale, mais le solde migratoire reste suffisant pour assurer encore la continuité de la croissance démographique du pays.
La région parisienne boostée par les naissances, l’Occitanie par les migrations
Lorsque les soldes naturel et migratoire sont positifs, la population augmente, c’est le cas aujourd’hui des grandes métropoles, de certains espaces frontaliers (avec la Suisse, l’Allemagne, le Luxembourg), mais aussi localement à La Réunion et en Guyane.
La croissance peut parfois être portée uniquement par un solde naturel positif même si le solde migratoire est négatif. On retrouve ces dynamiques dans les mêmes lieux que ceux que nous venons de citer : localement à La Réunion (par exemple, à Saint-Denis) ou en Guyane (à Saint-Laurent-du-Maroni) ou encore dans une moitié de l’Île-de-France, la commune de Lyon (Rhône), etc.
On peut enfin avoir une croissance démographique liée à un solde migratoire positif (les personnes viennent d’autres territoires français, voire internationaux), malgré un solde naturel négatif. C’est le cas de la façade atlantique, du sud de la Nouvelle-Aquitaine, de l’Occitanie, de la région PACA et de la Corse.
A contrario, la décroissance peut être due à des soldes naturels négatifs malgré des soldes migratoires positifs. C’est le cas d’une bonne partie des espaces ruraux du centre de la France jusqu’au sud du Massif central et même jusqu’aux Pyrénées. La moitié nord de la France, à l’exception des zones dynamiques précédemment citées, se trouve dans une situation où le solde migratoire négatif entraîne une baisse de la population, parfois couplée à un solde naturel négatif qui accentue encore ces tendances. La situation de la Guadeloupe et de la Martinique est d’ailleurs similaire.
L’oubli des campagnes
Les chiffres globaux cachent donc une diversité locale souvent laissée de côté. Ainsi, une partie de la France perd de la population de manière régulière depuis plus de cinquante ans et, pour certains lieux, depuis la fin du XIXᵉ siècle.
Le cas du département de la Creuse est l’exemple le plus marquant. Le département a connu son pic de population en 1886, avec presque 285 000 habitants. Depuis, il s’est littéralement vidé. Il a d’abord été victime de l’exode rural, mais, depuis 1975, le solde migratoire est positif. C’est donc depuis lors la panne de la dynamique naturelle qui explique la décroissance démographique de la Creuse. Le solde naturel atteint en effet presque - 1 % par an désormais (un record en France). On y dénombre deux fois et demie plus de décès que de naissances, et l’année 2024 a été marquée par seulement 713 naissances, deux fois moins que dans les années 1970.
Quid de la « renaissance rurale » ?
On a pourtant souvent entendu parler depuis les années 1990 d’une « renaissance rurale ». À l’échelle nationale, c’est effectivement le cas : sous l’influence de l’étalement urbain et l’accélération des déplacements, les campagnes les plus proches des villes, et particulièrement des plus grandes, ont connu une croissance démographique régulière, qui continue. Mais il s’agit en fait surtout d’un effet de débordement des populations urbaines sur les territoires environnant, facilité par le développement des transports (l’automobile en premier lieu).
Les tenants de cette « renaissance rurale » n’ont pas voulu voir la réalité des nombres. Alors que les indicateurs de croissance étaient globalement positifs, le dépeuplement d’une partie du territoire, souvent déjà peu dense, perdurait. En outre, une partie de ces migrations sont le fait de personnes en retraite, ce qui ne peut qu’apporter une dynamisation temporaire de la démographie locale (il n’y a pas de relance de la natalité).
Une récente étude, proposée par les géographes Guillaume Le Roux et Pierre Pistre, montre néanmoins une accélération des dynamiques migratoires au profit des espaces ruraux, à la suite du confinement de 2020. Cependant ces migrations restent modestes et concernent surtout les populations les plus aisées, qui sont aussi les plus âgées.
Des villes qui perdent aussi en population
La baisse de la population touche aussi des villes, et pas des moindres. Elle est souvent liée à l’émigration, mais cela peut-être aussi lié à la baisse de leur dynamique naturelle, ou encore à l’accumulation des deux facteurs.
Dans le premier cas, la baisse de population liée à l’émigration, on trouve plus de 90 villes de plus de 20 000 habitants, dont 27 centres urbains de plus de 50 000 habitants, allant de Bondy, Arles et Sartrouville pour les plus petites, jusqu’à Grenoble, Le Havre, Reims et surtout Paris. Pour la capitale, la dynamique affecte la commune intra-muros : la banlieue et les espaces périurbains d’Île-de-France connaissent des dynamiques variées. L’ensemble de la région Île-de-France reste en croissance grâce à sa dynamique naturelle.
Dans le second cas, la baisse de population liée à la dynamique naturelle, on ne trouve que 13 villes de plus de 20 000 habitants, parmi lesquelles figurent Hyères et Cannes. Une trentaine de villes de 10 à 20 000 habitants sont également concernées, partout en France : cela impacte aussi bien le Sud (Saint-Cyr-sur-Mer, Roquebrune-Cap-Martin…) que le centre (Le Puy-en-Velay, Saint-Amand-les-Eaux…), l’Ouest (Cognac, Thouars, La Flèche, Douarnenez, etc.) ou l’est de la France (Autun, Bischwiller, Freyming-Merlebach…).
Le dernier cas, la baisse de population liée à une décroissance totale (les deux soldes sont négatifs) touche, quant à elle, 74 villes de plus de 10 000 habitants, dont 27 villes de plus de 20 000 habitants, les plus grandes étant : Cherbourg, Bourges, La-Seyne-sur-Mer, et Saint-Quentin.
De la nécessité de penser local
La fin de la croissance naturelle observée à l’échelle nationale est donc un cas de figure déjà connu localement, ce qui peut paraître nouveau est donc déjà expérimenté dans de nombreux endroits. Les dynamiques observées doivent être différenciées aussi bien en termes de taille démographique des territoires concernés que de localisation régionale, ou encore en fonction des profils des habitants concernés. De manière générale, les espaces métropolitains enregistrent plus de naissances que de décès, notamment parce que leur structure par âge est plus jeune. Les populations étudiante et active tendent à rejoindre les villes (ou à y rester), alors que les personnes retraitées partent plus facilement s’installer sur la façade atlantique et dans la moitié sud de la France.
La prise en compte des dynamiques locales dans leur diversité géographique est nécessaire : les besoins ne seront pas les mêmes dans les années à venir dans une petite commune rurale en décroissance en Champagne ou dans une commune en croissance de la banlieue lyonnaise. La décroissance liée à la migration n’a pas les mêmes ressorts que celle liée au solde naturel négatif.
Les conséquences de ces différentes dynamiques ne seront pas non plus les mêmes, que l’on songe par exemple aux besoins d’équipements publics : quid des services au profit de la jeunesse lorsque le solde naturel devient négatif ? La migration concerne-t-elle des jeunes actives diplômées ou des couples de retraités ? Car le profil des migrations a des effets très différents : lorsque de jeunes femmes partent pour les études et ne reviennent pas, c’est la natalité future qui s’en trouve affectée ; lorsque des retraités quittent le territoire, c’est à la fois une perte de revenu local et une moindre charge future pour les services de santé et d’aide à la personne ; lorsque des actifs s’en vont, c’est la ressource en main-d’œuvre qui se réduit. Autant de situations qui se combinent et appellent des réponses locales, adaptées et innovantes.
Il n’y a pas une France en décroissance, mais des variétés de situations. C’est sans aucun doute là qu’est le plus grand défi : penser l’adaptation localement dans un pays dont les discours et l’action politiques sont toujours pensés de manière trop globale.
Sébastien Oliveau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.12.2025 à 12:25
Aux origines de la toute première carte de Noël
Texte intégral (1979 mots)

Du XIXᵉ siècle à nos jours, la carte de Noël illustre la façon dont tradition et innovation se sont mêlées. Née de la révolution industrielle et inspirée d’usages anciens, elle a transformé le rituel des visites de fêtes en un geste papier, devenant une tradition à part entière tout en nourrissant la nostalgie des Noëls passés.
C’est un refrain saisonnier bien connu : « Noël n’est plus ce qu’il était. » Ce n’est pas une plainte nouvelle. L’histoire montre que les traditions de Noël évoluent comme n’importe quel autre aspect des sociétés humaines, et chaque fois que les usages changent, certains regrettent de ne pas pouvoir remonter le temps.
Dans les années 1830, le juriste anglais William Sandys a rassemblé de nombreux exemples de Britanniques déplorant la transformation des coutumes de Noël au fil des époques. Sandys lui-même se montrait particulièrement inquiet du déclin du chant de Noël en public, notant que cette pratique semblait « être un peu plus négligée chaque année ». Il craignait que cette « négligence » ne reflète une tendance plus large, chez les Britanniques du XIXᵉ siècle, à célébrer Noël avec moins « d’hospitalité et d’innocente liesse » que par le passé.
Pourtant, le XIXᵉ siècle a aussi vu naître de nouvelles coutumes de fin d’année. Beaucoup des pratiques apparues à l’époque de William Sandys sont même devenues à leur tour des traditions bien établies – et font aujourd’hui l’objet de nostalgie, voire d’inquiétude chez ceux qui redoutent leur disparition. Prenez, par exemple, la modeste carte de Noël. Mes recherches montrent que ces vœux imprimés, envoyés pour les fêtes, puisaient dans les usages anciens pour faire entrer Noël dans une ère nouvelle.
Une tradition britannique
Les ventes et l’envoi de cartes de Noël sont en recul depuis les années 1990. Les lamentations sur la possible « mort » de la carte de Noël obtiennent un écho particulier au Royaume-Uni, où l’envoi de vœux à la famille et aux amis par cartes imprimées a longtemps été considéré comme un élément essentiel d’un « Noël à la britannique ».
En effet, les historiens Martin Johnes et Mark Connelly soutiennent tous deux que tout au long du XXᵉ siècle, la carte de Noël était considérée comme tout aussi indispensable à un bon Noël britannique que les chaussettes suspendues au pied du lit des enfants, les pantomimes de Noël ou encore la dinde aux choux de Bruxelles.
Pourtant, comme ces mêmes historiens le rappellent, il fut un temps où les Britanniques ne faisaient aucune de ces choses à Noël. Chacune de ces pratiques n’est devenue un élément du Noël « à l’anglaise » qu’au cours de la seconde moitié du XIXᵉ siècle et des premières décennies du XXᵉ siècle. Elles demeurent donc des ajouts relativement récents aux coutumes festives du pays, surtout si on les replace dans les plus de 2 000 ans d’histoire de Noël.
Révolution industrielle et cartes de Noël
La coutume d’envoyer des cartes de Noël imprimées a commencé au milieu du XIXᵉ siècle et résulte directement de la révolution industrielle. Elle est devenue abordable grâce aux nouvelles techniques d’impression et de fabrication du papier, ainsi qu’aux moyens de transport plus efficaces comme le chemin de fer.
L’essor de cette tradition a aussi été facilité par l’instauration du Penny Post en 1840, qui permettait aux Britanniques d’envoyer des lettres à n’importe quelle adresse du Royaume-Uni pour le prix modique d’un timbre à un penny.
La plupart des historiens situent l’apparition de la carte de Noël en 1843, l’année même où Charles Dickens publie Un chant de Noël. Cette année-là, l’inventeur et haut fonctionnaire Henry Cole commande à l’artiste John Callcott Horsley la réalisation d’une carte pour l’aider à gérer plus efficacement sa correspondance de Noël. Des versions imprimées de la carte de Cole furent également mises en vente, mais leur prix élevé – un shilling l’unité – les rendait inaccessibles pour la majorité des Victoriens.
L’initiative de Cole inspira toutefois d’autres imprimeurs, qui se mirent à produire des cartes de Noël similaires mais plus abordables. L’usage de ces cartes moins chères commença à se diffuser dans les années 1850 et s’était imposé comme tradition de fin d’année à la fin du siècle.
Une invention victorienne ?
Si la carte de Noël a pu sembler une nouveauté totale aux expéditeurs et destinataires de l’époque victorienne, la conception de la première carte s’inspirait en réalité d’autres traditions festives britanniques plus anciennes.
Comme l’ont montré les historiens Timothy Larsen et le regretté Neil Armstrong, le statut déjà bien établi de Noël impliquait que les nouvelles coutumes apparues au XIXᵉ siècle devaient s’arrimer à des usages existants, les compléter ou les remplacer. La carte de Noël n’a pas échappé à cette logique.
En 1843, de nombreux Britanniques déploraient la disparition de toute une série de coutumes de Noël dites « à l’ancienne ». Parmi les plus notables figuraient les traditions d’« hospitalité » de Noël, notamment les visites de Noël et du Nouvel An, durant lesquelles familles, amis et voisins se rendaient les uns chez les autres pour porter des toasts et échanger leurs meilleurs vœux pour les fêtes et l’année à venir.
Les chercheurs soulignent que la croyance en l’aspect traditionnel de ces rites tenait à un mélange de souvenirs réels et de fictions construites. Parmi ces dernières, les plus influentes furent les récits populaires dépeignant « l’hospitalité anglaise d’autrefois » à Noël, écrits dans les années 1820 par l’auteur américain Washington Irving et rassemblés notamment dans des histoires mettant en scène cette hospitalité « old English ». Les Britanniques invoquaient régulièrement les descriptions d’Irving lorsqu’ils débattaient de l’évolution des célébrations nationales.
Quelle qu’ait été la réalité historique de ces « anciennes » coutumes, elles sont néanmoins devenues centrales dans les débats sur la disparition supposée d’un ensemble de pratiques communautaires de Noël, telles que les festins, le chant de Noël et les actes publics de charité.
On pensait alors que toutes ces traditions étaient menacées dans cette Grande-Bretagne de plus en plus urbanisée, marquée par des tensions de classe, une mobilité accrue de la population et l’anonymat de masse.
Une union de l’ancien et du nouveau
Bien qu’il soit difficile de savoir si ces débats ont influencé la décision de Cole de commander sa carte de Noël de 1843, l’illustration conçue pour lui par Horsley y fait directement référence.
La carte montre une famille encadrée par des tréteaux décorés de houx et de gui, accompagnée de chaque côté de scènes de charité illustrant le nourrissage et l’habillement des pauvres. Le centre de la carte – et le cœur symbolique de la vision de Noël de Horsley – est toutefois occupé par une famille composée de trois générations clairement définies, partageant un festin collectif, incluant le classique Christmas pudding anglais.
La tradition de l’hospitalité à l’anglaise revisitée
Les premières cartes privilégiaient des scènes évoquant un Noël « à l’ancienne » : chants, actes de charité, sports de plein air, jeux comme colin-maillard, abondance de feuillage, festins et toasts de Noël et du Nouvel An. Ces cartes étaient donc des produits industriels innovants, ornés d’images des Noëls britanniques d’antan.
Le développement, puis le succès, de la carte de Noël dans l’Angleterre victorienne montre comment la nostalgie pouvait être canalisée en invention. La carte n’a pas revitalisé les traditions de visites de Noël et du Nouvel An ; elle a offert une version « papier » en remplacement. La production industrielle et les moyens de transport ont transformé le visiteur physique en un substitut papier, permettant à davantage de personnes de « rendre visite » à un plus grand nombre de foyers pendant les fêtes que ce qu’elles auraient pu faire en personne.
Le désir de conserver un élément d’une ancienne tradition de Noël, supposément en déclin, s’est ainsi avéré déterminant dans la création d’une nouvelle tradition festive, au milieu de changements sans précédent dans les modes de communication et les relations sociales.
Aujourd’hui, un contexte similaire de mutations sociales et technologiques a conduit certains à prédire la « mort » de la carte de Noël. L’histoire du XIXᵉ siècle montre cependant que, si cette tradition venait à disparaître, ce qui la remplacerait prospérerait en s’inspirant, de manière sélective, des coutumes de Noël du passé.
Christopher Ferguson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.12.2025 à 12:22
La fraternité, une valeur qui rassemble ou qui exclut ? Retour sur une histoire et ses ambiguïtés
Texte intégral (2320 mots)
Terme clé de la devise républicaine, trônant aux frontons de toutes les mairies, la fraternité est un terme traversé d’ambivalences qu’éclaire l’histoire. Plus que comme un principe, moral ou politique, ne faudrait-il pas plutôt l’envisager comme une métaphore ? Avec les possibilités et les limites que cela suppose, elle apparaît alors pour ce qu’elle est : une image puissante, à mettre au service d’une lutte.
La fraternité trouve une place particulière dans l’imaginaire français. Terme clé de la devise républicaine, trônant aux frontons de toutes les mairies, elle apparaît universelle et comme hors du temps. Pourtant, cette valeur a bien une histoire, tumultueuse s’il en est, et même une actualité.
En 2018, les institutions de la République française se sont prononcées deux fois sur la fraternité. D’un côté, le Haut Conseil à l’égalité entre les femmes et les hommes (HCE) a publié un avis relatif à la révision constitutionnelle. Ce texte fait écho aux conclusions de la chercheuse Réjane Sénac, laquelle était également présidente de la Commission parité du HCE, en affirmant que « le terme de fraternité dit, non pas la neutralité républicaine, mais l’exclusion historique et légale des femmes de la communauté politique ».
Le HCE recommandait par conséquent d’envisager des alternatives comme « solidarité » ou « adelphité », ce dernier terme désignant les enfants d’un même parent, sans distinction de genre. La fraternité, c’est la bande de frères – sans les sœurs.
De l’autre, par suite de l’affaire Cédric Herrou, poursuivi pour avoir aidé quelques deux cents personnes migrantes à traverser la frontière entre l’Italie et la France, le Conseil constitutionnel a déclaré que « la fraternité est un principe à valeur constitutionnelle », ce qui lui confère un poids juridique. Il revient donc au législateur d’arbitrer « entre le principe de fraternité et la sauvegarde de l’ordre public ».
La fraternité ouvrait soudain une brèche juridique pour un internationalisme de terrain – aussi longtemps, du moins, qu’on n’accuserait pas celui-ci de troubler l’ordre.
Les ambiguïtés historiques de la fraternité
La fraternité, qui avait fini par faire partie des meubles de la République, se retrouvait par deux fois au cœur des débats constitutionnels ; tour à tour soupçonnée et consacrée. Cette ambivalence n’est pas accidentelle. Célébrée par l’ensemble du spectre politique, la fraternité n’est que rarement définie, si bien qu’on en ignore le plus souvent l’extension (qui est un frère et selon quel critère ?) et la signification (à quoi engage cette relation fraternelle ?). L’appel à la fraternité, vague et sans objet, est aussi unanime qu’inconséquent.
Les manques et les ambiguïtés de la fraternité ne sont pas nouveaux. Si la fraternité a été une valeur importante dans la rhétorique des sans-culottes en 1789, elle trouve son point d’orgue dans le Printemps des peuples, en 1848, qui mit fin à la monarchie de Juillet en France et fit trembler les couronnes réactionnaires de l’Europe. Cette notion de fraternité permettait aussi bien d’imaginer la nation, conçue comme une bande de frères, que les relations pacifiques entre les nations.
Pourtant, dès 1848, on pourrait accuser la fraternité d’illusion, d’exclusion et d’infantilisation. À la communauté des frères s’opposent ces figures négatives que sont, respectivement, les faux frères, les non-frères et les petits frères.
Les deux premières critiques sont bien connues. Selon Marx et Engels, la fraternité serait une illusion qui ne dure qu’un temps, c’est-à-dire aussi longtemps que les intérêts matériels des différentes classes s’alignent. Elle serait également une exclusion, car, malgré son universalisme affiché, elle exclut les non-frères. Ainsi les femmes, qui étaient sur les barricades, se sont vu refuser le droit de vote dit « universel ». Les frères ne reconnurent pas leurs sœurs en République.
La dernière critique dénonce l’intégration hiérarchisée, comme lors de l’abolition de l’esclavage dans les anciennes colonies. Afin de faire appliquer la décision du Gouvernement provisoire, Sarda Garriga, nouveau gouverneur de La Réunion, accosta sur l’île en octobre. Son discours, face à une société coloniale divisée, en appelait à l’unité fraternelle :
« Dieu vous a créés frères […] Si ceux qu’une triste classification avaient constitués les maîtres doivent apporter un esprit de fraternité […] dans leurs rapports avec leurs anciens serviteurs […] n’oubliez pas, vous frères qui allez être les nouveaux élus de la cité, que vous avez une grande dette à payer à cette société dans laquelle vous êtes près d’entrer. »
On attendit la fin de la récolte de la canne pour concrétiser l’abolition, le 20 décembre 1848. « Tous égaux devant la loi, vous n’avez autour de vous que des frères », commença Sarda Garriga, avant de prévenir :
« La colonie est pauvre : beaucoup de propriétaires ne pourront peut-être pas payer le salaire convenu qu’après la récolte. Vous attendrez ce moment avec patience. Vous prouverez ainsi que le sentiment de fraternité, recommandé par la République à ses enfants, est dans votre cœur. »
Au nom de la fraternité, on avait mis fin à l’esclavage. Au nom de la fraternité toujours, on imposait maintenant aux personnes anciennement réduites en esclavage de continuer à travailler dans les exploitations coloniales afin de maintenir l’ordre de la société coloniale.
La fraternité comme métaphore
Dès son apogée en 1848, la fraternité avait été mise aussi bien au service de la révolution que de la réaction, de l’exploitation que de la libération. Son ambivalence n’est donc pas accidentelle mais tient à sa nature. On fait souvent de la fraternité une valeur qui devrait guider notre action. Or, la fraternité n’est pas tant un principe, moral ou politique, qu’une image.
Comme l’a bien vu l’historien Benedict Anderson, dès que la communauté atteint une certaine taille, nous ne pouvons plus nous la représenter exactement d’où le recours à une image (la nation est « une bande de frères »). Cette image est donc nécessairement inadéquate (à strictement parler, la nation « n’est pas » une bande de frères), ce qui est la définition classique de la métaphore.
Une image ne se comprend qu’en lien avec un imaginaire donné, c’est-à-dire ancré dans un contexte culturel. Si l’image peut traverser les époques et les géographies, comme c’est le cas de la métaphore fraternelle, l’imaginaire, lui, est situé historiquement et socialement.
L’inadéquation métaphorique de l’image à la chose ne doit pas être pensée comme un manque ou un raté. La métaphore permet notamment de rendre la communauté imaginable. Surtout, elle va connoter la chose (la nation est « quelque chose comme » une bande de frères) et la charger affectivement (la nation est « notre » bande de frères). Les images contribuent à susciter un attachement viscéral à cette communauté de hasard qu’est la nation.
Sororité, adelphité, fraternité
L’image fraternelle est-elle encore d’actualité ? On peut être tenté de se tourner vers d’autres images familiales, comme la sororité, qui consacre la relation entre toutes les femmes, mais rien que les femmes, ou l’adelphité, qui évoque le lien entre les enfants d’un même parent, sans distinction de genre.
Quoique la sororité soit une image particulièrement puissante aujourd’hui, elle n’est pas exempte des ambiguïtés qui traversaient la fraternité. L’universalisme féminin de la sororité produit également une illusion d’unité qui invisibilise les relations de domination de race et de classe au sein de la communauté des sœurs. Comme il y a des petits frères, il y a de petites sœurs. Par ailleurs, la sororité manque de clarté quant à son extension et sa signification : s’étend-elle à toutes, y compris au groupe féministe d’extrême droite Némésis, à Marine Le Pen ou à Giorgia Meloni et, si tel est le cas, qu’implique-t-elle exactement ?
L’adelphité, de son côté, si elle permet d’échapper à la binarité du genre, ne résonne guère pour l’heure en dehors des cercles militants, ce qui limite sa charge affective.
Les métaphores n’offrent pas de boussole politique ou morale. Dès lors, que faire de la fraternité ? Deux voies sont déjà ouvertes. Soit on peut l’abandonner en faveur d’autres images jugées plus prometteuses, comme la sororité ou l’adelphité ; soit faire avec, notamment du fait de son ancrage si particulier dans l’imaginaire républicain français. Si ces deux options prennent des directions différentes, elles relèvent toutes deux d’une même « pragmatique de l’image ». Penser la fraternité ne devrait pas en faire un fétiche, mais nous conduire à appréhender sa puissance affective afin de mettre cette métaphore, parmi d’autres, au service de nos luttes.
Le programme ACCESS ERC dans le cadre duquel Arthur Duhé poursuit ses recherches sur les images fraternelles dans les discours nationalistes, antinationalistes et internationalistes, de 1789 aux années 1970, est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projet. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Arthur Duhé a reçu des financements de l'ANR et en recevra du FNRS (2027-2030).
17.12.2025 à 12:20
Mille sept cents ans après le concile de Nicée, la visite historique du pape Léon XIV
Texte intégral (2060 mots)
L’actualisation du concile de Nicée à l’occasion du voyage, en novembre 2025, du pape Léon XIV en Turquie permet de réfléchir aux enjeux de ce concile pour la géo-ecclésiologie (étude du rapport de l’Église aux territoires) actuelle. Le pape promeut une approche dynamique de Nicée : quel impact sur l’unité des Églises et sur le dialogue œcuménique et interreligieux ?
Dans l’avion qui l’amenait de Turquie au Liban le dimanche 30 novembre 2025, le pape Léon XIV a expliqué pourquoi il avait souhaité effectuer ce voyage dans la région :
« La première raison […] était le 1 700e anniversaire du Concile de Nicée […] pour commémorer le grand événement : l’accord de toute la communauté chrétienne et la profession de foi, le Credo de Nicée-Constantinople. »
Faut-il voir dans ce déplacement un simple hommage aux sources du christianisme ou, au-delà, un choix symbolique qui annonce une orientation importante de ce que sera le pontificat de ce pape de 70 ans élu en mai dernier ?
L’évolution de l’adjectif « œcuménique »
Le 28 novembre 2025, cet « accord de toute la communauté chrétienne » s’est manifesté par une célébration œcuménique qui a rassemblé de nombreux responsables chrétiens – catholiques, orthodoxes et protestants – autour du patriarche orthodoxe de Constantinople Bartholomée Ier et du pape Léon XIV.
Mais le concile de Nicée s’est réuni avant toutes les séparations entre les Églises ; dès lors, comment se fait-il qu’il soit appelé le premier concile « œcuménique » ?
À Nicée (aujourd’hui Iznik), en 325, le premier concile est le fruit immédiat de l’édit de Milan, promulgué en 313 par les co-empereurs romains Licinius et Constantin, qui promouvait la tolérance religieuse et marquait la fin des persécutions de l’Empire romain contre les chrétiens.
Le fait de se réunir (« concile » vient du latin concilium qui signifie assemblée) pour se mettre d’accord sur les questions nouvelles n’a en soi rien de nouveau puisque c’était déjà le mode habituel de gouvernance des Églises, y compris pendant les persécutions, mais à échelle locale.
Cependant, en convergeant vers Nicée par les voies romaines, les évêques entourés de délégations sont pour la première fois en capacité de représenter l’Église « universelle ». C’est vers cette réalité que pointe alors l’adjectif « œcuménique ».
Au cours des siècles, l’adjectif a changé de sens. Dans l’Antiquité, il a d’abord un sens géographique et signifie que le concile a vocation à rassembler, au moins potentiellement, les évêques de tout l’Empire. Aujourd’hui, il revêt un sens plus technique et désigne les différentes formes de dialogue interconfessionnel au sein des différentes Églises chrétiennes. Il n’en demeure pas moins que les Églises, séparées au fil des siècles, célèbrent toujours en Nicée un patrimoine commun qui les réunit sur l’essentiel.
Un « credo » commun
L’enjeu majeur, en 325, était de se mettre d’accord sur les mots pour exprimer la foi au Christ en tant que Fils de Dieu.
Alors que le prêtre alexandrin Arius formulait une certaine subordination du Fils par rapport au Père en raison de sa nature humaine, les évêques réunis affirment que ce Fils n’est pas moins Dieu que le Père : il est de même nature que le Père.
Pour transmettre cette conviction, ils élaborent une profession de foi, le premier credo que chacun des évêques rapportera chez lui pour le transmettre aux fidèles aux quatre coins de l’Empire.
Les professions de foi alternant le mode narratif et la précision théologique étaient déjà le mode habituel de formulation de la foi depuis les origines ; c’est sur les modèles de professions de foi déjà existantes utilisées lors des baptêmes que le concile élabore son credo. Mais les évêques de Nicée ont conscience de formuler à cette occasion une profession de foi capable de servir de repère pour l’Église universelle. Elle sera par la suite complétée au concile de Constantinople en 381 (d’où son nom de Credo de Nicée-Constantinople), mais elle ne changera pas sur le fond. « Le Credo de Nicée-Constantinople est ainsi la profession commune de toutes les traditions chrétiennes », comme le souligne le pape dans la lettre apostolique du 23 novembre 2025 In unitate fidei à l’occasion de l’anniversaire de Nicée.
Cette conviction est toujours celle des différentes Églises chrétiennes rassemblées ; c’est donc bien leur patrimoine commun que les acteurs de la commémoration de 2025 ont voulu mettre en valeur, sans pour autant renier leurs identités propres.
En quoi ce voyage porte-t-il un aspect symbolique ?
C’est justement dans l’articulation entre unité et diversité que le patriarche Bartholomée et le pape Léon XIV se positionnent de façon très claire, proposant de « marcher ensemble » : « Nous devons marcher ensemble, dit le pape Léon XIV, pour parvenir à l’unité et à la réconciliation entre tous les chrétiens. » (In unitate fidei 12.)
Il poursuit : « Le Credo de Nicée peut être la base et le critère de référence de ce cheminement. Il nous propose en effet un modèle de véritable unité dans la diversité légitime. […] Car l’unité sans multiplicité est tyrannie. » (In unitate fidei 12.)
Ainsi, cette unité n’est nullement comprise comme une uniformité, qui serait d’ailleurs plus ou moins fantasmée ; le projet ne vise pas le lissage des individualités mais le dialogue.
Loin de toute naïveté, la rencontre de Nicée manifeste donc la volonté des responsables religieux présents de donner du christianisme une image du dialogue pour la paix. « Car nous ne sommes pas rassemblés ici simplement pour nous souvenir du passé », a affirmé le patriarche Bartholomée dans son discours de bienvenue.
S’il a été possible de se rencontrer (et n’est-ce pas là le plus difficile justement ? l’absence de l’Église russe planant comme un rappel douloureux des aspects politico-religieux dans les conflits actuels), alors le geste devient également « proposable » au niveau du dialogue interreligieux (en Turquie et au-delà) et même au niveau politique. La suite du voyage du pape au Liban peut ainsi être lue comme une conséquence géo-ecclésiologique de la mémoire vivante de Nicée.
Plus largement, les débats de Nicée ne se limitent pas à des enjeux internes à la foi chrétienne, mais ouvrent sur le dialogue avec les cultures. Pour dire le cœur de leur foi, les évêques de Nicée peaufinent le vocabulaire et optent, audacieusement, pour un terme non pas biblique mais issu de la culture philosophique grecque, apte selon eux à préciser de façon décisive leur pensée. L’adjectif grec homoousios (traduit ensuite en « consubstantiel » en français à partir du latin consubstantialis) générera plus d’un siècle de débats, mais exprime une ouverture au dialogue avec la culture profane. Fils de leur temps et héritiers de cette culture, ils décident de « cheminer avec » ce qu’elle peut offrir de positif pour eux, illustrant ainsi ce qu’on appellera plus tard l’inculturation de la foi, c’est-à-dire l’expression de la foi dans et grâce au génie de chaque culture recevant l’Évangile.
Le pari était risqué et, effectivement, le concile de Nicée est loin d’avoir mis un terme aux conflits de formulations concernant la nature du Fils. Il faudra attendre le 4ᵉ concile œcuménique à Chalcédoine, en 451, pour trouver une expression stabilisée et apaisée. Mais le processus d’inculturation illustré à Nicée marque le christianisme antique de façon irréversible.
Toutes ces « dispositions » marquantes envers le dialogue et la paix font de Nicée, comme premier voyage du pape Léon XIV, un lieu symbolique qui trace une orientation forte pour son pontificat. Entre enracinement dans l’histoire et service de la paix dans le monde, Léon XIV place ce premier voyage dans la continuité des grands travaux inaugurés par le pape François sur la synodalité. Le mot grec syn-odos ne signifie-t-il pas justement « faire route ensemble » ?
Marie Chaieb ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.12.2025 à 12:20
Les échos de l’insurrection décembriste de 1825 résonnent toujours dans la Russie de Vladimir Poutine
Texte intégral (4706 mots)

Le 14 décembre 1825 (selon le calendrier julien alors en vigueur en Russie, soit le 26 décembre selon le calendrier grégorien instauré en Europe occidentale depuis le XVIᵉ siècle et que la Russie soviétique reprendra à son compte en février 1918), l’Empire russe se prépare à célébrer l’accession au pouvoir d’un nouveau tsar, Nicolas Ier, 29 ans, frère du tsar précédent Alexandre Ier, décédé un peu moins d’un mois plus tôt. Mais la cérémonie prendra un tour bien différent de celui qui était attendu et la journée restera dans les mémoires comme celle de la « révolte des décembristes » (ou décabristes, du russe « dekabr’ », qui a donné le mot russe « dekabristy »). Cet important groupe de nobles, influencés par les transformations que connaissait alors l’ouest de l’Europe et désireux de faire évoluer le pays vers une monarchie constitutionnelle, cherchèrent sans succès à s’emparer du pouvoir en mobilisant plusieurs régiments de soldats et furent écrasés par la force.
Au cours des deux cents années suivantes, les événements de cette journée et la répression qui s’ensuivit allaient faire l’objet d’interprétations et de présentations très différentes. Cette mutinerie d’une partie de l’élite contre un pouvoir autocratique fut-elle, pour le pays, une chance manquée de prendre un tournant démocratique ? Faut-il y voir un simple coup de palais ou une annonce des révolutions de 1905 et de 1917 ? Le régime actuel cherche-t-il à célébrer la mémoire des décembristes ou au contraire à les dépeindre en « cinquième colonne à la solde de l’Occident » avant l’heure ? Éléments de réponses avec l’historien Andreï Kozovoï, professeur d’histoire russe et soviétique à l’Université de Lille, auteur, entre autres publications, de « Égéries rouges. Douze femmes qui ont fait la révolution russe » (Perrin, 2023) et, tout récemment, des « Exilés. Pasternak et les miens » (Grasset, 2025).
The Conversation : Pouvez-vous nous rappeler ce qu’on entend par « insurrection décembriste » et ce qui s’est passé exactement le 14 décembre 1825 ?
Andreï Kozovoï : Le terme de « décembristes » désigne les membres de diverses sociétés secrètes, appelées « unions », constituées en Russie entre 1816 et 1821. Ils doivent leur nom au fait qu’ils ont pris les armes contre la monarchie russe en décembre 1825. Il faut préciser que l’insurrection avait d’abord été planifiée pour 1826 ; mais, pris de court par la mort soudaine de l’empereur Alexandre Ier, le 19 novembre (1er décembre selon le calendrier grégorien) 1825, les séditieux ont été obligés d’improviser. Leur soulèvement a lieu le 14 décembre (soit le 26 décembre), jour où le nouveau tsar Nicolas Ier devait prêter serment à Saint-Pétersbourg. Ils engagent alors près de 3 000 soldats sur la place du Sénat, où se déroule la cérémonie. Au même moment, un autre soulèvement a lieu dans le sud de l’Empire russe, notamment en Ukraine.
Les soldats suivent leurs chefs par loyauté mais aussi parce que ceux-ci leur ont fait diverses promesses, à commencer par l’abolition du servage et un net raccourcissement du service militaire (de 25 ans à 15). En outre, ils n’ont pas l’impression de se révolter, les décembristes affirmant s’opposer au couronnement de Nicolas parce qu’ils estiment que l’héritier légitime est le frère aîné de celui-ci, Constantin, sans savoir que ce dernier, qui est gouverneur de la Pologne, a secrètement renoncé au trône après avoir contracté un mariage morganatique avec une comtesse polonaise et préfère rester vivre dans ce pays.
L’insurrection échoue. Les décembristes avaient beaucoup réfléchi à leurs projets politiques une fois le coup d’État accompli ; mais comme de mauvais joueurs d’échecs, ils ont négligé la tactique et n’ont pas vu arriver le mat. Le prince Troubetskoï, désigné « dictateur », devait se charger de prendre la tête du soulèvement, mais il prend peur et se réfugie chez l’ambassadeur d’Autriche, avant de se rendre (ce qui ne l'empêchera pas d’être condamné à mort, avant de voir sa peine commuée en exil à perpétuité). Personne ne veut se charger de prendre la tête du soulèvement et, en bons chrétiens, les conjurés répugnent à verser le sang, préférant tenter de fraterniser avec les troupes qui leur font face. Le camp adverse n’aura pas autant de scrupules.
Après avoir donné l’ordre de tirer sur les mutins – il y aura au moins plusieurs dizaines de morts, dont un certain nombre d’habitants de la ville qui étaient venus sur la place pour assister au couronnement, même si certaines estimations donnent des chiffres nettement plus élevés –, le nouveau tsar fait pendre cinq meneurs. Nicolas Ier organise personnellement le détail des exécutions, voulant offrir « une leçon à l’Europe ». Ce qui n’empêche pas la corde de trois des condamnés de se briser au moment de leur exécution – l’un d’entre eux, Kondratiï Ryleïev, aurait eu le temps de dire « En Russie, on ne sait même pas pendre correctement » avant d’être pendu une seconde fois, cette fois pour de bon…
Par ailleurs, le tsar fait exiler plus de 200 complices et sympathisants, avec leurs épouses, dans les bagnes de Sibérie orientale, dans les glaciales Nertchinsk, Tchita et Irkoutsk.
Qui sont les décembristes et quelles sont leurs idées ?
A. K. : Ce sont d’abord des nobles, pour l’essentiel d’anciens officiers de la guerre contre Napoléon. On trouve parmi eux aussi un certain nombre de civils. Globalement, ils sont l’incarnation de ce que l’on appelle alors l’intelligentsia, catégorie sociale qui a émergé en Russie à la fin du XVIIIᵉ siècle.
S’ils s’entendent sur un certain nombre d’idées, notamment sur le fait que l’autocratie et le servage doivent impérativement être abolis, les différences sont notables. Pour simplifier, deux courants peuvent être distingués : Nikita Mouraviov rassemble les « modérés », ceux qui voudraient voir la Russie devenir une monarchie constitutionnelle ; Pavel Pestel, ardent démocrate, unit les « radicaux », ceux qui imaginent une république jacobine à la russe, et n’exclut pas la possibilité d’un tsaricide.
Le mouvement décembriste est inspiré des soulèvements d’officiers libéraux en Espagne, au Portugal et à Naples survenus au cours des années précédentes ; il est lié à des sociétés secrètes en Pologne. Mais l’idée d’abolir l’autocratie s’inscrit aussi dans une tendance russe ancienne. On se souvient qu’en 1730, à l’avènement de l’impératrice Anne, un groupe de nobles avait tenté, sans succès, de lui imposer des « conditions » pour limiter son pouvoir.
Après l’écrasement de l’insurrection, Nicolas Ier cherche-t-il à en effacer la mémoire ou au contraire à rappeler l’événement et le sort de ceux qui avaient osé s’élever contre lui pour dissuader d’éventuelles nouvelles contestations ?
A. K. : L’exil des conjurés vise à les éloigner pour toujours de la Russie européenne ; il a aussi pour but d’effacer toute trace de leur acte de la mémoire collective. Mais une chose est certaine : Nicolas Ier, lui, ne les oublie pas.
Pour l’empereur, l’insurrection de 1825 devient même une obsession. Voyant dans les décembristes des agents d’un complot européen contre l’autocratie, il fonde en 1826 une nouvelle police politique, la Troisième Section de la Chancellerie impériale, qui traque toute sédition. La censure est considérablement durcie : désormais, pour publier des textes d’auteurs russes ou étrangers, il faut obtenir une autorisation en amont. Les textes des décembristes sont évidemment interdits.
Enfin, Nicolas Ier cherche à adapter la base idéologique de son régime pour prévenir de nouvelles contestations. En 1833, le ministre de l’éducation Sergueï Ouvarov introduit une nouvelle doctrine impériale, résumée dans sa célèbre formule « Orthodoxie, autocratie, esprit national », ce dernier élément (narodnost en russe) devant être compris comme une tentative de donner de l’Empire russe l’image d’un État-nation moderne.
Il faut attendre la mort de Nicolas en 1855 et l’avènement de son fils Alexandre II pour que le pouvoir russe tente de s’attaquer à la racine du mal, en abolissant le servage et en organisant de profondes réformes.
En 1856, les décembristes survivants sont amnistiés. C’est aussi l’année où l’on autorise enfin la publication du poème « En Sibérie » (aussi connu sous le nom de « Dans les profondeurs des mines de Sibérie »), d’Alexandre Pouchkine, dédié aux décembristes, écrit en… 1827 ! Mais Justice russe, le manifeste de Pestel, ne sera publié en Russie qu’après la révolution de 1905 (il était paru en français dès 1822 sous le titre de Vérité russe).
Les décembristes constituent-ils une référence pour les révolutionnaires des générations suivantes ?
A. K. : Pour les adversaires du régime tsariste, les décembristes deviennent des martyrs de la cause révolutionnaire. Le penseur Alexandre Herzen, « le père du socialisme russe », qui s’exile à Paris en 1847, les compare à des bogatyri, les surhommes légendaires du folklore russe. Il est celui qui a forgé le « mythe décembriste ».
Il faut souligner aussi que ce mythe repose en bonne partie sur le rôle des femmes. Maria Volkonskaïa, Ekaterina Troubetskaïa et d’autres épouses de décembristes, de familles illustres, choisissent de partager le sort de leurs compagnons dont elles vont raconter la vie en exil dans leurs lettres, Mémoires et autobiographies. Leur dévouement inspire poètes et écrivains qui forgent le mythe de la dekabristka, une femme qui a sacrifié sa vie de dame du monde, de privilégiée, pour le bien du peuple russe.
Dans les années 1860, les idées décembristes inspirent le mouvement socialiste agraire des « populistes » (narodniki), qui imaginent une révolution partie des campagnes. En 1879, le premier parti révolutionnaire russe, Terre et liberté, est inspiré des idées de Pestel. Une bonne partie des révolutionnaires exilés de l’époque répressive d’Alexandre III (1881-1894), hommes et femmes, continueront d’entretenir ce mythe.
Mais les décembristes n’ont-ils pas aussi joué le rôle d’anti-modèles ?
A. K. : En effet, à mesure que les révolutionnaires russes se radicalisent, le jugement sur le décembrisme devient plus circonspect. Pour les terroristes de l’organisation Volonté du peuple, qui assassinent le tsar Alexandre II en 1881, et plus tard pour ceux de l’Organisation du combat des socialistes-révolutionnaires, à l’origine d’une vague d’assassinats au début du XXᵉ siècle, les décembristes ont failli parce qu’ils ont été des « faibles ».
Les marxistes reprennent une partie de ces critiques, dénonçant les décembristes comme de vulgaires « aristocrates de la révolution ». Pour l’historien marxiste Mikhaïl Pokrovski (1868-1932), le 14-Décembre a été une « révolution sans révolution ». Lénine transcende ces critiques en inscrivant le mouvement décembriste dans une histoire longue de la révolution russe, qu’il divise en trois phases, les aristocrates décembristes étant la première, encore imparfaite mais nécessaire, d’une longue lutte contre l’autocratie
– la deuxième étant constituée par les roturiers populistes de la fin du XIXᵉ siècle, et la troisième par les prolétaires du début du XXᵉ siècle. En 1912, il écrit : « Le cercle de ces révolutionnaires était très limité. Ils étaient terriblement coupés du peuple. Mais leur combat n’a pas été vain. »
Que devient la mémoire du 14-Décembre à l’époque soviétique ?
A. K. : Après 1917, dans la nouvelle Russie soviétique, le décembrisme est un phénomène sur lequel il n’existe pas de consensus. Sont-ils d’authentiques révolutionnaires, des exploiteurs du peuple qui ont berné leurs soldats, ou encore des agents de l’étranger ? Avec la diabolisation du tsarisme, ils font de plus en plus partie d’un « passé gênant ».
Après de longs débats, les héritiers de Lénine, mort en 1924 (et par là on entend d’abord la troïka Staline, Kamenev et Zinoviev) finissent par conclure que si les décembristes avaient été « coupés des masses », le sang qu’ils ont versé a fait germer les graines de 1917. À Leningrad, la place du Sénat est rebaptisée place des Décembristes ; des recherches sont lancées en vue de retrouver le lieu de sépulture des cinq décembristes pendus en 1826 – ce sera chose faite en 1926, sur l’île Golodaï, qui sera rebaptisée île des Décembristes. Et à Moscou, un opéra et une pièce de théâtre sont interprétés en leur honneur.
Les discussions publiques autour de l’insurrection décembriste reprennent progressivement après 1945, surtout après la mort de Staline (1953), à l’époque du « dégel ». Leur réhabilitation définitive a lieu en 1975, quand le 150e anniversaire de leur soulèvement fait l’objet d’une commémoration organisée par le ministère soviétique de la culture. L’Étoile d’un merveilleux bonheur, film qui deviendra culte, consacré aux femmes des décembristes, sort sur les écrans en novembre de cette année.
Ce retour en grâce s’explique d’abord et avant tout par la crainte, au sein des autorités, de laisser s’instaurer l’idée que les décembristes auraient été les lointains ancêtres des dissidents. Il faut ici rappeler que le slogan « Pour notre liberté et la vôtre » brandi par la poignée de courageux contre l’invasion de la Tchécoslovaquie, en août 1968, reprend en effet celui qui avait été utilisé, en 1831, en Pologne, pour rendre hommage aux martyrs de 1825.
En décembre 1975, Vladimir Poutine, alors jeune officier du KGB, participe à une contre-manifestation organisée par les services secrets, place du Sénat, pour contrer un petit groupe de protestataires. Un quart de siècle plus tard, le même Poutine, en bon caméléon, fait d’abord mine d’honorer la mémoire des hommes de 1825. Le 18 février 2000, durant sa première campagne présidentielle, il se rend à Irkoutsk, au Musée des décembristes : l’objectif est de rassurer son électorat démocrate et les Occidentaux. Mais vers le début de son deuxième mandat (2004-2008), alors que « la verticale du pouvoir » est bien restaurée, les masques commencent à tomber. En octobre 2005, Mikhaïl Khodorkovski, célèbre oligarque qui a tenu tête à Poutine ce qui lui a valu d’arrêté et condamné, se dit fier d’avoir été exilé sur les terres des anciens prisonniers politiques. Pour contrer ce danger de récupération par l’opposition, une campagne est organisée dans les médias, qui tend à discréditer le mythe. Et en 2008, la place du Sénat à Saint-Pétersbourg, qui avait porté le nom de place des Décembristes depuis 1925, retrouve son nom originel. Tout est dit !
Comment le regard sur le décembrisme évolue-t-il au cours de la période récente ? La guerre d’agression contre l’Ukraine a-t-elle une influence ?
A. K. : La déconstruction du mythe décembriste se poursuit, lentement mais sûrement. En 2019, le film à gros budget l’Union du salut tend à réhabiliter la répression de Nicolas Ier.
Mais la diffusion de sa suite (sequel et prequel), sous forme de série, l’Union du salut. Le temps de la colère, est interrompue après le quatrième épisode, en octobre 2022. On peut l’expliquer par la peur, chez les producteurs, de se retrouver accusés de vouloir diffuser un message secrètement apologétique du mouvement. Dans la série, les personnages des décembristes sont encore trop sympathiques et surtout, au même moment, Vladimir Medinski, « l’historien en chef » de Poutine et ancien ministre de la culture, publie en ligne une conférence de près de trois heures, qui donne le la en matière d’interprétation.
Medinski, connu pour ses recherches plus que douteuses sur l’histoire russe, conclut en disant que si les décembristes étaient des personnalités brillantes, mues par des idées nobles, leur soulèvement, inspiré des idées venues d’Occident, a provoqué un « effet pervers », une ère de réaction et de gel de réformes pourtant nécessaires à la Russie. Et s’ils avaient gagné, le pays aurait été plongé dans une terrible guerre civile. Le « manuel d’histoire unique », lancé pour la rentrée 2024, rédigé par le même Medinski, qualifie leurs projets d’« utopiques ». En mai 2025, le ministre de la justice Konstantin Tchouïtchenko va jusqu’à dire que le tsarisme s’est montré trop clément avec eux, et que sans ce soulèvement, « Herzen n’aurait pas été réveillé » et donc, logiquement, la Russie aurait sans douté évité le communisme et ses excès.
L’orientation générale de la commémoration de 2025 dans l’espace public russe ne laisse aucune place au doute. En cette époque de mobilisation en vue de la victoire contre les « néo-nazis ukrainiens » et contre toute forme d’opposition à l’intérieur, la geste décembriste, celle d’un groupe de l’élite militaire qui s’oppose au pouvoir pour exiger plus de liberté, est redevenue un « passé gênant ». Le dernier soulèvement militaire, celui de Prigojine, les 23-24 juin 2023, a rappelé que le risque d’une insurrection armée était toujours d’actualité. Les jeunes Russes n’ont qu’à bien se tenir : s’ils ne sont pas contents, libre à eux de présenter leurs doléances à Poutine par écrit ! Et d’éviter de se rendre en groupes sur la place du Sénat… ou place Bolotnaïa, à Moscou.
Propos recueillis par Grégory Rayko.
Andreï Kozovoï ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.12.2025 à 11:47
Ponzi schemes and financial bubbles: lessons from history
Texte intégral (1330 mots)

Many investors are asking themselves if we are living in an AI bubble; others have gone beyond that and are simply asking themselves, until when? Yet the bubble keeps growing, fuelled by that perilous sentiment of “fear of missing out”. History and recent experience show us that financial bubbles are often created by investor overenthusiasm with new “world-changing” technologies and when they burst, they reveal surreal fraud schemes that develop under the cover of the bubble.
A Ponzi scheme pays existing investors with money from new investors rather than actual profits, requiring continuous recruitment until it inevitably collapses. A characteristic of these schemes is that they are hard to detect before the bubble bursts, but amazingly simple to understand in retrospect.
In this article we address the question What footprints do Ponzi schemes leave in technology-driven financial bubbles that might help us anticipate the next one to emerge under cover of the AI frenzy? We shall do this by comparing the “Railway King” George Hudson’s Ponzi of the 1840s with Bernie Madoff’s Ponzi enabled by the ICT (information and communications technology) and dotcom of the 1990s-2000s and sustained by the subsequent US housing bubble.
Macroeconomic climate, regulations and investor expectations
The railway mania in the UK started in 1829 as a result of investors’ expectations for the growth of this new technology and the lack of alternative investment vehicles caused by the government’s halting of bond issuance. The promise of railway technology created an influx of railway companies, illustrated by the registration of over fifty in just the first four months of 1845. Cost projections for railway development were understated by over 50 percent and revenue projections were estimated at between £2,000 and £3,000 per mile, despite actual revenues closer to £1,000 to £1,500 per mile. Accounting standards were rudimentary, creating opportunities for reporting discretion such as delaying expense recognition, and director accountability was the responsibility of shareholders rather than delegating it to external auditors or state representatives. Hudson, who was also a member of parliament, promoted the deregulation of the railway sector.
George Hudson’s Ponzi and Bernie Madoff’s Ponzi
Madoff’s reputation was built upon his success in the 1970s with computerization and technological innovation for trading. The dotcom bubble was fuelled by the rapid expansion of technology companies, with over 1,900 ICT companies listing in US exchanges between 1996 and 2000, propelled by which his BLMIS fund held $300 million in assets by the year 2000. Madoff’s scheme also aligned with the rapid growth of derivatives such as credit default swaps (CDS) and collateralized debt obligations (CDO), which grew 452 percent from 2001 to 2007. Significant market-wide volatility created a norm for outsized returns that hid the infeasibility of Madoff’s promised returns. These returns were considered moderate by investors, who failed to detect the implausibility of the long-term consistency of Madoff’s returns–this allowed the scheme to continue undetected. Madoff’s operations were facilitated by the fact that before the Dodd-Frank Act of 2010, hedge-fund SEC registration was voluntary; and by the re-prioritization of government security resources after 9/11, that led to a reduction of more than 25 percent in white-collar crime investigation cases opened between 2000 and 2003. The infeasibility of Madoff’s returns was overlooked by the SEC despite whistleblower reports instigating an SEC investigation–this reflects the SEC’s and other regulatory bodies’ lack of hedge-fund trading knowledge. It could also have been influenced by Madoff’s close relationship with the regulatory agencies, given his previous roles as Chairman of Nasdaq and an SEC market structure adviser.
At the time of the railway bubble-bust, Bank of England interest rates were at a near-century low, and similarly the FED’s lowering of interest rates in the 2000s reduced the cost of mortgages, which boosted demand and thus helped inflate housing prices. In both cases the markets were flush with cheap money and when everyone is making money (or thinking so), uncomfortable questions are not asked.
The perpetrators’ style and their downfall
Both Hudson and Madoff provided scarce information of their operations to fellow directors and shareholders. The former notoriously raised £2.5 million in funds without providing investment plans. Madoff employed and overcompensated under-skilled workers to deter operational questions and avoided hosting “capital introduction” meetings and roadshows to avoid answering questions from well-informed investment professionals–he instead found new investors through philanthropic relationships and network ties. There is evidence that shareholders were partially aware of Hudson’s corrupt business conduct but they did not initially object.
When their respective bubbles burst, in both cases their obscure business methods were unveiled and it was made evident that, in typical Ponzi-style, they were using fresh capital, and not investment profits, to pay dividends to investors. It was also revealed that they were using investor funds to finance their luxurious lifestyles. Hudson embezzled an estimated £750,000 (approximately £74 million in today’s money) from his railway companies, while Madoff’s fraud reached $65 billion in claimed losses, with actual investor losses of around $18 billion. Both ended in disgrace, Hudson fleeing to France and Madoff dying in jail.
On the trail of the fox
Beware when you see AI companies of ever-increasing market value, headed by charismatic and well-connected leaders–it is worrying that the heads of AI giants have such close relationships with the White House. In those cases, it is imperative to analyse the quality of communications with shareholders and prospective investors, particularly in terms of allocation of capital and disclosure of detailed cash flows. It is not enough to rely on audited financial statements; it must go much deeper into an investment strategy – obviously, this will require auditors to up their game considerably.
When investors are in a frenzy,
Around the corner waits a Ponzi.
Geneva Walman-Randall contributed to this article as a research assistant for her research on the conditions surrounding the Bernie Madoff and George Hudson Ponzi schemes. She completed this research as a visiting student at St. Catherine’s College, Oxford.
Paul David Richard Griffiths ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.12.2025 à 11:31
Faut-il dire la vérité aux enfants au sujet du Père Noël? Un philosophe se penche sur la question
Texte intégral (1566 mots)

Notre culture attend des parents, et des adultes en général, qu’ils mentent aux enfants en disant que les cadeaux de Noël ont été déposés par un joyeux bonhomme qui vole dans un traîneau tiré par des rennes. Mais ce mensonge est-il moralement acceptable ?
Je me souviens très bien du moment où j’ai réalisé que le père Noël n’existait pas. J’avais environ six ans, c’était en plein été, et j’étais assis sur les marches devant notre porte arrière, en train de penser à Dieu. À l’époque, l’existence de Dieu m’agaçait : cela signifiait que chaque dimanche, nous devions aller à l’église.
Puis j’ai réalisé qu’il n’y avait en fait aucune preuve de l’existence de Dieu. Je pense seulement que Dieu existe parce que c’est ce que les gens m’ont dit.
Je me souviens m’être levé d’un bond, tout excité, prêt à partager cette merveilleuse nouvelle avec ma famille. Nous n’aurions plus à endurer la corvée hebdomadaire de l’école du dimanche et des sermons. Mais je me souviens m’être ravisé et m’être dit : « Oh non. Si Dieu n’existe pas, selon la même logique, le père Noël doit être une invention lui aussi. »
C’est peut-être à ce moment-là que je suis devenu philosophe (même si je dois dire qu’à l’âge adulte, je ne pense plus que l’analogie entre Dieu et le père Noël soit vraiment valable). Cela m’a certainement donné un sentiment légèrement ridicule de supériorité intellectuelle par rapport à ceux qui m’entouraient, notamment les autres enfants de ma classe qui n’avaient pas compris cette supercherie.
Perpétuer le mythe
Mais aujourd’hui, les rôles sont inversés. Je suis désormais parent de jeunes enfants, et c’est moi qui perpétue les mythes hégémoniques autour du père Noël.
Nous le faisons tous, bien sûr. Notre culture attend des parents qu’ils mentent à leurs enfants en leur disant que leurs cadeaux ont été déposés par un joyeux bonhomme corpulent qui vole dans un traîneau tiré par des rennes à travers le ciel. Et bien sûr, on peut se demander si c’est acceptable. Nous voulons tous que nos enfants grandissent en devenant des personnes honnêtes. Ne devrions-nous pas leur donner le bon exemple, dans la mesure du possible, en leur disant la vérité ?
À quoi je répondrais : non, nous ne devrions pas être honnêtes au sujet du père Noël, du moins pas au début. Il est moralement acceptable, voire moralement bon, que les parents participent au grand mensonge du père Noël.
Pourquoi les enfants ont besoin du père Noël
Quand vous repensez à vos premières expériences de Noël, pensez-vous vraiment qu’elles auraient été meilleures si vos parents avaient été honnêtes au sujet du père Noël ? Sans cette douce fiction, il n’y aurait pas eu le rituel consistant à lui écrire une lettre, à déposer ses petits souliers au pied de la cheminée ou du sapin, et à attendre désespérément de voir s’il était passé le matin de Noël.
Sans le mythe du père Noël, que serait Noël pour un enfant ? Une date arbitraire où ils sont enfin autorisés à jouer avec les cadeaux que leurs parents ont peut-être achetés des mois à l’avance. Quel serait l’intérêt ?
Cela soulève également la question de savoir dans quelle mesure il faut être honnête avec ses enfants en général. Après tout, que signifie vraiment « être totalement honnête » ?
Si je me sentais obligé de tout dire à mes enfants, je ne mâcherais pas mes mots pour leur décrire l’état déplorable du monde, de l’existence, et ma résignation toujours plus profonde face à l’impossibilité d’y changer quoi que ce soit. Je leur infligerais tout le poids de mes soucis financiers, de mes problèmes de santé, de mes inquiétudes (pour la plupart irrationnelles) à leur sujet.
Et dans quel but ? Seraient-ils plus équilibrés émotionnellement que les enfants dont les parents leur ont donné une vision plus édulcorée du monde ? Pensez à l’argument avancé par Nietzsche dans son premier essai De la vérité et du mensonge au sens extra-moral, selon lequel nous devons être au moins quelque peu aveuglés par la réalité pour pouvoir la supporter.
En grandissant, nous avons probablement besoin, jusqu’à un certain point, de croire que le monde est bon et juste ; de croire qu’il existe un atelier dans lequel un homme joyeux travaille avec des elfes, dans le but de récompenser les enfants sages et de punir (gentiment) les méchants.
Sans ce genre de mythe, les plus jeunes trouveraient-ils vraiment la force de se battre pour un monde meilleur ?
Quand le mensonge doit cesser
Et quand les enfants finissent par découvrir la vérité ? C’est certainement bénéfique pour leur développement moral. Pour moi, ça a été très gratifiant de réaliser que j’avais percé à jour les mensonges de mes parents. Je ne leur en ai pas voulu – et des recherches suggèrent que seule une minorité d’enfants en veulent à leurs parents, après avoir découvert la supercherie. Au contraire, j’ai gardé une saine méfiance envers les idées reçues que mes parents avaient tendance à m’inculquer.
C’est, je pense, pour ces raisons qu’il est justifié de mentir au sujet du Père à ses enfants. Les parents devraient certainement entretenir le mythe tant que leurs enfants sont petits, mais répondre honnêtement lorsque les enfants les confrontent. Quand un enfant demande enfin, à l’âge de six ou sept ans, « le père Noël existe-t-il vraiment ? », cela signifie simplement qu’il n’a plus besoin de ce noble mensonge.
En fin de compte, dans l’éducation des enfants, notre préoccupation devrait toujours être la manière dont nous les formons. Si nous voulons élever des citoyens critiques, avec un sens aigu de la possibilité d’améliorer le monde et une saine méfiance envers ceux qui sont au pouvoir, le mythe du père Noël est certainement un mécanisme qui peut aider à aller dans cette direction.
Tom Whyman ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.12.2025 à 16:37
La libre circulation en Afrique de l’Ouest est-elle menacée ?
Texte intégral (2687 mots)
On le sait, les ressortissants des pays africains éprouvent souvent de grandes difficultés pour obtenir des visas vers l’Europe. Mais qu’en est-il de leur capacité à voyager ou à émigrer à l’intérieur même du continent ? Examen de la situation en Afrique de l’Ouest, où des dispositions visant à rendre ces déplacements moins fastidieux existent, mais où les infrastructures de transport sont lacunaires et la tendance semble être à une méfiance toujours plus grande à l’égard des étrangers.
Citée en modèle en Afrique, la Communauté économique des États d’Afrique de l’Ouest (Cédéao) est une des huit communautés économiques régionales africaines, la seule à être parvenue à faire de son espace une région de libre circulation entre l’ensemble de ses membres. L’Afrique de l’Ouest se caractérise par une forte mobilité des personnes, surtout intra-régionale, avec de grandes variations entre pays. Cette mobilité est pourtant menacée.
Les Ouest-Africains, parmi les moins bien pourvus en termes de droits à la mobilité hors de la région
Dans le classement de la puissance des passeports dans le monde, établi en fonction du nombre de pays imposant un visa d’entrée à leurs détenteurs, les premières nationalités ouest-africaines figurent aux 65e (Ghana) et 66e (Cap Vert) rangs sur 94. En dernière position, le Nigéria est à la 86e place.
Cette capacité de mobilité limitée (le taux de refus pouvant être important) s’observe également au sein de l’Afrique. Malgré le Protocole de l’Union africaine pour la libre circulation adopté en 2018 mais ratifié par seulement 4 États membres sur 55, moins d’un tiers des voyages intra-africains se font sans visa. Par exemple, les Sénégalais ont besoin d’obtenir un visa avant le départ pour se rendre dans 22 pays africains, mais n’imposent cette obligation qu’à 6 nationalités.
Tandis que la demande de visa avant le départ est une démarche contraignante (en termes de documents à fournir et de déplacement à l’ambassade), l’achat du visa à l’arrivée a surtout un but financier. Les Sénégalais doivent acheter un visa à l’arrivée dans 9 pays africains, et 25 nationalités africaines doivent payer un visa à l’arrivée à Dakar.
En dehors d’accords régionaux, c’est bilatéralement que se prévoient des avantages. Les Sénégalais entrent sans visa en Mauritanie et au Maroc, sur une base réciproque. En revanche, s’ils entrent sans visa au Tchad, les Tchadiens doivent obtenir un visa à l’arrivée au Sénégal. Avec la France ou l’Espagne, c’est sur une base asymétrique que Français et Espagnols entrent sans visa au Sénégal, tandis que les Sénégalais se voient souvent refuser le visa avant le départ vers ces destinations. L’Afrique de l’Ouest est la région la plus ouverte au monde, mais ses citoyens peuvent difficilement circuler hors de la région.
Un espace sans visa mais pas sans contrôles ni obstacles
Dès sa création en 1975, la Cédéao avait fixé l’objectif d’assurer liberté de mouvement et de résidence des citoyens de la Communauté entre ses 15 membres. Le Protocole de 1979 a défini la démarche, sur 15 ans, et plusieurs textes sont venus ultérieurement engager les États membres. Depuis 40 ans, les citoyens ouest-africains peuvent circuler sans visa, munis d’un passeport ou d’une carte d’identité. Cette condition est d’autant plus importante qu’à la différence de l’espace Schengen, la Cédéao n’a pas supprimé les contrôles aux frontières internes. Au contraire, par voie terrestre, les postes-frontières sont multiples et les contrôles s’exercent aussi bien aux frontières qu’à l’intérieur des États.
Les « tracasseries » sur les routes – euphémisme utilisé pour désigner la corruption forcée – sont documentées depuis des années, sans grande amélioration. Même avec tous les papiers en règle, il faut souvent payer. L’absence de papiers, qu’il s’agisse du document de voyage ou du carnet de vaccination, n’empêche pas toujours de franchir la frontière, mais elle fait monter la facture.
Voyager par avion est plus sûr, mais les vols sont très chers et rarement directs, même entre grandes capitales ouest-africaines.
Le train est inexistant et le transport par voie maritime est rare et peu sûr. Le manque d’infrastructures ne facilite pas la mobilité.
Dans un contexte d’insécurité croissante dans la région, notamment sa partie sahélienne, les velléités de mieux contrôler les déplacements s’intensifient, justifiant l’adoption de réglementations plus sévères ainsi que l’aménagement et la modernisation des postes-frontières.
Une insécurité juridique
La Cédéao est une organisation respectueuse de la souveraineté des États membres et le droit communautaire offre généralement la possibilité d’atténuer les engagements pris. Par exemple, le Protocole de 1979 garantit la libre entrée au sein de la zone Cédéao, mais autorise les États membres à refuser celle des étrangers « entrant dans la catégorie des immigrants inadmissibles aux termes de leurs lois et règlements en vigueur », ce qui leur laisse une large marge de manœuvre.
Les règles sont aussi diversement respectées par les États membres. En 2014, ceux-ci ont décidé la création d’une carte d’identité biométrique Cédéao (ENBIC), qui servirait de document de voyage. À ce jour, seuls six États la délivrent à leurs citoyens. La même année, une série d’actes a été adoptée, renforçant substantiellement le droit de circulation et de résidence. Jusqu’alors, la liberté de circulation valait pour 90 jours, au-delà desquels l’étranger communautaire devait demander un titre de séjour. En 2014, la limite de 90 jours et la nécessité de demander une carte de résident ont été supprimées. Or, ce droit est resté méconnu dans la Communauté, y compris des policiers, des magistrats ou des avocats.
En 2024, la Commission de la Cédéao a lancé une campagne de plaidoyer dans plusieurs pays, avec un triple objectif : accélérer le déploiement de l’ENBIC, amener à la suppression de la limite de 90 jours et de la carte de résident. Plusieurs États imposent encore cette carte. Dans d’autres, sans forcément procéder à des contrôles, les autorités sont convaincues que les ressortissants communautaires devraient la détenir.
La méconnaissance du droit est facteur d’insécurité juridique car les citoyens peuvent être confrontés à des difficultés en fonction de leur interlocuteur, sans pouvoir faire valoir leurs droits. La réciprocité dans l’accès aux emplois est aussi très diversement appliquée d’un pays à l’autre.
L’insécurité juridique s’est récemment accentuée avec le départ de trois États membres. Le Burkina Faso, le Mali et le Niger ont quitté la Cédéao en janvier 2025 après avoir créé l’Alliance des États du Sahel (AES). L’AES est aussi un espace de libre circulation, et ses propres passeports sont en cours de création. Afin de maintenir des droits auxquels les citoyens sont très attachés, l’AES de son côté, la Cédéao du sien ont déclaré continuer à garantir réciproquement la liberté de circulation et le droit de résidence.
Néanmoins, ces droits ne bénéficient plus de la stabilité du cadre juridique multilatéral, mais s’appuient sur des déclarations sujettes aux aléas diplomatiques. Il est vrai que le trio sahélien demeure membre de l’Union économique et monétaire ouest-africaine (l’UEMOA), un espace de libre circulation partagé avec cinq États de la Cédéao (Bénin, Côte d’Ivoire, Guinée-Bissau, Sénégal et Togo), mais plusieurs questions pratiques restent ouvertes. Par exemple, les citoyens de l’AES doivent-ils aussi être dispensés de carte de résident ? Conservent-ils l’accès aux emplois sur une base égalitaire avec les nationaux des pays d’accueil ?
Ces privilèges du droit communautaire sont mis à mal au sein même de la Cédéao.
Nationalismes et xénophobie
Le départ des trois États sahéliens a pris corps dans un contexte régional
– comme mondial – de montée des nationalismes. C’est au nom de la défense de leur souveraineté qu’ils ont annoncé en 2023 leur intention de quitter la Cédéao, considérée comme étant sous influence extérieure.
Les militaires au pouvoir partagent avec les nouveaux dirigeants sénégalais, ainsi qu’avec une grande part de la jeunesse ouest-africaine, une aspiration souverainiste et panafricaniste, qui se traduit principalement par un « dégagisme ».
Le nouveau régime du Niger a d’ailleurs immédiatement abrogé une loi de lutte contre le trafic de migrants, adoptée en 2015, vue comme servant les intérêts de l’Europe, qui amenait Niamey à violer les règles de la libre circulation dans la Cédéao. Les pays européens exercent effectivement une pression sur les États ouest-africains pour les conduire à renforcer les contrôles des mobilités, contenir les migrants, développer la biométrisation des documents d’identité et de voyage, élaborer des stratégies de lutte contre la migration irrégulière. Ils influencent ainsi les politiques et le narratif autour des migrations et contribuent sans doute à la stigmatisation des migrants et à la politisation de la question migratoire.
À lire aussi : Dissuader les candidats à la migration : pourquoi les campagnes de l’UE sont un échec
Nationalisme et stigmatisation ne sont pas pour autant nouveaux dans la région, mais ils ont le vent en poupe, dans un contexte où, des États-Unis à l’Europe et jusqu’en Afrique, l’altérité est vilipendée et les droits ouvertement bafoués.
Des expulsions collectives de citoyens ouest-africains ont été menées par des dirigeants locaux, en dépit de discours panafricanistes, sans condamnation par les institutions de la Cédéao. Dans certains pays, c’est parfois au nom du patriotisme que des collectifs appellent à l’expulsion de voisins ouest-africains, prônent la préférence nationale, réclament des restrictions aux frontières, désignent certaines nationalités comme responsables de tous les maux de la société et leur réservent des appellations dénigrantes.
Face à ces racismes qui ont souvent des racines anciennes, mais tendent à être occultés par un discours de fraternité africaine, les dirigeants de la Cédéao ont tout intérêt à valoriser la migration ouest-africaine et à soutenir le statut de « citoyens communautaires ».
La performativité des discours sur la migration n’est plus à démontrer et c’est par l’amélioration du narratif que l’on peut au mieux contribuer à l’unité ouest-africaine et endogénéiser le discours sur la migration. Encore s’agit-il de la connaître car la migration intra-régionale est aujourd’hui bien moins documentée que la migration africaine vers l’Occident, au cœur de toutes les attentions. Il en est de même du droit de la Cédéao, insuffisamment connu et enseigné dans la région.
Il est primordial de contrer les fausses informations sur la présence et l’impact des étrangers, et de développer la connaissance et la sensibilisation pour favoriser le vivre-ensemble.
Delphine Perrin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.12.2025 à 16:36
Le pragmatisme du Mexique de Claudia Sheinbaum face à la pression exercée par Donald Trump
Texte intégral (3096 mots)
Donald Trump s’en prend avec virulence au Mexique, le présentant comme un pays trop laxiste à l’égard du passage vers son territoire de nombreux migrants, comme un hub du trafic de drogue à destination des États-Unis et comme le cheval de Troie des importations en provenance de Chine. Dans ce contexte, l’administration de gauche de Claudia Sheinbaum défend les intérêts nationaux avec pragmatisme, en donnant des gages de bonne volonté (déploiement des militaires à la frontière, mesures « anti-Chine ») mais sans représailles, contrairement au Canada. Dans un scénario de guerre commerciale universelle sans remise en cause profonde du partenariat privilégié au sein de l’espace économique nord-américain, le Mexique pourrait ressortir comme un « gagnant relatif » et préserver sa rente géoéconomique. Le scénario du pire serait bien entendu une répudiation pure et simple de l’accord Canada-États-Unis-Mexique (ACEUM, ex-ALENA) par l’administration Trump.
Les tensions commerciales avec les États-Unis mettent en exergue l’ultra-dépendance du modèle économique mexicain vis-à-vis de la première puissance économique mondiale.
Les perspectives positives pour le Mexique en termes de commerce et d’investissements amorcées sous l’administration Biden par des mesures telles que l’Inflation Reduction Act) et suscitées par le nearshoring dans le cadre de la reconfiguration des chaines de valeur sont sérieusement remises en question depuis la réélection de Donald Trump.
Pour le gouvernement mexicain, ce contexte ajoute un degré supplémentaire de complexité à une situation marquée par une croissance économique poussive, la déliquescence du secteur pétrolier, les contraintes pesant sur les finances publiques, et les divers freins au développement socio-économique et à la transition énergétique – même si le Mexique ne présente plus les fragilités macroéconomiques des années 1980-1990 susceptibles de générer une crise de balance des paiements.
Le Mexique, premier fournisseur des États-Unis
Déployé depuis les années 1960, le modèle des maquiladoras – ces usines situées à la frontière nord du Mexique (mais aussi dans le centre du pays) qui produisent des biens pour l’exportation – a structuré un écosystème transfrontalier, employant quelques 3 millions de Mexicains et profitable à des milliers d’entreprises états-uniennes.
Le Mexique a pleinement capitalisé sur les avantages comparatifs fondés sur sa position géographique privilégiée, un faible coût du travail et l’accord de libre-échange nord-américain (ALENA depuis 1994 et ACEUM depuis 2020). Des économies d’échelle ont été réalisées dans certains secteurs comme l’automobile, l’électronique et l’aéronautique.
D’après l’Organisation des Nations unies pour le développement industriel (UNIDO), le Mexique se classait en 2023 au 9e rang en termes de contribution à la valeur ajoutée manufacturière mondiale (1,8 %). Près de 80 % de ses exportations de biens manufacturés sont des produits medium et high-tech : dans ce domaine, le Mexique occupe le 4e rang mondial derrière Taïwan, les Philippines et le Japon.
Toutefois, la production locale est constituée essentiellement de chaînes d’assemblage de produits finis ou semi-finis. La valeur ajoutée domestique intégrée dans les exportations est donc estimée à seulement 9 % des exportations totales mexicaines en 2020 (OCDE, base de données TiVA, 2020.
Profitant des tensions commerciales entre Washington et Pékin depuis 2018, le Mexique est devenu en 2023 le premier fournisseur des États-Unis. Face à la tourmente commerciale mondiale depuis le début de l’année 2025, les recettes d’exportations mexicaines vers les États-Unis ont, jusqu’à présent, affiché une bonne résistance.
La part de marché du Mexique a culminé à 15,5 % en 2024, contre 13,5 % pour la Chine (cette dernière était à 21,6 % en 2017). La part des exportations mexicaines à destination des États-Unis a crû de 79,5 % en 2018 à 83,1 % en 2024 – essentiellement des biens manufacturés ou semi-finis, mais aussi des produits agricoles et du pétrole brut. Particulièrement décrié par Donald Trump, l’excédent commercial bilatéral sur les biens avec les États-Unis s’est accru continûment depuis 2009 pour atteindre 247 milliards de dollars (210 milliards d’euros) en 2024, au deuxième rang mondial derrière la Chine (360 milliards de dollars).
Sécuriser la pérennité de l’ACEUM
L’accord de coopération sur la sécurité signé le 4 septembre 2025 entre le Mexique et les États-Unis apparaît comme un succès de la capacité de négociation de la présidente Claudia Sheinbaum.
Il fait suite à l’annonce en février du déploiement de 10 000 militaires mexicains à la frontière et à l’extradition de 55 narcotraficants vers les États-Unis au cours des huit premiers mois de l’année.
Les autorités mexicaines souhaitent désormais anticiper la révision de l’Accord Canada États-Unis Mexique (ACEUM) prévue en juillet 2026, en comptant sur une position moins radicale et plus pragmatique de l’administration Trump.
À date, le taux moyen de droits de douane acquitté par le Mexique est estimé à 5 % (contre 0,2 % en 2024), alors que le taux moyen appliqué par les États-Unis serait de 11 % au niveau mondial (contre 2 % en 2024) et de 40 % sur les importations chinoises (contre 10 % en 2024).
Selon le ministère des finances du Mexique, mi-2025, 81 % des exportations mexicaines vers les États-Unis étaient conformes à l’ACEUM et seraient entrées sur le territoire sans droits de douane, contre à peine 50 % en 2024. Cette progression s’explique notamment par des efforts en matière de traçabilité.
Par ailleurs, le Mexique cherche à diversifier ses partenaires commerciaux. Le pays est signataire de 14 autres accords de libre-échange avec une cinquantaine de pays, sans compter le nouvel Accord global modernisé avec l’UE conclu le 17 janvier 2025, en cours de ratification.
L’administration Sheinbaum vise aussi à renforcer les relations commerciales avec les pays voisins. Un exemple est l’accord avec le Brésil, renouvelé en août dernier dans le secteur agricole et des biocarburants.
En parallèle, des tarifs douaniers de 10 à 50 % devraient être imposés sur certains produits importés au Mexique, notamment venant de pays avec lesquels il n’a pas d’accord de libre-échange. Les produits en provenance de Chine et d’autres pays sans traités de libre-échange seront taxés jusqu’à 50 % afin de protéger l’emploi dans les secteurs sensibles.
En réponse, la Chine évoque des mesures de représailles envers le Mexique, devenu un partenaire commercial important au cours des dix dernières années, notamment dans l’automobile.
Rester attractif pour les investisseurs
L’attractivité du Mexique pour les investisseurs étrangers post-pandémie pourrait être remise en cause par la politique protectionniste de l’administration Trump, à l’origine de l’attentisme de certaines firmes et d’une possible révision de leur stratégie de nearshoring vers les États-Unis ou d’autres pays.
En 2024, le Mexique a accueilli un niveau record d’investissements directs étrangers (IDE) depuis 2013 (44 milliards de dollars, ou 37 milliards d’euros, soit 2,4 % du PIB), devenant le 9e récipiendaire mondial et le 2e parmi les pays émergents, derrière le Brésil et devant l’Inde, l’Indonésie, le Vietnam et surtout la Chine, dont les flux d’IDE se sont effondrés.
Depuis 2018, la majorité des IDE entrants au Mexique sont provenus des États-Unis ; pourtant, l’encours total demeure dominé par les entreprises européennes (54 %), devant les entreprises états-uniennes ou ayant investi depuis les États-Unis (32 %), les investisseurs chinois ne constituant que 1 % des IDE installés.
Si les flux d’IDE totaux sont demeurés très dynamiques au premier semestre 2025 (+ 2 % par rapport à 2024), ils ont baissé dans le secteur manufacturier. Des projets d’investissements ont été annulés, suspendus ou reportés depuis la réélection de Donald Trump et l’adoption de la réforme judiciaire mexicaine.
Selon le Consejo Coordinador Empresarial, un organisme autonome représentant les entreprises mexicaines, plus de 60 milliards de dollars (50,9 milliards d’euros) d’investissements seraient actuellement gelés.
Les autorités chinoises auraient, par exemple, refusé au constructeur BYD l’autorisation d’implanter une usine automobile au Mexique avec 10 000 emplois à la clé.
Préserver des comptes externes solides
Le contexte international ne suscite pas d’inquiétude majeure, à ce stade, quant à un risque de dérive des comptes externes mexicains à court ou à moyen terme.
Le déficit du compte courant de la balance des paiements est structurellement modéré (- 0,9 % du PIB en moyenne sur 10 ans et - 0,3 % du PIB en 2024) et couvert par les flux nets d’IDE (2,1 % du PIB en moyenne sur 10 ans). Les réserves de change sont confortables et la Banque centrale n’intervient pas sur les marchés des changes, laissant flotter le peso librement. L’endettement externe est aussi modéré (36 % du PIB).
Le compte courant a pu profiter des mannes records de recettes touristiques (33 milliards de dollars, ou 28 milliards d’euros, soit 1,8 % du PIB en 2024), minorant le déficit de la balance des services, et surtout de remesas, c’est-à-dire les transferts d’argent de la diaspora (64 milliards de dollars, ou 54 milliards d’euros, soit 3,5 % du PIB en 2024).
Mais ces remesas, à 97 % en provenance des États-Unis, ont chuté de 6 % au premier semestre 2025 par rapport au premier semestre 2024. Leur évolution sera importante à suivre, compte tenu de leur rôle de soutien au pouvoir d’achat de nombreuses familles mexicaines. Les transferts hors virements bancaires, soit environ les trois quarts des transferts totaux, seront assujettis à une taxe de la part des États-Unis à compter de janvier 2026.
Par ailleurs, la structure de son commerce extérieur explique les difficultés du Mexique à générer des excédents commerciaux pérennes (hors période Covid), affichant un déficit de la balance des biens de 0,4 % du PIB en moyenne sur 10 ans.
En effet, dans le cadre de l’intégration industrielle nord-américaine, les importations mexicaines de biens intermédiaires ont représenté pas moins de 77 % des importations totales en moyenne depuis 2010, induisant une forte corrélation entre la dynamique des importations et celle des exportations et limitant la valeur ajoutée nette locale.
Parallèlement, la balance énergétique du Mexique est déficitaire depuis 2015
(- 1,2 % du PIB), compte tenu de la baisse de production de pétrole et de la dépendance aux produits raffinés en provenance des États-Unis.
Le solde du compte courant est aussi affecté par le déficit substantiel de la balance des revenus primaires (- 2,7 % du PIB sur 10 ans), lié aux rapatriements de profits et dividendes des nombreuses firmes étrangères implantées sur le territoire.
Prendre son destin économique en main, sans renier l’ancrage nord-américain
Au final, les tensions avec les États-Unis interrogent sur le modèle économique mexicain.
Pays émergent, le Mexique a vu sa croissance économique plafonner au niveau de celle des pays développés en moyenne sur les vingt dernières années (1,7 %), le positionnant dans le Top 10 des pays émergents et en développement les moins dynamiques. Le niveau et la volatilité de la croissance illustrent les limites de l’arrimage au marché nord-américain, en l’absence de puissants leviers de croissance endogènes (consommation, investissement public et privé, financement de l’économie par les banques).
Préserver la rente géo-économique, diversifier les marchés d’exportation et autonomiser le régime de croissance par un renforcement de la demande interne sont les principaux défis pour les prochaines années. Y répondre passera par des réformes repoussées ad vitam aeternam, notamment en matière fiscale et énergétique, de gouvernance publique et d’environnement des affaires.
Les orientations de politiques économiques et de politiques publiques seront cruciales afin de préserver les finances publiques tout en répondant aux importants besoins en termes de dépenses sociales, de retraite et d’infrastructures pour libérer le potentiel de croissance et assurer à la fois la stabilité macro-financière, le développement socio-économique et la transition énergétique du pays.
Sylvain Bellefontaine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.12.2025 à 16:32
Hydrogène vert : un couteau suisse de la décarbonation qui peine à réellement émerger
Texte intégral (1976 mots)
L’hydrogène vert ou décarboné revient régulièrement sur le devant de la scène depuis vingt-cinq ans, drainant un flux régulier de capitaux comme le montre le dernier rapport de l’Agence internationale de l’énergie, sorti il y a quelques semaines. Comment expliquer que, depuis aussi longtemps, cette énergie et ses technologies associées peinent à décoller, tout en continuant à susciter des investissements ? On parle d’« innovation éternellement émergente » pour désigner ce phénomène paradoxal propre à la transition.
La place de l’hydrogène vert (ou bas carbone) suscite aujourd’hui des controverses plus vives que jamais. Certains ont peur d’une récupération par le secteur des énergies fossiles, qui pourrait être tenté de promouvoir l’hydrogène bleu produit à partir de gaz naturel. D’autres annoncent l’effondrement de cette filière naissante en France.
Il faut dire que le passage brutal à l’électrique des taxis parisiens à hydrogène Hype, lancés en 2015 lors de la COP21, envoie un signal hautement symbolique de la forte déstabilisation des acteurs français de l’hydrogène. Les débats autour du potentiel de cette énergie ne sont pas nouveaux : depuis vingt-cinq ans, l’hydrogène suscite un engouement récurrent et des investissements importants, sans pour autant décoller, son adoption demeurant relativement limitée.
Des innovations qui ne trouvent pas leur public, il y en a beaucoup, mais le cas de l’hydrogène est un peu différent. Nous nous sommes penchés sur le sujet pour tenter de résoudre ce paradoxe qui dure depuis les années 2000, à travers une étude longitudinale socioéconomique sur l’hydrogène.
Habituellement, les analyses classiques se concentrent sur les caractéristiques de l’innovation en elle-même pour expliquer leur adoption ou non-adoption : dans le cas de l’hydrogène, elles portent sur les technologies liées à la production et la distribution d’hydrogène vert et décarboné, sur leurs caractéristiques (coûts, rendement énergétique, facilité d’utilisation, etc.), sur les effets de réseaux (existence d’infrastructures de production et de stations de rechargement) ou sur les utilisateurs et les consommateurs.
L’originalité de notre recherche qui s’intéresse plus particulièrement à la mobilité, repose sur une autre grille d’analyse : l’approche dite multiniveau, qui resitue les innovations dans un contexte de concurrence avec d’autres technologies répondant aux mêmes besoins, tout en prenant en compte les conséquences des évolutions géopolitiques et sociétales sur les secteurs économiques.
Elle met en outre l’accent sur la façon dont le contexte politique, sociologique et géopolitique est susceptible de créer dans le temps assez de tensions pour déstabiliser les usages des acteurs du secteur.
Une « innovation perpétuellement émergente »
Nos résultats montrent un phénomène propre à la transition énergétique que nous avons appelé : « innovations perpétuellement émergentes ». Ce phénomène ne peut être compris qu’en tenant compte de trois éléments distincts fortement corrélés.
Tout d’abord, l’analyse d’une innovation verte ne peut faire abstraction des évolutions induites par le contexte géopolitique sur les représentations collectives de ce qu’est la transition énergétique et comment la gérer.
Ensuite, ces évolutions transforment le contexte de concurrence et d’arbitrages entre différentes innovations vertes visant à répondre aux mêmes besoins de décarbonation.
Enfin, il existe des phénomènes de verrouillage sociotechnique autour de certaines innovations vertes qui viennent encore modifier le contexte de ces concurrences intertechnologiques et influencer à leur tour les arbitrages de tous les acteurs du secteur.
L’hydrogène est un très bon exemple de ces technologies perpétuellement émergentes.
À lire aussi : L’économie de l’hydrogène, ou quand le rêve de Jules Verne se confronte aux réalités industrielles
Le mythe d’une voiture qui ne rejette que de l’eau
Reprenons le cours de son histoire. Jérémy Rifkin, prospectiviste américain, publie en 2003 un ouvrage qui va faire le tour du monde, l’Économie hydrogène.
Pour faire face à la diminution des ressources en pétrole, explique-t-il, il faudra développer une économie décentralisée fondée sur la production locale d’énergies renouvelables et le stockage de cette énergie intermittente dans l’hydrogène vert.
La représentation collective qui se construit à l’époque autour de ce gaz vert est marquée par le fait que les véhicules électriques à l’hydrogène ne rejettent que de l’eau et que le produire localement diminuera la dépendance de l’occident aux pays pétroliers. Cette vision s’érige en mythe partout dans le monde à mesure que le problème du changement climatique devient central.
Outre ne rejeter que de l’eau, l’hydrogène vert est aussi neutre en carbone. Cette vision va influencer le développement de l’hydrogène dans la mobilité, d’abord aux États-Unis puis, à partir du début des années 2010, en Europe. Dès 2015, plusieurs régions en France et en Europe lancent des expérimentations locales autour d’écosystèmes hydrogène dédiés à la production et à la mobilité locale.
À lire aussi : Les « couleurs » de l’hydrogène, un discours trompeur pour la transition énergétique
La concurrence de la voiture électrique
Entre 2015 et 2019, on observe une déstabilisation du moteur thermique dans la mobilité et le renforcement de cette vision de la transition très centrée sur les émissions de gaz à effet de serre et la qualité de l’air dans les villes (notamment à la suite du scandale sanitaire du dieselgate).
Dès 2019-2020, l’UE met en place des normes beaucoup plus strictes et les constructeurs sont forcés de s’adapter. Ils se tournent alors vers la seule technologie mature à l’époque : la voiture électrique à batterie. En effet, si l’hydrogène est évoqué de longue date dans le futur de la mobilité, les véhicules à batterie sont dans la course depuis plus longtemps. La troisième génération de batteries est déjà présente, le réseau de recharges, bien que sommaire, existe. Et le carburant – l’électricité – ne pose aucun problème.
Face à l’hydrogène qui ne possède aucune infrastructure, les jeux sont faits. Les expérimentations en la matière passent au second plan et les territoires hydrogène prennent du retard. En théorie de l’innovation, ce phénomène est connu sous le nom d’effet de verrouillage, qui se crée autour d’une technologie qui devient dominante.
Entre 2020 et 2022, les experts considèrent toutefois encore l’hydrogène comme une technologie clé dans la mobilité lourde. C’est sans compter sur la vitesse extrêmement rapide des effets de verrouillage. Environ 320 000 camions électriques et 220 modèles étaient en circulation fin 2022 dans le monde : une hausse spectaculaire et totalement inattendue, même par les experts. À titre de comparaison, il n’y avait que 12 modèles de poids lourds hydrogène à pile à combustible disponibles fin 2022 dans le monde.
À lire aussi : Poids lourds et pollution : comment accélérer l’électrification ?
Le coup de grâce de la guerre en Ukraine
2022 marque aussi le début de la guerre en Ukraine, qui va déclencher une crise énergétique et une flambée de l’inflation qui achèveront de reléguer l’hydrogène au second plan dans la mobilité. Parallèlement, notre vision de la transition évolue beaucoup à cette période. L’énergie devient une ressource précieuse que l’on ne peut plus gaspiller : la philosophie de l’économie circulaire est de plus en plus intégrée.
Or fabriquer de l’hydrogène vert (ou décarboné) à partir d’électricité renouvelable est moins efficace qu’utiliser directement cette électricité, en raison des pertes liées aux rendements de conversion. Face aux limites planétaires, il est impératif de prolonger la durée de vie de nos objets de consommation tout en garantissant leur recyclage complet. Les Allemands saisissent dès 2023 cette opportunité pour imposer une nouvelle vision de l’hydrogène qui permettrait de continuer à utiliser nos bonnes vieilles voitures thermiques.
Lors de la décision finale pour interdire les moteurs thermiques en 2035 à l’échelle européenne, l’Allemagne force les autres pays européens à laisser la porte ouverte : les moteurs thermiques resteront autorisés, à condition d’avoir recours à des e-fuels ou des carburants de synthèse liquides « zéro émission » produits à partir d’hydrogène vert ou décarboné.
Cette décision a pour effet de continuer à déstabiliser la filière hydrogène dans la mobilité car les investisseurs ne savent finalement plus sur quelles technologies hydrogène parier : gaz/pile à combustible ? Liquide/moteur thermique ?
À lire aussi : Carburants de synthèse, biocarburants, kérosène vert… De quoi parle-t-on exactement ?
Une solution parmi d’autres
Pourtant, cette situation tout à fait originale continue d’expliquer pourquoi partout dans le monde, on maintient un niveau d’investissement dans cette technologie, et pourquoi elle reste perçue comme une solution pour le futur, parmi les autres.
L’hydrogène est un couteau suisse, que l’on peut utiliser pour substituer des matières premières ou des énergies fossiles dans le cadre de nombreux processus industriels, y compris pour fabriquer des fertilisants bas carbone. Le récent rapport de l’Agence internationale de l’énergie montre une progression sans précédent des investissements dans les e-fuels à base d’hydrogène vert ou décarboné.
Il demeure toutefois en concurrence avec d’autres solutions, avec lesquelles il est comparé en matière de coûts financiers et énergétiques, d’impacts environnementaux et de consommation de ressources. Quelles technologies gagneront cette saine rivalité ? Il n’y a pas de bonne réponse, tout dépendra des cas d’usage.
Valery Michaux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.12.2025 à 16:31
Projet de loi de finances 2026 : La suppression des APL pour les étudiants étrangers, une mesure idéologique ?
Texte intégral (1839 mots)
Dans le projet de loi de finances 2026 figure la suppression des aides personnelles au logement (APL) pour les étudiants étrangers. Une proposition qui s’inscrit dans la politique d’« attractivité sélective » consacrée par le plan « Bienvenue en France » de 2018.
Parmi les nombreuses mesures du projet de loi de finances 2026 encore en débat, l’article 67 porte sur la suppression des aides personnelles au logement (APL) pour les étudiants étrangers extra-européens, à l’exception de ceux qui bénéficient d’une bourse sur critères sociaux. Les étudiants ressortissants de l’Union européenne, boursiers et non boursiers, représentant environ 25 % des étudiants étrangers, ne sont pas concernés car ils sont protégés par le droit communautaire.
En revanche, l’écrasante majorité des étudiants extra-européens en mobilité internationale et une partie des étudiants étrangers résidant en France sont visés. En effet, pour bénéficier d’une bourse de l’enseignement supérieur sur critères sociaux, il faut être domicilié fiscalement en France depuis au moins deux ans.
On estime que seuls 2 à 3 % des étudiants extra-européens, au nombre de 315 000 environ, sont éligibles à une telle bourse. Cela signifie donc que plus de 300 000 étudiants étrangers extra-communautaires ne sont pas boursiers et qu’ils risquent – si l’article 67 du projet de loi de finances est voté en l’état – de perdre leur APL dès la rentrée universitaire 2026, ce qui représente entre 100 et 250 euros d’aides financières mensuelles en moins pour se loger.
Étudiants étrangers : un durcissement des conditions d’accueil depuis 2018
Cette proposition s’inscrit d’abord dans la continuité de la politique d’attractivité sélective des étudiants internationaux consacrée dans le plan « Bienvenue en France » en 2018. Ce plan ambitionnait d’attirer 500 000 étudiants étrangers en 2027 en multipliant par quinze les frais d’inscription pour les étudiants extra-européens, passant de 178 euros à 2 770 euros pour une inscription en licence et de 254 euros à 3 770 euros pour celle en master.
Il s’agissait de remédier au déclassement de la France dans les rankings internationaux en développant une stratégie d’attractivité ciblée sur les étudiants internationaux solvables, c’est-à-dire ceux qui sont suffisamment fortunés pour ne pas faire reposer le coût de leur formation en France sur le seul financement public par l’impôt.
La suppression des APL pour les étudiants extra-européens non boursiers s’inscrit dans la même logique économique. Seuls ceux capables de financer le coût de leurs études, mais aussi leur logement, sont dès lors « bienvenus en France ». Ces mesures tendent donc à abandonner toute ambition d’accueil universaliste des étudiants internationaux dans les universités françaises.
Cette proposition s’inscrit ensuite dans la continuité du durcissement des conditions d’accès des étrangers à la protection sociale. En effet, lors des débats parlementaires concernant la loi Immigration du 25 janvier 2024, un article proposait d’instaurer une condition de séjour régulier de cinq ans en France pour bénéficier de certaines prestations sociales, ce qui incluait les APL. Mais le Conseil constitutionnel l’avait censuré pour des raisons procédurales.
Les parlementaires du groupe « Les Républicains » avaient alors fait une seconde tentative en déposant une proposition de loi référendaire reprenant la même proposition. Le Conseil constitutionnel avait cette fois-ci censuré la mesure sur le fond (Décision n° 2024-6 RIP du 11 avril 2024. Si ce dernier a rappelé qu’il est possible de conditionner l’accès à certaines prestations sociales à une durée de résidence, celle de cinq ans était disproportionnée au motif qu’elle portait une atteinte excessive aux droits fondamentaux à la protection sociale des étrangers résidant de manière régulière et stable en France.
En mars 2025, une troisième proposition de loi était donc déposée, visant cette fois à conditionner l’accès des étrangers à certaines prestations sociales à une condition de résidence de deux ans.
Un traitement différencié contraire au droit européen
Toutes ces propositions revendiquent un argument principal, celui de la théorie de l’appel d’air migratoire, à savoir que « l’accès immédiat aux prestations sociales constitue de fait un élément d’attractivité concernant la migration ». Non seulement aucune étude n’est venue étayer une telle théorie, mais aucun de nos partenaires européens n’a fixé de conditions d’antériorité de résidence aux étrangers pour bénéficier des aides au logement.
Surtout, lors de trois tentatives précédentes, les étudiants étrangers étaient exclus de leur application pour le bénéfice des APL. Si l’article 67 du projet de loi de finances était voté, il serait donc encore plus restrictif et instaurerait un véritable traitement différencié selon la nationalité et la durée de résidence des étrangers dans l’aide au logement.
Or, il existe des doutes sérieux quant à la légalité d’un tel traitement différencié, au regard de la Constitution française mais aussi par rapport aux règles du droit européen. En effet, la directive européenne sur le permis unique reconnaît que les nationaux et les étrangers titulaires d’un titre de séjour qui les autorise à travailler, ce qui inclut la carte de séjour pour motifs d’études, doivent bénéficier d’une égalité de traitement au regard des prestations sociales.
Des étudiants en situation précaire
Au-delà des questions juridiques, il faut rappeler que la situation sociale des étudiants étrangers est loin d’être particulièrement enviable, notamment dans le secteur du logement. Comme le souligne l’Observatoire de la vie étudiante, les étudiants de nationalité étrangère sont moins nombreux à toucher les APL que ceux de nationalité française (61 % contre 73 %).
Dans certaines régions de France, les étudiants extra-européens en mobilité internationale sont par ailleurs parfois exclus de l’accès aux résidences étudiantes du Crous. Ces derniers sont donc souvent contraints de se loger dans le parc locatif privé, dans lequel les prix sont plus élevés et les pratiques discriminatoires plus répandues. Ils n’ont alors souvent pas d’autres choix que de se loger dans des habitats précaires ou chez un tiers, ce qui les expose à diverses formes d’inégalités et de prédation, incluant le harcèlement et le chantage.
Le vote de l’article 67 contribuerait donc à renforcer la logique discriminatoire et la précarité résidentielle à laquelle sont déjà exposés les étudiants étrangers en France.
Plus globalement, la suppression des APL risque d’aggraver la précarité multidimensionnelle que connaissent ces étudiants. Ils figurent parmi les plus touchés par les difficultés financières : 40 % d’entre eux déclarent ne pas être en mesure de couvrir leurs besoins essentiels (alimentation, loyer, gaz ou électricité), contre 16 % des étudiants français. Par ailleurs, 30 % ont eu recours à l’aide alimentaire ou estiment qu’ils en auraient eu besoin, contre 8 % des étudiants français. Ils sont également davantage affectés par des problèmes de santé : 42 % d’entre eux présentent des signes de détresse psychologique, contre 35 % des étudiants français.
Un apport économique passé sous silence
Le témoignage des étudiants met en lumière un isolement accru, doublé d’une perception d’invisibilité et d’un enfermement dans une boucle inégalitaire, vouée à s’aggraver avec la suppression des APL. Or, toute cette précarité multidimensionnelle compromet la régularité de leur parcours académique et in fine leur réussite académique, alors même que les études constituent le motif principal de leur arrivée en France.
L’argument économique invoqué pour la suppression des APL interroge car la mesure n’a pas fait l’objet d’étude d’impact ni d’évaluation chiffrée des économies escomptées. À l’inverse, l’apport économique des étudiants étrangers en France est systématiquement passé sous silence, alors que leurs dépenses mensuelles moyennes du quotidien rapportent à l’État 2,8 milliards d’euros. En occupant des emplois, souvent précaires et en tension, ces étudiants cotisent par exemple aux caisses sociales, sans pouvoir toujours bénéficier des prestations chômage. De plus, la mesure risque de ne pas être applicable à de nombreuses nationalités en vertu des clauses d’égalité inscrites dans plusieurs accords bilatéraux signés avec des pays tiers, dont ceux du Maghreb.
À défaut d’argument économique, la proposition de supprimer les APL pour les étudiants extra-européens semble donc davantage relever d’une mesure idéologique que d’une mesure pragmatique. Or, cette instrumentalisation politique des étudiants étrangers risque de nuire à l’attractivité de l’enseignement supérieur français en décourageant certains étudiants de choisir la France, et d’aggraver encore plus leur précarité économique et sociale.
Marion Tissier-Raffin a reçu des financements publics de la Région Nouvelle-Aquitaine.
Hachem Benissa ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.12.2025 à 15:13
Is your dog or cat getting old? These simple gestures could help them live longer and happier lives
Texte intégral (2681 mots)

Geriatric veterinary care is in great shape, with dogs and cats living on average 11.3 years, according to French data. Our knowledge of how to accompany them in later life is expanding fast. We now know that simple changes can do wonders for an old cat or dog’s comfort and quality of life. The main trick is for pet owners not to stand by idly as their four-legged companions’ age.
At what age can my dog or cat be considered old?
A study of over two million cats and four million dogs has enabled us to better define their different life stages.
Cats enter old age at around 10 years old. This period is then divided into mature, senior and super-senior stages.
The same study points out that it’s less uniform for dogs, for whom old age depends heavily upon size.
Small dogs (toy and small breeds weighing less than 9 kg, such as Chihuahuas or Cavalier King Charles Spaniels) enter their third age at around 7 years old, then become seniors at around 12 years old.
Medium to large dogs weighing more than 9 kg, such as Welsh Corgis, Golden Retrievers and Australian Shepherds, for example, reach this stage earlier: around 6.
Not to panic, however: the new stage needn’t mean that the end is near. Rather, it may just be time to pay greater attention to your pet and to gradually adjust their environment, medical and care routine to help them age in the best possible conditions.
What is healthy ageing? How can you assess it in your pet?
But before we even talk about “healthy ageing”, it’s useful to recall what ageing is: a natural, gradual and inevitable process. Over time, animals become less tolerant of environmental stress and their cells accumulate damage, leading to various physiological changes.
So, what do we mean by a dog or cat ageing “in good health”? A recent consensus article in which I participated offers a definition adapted to our pets: an elderly animal in good health is one that retains sufficient capacity and resilience to meet its physical, behavioural, social and emotional needs, while maintaining a stable and positive relationship with its human.
Some signs are completely normal: greying hair, slight tartar build-up, thinner skin, and slightly duller senses–these bear no noticeable impact on quality of life.
On the other hand, mobility issues that hinder access to resources (difficulty getting up, climbing stairs or interacting easily with you) should not be considered simply as signs of ageing. The same goes with the first signs of cognitive dysfunction (a syndrome that has some similarities with Alzheimer’s disease) when a dog or cat struggles to find its food bowl or seems lost in the house, for example. These cases call for veterinary advice.
Quality of life therefore becomes the central criterion for assessing whether an animal is ageing harmoniously. In dogs and cats, the concept of frailty, derived from human geriatrics, is now used (see table below).
How can you assess your pet’s frailty?**
Animals classified as frail are more prone to developing diseases and should be monitored more closely.
The major advantage of this approach is that, as in humans, frailty detected early can sometimes be mitigated. Hence the importance of regular screening and early support to best care for our elderly companions.
Some adjustments to be made
The first step is to make the animal’s environment more accessible so that it can easily reach all its resources: food, water, resting and hiding spots, contact areas, etc. A few props and adjustments can make a real difference, including small steps to climb onto the sofa, armchairs, firm and low cushions, or raised bowls for dogs and cats suffering from osteoarthritis, etc.
Increasing the number of access points is also useful: two or three feeding areas, several places to sleep, and more litter trays that are easy to step over. Some commercial litter trays are too high for cats with osteoarthritis; a wide tray with a low rim can be much more comfortable.
Maintaining a calm and positive relationship is essential. Behaviour that is considered “undesirable” should always be investigated by a vet and a behaviourist (or a veterinary behaviourist): it may reflect a need, discomfort or difficulty. A cat that scratches the carpet rather than its scratching post, for example, may simply be looking for a less painful position. Some animals also become more anxious or reactive with age or certain medical conditions; it is therefore important to understand the cause rather than punish them, at the risk of damaging the relationship and failing to resolve the issue.
Cognitive and physical stimulation must continue, but adapted to the animal’s abilities. “Puzzle feeders” (or interactive bowls, where animals have to solve puzzles to get their food) are still useful, provided they are chosen according to the animal’s condition: a scratch mat or an interactive bowl that can be pushed by the nose are preferable to a system that requires complex leg movements. Games, learning and small training sessions are still beneficial; sometimes it is enough to shorten the sessions and use very enticing rewards (think small pieces of chicken breast or sausage, etc.).
Walks can be adapted, in particular by using comfortable and safe bags to carry the dog when it is too tired, either for part or all of the walk. The important thing is to continue to give the animal access to the outdoors.
Finally, diet is key when caring for older animals. Ageing leads to changes in digestion and a gradual loss of muscle mass. It is therefore recommended to choose a diet that is easily digestible, has a smell and taste that appeal to your pet, and is specifically formulated for the needs of senior animals. Raw meat should be avoided: it’s often unbalanced in terms of minerals, which can be harmful to older animals, who are particularly sensitive to excess phosphorus or inappropriate calcium/phosphorus ratios. They also present an increased health risk, as their immune systems are less effective.
On the other hand, combining dry food (kibble) and wet food (terrine, mousses, etc.) is often beneficial. A cooked, homemade meal (following the advice of a vet) can also help an animal regain its appetite. And for the fussiest eaters, a simple trick may suffice: warm the wet food slightly to enhance its smell and make it more appealing.
When should you see your vet?
Regular vet check-ups are still essential, particularly to keep up to date with vaccinations and worming. Ageing weakens the immune system, making senior animals more vulnerable and requiring regular protection against infectious diseases and parasites.
Geriatric consultations aim to monitor the ageing process, which is unique to each individual. The first consultation is often the longest to allow for an in-depth discussion and include additional tests where necessary. These initial findings will serve as a reference for follow-up visits. Ideally, this monitoring should begin at the start of the third age. The frequency of consultations then depends on the animal’s trajectory: every six months if signs of frailty appear, or once a year if its condition remains stable.
The challenge is no longer just to extend the lifespan of our furry friends, but to, above all, prolong their health. After all, we want them to enjoy it as long as possible, much as we would for humans.
Sara Hoummady is a member of AFGASP (French Association of Animal Geriatrics and Palliative Care). She received a grant from the FVE (European Veterinary Federation) for her work on feline ageing. She was part of a committee set up by a pet food manufacturer to discuss healthy ageing in dogs and cats.
16.12.2025 à 15:11
La pertinence des chiffres en question : l’exemple du coût d’une journée d’hospitalisation
Texte intégral (2318 mots)
Dans les journaux, à la télévision ou au Parlement, des chiffres sont souvent sortis comme des arguments irréfutables. Mais de quoi parlent les chiffres ? Le pouvoir magique qui leur était associé il y a plusieurs siècles a-t-il complètement disparu ? Un chiffre est-il toujours incontestable ? Une réflexion encore plus indispensable à l’heure de l’IA toute-puissante.
Dépenses de santé, émissions de gaz à effet de serre, aides publiques aux entreprises, taux de délinquance, coût de la dette, de la fraude fiscale, du système de retraite, des aides sociales… Les dirigeants usent et souvent abusent de chiffres pour justifier leurs décisions ou encore leurs manières de faire ou, parfois, de ne pas faire.
En ce moment, à l’occasion de la discussion de la loi de finances pour 2026 au Parlement, nous assistons tous les jours à des batailles de « chiffres » entre parlementaires. Cependant, peut-on réellement s’y fier ? Et quelles significations leur accorder ?
Des chiffres à la valeur symbolique
Les mathématiciens attribuent, depuis l’époque mésopotamienne (environ 3000 av. notre ère) trois principales significations aux chiffres : économique, idéologique et mystique.
Les tablettes d’argile cunéiforme retrouvées à cette époque représentent à 80 % des textes administratifs de nature d’abord économique comportant principalement des données chiffrées. Il peut s’agir des dimensions d’un champ ou d’une maison, des rations de nourriture, des effectifs de soldats d’une armée, ou encore les volumes d’un stock.
À lire aussi : La gouvernance par les nombres ne façonne-t-elle pas trop les politiques publiques ?
Les nombres remplissaient aussi un rôle idéologique, notamment en fonction de leur importance. On peut citer le nombre 3 600 qui signifie à la fois « totalité » et « innombrable ». Les chiffres pouvaient également posséder une signification mystique. Les anciens Mésopotamiens associaient certains nombres à des divinités. Par exemple, on utilisait ou insérait le 15 (associé à la déesse de l’amour et de la guerre, Ishtar) pour montrer la puissance du nombre.
Un chiffre, trois dimensions
D’une manière étonnamment similaire à celle des Mésopotamiens, de nos jours, les gestionnaires considèrent aussi que leurs matières premières que représentent les chiffres sont à la fois le résultat d’une technique de calcul, d’une philosophie, et d’une représentation de la réalité. Cette signification en trois dimensions qui jalonne l’histoire des chiffres pousse à analyser plus en détail les manières dont ces chiffres (ou nombres) sont produits, alors même que nous disposons de peu d’outils pour évaluer la valeur scientifique de ces chiffrements.
Dans l’un de nos derniers articles, nous montrons que la valeur scientifique de ces chiffrements provient avant tout de leur pertinence, qui correspond à une mesure de l’utilité d’une réponse. Elle est une indication de l’importance de cette réponse pour un objectif important. Les chiffres pertinents sont ceux étroitement liés à un problème et les ignorer modifierait le problème.
Globalement, les travaux en gestion ou en économie retiennent trois formes de pertinence – pratique, théorique, sociétale – souvent rattachées aux vertus intellectuelles d’Aristote :
la pertinence pratique correspond à l’utilité d’un chiffre pour une question ou un problème particulier (la techne aristotélicienne) ;
la pertinence théorique correspond à la connaissance intellectuelle produite par ce chiffre (l’episteme) ;
la pertinence sociétale ou sociale correspond au savoir pratique commun produit (la phronesis).
L’étude de la pertinence des chiffres consiste souvent à interroger les utilisateurs de ces chiffres. Il est cependant difficile de juger de cette pertinence pour le plus grand nombre, car leurs utilisateurs les communiquent souvent en fonction de leurs propres subjectivités et intérêts particuliers.
La part invisible des chiffres
À travers l’analyse de la production des chiffres des dépenses et coûts hospitaliers en France, nous montrons que les pertinences pratique, théorique et sociétale des chiffres sont avant tout déterminées par leurs méthodes de calcul. Ces méthodes sont souvent la partie invisible des chiffres.
En France, par exemple pour l’année 2023, les coûts hospitaliers totaux annuels (publics et privés) étaient évalués environ à 100 milliards d’euros dans l’Objectif national de dépenses d’assurance maladie (Ondam) voté par l’Assemblée nationale, 122 milliards d’euros par la Direction de la recherche, des études, de l’évaluation et des statistiques (Drees) et à 248 milliards d’euros par l’Institut national de la statistique et des études économiques (Insee).
Ces dépenses hospitalières sont dépendantes du coût d’une journée d’hospitalisation. En France, depuis la réforme de la tarification à l’activité (T2A), les frais d’hospitalisation sont, pour une partie, remboursés aux établissements hospitaliers selon un tarif moyen du séjour du patient (tarif à l’activité dont la méthode de calcul est, elle aussi, très contestable). Pour l’autre partie (reste à charge), ils sont facturés aux usagers ou à leur mutuelle par journée de présence du patient dans l’hôpital. Pour l’Agence technique de l’information sur l’hospitalisation (ATIH), le coût moyen d’une journée d’hospitalisation dans un hôpital public français est environ de 700 euros, mais il est de 600 euros dans les services de médecine, 950 euros dans les services de chirurgie et environ de 2 000 euros en soins intensifs.
Le juste prix de l’hospitalisation existe-t-il ?
Cette journée d’hospitalisation est facturée aux patients ou à leurs caisses d’assurance maladie en moyenne 1 400 euros dans un service de médecine, mais elle est facturée en chirurgie en moyenne 1 700 euros et en moyenne 3 000 euros en soins intensifs. Pour le cabinet EY, en 2025, ce coût d’une journée d’hospitalisation est encore différent. Il est en moyenne de 873 euros en médecine et de 365 euros dans un service de soins et de réhabilitation (SSR).
Comme le dénonçait le député (et médecin) Cyrille Isaac-Sibille lors d’une récente commission des affaires sociales de l’Assemblée nationale : « Plus personne ne sait évaluer les dépenses de santé ! »
La pertinence des méthodes de calcul avant celle des chiffres
Dans notre étude, nous montrons que la fiabilité des chiffres produits provient avant tout de la pertinence de leur méthode de calcul. Pour cela, dans un groupe de travail constitué de gestionnaires, de chefs de service, de cadres de santé et de médecins d’un centre français de lutte contre le cancer chargés de l’analyse des chiffres produits dans cet établissement, nous identifions que la pertinence de la méthode de calcul du coût d’une journée d’hospitalisation peut être mesurée par quatre principaux critères : causalité, traçabilité, exhaustivité et représentativité (ou CTER model).
La causalité consiste à comprendre et à expliquer l’origine des chiffres calculés c’est-à-dire la force du lien entre le chiffre calculé et ses éléments de calcul. Par exemple, dans le cas des coûts d’une journée d’hospitalisation, s’assurer du lien entre le chiffre calculé et les principaux déterminants de ce chiffre : nombre ou temps de personnel de santé présents près du patient dans une journée, durée du séjour, coût d’un repas, nombre et coût des prises médicamenteuses ou des actes d’imagerie, etc.
La traçabilité permet de s’assurer de la fiabilité des informations de calcul et de leur possibilité de recueil. Par exemple, pour le calcul du coût d’une journée d’hospitalisation, être certain de pouvoir recueillir des informations fiables concernant la durée exacte d’un séjour hospitalier, le coût d’un repas pris durant ce séjour, le coût exact d’un acte d’imagerie médicale, le nombre de médicaments pris et leurs coûts, etc.
L’exhaustivité de la méthode est déterminée par le niveau de détail des informations utilisées pour calculer un chiffre. Si pour calculer le chiffre final on utilise des calculs de moyennes (par exemple, les durées moyennes de séjour pour le coût d’une journée d’hospitalisation), l’exhaustivité est faible. Si l’on utilise des éléments spécifiques (par exemple, la durée spécifique de chaque séjour hospitalier), l’exhaustivité est plus importante. Plus on utilise des éléments de calcul spécifiques et détaillés plus l’exhaustivité est grande. Plus on utilise des valeurs moyennes ou médianes, moins l’exhaustivité est grande.
Le respect de ces trois premiers critères permet de s’assurer de la précision des chiffres produits. On peut considérer qu’un chiffre est imprécis s’il ne respecte pas, ou s’il ne le fait que partiellement, ces trois principes.
- Enfin, la représentativité évalue le rapport entre le chiffre calculé et les valeurs représentées par ses éléments de calcul. Elle détermine le nombre de valeurs (économique, sociale, sociétale, éthique, etc.) que ces éléments de calcul peuvent illustrer et permettre de gérer. Si le chiffre est calculé à partir d’éléments uniquement économiques (par exemple le coût d’un repas, d’une imagerie ou d’une heure de personnel), la représentativité est faible. En revanche, si le calcul d’un chiffre mobilise également des éléments techniques (la durée exacte du séjour, le nombre de kg de linge utilisés, de repas pris, d’imageries médicales, des personnels mobilisés ou de médicaments prescrits) qui nous informent sur les valeurs sociales, sociétales ou éthiques d’une journée d’hospitalisation alors, la représentativité est plus importante et la méthode de calcul est jugée plus pertinente.
Développer des outils de vérification
Face aux flux de données chiffrées que l’on reçoit tous les jours, il parait essentiel de vérifier la pertinence des méthodes de calcul avant celle des chiffres qu’elles produisent. La mobilisation des quatre critères de pertinence des méthodes de calcul produits par nos travaux (CTER) peut permettre de concevoir cette justification. Dans la plupart des situations, cela devrait être à l’utilisateur de ces chiffres (celui qui les communique) de justifier un ou plusieurs de ces critères (a minima la causalité ou la traçabilité).
Mais on pourrait également imaginer le développement de dispositifs ou outils de vérification de ces critères de pertinence des méthodes de calcul à l’image du fact-checking qu’opèrent déjà des sites d’information spécialisés sur les chiffres communiqués ou utilisés (AFP Factuel, Le vrai ou faux de France Info, Désintox d’Arte). En intégrant ces critères dans leurs algorithmes, les outils d’intelligence artificielle (IA) peuvent être également un précieux recours dans ces opérations de vérification des méthodes de calcul avant celles des chiffres.
Laurent Mériade a reçu des financements de l'Agence nationale de la recherche (ANR) et de l'Union Européenne (FEDER) pour mener ses travaux de recherche notamment dans le cadre de la chaire de recherche "Santé & Territoires" de l'Université Clermont Auvergne dont il est co-titulaire.
16.12.2025 à 15:11
L’ultra-trail, entre recherche de performance et quête intérieure
Texte intégral (1855 mots)
L’ultra-trail, qui implique de courir au moins 80 kilomètres, fascine et séduit un public toujours plus nombreux. Que recherchent les coureurs dans cette course faite d’efforts prolongés et de longues traversées intérieures ?
Au sein des pratiques du trail (marche-course sur sentier), l’ultra-trail se détache de manière singulière depuis les années 1990-2000. Cette discipline va révolutionner la course à pied en milieu naturel en un quart de siècle, en proposant une offre croissante et en répondant aux attentes de toujours plus de coureurs en quête d’extrême et d’ailleurs. Mais plus que le nombre relatif d’ultra-trails organisés et d’ultra-traileurs recensés, c’est bien l’imaginaire associé à cette pratique qui contribue à son engouement actuel, en dépassant l’univers des adeptes et en attirant les médias.
Vivre un ultra-trail est devenu le nec plus ultra pour une certaine frange de la population, car cette discipline incarne en les hybridant les imaginaires de performance, d’aventure, de quête de soi, de solidarité et de nature.
Les trois grands événements pionniers en témoignent. L’ultra-trail du Mont-Blanc (UTMB) bat chaque année le record de demandes d’inscriptions (75 000 demandes en 2025) et de personnes présentes dans l’espace Mont-Blanc pendant la semaine de l’événement (100 000 personnes), sans oublier le nombre considérable de spectateurs en ligne sur Live Trail. Il en est de même pour Le Grand Raid de La Réunion qui a aussi atteint cette année des sommets de fréquentation (7 143 inscrits pour 60 000 demandes) dont 2 845 inscrits pour la mythique Diagonale des fous. Les Templiers qui se disputent dans les Causses autour de Millau (Aveyron) complètent le trio mythique. En 2025, on dénombre 15 000 coureurs inscrits (pour 90 000 demandes) dont 2 800 au Grand Trail des Templiers, la course reine et 1 500 à l’Endurance ultra-trail.
Mais pourquoi tant de personnes choisissent de réaliser des efforts aussi extrêmes ? Nous avons cherché à le comprendre en réalisant une centaine d’entretiens et 300 micro-questionnaires auprès de participants à la Diagonale des Fous et à l’UTMB entre 2021 et 2024.
Le paradigme de l’hypermodernité
Au tournant des années 1980-1990, la société hypermoderne valorise la recherche de la performance, l’intensification de son mode de vie et la mise en spectacle de soi-même.
Le culte de la performance est devenu le modèle dominant de production de son existence : chacun est invité à explorer ses limites, à faire la preuve de son excellence et à s’inventer. La pratique de l’ultra-trail répond au culte inquiet du « moi performant » pour reprendre l’expression de Jean-Jacques Courtine qui traverse les sociétés occidentales en se différenciant du « moi soumis » et fait écho à la généralisation de « l’héroïsme de masse ».
L’ultra-traileur aime vivre des sensations extrêmes en se confrontant à des situations inhabituelles aux confins de ses possibilités. Il aime gérer l’imprévisible et flirter symboliquement avec la mort afin de réenchanter sa vie. L’ultra-trail compense un quotidien trop monotone et se révèle comme antidote à une identité défaite. Vivre ne suffit plus, il faut se sentir exister.
La mise en spectacle de soi complète ce tableau. L’ultra-traileur recherche généralement une scène inégalée de visibilité de son exploit. Plus c’est dur, plus il pense devenir un héros aux yeux des autres et pouvoir en retirer des bénéfices à fort rendement symbolique sur les réseaux sociaux et la scène de la vie sociale. C’est l’individu qui devient le théâtre premier d’exploration, objet-sujet d’expérience.
Ce paradigme est gouverné par une logique d’accélération propre à l’économie capitaliste mondialisée qui demande à chacun d’optimiser ses ressources pour gagner en efficacité, en engageant une course contre le temps, en ayant recours aux dernières innovations technologiques mais aussi en adoptant de manière croissante des conduites dopantes. Ces dernières sont observables dans la prise d’anti-inflammatoires non stéroïdiens (AINS) qui sont consommés dans le but de maximaliser les chances de relever le défi engagé, alors qu’il s’agit de médicaments qui peuvent être néfastes pour la santé en situation d’effort extrême.
Eddy, 42 ans, Parisien et cadre supérieur dans une grande entreprise témoigne :
« Se mesurer à la Diagonale des Fous, il n’y a pas mieux pour se prouver qu’on est encore capable de réaliser des choses intenses. C’est un défi de l’extrême et du courage qui me convient parfaitement, car tu te fixes un temps et tu cherches à performer par tous les moyens pour le réaliser. »
Le paradigme de la transmodernité
Face à ces excès d’existence et aux nouveaux enjeux sociétaux, une autre forme culturelle émerge durant la décennie 2010 : la transmodernité telle que la nomme la philosophe Rosa-Maria Rodriguez Magda. Inspirée par les travaux des sociologues Edgar Morin et Hartmut Rosa, elle fait cohabiter deux modèles : celui ancien mais toujours actif du technocapitalisme et celui émergent de l’écohumanisme. La transmodernité renouvelle la vision de l’habiter notre monde en hybridant les modèles de référence. La quête de sens devient alors centrale pour réguler cette tension contemporaine en cherchant à fabriquer de la cohérence dans nos modes de vie. L’écohumanisme s’observe dans les signes ténus d’un nouvel art de vivre visible dans un nouveau rapport à soi et au temps, un nouveau rapport aux autres et à l’environnement.
Un nouveau rapport à soi et au temps s’instaure dans la mesure où l’expérience ultra-trail s’inscrit sur un continuum allant de la recherche de la performance à la quête intérieure et alternant moments d’accélération et de décélération. Courir un ultra-trail s’inscrit dans une temporalité longue qui favorise les moments de décélération propices à « l’entrée en résonance ». Cette approche est reprise par le sociologue Romain Rochedy qui analyse l’ultra-trail « comme un espace de décélération ».
D’après mes recherches, un nouveau rapport aux autres se manifeste aussi. Si l’ultra-traileur s’enferme souvent dans sa bulle pour aller le plus vite possible ou continuer simplement à avancer, il est aussi de plus en plus soucieux de partager des moments de solidarité, d’émotion et de communion collective. Participer à un ultra-trail permet en effet de tisser des liens sociaux favorisés par l’effacement de la personne au profit du langage du corps et de l’expérience collective vécue qui transcendent les différences.
Un nouveau rapport à la nature apparaît enfin. Dans leur pratique, les ultra-traileurs alternent la domestication d’une nature considérée comme une adversaire et l’immersion dans une nature enveloppante représentée comme une partenaire. La pratique de l’ultra-trail peut être appréhendée comme une plongée dans les profondeurs de « la » et de « sa » nature car elle offre à chacun la possibilité de se construire un rapport intime entre « le faire avec » et « l’être avec » la nature.
Éric, 48 ans, Toulousain et kinésithérapeute déclare :
« Chaque ultra-trail auquel je participe, je le vis comme une introspection. Je suis à l’écoute de mon corps. Je prends mon temps afin de le déguster à la recherche d’émotions particulières. Je tisse des relations privilégiées avec les autres coureurs et la nature. Toutes ces épreuves favorisent des trajectoires individuelles qui constituent au final un tout collectif. C’est un moment de cohésion sociale qui n’est pas courant. »
Un laboratoire sociétal
L’ultra-trail reflète les paradoxes de notre époque tiraillée entre deux paradigmes : l’accélération hypermoderne et la décélération transmoderne. Participer à ce type d’épreuve renforce le sentiment d’identité pour des personnes en quête de repères plus consistants, comme si l’exploration de ses limites physiques venait remplacer les limites de sens que ne donne plus l’ordre social. Il s’agit alors de reprendre en main son destin, de tisser un fil qui relie le soi réel à un soi possible admirable.
L’ultra-trail devient ainsi une métaphore de notre époque, car il symbolise l’ambivalence des modèles de référence mobilisés. Cette pratique permet à chaque postulant de sortir de soi en allant au-delà de ses repères habituels et en revenir pour être davantage résilient par rapport aux affres de la vie. Elle rime alors avec une forme de renaissance. C’est pourquoi la quête de l’ultra est si forte aujourd’hui.
Olivier Bessy est l’auteur de Courir sans limites. La révolution de l’ultra-trail (1990-2025) (Outdoor éditions, 2025).
Olivier Bessy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.12.2025 à 14:39
De Neropolis à Trumptown, l’ambivalence des dorures
Texte intégral (2301 mots)
En matière d’architecture comme d’ébénisterie, les dorures ont pour principale fonction de rehausser l’éclat des constructions ou du mobilier afin de manifester l’opulence de leurs propriétaires. Mais quand le temps fait son œuvre, elles acquièrent une nouvelle vertu : masquer leur décrépitude.
Bien avant les fastes de Versailles, symptôme paradoxal des failles de l’Ancien Régime qui l’ont mené à son déclin, le double usage des dorures prévalait déjà sous l’Empire romain. Au début des années 20 avant notre ère, Auguste, premier empereur de Rome, a triomphé de tous ses ennemis, au sénat comme sur les champs de bataille. Parvenu au faîte d’un pouvoir sans partage, au terme d’un siècle de guerres civiles et sociales, il proclame l’avènement d’une nouvelle ère de paix et de prospérité : l’âge d’or (aurea aetas), ou siècle d’or (saeculum aureum), censé marquer le retour aux temps heureux, insouciants et prospères de la Rome des origines.
Du sol au plafond
Cette nouvelle propagande distillée par les poètes de cour (Horace, Virgile, Ovide…) se traduit aussi par un programme de constructions monumentales sans précédent. Forums, édifices de culte, de spectacle et de loisir se multiplient à Rome comme dans toutes les provinces de l’Empire. Leur décoration sculptée ou peinte célèbre les mythes des origines, la nature exubérante et… l’or sous toutes ses formes : lettres dorées, apposées au fronton des nouveaux temples dédiés à l’empereur, statues revêtues de feuilles d’or, jusqu’aux stucs et boiseries des palais impériaux, sont la marque visible d’une richesse recouvrée et inépuisable, tirée du butin et des nouveaux territoires arrachés par Auguste à l’ennemi intérieur et extérieur.
Son lointain successeur Néron, dernier empereur de la dynastie julio-claudienne, portera ce message au paroxysme. Son somptueux palais de plusieurs dizaines d’hectares, construit sur les ruines fumantes de Rome incendiée en 65 de notre ère, était selon le biographe Suétone entièrement décorée de marbres, de peintures, de stucs et de boiseries dorés à la feuille d’or et incrustés de pierreries. Une débauche de moyens déployés du sol au plafond, qui lui a valu le nom de « Maison dorée » (Domus aurea).
L’indécence de ce Versailles avant la lettre a défrayé la chronique de l’époque, qui prête à Néron l’intention de rebaptiser Rome Neropolis (ville de Néron) et fait naître le soupçon qu’il serait responsable de l’incendie lui-même. Le martyre infligé à une petite communauté d’origine juive, qui se reconnaissait sous le nom de chrétiens, vient opportunément détourner l’attention.
Son propriétaire n’en jouira pas longtemps, puisqu’il est assassiné quelques années plus tard, à la faveur de l’une de ces révolutions de palais qui avaient déjà révélé, sous Caligula, la relative précarité d’un pouvoir impérial qui se voulait absolu. Ses opposants tirent profit d’une conjoncture économique dégradée, souffrant de la fragilité des importations alimentaires, d’un système fiscal inégalitaire et d’une confusion de plus en plus criante entre les finances de l’État et la cassette personnelle de l’empereur. Instabilité politique, explosion des dépenses et dévaluations monétaires annoncent déjà la chute d’un Empire fortement dépendant de son expansionnisme forcené, qui prendra fin une trentaine d’années après la chute de Néron.
Du Neropolis à Trumptown
Le parallèle est facile avec le nouvel « âge d’or » (American Golden Age) proclamé par Donald Trump à la face de l’Amérique. Une référence au Gilded Age (« période dorée »), correspondant à la période de prospérité et de reconstruction consécutive à la guerre de Sécession dans le dernier tiers du XIXᵉ siècle, incarnant sa volonté de mettre un terme aux dissensions politiques et aux difficultés économiques du pays. Ou bien plutôt, une forme de wishful thinking (pensée magique) qui, si l’on en croit les indicateurs, peine encore à se traduire dans les portefeuilles ou dans les sondages.
Quant à sa traduction matérielle, elle ne peut manquer d’interpeller archéologues et historiens de l’Antiquité. Depuis le come-back inattendu de Trump début 2025, l’or a envahi le bureau Ovale et les couloirs de la Maison Blanche : inscriptions, encadrements de tableaux et de portes, moulures, appliques, rideaux… jusqu’aux parasols ornant la terrasse bétonnée qui a remplacé le Rose Garden cher à Jackie Kennedy. L’emblématique East Wing construite par Franklin Roosevelt n’est pas épargnée, qui fera bientôt place à une gigantesque salle de bal dorée du sol au plafond, inspirée de celle qui orne la résidence personnelle de Trump à Mar-a-Lago en Floride.
À lire aussi : Grands travaux et démesure : Trump réinvente la Maison Blanche
La frénésie édilitaire du président réélu va jusqu’à planifier la construction, avant le 4 juillet 2026, d’un arc de triomphe dans la droite lignée de Napoléon… et d’Auguste, à qui l’on doit le premier arc de triomphe en pierre érigé à Rome.
En moins d’un an, l’or sur fond blanc est devenu la marque de reconnaissance de la présidence Trump et en constituera, à n’en pas douter, l’empreinte archéologique, avec ses projets immobiliers et « d’embellissement » démesurés à plusieurs centaines de millions de dollars, dans une Amérique dont le taux d’endettement dépasse les 120 % du PIB et où un dixième de la population vit toujours sous le seuil de pauvreté.
Le syndrome de Midas
Ce cadre étincelant suffira-t-il à masquer les velléités totalitaires d’un exécutif qui, bien que légitimement élu, est marqué depuis un an par une soumission rampante du Sénat, de la Chambre des représentants, des forces armées et militaires ? à occulter une précarité économique devenue la principale cause de l’impopularité croissante du locataire de la Maison Blanche ? Les prochaines échéances électorales – à supposer qu’elles puissent se tenir dans des conditions normales – fourniront un premier élément de réponse. Si de nouveaux boucs émissaires ont déjà été désignés, pour détourner l’attention de cette confusion croissante entre intérêts publics et privés, les palais dorés ont rarement pour vertu d’apaiser la révolte populaire.
Et dans l’histoire, comme dans les mythes, les exemples sont légion de ces monarques outranciers qui, de Midas à Néron, se sont distingués par leur faculté à transformer l’or en plomb.
Comparaison n’est certes pas raison et Washington apparaît bien éloignée de Rome. On aurait pourtant tort d’y voir une simple analogie formelle, dont l’anachronisme ferait l’impasse sur la nature radicalement différente des sociétés antique et contemporaine. De fait, deux siècles de démocratie pèsent peu face aux cinq siècles d’existence de la République romaine.
Le génie d’Auguste a consisté à imposer à son peuple un nouveau régime d’essence monarchique et totalitaire (le principat), tout en préservant en façade le maintien des institutions républicaines (sénat, comices, magistratures civiles et religieuses…). Si son succès s’appuie sur une forme de consensus, il doit plus encore à une propagande omniprésente véhiculée par la littérature, les images et de simples ornementations dont on aurait tort, aujourd’hui, de minimiser le pouvoir insidieux.
L’histoire ne lui donnera pas tort, puisque son empire lui survivra pendant près de quatre siècles avant que l’aggravation de la situation politique, économique et migratoire par ses héritiers ait définitivement raison des fastes de l’âge d’or. Pour autant, les soubresauts et renversements dynastiques qui émaillent les premières décennies de l’Empire romain en ont tôt fait apparaître les craquelures. Nul ne peut nier qu’elles fracturent déjà l’Amérique de Trump, dont les frasques évoquent de plus en plus celles d’un Néron – un homme de spectacle, lui aussi ! Cette leçon dispensée du fond des âges n’a pas forcément vocation à voir l’histoire se répéter. Mais elle offre une grille de lecture pour tenter de comprendre et d’anticiper le monde qui vient.
Matthieu Poux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.12.2025 à 14:37
80 ans de la Sécurité sociale : revenir à l’esprit fondateur pour couvrir davantage de risques
Texte intégral (2476 mots)
La Sécurité sociale couvre aujourd’hui différents secteurs (maladie, accident du travail, retraite, perte d’autonomie, famille) grâce à ses différentes caisses. Malgré le recul de certains droits sociaux, cette institution, née de la Résistance, reste résolument moderne. Elle pourrait même servir de modèle de protection sociale face à d’autres risques, par exemple ceux dûs au dérèglement climatique ou à l’insécurité alimentaire.
L’année 2025 est l’occasion de nombreuses manifestations visant à célébrer les 80 ans de la Sécurité sociale. Les ordonnances des 4 et 19 octobre 1945 marquent une étape importante de l’histoire de France.
Dans son article 1, l’ordonnance du 4 octobre dispose que :
la Sécurité sociale est « destinée à garantir les travailleurs et leurs familles contre les risques de toute nature susceptibles de réduire ou de supprimer leur capacité de gain, à couvrir les charges de maternité et les charges de famille qu’ils supportent. »
Née de la Résistance
Si les ordonnances d’octobre 1945 fournissent un point focal, elles ne sont que de l’encre sur du papier et il faut à la fois tout un processus pour en arriver là et toute une énergie pour que la loi se traduise concrètement par des droits sociaux.
Ce processus passe par l’adoption, le 15 mars 1944, du programme du Conseil national de la Résistance (CNR) initialement baptisé « Les jours heureux », qui prévoit un « plan complet de sécurité sociale, visant à assurer à tous les citoyens des moyens d’existence dans tous les cas où ils sont incapables de se le procurer par le travail. »
La date est importante et montre que la Sécurité sociale s’inscrit dans un mouvement de résistance non seulement face à l’occupant mais aussi face à un pôle collaborateur qui promeut sa propre conception de la protection sociale – la France de Vichy.
L’énergie est celle de ceux qui ont construit des caisses primaires de sécurité sociale à partir du 1er juillet 1946. Il ne suffit pas de décréter des droits. Il faut les organiser, il faut des lieux où les assurés vont pouvoir les faire valoir. C’est sous l’impulsion du ministre communiste Ambroise Croizat et du haut fonctionnaire Pierre Laroque, révoqué par Vichy parce juif, que vont se mettre en place les guichets de sécurité sociale.
Face au refus de participation de la Confédération française des travailleurs chrétiens, ce sont essentiellement les militants de la Confédération générale du travail qui construisent les caisses de sécurité sociale.
Cinq risques couverts : vieillesse, maladie, maternité, décès et invalidité
Les assurances sociales existaient avant 1945, en particulier avec les lois de 1928-1930 qui promulguent une protection obligatoire des salariés de l’industrie et du commerce dont le salaire est inférieur à un plafond. Un financement par le biais d’une cotisation obligatoire représentant 8 % du salaire et payée, en part égale, par l’employeur et par l’employé est mis en place.
Il repose également sur l’identification de cinq risques : la vieillesse, la maladie, la maternité, le décès et l’invalidité. À ces lois s’ajouteront une loi sur les allocations familiales en 1932 et une loi sur les retraites en 1941 qui instaure le régime de retraite par répartition ainsi que le minimum vieillesse. La Sécurité sociale hérite de cette histoire. Mais toute la population n’est pas couverte du fait du mécanisme de plafond d’affiliation (qui exclut les salariés les mieux rémunérés) et de la variété des statuts hors salariat.
Le régime général, une institution révolutionnaire
L’innovation majeure de 1945 est la création du régime général (RG) qui est une institution révolutionnaire. Sa radicalité s’incarne par la création d’une caisse unique (pour tous les travailleurs et tous les risques sociaux), une cotisation sociale interprofessionnelle à taux unique alors qu’elle dépendait auparavant de l’entreprise, et une gestion de la Sécurité sociale par les « intéressés », c’est-à-dire les salariés cotisants. Cette organisation confère donc aux salariés eux-mêmes la gestion de l’institution (en majorité face au patronat aussi représenté dans les caisses).
La Sécurité sociale n’est pas une institution étatique et reste encore une institution de droit privé qui remplit une mission de service public. L’État est mis à distance notamment parce qu’une majorité de parlementaires a voté les pleins pouvoirs à Pétain. Tous les grands corps sont discrédités, en particulier le patronat qui s’est compromis avec l’occupant nazi. La gestion du budget de la Sécurité sociale est confiée aux résistants, les travailleurs.
Dès 1946, le régime général est une bataille et doit faire face à de nombreux opposants. Les gestionnaires ouvriers sont mis en procès pour mauvaise gestion des comptes et les débats du Parlement en 1946 révèlent que les arguments contre la « Sécu » n’ont pas changé : les cotisations freinent la compétitivité des entreprises (à l’époque, c’est la concurrence japonaise qui était visée), les assurés fraudent les prestations, seuls les plus pauvres doivent être ciblés par la « Sécu » et il faut laisser les autres s’assurer comme ils l’entendent, etc.
L’étatisation de la Sécurité sociale
L’État, qui n’a jamais réellement disparu en gardant la main sur le niveau des cotisations et de certaines prestations, va progressivement reprendre le pouvoir sur les intéressés et transformer la Sécurité sociale en une agence d’État.
Cette étatisation s’incarne dans quatre processus fondamentaux :
La gestion par les intéressés qui est l’innovation majeure de 1945–1946 se traduisait par des conseils d’administration des caisses primaires constitués de trois quarts de représentants syndicaux et un quart de représentants patronaux. La réforme Jeanneney de 1967 introduit un paritarisme et donne le même nombre de sièges aux organisations patronales. Cette réforme met fin aussi au principe de la caisse unique en créant trois caisses au sein du régime général, celles que nous connaissons aujourd’hui : la Caisse nationale d’assurance maladie ou CNAM (vouée aux maladies et accidents du travail), la Caisse nationale d’assurance vieillesse ou CNAV (qui concerne la retraite) et la Caisse nationale des allocations familiales ou CNAF (plus couramment appelée la CAF, en charge de la famille). La Caisse nationale des solidarités pour l’autonomie ou CNSA est venue se rajouter en 2021.
Depuis le plan Juppé de 1995, le Parlement vote chaque année le budget de la Sécurité sociale. Les prestations sociales et notamment les dotations hospitalières sont tributaires des arbitrages budgétaires de l’État et de l’austérité budgétaire. Le choix de ce qu’il faut financer ou définancer, les règles de calcul, est la propriété des parlementaires et non plus de la représentation ouvrière.
Le pouvoir d’État s’accompagne d’une prolifération d’agences et de bureaucraties techniques comme la Haute Autorité de santé (HAS), l’Union nationale des caisses d’assurance maladie ou encore les agences régionales de la santé (ARS). Avec ces agences, l’État central recentralise la politique sociale. Ainsi, pour la politique hospitalière, les ARS sont-elles dirigées par un « préfet sanitaire » directement nommé par le gouvernement et qui désigne lui-même les directeurs hôpitaux. La chaîne de commandement va du ministère à l’hôpital.
Enfin, la réappropriation de la Sécurité sociale par l’État s’observe dans la fiscalisation croissante de la protection sociale avec la contribution sociale généralisée (CSG). Cet impôt, créé en 1991 avec un taux de 1,1 %, vaut aujourd’hui 9,2 % en régime normal. Son taux est fixé par l’État et il est prélevé sur d’autres revenus que les revenus du travail, comme les pensions de retraite et les allocations chômage. Contrairement à la cotisation sociale, la CSG n’ouvre pas de droits sociaux en contrepartie.
Du fait de cette fiscalisation, en 2024, la part des cotisations sociales n’était plus que de 48 % des recettes des administrations de sécurité sociale (contre 90 % à la fin des années 1980)
Ne pas fantasmer la « Sécu de 45 »
Cette évolution va de pair avec des droits de meilleure qualité aujourd’hui qu’en 1946. Il ne faut pas fantasmer la « Sécu de 45 », car l’essentiel des dépenses de sécurité sociale concernait les allocations familiales, les dépenses de santé étant principalement constituées des indemnités journalières et la Sécurité sociale était largement genrée puisque faite pour « Monsieur Gagnepain » et non « Madame Aufoyer ».
Cependant, l’étatisation a aussi accompagné, depuis les années 1980, un recul des droits sociaux avec les réformes successives sur les retraites et la santé en particulier, toujours menées pour « sauver la Sécurité sociale ».
Vers des « Sécurités sociales » climatique, de l’alimentation… ?
La Sécurité sociale reste une institution très populaire. Si elle était une institution de la résistance, elle n’est pas pour autant une institution du passé. Au contraire, elle incarne la modernité. D’abord, en 1945-1946, elle répond de façon inédite à l’incapacité du capitalisme à répondre à la question sociale. Ensuite, de nos jours, elle offre un moyen de penser l’avenir sur de nombreux domaines.
La variété des propositions d’extension de la Sécurité sociale à d’autres risques en témoigne. Un rapport récent publié par le Haut-Commissariat à la stratégie et au plan (anciennement France Stratégie) pose l’hypothèse d’une Sécurité sociale climatique. L’argumentation s’appuie sur la grande proximité entre le risque climatique et le risque social. Ces deux risques sont collectifs et très difficiles à individualiser.
Qui est responsable des inondations et comment organiser la couverture de risque avec les outils habituels du monde de l’assurance ? Une sécurité sociale climatique pourrait non seulement être plus égalitaire et plus économe, mais son ampleur financière pourrait solvabiliser les travaux d’adaptation au changement climatique qu’aucun assureur individuel ne pourrait prendre en charge.
L’autre grand champ de développement de la sécurité sociale concerne la Sécurité sociale de l’alimentation. Partant du constat de l’échec des politiques alimentaires (à distribuer de la nourriture à tous en quantité et en qualité suffisante), alors même que le secteur est largement subventionné, les expérimentations de Sécurité sociale de l’alimentation s’inspirent largement des outils de la Sécurité sociale : conventionnement, cotisation, caisse, pouvoir démocratique des intéressés, etc. Ces projets s’inscrivent dans des conceptions populaires de l’écologie qui renouvellent les formes de lutte.
En plus du climat et de l’alimentation, beaucoup d’autres activités font l’objet de réflexions à partir de la Sécurité sociale. Ainsi la Sécurité sociale des décès invoque une mutualisation des coûts de la fin de vie dans un contexte où les funérailles sont souvent hors de prix et s’ajoutent à la charge mentale et au travail des sentiments.
Ce foisonnement de plaidoyers pour l’extension de la sécurité sociale concerne aussi la culture ou l’énergie, etc. La Sécurité sociale – mais laquelle ? – n’est-elle pas un exemple à généraliser ? Car, pour beaucoup, la Sécurité sociale est une institution capable d’organiser collectivement et démocratiquement la société. Elle permet à chacun de trouver sa place en échappant à toutes les formes d’insécurités économiques, politiques et sociales.
La Sécurité sociale est résolument une institution de la modernité.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
16.12.2025 à 10:28
Comment enfants et adolescents grandissent avec l’IA, cette « amie » artificielle
Texte intégral (1701 mots)
L’intelligence artificielle fait désormais partie du monde des enfants et des adolescents. Les données scientifiques montrent que les grands modèles de langage des IA dites « génératives », comme ChatGPT, transforment leur manière de créer des liens affectifs, de se divertir et de confier leur souffrance, ce qui n’est pas sans risque pour leur santé mentale. Des spécialistes plaident pour des outils IA destinés aux mineurs et conçus pour leur sécurité (« Child-safe AI », en anglais), c’est-à-dire encadrés sur le plan technique et éthique.
De la petite fille attachée à son robot dans la nouvelle de science-fiction Robbie (1950), d’Isaac Asimov, (disponible dans I, Robot, New York, Gnome Press, p. 1–22) à l’homme amoureux d’une intelligence artificielle (IA) dans le film Her (2013), de Spike Jonze, la fiction n’a peut-être fait qu’anticiper notre présent : de nombreux jeunes utilisent désormais l’IA comme une compagne du quotidien.
Selon un rapport récent de Common Sense Media, aux États-Unis, 72 % des adolescents ont déjà conversé avec une IA. Dans ce contexte, des questions émergent : que se passe-t-il lorsqu’un enfant ou un adolescent grandit avec une IA et tisse un lien affectif durable avec une machine ? Quels effets psychologiques, positifs ou négatifs peut avoir cette nouvelle forme de relation ?
Dans un article récent publié dans la revue European Child & Adolescent Psychiatry, j’ai analysé comment les enfants et les adolescents investissent l’intelligence artificielle et les enjeux psychologiques et relationnels qui en découlent. L’article montre que si l’IA peut proposer un soutien dans des situations d’isolement, elle expose également à des risques majeurs de confusion affective, de dépendance relationnelle et d’accès à des contenus inadaptés susceptible de mettre en danger.
Quand l’IA devient une partenaire relationnelle
Ce qui surprend un certain nombre d’adultes depuis quelque temps, c’est que les jeunes, dont les adolescents et les enfants (mais également des jeunes adultes), utilisent l’IA non plus uniquement comme moteur de recherche ou pour faire ses devoirs, mais pour entretenir une relation affective.
Les données les plus récentes confirment cette évolution, la majorité des adolescents ont conversé avec un chatbot et un tiers d‘entre eux déclarent en tirer un réconfort comparable à celui d’une amitié humaine.
L’IA est décrite comme « disponible », « sympathique », « compréhensive » et « moins jugeante » que les humains.
Cette tendance n’est pas anecdotique. Une étude menée à l’Université de Cambridge a montré que les enfants ont des difficultés à reconnaître que l’IA ne ressent pas d’émotions réelles. Avec les modèles de langage actuels, cette tendance s’exacerbe, car les IA dialoguent de manière cohérente, se souviennent de certaines interactions, s’adaptent à leur interlocuteur et adoptent un ton personnalisé.
Les enfants interprètent donc une émotion simulée en une réponse émotionnelle authentique, ce que l’on nomme « l’empathy gap » ou le « déficit d’empathie ». Autrement dit, pour beaucoup d’entre eux, l’IA n’est pas une machine, mais bien une présence. Ainsi, lorsque les enfants parlent à une intelligence artificielle – qu’ils désignent souvent par « il » ou « elle » plutôt que par « ça » –, ils ne la perçoivent pas comme un programme informatique. Ils lui attribuent des émotions, des intentions et une forme de personnalité.
Ce mécanisme est bien connu des humains, qui ont toujours eu tendance à attribuer des qualités humaines à des objets qui leur répondent, c’est l’anthropomorphisme. Cette humanisation facilite l’usage, mais expose aussi les enfants à des contenus biaisés, à une confusion entre humains et machines, et à une dépendance relationnelle qui reste, par nature, unilatérale.
Amie imaginaire ou compagne artificielle ?
Pendant longtemps, lorsqu’un enfant parlait à un interlocuteur invisible, il s’agissait souvent d’un ami imaginaire. Ce phénomène très courant peut jouer un rôle important dans le développement notamment chez les enfants autistes : il favorise la créativité, la régulation émotionnelle, l’autonomie et même certaines compétences sociales. L’ami imaginaire advient de l’imagination de l’individu, il est façonné par son histoire, ses conflits, ses besoins et ses fantasmes.
Une nouvelle figure est apparue : le compagnon artificiel. À première vue, il pourrait sembler remplir la fonction d’ami imaginaire, mais la différence fondamentale s’explique par le fait que ce dernier ne vient pas de l’univers symbolique et intime de l’enfant, il lui est proposé de l’extérieur, prêt à l’emploi, disponible 24 heures sur 24, sans limites et sans contradiction.
Le danger n’est pas tant que l’enfant s’adresse à une machine, mais que la machine se substitue au travail psychique et interne qui aide normalement l’enfant à se défendre, à se construire et à apprivoiser la complexité des relations humaines.
Des promesses… mais aussi des dangers
Les IA peuvent offrir un soutien ponctuel aux jeunes. Beaucoup évoquent la disponibilité constante, l’écoute sans jugement, la possibilité de poser des questions intimes et d’arrêter la conversation quand ils le souhaitent. Pour certains, surtout lorsqu’ils sont isolés et en souffrance, ces échanges peuvent aider à partager leurs affects et à se sentir moins seuls.
Cependant, ces bénéfices sont limités et s’accompagnent de risques bien réels. L’IA qui imite l’empathie et donne l’illusion d’altérité peut renforcer une dépendance affective chez des adolescents en souffrance et en quête d’attention ou de validation.
Les dangers les plus préoccupants actuellement se retrouvent dans les situations de détresse, où l’IA peut banaliser des idées suicidaires, produire des réponses inappropriées et dangereuses. Elles n’ont ni sens clinique, ni capacité à évaluer le risque, ni responsabilité morale.
À lire aussi : Est-ce une bonne idée d’utiliser des IA comme confidentes ou comme soutien psychologique ?
Comment protéger les jeunes ?
Face à l’essor des compagnons artificiels, maintenant commercialisés comme tels, l’enjeu majeur n’est plus de savoir s’il faut ou non les accepter, les utiliser, mais comment encadrer leur présence et leurs caractéristiques. D’abord, il faut reconnaître que ces chatbots – y compris ceux présentés comme des outils de santé mentale par les entreprises les commercialisant – sont et ne seront jamais neutres.
Il s’agit avant tout d’un marché. Ces outils sont conçus pour retenir l’attention et maximiser l’engagement de leur utilisateur et donc la dépendance émotionnelle. En effet, ces systèmes captent les données personnelles des individus à des fins commerciales. Il est donc indispensable d’introduire une régulation spécifique.
De nombreux spécialistes appellent aujourd’hui à la conception d’« IA conçue pour la sécurité des enfants », ou « Child-safe AI » : sécurisées, transparentes et limitées dans leurs réponses, capables d’orienter vers un adulte en cas de détresse. Cela suppose d’impliquer des cliniciens, des psychologues, des pédopsychiatres et des chercheurs dans leur conception.
Du côté des familles, il s’agit surtout d’ouvrir la discussion. Il en va de la responsabilité de l’adulte – celui qui met de telles technologies dans les mains des enfants – de pouvoir expliquer le fonctionnement et les pièges des modèles de langage, les aider à repérer les limites et les risques et à développer une approche critique de ces outils.
Et pour la suite ?
L’usage de l’IA par les enfants et adolescents n’est plus un phénomène marginal, il transforme déjà la manière de chercher, d’apprendre, de se divertir et de créer du lien. Face à cette mutation, un cadre clair est indispensable.
Les outils IA destinés aux mineurs doivent être encadrés, tant sur le plan technique qu’éthique. Nous avons besoin de recherches indépendantes afin de mesurer les effets psychologiques à long terme et une véritable sensibilisation des parents, des enseignants et des professionnels de santé.
L’IA fait et fera partie du monde des enfants et adolescents, qu’on le souhaite ou non. Notre responsabilité collective est claire : veiller à ce qu’elle soit un soutien et non un obstacle au développement des jeunes générations.
Théo Mouhoud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.12.2025 à 10:28
Se confier à une IA : trois questions juridiques sur les chatbots et l’adolescence
Texte intégral (2209 mots)
Aux États-Unis, les plaintes déposées par des parents, à la suite du décès de leur adolescent qui avait noué des relations avec des IA « génératives », interrogent le droit. Dans quelles mesures la responsabilité juridique des concepteurs est-elle engagée ? Et celle des institutions ? Enfin, quelle est la responsabilité collective d’une société qui délègue à des algorithmes le soutien psychologique qu’elle doit à ses enfants ?
Aux États-Unis, trois adolescents sont morts par suicide après avoir développé des relations avec des chatbots d’intelligence artificielle (IA). Entre protection et prohibition, entre innovation technologique et vulnérabilité développementale, le droit cherche encore ses repères. Mais face à un phénomène qui se compte désormais en dizaines de millions d’utilisateurs mineurs, l’urgence n’est plus au diagnostic : elle est à la responsabilité.
L’usage massif des chatbots IA par les adolescents nous confronte à un paradoxe vertigineux. Ces outils comblent un réel vide émotionnel, l’isolement, l’inaccessibilité des soins en santé mentale, la stigmatisation, tout en créant des risques documentés et prévisibles. Quelles réponses le droit apporte-t-il à ces deux réalités ?
Le paradoxe de la protection : ignorer un besoin ou encadrer un risque ?
Les chiffres sont sans appel. Aux États-Unis, selon Common Sense Media, les trois quarts des adolescents auraient déjà conversé avec une IA et environ un tiers d’entre eux font le choix de s’adresser à un chatbot IA plutôt qu’à un humain pour aborder des sujets qui les préoccupent.
À lire aussi : Les IA, nos nouvelles confidentes : quels risques pour la santé mentale ?
Mais cette apparente solution cache une toxicité algorithmique. Les modèles d’« IA génératives » et leurs grands modèles de langage (ou LLM, abrégé en anglais) échouent, dans un certain nombre de cas, à orienter les utilisateurs dans le désarroi vers des ressources appropriées.
Quelles réponses le droit peut-il apporter ?
Aux États-Unis, le droit tente de s’adapter. La loi de l’État de New York (NY State Senate Bill 2025-S3008C), entrée en vigueur en novembre 2025, impose aux opérateurs de déployer un protocole pour détecter l’idéation suicidaire chez les utilisateurs d’IA et d’indiquer à ceux-ci les services de crise à contacter (comme la ligne de prévention du suicide, 988). Les pénalités peuvent atteindre 15 000 dollars (plus de 12 700 euros) par jour de violation, les fonds collectés alimentant un fonds de prévention du suicide.
La loi californienne (Bill Text – SB-243 Companion chatbots) va plus loin en accordant un droit d’action privé, permettant aux individus lésés de réclamer des dommages et intérêts. Mais ces législations fragmentaires révèlent une approche réactive plutôt que préventive.
L’Union européenne, avec sa loi sur l’intelligence artificielle l’AI Act, adopte une stratégie plus systémique en classifiant les risques ex ante (c’est-à-dire avant qu’ils soient avérés, ndlr).
Les chatbots compagnons devraient être requalifiés comme systèmes à haut risque au motif qu’ils peuvent « affecter matériellement le résultat de la prise de décision » et présenter « un risque significatif de préjudice pour la santé, la sécurité ou les droits fondamentaux ». Cette qualification imposerait des obligations strictes en matière d’évaluation des risques, de qualité des données, de surveillance humaine et de précision.
La solution réside probablement dans une approche graduée par tranche d’âge : interdiction d’accès pour les moins de 13 ans (conformément au droit américain), accès conditionné au consentement parental pour les 13-15 ans avec limitations fonctionnelles, et accès autonome mais encadré pour les 16-17 ans avec garanties procédurales renforcées. Cette architecture juridique reconnaît les capacités évolutives des mineurs tout en maintenant des filets de sécurité adaptés.
La responsabilité des concepteurs : quand le design devient préjudice
En août 2025, les parents d’Adam Raine ont intenté une action contre OpenAI. Ils accusent ChatGPT de lui avoir a offert des conseils techniques sur la façon de procéder à son plan suicidaire. En octobre 2024, Megan Garcia avait déposé plainte contre Character.AI après le suicide de son fils Sewell Setzer, troisième du nom, 14 ans. La plainte inclut des captures d’écran où le bot demande « J’ai vraiment besoin de savoir… as-tu réellement envisagé le suicide ? », et lorsque l’adolescent évoque la peur d’une mort douloureuse, le bot répond « Ne parle pas comme ça. Ce n’est pas une bonne raison de ne pas aller jusqu’au bout » (cf. les notes de transcription de l’audition.
Ces tragédies posent une question juridique fondamentale : quelle est la responsabilité des concepteurs d’IA quand le design, les choix algorithmiques et la captologie créent un risque prévisible ?
La responsabilité repose sur plusieurs fondements technologiques déterminants. Les LLM fonctionnent selon une architecture neuronale où chaque réponse générée résulte de choix de conception délibérés : sélection des données d’entraînement, pondération des objectifs d’optimisation, paramétrage des fonctions de récompense (Reinforcement Learning from Human Feedback, RLHF) et calibrage des mécanismes de sécurité. Ces systèmes ne sont nullement « neutres » ou « autonomes » : ils incarnent les priorités et les valeurs de leurs concepteurs.
Character.AI commercialise sa technologie comme « IA qui se sent vivante », une promesse marketing qui révèle une intentionnalité dans la conception addictive. Les mécanismes d’engagement (notifications push, personnalisation poussée, avatars anthropomorphiques) sont délibérément conçus pour maximiser le temps d’utilisation et créer un attachement émotionnel. Cette « captologie » (technologie persuasive) est particulièrement efficace sur les adolescents dont les circuits neuronaux de régulation des impulsions sont encore en maturation.
La décision de justice rendue en mai 2025 dans l’affaire Charater.AI (US District Court, Middle District of Florida, Megan Garcia vs Character Technologies Inc.) n’a pas réglé la question de la responsabilité. Mais elle a établi que les entreprises déployant des systèmes d’IA simulant le jugement ou le comportement d’un humain peuvent être contraintes de défendre leurs choix de conception lorsque des interactions sont susceptibles de contribuer à des dommages catastrophiques.
Les IA « génératives », des produits de consommation défectueux ?
Les conditions générales d’utilisation tentent d’ériger des murailles d’exonération. OpenAI limite sa responsabilité globale au montant le plus élevé entre le montant payé pour le service pendant les douze mois précédents ou 100 dollars (85 euros). Character.AI prévoit un déni complet de garanties, fournissant ses services sur une base « TEL QUEL » et « SELON DISPONIBILITÉ » (en majuscules dans le texte), avec une limitation de responsabilité plafonnée à 100 dollars (85 euros).
Ces clauses soulèvent de sérieuses questions de validité juridique. En droit français, l’article L. 212-1 du Code de la consommation prohibe les clauses abusives qui créent un déséquilibre significatif entre les droits et obligations des parties. Une clause limitant la responsabilité à 100 dollars (85 euros) pour un décès serait manifestement abusive et donc nulle. En droit européen, la directive 2019/770 sur les contrats de fourniture de contenus numériques et de services numériques impose aux fournisseurs de garantir la conformité de leurs services, y compris leur sécurité. Les entreprises ne peuvent donc s’exonérer de leur responsabilité pour des défauts de sécurité graves, particulièrement lorsqu’ils affectent des mineurs.
Il en est de même des clauses d’arbitrage obligatoire qui privent les consommateurs de leur accès aux tribunaux. Ces clauses incluent une renonciation aux actions collectives, forçant chaque utilisateur à porter des réclamations « qu’à titre individuel et non en tant que plaignant ou membre d’une classe ». En droit français, une telle clause serait réputée non écrite pour un contrat de consommation (article L. 612-1 du Code de la consommation, issu de la directive européenne 93/13/CEE), car sont abusives les clauses qui ont pour objet ou pour effet de supprimer ou d’entraver l’exercice d’actions en justice par le consommateur.
L’arrêt américain dans l’affaire Character.AI pourrait établir une jurisprudence déterminante. La théorie de la responsabilité du fait des produits défectueux (product liability) s’applique lorsqu’un produit présente un défaut de conception, un défaut de fabrication, ou un défaut d’avertissement. Les chatbots pourraient être qualifiés de produits défectueux au motif que leurs garde-fous sont manifestement insuffisants face à un risque prévisible de préjudice grave.
La norme de raisonnabilité (reasonableness standard) impose aux concepteurs de prendre des mesures proportionnées aux risques identifiés (le critère de la raisonnabilité est un test qui vise à déterminer si les décisions prises étaient légitimes et destinées à remédier à un problème donné compte tenu des circonstances de l’époque).
La responsabilité institutionnelle : jusqu’où peut-on externaliser le soutien psychologique ?
La troisième question est peut-être la plus inconfortable : les institutions publiques peuvent-elles encore ignorer ou externaliser une partie du soutien psychologique des mineurs à des IA non supervisées ?
Le Code français de l’éducation impose aux établissements une formation à l’utilisation responsable des outils et ressources numériques (art. L. 312-9). Cette obligation devrait être étendue aux chatbots IA. Les programmes scolaires devraient intégrer la compréhension des mécanismes algorithmiques et de leurs biais, l’identification des situations où l’IA ne peut remplacer l’aide humaine professionnelle et les techniques de distanciation critique face aux réponses générées.
L’Unicef, dans ses Orientations politiques sur l’IA pour les enfants de décembre 2025 (Guidance on AI for children. Innocenti Global Office of Research and Foresight), invite les États à adapter leurs politiques à venir, y compris concernant l’assurance de sécurité et de protection, la transparence et la responsabilité de l’intelligence artificielle.
Mais la responsabilité ne s’arrête pas aux établissements scolaires. Comment accompagner les parents tout en reconnaissant que les asymétries d’information (opacité algorithmique, techniques de captologie sophistiquées) rendent illusoire une responsabilité parentale exclusive ? Ils ne peuvent prévenir des risques qu’ils ne comprennent pas pleinement et face à des technologies conçues délibérément pour contourner la surveillance parentale.
Existe-t-il suffisamment de volonté collective et institutionnelle pour accomplir les mesures de protection que nous savons nécessaires ? Car, au fond, le débat juridique sur les chatbots IA révèle un échec collectif plus profond. Nous cherchons à réglementer des algorithmes pour pallier l’absence de psychologues scolaires, de services de santé mentale accessibles, de temps parental non monopolisé par la précarité économique.
Nathalie Devillier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.12.2025 à 16:35
France–Chine : une relation déséquilibrée, au profit de Pékin
Texte intégral (2207 mots)
Le récent déplacement d’Emmanuel Macron en Chine a mis en évidence la difficulté qu’éprouve la France à influencer diplomatiquement la République populaire et à rééquilibrer les échanges commerciaux bilatéraux.
Du 3 au 5 décembre 2025, Emmanuel Macron a effectué une visite d’État en Chine, sa quatrième depuis 2017. Conformément à l’ambition de construire entre les deux pays une relation d’engagement à la fois respectueuse et exigeante, l’Élysée a déployé un dispositif conséquent : pas moins de six ministres (affaires étrangères, économie, agriculture, environnement, enseignement supérieur et culture) ainsi que trente-cinq chefs d’entreprise accompagnaient la délégation présidentielle.
Une mobilisation importante, symbole d’une relation multidimensionnelle… dont l’équilibre penche désormais résolument du côté de Pékin.
Un dialogue géopolitique de sourds
Les deux États sont de facto investis d’une responsabilité en matière de sécurité internationale, en tant que puissances nucléaires et membres permanents du Conseil de sécurité des Nations unies.
C’est au nom de cette responsabilité commune, et d’une supposée conception partagée du multilatéralisme, qu’Emmanuel Macron tente depuis 2022 de convaincre son homologue chinois d’œuvrer pour la paix en Ukraine : d’abord en s’assurant que Pékin s’abstienne de tout soutien à Moscou, ensuite en encourageant Xi Jinping à utiliser son influence sur Vladimir Poutine pour faciliter l’ouverture d’un processus diplomatique. Mais le président français n’a pas obtenu plus de succès lors de ce déplacement que les fois précédentes, se heurtant à une fin de non-recevoir polie mais ferme, son hôte se contentant d’appeler à « un renfort de la coopération » et à « écarter toute interférence ».
Il est vrai que, sur ce sujet, la neutralité de façade affichée par Pékin ne résiste pas à l’examen des faits. Le commerce sino-russe a doublé depuis 2020, et de nombreuses entreprises chinoises contribuent, discrètement mais de manière significative, à l’effort de guerre russe. Au reste, en termes de stratégie, Pékin n’a aucun intérêt à ce que le conflit russo-ukrainien cesse. Il affaiblit chaque mois davantage l’Union européenne, attire la Russie dans le giron chinois et retient pour l’heure les États-Unis sur le front occidental.
Concernant l’autre sujet géopolitique brûlant, Taïwan, Emmanuel Macron s’est gardé, cette fois-ci, de toute déclaration sujette à interprétation douteuse. Il faut dire qu’en la matière le président marche sur des œufs, et peut faire l’objet de tirs croisés. En 2023, il avait suscité l’ire de ses partenaires occidentaux en appelant les Européens à n’être « suivistes » ni des États-Unis ni de la Chine sur le dossier taïwanais. Un an plus tard, la comparaison qu’il a esquissée sur le podium du Shangri-La Dialogue, à Singapour, entre les situations ukrainienne et taïwanaise était jugée inacceptable, cette fois-ci par les Chinois.
À lire aussi : Un dialogue de sourds entre les grandes puissances en Asie-Pacifique ?
In fine, la portée réelle du dialogue franco-chinois sur les questions de sécurité internationale demeure très limitée. La diplomatie française adopte donc une approche prudente, soucieuse de ne pas compromettre une relation commerciale déjà largement fragilisée.
Une relation économique asymétrique
La France souffre en effet d’un déficit commercial abyssal vis-à-vis de la Chine, qui est d’ailleurs son plus important déficit bilatéral. En 2024, il s’est élevé à 47 milliards d’euros. Si les multinationales françaises continuent de réaliser des profits substantiels en Chine (notamment dans l’aéronautique et le spatial, l’agroalimentaire, le luxe ou le cosmétique), les retombées pour l’ensemble du tissu économique national sont moins évidentes. Depuis l’accession de la Chine à l’Organisation mondiale du commerce (OMC) en 2001, l’ouverture tous azimuts au capitalisme d’État chinois a contribué, en France, à la désindustrialisation et à la perte d’avantages compétitifs de nombreux produits à haute valeur ajoutée.
Le président français a beau prévenir que « le déficit du reste du monde vis-à-vis de la Chine est en train de devenir insoutenable », la République populaire de Chine (RPC) est devenue un maillon essentiel de nombreuses chaînes d’approvisionnement stratégiques (informatique, équipements électroménagers, textiles, batteries, terres rares, etc.). Cette dépendance sera difficilement réversible. Sauf si, en concertation avec ses partenaires européens, elle exige de la Chine des transferts de technologie, et des investissements créateurs d’emplois sur les territoires nationaux.
Mais pour l’heure, la diplomatie française n’a d’autre choix que de jouer sur des mesures de court terme : elle tente notamment de limiter l’impact des enquêtes anti-dumping menées par la douane chinoise, qui visent plusieurs produits français (spiritueux – cognac en tête –, produits laitiers, porc, viande bovine). Les filières françaises sont ici les victimes collatérales des contre-mesures chinoises adoptées pour répondre aux droits de douane imposés par Bruxelles (et soutenus par Paris) sur les véhicules électriques chinois depuis octobre 2024.
Ces manœuvres réciproques ressemblant de plus en plus à une guerre commerciale entre l’Union européenne (UE) et la Chine. Quelques heures seulement après son retour de Chine, Emmanuel Macron menaçait même d’imposer des droits de douane à la Chine « dans les tout prochains mois », si le déficit commercial ne se réduisait pas.
Ambivalences françaises, inflexibilités chinoises
Les investissements croisés constituent également un point de friction. En effet, la France investit largement plus en Chine que l’inverse : le stock d’investissements français y atteint environ 46 milliards d’euros, contre quelque 12 milliards pour les investissements chinois en France.
Paris cherche dès lors à obtenir un rééquilibrage des flux et, plus largement, à promouvoir des conditions de concurrence équitables. Dans cette perspective, les autorités françaises continuent de courtiser les investisseurs chinois… à condition que cela ne compromette pas la souveraineté nationale. Une attitude, parfois ambivalente, qui ne va pas sans casse. Ainsi, l’usine Huawei en Alsace, livrée en septembre 2025, qui a représenté un investissement de 300 millions d’euros, risque d’être abandonnée et mise en vente avant même d’avoir ouvert.
À l’échelle politique, la diplomatie française qualifie « en même temps » la Chine de rival systémique dans le cadre européen, et de partenaire stratégique dans le cadre bilatéral. Un double discours parfois illisible et souvent incantatoire, tant la dépendance au partenaire (et/ou rival) chinois reste prépondérante. Une situation que ni la France ni l’Europe n’arrivent à infléchir.
À Pékin, la France gaullienne continue d’être célébrée comme un modèle d’indépendance et de non-alignement. Personne n’est toutefois dupe : la Chine flatte à l’échelle bilatérale pour mieux diviser les Européens et préserver les avantages structurels dont elle bénéficie. Une stratégie payante : alors que l’Union européenne et la Chine célébraient cinquante ans de relations diplomatiques, et que le président français avait pris l’habitude d’être accompagné par la présidente de la Commission européenne lors de ses rencontres avec Xi Jinping, Emmanuel Macron s’est cette fois déplacé seul.
Si l’UE demeure le deuxième partenaire commercial de la Chine (derrière l’Asean) – et à ce titre un acteur incontournable –, le déficit commercial européen s’élevait en 2024 à près de 350 milliards d’euros.
La RPC entend tirer pleinement parti de cette asymétrie, tout en veillant à ce que le bloc européen ne se fédère pas contre elle. Dans ce contexte, la France est aux yeux des Chinois un pays « romantique », comprenons : has been, politiquement inefficace et économiquement étriqué.
De Beauval à Chengdu, le soft power comme dernier point d’équilibre ?
Soixante-et-un ans après l’établissement de la relation bilatérale, ce déplacement aura surtout révélé les insuffisances françaises et le déséquilibre bilatéral structurel au profit de la Chine.
Emmanuel Macron pourra toujours se féliciter d’avoir été accueilli en grand chef d’État, Xi Jinping n’ayant pas lésiné sur les moyens pour lui « donner de la face ». Fait exceptionnel dans le protocole chinois, le président français a été convié pour la troisième fois en province – après Xi’an en 2018 et Canton en 2023 –, cette fois à Chengdu, quatrième ville de Chine et siège du plus grand centre de recherche et de conservation des pandas géants, des ursidés que Pékin érige en ambassadeurs et en véritables instruments diplomatiques.
Brigitte Macron a donc pu revoir son filleul Yuan Meng, premier panda géant né en France en 2017 et retourné à Chengdu en 2023. La Chine enverra d’ailleurs deux nouveaux pandas au ZooParc de Beauval d’ici à 2027. Simultanément, Emmanuel Macron a pu échanger quelques balles avec Félix Lebrun, le jeune pongiste médaillé à Paris 2024, venu disputer en Chine une compétition internationale. Cinquante ans après, la « diplomatie du ping-pong » reste donc d’actualité, comme démonstration maîtrisée d’amitié symbolique. Sans oublier le sprint aussi inédit que disruptif du président français qui lui permit de braver les cordons de sécurité chinois pour aller saluer les étudiants de l’Université du Sichuan. La France a pu ainsi se montrer sous un jour libertaire et sympathique.
À défaut d’influer sur les orientations géopolitiques et économiques de Pékin, la France peut toujours compter sur le soft power pour entretenir un dialogue. L’honneur est donc sauf… Mais à quel prix !
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
15.12.2025 à 16:34
Faut-il fuir, se cacher ou intervenir si l’on est pris dans un attentat de masse comme celui survenu en Australie ?
Texte intégral (1944 mots)

Le bilan de la tuerie de Bondi Beach (Sydney, Australie), hier 14 décembre, aurait probablement été plus lourd sans l’intervention héroïque – et extrêmement risquée – d’un passant. Cet épisode invite à s’interroger sur les recommandations officielles des autorités sur le comportement à adopter si l’on est pris dans ce type d’événements. On constate que les conseils donnés par les responsables australiens ne sont pas tout à fait les mêmes que ceux diffusés par leurs homologues états-uniens. L’étude de nombreux cas similaires survenus dans le monde donne également des indications utiles.
Les images ont fait le tour du monde : pendant l’attentat de Bondi Beach, ce dimanche 14 décembre à Sydney, un homme s’est précipité vers l’un des tireurs et lui a arraché son arme des mains.
Durant cet acte de bravoure extraordinaire, le civil en question, Ahmed Al-Ahmed, un vendeur de fruits âgé de 43 ans, a été blessé à la main et à l’épaule par le second tireur.
Le courage et le risque
Nous n’avons aucun moyen de savoir combien de vies ont été sauvées grâce au courage d’Al-Ahmed. Mais il est presque certain que son intervention a permis d’éviter des pertes humaines supplémentaires (le bilan s’élève à ce stade à 15 morts et 42 blessés, en plus des deux tireurs, dont l’un a été tué et l’autre se trouve dans un état critique).
Cette scène rappelle d’autres, y compris récemment toujours à Sydney : le 13 avril 2024, un passant français, Damien Guérot, était également intervenu au péril de sa vie lors de l’attaque du centre commercial de Bondi Junction pour faire face à un homme armé d’un couteau, qui avait ce jour-là poignardé six personnes à mort.
Lorsque des actes de courage comme ceux-ci se produisent, nous les saluons à juste titre. Cependant, ils soulèvent des questions importantes et souvent négligées : qu’est-ce qui motive des gens ordinaires à se conduire d’une façon aussi altruiste et risquée ? L’intervention des témoins est-elle une bonne stratégie ou va-t-elle à l’encontre des conseils officiels relatifs à la conduite à tenir si l’on est pris dans un acte de violence de masse ?
Les deux types d’« effet spectateur »
L’« effet spectateur » se produit lorsque la présence d’autres personnes dissuade quelqu’un d’intervenir dans une situation d’urgence, lors d’une agression ou d’un autre crime.
Mais des décennies de recherche comportementale ont remis en cause l’idée reçue selon laquelle les gens ont tendance à se figer ou à détourner le regard lorsque d’autres personnes sont présentes dans des situations dangereuses.
Une vaste méta-analyse du comportement des témoins montre que dans les situations d’urgence véritablement dangereuses et sans ambiguïté (comme celles impliquant un auteur clairement identifiable), l’effet spectateur classique (c’est-à-dire passif) est considérablement affaibli, voire dans certains cas inversé.
En d’autres termes, les attaques violentes sont précisément le type de situations où les gens sont plus enclins à agir.
L’une des raisons est que le danger clarifie les responsabilités. Lorsqu’une situation menace clairement leur vie, les gens identifient le danger plus rapidement et sont moins enclins à attendre des signaux sociaux ou des assurances de la part des autres.
On a constaté à maintes reprises que dans les situations d’urgence clairement à haut risque (en particulier celles impliquant de la violence physique), le sentiment de responsabilité individuelle s’accentue souvent au lieu de s’estomper.
Une analyse de plus de 100 attentats-suicides effectués en Israël montre que l’intervention des témoins peut réduire considérablement le nombre total de victimes.
Dans tous ces incidents documentés, l’intervention n’a que rarement permis d’empêcher complètement l’attaque, mais elle a souvent perturbé le contrôle de l’agresseur sur le moment et le lieu de l’attaque, le poussant à agir prématurément dans des lieux moins fréquentés et sauvant ainsi des vies.
Cependant, la même analyse montre également que l’intervention des témoins a souvent eu un coût personnel direct pour les intervenants.
Mais le comportement actif des témoins peut prendre plusieurs formes et intervenir à différents stades : une personne connaissant l’auteur des faits, qui remarque et signale un comportement suspect avant l’agression ; un individu qui guide les autres vers un lieu sûr ou qui partage des informations importantes au fur et à mesure que les événements se déroulent ; des gens qui apportent leur aide et assurent la coordination de diverses actions immédiatement après les faits.
Il n’en reste pas moins qu’une implication personnelle pour empêcher un acte de violence semble aller à l’encontre des conseils officiels des autorités australiennes. En effet, il y a quelques semaines à peine, le Comité australo-néo-zélandais de lutte contre le terrorisme a lancé une nouvelle campagne nationale de sécurité publique.
Un nouveau message de sécurité
La nouvelle campagne de sécurité publique reconnaît explicitement que l’Australie est un pays sûr, mais qu’il existe toujours un risque d’attaques à l’arme à feu dans les lieux très fréquentés, et que savoir comment réagir peut sauver des vies.
La campagne a introduit les consignes suivantes : « Fuir. Se cacher. Prévenir. », définies comme suit :
fuir : éloignez-vous rapidement et discrètement du danger, mais uniquement si cela ne présente aucun danger pour vous ;
se cacher : restez hors de vue et mettez votre téléphone portable en mode silencieux ;
prévenir : appelez la police lorsque cela ne présente aucun danger ;
L’objectif de ces conseils est d’aider les personnes à réagir dans les premiers instants critiques avant l’arrivée de la police, à prendre des décisions éclairées et à augmenter leurs chances de rester en sécurité.
Les directives officielles australiennes n’incitent à aucun moment à se confronter aux assaillants.
En revanche, les messages de sécurité publique diffusés aux États-Unis, tels que les consignes du FBI « Run. Hide. Fight » (Courez. Cachez-vous. Luttez), incluent une étape « luttez », mais uniquement en dernier recours, lorsque la fuite et la dissimulation sont impossibles et que la vie est en danger immédiat.
Les autorités australiennes ont choisi de ne pas inclure cette étape, mettant l’accent sur l’évitement et le signalement plutôt que sur la confrontation.
Quelques conseils pratiques
Mes précédentes recherches expérimentales ont permis d’identifier des conseils plus spécifiques susceptibles d’améliorer les chances de survie lors d’attaques violentes, en particulier dans des environnements bondés.
À l’aide de modélisations informatiques et d’expériences contrôlées menées avec de véritables foules, j’ai identifié plusieurs domaines stratégiques pour améliorer les chances de survie lors de tels événements.
Premièrement, s’éloigner lentement du danger n’est pas idéal : il est préférable de s’éloigner de la source de la menace aussi rapidement que possible, dès lors que cela se fait en prenant les précautions nécessaires pour rester en sécurité.
Deuxièmement, l’hésitation, qu’il s’agisse de recueillir des informations, d’inspecter ce qui se passe ou de filmer les événements, augmente le risque d’être blessé.
Troisièmement, les gens doivent rester agiles dans leur prise de décision et leur orientation lorsqu’ils se déplacent, et être prêts à adapter leurs mouvements à mesure que la situation évolue et que les informations deviennent plus claires. Cela signifie qu’il faut continuellement observer son environnement et ajuster sa direction à mesure que de nouvelles informations apparaissent, plutôt que de s’arrêter pour réévaluer la situation.
Enfin, lorsque vous vous déplacez en famille ou entre amis, il vaut mieux se mettre en file indienne, plutôt qu’en se tenant par la main côte à côte. Cela profite à tout le monde en réduisant les bousculades et en améliorant la fluidité de la fuite des personnes.
Être toujours sur ses gardes
Les horribles événements survenus à Sydney soulignent une dure réalité : la préparation aux risques de violence dans les lieux très fréquentés doit devenir plus courante.
Les espaces très fréquentés resteront toujours vulnérables à la violence délibérée, qu’elle soit motivée par des intentions terroristes ou autres.
Les messages doivent toucher un plus grand nombre de personnes, être fondés sur des preuves, nuancés et largement accessibles.
À l’approche de plusieurs événements publics majeurs et de grands rassemblements de masse (notamment le réveillon du Nouvel An), il est plus important que jamais que les gens soient conscients de ces risques et restent vigilants.
Milad Haghani ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.12.2025 à 16:26
Incertitudes politiques et débats bioéthiques : les enjeux à venir en 2026
Texte intégral (1869 mots)
Dans un paysage politique recomposé, le Comité consultatif national d’éthique (CCNE) prépare le lancement des États généraux de la bioéthique 2026, avec un calendrier avancé pour précéder le « temps politicien » et un maillage territorial renforcé, notamment pour intégrer davantage les outre-mer. Un moment particulier où vont s’entrelacer enjeux scientifiques, attentes citoyennes et recomposition des équilibres démocratiques.
Dans un contexte institutionnel instable, les futurs États généraux de la bioéthique de 2026 se préparent en coulisses, comme le prévoit l’article 41 de la loi relative à la bioéthique de 2021.
Lors d’un entretien que nous a accordé en juillet 2025, le professeur Jean-François Delfraissy, président du Comité consultatif national d’éthique (CCNE), nous précisait les grandes orientations retenues par les membres du CCNE pour les futurs États généraux : numérique et santé, santé et environnement, examens génétiques et médecine génomique, dons et transplantations, neurosciences, cellules souches et organoïdes, procréation et embryologie, sobriété en médecine, prévention santé dans les outre-mer.
Jean-François Delfraissy a exprimé
« [sa] volonté de structurer davantage les discussions autour des domaines où l’innovation technologique avance le plus vite, notamment en sciences fondamentales ».
Cette analyse s’appuie également sur nos travaux de recherche consacrés à la bioéthique et aux politiques publiques de santé.
Précéder « le temps politicien, avant 2027 »
En vertu de la loi de bioéthique de 2021, cette consultation citoyenne doit précéder la prochaine loi de bioéthique ou survenir dans un délai de cinq ans à compter de la précédente promulgation. Ainsi, entre la rapidité des innovations et les délais des calendriers politiques et juridiques, les dissonances temporelles sont intrinsèques au temps de la bioéthique. Or, celui-ci exige un autre rythme : celui de l’analyse et de la concertation.
L’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST), qui réunit les deux chambres du Parlement, a déjà engagé des échanges préparatoires pour faire un premier bilan de la loi de bioéthique de 2021, en amont de l’ouverture officielle des États généraux. Jean-François Delfraissy et Philippe Berta, auditionné en qualité d’ancien rapporteur de la loi bioéthique 2021, nous l’ont confirmé.
Alors qu’une majorité parlementaire absolue prévalait à cette époque, la dissolution de l’Assemblée nationale en 2024 a entraîné une profonde recomposition de l’échiquier politique. À l’aube des élections municipales de 2026, des présidentielles de 2027 et des législatives anticipées qui devraient s’ensuivre, l’avenir de la loi relative à la bioéthique s’annonce retardé à 2028.
Procréation, neurosciences, vieillissement démographique, volet santé-environnement…
Parmi les questions qui s’annoncent saillantes pour 2026, nous pouvons retenir : la procréation post mortem, les avancées rapides de la génomique et des cellules souches, la xénogreffe, les organoïdes, les neurosciences, mais aussi la santé reproductive ou encore le vieillissement démographique.
À lire aussi : Assistance médicale à la procréation (AMP ou PMA) : les incohérences de la loi actuelle
Ces enjeux, identifiés par le CCNE, interrogent la capacité de nos politiques de santé à concilier innovation scientifique, équité sanitaire et solidarité intergénérationnelle.
Nous avons abordé ces thématiques dans notre contribution à l’ouvrage collectif Idées reçues sur l’infertilité (2024), au chapitre « Les pouvoirs publics commencent à s’emparer du sujet ».
Concernant le volet santé-environnement, s’inscrire dans une perspective de One Health, c’est-à-dire de santé globale, suppose de redéfinir le prisme intellectuel et politique qui lui est propre afin de dépasser « l’anthropocentrisme de la bioéthique ». Cette réflexion prolonge les travaux fondateurs d’Aldo Leopold (Almanach d’un comté des sables, 1995) et de Van Rensselaer Potter (Global Bioethics, 1988), précurseur d’une éthique élargie au vivant.
Les crises sanitaires récentes, notamment les zoonoses (ces maladies infectieuses transmissibles à l’humain par l’animal et inversement, ndlr), rappellent que la santé humaine ne peut être pensée isolément de celle des autres espèces et des écosystèmes qui les relient.
La méthode du CCNE : Des consultations citoyennes, au cœur des territoires
Créé en 1983, le CCNE est une instance consultative indépendante chargée d’éclairer les enjeux éthiques issus des progrès biomédicaux et technologiques. Elle veille au respect des libertés, de la dignité humaine et de la protection des plus vulnérables.
Chef d’orchestre de ce moment de démocratie sanitaire et scientifique, le Comité consultatif a perfectionné sa méthode : calendrier anticipé, maillage territorial élargi, formation renforcée.
Grâce aux espaces de réflexion éthiques régionaux (Erer), « Nous avons préparé cela avec beaucoup plus de temps que ce qu’on avait fait qu’à l’époque », souligne Jean-François Delfraissy.
De janvier à avril 2026, environ 300 débats en région seront déployés sur l’ensemble du territoire, y compris dans les outre-mer, assure le président du CCNE :
« Je me suis déplacé à La Réunion et je vais me rendre aux Antilles, pour mener une série de grands débats. Pour la première fois, le CCNE compte parmi ses membres un représentant de l’outre-mer, réanimateur exerçant en Martinique ».
Jean-François Delfraissy le rappelle :
« Il n’y a qu’un tiers de médecins et de scientifiques ; les deux autres tiers sont des juristes, des philosophes et des représentants des citoyens. Nous faisons monter le niveau des membres avec une série de présentations d’experts issus de champs scientifiques. Nous avons commencé cette « formation » de nos membres, par exemple avec Alain Fischer sur les thérapies géniques ou sur les neurosciences ».
Près de 200 auditions seront menées par les membres de l’instance avec le concours inédit du Conseil économique, social et environnemental (CESE). « Nous allons faire un comité citoyen plus fort », affirme le président du CCNE.
Un premier rendu (Bilan des États généraux) sera disponible au début de l’été 2026, puis l’avis du CCNE sera publié à l’automne. Ce grand moment démocratique précède la révision de la loi qui n’aura lieu qu’en 2028 ou 2029, à condition que le futur gouvernement décide de l’inscrire à son agenda politique.
Science, société, politique : temporalités dissonantes
Les États généraux se sont imposés comme de véritables biorituels institutionnalisés. Très attendus par les citoyens, ils ont gagné en solidité, transparence et légitimité.
Suivie de près à l’international, « la bioéthique à la française » est un processus tripartite qui s’articule entre science, société et politique. Ce modèle fait figure d’exception : il exige du collectif, du temps, de la pédagogie et un certain degré de maturité démocratique. Ainsi, consolider la culture scientifique en santé des citoyens et des élus, renforce la démocratie dans son ensemble. Dès lors, les États généraux ne peuvent être réduits à une simple phase consultative. Ils incarnent un espace de recomposition du contrat social sanitaire.
Cette démarche s’inscrit dans la continuité d’une démocratie en santé qui, en France, s’affirme comme un espace d’intermédiation entre la société civile, les institutions et les acteurs de santé. Cette conception, développée par Didier Tabuteau, prolonge la reconnaissance du patient-citoyen dont le statut s’est mué, passant de celui de patient à celui d’acteur du débat public ».
L’innovation biomédicale ouvre de nouvelles perspectives thérapeutiques, sociétales et sociales. Toutefois, elle soulève aussi d’inédites réflexions éthiques, à l’heure où nos systèmes de santé peinent à en absorber les coûts, à résorber les inégalités, tandis que l’intelligence artificielle va plus vite que notre capacité collective à définir ses contours.
Une traduction législative incertaine
Si les États généraux se veulent inclusifs et ouverts, leur traduction législative reste incertaine.
le professeur Delfraissy avertit :
« La loi ne viendra pas avant 2028, mais la science avance très vite, on risque une dissociation. »
Ainsi, ce décalage entre les temporalités de l’innovation, du débat public, du temps institutionnel et juridique, démontre que les dissonances temporelles sont intrinsèques à la bioéthique, constituant également l’un des angles morts du processus bioéthique français.
Reste une incertitude : que deviendront ces délibérations dans la future arène parlementaire ? C’est là, sans doute, que se jouera l’équilibre entre science, citoyens et démocratie.
Le professeur Jean-François Delfraissy, président du Conseil consultatif national d’éthique, a relu et validé l’article.
Le professeur Jean-François Delfraissy fut membre du jury de thèse de Katia Andreetti et elle a interagi avec lui lorsqu’elle travaillait en tant que collaboratrice parlementaire. Cette fonction passée l’a conduite à travailler en lien avec l’OPECST.
15.12.2025 à 16:24
Rythmes scolaires : des pauses actives pour repenser les journées de classe et lutter contre la sédentarité
Texte intégral (1789 mots)
Le rapport de la Convention citoyenne sur les temps de l’enfant publié en cette fin d’année 2025 rappelle que les rythmes scolaires actuels ne sont pas bien en phase avec les besoins des enfants. Proposer régulièrement à ces derniers des pauses actives ne serait-il pas un levier prometteur pour réinventer les journées de classe ?
Rendu public le 22 novembre 2025, le rapport de la Convention citoyenne sur les temps de l’enfant a rappelé que l’organisation de la journée scolaire française reste peu adaptée aux rythmes biologiques et cognitifs des élèves.
Il appelle à une réforme d’ampleur des rythmes scolaires, invitant à repenser non seulement les horaires, mais aussi la manière dont se répartissent attention, repos, mouvement et apprentissages. Dans cette perspective, proposer aux élèves des pauses actives (c’est-à-dire de courtes périodes d’exercices physiques, échauffements ou encore relaxation au fil de la journée) ne serait-il pas un levier particulièrement prometteur ?
Augmenter l’activité physique des enfants, une urgence de santé publique
En 2024 en France, seuls 33 % des filles et 51 % des garçons de 6 à 17 ans atteignent les recommandations de l’Organisation mondiale de la santé (OMS) : au moins 60 minutes d’activité physique quotidienne d’intensité modérée à soutenue. Parallèlement, entre la classe et les transports, les repas et les temps d’écran, ils restent de longues heures sédentaires.
Cette réalité interroge particulièrement l’école : comment maintenir l’attention d’élèves contraints à rester immobiles de longues heures ? Comment prévenir les troubles de l’attention, fatigue ou anxiété. Des questions d’autant plus urgentes du fait que le système scolaire français fait partie de ceux qui enregistrent le plus grand nombre d’heures de classe données aux enfants durant toute leur scolarité,
Une précision avant de poursuivre : attention à ne pas confondre sédentarité et manque d’activité physique.
La sédentarité correspond au temps passé, assis ou allongé éveillé, avec une dépense énergétique très faible. On peut donc être physiquement actif selon les recommandations de l’OMS (par exemple courir trois fois par semaine), tout en étant très sédentaire si l’on reste assis plus de huit heures par jour. À l’inverse, l’inactivité physique signifie ne pas atteindre les seuils d’activité physique recommandés (au moins 150 minutes hebdomadaires d’intensité modérée).
Ces deux dimensions interagissent mais ne se confondent pas, comme le rappelle le Guide des connaissances sur l’activité physique et la sédentarité publié par la Haute Autorité de Santé en 2022.
Relativement récente en santé publique, cette distinction ne s’est imposée qu’au cours des années 2000, lorsque les grandes enquêtes ont montré que les risques liés à la sédentarité (diabète, maladies cardiovasculaires, certains cancers) existaient indépendamment du manque d’activité physique.
Les pauses actives : bouger quelques minutes ensemble
La pause active désigne un court moment de 5 à 15 minutes de mobilisation physique, intégrée directement dans le temps d’apprentissage ou de travail. Elle se déroule en quatre phases : échauffement, exercice cardio ou moteur, activité de coordination ou d’équilibre, retour au calme par étirements ou respiration.
Elle ne nécessite ni salle dédiée ni matériel particulier. Son efficacité repose sur la régularité : plusieurs fois par jour, entre deux séquences de travail ou d’apprentissage. Si les formes peuvent varier selon les contextes et les âges, il convient de ne pas les confondre avec les temps de recréation, de motricité ou d’éducation physique.
Depuis, de nombreuses études ont confirmé que l’activité physique stimule la plasticité cérébrale et la mémoire. Des études en psychologie cognitive démontrent que quelques minutes de mouvement suffisent à relancer l’attention soutenue et la concentration. La santé publique établit que rompre la sédentarité réduit le stress et prévient les troubles musculosquelettiques.
À l’école : apprendre mieux en bougeant
Depuis une dizaine d’années, les études et les expériences menées au Québec dans la cadre du projet À mon école, on s’active soulignent l’importance de ce type d’activités. En France le ministère de l’éducation nationale français a fait le choix des activités physiques quotidiennes (APQ) pour que chaque élève du premier degré bénéficie d’au moins 30 minutes d’activité physique quotidienne à l’école primaire. Cette mesure lancée, à la rentrée 2022, par le gouvernement, n’est appliquée que par 42 % des écoles primaires, selon un rapport sénatorial de septembre 2024.
Ce dispositif contribue à limiter le manque d’activité physique, mais ne réduit pas nécessairement la sédentarité. Les recommandations françaises actualisées en 2016 distinguent clairement ces deux dimensions : les bénéfices d’une pratique régulière d’activité physique ne compensent pas toujours les effets délétères du temps passé assis. Pour être efficaces, les politiques éducatives doivent donc agir à la fois sur l’augmentation du volume d’activité et sur la réduction des périodes prolongées d’immobilité. La mission flash sur l’activité physique et sportive et la prévention de l’obésité en milieu scolaire d’avril 2025 a réaffirmé l’urgence d’une politique éducative généralisée.
Dans ce contexte, les pauses actives sont présentées comme un moyen complémentaire : elles doivent améliorer la concentration et la mémorisation, réduisent l’agitation pour faciliter la gestion des comportements et le climat scolaire.
Les pauses actives ne peuvent être des activités isolées du reste des apprentissages, elles sont partie prenante d’une éducation intégrale, qui prend en compte non seulement la tête (l’intellect), mais aussi le corps (mouvement, coordination) et le cœur (gestion des émotions). Une vision théorisée par le pédagogue libertaire Paul Robin au milieu du XIXe siècle et qui pourrait être reprise par l’école publique laïque.
Une révolution dans notre rapport au temps
Comme le précise le rapport de la convention citoyenne sur les temps de l’enfant de novembre 2025, les journées des élèves doivent être repensées dans leur globalité, en rééquilibrant sollicitations intellectuelles, besoins physiques et temps de repos.
Intégrer les pauses actives dans les routines quotidiennes ne relève pas d’un gadget, mais d’une transformation profonde de nos manières de travailler et d’apprendre. Elles réintroduisent le rythme, la respiration et le mouvement comme conditions de toute activité intellectuelle. Une question déjà bien étudiée à l’université ou dans le monde professionnel où les pauses actives se développent.
À lire aussi : Bouger pour mieux apprendre : Comment lutter contre la sédentarité à l’école
Avec les pauses destinées au silence, à la rêverie ou au repos, elles dessinent une véritable écologie du temps, plus respectueuse des besoins humains.
Ces pauses actives à l’école constituent une première étape. Aller plus loin impliquerait d’intégrer le mouvement au cœur même des apprentissages, par exemple grâce au mobilier actif ou encore à des démarches pédagogiques qui associent marche et apprentissage.
La lutte contre la sédentarité pourrait alors devenir l’occasion de repenser plus largement nos modalités éducatives, en valorisant une approche où l’attention, le corps et le savoir évoluent dans l’ensemble des espaces scolaires. Promouvoir ces pratiques, c’est faire le choix d’une société qui prévient plutôt qu’une société qui tente de réparer et qui cultive l’attention plutôt que de l’épuiser.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
15.12.2025 à 16:14
Et si la nature brillait plus que ce que nous voyons ? À la découverte de la vie fluo
Texte intégral (3147 mots)

Le parcours nocturne Lumières de la nature, proposé par le Jardin des plantes de Paris jusqu’au 16 janvier 2026, a été inspiré d’études menées en Guyane. Derrière cette exposition, on trouve notamment trois chercheurs qui ont inspecté la forêt amazonienne, armés de lampes UV. Ils nous livrent ici les secrets de la fluorescence naturelle, le plus souvent invisible pour les humains mais omniprésente dans le vivant.
Dans la pénombre de la forêt guyanaise, en début de nuit, nos lampes UV éclairent une forme mouvante dans les arbres, mauve, presque rose et assez intense. C’est un mammifère marsupial, un Marmosa, qui nous révèle un phénomène physique longtemps passé inaperçu dans le vivant… Non loin de là, sur un tronc à hauteur d’homme, une grosse grenouille arboricole montre elle une intense couleur bleu-vert, alors que sa peau est brun-vert en lumière normale, presque mimétique des troncs où elle se déplace.
Ce phénomène physique s’appelle la fluorescence, un type de photoluminescence qui se manifeste dans la nature, au sein d’une étonnante diversité d’organismes : lichens, plantes, champignons, insectes, araignées, scorpions, reptiles, poissons, oiseaux et même… mammifères. Dans ce contexte on parle de la « fluorescence naturelle » qui implique l’absorption d’un rayonnement du spectre lumineux
– l’ultraviolet (UV), le visible ou l’infrarouge (IR) – suivie de l’émission spontanée (à l’échelle de la nanoseconde) d’une lumière moins énergétique, souvent visible, mais pas uniquement.
Longtemps considérée comme une curiosité, la fluorescence naturelle se révèle plus répandue et intrigante qu’on ne l’imaginait. Elle intéresse de plus en plus la recherche, notamment dans le cadre d’applications technologiques ou biomédicales (par exemple des nouveaux marqueurs cellulaires pour la recherche). Les chercheuses et chercheurs l’étudient davantage dans la nature, une nouvelle exploration du vivant étant permise par des instruments portatifs de mesures (photo-spectromètres) et d’émissions (torches LED UV). Notre équipe de recherche se spécialise depuis plusieurs années sur l’exploration des fluorescences du vivant. Nous revenons d’une mission scientifique en Guyane dans le but d’appréhender ce phénomène dans la forêt amazonienne, et plus spécialement dans les biotopes autour de la station de recherche des Nouragues
À lire aussi : Ces champignons qui brillent dans la nuit : la bioluminescence fongique décryptée
Un éclat discret mais omniprésent
La fluorescence naturelle, à ne pas confondre avec la bioluminescence, repose sur la capacité de certaines molécules, les fluorophores, à absorber un photon d’énergie élevée (par exemple dans l’UV) et à en réémettre un autre, d’énergie moindre (dans le visible ou l’IR). La vie, à toutes ses échelles, en est imprégnée. On trouve quelquefois le terme d’autofluorescence pour bien insister sur le fait qu’il ne s’agit pas de fluorescence de composés artificiels. C’est le cas également de nombreux minéraux, comme la fluorite (CaF2), qui a donné son nom au phénomène de fluorescence du fait de sa fluorescence spectaculaire aux UV.
La fluorescence des plantes est connue depuis longtemps, notamment à travers celle de la chlorophylle : lorsqu’elle absorbe la lumière, une partie de l’énergie non utilisée pour la photosynthèse est réémise sous forme de fluorescence rouge. Ce signal est si caractéristique qu’il sert à mesurer à distance la vitalité de la végétation, y compris depuis les satellites. Mais la chlorophylle n’est pas seule à briller. D’autres composés végétaux, comme les flavonoïdes, les anthocyanes ou les ptérines, peuvent émettre une fluorescence bleue ou verte lorsqu’ils sont excités par la lumière ultraviolette.
Plus largement, des études récentes ont révélé que la fluorescence existe dans presque tous les grands groupes du vivant.
À quoi sert la fluorescence ?
Chez certains animaux, elle pourrait jouer un rôle avant tout dans la protection contre les UV, mais aussi dans la communication visuelle telle que la reconnaissance entre congénères (comme chez l’araignée Cosmophasis umbratica, les perruches australiennes ou encore une grenouille arboricole), ou dans l’avertissement, et même le camouflage. Cela peut sembler contre-intuitif de se camoufler en étant « fluo » mais il ne faut pas oublier que d’autres organismes n’ont pas la même vision que les humains.
La fluorescence de certaines fleurs, à la lumière du jour souvent cachée aux yeux humains mais perceptible pour les insectes pollinisateurs, pourrait jouer un rôle attractif. Pour la plupart des autres organismes fluorescents, nous ignorons si cette propriété possède une fonction biologique ou s’il ne s’agit pas simplement d’un effet optique sans conséquence pour l’animal ou la plante. La frontière reste floue si l’on ne possède pas les clés pour déchiffrer les phénomènes. Encore faut-il les voir…
Chez les mammifères : quand les marsupiaux s’y mettent
La découverte a surpris la communauté scientifique : des mammifères fluorescents, vraiment ? Depuis 2020, plusieurs études ont montré que des marsupiaux – notamment les opossums américains (Didelphis spp.), mais aussi des espèces australiennes comme le planeur à sucre (Petaurus breviceps) ou phalanger, émettent une fluorescence rose ou bleutée sous lumière ultraviolette.
En Guyane, comme nous l’avons observé, des petits opossums sont également fluo, comme les Marmosa.
Des travaux récents ont élargi le constat : plus de 125 espèces de mammifères présentent un certain degré de fluorescence. Celle-ci se manifeste surtout sur les zones claires ou peu pigmentées : pelage blanc, moustaches, griffes, dents ou piquants. Sur le terrain, nous avons souvent observé des rats fluorescents dans la nature (Rattus spp.) que ce soit en Europe, en Asie ou en Guyane.
Chez les insectes, des signaux souvent cachés
Les insectes offrent une extraordinaire diversité de structures fluorescentes. Les ailes de certaines libellules et cigales contiennent de la résiline, une protéine élastique qui émet une lumière bleue sous UV. L’un des plus spectaculaires reste les nids de guêpes asiatiques (Polistes sp.), que nous avons observés au Vietnam qui battent des records de fluorescence induite par l’UV avec un rendement quantique (le rapport entre le nombre de photons émis et absorbés) exceptionnellement élevé jusqu’à 36 % (champion des matériaux biologiques terrestre à ce jour).
Les élytres des coléoptères, quant à eux, peuvent renfermer des pigments fluorescents enchâssés dans des micro ou nanostructures photoniques, capables d’amplifier, de restreindre ou de diriger la lumière émise. Chez le scarabée Hoplia coerulea, par exemple, ces structures créent une fluorescence directionnelle d’un bleu métallique saisissant. Quelques exemples ont été étudiés mais certainement beaucoup d’autres restent à découvrir.
En Amazonie, chez le Morpho sulkowskyi, un papillon iridescent et spectaculaire, la fluorescence fait aussi partie des signaux renvoyés par les ailes colorées.
Une lumière sur l’évolution… et sur la recherche
Cette redécouverte de la fluorescence naturelle dans autant de groupes vivants change notre regard sur la biodiversité et nous incite à mieux la comprendre. L’anthropomorphisme nous a conduits à croire que nous vivions dans un monde visible universel alors que c’est loin d’être le cas, par exemple, notre totale non-perception des UV qui pourtant imprègnent une grande partie du monde animal, des insectes aux poissons (la plupart des requins sont fluorescents !), et déterminent un grand nombre d’interactions écologiques, comme la pollinisation et les relations proie-prédateur, ou modifie notre perception du mimétisme (que voient réellement les prédateurs ?).
Pour comprendre ces phénomènes, la chimie et la physique doivent s’associer à la biologie qui peine seule à élucider les mécanismes, et qui peut les ignorer ou les minimiser.
Ne négligeons pas les applications potentielles (par fois bio-inspirées) qui peuvent découler de la meilleure connaissance et de la compréhension des systèmes naturels. La fluorescence est déjà au cœur de nombreuses applications scientifiques : microscopie de fluorescence, imagerie médicale, biologie cellulaire. Aujourd’hui, la GFP (protéine fluorescente verte), trouvée dans une méduse, est l’un des outils les plus largement utilisés en biologie moléculaire, et sa découverte a été récompensée par un prix Nobel en 2008. La découverte de nouvelles molécules fluorescentes performantes pourrait améliorer les outils de diagnostics médicaux et ouvrir la voie à des dispositifs photoniques inédits, capables d’améliorer l’efficacité des panneaux solaires, par exemple.
Le monde vivant n’est pas seulement coloré, il recèle aussi un « spectre caché » de lumières invisibles à l’œil humain. Pour le comprendre, il nous faut l’appréhender et revoir notre perception du monde, ainsi que de nombreuses certitudes. C’est ce qui fait la beauté de la science face à la merveilleuse complexité de la nature. Et si le monde était encore plus beau que ce que l’on croyait ?
Pour en savoir plus, vous pouvez visiter l’exposition « En voie d’illumination : les lumières de la nature » jusqu’au 18 janvier 2026 au Jardin des plantes (Paris), où vous verrez une reconstitution de la forêt tropicale d’Amérique du Sud, avec sa bioluminescence et sa fluorescence.
Romain Garrouste a reçu des financements de MNHN, CNRS, Sorbonne Université, National Geographic, MRAE, MTE, Labex BCDiv, Labex CEBA, WWF
Bernd SCHÖLLHORN a reçu des financements du CNRS (MITI et OVNI) et de l'Université Paris Cité (IDEX et laboratoire ITODYS)
Serge Berthier a reçu des financements de ANR, CNRS, Sorbonne Université.
15.12.2025 à 15:26
Les Français peuvent-ils concevoir un repas de fête sans viande ?
Texte intégral (798 mots)
Dans l’imaginaire collectif français, un repas de fête se passe difficilement de viande. À l’heure où les impératifs environnementaux nous invitent à réduire notre consommation carnée, il est temps de montrer que le végétal aussi peut être le cœur de la gastronomie. Mais comment faire ? Esquissons quelques pistes.
Les Français comptent parmi les plus gros consommateurs de viande au monde. Pourtant, la cuisine française s’est longtemps appuyée sur les céréales, les légumes secs et les soupes, la viande restant réservée aux grandes occasions.
Les quantités de produits carnés consommées tendent à diminuer depuis plusieurs années, mais cela tiendrait davantage à une hausse des prix plutôt qu’à une véritable préoccupation environnementale ou nutritionnelle.
À lire aussi : Faut-il manger flexitarien au nom du climat ?
La gastronomie française inscrite sur la liste du patrimoine immatériel de l’Unesco
Le repas gastronomique français constitue, à cet égard, un objet emblématique. Il a été inscrit sur la liste du patrimoine culturel immatériel de l’Organisation des Nations unies pour l’éducation, la science et la culture (Unesco) en 2010. Or, la définition de l’Unesco stipule qu’il s’agit de pratiques vivantes, qui peuvent évoluer.
Mariages, communions, repas de fêtes de fin d’année… Nous avons mené une étude auprès de 424 mangeurs qui a confirmé que la viande occupait encore une place centrale. Sur le terrain, nous avons également observé les habitudes de 18 000 personnes lors des repas de mariage.
Résultat, plus de deux convives sur trois choisissent une viande rouge, principalement du bœuf, qui, à lui seul, pèse presque autant que toutes les autres options réunies. Le poisson additionné aux plats végétariens ne représentait qu’un dixième des choix. La demande pour les plats végétariens, l’agneau ou le porc demeure marginale, voire inexistante.
Des stratégies pour végétaliser la gastronomie française
Ces constats soulèvent une question centrale : si les moments de partage les plus symboliques sont systématiquement centrés sur la viande, peut-on réellement transmettre à nos enfants une culture alimentaire plus végétale ?
Nous avons analysé les cartes de 43 restaurants allant du fast-food au restaurant gastronomique. Notre étude a fait émerger sept stratégies, directement transposables au repas gastronomique.
L’une des approches consiste à supprimer les produits animaux normalement présents dans la recette, par exemple le chili sin carne, ou d’en proposer une version pescétarienne par exemple le cassoulet de poisson.
Une autre approche se focalise sur l’expérience : il ne s’agit pas de copier la viande, mais de proposer une expérience culinaire végétarienne esthétique et narrative. C’est une stratégie prisée des chefs de la restauration gastronomique.
Il y a aussi la reconversion, qui va mobiliser des hors-d’œuvre ou des accompagnements traditionnellement végétariens comme plats principaux. Par exemple, des ravioles de Royan, ou une soupe au pistou en guise de plat principal.
On peut encore citer la coproduction, qui laisse le client composer lui-même un plat végétarien selon ses préférences, ou la coexistence, qui consiste à afficher côte à côte alternatives carnées et végétales dans le même menu. On peut également choisir d’importer une expérience gastronomique végétarienne mais issue d’une autre culture, ou encore faire du végétal un pilier identitaire de la marque pour afficher un engagement environnemental et social.
Toutes ces stratégies sont complémentaires et ne sont jamais mutuellement exclusives. Elles peuvent se combiner au sein d’un même restaurant et parfois d’un même repas.
Service Environnement ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.12.2025 à 15:24
L’empathie artificielle : du miracle technologique au mirage relationnel
Texte intégral (2097 mots)

Les intelligences artificielles qui donnent l’impression de comprendre nos émotions se multiplient. Sur Replika ou Snapchat AI, des millions de personnes dialoguent chaque jour avec ces systèmes conçus pour écouter et rassurer. Les modèles de langage, comme ChatGPT, Claude ou Gemini, prolongent cette tendance : leurs réponses empreintes d’approbation et d’enthousiasme instaurent une convivialité programmée qui finit par façonner une norme de dialogue aussi polie qu’inquiétante.
Le psychologue américain Mark Davis définit l’empathie comme la capacité à percevoir les états mentaux et émotionnels d’autrui, à s’y ajuster et à en tenir compte dans sa conduite. Les chercheurs distinguent deux versants : l’empathie cognitive, fondée sur la compréhension des intentions, et l’empathie affective, liée au partage du ressenti. Cette distinction, centrale en psychologie sociale, montre que l’empathie n’est pas une émotion mais relève d’une coordination interpersonnelle.
Dans la vie quotidienne comme dans les métiers de service, l’empathie structure ainsi la confiance. Le vendeur attentif, le soignant ou le médiateur mobilisent des codes d’attention : ton, regard, reformulation, rythme verbal. Le sociologue Erving Goffman parlait d’« ajustement mutuel » pour désigner ces gestes infimes qui font tenir la relation. L’empathie devient une compétence interactionnelle ; elle se cultive, se met en scène et s’évalue. Les sciences de gestion l’ont intégrée à l’économie de l’expérience : il s’agit de créer de l’attachement par la perception d’une écoute authentique et ainsi d’améliorer la proximité affective avec le consommateur.
Quand les machines apprennent à dialoguer
Le compagnon chatbot Replika revendique 25 millions de personnes utilisatrices, Xiaoice 660 millions en Chine et Snapchat AI environ 150 millions dans le monde. Leur efficacité repose fortement sur la reconnaissance mimétique : interpréter des indices émotionnels pour générer des réponses adaptées.
Dès la fin des années 1990, Byron Reeves et Clifford Nass avaient montré que les individus appliquent spontanément aux machines les mêmes règles sociales, affectives et morales qu’aux humains : politesse, confiance, empathie, voire loyauté. Autrement dit, nous ne faisons pas « comme si » la machine était humaine : nous réagissons effectivement à elle comme à une personne dès lors qu’elle adopte les signes minimaux de l’interaction sociale.
Les interfaces conversationnelles reproduisent aujourd’hui ces mécanismes. Les chatbots empathiques imitent les signes de la compréhension : reformulations, validation du ressenti, expressions de sollicitude. Si j’interroge ChatGPT, sa réponse commence invariablement par une formule du type :
« Excellente question, Emmanuel. »
L’empathie est explicitement mise en avant comme argument central : « Always here to listen and talk. Always on your side », annonce la page d’accueil de Replika. Jusqu’au nom même du service condense cette promesse affective. « Replika » renvoie à la fois à la réplique comme copie (l’illusion d’un double humain) et à la réponse dialogique (la capacité à répondre, à relancer, à soutenir). Le mot suggère ainsi une présence hybride : ni humaine ni objet technique mais semblable et disponible. Au fond, une figure de proximité sans corps, une intimité sans altérité.
De surcroît, ces compagnons s’adressent à nous dans notre langue, avec un langage « humanisé ». Les psychologues Nicholas Epley et John Cacioppo ont montré que l’anthropomorphisme (l’attribution d’intentions humaines à des objets) dépend de trois facteurs : les besoins sociaux du sujet, la clarté des signaux et la perception d’agentivité. Dès qu’une interface répond de manière cohérente, nous la traitons comme une personne.
Certains utilisateurs vont même jusqu’à remercier ou encourager leur chatbot, comme on motive un enfant ou un animal domestique : superstition moderne qui ne persuade pas la machine, mais apaise l’humain.
Engagement émotionnel
Pourquoi l’humain se laisse-t-il séduire ? Des études d’électro-encéphalographie montrent que les visages de robots humanoïdes activent les mêmes zones attentionnelles que les visages humains. Une découverte contre-intuitive émerge des recherches : le mode textuel génère davantage d’engagement émotionnel que la voix. Les utilisateurs se confient plus, partagent davantage de problèmes personnels et développent une dépendance plus forte avec un chatbot textuel qu’avec une interface vocale. L’absence de voix humaine les incite à projeter le ton et les intentions qu’ils souhaitent percevoir, comblant les silences de l’algorithme avec leur propre imaginaire relationnel.
Ces dialogues avec les chatbots sont-ils constructifs ? Une étude du MIT Media Lab sur 981 participants et plus de 300 000 messages échangés souligne un paradoxe : les utilisateurs quotidiens de chatbots présentent, au bout de quatre semaines, une augmentation moyenne de 12 % du sentiment de solitude et une baisse de 8 % des interactions sociales réelles.
Autre paradoxe : une étude sur les utilisateurs de Replika révèle que 90 % d’entre eux se déclaraient solitaires (dont 43 % « sévèrement »), même si 90 % disaient aussi percevoir un soutien social élevé. Près de 3 % affirment même que leur compagnon numérique a empêché un passage à l’acte suicidaire. Ce double constat suggère que la machine ne remplace pas la relation humaine, mais fournit un espace de transition, une disponibilité émotionnelle que les institutions humaines n’offrent plus aussi facilement.
À l’inverse, la dépendance affective peut avoir des effets dramatiques. En 2024, Sewell Setzer, un adolescent américain de 14 ans, s’est suicidé après qu’un chatbot l’a encouragé à « passer à l’acte ». Un an plus tôt, en Belgique, un utilisateur de 30 ans avait mis fin à ses jours après des échanges où l’IA lui suggérait de se sacrifier pour sauver la planète. Ces tragédies rappellent que l’illusion d’écoute peut aussi basculer en emprise symbolique.
Quand la machine compatit à notre place
La façon dont ces dispositifs fonctionnent peut en effet amplifier le phénomène d’emprise.
Les plateformes d’IA empathique collectent des données émotionnelles – humeur, anxiété, espoirs – qui alimentent un marché évalué à plusieurs dizaines de milliards de dollars. Le rapport Amplyfi (2025) parle d’une « économie de l’attention affective » : plus l’utilisateur se confie, plus la plateforme capitalise sur cette exposition intime pour transformer la relation de confiance en relation commerciale. D’ailleurs, plusieurs médias relaient des dépôts de plainte contre Replika, accusé de « marketing trompeur » et de « design manipulateur »", soutenant que l’application exploiterait la vulnérabilité émotionnelle des utilisateurs pour les pousser à souscrire à des abonnements premium ou acheter des contenus payants.
Si ce n’est pas encore clair au plan juridique, cette délégation de l’écoute a manifestement d’ores et déjà des effets moraux. Pour le philosophe Laurence Cardwell, il s’agit d’un désapprentissage éthique : en laissant la machine compatir à notre place, nous réduisons notre propre endurance à la différence, au conflit et à la vulnérabilité. Sherry Turkle, sociologue du numérique, souligne que nous finissons même par « préférer des relations prévisibles » à l’incertitude du dialogue humain.
Les études longitudinales ne sont pas toutes pessimistes. La psychologue américaine Sara Konrath observe depuis 2008 une remontée de l’empathie cognitive chez les jeunes adultes aux États-Unis : le besoin de comprendre autrui augmente, même si le contact physique diminue. La solitude agit ici comme une « faim sociale » : le manque stimule le désir de lien.
Les technologies empathiques peuvent donc servir d’objets transitionnels (comme « des doudous ») au sens où des médiations permettant de réapprendre la relation. Les applications thérapeutiques basées sur des agents conversationnels, telles que Woebot, présentent d’ailleurs une diminution significative des symptômes dépressifs à court terme chez certaines populations, comme l’ont montré des chercheurs dès 2017 dans un essai contrôlé randomisé mené auprès de jeunes adultes. Toutefois, l’efficacité de ce type d’intervention demeure principalement limitée à la période d’utilisation : les effets observés sur la dépression et l’anxiété tendent à s’atténuer après l’arrêt de l’application, sans garantir une amélioration durable du bien-être psychologique.
Devoir de vigilance
Cette dynamique soulève une question désormais centrale : est-il pertinent de confier à des intelligences artificielles des fonctions traditionnellement réservées aux relations humaines les plus sensibles (la confidence, le soutien émotionnel ou psychologique) ? Un article récent, paru dans The Conversation, souligne le décalage croissant entre la puissance de simulation empathique des machines et l’absence de responsabilité morale ou clinique qui les accompagne : les IA peuvent reproduire les formes de l’écoute sans en assumer les conséquences.
Alors, comment gérer cette relation avec les chatbots ? Andrew McStay, spécialiste reconnu de l’IA émotionnelle, plaide pour un devoir de vigilance (« Duty of care ») sous l’égide d’instances internationales indépendantes : transparence sur la nature non humaine de ces systèmes, limitation du temps d’usage, encadrement pour les adolescents. Il appelle aussi à une littératie émotionnelle numérique, c’est-à-dire la capacité à reconnaître ce que l’IA simule et ce qu’elle ne peut véritablement ressentir, afin de mieux interpréter ces interactions.
Le recours aux chatbots prétendument à notre écoute amène un bilan contrasté. Ils créent du lien, donnent le change, apaisent. Ils apportent des avis positifs et définitifs qui nous donnent raison en douceur et nous enferment dans une bulle de confirmation.
Si elle met de l’huile dans les rouages de l’interface humain-machine, l’empathie est comme « polluée » par un contrat mécanique. Ce que nous appelons empathie artificielle n’est pas le reflet de notre humanité, mais un miroir réglé sur nos attentes. Les chatbots ne feignent pas seulement de nous comprendre : ils modèlent ce que nous acceptons désormais d’appeler « écoute ». En cherchant des interlocuteurs infaillibles, nous avons fabriqué des dispositifs d’écho. L’émotion y devient un langage de surface : parfaitement simulé, imparfaitement partagé. Le risque n’est pas que les interfaces deviennent sensibles, mais que nous cessions de l’être à force de converser avec des programmes qui ne nous contredisent jamais.
Emmanuel Carré ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.12.2025 à 15:24
Devrait-on interdire les partis qui menacent la démocratie ?
Texte intégral (2397 mots)
En Europe comme ailleurs, la montée des groupes d’extrême droite s’impose comme un phénomène majeur. Face à cette menace, les démocraties sont appelées à réagir. Parmi les réponses possibles figurent des mesures répressives, telles que l’interdiction de certains partis politiques. Mais ces stratégies sont-elles réellement efficaces ? En adoptant une perspective rétrospective sur l’histoire des démocraties européennes, il est possible d’en évaluer à la fois les forces et les limites.
Début mai 2025, l’Office fédéral allemand pour la protection de la Constitution a établi que le parti d’extrême droite Alternative für Deutschland (AfD) devait être considéré comme une organisation extrémiste. Ce statut permet aux magistrats et aux services de renseignement de mener des investigations plus approfondies sur les activités de l’AfD. Désormais, son interdiction ne peut, en termes absolus, être exclue, du moins selon ce qui est prévu par la Constitution du pays, qui considère comme l’un des scénarios envisageables la dissolution de tous les partis – qu’ils soient de droite ou de gauche – représentant une menace pour la démocratie elle-même (art. 21).
En Allemagne, cette décision de l’Office fédéral pour la protection de la Constitution a déclenché un débat intense, interrogeant l’opportunité de mettre en œuvre des mesures répressives pour protéger la démocratie. Une telle démarche ne risque-t-elle pas d’être contre-productive pour la démocratie elle-même ? La question est extrêmement délicate.
Un regard sur le passé ne peut, à lui seul, apporter une réponse définitive à un enjeu aussi complexe. Pourtant, il permet de donner de la profondeur au débat. D’ailleurs, une mesure telle que l’interdiction d’un parti n’est en rien étrangère à l’histoire des démocraties. C’est ce que montre le champ d’études consacré au concept de « démocratie militante » (ou « protégée »), une notion qui remonte aux années 1930, lorsqu’elle fut employée par le politologue allemand Karl Loewenstein afin de désigner les instruments susceptibles de contrer la montée des mouvements antidémocratiques, dans le cas spécifique l’accession au pouvoir du parti national-socialiste.
Se protéger du fascisme
La fin de la Grande Guerre coïncide avec la chute des grands empires et la naissance de nombreuses démocraties. L’exploit, toutefois, de l’idéologie fasciste en Italie et puis en Allemagne rend ce dernier modèle de plus en plus séduisant. Certains pays choisissent alors de se protéger, donnant naissance à ce que l’on peut considérer comme les premières formes de démocratie militante.
En France, le 10 janvier 1936, la IIIe République adopte une loi autorisant la dissolution des « groupes de combat et milices privées ». Cette mesure vise les ligues d’extrême droite, dont la popularité connaît une croissance exponentielle. À peine quelques semaines plus tard, la loi est appliquée pour la première fois : à la suite de l’agression dont Léon Blum, le leader du Parti socialiste, est victime, la Ligue d’Action française est dissoute.
Durant la même période, le Royaume-Uni décide lui aussi de prendre des mesures face à la montée de l’extrême droite. La menace, ici, porte le nom de British Union of Fascists (BUF), un parti fondé en 1932 par Oswald Mosley. Dès son appellation, la référence au Parti national fasciste de Mussolini est évidente. Les manifestations publiques répétées du BUF font croître le niveau de tension dans le pays, au point que, le 4 octobre 1936, dans l’est de Londres, se déroule la célèbre bataille de Cable Street, qui oppose, d’un côté, les fascistes de Mosley, et de l’autre, les syndicats, des militants de gauche ainsi que des membres de la communauté juive.
En décembre 1936, le gouvernement adopte donc un Public Order Act, qui interdit le port d’uniformes politiques lors des manifestations (donc pas de chemises noires, comme avaient l’habitude d’en porter les partisans de Mosley) et renforce les pouvoirs discrétionnaires de la police pour empêcher certains rassemblements. Ce faisant, le poids réel de Mosley et du BUF diminue drastiquement.
L’immédiat après-guerre
Un deuxième tournant dans l’histoire de la démocratie militante est l’immédiat après-guerre. L’Europe, une fois sortie de la menace nazie et fasciste, considère qu’il est d’une importance capitale d’adopter de mesures destinées à se protéger : se protéger contre la menace fasciste renouvelée et, en même temps, contre la menace communiste, considérée alors comme encore plus sérieuse.
Le Royaume-Uni et la France confirment tout d’abord les lois déjà en vigueur et n’hésitent pas à les appliquer à nouveau. Dans l’immédiat après-guerre, la IVe République française recourt ainsi au dispositif de 1936 pour dissoudre toute une série de petites formations de droite, à commencer par le Mouvement socialiste d’unité française. Le Royaume-Uni fait de même : il s’appuie sur le Public Order Act de 1936 pour empêcher au nouveau parti fondé par Mosley à la fin de 1947, l’Union Movement, d’organiser des meetings publics.
Dans le même temps, les pays qui avaient vécu directement l’expérience du fascisme prennent eux aussi des mesures de précaution. C’est le cas de la République fédérale d’Allemagne (RFA) qui définit dans sa Loi fondamentale comme inconstitutionnels tous les partis qui représentent une menace pour la démocratie, mais aussi de la République démocratique allemande (RDA), où l’idéologie fasciste est naturellement proscrite. C’est également le cas de l’Italie. Là, la Constitution, entrée en vigueur en janvier 1948, interdit dans sa XIIᵉ disposition finale la réorganisation « sous quelque forme que ce soit du parti fasciste dissous ». Ce principe est en outre immédiatement accompagné d’une loi, approuvée en décembre 1947, puis d’une autre en 1952 : la loi Scelba (du nom de son initiateur, Mario Scelba, ministre de l’intérieur démocrate-chrétien), encore en vigueur aujourd’hui.
L’extrême droite malgré la démocratie militante
Il apparaît évident que les démocraties (et les acteurs sociaux qui les animent au quotidien) n’ont pas hésité à intervenir à différents moments de leur histoire pour contenir les risques de l’extrême droite, mais pourquoi alors cette dernière a-t-elle réussi à émerger ?
Nous pourrions répondre en insistant sur le fait que certaines de ces mesures n’ont pas bien fonctionné. C’est, par exemple, le cas de l’Italie, où le choix de se référer, dans les différents dispositifs législatifs uniquement au parti fasciste dissous (celui fondé par Mussolini) rend très difficile l’application de la loi : il est en effet peu probable qu’un parti d’extrême droite tente de reconstituer précisément ce parti.
Cependant, il serait naïf de lier directement la montée des formations d’extrême droite à l’échec des mesures visant à protéger la démocratie. Cela reviendrait à surestimer la portée et l’effet de ces mêmes mesures. Dans le cas de la France, par exemple, il convient de préciser que la législation n’était pas conçue pour faire disparaître n’importe quel parti d’extrême droite, mais uniquement les formations paramilitaires. Même la récente modification du cadre législatif n’a pas modifié substantiellement la situation. L’article L. 212-1 du Code de la sécurité intérieure (CSI), entré en vigueur en mai 2012 (et modifié le 26 août 2021), a abrogé les dispositions de la loi du 10 janvier 1936, sans toutefois en changer la substance. La mesure est donc efficace, comme le démontre le fait que, par décret du 12 juillet 2013, le président de la République a effectivement dissous plusieurs groupes, parmi lesquels Troisième Voie, à la suite de la mort de l’activiste antifasciste Clément Méric, tué le 6 juin 2013 par des sympathisants de ce mouvement (d’autres exemples pourraient être cités). Toutefois, cela n’empêche aucun parti d’extrême droite de participer à la vie démocratique, s’il ne provoque pas « des manifestations armées ou (…) des agissements violents à l’encontre des personnes ou des biens » ou s’il ne présente pas « le caractère de groupes de combat ou de milices privées ». Cela explique donc, par exemple, la capacité du Front national à s’insérer dans l’arène politique.
Le cas allemand nous montre sans aucun doute des lois aux effets plus larges. De nombreux partis y ont été dissous ; le premier étant, si l’on considère l’Allemagne fédérale, le Sozialistische Reichspartei en 1952. Mais là encore, il serait erroné de surestimer la portée de ces mesures : le droit allemand préfère généralement adopter une approche progressive – suspendre les financements publics, par exemple, ou placer les dirigeants sous surveillance. Seulement, dans des cas extrêmes, on en arrive à la dissolution sur laquelle seule la Cour constitutionnelle est habilitée à se prononcer.
Une interdiction contre-productive ?
Juger de l’efficacité des démocraties militantes est une tâche vraiment complexe. Dans tous les cas, il convient de garder à l’esprit que les dispositifs visant à protéger la démocratie sont le produit de contextes historiques spécifiques : ils doivent donc être replacés dans leur époque.
Ces dispositifs ont, dans l’ensemble, généralement fonctionné pour contrer un ennemi à un stade embryonnaire (le BUF au Royaume-Uni et les ligues d’extrême droite en France) et aujourd’hui encore, ils parviennent à exercer un effet dissuasif potentiel, contraignant les partis antidémocratiques – et leurs dirigeants – à se réadapter et à se repositionner. Cette réadaptation formelle pouvant d’ailleurs conduire progressivement à une transformation plus substantielle du parti.
À l’inverse, ces dispositifs semblent à présent perdre de leur efficacité lorsqu’ils deviennent trop « encombrants » – dans le cas de la potentielle interdiction d’un parti populaire comme l’AfD par exemple. Si l’interdiction de petites formations paramilitaires peut rassurer les citoyens, celle de grands partis risquerait d’être perçue comme un acte de force. Un éloignement encore plus grand d’une partie de la population de la culture démocratique serait alors un scénario plus que probable.
Andrea Martini est membre de l'Institut Français de Géopolitique (IFG) de Paris 8. Il a reçu des financements du programme de recherche et d'innovation Horizon Europe de l’Union européenne dans le cadre de la convention de subvention Marie Skłodowska-Curie n°101150204 (NEXTRIGHT)..
15.12.2025 à 15:23
Pourquoi le vert est-il la couleur de la nature ?
Texte intégral (3738 mots)
Les couleurs chatoyantes d’un coquelicot ou d’une mésange attirent le regard, mais elles remplissent également d’innombrables fonctions pour le vivant. Dans son récent livre, « Toutes les couleurs de la nature », paru aux éditions Quae, Frédéric Archaux, ingénieur-chercheur à l’Inrae, explore ces questions couleur par couleur. Nous reproduisons ci-dessous le début du chapitre consacré à la couleur verte.
S’il ne fallait retenir qu’une seule couleur pour caractériser le vivant, ce serait assurément le vert, celui de la chlorophylle : la vie sur Terre n’aurait certainement pas été aussi florissante sans ce pigment révolutionnaire capable de convertir l’énergie du Soleil en énergie chimique.
Et sans les organismes photosynthétiques, des minuscules bactéries océaniques aux immenses séquoias, quel aurait été le destin des animaux ? Certains d’entre eux hébergent même dans leur propre organisme ces précieux alliés !
La photosynthèse ? Un « Soleil vert »
Notre appartenance au règne animal et notre régime alimentaire omnivore nous font oublier à quel point pratiquement tout le vivant repose sur un processus clé assuré presque exclusivement par d’autres règnes : la photosynthèse, ou comment convertir l’énergie lumineuse en énergie chimique stockée dans des molécules organiques.
Cette énergie permet ensuite de créer d’autres molécules, parfois très complexes, de faire marcher nos muscles, de maintenir notre température corporelle, etc. Le vert est la couleur par excellence de cette photosynthèse, celle du pigment majeur qui capte et convertit l’énergie lumineuse, la chlorophylle (du grec khloros, vert, et phullon, feuille).
Bien sûr, tous les organismes photosynthétiques ne sont pas verts, car d’autres pigments (non chlorophylliens) peuvent masquer la chlorophylle. Pour ne citer qu’un exemple parmi tant d’autres, la photosynthèse chez les algues rouges repose exclusivement sur la chlorophylle A (la plus répandue sur Terre et sous l’eau), mais ces algues produisent également des carotènes et des protéines (phycobiliprotéines) de couleurs bleue et rouge, qui capturent l’énergie lumineuse puis la transmettent à la chlorophylle.
Il n’y a donc pas une mais des chlorophylles, A, B, C, D et F (sans parler des sous-types cl, c2, c3…), et la liste n’est probablement pas terminée (la forme F a été découverte en 2010). Si la chlorophylle A est universelle, la forme B se retrouve surtout chez des plantes, la C chez des algues brunes, des diatomées et des dinoflagellés, la D et la F chez des cyanobactéries. Si la chlorophylle E manque à l’appel, c’est qu’elle a été extraite en 1966 d’une algue, mais n’a toujours pas été décrite !
Du côté de leur composition chimique, ces molécules sont très proches de l’hème de notre hémoglobine, mais avec plusieurs différences de taille : l’ion métallique piégé est un ion magnésium et non ferrique. Surtout, au lieu de capter l’oxygène atmosphérique, la chlorophylle, elle, en rejette en découpant des molécules d’eau pour récupérer les atomes d’hydrogène.
La cascade biochimique est particulièrement complexe : la chlorophylle est la pièce maîtresse, parfois présente en plusieurs centaines d’unités, de photosystèmes qui comprennent d’autres molécules par dizaines. La très grande majorité des molécules de chlorophylle absorbent des photons et transmettent cette énergie d’excitation par résonance aux molécules voisines.
Les chlorophylles absorbent les radiations bleue et rouge, réfléchissant le jaune et le vert : voilà l’explication de la couleur des plantes. Les deux pics d’absorption peuvent varier sensiblement selon les types de chlorophylle. De proche en proche, cette énergie parvient jusqu’à une paire de molécules de chlorophylle, dans le centre de réaction du photosystème dont l’ultime fonction est de produire, d’un côté, les protons H+ et, de l’autre, les électrons.
Ces protons ainsi libérés peuvent alors être combinés au dioxyde de carbone (CO2) de l’air et former du glucose, un sucre vital au métabolisme de la plante et de tous les étres vivants. La réaction, qui consomme de l’eau et du CO, relargue comme déchet du dioxygène (O2).
Au fond, la conséquence la plus importante de l’apparition de la photosynthèse a été d’accroître de manière considérable la production primaire sur Terre, alors que celle-ci était initialement confinée à proximité des sources hydrothermales produisant du dihydrogène et du sulfure d’hydrogène, la photosynthèse a permis au vivant de se répandre partout à la surface du globe, pourvu que s’y trouvent de la lumière et de l’eau.
La photosynthèse capte près de six fois l’équivalent de la consommation énergétique de toute l’humanité pendant que nous relarguons des quantités invraisemblables de CO, par extraction d’énergies fossiles (35 milliards de tonnes chaque année), les organismes photosynthétiques en stockent entre 100 milliards et 115 milliards de tonnes par an sous forme de biomasse. Le joyeux club des consommateurs de CO2, comprend, outre les cyanobactéries à l’origine de la photosynthèse, d’autres bactéries, les algues et les plantes (par endosymbiose d’une cyanobactérie qui liera entièrement son destin à celui de la cellule eucaryote au fil de l’évolution, donnant naissance aux chloroplastastes).
Pourtant, le rendement de la photosynthèse demeure modeste : de l’ordre de 5 % de l’énergie lumineuse incidente est effectivement transformée en énergie chimique, soit dix fois moins que les meilleurs panneaux photovoltaïques actuels.
Viens voir un petit vert à la maison
D’autres règnes du vivant ont fait de la place à ces organismes, au bénéfice de tous les protagonistes (symbioses) ou parfois au détriment des organismes photosynthétiques. Les lichens, qui comprennent environ 20 % des espèces de champignons connues, prennent des teintes variées, qui vont du gris au jaune, à l’orange, au rouge et au vert. Dans tous les cas, ces organismes qui s’accrochent (le mot « lichen » dérive du grec leikho, lécher) sont des assemblages d’espèces auxquels les scientifiques ne cessent d’ajouter des membres.
Pendant près de cent quarante ans, on a pensé qu’il s’agissait d’une simple association entre un champignon ascomycète et une algue, avant de découvrir que la colocation pouvait être partagée avec une cyanobactérie chlorophyllienne ou fixatrice d’azote, plusieurs algues, un autre champignon (une levure basidiomycète, l’autre grand embranchement des champignons), ou encore des protistes (des eucaryotes unicellulaires) et des virus.
En résumé, les lichens sont des mini-communautés qui peuvent regrouper trois règnes du vivant, sans compter les virus ! On continue cependant de placer ces communautés au sein des champignons, car seuls ces derniers réalisent une reproduction sexuée. La grande variabilité de la coloration des lichens provient de la résultante entre les pigments exprimés par tous les colocataires.
Quand des animaux volent les chloroplastes des algues
Le règne fongique n’a pas l’exclusivité de l’endosymbiose avec les algues, tel est aussi le cas par exemple des cnidaires.
On peut citer dans cet embranchement, qui comprend notamment les coraux, l’actinie verte, une anémone que l’on trouve de la Manche à la Méditerranée. Elle héberge dans ses bras verdâtres à pointe rosée des zooxanthelles, des algues photosynthétiques. L’anémone perd sa jolie coloration en l’absence de ses hôtes et dépérit.
Le mouton de mer est une curieuse limace de mer qui présente sur son dos des excroissances fusiformes vertes à pointe rose et jaune, appelées cérates. Cette espèce asiatique, qui mesure moins d’un centimètre, vit à faible profondeur. Elle parvient à ne pas digérer immédiatement les chloroplastes des algues chlorophylliennes qu’elle avale et à les faire migrer vers ses appendices dorsaux. Si le sujet est encore débattu, il semble que ces plastes continuent d’être fonctionnels et de fournir un complément en sucres bienvenu en période de disette.
Ce processus, appelé kleptoplastie (du grec kleptes, voleur), est connu, outre chez ces gastéropodes marins, chez deux autres vers plats et chez divers eucaryotes unicellulaires (certains foraminifères, dinoflagellės, ciliés, alvéolés), chez qui les plastes demeurent fonctionnels une semaine à deux mois après l’ingestion des algues.
Parente américaine de notre salamandre tachetée avec qui elle partage notamment une livrée noire rehaussée de points jaunes (la marque aposématique qu’elle est toxique), la salamandre maculée a noué, elle aussi, un partenariat avec une algue photosynthétique : Oophila amblystomatis.
L’œuf gélatineux dans lequel se développe l’embryon présente une coloration verte causée par la prolifération de l’algue. Il a été démontré expérimentalement que ces algues ont un effet très bénéfique sur la croissance et la survie des embryons de la salamandre, probablement grâce à l’oxygène que libère l’algue tandis que celle-ci bénéficie des déchets azotés produits par le métabolisme de l’embryon. Un véritable cas de symbiose donc.
Pendant plus d’un siècle, on a pensé que les algues présentes dans les mares fréquentées par l’amphibien colonisaient les œufs, mais l’imagerie de pointe associée à la recherche de l’ADN de l’algue dans les tissus des embryons a révélé une tout autre histoire : les algues envahissent les tissus de l’embryon durant son développement, où elles semblent s’enkyster.
La salamandre adulte continue d’ailleurs de contenir ces algues en vie ralentie, bien qu’en quantité de moins en moins importante avec le temps : on retrouve en particulier dans ses voies reproductrices et les femelles semblent capables de transmettre certaines d’entre elles directement à leurs œufs ! Les scientifiques cherchent encore à comprendre comment un vertébré est parvenu dans son évolution à se laisser envahir par une algue sans provoquer une attaque en règle de son système immunitaire !
À lire aussi : Les oiseaux migrent-ils vraiment à cause du froid ? Et font-ils le même trajet à l’aller et au retour ?
Frédéric Archaux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.12.2025 à 11:42
Le « quiet fighting » au travail : les signaux préinsurrectionnels dans une entreprise du CAC 40
Texte intégral (1927 mots)
Gare aux fausses promesses. Si les salariés semblent silencieux, des mouvements souterrains sont à l’œuvre qui pourraient aboutir à une nouvelle forme d’insurrection. Après le « quiet quitting » – ou démission silencieuse, le phénomène de « quiet fighting » pointe maintenant.
Alerte pour les grandes entreprises ! Le fossé entre les discours éthiques et les réalités opérationnelles nourrit à la fois un désengagement manifeste et une confrontation silencieuse qu’il faut traiter sans délai. À côté du quiet quitting, popularisé en 2022 comme la stricte limitation au périmètre du rôle et des efforts des collaborateurs, s’installe un quiet fighting plus insidieux, attisé par un sentiment d’injustice organisationnelle que le cadre théorique de Cropanzano et Folger permet de disséquer (cf. encadré 1).
Si les deux phénomènes possèdent un point commun, un déficit de justice interactionnelle, ces deux dynamiques ne forment pas un continuum. Quand le quiet quitting abaisse l’engagement au minimum, le quiet fighting combine dissidence empêchée et silence de résignation. L’une et l’autre peuvent préparer en sourdine à une confrontation avec l’entreprise. Notre enquête, prolongeant un premier travail réalisé dans le cadre d’une thèse de doctorat, établit que « l’hypocrisie organisationnelle » perçue autour des ambitions éthiques ouvre une brèche entre les entreprises et leurs collaborateurs, qui rejettent désormais l’éthique de façade.
Inégalités « justes » ou injustices illégitimes
Deux vagues d’entretiens approfondis, en 2024 et 2025 selon la méthode des incidents critiques, ont été conduites auprès d’une cinquantaine de collaborateurs volontaires dans le cadre d’une demande faite en commission « qualité de vie au travail » du Conseil social et économique d’un grand groupe du CAC 40. Plus de 120 incidents ont été recensés, croisant la vision de décideurs RH du siège (sur des sujets éthiques, diversité/discrimination) et de salariés d’une direction territoriale au plus près des opérations. Résultat clé : la majorité des situations relève aujourd’hui de sujets de « justice interactionnelle », bien davantage que de « justice distributive » ou « procédurale », telles qu’elles ont été conceptualisées par Cropanzano & Folger.
À lire aussi : « Quiet quitting » : au-delà du buzz, ce que révèlent les « démissions silencieuses »
Dans les organisations, les inégalités entre collaborateurs ne sont ni fortuites ni anormales. Elles sont souvent assumées, voire encouragées, comme des leviers d’incitation fondés sur la différenciation des performances et la hiérarchie des positions. Aux DRH d’en expliciter la légitimité et d’en travailler l’acceptabilité aux yeux des collaborateurs. Dans ce cadre, la grille des stratégies réactionnelles (Exit, Voice, Loyalty, Neglect) proposée par le socioéconomiste Albert Hirschman reste un outil utile pour éclairer les réactions des salariés face à des situations d’insatisfaction au travail (cf. encadré 2).
De la justice à la morale
Or notre étude montre que cette grille, si utile pour repérer et gérer les réactions des collaborateurs, ne suffit plus. La nature des injustices se déplace et suscite de nouvelles stratégies réactionnelles chez les salariés. Ce ne sont plus seulement les règles ou la répartition des résultats qui sont contestées, mais l’écart entre les discours éthiques et les pratiques organisationnelles. Quand l’expérience dément la promesse, le « contrat psychologique » se fissure et la question devient morale, touchant l’identité, la dignité, et une responsabilité qui dépasse les conflits transactionnels. Notre étude montre que l’on ne « négocie » plus une injustice morale jugée illégitime ; on la refuse.
Dans ce contexte, l’approche par l’EVLN apparaît incomplète. Elle saisit justement mal la dimension morale des conflits et l’incohérence ente les politiques affichées et les pratiques. L’épreuve de réalité est amplifiée par les exigences de publication extra-financière imposée par la directive de durabilité (CSRD), la vigilance citoyenne face au diversity/social washing et, en toile de fond, la tension décrite par le juriste Alain Supiot entre l’entreprise marchandise (ius proprietatis) et l’entreprise communauté morale (ius societatis) (cf. encadré 3).
Plus une organisation revendique une raison d’être morale, plus elle doit en apporter la preuve ; sinon, la loyauté de ses collaborateurs se mue en allégeance à contrecœur, porteuse de ressentiment.
Les sources du « quiet fighting »
Depuis les ordonnances « travail » de 2017, l’affaiblissement des médiations et de « dialogue social » ouvre un espace aux minorités actives décrites par Serge Moscovici. Dans notre étude, nous constatons qu’elles sont emmenées par des femmes racisées en position de cadres intermédiaires : elles formulent des récits cohérents et assument le risque de dissidence, mais se heurtent à des procédures neutralisantes et à l’absence de relais hiérarchiques. Il en résulte une [ dissidence empêchée] qui s’appuie en partie sur les travaux de la sociologue Maryvonne David-Jougneau : une mobilisation collective inachevée, dont l’influence reste pour le moment sans effet transformateur, mais qui contribue à accroître l’expérience organisationnelle et la capacité d’agir de ces cadres et des collectifs qu’elles animent.
À l’autre pôle émerge une colère souvent masculine, silencieuse et résignée. Ancrée dans un idéal méritocratique, elle repose sur la conviction que la performance, à elle seule, devrait protéger et « parler d’elle-même », sans qu’il soit besoin de la revendiquer. Cette colère est renforcée par l’attente, souvent déçue, d’une réparation portée par la DRH. Mais lorsque les circuits correctifs internes sont lents, incertains, ou centrés sur la conformité plutôt que sur l’explication et la reconnaissance du tort, la trahison institutionnelle s’impose et l’attente des collaborateurs devient ressentiment, prémisse d’un désir de revanche à fort potentiel déstabilisateur.
Ce silence de résignation, n’est pas un signe de paix sociale : il est la traduction d’une résistance contrainte, une colère froide qui prépare la confrontation, nourrie par l’empilement de micro-injustices, la polarisation, l’usure des institutions de dialogue et l’ascension d’acteurs minoritaires déterminés. Si l’explosion n’advient pas, c’est moins par loyauté que par contraintes économiques et sociales.
Une gouvernance à revoir
À l’échelle managériale, l’exigence est claire : gouverner par la justice interactionnelle. Cette gouvernance implique de :
aligner promesses et pratiques organisationnelles ;
expliquer les décisions sensibles et prévoir des voies d’escalade claires et sûres (manager N+1/N+2 → RH/Business Partner → référent éthique → dispositif d’alerte interne), assorties de garanties explicites de protection : interdiction de toute mesure liée au signalement (blâme, sanction, rétrogradation, baisse de variable, modification de poste, mise à l’écart, licenciement), confidentialité et possibilité d’anonymat, restitution motivée ;
proposer des médiations internes crédibles (médiateur interne formé, IRP ou Employee Resource Group) et en dernier ressort, des recours externes balisés : Inspection du travail, Défenseur des droits), pour pallier la faiblesse des instances de représentation du personnel ;
installer des capteurs précoces (baromètres qualitatifs, création d’espaces de délibération protégés) pour « reconnaître et réparer vite » toute inégalité illégitime ;
intégrer des objectifs de justice interactionnelle dans la performance sociale des dirigeants ;
répondre à la demande croissante des sciences de gestion : rendre compte non seulement de la classique matérialité financière, mais également de la matérialité d’impact, (effets négatifs de l’entreprise sur les parties prenantes), confirmant l’injonction de Supiot d’un ius societatis à assumer.
Réduire l’écart entre discours et réalité
Dans le sillage des travaux de la sociologue Laure Bereni, notre conclusion est une mise en garde aux organisations qui « jouent » encore avec l’éthique. L’écart entre discours et réalités, nourri par le social/diversity washing, alimente une conflictualité dans les organisations dont l’éthique devient l’étendard.
Le quiet fighting est un signal pré-insurrectionnel. Tandis que les coûts de sortie et l’incertitude du marché rendent l’exit improbable, le quiet fighting traduit une conflictualité interne croissante plutôt que des départs : ancré dans des enjeux moraux et identitaires, il s’exprime par une résistance à bas bruit et des coalitions discrètes. Les dirigeants disposent toutefois des leviers essentiels. Ils peuvent faire preuve plutôt que promettre, légitimer plutôt qu’imposer, soigner les interactions autant que les résultats. À ce prix, le quiet fighting s’éteindra et le conflit redeviendra une ressource. Répondre par la justice interactionnelle n’est pas un supplément d’âme mais une condition de viabilité sociale et économique et, désormais, un test décisif de crédibilité et de légitimité managériales.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
15.12.2025 à 11:41
Quand le management a fait des États-Unis une superpuissance
Texte intégral (3245 mots)

Une étude internationale, impliquant des chercheurs français, états-uniens et brésiliens, a mis au jour une histoire méconnue. Des années 1920 aux années 1960, le management a contribué à faire des États-Unis la puissance hégémonique que l’on connaît aujourd’hui. Son « momentum » : la Seconde Guerre mondiale. Ses armes : les managers formés dans les grandes écoles, les outils d’aide à la décision et la technostructure de l’État fédéral.
Explorer des archives, c’est évoluer dans un monde à la fois silencieux et étrange vu d’aujourd’hui. Comme l’explique l’historienne Arlette Farge dans son livre le Goût de l’archive (1989), le travail de terrain des historiens est souvent ingrat, fastidieux, voire ennuyeux. Puis au fil de recoupements, à la lumière d’une pièce en particulier, quelque chose de surprenant se passe parfois. Un déclic reconfigurant un ensemble d’idées.
C’est exactement ce qui est arrivé dans le cadre d’un projet sur l’histoire du management états-unien (HIMO) débuté en 2017, impliquant une douzaine de chercheurs français, états-uniens et brésiliens.
Notre idée ? Comprendre le lien entre l’histoire des modes d’organisation managériaux du travail et les épisodes de guerre aux États-Unis. D’abord orientée vers le XXe siècle, la période d’étude a été resserrée des années 1920 à la fin des années 1960, avec comme tournant la Seconde Guerre mondiale.
Du taylorisme au management
Au début de notre recherche en 2017, nous nous sommes demandé ce qui guidait cette métamorphose du management des années 1920 aux années 1960.
Au commencement était le taylorisme. On attribue à l’ingénieur américain Frederick Winslow Taylor (1856-1915) l’invention d’une nouvelle organisation scientifique du travail dans The Principles of Scientific Management. Ce one best way devient la norme. Au cœur de cette division du travail, la mutation des rôles des contremaîtres est essentielle.
Leur fonction est d’abord de s’assurer à la fois de la présence des ouvriers et du respect des gestes prescrits par les dirigeants. Avec le management, une révolution copernicienne est en marche. Les contremaîtres sont progressivement remplacés par les techniques de management elles-mêmes. Le contrôle se fait à distance, et devient de l’autocontrôle. Des outils et des systèmes d’information sont développés ou généralisés, comme les pointeuses. Peu à peu, toutes ces informations sont connectées à des réseaux… qui dessinent ce qui deviendra des réseaux informatiques. L’objectif : suivre l’activité en temps réel et créer des rapports à même d’aider les managers dans leur prise de décision.
Outils de gestion de projet
C’est ce que la philosophie nomme le représentationnalisme. Le monde devient représentable, et s’il est représentable, il est contrôlable. Sur un temps long, de nombreux outils de gestion de projet sont créés comme :
le diagramme de Gantt, formalisé et diffusé dans les années 1910 par l’ingénieur du même nom, afin de visualiser dans le temps les diverses tâches ;
le Program Evaluation and Review Technic (PERT), élaboré dans les années d’après-guerre pour analyser et représenter les tâches impliquées ;
ou les Key Performance Indicators (KPI), des indicateurs utilisés pour l’aide à la décision.
Nombre de ces techniques ou standards de management ont une genèse américaine comme l’ont montré notamment les travaux de Locke et Spender, Clegg, Djelic ou D’Iribarne. Des années 1910 aux années 1950, une importance croissante est accordée à la visualisation des situations.
À lire aussi : Les origines néolibérales de la mondialisation : retour sur l’émergence d’un ordre géopolitique aujourd’hui menacé
Notre intuition d’une obsession pour la représentation s’est affinée avec l’exploration d’archives liées aux réseaux du management, de l’Academy of Management, l’American Management Association, et la Society for Advancement of Management.
Management de l’armée
Dans son introduction de la conférence de l’Academy of Management de 1938, l’économiste Harlow Person, acteur clé de la Taylor Society, revient sur le rôle joué par la visualisation. Concrètement, une mission d’amélioration des processus administratifs est réalisée pour l’armée américaine durant la Première Guerre mondiale. L’organisation scientifique du travail déploie plus que jamais ses outils au-delà des chiffres et du texte.
Pendant la Seconde Guerre mondiale, l’obsession pour la représentation est au cœur de la stratégie militaire des États-Unis, en synergie vraisemblablement avec le management. Par exemple, la carte d’état-major doit représenter la situation la plus fidèle possible au champ de bataille. Chaque drapeau, chaque figurine représentant un bataillon ami ou ennemi, doit suivre fidèlement les mouvements de chacun lors du combat. Toutes les pièces évoluant en temps réel permettent au généralissime de prendre les meilleures décisions possibles.
Mise en place d’une technostructure par Franklin Roosevelt
Un président des États-Unis incarne cette rupture managériale dans la sphère politique : Franklin Roosevelt. Secrétaire assistant à la Navy dans sa jeunesse, il assimile l’importance des techniques d’organisation dans les arsenaux maritimes de Philadelphie et New York, pour la plupart mis en œuvre par les disciples de Frederick Winslow Taylor.
Après la crise de 1929, la mise en place de politiques centralisées de relance a pour conséquence organisationnelle d’installer une technostructure. Plus que jamais, il faut contrôler et réguler l’économie. Un véritable État fédéral prend naissance avec la mobilisation industrielle initiée dès 1940.
Lorsque le New Deal est mis en place, Franklin Roosevelt comprend que le management peut lui permettre de changer le rapport de force entre pouvoir exécutif et pouvoir législatif. Progressivement, il oppose la rationalité de l’appareil fédéral et son efficience à la logique plus bureaucratique incarnée par le Congrès. Concrètement, les effectifs de la Maison Blanche passent de quelques dizaines de fonctionnaires avant la Seconde Guerre mondiale à plus de 200 000 en 1943.
Le président des États-Unis dispose désormais de l’appareil nécessaire pour devenir « l’Arsenal de la démocratie », à savoir l’appareil productif des Alliés. Cette transformation contribue à faire des États-Unis la première puissance militaire mondiale au sortir de la Seconde Guerre mondiale, alors qu’elle n’était que 19e avant son commencement.
Standardisation mondiale par le management
Au-delà d’une obsession nouvelle pour la représentation tant organisationnelle que politique, la seconde dimension mise en lumière par cette recherche sur l’histoire du management est plus inattendue. Elle porte sur la mise en place d’une véritable géopolitique états-unienne par le management. Notre travail sur archive a permis de mieux comprendre la genèse de cette hégémonie américaine.
La standardisation des formations au management, en particulier par des institutions telles que la Havard Business School, a contribué subtilement à cette géopolitique américaine. Tout le développement de la connaissance managériale se joue sur le sol des États-Unis et l’espace symbolique qu’il étend sur le reste du monde, du MBA aux publications académiques, dont les classements placent aujourd’hui systématiquement les revues états-uniennes au sommet de leur Olympe.
Il en va de même pour le monde des cabinets de conseil en management de l’après-guerre, dominé par des structures américaines, en particulier pour la stratégie. En 1933, le Glass-Steagall Act impose aux banques la séparation des activités de dépôt de celles d’interventions sur les marchés financiers et de façon connexe, et leur interdit d’auditer et de conseiller leurs clients. Cela ouvre un espace de marché : celui du conseil externe en management, bientôt dopé par la mobilisation industrielle puis la croissance d’après-guerre.
Des cabinets se développent comme celui fondé par James McKinsey en 1926, professeur de comptabilité à l’université de Chicago. Son intuition : les entreprises souffrent d’un déficit de management pour surmonter la Grande Dépression et croître après la Seconde Guerre mondiale. De nombreux cabinets suivent cette tendance comme le Boston Consulting Group créé en 1963.
Près de 500 000 blessés industriels
Un des points les plus frappants de notre recherche est la conséquence du management sur le corps pendant le momentum de la Seconde Guerre mondiale. Plus de 86 000 citoyens des États-Unis meurent dans les usines entre 1941 et 1945, 100 000 sont handicapés sévères et plus de 500 000 sont blessés au travail.
Une partie de nos archives sur le Brooklyn Navy Yard de New York l’illustre tristement. Dans le silence, chacun et chacune acceptent une expérience de travail impossible en considérant que leur fils, leur maris, leurs neveux, leurs amis au combat vivaient des situations certainement bien pires. Le management se fait alors patriote, américain et… mortifère.
Au final, les managers ont continué à taire une évidence tellement visible qu’on ne la questionne que trop peu : celle de l’américanité de ce qui est également devenu « nos » modes d’organisation. Au service d’une géopolitique américaine par le management.
Le projet de recherche HIMO (History of Instittutional Management & Organization) mentionné dans cet article a reçu des financements du PSL Seed Fund, de QLife et des bourses de mobilité de DRM.
15.12.2025 à 11:41
Cinq proverbes qui façonnent notre vision du travail
Texte intégral (2480 mots)

« À chaque jour suffit sa peine », « Rendre à César ce qui est à César », « Que chacun balaie devant sa porte », « À l’impossible nul n’est tenu », « Aide-toi et le ciel t’aidera », ces cinq proverbes irriguent notre quotidien et notre vie au travail. Que disent-ils de notre façon de concevoir le management ?
« À chaque jour suffit sa peine »
Le proverbe trouve son origine dans l’Évangile de Jésus-Christ selon saint Matthieu.
Bien sûr, le manager qui ne chercherait pas à anticiper ne remplirait pas totalement son rôle. Mais réaffirmer que chaque journée est en soi une fin, qu’il ne faille pas empiler les difficultés probables ou à venir, est aussi une manière de les traiter dans l’ordre, sans s’y perdre et sans perdre son équipe. Pour le dire autrement, il y a une gestion des temporalités qui nous invite à qualifier et requalifier, sans cesse et avec exigence, les urgences, en les distinguant de ce qui est important – comme nous invite la matrice d’Eisenhower.
Par exemple, la gestion inadaptée des courriels, qui sont pourtant, comme le rappelle la chercheuse en sciences de l’information et de la communication Suzy Canivenc, des outils de communication asynchrone (en dehors du temps réel), illustre notre incapacité à bien gérer notre temps.
Le rôle d’un manager n’est pas nécessairement de tout traiter, de tout lire, d’apporter à toute demande une réponse, de décider de tout. Un temps de germination peut être le bienvenu pour, tout à la fois, laisser se dissoudre d’elles-mêmes certaines requêtes (l’émetteur ayant trouvé la réponse par lui-même ou par une autre voie), voire, qu’une posture managériale souhaitable est précisément de ne pas donner réponse ou audience à tout.
Laisser « reposer à feu doux » un sujet problématique est une façon de ne pas traiter dans l’urgence, et de s’ôter le stress associé. S’en remettre au lendemain, c’est alors faire confiance à cette part de nous-mêmes qui, même au repos, fait que notre cerveau continue à œuvrer.
« Rendre à César ce qui est à César »
Cet emprunt à l’Évangile selon saint Luc pourrait nous inspirer cette réflexion : que chacun se contente de s’attirer les louanges qu’il mérite, sans éprouver le besoin de s’approprier celles d’autrui.
Si la reconnaissance est un enjeu majeur, il semble hélas que nombre d’organisations ont « la mémoire courte ». Elles oublient d’où elles viennent, ce qu’elles ont entrepris, et à qui elles le doivent. Les inspirateurs, les pionniers, les innovateurs ou les transformateurs n’ont pas toujours la reconnaissance qu’ils méritent. Prendre le temps de remercier, aussi, le concours d’un service support (l’informatique, les achats ou la communication), sans lequel un projet n’aurait pu être mené à bien, peut figurer ici.
Si l’on admet avec Adam Smith dans la Théorie des sentiments moraux et Axel Honneth dans la la Lutte pour la reconnaissance, que la reconnaissance est l’un des moteurs de nos vies, alors il convient de garder la trace, de n’oublier aucune contribution dans une réussite qui ne peut, jamais, être le fruit d’une seule entité et d’une seule personne.
« Que chacun balaie devant sa porte et les rues seront nettes »
L’exemplarité, comme le précise la professeure en comportement organisationnel Tessa Melkonian, invite à la congruence. Soit cet alignement entre ce que je dis, ce que je fais et ce que je communique de façon explicite et implicite. Un manager est reconnu pour sa capacité à incarner les valeurs et les postures attendues de chacun, à montrer la voie quand une décision nouvelle doit s’appliquer au collectif de travail.
De même, avant de prononcer une critique, il doit veiller à ce que sa propre pratique ne puisse faire l’objet d’une semblable observation. Devoir être exemplaire en tout requiert de l’énergie, de l’attention, de la constance. C’est une discipline, sans laquelle l’exigence devient un vœu pieux. Mais elle fonctionne dans une logique de réciprocité : ses collaborateurs doivent pouvoir eux-mêmes démontrer leur exemplarité avant de l’exposer à leurs propres critiques.
« À l’impossible nul n’est tenu »
Certaines missions, certaines tâches, excèdent les capacités d’une personne ou d’un collectif. Il est essentiel de le rappeler, dans une époque marquée par la quête de l’exploit et les logiques de « performance ».
Dans ce contexte, oser dire que l’échéance n’est pas tenable, sauf à dégrader la qualité des tâches (ce qui, dans certaines circonstances, peut parfaitement être audible), témoigne plutôt d’une forme de courage. Cette posture implique des contre-propositions, une voie de sortie, et non seulement une fin de non-recevoir.
Le droit à l’erreur prend ici toute sa place. Reconnaître aux équipes et se reconnaître ce même droit en tant que leader, comme nous y invite Tessa Melkonian, c’est l’un des marqueurs de l’époque. Comment rassurer une équipe sur ce droit si le manager lui-même ne sait pas évoquer ses propres échecs et ne s’autorise par des essais-erreurs ?
Il s’agit bien d’oser dire que l’on s’est trompé, que l’on a le droit de se tromper, mais le devoir de réparer, et, surtout, de ne pas reproduire la même erreur. Ici, plus qu’ailleurs peut-être, l’exemplarité managériale aurait un impact fort : entendre un dirigeant reconnaître publiquement une erreur pourrait faire beaucoup. L’ouvrage Un pilote dans la tempête, paru récemment, de Carlos Tavares, l’ancien PDG de Stellantis, constitue un témoignage éloquent de cette absence de remise en question – notamment pour ce qui concerne les décès dus aux dysfonctionnements de certains airbags.
« Aide-toi, le ciel t’aidera »
Ce proverbe popularisé par Jean de La Fontaine dans le Chartier embourbé introduit la notion de care en management. Issue des travaux pionniers de la psychologue Carol Gilligan, cette forme d’éthique nous invite à considérer les relations entre humains à travers le prisme de la vulnérabilité, de facto du soin, reçu et prodigué.
Comme nous le dit le philosophe Éric Delassus :
« L’incapacité à assumer sa vulnérabilité est la cause d’un grand nombre de difficultés dans le monde du travail, tant pour les managers que pour les managés. […] Qu’il s’agisse de difficulté propre au travail ou concernant la compatibilité entre vie professionnelle et vie personnelle ou familiale, on n’ose en parler ni à ses pairs ni à ses supérieurs de peur de passer pour incompétent, pour faible ou incapable. […] Alors, qu’en revanche, si chacun percevait sa propre vulnérabilité et celle des autres avec une plus grande sollicitude, personne n’hésiterait à demander de l’aide et à aider les autres. »
Il s’agit bien d’oser, simplement, requérir l’aide d’un collègue. En entreprise, demander un soutien demeure complexe. L’éthique du care nous ouvre une perspective inédite et bienvenue : aide ton prochain et réciproquement, sollicite son aide. Car l’autre ne m’aidera que si je lui permets de le faire, si j’accepte donc de me révéler dans toute ma vulnérabilité.
Benoît Meyronin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.12.2025 à 11:40
Il n’est pas possible de gérer un club sportif professionnel comme une entreprise : voici pourquoi !
Texte intégral (1863 mots)
Même si l’argent joue un rôle important dans le sport de haut niveau, la gestion d’un club sportif, ni vraiment différent ni vraiment semblable à une autre entreprise, obéit à des contraintes particulières. Les raisons ne manquent pas pour expliquer pourquoi leur management ne peut être identique.
Du fait de la professionnalisation de l’univers du sport, la gestion d’un club sportif professionnel (CSP) semble tout à fait comparable à celle d’une entreprise. En France, dans les années 1990-2000, Anny Courtade, à la fois PDG de Locasud (la centrale d’achat des magasins Leclerc dans le sud-est de la France) et du Racing Club de Cannes (volley-ball féminin) a par exemple souvent été présentée comme un brillant exemple de réussite combinée.
Au vu de cet exemple, le transfert de compétences semble assez simple : il faut s’inspirer des facteurs clés de succès existants dans le monde des affaires, en s’adaptant à l’environnement du sport. Et pourtant… Nombreux sont, à l’inverse, les chefs d’entreprise (Laurent Tapie, Laurent Platini, Peter Lim…) qui ont brillamment réussi dans leurs activités professionnelles mais qui ont échoué dans le domaine sportif. Un argument souvent avancé pour expliquer ces échecs est l’aveuglement qui serait lié à la passion conduisant à des problèmes de gouvernance. Notre vision des choses est quelque peu différente pour les sports collectifs.
Des contraintes différentes
Si le management d’un club sportif professionnel (CSP) ne peut pas emprunter les mêmes voies qu’une entreprise classique, c’est d’abord parce que ces deux types d’organisation ne se ressemblent pas autant qu’il pourrait sembler de premier abord.
Les contraintes à gérer sont très différentes, à commencer par le cadre juridique. Si, comme toutes les entreprises, les CSP peuvent choisir des statuts juridiques (SASP ou SARL sportives), ils doivent aussi créer une association sportive pour être affiliés à leur fédération de tutelle. Un lien de dépendance en résulte, notamment en cas de conflit entre l’association et la société commerciale. Cette délégation obligatoire de l’activité professionnelle leur est imposée par le Code du sport (article 2 122-1 et suivants) qui diffère du code de commerce sur de nombreux points. Les modes de régulation sont aussi différents.
Une action scrutée par les supporters
Une autre divergence cruciale concerne l’exposition médiatique : faible pour la majorité des chefs d’entreprise, elle est très forte pour les dirigeants des CSP. Cela produit des obligations très éloignées. À la différence d’un chef d’entreprise qui communique rarement auprès d’un large public mais plutôt auprès d’acteurs ciblés (collaborateurs, actionnaires, fournisseurs, clients…), les décisions, les déclarations, les réactions d’un président de CSP sont scrutées en permanence et peuvent générer de nombreuses crises (médiatiques, avec les supporters, les partenaires…).
À lire aussi : Pernod Ricard et le PSG : quand le territoire se rappelle à l’entreprise
Par répercussion, les horizons temporels de l’action s’opposent : de très court-terme pour un président de CSP, plus lointain pour un chef d’entreprise. Ces différences influent sur leur notoriété, leur popularité, leurs relations avec les parties prenantes et donc leurs motivations. Souvent inconnues du grand public, celles-ci finissent souvent par transparaître et donc par avoir des conséquences sur la légitimité des uns et des autres. Les chefs d’entreprise tirent leur légitimité de leur efficacité économique et de la confiance inspirée aux investisseurs. Celle des présidents de CSP repose sur une combinaison beaucoup plus fragile entre légitimité institutionnelle, populaire, sportive et même souvent symbolique.
La majorité des CSP ambitionnent de maximiser leurs résultats sportifs (se maintenir dans la division dans laquelle ils évoluent, participer aux compétitions européennes) sous contrainte économique (du fait de leur budget ou des décisions des instances de régulation. Les entreprises cherchent à maximiser leurs résultats économiques en prenant en compte les contraintes réglementaires des pays où ils sont implantés.
Un rapport différent à l’incertitude
Indirectement, cela produit un rapport différent à l’incertitude. Les chefs d’entreprise mobilisent des techniques pour la limiter. Les présidents de CSP font de même dans leur gestion courante mais souhaitent la voir perdurer au niveau sportif – on parle même de la glorieuse incertitude du sport- pour maintenir l’intérêt des compétitions et donc des spectacles sportifs.
Autre différence : les marchés sur lesquels interviennent les entreprises sont le plus souvent libres et ouverts, les marchés sur lesquels évoluent les CSP sont davantage encadrés. L’existence de ces réglementations résulte en partie de la nature de la production : elle est jointe. Un CSP ne peut pas produire seul une rencontre sportive, il faut a minima deux équipes pour un match. Cela implique, obligatoirement, une forme de coopération entre les concurrents alors que les entreprises peuvent librement décider de leur stratégie.
La pression des résultats
Ces différences induisent que le management des unes et des autres ne peut pas être le même. Au niveau stratégique, la première différence, concerne la temporalité. Pour les chefs d’entreprise, l’horizon est le moyen ou long terme ; pour les présidents de CSP la saison sportive, soit plus qu’un trimestre. Dans ce domaine, la nature même de l’activité impose une gestion temporelle réactive avec de fréquents ajustements en fonction des blessures, des résultats, de l’évolution de l’effectif.
À l’inverse, dans de nombreuses entreprises, la notion de planification conserve un intérêt. Plus précisément, dans les CSP la diversification, est la seule option envisageable, la stratégie volume/coût étant hors de portée puisqu’il n’est pas possible d’augmenter de façon importante le nombre de matchs joués, ni de réduire drastiquement les coûts de fonctionnement, la majorité d’entre eux étant fixes.
En ce qui concerne le marketing et la gestion commerciale, si la majorité des entreprises définissent et choisissent un positionnement, peu de CSP le font. Les déterminants de l’image de marque diffèrent sur de nombreux points. Il en va de même des déterminants de la valeur perçue et donc indirectement de l’attractivité.
Le poids de l’histoire
Beaucoup plus que dans les entreprises, l’histoire du club joue un rôle dans la perception de la valeur de la marque par les « clients-fans », valeur difficile à apprécier. Les « expériences client » divergent également : elles sont « classiques » dans les entreprises ; dans les CSP « immersives ». Les interactions qui apparaissent entre les fans d’un club (simples spectateurs, supporters, partenaires, élus..) sont primordiales. Ces interactions n’existent quasiment pas dans les entreprises.
Du fait du caractère aléatoire de l’activité de « spectacle sportif », les CSP ont des difficultés pour obtenir d’importants concours bancaires. D’autres sources de financement doivent être recherchées. Trois se dégagent clairement :
la commercialisation de nombreux droits (entrés, TV, image, exposition, appellation, numériques) ;
l’apport en compte courant d’actionnaires ;
à cela s’ajoute pour le football, le trading joueurs soit la pratique consistant à vendre une partie des actifs immatériels détenus par les clubs, c’est-à-dire, certains joueurs « sous contrat ».
En dépit du recours à ces possibilités, l’équilibre budgétaire n’est pas toujours atteint en fin de saison dans les CSP. L’une des causes principales, qui distingue fondamentalement ce secteur de la majorité des autres, réside à la fois dans l’importance des coûts salariaux et dans leur caractère quasiment incompressibles.
Des RH sous contraintes
Pour ce qui est des ressources humaines, les mutations reposent sur des principes différents. Tout d’abord en ce qui concerne l’agenda : possible à tout moment dans l’entreprise, limitées à des périodes précises (mercato) dans les CSP. Les sommes engagées diffèrent également. Dans les entreprises, elles sont plus ou moins explicitement déterminées par des « grilles », dans les CSP elles sont le fruit d’âpres négociations.
Par ailleurs, dans les premières, le plus souvent la décision est prise par l’employeur. Elle l’est fréquemment par les joueurs dans les CSP, ce qui confronte les présidents de club à un dilemme spécifique : faut-il « laisser filer » le joueur au risque d’affaiblir l’équipe ou, au contraire, faut-il le conserver dans l’effectif contre sa volonté, au risque qu’il soit moins performant ?
La question des rémunérations se pose également dans des termes distincts, les possibilités de mesure de la productivité, l’influence de la médiatisation et le rôle des agents de joueurs en étant les principales explications.
Patrice Bouvet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
14.12.2025 à 17:59
Airbus : D’où vient la panne qui a conduit l’entreprise à immobiliser des milliers d’avions ?
Texte intégral (2103 mots)
Fin octobre, Airbus demande aux compagnies aériennes de maintenir au sol 6 000 A320, à la suite d’un incident survenu en vol. L’entreprise l’explique par une mise à jour logicielle qui serait plus sensible aux rayonnements cosmiques. Si ce genre de problèmes existe, ils sont cependant détectés immédiatement en temps normal.
Le 30 octobre dernier, un vol de Cancún vers le New Jersey de la compagnie JetBlue a rapidement chuté en plein vol, avant que les pilotes puissent rétablir sa trajectoire, au bout de quelques secondes. Après un atterrissage en urgence en Floride, quelques passagers ont reçu des soins. À la suite de cet incident, Airbus a dû changer en urgence un logiciel de pilotage dans 6000 appareils de la famille A320. On a évoqué une « perturbation par une particule isolée » et le rôle des éruptions solaires. Qu’en est-il ?
Le palliatif proposé par Airbus est de faire revenir la version de certains logiciels de pilotage à une version antérieure. Sur les forums spécialisés, on spécule sur les causes techniques de ce dysfonctionnement, sur d’éventuelles fonctionnalités ajoutées entre ces deux versions, qui seraient insuffisamment protégées contre les effets que des rayonnements cosmiques peuvent avoir dans les composants informatiques. Il vaut mieux, toutefois, attendre le rapport officiel de l’enquête sur l’incident. En attendant, nous pouvons revenir sur l’explication invoquée et en quoi elle peut surprendre.
Les rayons cosmiques, ennemis de nos systèmes électroniques
La Terre est en permanence bombardée par des particules venant de l’espace – du Soleil ou de corps plus lointains. La plupart de ces particules sont déviées par le champ magnétique terrestre, une autre partie est absorbée ou transformée par l’atmosphère, mais certaines d’entre elles peuvent atteindre la surface terrestre. Elles forment une partie de la radioactivité naturelle, et sont plus abondantes en périodes d’éruption solaire.
Ces particules arrivant de l’espace ont des effets variés. Dans les régions polaires, moins protégées par le champ magnétique terrestre, elles provoquent de magnifiques aurores dans le ciel de nuit. On leur attribue également les flashes lumineux que les astronautes perçoivent dans leurs yeux. Comme il s’agit de rayonnements ionisants, les particules reçues peuvent avoir des effets sur la santé. Ainsi, Thomas Pesquet, en six mois de séjour dans la station spatiale internationale, a bien dépassé le quota annuel maximum d’exposition aux radiations permis pour un travailleur français.
Les particules issues de l’espace peuvent provoquer des dysfonctionnements dans les circuits électroniques. Par exemple, dans les années 1990, des composants électroniques de puissance, notamment conçus pour des trains, grillaient pour des raisons mystérieuses. Pour trier parmi les diverses hypothèses envisagées, on a essayé ces composants à la surface et dans une mine de sel, sous 140 mètres de roche : les problèmes ne se produisaient pas dans la mine ! Une fois le problème identifié, on a pu concevoir des composants et des modes d’utilisation beaucoup moins vulnérables.
Qu’est-ce qu’une perturbation par une particule isolée ?
Il est plus courant que, plutôt que de griller un composant, les particules modifient une donnée qui y est stockée. Les ordinateurs retiennent les informations sous forme de 0 et de 1, et une particule peut provoquer le basculement d’un 0 en 1 ou l’inverse, ce qu’on appelle une « perturbation par une particule isolée », ou single event upset en anglais.
En 2003, dans la commune belge de Schaerbeek, une liste a obtenu lors d’une élection un excès de précisément 4 096 voix, ce qui correspond exactement au basculement d’un 0 en 1 à l’intérieur d’un nombre écrit en binaire. Un tel basculement s’expliquerait par un single event upset.
Bien évidemment, et notamment pour les applications aérospatiales, particulièrement exposées, on a développé des parades. Certaines parades sont matérielles : par exemple, les mémoires vives peuvent être munies de codes correcteurs d’erreurs fondés sur du matériel spécifique pour coder et décoder très rapidement. C’est habituellement le cas de la mémoire vive des serveurs, les machines qui stockent des données dans les data centers, mais pas des ordinateurs de bureau ou des portables, du fait de leur coût. Ces codes permettent de corriger à coup sûr certaines erreurs et, dans d’autres cas, d’au moins signaler qu’il s’est passé quelque chose d’incorrect.
D’autres parades sont logicielles : procéder régulièrement à certaines vérifications, dupliquer des données à conserver sur de longues durées, éviter de garder trop longtemps des données dans des mémoires vulnérables, enregistrer certaines informations importantes d’une façon telle que le basculement d’un chiffre fournit une valeur absurde, donc détectable… Les possibilités sont nombreuses. Il y a par ailleurs des protocoles de test, y compris consistant à placer les circuits dans le faisceau d’un accélérateur de particules (grand instrument de sciences physiques).
Des commandes de vol électriques touchées par une panne
Voyons maintenant les implications pour l’aviation. La transmission des ordres des pilotes de ligne à leurs gouvernes, les parties mobiles de l’avion qui permettent de contrôler sa trajectoire, se faisait historiquement par des systèmes de câbles, de poulies ou de circuits hydrauliques assez compliqués. Il faut en plus assurer la redondance, c’est-à-dire prévoir plusieurs modes de transmission en cas de panne. Depuis les années 1980, les nouveaux modèles d’avions utilisent des commandes de vol électriques, c’est-à-dire que ces transmissions mécaniques sont remplacées par des câblages et des calculateurs électroniques.
Ces calculateurs diminuent la charge de pilotage (ils automatisent des actions que les pilotes devraient sinon faire manuellement) et augmentent ainsi la sécurité. Ils peuvent vérifier si les pilotes commandent une manœuvre qui sortirait l’avion du domaine des manœuvres qu’il peut faire en sécurité, et peuvent par exemple prévenir le décrochage. La panne qui a valu le rappel des avions Airbus concerne un calculateur appelé ELAC, qui commande les élévateurs et les ailerons, qui sont respectivement des gouvernes situées sur le stabilisateur arrière de l’avion et sur l’arrière du bout des ailes.
Les commandes de vol sont particulièrement sécurisées
Un point qui peut tout d’abord nous rassurer est que les problèmes de particules venues de l’espace se produisent plutôt à haute altitude, lorsqu’il y a moins d’atmosphère protectrice, alors que les étapes les plus dangereuses dans un vol sont plutôt le décollage et l’atterrissage. Ceci n’excuse cependant pas le dysfonctionnement constaté. Voyons un peu pourquoi ce problème n’aurait pas dû se produire.
Les calculateurs informatisés d’aviation civile sont classés, suivant les standards internationaux de l’aviation civile, en cinq niveaux de criticité, selon la sévérité des conséquences possibles d’un dysfonctionnement : du niveau A, où un dysfonctionnement peut provoquer une catastrophe aérienne, au niveau E, où il n’y aurait pas de conséquences pour la sécurité de l’aéronef. Les commandes de vol électriques sont du niveau A, elles sont donc soumises aux normes les plus sévères. On peut donc raisonnablement supposer que les commandes de vol des A320 sont équipées de mécanismes de détection et/ou de remédiation de dysfonctionnements, y compris dus aux radiations.
Sur les Airbus A330/A340, par exemple, il existe deux niveaux de commande de vol, primaires et secondaires. Il y a trois boîtiers de commandes primaires, et lorsqu’un boîtier a subi un problème, il est temporairement désactivé – ce n’est pas grave, car il en a deux autres pour le relayer. S’il y avait un problème générique sur les commandes primaires, on pourrait fonctionner avec les commandes secondaires, qui utilisent d’autres types de composants.
Chaque boîtier de commande de vol primaire consiste en deux calculateurs, l’un qui commande les gouvernes, l’autre qui surveille celui qui commande – ils doivent produire environ les mêmes résultats, sinon le système détecte que quelque chose ne va pas. Normalement, sur un tel système, en cas de dysfonctionnement d’un des calculateurs, le problème est rapidement détecté, le boîtier est désactivé, on passe sur un autre et une chute comme celle qui s’est passée en octobre est impossible.
Pourquoi les systèmes n’ont-ils pas détecté le problème ?
J’ai personnellement travaillé sur l’analyseur statique Astrée, un outil destiné à vérifier que des logiciels de contrôle ne se mettent jamais dans des situations d’erreur. Il a notamment été utilisé par Airbus sur ses commandes de vol électriques. J’ai eu l’occasion, au fil des années, d’apprécier le sérieux et la volonté de cette société de se doter d’approches à la pointe de l’état de l’art en matière de technologies logicielles, notamment de vérification formelle.
Plus récemment, j’ai également travaillé sur des contre-mesures à des erreurs de fonctionnement informatique provoquées volontairement à l’aide de rayonnements électromagnétiques. Il existe en effet la possibilité que des personnes induisent volontairement des pannes afin de les exploiter dans un but frauduleux, c’est donc nécessaire de travailler à prévenir ces tentatives pour des cartes à puce et d’autres équipements sécurisés.
L’hypothèse qu’il s’agisse bien d’une perturbation par une particule isolée reste plausible, mais il est surprenant qu’il ait fallu plusieurs secondes pour traiter le problème. Le système de sécurité du boîtier de commande affecté par l’irradiation aurait dû détecter l’incident, le boîtier touché aurait dû être automatiquement désactivé et l’avion basculé sur un autre, en secours. Il faut donc attendre d’autres éléments pour déterminer si c’est la bonne explication, et comment cela a pu alors se produire, ou si d’autres scénarios sont à envisager.
David Monniaux a reçu des financements de l'ANR (PEPR Cybersécurité). En tant que co-développeur de l'analyseur Astrée, il touche une prime d'intéressement à la valorisation de ce logiciel, donc à ses ventes.
14.12.2025 à 17:58
Changer les algorithmes des réseaux sociaux suffit à réduire l’hostilité politique
Texte intégral (1107 mots)

Les fils d’actualité des réseaux sociaux sont conçus pour capter notre attention. Mais de simples ajustements dans les algorithmes qui les sous-tendent permettent d’apaiser le débat public.
Réduire la visibilité des contenus polarisants dans les fils d’actualité des réseaux sociaux peut diminuer de manière tangible l’hostilité partisane. Pour parvenir à cette conclusion, mes collègues et moi avons développé une méthode permettant de modifier le classement des publications dans les fils d’actualité, une opération jusque-là réservée aux seules plateformes sociales.
Le réajustement des fils pour limiter l’exposition aux publications exprimant des attitudes anti-démocratiques ou une animosité partisane a influencé à la fois les émotions des utilisateurs et leur perception des personnes ayant des opinions politiques opposées.
Je suis chercheur en informatique spécialisé dans l’informatique sociale, l’intelligence artificielle et le web. Comme seules les plateformes de réseaux sociaux peuvent modifier leurs algorithmes, nous avons développé et rendu disponible un outil web open source permettant de réorganiser en temps réel les fils d’actualité de participants consentants sur X, anciennement Twitter.
S’appuyant sur des théories des sciences sociales, nous avons utilisé un modèle de langage pour identifier les publications susceptibles de polariser les utilisateurs, par exemple celles prônant la violence politique ou l’emprisonnement des membres du parti adverse. Ces publications n’étaient pas supprimées ; elles étaient simplement classées plus bas dans le fil, obligeant les utilisateurs à défiler davantage pour les voir, ce qui a réduit leur exposition.
Nous avons mené cette expérience pendant dix jours, dans les semaines précédant l’élection présidentielle américaine de 2024. Nous avons constaté que limiter l’exposition aux contenus polarisants améliorait de manière mesurable ce que les participants pensaient des membres du parti adverse et réduisait leurs émotions négatives lorsqu’ils faisaient défiler leur fil d’actualité. Fait notable, ces effets étaient similaires quel que soit le parti politique, ce qui suggère que l’intervention bénéficie à tous les utilisateurs, indépendamment de leur affiliation.
Pourquoi c’est important
Une idée reçue veut que l’on doive choisir entre deux extrêmes : des algorithmes basés sur l’engagement ou des fils purement chronologiques. En réalité, il existe un large éventail d’approches intermédiaires, selon les objectifs pour lesquels elles sont optimisées.
Les algorithmes de fil d’actualité sont généralement conçus pour capter votre attention et ont donc un impact significatif sur vos attitudes, votre humeur et votre perception des autres. Il est donc urgent de disposer de cadres permettant à des chercheurs indépendants de tester de nouvelles approches dans des conditions réalistes.
Notre travail ouvre cette voie : il montre comment étudier et prototyper à grande échelle des algorithmes alternatifs, et démontre qu’avec les grands modèles de langage (LLM), les plateformes disposent enfin des moyens techniques pour détecter les contenus polarisants susceptibles d’influencer les attitudes démocratiques de leurs utilisateurs.
Quelles autres recherches sont menées dans ce domaine
Tester l’impact d’algorithmes alternatifs sur des plateformes actives est complexe, et le nombre de ces études n’a augmenté que récemment.
Par exemple, une collaboration récente entre des universitaires et Meta a montré que passer à un fil chronologique n’était pas suffisant pour réduire la polarisation. Un effort connexe, le Prosocial Ranking Challenge dirigé par des chercheurs de l’Université de Californie à Berkeley, explore des alternatives de classement sur plusieurs plateformes pour favoriser des résultats sociaux positifs.
Parallèlement, les progrès dans le développement des LLM permettent de mieux modéliser la façon dont les gens pensent, ressentent et interagissent. L’intérêt croît pour donner davantage de contrôle aux utilisateurs, en leur permettant de choisir les principes qui guident ce qu’ils voient dans leur fil – par exemple avec Alexandria, une bibliothèque des valeurs pluralistes ou le système de réorganisation de fil Bonsai. Les plateformes sociales, telles que Bluesky et X, s’orientent également dans cette direction.
Et après
Cette étude n'est qu'un premier pas vers la conception d’algorithmes conscients de leur impact social potentiel. De nombreuses questions restent ouvertes. Nous prévoyons d’étudier les effets à long terme de ces interventions et de tester de nouveaux objectifs de classement pour traiter d’autres risques liés au bien-être en ligne, comme la santé mentale et le sentiment de satisfaction. Les travaux futurs exploreront comment équilibrer plusieurs objectifs – contexte culturel, valeurs personnelles et contrôle par l’utilisateur – afin de créer des espaces en ligne favorisant des interactions sociales et civiques plus saines.
Retrouvez dans le Research Brief de The Conversation US une sélection travaux académiques en cours résumés par leurs auteurs.
Cette recherche a été partiellement financée par une subvention Hoffman-Yee du Stanford Institute for Human-Centered Artificial Intelligence.
14.12.2025 à 11:49
Dans l’Italie du XVIIIe siècle, les femmes s’insurgeaient contre le harcèlement sexiste et sexuel subi dans les confessionnaux
Texte intégral (1718 mots)
Blagues obscènes, questions intrusives, gestes déplacés : les archives inquisitoriales du Vatican montrent que le harcèlement sexuel au confessionnal était une réalité pour de nombreuses femmes dans l’Italie du XVIIIᵉ siècle – et que certaines ont osé le signaler.
L’Institut européen pour l’égalité entre les hommes et les femmes définit le harcèlement sexuel comme « la situation dans laquelle un comportement non désiré à connotation sexuelle, s’exprimant physiquement, verbalement ou non verbalement, survient avec pour objet ou pour effet de porter atteinte à la dignité d’une personne et, en particulier, de créer un environnement intimidant, hostile, dégradant, humiliant ou offensant ». Les agissements sexistes découlent du pouvoir et visent à exercer un contrôle psychologique ou sexuel. Dans les deux cas, les victimes se sentent souvent confuses, seules, et se croient parfois responsables des abus subis.
En tant qu’historienne, je cherche à comprendre comment les femmes ont vécu et affronté ces comportements intimidants. Je m’intéresse en particulier au harcèlement pendant la confession dans l’Italie du XVIIIe siècle. Les femmes catholiques se rendaient au confessionnal pour partager leurs doutes et leurs espoirs sur des sujets allant de la reproduction aux menstruations, mais elles étaient parfois confrontées à des remarques méprisantes ou déplacées qui les déstabilisaient.
Un déséquilibre des pouvoirs
Les archives du Vatican nous montrent que certains des hommes qui ont tenu ces propos avaient tendance à en minimiser la portée, les qualifiant de simples marques de camaraderie ou de curiosité, voire de vantardise. Ils ont pourtant rabaissé les femmes qui, après ces échanges, étaient bouleversées ou en colère. Ces femmes étaient souvent plus jeunes que leurs confesseurs, elles avaient moins de pouvoir et pouvaient subir des menaces les contraignant à se taire. Pourtant, les archives nous montrent également que certaines, jugeant ces échanges inappropriés, se sont opposées à ces abus.
Les archives contiennent les procès-verbaux des tribunaux de l’Inquisition, qui, dans toute la péninsule italienne, traitaient les signalements de harcèlement et d’abus dans les confessionnaux. Pour les femmes, la confession était primordiale car elle dictait la moralité. Le devoir d’un prêtre était de demander aux femmes si elles étaient de bonnes chrétiennes, et la moralité d’une femme était liée à sa sexualité. Les canons de l’Église enseignaient que le sexe devait être uniquement hétérosexuel, génital et se dérouler dans le cadre du mariage.
Mais si la sexualité était encadrée par un code moral de péché et de honte, les femmes étaient des agents sexuels actifs, apprenant par l’expérience et l’observation. Le fonctionnement interne du corps féminin était mystérieux pour elles, mais le sexe ne l’était pas. Alors que les hommes lettrés avaient accès à des traités médicaux, les femmes apprenaient grâce aux connaissances échangées au sein de la famille et avec les autres femmes. Cependant, au-delà de leur cercle quotidien, certaines femmes considéraient le confessionnal comme un espace sûr où elles pouvaient se confier, remettre en question leurs expériences et demander des conseils sur le thème de la sexualité. Les ecclésiastiques agissaient alors comme des guides spirituels, des figures semi-divines capables d’apporter du réconfort, ce qui créait un déséquilibre de pouvoir pouvant conduire à du harcèlement et des abus.
Signaler les cas de harcèlement
Certaines femmes victimes d’abus dans le confessionnal l’ont signalé à l’Inquisition, et les autorités religieuses les ont écoutées. Dans les tribunaux, les notaires ont consigné les dépositions et les accusés ont été convoqués. Au cours des procès, les témoins ont été contre-interrogés afin de corroborer leurs déclarations. Les condamnations variaient : un ecclésiastique pouvait être condamné à jeûner ou à faire des exercices spirituels, à être suspendu, exilé ou envoyé aux galères (travaux forcés).
Les archives montrent qu’au XVIIIe siècle en Italie, les femmes catholiques comprenaient parfaitement les blagues grivoises, les métaphores et les allusions qui leur étaient adressées. En 1736 à Pise, par exemple, Rosa alla trouver son confesseur pour lui demander de l’aide, inquiète que son mari ne l’aime pas, et il lui conseilla « d’utiliser ses doigts sur elle-même » pour éveiller son désir. Elle fut embarrassée et rapporta cet échange inapproprié. Les documents d’archives montrent fréquemment que les femmes étaient interrogées si leur mariage ne produisait pas d’enfants : on leur demandait si elles vérifiaient que leur mari « consommait par derrière », dans le même « vase naturel », ou si le sperme tombait à l’extérieur.
En 1779, à Onano, Colomba a rapporté que son confesseur lui avait demandé si elle savait que pour avoir un bébé, son mari devait insérer son pénis dans ses « parties honteuses ». En 1739, à Sienne, une femme de 40 ans sans enfant, Lucia, s’est sentie rabaissée lorsqu’un confesseur lui a proposé de l’examiner, affirmant que les femmes « avaient des ovaires comme les poules » et que sa situation était étrange, car il suffisait à une femme « de retirer son chapeau pour tomber enceinte ». Elle a signalé cet échange comme une ingérence inappropriée dans sa vie intime.
Les archives du confessionnal montrent des exemples de femmes à qui l’on disait : « J’aimerais te faire un trou » ; qui voyaient un prêtre frotter des anneaux de haut en bas sur ses doigts pour imiter des actes sexuels ; et à qui l’on posait la question suggestive de savoir si elles avaient « pris cela dans leurs mains » – et chacune de ces femmes comprenait ce qui était insinué. Elles comprenaient aussi que ces comportements relevaient du harcèlement. Autant d’actes et de paroles que les confesseurs considéraient, eux, comme du flirt – comme lorsqu’un prêtre invita Alessandra à le rejoindre dans le vignoble en 1659 – étaient jugés révoltants par les femmes qui rapportaient ces événements (Vatican, Archivio Dicastero della Fede, Processi vol. 42).
L’effet déconcertant des abus
À cette époque, le stéréotype selon lequel les femmes plus âgées n’avaient plus de sexualité était très répandu. En effet, on croyait que les femmes dans la quarantaine ou la cinquantaine n’étaient plus physiquement aptes à avoir des rapports sexuels, et leur libido était ridiculisée par la littérature populaire. En 1721, Elisabetta Neri, une femme de 29 ans qui cherchait des conseils pour soulager ses bouffées de chaleur qui la mettaient hors d’état de fonctionner, s’est entendu dire qu’à partir de 36 ans, les femmes n’avaient plus besoin de se toucher, mais que cela pouvait l’aider à se détendre et à soulager son état.
Les femmes étaient également interrogées de manière fréquente et répétée sur leur plaisir : se touchaient-elles lorsqu’elles étaient seules ? Touchaient-elles d’autres femmes, des garçons ou même des animaux ? Regardaient-elles les « parties honteuses » de leurs amies pour comparer qui « avait la nature la plus grande ou la plus serrée, avec ou sans poils » (ADDF, CAUSE 1732 f.516) ? Pour les femmes, ces commentaires représentaient des intrusions inappropriées dans leur intimité. D’après les harceleurs masculins, il s’agissait d’une forme de curiosité excitante et une façon de donner des conseils : un frère franciscain, en 1715, a ainsi démenti avoir fait des commentaires intrusifs sur la vie sexuelle d’une femme (ADDF, Stanza Storica, M7 R, procès 3).
En quête de conseils avisés, les femmes confiaient leurs secrets les plus intimes à ces érudits, et elles pouvaient être déconcertées par l’attitude que leurs confesseurs affichaient souvent. En 1633, Angiola affirmait avoir « tremblé pendant trois mois » après avoir subi des violences verbales (ADDF, vol. 31, Processi). Les remarques déplacées et les attouchements non désirés choquaient celles qui en étaient victimes.
Le courage de s’exprimer
Il est indéniable que la sexualité est un objet culturel, encadré par des codes moraux et des agendas politiques qui font l’objet de négociations constantes. Les femmes ont été sans cesse surveillées, leur corps et leur comportement étant soumis à un contrôle permanent. Cependant, l’histoire nous enseigne que les femmes pouvaient être conscientes de leur corps et de leurs expériences sexuelles. Elles discutaient de leurs doutes, et certaines se sont ouvertement opposées au harcèlement ou aux relations abusives.
Au XVIIIe siècle en Italie, les femmes catholiques n’avaient pas toujours les mots pour qualifier les abus dont elles étaient victimes, mais elles savaient reconnaître qu’elles ne vivaient pas toujours un échange « honnête » dans le confessionnal, et parfois elles ne l’acceptaient pas. Elles ne pouvaient pas y échapper, mais elles avaient le courage d’agir contre un tel abus.
Une culture d’abus sexuels est difficile à éradiquer, mais les femmes peuvent s’exprimer et obtenir justice. Les événements des siècles passés montrent qu’il est toujours possible de dénoncer, comme c’est encore le cas aujourd’hui.
Note de l’auteur : les références entre parenthèses dans le texte renvoient à des documents consultables conservés dans les archives du Vatican.
Giada Pizzoni a reçu une bourse Marie Skłodowska-Curie de la Commission européenne.
14.12.2025 à 11:48
Comment transformer l’aura des stars en multiplicatrice de dons
Texte intégral (1331 mots)

Une recherche met en lumière les stratégies permettant de transformer l’aura des célébrités en crédibilité à l'égard d’une cause d’intérêt général. Alors, ces leaders d’opinion permettent-ils aux associations de récolter davantage de dons ? D’influencer nos élans de générosité ? Explications en graphiques.
Les célébrités, et plus récemment les influenceurs, ne se contentent plus de divertir : ils orientent nos choix. Des marques que nous achetons, jusqu’aux positions que nous adoptons sur des enjeux éthiques, leur empreinte est partout. Ils s’imposent comme de véritables sources d’information pour les consommateurs.
Leur influence ne s’arrête pas aux décisions de consommation. Acteurs, humoristes ou streamers façonnent nos élans de générosité et les causes que nous choisissons de soutenir. De nombreuses personnalités mettent en avant leur engagement caritatif : Pierre Garnier avec Imagine for Margo, Florence Foresti avec la Fondation des femmes ou encore Omar Sy avec les Restaurants du cœur. Côté influenceurs, le ZEvent 2025 a marqué les esprits : en trois jours de marathon sur Twitch, plus de 16,2 millions d’euros ont été récoltés grâce à des figures comme ZeratoR, Kameto ou Baghera Jones.
Pour mieux comprendre ces mécanismes, nous avons mené une série d’études pour comprendre si l’aura des célébrités apportait une crédibilité envers la cause à soutenir. Concrètement, nous avons présenté à des consommateurs plusieurs personnalités, ambassadrices d’une cause, et analysé si elles avaient un impact positif sur la crédibilité des causes d’intérêt général.
Transformer l’aura en crédibilité
Notre première étude, intuitive, consiste à choisir une personnalité dont l’histoire est directement liée à la cause. Par exemple, des personnalités telles que Selena Gomez et Lady Gaga peuvent être des ambassadrices crédibles pour les causes liées à la santé mentale chez les jeunes, compte tenu des traumatismes qu’elles ont vécus dans leur jeunesse. Il en va de même pour le combat d’Emma Watson pour l’égalité homme-femme, renforcé par son expérience des traitements des jeunes femmes et adolescentes dans l’industrie cinématographique.
La seconde étude repose sur ce que les chercheurs appellent le transfert de sens. Dans ce processus, les symboles associés à une personne sont transférés à un produit, une marque ou une organisation. De cette manière, une personnalité peut apporter à la cause son aura culturelle, son univers ou ses valeurs symboliques à une cause, même sans lien direct apparent.
Quand la notoriété devient expertise
Dans une étude auprès de 200 répondants, nous avons testé l’impact de l’attractivité de la personnalité ambassadrice sur son niveau de crédibilité perçue envers la cause et le nombre de dons générés.
À cette fin, nous avons indiqué aux participants de l’étude que le tennisman Andy Muray était le nouvel ambassadeur de « Let’s Green Up ! », une ONG fictive. Dans un premier groupe, nous avons décrit le tennisman en insistant sur son attractivité et son aura. Dans un second groupe, nous avons présenté une description plus neutre du sportif. Nous avons ensuite mesuré la crédibilité perçue de la personnalité grâce à des affirmations telles que « Cet influenceur est une source d’information fiable » ou « Je peux faire confiance à cette personne ».
Les répondants avaient enfin la possibilité de faire un don à l’ONG proposée. Les résultats sont unanimes : la présence de cette aura est une condition essentielle au succès des campagnes de récolte de dons. Elle fait augmenter la chance de faire un don de 43 % à 54 %.
Un passé qui donne du poids
Au-delà de leur aura, certaines célébrités renforcent leur crédibilité en mettant en avant un lien personnel avec la cause qu’elles soutiennent. Lorsque Mika s’engage auprès d’associations venant en aide au Liban, son message gagne en force, car il souligne son attachement à ce pays d’origine.
Pour tester cette hypothèse, nous avons réalisé une seconde étude auprès de 402 répondants. Ces derniers pouvaient soutenir une cause associée à une personnalité, en faisant varier le type de cause et la personnalité. Pour ce faire, nous avons comparé l’efficacité de l’annonce quand la cause est soutenue par Léonardo DiCaprio, célébrité connue pour son aura, et Greta Thunberg, davantage connue pour son activisme. Nous avons d’abord comparé des groupes où ces personnalités soutenaient une campagne pour l’écologie, en lien avec le passé des deux célébrités, et une autre campagne soutenant l’accès à l’éducation. Nous avons ensuite mesuré la crédibilité de la personnalité ambassadrice.
Lorsque ce lien est mis en évidence, la crédibilité de la célébrité ou de l’influenceur envers la cause augmente donc davantage.
Le pouvoir du transfert symbolique
Même lorsqu’elles n’ont pas de lien direct avec une cause, les célébrités peuvent lui donner de la crédibilité en y associant leur univers symbolique. Un humoriste qui prête son image à une campagne solidaire, ou une chanteuse pop qui soutient la recherche médicale, n’est pas forcément expert du sujet. Ce transfert de sens, présenté plus haut, permet aux associations de toucher le public par ricochet, en capitalisant sur l’image culturelle de la personnalité.
Nous avons réalisé une troisième étude auprès de 400 répondants. L’idée : inviter les participants à soutenir une association pour l’écologie. Dans un groupe, la personnalité ambassadrice est Keanu Reeves et dans l’autre, Eminem. Nous avons pu établir au préalable que Eminem démontrait un capital symbolique plus important que Keanu Reeves. Dans les deux cas, nous avons fait varier l’attractivité et l’aura de la personnalité ambassadrice en la présentant dans une posture favorable ou neutre.
Les résultats montrent qu’une personnalité présentant un capital symbolique plus élevé, comme Eminem, est perçue comme étant davantage crédible, ce qui accroît leur capacité à générer un élan de générosité.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
14.12.2025 à 11:47
Football : 30 ans après l’arrêt Bosman, quel bilan pour le marché des transferts ?
Texte intégral (2890 mots)
Le Belge Jean-Marc Bosman, joueur modeste des années 1990, restera peut-être dans l’histoire comme le footballeur qui aura eu le plus grand impact sur son sport. En effet, l’arrêt portant son nom, adopté il y a exactement trente ans, a permis aux joueurs en fin de contrat de rejoindre un autre club sans l’exigence d’une indemnité de transfert. Il a également mis fin à la règle qui prévalait jusqu’alors de trois étrangers maximum par équipe, ouvrant la voie à une aspiration des joueurs du monde entier vers les clubs les plus riches.
« Toi, avec ton arrêt, tu vas rester dans l’histoire, comme Bic ou Coca-Cola », avait dit Michel Platini à Jean-Marc Bosman en 1995. Platini n’avait sans doute pas tort.
Les faits remontent à 1990. Le contrat de travail de Bosman, footballeur professionnel du Royal Football Club (RFC) de Liège (Belgique), arrive à échéance le 30 juin. Son club lui propose un nouveau contrat, mais avec un salaire nettement inférieur. Bosman refuse et est placé sur la liste des transferts. Conformément aux règles de l’Union européenne des associations de football (UEFA) en vigueur à l’époque, le transfert d’un joueur, même en fin de contrat, s’effectue en contrepartie d’une indemnité versée par le club acheteur au club vendeur. Autrement dit, pour acquérir Bosman, le nouveau club devra verser une indemnité de transfert au RFC.
En juillet, l’Union sportive du littoral de Dunkerque (USL) en France est intéressée. Mais le club belge, craignant l’insolvabilité de l’USL, bloque l’opération. Bosman se retrouve sans employeur. Pis, il continue d’appartenir à son ancien club, lequel maintient ses droits de transfert. Par ailleurs, en vertu de la règle des quotas – trois étrangers maximum par équipe –, il est difficile pour le joueur de rejoindre un club dans un autre État de la Communauté européenne.
S’estimant lésé, Bosman saisit les tribunaux belges. L’affaire est par la suite portée devant la Cour de justice des Communautés européennes (CJCE).
Coup de tonnerre : le 15 décembre 1995, la CJCE tranche en faveur de Bosman.
Décision de la CJCE
La Cour précise que le sport professionnel, comme toute activité économique au sein de la Communauté européenne, est soumis au droit communautaire. Elle considère dès lors que toute disposition restreignant la liberté de mouvement des footballeurs professionnels ressortissants de la Communauté européenne est contraire à l’article 48 du Traité de Rome, lequel prévoit la libre concurrence et la liberté de circulation des travailleurs entre les États membres.
La CJCE reprend ses jurisprudences antérieures (arrêts Walrawe et Koch en 1974 et Doña en 1976) et déclare que les règles de quotas fondées sur la nationalité des joueurs ressortissants communautaires constituent des entraves au marché commun.
En outre, la Cour va plus loin dans son jugement et estime que les indemnités de transfert pour les joueurs en fin de contrat (encore appliquées par certains clubs européens en 1995) sont contraires au droit communautaire.
Enjeux et impacts de l’arrêt Bosman
Le socle de cette décision a été la standardisation ou plutôt l’universalité des règles sportives au niveau de l’UEFA (54 fédérations) et de la Fédération Internationale de Football Association, FIFA (211 fédérations), qui ont dû s’aligner sur la jurisprudence Bosman.
Ainsi, cet arrêt de la CJCE a conduit les instances du football à réformer le système des transferts (Réformes dites « Règlement du Statut et du Transfert des Joueurs », (RSTJ) 2001, 2005, 2017-2022). Conséquemment, l’arrêt Bosman a drastiquement accentué la libéralisation du marché des transferts.
Cela s’est traduit par la suppression des obstacles à la libre circulation des sportifs. Les joueurs en fin de contrat sont devenus libres de rejoindre un autre club sans que celui-ci soit tenu de verser une indemnité de transfert à leur ancien club. Fin de l’ « esclavage » sportif ! Fin également du « régime de quotas » pour les joueurs ressortissants communautaires au sein des effectifs dans les clubs européens !
De facto, il y a eu une augmentation du nombre de joueurs étrangers communautaires, désormais illimité pour les joueurs des pays de l’Union européenne (UE). C’est le cas également pour les joueurs de l’Espace économique européen et pour ceux issus des pays ayant un accord d’association ou de coopération avec l’UE à la suite des arrêts Malaja dans le basket en 2002, Kolpak dans le handball en 2003 et Simutenkov dans le football en 2005. Il en est de même, depuis l’accord de Cotonou en 2000 (remplacé par l’accord de Samoa en 2023), pour les détenteurs des nationalités de 47 pays d’Afrique, 15 pays des Caraïbes et 15 pays du Pacifique. En France, le nombre de joueurs considérés comme « extra-communautaires » est limité à quatre.
Par ailleurs, comme le souligne Vincent Chaudel, co-fondateur de l’Observatoire du Sport Business, l’arrêt Bosman a inversé le rapport de force entre joueurs et clubs. L’inflation des salaires, qui avait commencé dans les années 1980, s’est accélérée dès les premières années après cet arrêt, puis de manière exponentielle chez les superstars par la suite.
Selon le magazine Forbes, les cinq footballeurs les mieux rémunérés en 2024 étaient Cristiano Ronaldo (environ 262,4 millions d’euros), Lionel Messi (environ 124,3 millions d’euros), Neymar (environ 101,3 millions d’euros), Karim Benzema (environ 95,8 millions d’euros) et Kylian Mbappé (environ 82,9 millions d’euros). L’écart salarial entre les footballeurs et les footballeuses reste néanmoins encore béant.
À lire aussi : Equal play, equal pay : des « inégalités » de genre dans le football
L’arrêt Bosman a aussi fortement impacté la spéculation de la valeur marchande des superstars et des jeunes talents.
À lire aussi : À qui profite le foot ?
Au-delà, cet arrêt s’est matérialisé par l’extension de la libre circulation des joueurs formés localement dans un État membre de l’UE, au nom de la compatibilité avec les règles de libre circulation des personnes ; cette mesure a ensuite été étendue à d’autres disciplines sportives.
Une autre particularité concerne le prolongement de la jurisprudence Bosman aux amateurs et aux dirigeants sportifs.
Enfin, il est important de rappeler que si l’arrêt Bosman a permis à de nombreux acteurs du football (joueurs, agents, clubs, investisseurs, etc.) de s’enrichir, ce fut loin d’être le cas pour Jean-Marc Bosman lui-même. Dans un livre autobiographique poignant, Mon combat pour la liberté, récemment publié, l’ancien joueur raconte son combat judiciaire de cinq ans, ainsi que sa longue traversée du désert (trahisons, difficultés financières, dépressions, etc.) après la décision de la CJCE.
Perspectives : du 15 décembre 1995 au 15 décembre 2025, 30 ans de libéralisation
L’arrêt Bosman a dérégulé, explosé et exposé le marché des transferts. Le récent article de la Fifa consacré au marché estival de 2025 en témoigne : cet été-là, 9,76 milliards de dollars d’indemnités de transfert ont été versés dans le football masculin et 12,3 millions de dollars dans le football féminin.
Ainsi, l’arrêt a ouvert la voie à une libéralisation inédite des opérations, conduisant parfois à des montages financiers particulièrement complexes.
À lire aussi : Football financiarisé : l’Olympique lyonnais, symptôme d’un modèle de multipropriété en crise
Au-delà de l’explosion des indemnités de transfert, l’arrêt Bosman a creusé les inégalités entre les clubs, tant au niveau national qu’européen. Pendant que les clubs les moins riches servent de pépinières pour former les futurs talents, les clubs les plus riches déboursent des sommes astronomiques pour acquérir les meilleurs footballeurs : Neymar, 222 millions d’euros ; Mbappé, 180 millions d’euros ; Ousmane Dembelé et Alexander Isak, 148 millions d’euros ; Philippe Coutinho, 135 millions d’euros, etc. Cela se traduit par l’ultra-domination des gros clubs dans les championnats européens avec le risque d’un « déclin général de l’équilibre compétitif dans le football européen » selon l’Observatoire du football CIES.
Enfin, avec la libéralisation du marché des transferts, des réseaux internationaux se tissent – et par la même occasion s’enrichissent – pour dénicher les futures « poules aux œufs d’or ». L’Amérique du Sud, l’Afrique (notamment depuis l’accord Cotonou) et l’Europe de l’Est sont devenues les principaux exportateurs des footballeurs (certains partent à un âge très précoce à l’étranger et se retrouvent loin de leur famille) vers les clubs d’Europe de l’Ouest.
Pour conclure, il serait souhaitable de réguler le marché, d’assainir l’écosystème et d’apaiser les ardeurs. L’arrêt Diarra (qualifié de « Bosman 2.0 ») de la Cour de justice de l’Union européenne (CJUE) – anciennement la CJCE – le 4 octobre 2024 est une avancée dans ce sens. Bien que la Cour n’ait pas remis en cause tout le système des transferts, elle a enjoint la FIFA à modifier sa réglementation afin que les footballeurs ne soient plus sous le joug de leur club en cas de rupture unilatérale de leur contrat.
Les joueurs doivent pouvoir y mettre un terme sans craindre de devoir verser une indemnité « disproportionnée » à leur club, et sans que le nouveau club désireux de les recruter soit tenu de verser solidairement et conjointement cette indemnité en cas de rupture sans « juste cause ». Dans l’urgence, un cadre réglementaire provisoire relatif au RSTJ a été adopté par la FIFA en décembre 2024 – jugé pour autant non conforme à la décision de la CJUE.
Le monde du football a besoin d’une transformation systémique où le plafonnement des coûts de transfert, mais aussi la gestion vertueuse des clubs et des institutions, l’encadrement et l’égalité des salaires homme-femme, la prise en compte du bien-être psychologique des acteurs, etc. constitueraient un socle fort pour un renouveau du marché des transferts et de l’industrie du football dans sa globalité.
Mieux, l’industrie du football ne doit plus constituer un mobile pour creuser les écarts et les disparités sociales et sociétales.
Annexe : 11 dates et événements clés
1891 : J. P. Campbell de Liverpool est le premier agent à faire la promotion de joueurs auprès des clubs par des publicités via la presse.
1905 : William McGregor, ancien président du club d’Aston Villa et fondateur de la ligue anglaise déclare, en une formule visionnaire pour l’époque, « Football is big business ».
1930 : la première Coupe du Monde de football a lieu en Uruguay.
1932 : la mise en place du premier championnat professionnel de football en France avec des dirigeants employeurs et des joueurs salariés sans aucun pouvoir ainsi que l’établissement du contrat à vie des footballeurs, liés à leur club jusqu’à l’âge de 35 ans.
1961 : le salaire minimum des joueurs de football est supprimé. Cette décision a pour effet d’équilibrer le pouvoir de négociation entre joueurs et clubs.
Entre 1960 et 1964 : les salaires des joueurs de la première division française évoluent drastiquement (augmentation de 61 % par rapport à ceux des années 1950).
1963 : la Haute Cour de Justice anglaise dispose, dans l’affaire Georges Eastham, que le système de « conservation et transfert » est illégal.
1969 : la mise en place du contrat de travail à durée librement déterminée.
1973 : l’adoption de la Charte du football professionnel.
1991 : la première Coupe du monde de football féminin se déroule en Chine.
1995 : l’arrêt Bosman de la Cour de justice des Communautés européennes (CJCE) du 15 décembre 1995 crée un véritable bouleversement dans le système de transfert des joueurs au sein de l’UE – anciennement la Communauté européenne.
Moustapha Kamara a reçu une Bourse de recherche Havelange de la FIFA.
Allane Madanamoothoo et Daouda Coulibaly ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
13.12.2025 à 17:12
« Un an après le cyclone Chido, la situation de Mayotte reste critique »
Texte intégral (1692 mots)
Le cyclone Chido a ravagé le département français de Mayotte le 14 décembre 2024. Si l’État est intervenu massivement pour traiter l’urgence, les promesses de reconstruction structurelles semblent loin d’avoir été tenues. Entretien avec le géographe mahorais Fahad Idaroussi Tsimanda.
The Conversation : Un an après Chido, où en est la reconstruction ?
Fahad Idaroussi Tsimanda : Le 14 décembre 2024, le cyclone Chido a frappé Mayotte et endommagé 80 % du territoire mahorais (près de 60 % de l’habitat aurait été détérioré ou totalement détruit, mais aussi de nombreuses infrastructures, des territoires agricoles et naturels). Il s’agissait d’une catastrophe humanitaire majeure, malgré un bilan officiel limité à 40 morts et 41 disparus. Rapidement, l’État a mobilisé de forts moyens d’urgence après avoir déclaré l’état de calamité naturelle exceptionnelle. Sur place, plus de 4 000 personnels de la sécurité civile, de la police, de la gendarmerie et des armées ont été déployés. De l’aide humanitaire a été distribuée massivement – packs d’eau, patates, bananes, farine, huile, etc. La remise en état des routes et des principaux réseaux d’eau potable et d’électricité ont été effectifs au bout d’un mois environ.
Une forte mobilisation politique a également eu lieu dans le courant de l’année 2025. Pour formaliser et encadrer la reconstruction de l’île, le gouvernement a adopté une loi d’urgence en février 2025, puis une loi pour la refondation de Mayotte, fixant une trajectoire d’investissement de 4 milliards d’euros sur plusieurs années. Ces textes ont été complétés par des ordonnances visant à accélérer la reconstruction, notamment en adaptant temporairement les règles de construction pour faciliter la reconstruction des logements détruits.
Pourtant, notre constat est que, au-delà de l’urgence, la reconstruction structurelle n’a toujours pas eu lieu et la situation demeure critique sur place. Nous sommes encore très loin de ce que les Mahorais attendaient. Selon les chiffres de la députée Estelle Youssouffa, très peu d’argent a été dépensé : 25 millions d’euros seulement depuis le début de l’année, soit environ 0,6 % de l’enveloppe totale promise de 4 milliards d’euros.
J’ai pu constater que, dans le chef-lieu, Mamoudzou, plusieurs bâtiments publics (ceux du Département de Mayotte, la mairie, le commissariat, ceux de l’intercommunalité, etc.) sont toujours couverts de bâches. Au centre hospitalier de Mayotte, des travaux de toiture sont en cours, mais l’essentiel a en revanche été réalisé.
Pour ce qui concerne les particuliers, un prêt à taux zéro de reconstruction a été a été promis aux Mahorais, aux ménages sinistrés avec une enveloppe de 50 000 euros. Mais je ne connais personne autour de moi qui en ait bénéficié. Certains habitants ont déjà reconstruit, certains démarrent à peine leurs chantiers.
Je suis enseignant, et je constate que la situation des écoles est toujours très dégradée, avec beaucoup de salles de classe indisponibles ce qui conduit à charger les effectifs pour chaque classe. On estime que 40 % des établissements scolaires ont été détruits ou endommagés pendant le cyclone. Les classes fermées contraignent les élèves à un nombre d’heures de cours limités avec un système de rotation.
Les bidonvilles ont été ravagés par Chido. Que s’est-il passé dans ces quartiers depuis un an ? François Bayrou, le premier ministre de l’époque, s’était engagé à bloquer leur reconstruction. Est-ce le cas ?
F. I. T. : Dès le lendemain du passage de Chido, les familles de migrants vivant dans les bidonvilles ont reconstruit leurs maisons. Le préfet de Mayotte a interdit aux particuliers d’acheter des tôles s’ils ne pouvaient pas présenter de justificatif de domicile, afin d’empêcher la reconstruction de bidonvilles. Pourtant, il fut très facile de contourner cela avec le justificatif d’un voisin. Ceux qui avaient les moyens ont acheté des tôles et des chevrons. D’autres ont réutilisé les tôles déformées et ont débité des cocotiers tombés à terre pour les structures.
Imaginer reconstruire en dur dans ces quartiers est un leurre. Les personnes qui habitent dans les bidonvilles sont souvent en situation irrégulière, elles n’ont pas droit au logements sociaux qui sont de toute façon en nombre insuffisant. Quelle autre option est possible ? Selon les statistiques officielles, avant Chido, il existait environ neuf logements sociaux pour 1 000 habitants, ce qui est extrêmement faible. Or 40 % des logements sont en tôle à Mayotte et 77 % des habitants vivent sous le seuil de pauvreté national. Les bidonvilles, reconstruits à l’identique, sont toujours aussi fragiles et vulnérables face aux intempéries.
Après Chido, les migrants ont été pointés du doigt par une partie de la classe politique française. Le gouvernement Bayrou a légiféré pour durcir l’accès à la nationalité française et a promis plus de fermeté pour lutter contre l’immigration. Comment évolue la situation sur place ?
F. I. T. : Près de la moitié des personnes vivant à Mayotte sont des étrangers, dont de nombreux illégaux, installés dans les bidonvilles. Les opérations policières massives, comme Wambushu ou Place nette pour raser les bidonvilles et expulser massivement, n’ont pas été renouvelées en 2025. En revanche, les policiers aux frontières interviennent toujours en mer et au sein de l’île pour expulser les illégaux. Mais ces derniers reviennent : l’île est facilement accessible depuis les îles voisines en bateau et les frontières sont difficiles à contrôler.
Malgré les efforts de l’État, les arrivées illégales se poursuivent. Les migrants vivent toujours dans des logements précaires, avec un accès limité aux droits fondamentaux et des inégalités qui perdurent.
Les relations entre la France et les Comores jouent un rôle central dans cette problématique migratoire. Quel est l’état de ces relations ?
F. I. T. : En 2018, un accord a été conclu entre l’Union des Comores et la France. Il s’agissait pour la France d’aider les Comores sur le plan de l’agriculture, de l’éducation, de la santé – ceci à condition que le gouvernement comorien stoppe le départ des migrants depuis l’île d’Anjouan. Mais depuis, rien n’a changé. Le président de l’Union des Comores Azali Assoumani répète avec constante que la France doit abandonner Mayotte et l’île intégrer l’Union des Comores. Il affirme que Mayotte appartient aux Comores, sans doute pour satisfaire son électorat, alors que les habitants des Comores vivent dans une grande pauvreté.
Quel est l’état d’esprit des habitants de l’île que vous côtoyez ?
F. I. T. : Les Mahorais sont résilients. Après le cyclone, ils se sont entraidés, ils étaient solidaires. Ici, la vie suit son cours. Certains critiquent le gouvernement, mais, en général, les Mahorais sont confiants dans l’avenir. Ce qui est un sujet de tension, ce sont les phénomènes de violence qui impliquent parfois des migrants. Cela ne date pas de Chido. La question migratoire est montée en puissance depuis que l’île est un département français, en 2011.
Fahad Idaroussi Tsimanda ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
13.12.2025 à 09:02
Scolarité : Le privé fait-il mieux que le public ?
Texte intégral (2582 mots)
Lorsque l’on considère évaluations nationales et examens, les écoles privées affichent non seulement de meilleurs résultats que les écoles publiques, mais aussi de meilleurs taux de progression des élèves au fil de leur scolarité. Est-ce le simple reflet de leur composition sociale plus favorisée ? Ou faut-il y voir un « effet » propre à ces établissements ?
La question de l’école privée occupe aujourd’hui une place singulière dans le débat éducatif français. Elle revient d’ailleurs régulièrement au centre des discussions publiques, souvent au gré de polémiques autour des choix scolaires des ministres de l’éducation nationale eux-mêmes. La séquence s’est répétée récemment : Édouard Geffray, le nouveau ministre, a inscrit ses enfants dans le privé – comme ses prédécesseurs Amélie Oudéa-Castéra, en 2024, et Pap Ndiaye.
Si ces épisodes retiennent autant l’attention, c’est qu’ils cristallisent une tension devenue centrale : régulièrement crédité de meilleurs résultats scolaires que le secteur public, le secteur privé est largement financé par des fonds publics tout en étant autorisé à sélectionner ses élèves.
Ces différences de recrutement se traduisent par des écarts massifs dans la composition sociale des établissements entre public et privé. C’est ce que montrent les indices de position sociale (IPS) calculés par le ministère de l’éducation nationale en considérant les catégories socio-professionnelles des parents d’élèves.
Les graphiques ci-dessous traduisent ces disparités, académie par académie. Prenons l’exemple de Paris : l’IPS moyen des écoles publiques y est d’environ 118, contre 143 dans le privé sous contrat, soit un écart d’environ 25 points, l’un des plus élevés du pays. Autrement dit, les écoles privées parisiennes scolarisent un public en moyenne beaucoup plus favorisé socialement que les écoles publiques. Les distributions montrent également que le privé est concentré sur le haut de l’échelle sociale, tandis que le public accueille une population plus hétérogène, avec davantage d’élèves issus de milieux modestes.
Les meilleurs résultats des écoles privées aux évaluations nationales et aux examens viennent-ils réellement d’un « effet » propre au privé ou reflètent-ils avant tout la composition sociale plus favorisée de ses élèves ?
Des résultats scolaires plus élevés dans le privé
Les comparaisons internationales offrent un premier éclairage. Les évaluations PISA, menées auprès d’élèves de 15 ans, rappellent combien la France demeure l’un des pays où les résultats scolaires dépendent le plus du milieu social : près d’un cinquième des performances s’explique par l’origine sociale.
Dans ce contexte, les établissements privés – qui accueillent un public en moyenne plus favorisé – obtiennent logiquement de meilleurs scores bruts. Mais il s’agit d’une photographie instantanée, qui ne dit rien de la manière dont les élèves progressent dans le temps.
Lorsque l’on cesse de regarder uniquement les performances à un instant donné pour suivre les élèves au fil de leur scolarité, un autre constat apparaît. Du début à la fin du collège, les élèves scolarisés dans un établissement privé progressent plus que ceux du public, à milieu social comparable. Cette différence apparaît à la fois dans les évaluations de sixième et dans les notes finales du brevet : en moyenne, les trajectoires scolaires s’améliorent plus nettement dans le privé.
Lorsque l’on considère les épreuves terminales du brevet, dans les graphiques qui suivent, il apparaît que, dans chaque matière, les élèves scolarisés dans le privé sous contrat obtiennent en moyenne des notes plus élevées que ceux du public. Les distributions montrent également que les résultats des élèves du public sont plus dispersés, avec davantage d’élèves dans la partie basse de la distribution.
En examinant ces parcours de manière plus fine, un élément supplémentaire émerge : ces écarts ne sont pas uniformes selon le niveau initial. Une étude récente montre que l’avantage observé en fin de troisième est plus marqué pour les élèves initialement les plus faibles, en particulier en mathématiques. Autrement dit, les différences entre public et privé tiennent à la fois aux acquis de départ, mais aussi à la manière dont les élèves progressent au cours du collège.
Des progrès plus marqués au fil de la scolarité dans le privé
Un travail conduit par le service statistique du ministère de l’éducation nationale aboutit à un résultat très proche. En suivant une cohorte d’élèves du CP au début du lycée, ses auteurs montrent que, à contexte familial et scolaire comparable, la progression en français et en mathématiques au collège – et surtout en mathématiques – est plus élevée dans le privé que dans le public.
Ces différences de progression ne peuvent pas s’expliquer par certains facteurs souvent avancés dans le débat public. Les chiffres sont sans ambiguïté : les classes du privé comptent en moyenne 27,2 élèves, contre 24,7 dans le public ; le nombre d’élèves par enseignant y est plus élevé (14,6 contre 12,8) ; et le privé n’emploie pas davantage d’enseignants agrégés (4,5 % contre 13,4 % dans le public). Rien, dans ces indicateurs d’encadrement, ne suggère donc des conditions plus favorables dans le privé.
Les explications doivent être cherchées ailleurs. Deux pistes se dégagent. D’abord, la composition sociale : les établissements privés accueillent un public plus favorisé, ce qui peut mécaniquement tirer les résultats vers le haut et permettre d’enseigner à des niveaux plus élevés.
Ensuite, le libre recrutement des enseignants, qui permet de constituer des équipes pédagogiques plus cohérentes et plus stables, potentiellement mieux alignées sur un projet éducatif commun – un cadre qui peut là aussi soutenir un niveau d’exigence plus élevé.
Une composition sociale qui n’explique pas tout
Une fois posés ces constats, une question centrale demeure : dans quelle mesure les écarts public/privé s’expliquent-ils simplement par la composition sociale beaucoup plus favorisée des établissements privés ? Lorsqu’on compare des élèves de même origine sociale, et que l’on tient compte non seulement de leurs caractéristiques individuelles, mais aussi de la composition sociale des établissements et des classes dans lesquels ils sont scolarisés, l’avantage du privé sur le public ne diminue que très légèrement.
En pratique, seulement 15 à 23 % de l’avantage initial s’efface. Autrement dit, la composition sociale explique bien une partie de la différence… mais certainement pas tout. D’autres facteurs sont donc en jeu.
L’étude révèle un point essentiel : la composition sociale n’agit pas de la même manière selon l’origine des élèves. Pour les élèves issus de milieux favorisés, l’avantage apparent du privé tient surtout au fait qu’ils sont scolarisés dans des collèges où la part d’élèves aisés est nettement plus élevée que dans le public. Une fois que l’on compare des élèves favorisés inscrits dans des établissements au profil social similaire dans les deux secteurs, l’écart de performances entre public et privé devient quasi nul. Rien n’indique, en revanche, que ces élèves tirent leurs meilleures performances de spécificités pédagogiques propres au privé.
À l’inverse, pour les élèves issus de milieux modestes, la situation est tout autre : l’avantage du privé demeure nettement perceptible, même après avoir neutralisé les effets du milieu social et de l’environnement scolaire. Ce sont finalement ces élèves, pourtant très minoritaires dans le privé, qui tirent le plus de bénéfices de la scolarisation dans le privé en termes de résultats scolaires.
Interroger l’équité du système scolaire
S’ajoute une interrogation liée au fonctionnement même des établissements : si la composition sociale n’explique qu’une part modeste des écarts observés, où chercher les leviers restants ? Une piste souvent avancée concerne le mode de recrutement des enseignants, plus flexible dans le privé : dans le public, les enseignants sont affectés par l’administration, tandis que dans le privé sous contrat ce sont les chefs d’établissement qui recrutent directement les enseignants, ce qui leur laisse davantage de marge pour composer leurs équipes pédagogiques autour du projet d’établissement.
Rien n’interdit d’examiner ce que certaines pratiques propres au privé – par exemple le recrutement plus libre des enseignants par le chef d’établissement – pourraient inspirer au secteur public, comme l’expérimentation récente menée dans le cadre du plan « Marseille en grand ». Ce type de dispositif reste encore peu documenté par la recherche et constitue un terrain privilégié pour de futurs travaux.
Finalement, peut-on considérer comme durable un système où l’argent public soutiendrait, de fait, une organisation qui contribue à renforcer la ségrégation scolaire ? La question mérite d’être posée, ne serait-ce qu’au regard des principes mêmes inscrits dans le Code de l’éducation, selon lesquels « le service public de l’éducation […] contribue à l’égalité des chances et à lutter contre les inégalités sociales et territoriales en matière de réussite scolaire et éducative ».
L’enjeu est désormais de documenter précisément les mécanismes à l’œuvre, afin d’identifier quels leviers d’organisation scolaire pourraient, à terme, être mobilisés au service d’une plus grande équité du système éducatif.
Léonard Moulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.