LePartisan - 82 vues
MEDIAS REVUES BLOGS
URL du flux RSS

▸ les 50 dernières parutions

17.12.2025 à 11:47

Ponzi schemes and financial bubbles: lessons from history

Paul David Richard Griffiths, Professor of Finance; (Banking, Fintech, Corporate Governance, Intangible Assets), EM Normandie
Technology bubbles have often concealed major frauds. From the railway boom to the Madoff affair, are there warning signs at the heart of the current AI frenzy?
Texte intégral (1330 mots)
Charles Ponzi (March 3, 1882--January 18, 1949). Charles Ponzi was a businessman born in Italy who became known as a swindler for his money scheme. Wikimediacommons

Many investors are asking themselves if we are living in an AI bubble; others have gone beyond that and are simply asking themselves, until when? Yet the bubble keeps growing, fuelled by that perilous sentiment of “fear of missing out”. History and recent experience show us that financial bubbles are often created by investor overenthusiasm with new “world-changing” technologies and when they burst, they reveal surreal fraud schemes that develop under the cover of the bubble.

A Ponzi scheme pays existing investors with money from new investors rather than actual profits, requiring continuous recruitment until it inevitably collapses. A characteristic of these schemes is that they are hard to detect before the bubble bursts, but amazingly simple to understand in retrospect.

In this article we address the question What footprints do Ponzi schemes leave in technology-driven financial bubbles that might help us anticipate the next one to emerge under cover of the AI frenzy? We shall do this by comparing the “Railway King” George Hudson’s Ponzi of the 1840s with Bernie Madoff’s Ponzi enabled by the ICT (information and communications technology) and dotcom of the 1990s-2000s and sustained by the subsequent US housing bubble.

Macroeconomic climate, regulations and investor expectations

The railway mania in the UK started in 1829 as a result of investors’ expectations for the growth of this new technology and the lack of alternative investment vehicles caused by the government’s halting of bond issuance. The promise of railway technology created an influx of railway companies, illustrated by the registration of over fifty in just the first four months of 1845. Cost projections for railway development were understated by over 50 percent and revenue projections were estimated at between £2,000 and £3,000 per mile, despite actual revenues closer to £1,000 to £1,500 per mile. Accounting standards were rudimentary, creating opportunities for reporting discretion such as delaying expense recognition, and director accountability was the responsibility of shareholders rather than delegating it to external auditors or state representatives. Hudson, who was also a member of parliament, promoted the deregulation of the railway sector.

George Hudson’s Ponzi and Bernie Madoff’s Ponzi

Madoff’s reputation was built upon his success in the 1970s with computerization and technological innovation for trading. The dotcom bubble was fuelled by the rapid expansion of technology companies, with over 1,900 ICT companies listing in US exchanges between 1996 and 2000, propelled by which his BLMIS fund held $300 million in assets by the year 2000. Madoff’s scheme also aligned with the rapid growth of derivatives such as credit default swaps (CDS) and collateralized debt obligations (CDO), which grew 452 percent from 2001 to 2007. Significant market-wide volatility created a norm for outsized returns that hid the infeasibility of Madoff’s promised returns. These returns were considered moderate by investors, who failed to detect the implausibility of the long-term consistency of Madoff’s returns–this allowed the scheme to continue undetected. Madoff’s operations were facilitated by the fact that before the Dodd-Frank Act of 2010, hedge-fund SEC registration was voluntary; and by the re-prioritization of government security resources after 9/11, that led to a reduction of more than 25 percent in white-collar crime investigation cases opened between 2000 and 2003. The infeasibility of Madoff’s returns was overlooked by the SEC despite whistleblower reports instigating an SEC investigation–this reflects the SEC’s and other regulatory bodies’ lack of hedge-fund trading knowledge. It could also have been influenced by Madoff’s close relationship with the regulatory agencies, given his previous roles as Chairman of Nasdaq and an SEC market structure adviser.

At the time of the railway bubble-bust, Bank of England interest rates were at a near-century low, and similarly the FED’s lowering of interest rates in the 2000s reduced the cost of mortgages, which boosted demand and thus helped inflate housing prices. In both cases the markets were flush with cheap money and when everyone is making money (or thinking so), uncomfortable questions are not asked.

The perpetrators’ style and their downfall

Both Hudson and Madoff provided scarce information of their operations to fellow directors and shareholders. The former notoriously raised £2.5 million in funds without providing investment plans. Madoff employed and overcompensated under-skilled workers to deter operational questions and avoided hosting “capital introduction” meetings and roadshows to avoid answering questions from well-informed investment professionals–he instead found new investors through philanthropic relationships and network ties. There is evidence that shareholders were partially aware of Hudson’s corrupt business conduct but they did not initially object.

When their respective bubbles burst, in both cases their obscure business methods were unveiled and it was made evident that, in typical Ponzi-style, they were using fresh capital, and not investment profits, to pay dividends to investors. It was also revealed that they were using investor funds to finance their luxurious lifestyles. Hudson embezzled an estimated £750,000 (approximately £74 million in today’s money) from his railway companies, while Madoff’s fraud reached $65 billion in claimed losses, with actual investor losses of around $18 billion. Both ended in disgrace, Hudson fleeing to France and Madoff dying in goal.

On the trail of the fox

Beware when you see AI companies of ever-increasing market value, headed by charismatic and well-connected leaders–it is worrying that the heads of AI giants have such close relationships with the White House. In those cases, it is imperative to analyse the quality of communications with shareholders and prospective investors, particularly in terms of allocation of capital and disclosure of detailed cash flows. It is not enough to rely on audited financial statements; it must go much deeper into an investment strategy – obviously, this will require auditors to up their game considerably.

When investors are in a frenzy,
Around the corner waits a Ponzi.


Geneva Walman-Randall contributed to this article as a research assistant for her research on the conditions surrounding the Bernie Madoff and George Hudson Ponzi schemes. She completed this research as a visiting student at St. Catherine’s College, Oxford.

The Conversation

Paul David Richard Griffiths ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.12.2025 à 11:31

Faut-il dire la vérité aux enfants au sujet du Père Noël? Un philosophe se penche sur la question

Tom Whyman, Lecturer in Philosophy, University of Liverpool
Les enfants tirent profit à la fois de la fiction du père Noël et de la prise de conscience éventuelle qu’il n’existe pas.
Texte intégral (1566 mots)
Un mythe plus utile qu'il n'y paraît? Stokkete

Notre culture attend des parents, et des adultes en général, qu’ils mentent aux enfants en disant que les cadeaux de Noël ont été déposés par un joyeux bonhomme qui vole dans un traîneau tiré par des rennes. Mais ce mensonge est-il moralement acceptable ?


Je me souviens très bien du moment où j’ai réalisé que le père Noël n’existait pas. J’avais environ six ans, c’était en plein été, et j’étais assis sur les marches devant notre porte arrière, en train de penser à Dieu. À l’époque, l’existence de Dieu m’agaçait : cela signifiait que chaque dimanche, nous devions aller à l’église.

Puis j’ai réalisé qu’il n’y avait en fait aucune preuve de l’existence de Dieu. Je pense seulement que Dieu existe parce que c’est ce que les gens m’ont dit.

Je me souviens m’être levé d’un bond, tout excité, prêt à partager cette merveilleuse nouvelle avec ma famille. Nous n’aurions plus à endurer la corvée hebdomadaire de l’école du dimanche et des sermons. Mais je me souviens m’être ravisé et m’être dit : « Oh non. Si Dieu n’existe pas, selon la même logique, le père Noël doit être une invention lui aussi. »

C’est peut-être à ce moment-là que je suis devenu philosophe (même si je dois dire qu’à l’âge adulte, je ne pense plus que l’analogie entre Dieu et le père Noël soit vraiment valable). Cela m’a certainement donné un sentiment légèrement ridicule de supériorité intellectuelle par rapport à ceux qui m’entouraient, notamment les autres enfants de ma classe qui n’avaient pas compris cette supercherie.

Perpétuer le mythe

Mais aujourd’hui, les rôles sont inversés. Je suis désormais parent de jeunes enfants, et c’est moi qui perpétue les mythes hégémoniques autour du père Noël.

Nous le faisons tous, bien sûr. Notre culture attend des parents qu’ils mentent à leurs enfants en leur disant que leurs cadeaux ont été déposés par un joyeux bonhomme corpulent qui vole dans un traîneau tiré par des rennes à travers le ciel. Et bien sûr, on peut se demander si c’est acceptable. Nous voulons tous que nos enfants grandissent en devenant des personnes honnêtes. Ne devrions-nous pas leur donner le bon exemple, dans la mesure du possible, en leur disant la vérité ?

À quoi je répondrais : non, nous ne devrions pas être honnêtes au sujet du père Noël, du moins pas au début. Il est moralement acceptable, voire moralement bon, que les parents participent au grand mensonge du père Noël.

Pourquoi les enfants ont besoin du père Noël

Quand vous repensez à vos premières expériences de Noël, pensez-vous vraiment qu’elles auraient été meilleures si vos parents avaient été honnêtes au sujet du père Noël ? Sans cette douce fiction, il n’y aurait pas eu le rituel consistant à lui écrire une lettre, à déposer ses petits souliers au pied de la cheminée ou du sapin, et à attendre désespérément de voir s’il était passé le matin de Noël.

Sans le mythe du père Noël, que serait Noël pour un enfant ? Une date arbitraire où ils sont enfin autorisés à jouer avec les cadeaux que leurs parents ont peut-être achetés des mois à l’avance. Quel serait l’intérêt ?

Cela soulève également la question de savoir dans quelle mesure il faut être honnête avec ses enfants en général. Après tout, que signifie vraiment « être totalement honnête » ?

Si je me sentais obligé de tout dire à mes enfants, je ne mâcherais pas mes mots pour leur décrire l’état déplorable du monde, de l’existence, et ma résignation toujours plus profonde face à l’impossibilité d’y changer quoi que ce soit. Je leur infligerais tout le poids de mes soucis financiers, de mes problèmes de santé, de mes inquiétudes (pour la plupart irrationnelles) à leur sujet.

Photograph of Nietzsche
« Delude your kids », Nietzsche would’ve said. Wikimedia, CC BY-SA

Et dans quel but ? Seraient-ils plus équilibrés émotionnellement que les enfants dont les parents leur ont donné une vision plus édulcorée du monde ? Pensez à l’argument avancé par Nietzsche dans son premier essai De la vérité et du mensonge au sens extra-moral, selon lequel nous devons être au moins quelque peu aveuglés par la réalité pour pouvoir la supporter.

En grandissant, nous avons probablement besoin, jusqu’à un certain point, de croire que le monde est bon et juste ; de croire qu’il existe un atelier dans lequel un homme joyeux travaille avec des elfes, dans le but de récompenser les enfants sages et de punir (gentiment) les méchants.

Sans ce genre de mythe, les plus jeunes trouveraient-ils vraiment la force de se battre pour un monde meilleur ?

Quand le mensonge doit cesser

Et quand les enfants finissent par découvrir la vérité ? C’est certainement bénéfique pour leur développement moral. Pour moi, ça a été très gratifiant de réaliser que j’avais percé à jour les mensonges de mes parents. Je ne leur en ai pas voulu – et des recherches suggèrent que seule une minorité d’enfants en veulent à leurs parents, après avoir découvert la supercherie. Au contraire, j’ai gardé une saine méfiance envers les idées reçues que mes parents avaient tendance à m’inculquer.

C’est, je pense, pour ces raisons qu’il est justifié de mentir au sujet du Père à ses enfants. Les parents devraient certainement entretenir le mythe tant que leurs enfants sont petits, mais répondre honnêtement lorsque les enfants les confrontent. Quand un enfant demande enfin, à l’âge de six ou sept ans, « le père Noël existe-t-il vraiment ? », cela signifie simplement qu’il n’a plus besoin de ce noble mensonge.

En fin de compte, dans l’éducation des enfants, notre préoccupation devrait toujours être la manière dont nous les formons. Si nous voulons élever des citoyens critiques, avec un sens aigu de la possibilité d’améliorer le monde et une saine méfiance envers ceux qui sont au pouvoir, le mythe du père Noël est certainement un mécanisme qui peut aider à aller dans cette direction.

The Conversation

Tom Whyman ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.12.2025 à 16:37

La libre circulation en Afrique de l’Ouest est-elle menacée ?

Delphine Perrin, Chargée de recherche, Institut de recherche pour le développement (IRD)
Les Africains rencontrent bien des obstacles pour se déplacer sur leur continent, y compris en Afrique de l’Ouest, dont les organisations supranationales ont pourtant adopté des textes censés faciliter la circulation des personnes.
Texte intégral (2687 mots)

On le sait, les ressortissants des pays africains éprouvent souvent de grandes difficultés pour obtenir des visas vers l’Europe. Mais qu’en est-il de leur capacité à voyager ou à émigrer à l’intérieur même du continent ? Examen de la situation en Afrique de l’Ouest, où des dispositions visant à rendre ces déplacements moins fastidieux existent, mais où les infrastructures de transport sont lacunaires et la tendance semble être à une méfiance toujours plus grande à l’égard des étrangers.


Citée en modèle en Afrique, la Communauté économique des États d’Afrique de l’Ouest (Cédéao) est une des huit communautés économiques régionales africaines, la seule à être parvenue à faire de son espace une région de libre circulation entre l’ensemble de ses membres. L’Afrique de l’Ouest se caractérise par une forte mobilité des personnes, surtout intra-régionale, avec de grandes variations entre pays. Cette mobilité est pourtant menacée.

Les Ouest-Africains, parmi les moins bien pourvus en termes de droits à la mobilité hors de la région

Dans le classement de la puissance des passeports dans le monde, établi en fonction du nombre de pays imposant un visa d’entrée à leurs détenteurs, les premières nationalités ouest-africaines figurent aux 65e (Ghana) et 66e (Cap Vert) rangs sur 94. En dernière position, le Nigéria est à la 86e place.

Cette capacité de mobilité limitée (le taux de refus pouvant être important) s’observe également au sein de l’Afrique. Malgré le Protocole de l’Union africaine pour la libre circulation adopté en 2018 mais ratifié par seulement 4 États membres sur 55, moins d’un tiers des voyages intra-africains se font sans visa. Par exemple, les Sénégalais ont besoin d’obtenir un visa avant le départ pour se rendre dans 22 pays africains, mais n’imposent cette obligation qu’à 6 nationalités.

Carte présentant les pays membres de la Cédéao (avant le départ du Burkina Faso, du Mali et du Niger). Organisation ouest-africaine de la santé

Tandis que la demande de visa avant le départ est une démarche contraignante (en termes de documents à fournir et de déplacement à l’ambassade), l’achat du visa à l’arrivée a surtout un but financier. Les Sénégalais doivent acheter un visa à l’arrivée dans 9 pays africains, et 25 nationalités africaines doivent payer un visa à l’arrivée à Dakar.

En dehors d’accords régionaux, c’est bilatéralement que se prévoient des avantages. Les Sénégalais entrent sans visa en Mauritanie et au Maroc, sur une base réciproque. En revanche, s’ils entrent sans visa au Tchad, les Tchadiens doivent obtenir un visa à l’arrivée au Sénégal. Avec la France ou l’Espagne, c’est sur une base asymétrique que Français et Espagnols entrent sans visa au Sénégal, tandis que les Sénégalais se voient souvent refuser le visa avant le départ vers ces destinations. L’Afrique de l’Ouest est la région la plus ouverte au monde, mais ses citoyens peuvent difficilement circuler hors de la région.

Un espace sans visa mais pas sans contrôles ni obstacles

Dès sa création en 1975, la Cédéao avait fixé l’objectif d’assurer liberté de mouvement et de résidence des citoyens de la Communauté entre ses 15 membres. Le Protocole de 1979 a défini la démarche, sur 15 ans, et plusieurs textes sont venus ultérieurement engager les États membres. Depuis 40 ans, les citoyens ouest-africains peuvent circuler sans visa, munis d’un passeport ou d’une carte d’identité. Cette condition est d’autant plus importante qu’à la différence de l’espace Schengen, la Cédéao n’a pas supprimé les contrôles aux frontières internes. Au contraire, par voie terrestre, les postes-frontières sont multiples et les contrôles s’exercent aussi bien aux frontières qu’à l’intérieur des États.

Les « tracasseries » sur les routes – euphémisme utilisé pour désigner la corruption forcée – sont documentées depuis des années, sans grande amélioration. Même avec tous les papiers en règle, il faut souvent payer. L’absence de papiers, qu’il s’agisse du document de voyage ou du carnet de vaccination, n’empêche pas toujours de franchir la frontière, mais elle fait monter la facture.

Voyager par avion est plus sûr, mais les vols sont très chers et rarement directs, même entre grandes capitales ouest-africaines.

« Afrique : vols indirects, prix non-stop », AJ+, 2 avril 2025.

Le train est inexistant et le transport par voie maritime est rare et peu sûr. Le manque d’infrastructures ne facilite pas la mobilité.

Dans un contexte d’insécurité croissante dans la région, notamment sa partie sahélienne, les velléités de mieux contrôler les déplacements s’intensifient, justifiant l’adoption de réglementations plus sévères ainsi que l’aménagement et la modernisation des postes-frontières.

Une insécurité juridique

La Cédéao est une organisation respectueuse de la souveraineté des États membres et le droit communautaire offre généralement la possibilité d’atténuer les engagements pris. Par exemple, le Protocole de 1979 garantit la libre entrée au sein de la zone Cédéao, mais autorise les États membres à refuser celle des étrangers « entrant dans la catégorie des immigrants inadmissibles aux termes de leurs lois et règlements en vigueur », ce qui leur laisse une large marge de manœuvre.

Les règles sont aussi diversement respectées par les États membres. En 2014, ceux-ci ont décidé la création d’une carte d’identité biométrique Cédéao (ENBIC), qui servirait de document de voyage. À ce jour, seuls six États la délivrent à leurs citoyens. La même année, une série d’actes a été adoptée, renforçant substantiellement le droit de circulation et de résidence. Jusqu’alors, la liberté de circulation valait pour 90 jours, au-delà desquels l’étranger communautaire devait demander un titre de séjour. En 2014, la limite de 90 jours et la nécessité de demander une carte de résident ont été supprimées. Or, ce droit est resté méconnu dans la Communauté, y compris des policiers, des magistrats ou des avocats.

En 2024, la Commission de la Cédéao a lancé une campagne de plaidoyer dans plusieurs pays, avec un triple objectif : accélérer le déploiement de l’ENBIC, amener à la suppression de la limite de 90 jours et de la carte de résident. Plusieurs États imposent encore cette carte. Dans d’autres, sans forcément procéder à des contrôles, les autorités sont convaincues que les ressortissants communautaires devraient la détenir.

« Carte nationale d’identité biométrique | Cédéao | République de Guinée | Guinée-Conakry », 13 septembre 2020.

La méconnaissance du droit est facteur d’insécurité juridique car les citoyens peuvent être confrontés à des difficultés en fonction de leur interlocuteur, sans pouvoir faire valoir leurs droits. La réciprocité dans l’accès aux emplois est aussi très diversement appliquée d’un pays à l’autre.

L’insécurité juridique s’est récemment accentuée avec le départ de trois États membres. Le Burkina Faso, le Mali et le Niger ont quitté la Cédéao en janvier 2025 après avoir créé l’Alliance des États du Sahel (AES). L’AES est aussi un espace de libre circulation, et ses propres passeports sont en cours de création. Afin de maintenir des droits auxquels les citoyens sont très attachés, l’AES de son côté, la Cédéao du sien ont déclaré continuer à garantir réciproquement la liberté de circulation et le droit de résidence.

Néanmoins, ces droits ne bénéficient plus de la stabilité du cadre juridique multilatéral, mais s’appuient sur des déclarations sujettes aux aléas diplomatiques. Il est vrai que le trio sahélien demeure membre de l’Union économique et monétaire ouest-africaine (l’UEMOA), un espace de libre circulation partagé avec cinq États de la Cédéao (Bénin, Côte d’Ivoire, Guinée-Bissau, Sénégal et Togo), mais plusieurs questions pratiques restent ouvertes. Par exemple, les citoyens de l’AES doivent-ils aussi être dispensés de carte de résident ? Conservent-ils l’accès aux emplois sur une base égalitaire avec les nationaux des pays d’accueil ?

Ces privilèges du droit communautaire sont mis à mal au sein même de la Cédéao.

Nationalismes et xénophobie

Le départ des trois États sahéliens a pris corps dans un contexte régional
– comme mondial – de montée des nationalismes. C’est au nom de la défense de leur souveraineté qu’ils ont annoncé en 2023 leur intention de quitter la Cédéao, considérée comme étant sous influence extérieure.

Les militaires au pouvoir partagent avec les nouveaux dirigeants sénégalais, ainsi qu’avec une grande part de la jeunesse ouest-africaine, une aspiration souverainiste et panafricaniste, qui se traduit principalement par un « dégagisme ».

Le nouveau régime du Niger a d’ailleurs immédiatement abrogé une loi de lutte contre le trafic de migrants, adoptée en 2015, vue comme servant les intérêts de l’Europe, qui amenait Niamey à violer les règles de la libre circulation dans la Cédéao. Les pays européens exercent effectivement une pression sur les États ouest-africains pour les conduire à renforcer les contrôles des mobilités, contenir les migrants, développer la biométrisation des documents d’identité et de voyage, élaborer des stratégies de lutte contre la migration irrégulière. Ils influencent ainsi les politiques et le narratif autour des migrations et contribuent sans doute à la stigmatisation des migrants et à la politisation de la question migratoire.


À lire aussi : Dissuader les candidats à la migration : pourquoi les campagnes de l’UE sont un échec


Nationalisme et stigmatisation ne sont pas pour autant nouveaux dans la région, mais ils ont le vent en poupe, dans un contexte où, des États-Unis à l’Europe et jusqu’en Afrique, l’altérité est vilipendée et les droits ouvertement bafoués.

Des expulsions collectives de citoyens ouest-africains ont été menées par des dirigeants locaux, en dépit de discours panafricanistes, sans condamnation par les institutions de la Cédéao. Dans certains pays, c’est parfois au nom du patriotisme que des collectifs appellent à l’expulsion de voisins ouest-africains, prônent la préférence nationale, réclament des restrictions aux frontières, désignent certaines nationalités comme responsables de tous les maux de la société et leur réservent des appellations dénigrantes.

Face à ces racismes qui ont souvent des racines anciennes, mais tendent à être occultés par un discours de fraternité africaine, les dirigeants de la Cédéao ont tout intérêt à valoriser la migration ouest-africaine et à soutenir le statut de « citoyens communautaires ».

La performativité des discours sur la migration n’est plus à démontrer et c’est par l’amélioration du narratif que l’on peut au mieux contribuer à l’unité ouest-africaine et endogénéiser le discours sur la migration. Encore s’agit-il de la connaître car la migration intra-régionale est aujourd’hui bien moins documentée que la migration africaine vers l’Occident, au cœur de toutes les attentions. Il en est de même du droit de la Cédéao, insuffisamment connu et enseigné dans la région.

Il est primordial de contrer les fausses informations sur la présence et l’impact des étrangers, et de développer la connaissance et la sensibilisation pour favoriser le vivre-ensemble.

The Conversation

Delphine Perrin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.12.2025 à 16:36

Le pragmatisme du Mexique de Claudia Sheinbaum face à la pression exercée par Donald Trump

Sylvain Bellefontaine, Économiste senior, spécialiste des pays émergents et en développement et analyste risque pays, en charge de l'économie internationale, de la Chine, de la Turquie, du Mexique et du Nigeria, Agence Française de Développement (AFD)
Le pouvoir de gauche en place à Mexico s’est plié à certaines injonctions venues de Washington pour éviter une guerre commerciale totale.
Texte intégral (3096 mots)

Donald Trump s’en prend avec virulence au Mexique, le présentant comme un pays trop laxiste à l’égard du passage vers son territoire de nombreux migrants, comme un hub du trafic de drogue à destination des États-Unis et comme le cheval de Troie des importations en provenance de Chine. Dans ce contexte, l’administration de gauche de Claudia Sheinbaum défend les intérêts nationaux avec pragmatisme, en donnant des gages de bonne volonté (déploiement des militaires à la frontière, mesures « anti-Chine ») mais sans représailles, contrairement au Canada. Dans un scénario de guerre commerciale universelle sans remise en cause profonde du partenariat privilégié au sein de l’espace économique nord-américain, le Mexique pourrait ressortir comme un « gagnant relatif » et préserver sa rente géoéconomique. Le scénario du pire serait bien entendu une répudiation pure et simple de l’accord Canada-États-Unis-Mexique (ACEUM, ex-ALENA) par l’administration Trump.


Les tensions commerciales avec les États-Unis mettent en exergue l’ultra-dépendance du modèle économique mexicain vis-à-vis de la première puissance économique mondiale.

Les perspectives positives pour le Mexique en termes de commerce et d’investissements amorcées sous l’administration Biden par des mesures telles que l’Inflation Reduction Act) et suscitées par le nearshoring dans le cadre de la reconfiguration des chaines de valeur sont sérieusement remises en question depuis la réélection de Donald Trump.

Pour le gouvernement mexicain, ce contexte ajoute un degré supplémentaire de complexité à une situation marquée par une croissance économique poussive, la déliquescence du secteur pétrolier, les contraintes pesant sur les finances publiques, et les divers freins au développement socio-économique et à la transition énergétique – même si le Mexique ne présente plus les fragilités macroéconomiques des années 1980-1990 susceptibles de générer une crise de balance des paiements.

Le Mexique, premier fournisseur des États-Unis

Déployé depuis les années 1960, le modèle des maquiladoras – ces usines situées à la frontière nord du Mexique (mais aussi dans le centre du pays) qui produisent des biens pour l’exportation – a structuré un écosystème transfrontalier, employant quelques 3 millions de Mexicains et profitable à des milliers d’entreprises états-uniennes.

Le Mexique a pleinement capitalisé sur les avantages comparatifs fondés sur sa position géographique privilégiée, un faible coût du travail et l’accord de libre-échange nord-américain (ALENA depuis 1994 et ACEUM depuis 2020). Des économies d’échelle ont été réalisées dans certains secteurs comme l’automobile, l’électronique et l’aéronautique.

D’après l’Organisation des Nations unies pour le développement industriel (UNIDO), le Mexique se classait en 2023 au 9e rang en termes de contribution à la valeur ajoutée manufacturière mondiale (1,8 %). Près de 80 % de ses exportations de biens manufacturés sont des produits medium et high-tech : dans ce domaine, le Mexique occupe le 4e rang mondial derrière Taïwan, les Philippines et le Japon.

Toutefois, la production locale est constituée essentiellement de chaînes d’assemblage de produits finis ou semi-finis. La valeur ajoutée domestique intégrée dans les exportations est donc estimée à seulement 9 % des exportations totales mexicaines en 2020 (OCDE, base de données TiVA, 2020.

Profitant des tensions commerciales entre Washington et Pékin depuis 2018, le Mexique est devenu en 2023 le premier fournisseur des États-Unis. Face à la tourmente commerciale mondiale depuis le début de l’année 2025, les recettes d’exportations mexicaines vers les États-Unis ont, jusqu’à présent, affiché une bonne résistance.

Évolution de l’excédent commercial bilatéral de la Chine et du Mexique avec les États-Unis entre 2000 et 2024 (en milliards de dollars). Évolution de la part de marché de la Chine et du Mexique dans les importations américaines entre 2000 et 2024 (en %). Bureau de recensement du ministère du commerce des États-Unis, FMI (DOTS), calculs fournis par l’auteur, Fourni par l'auteur

La part de marché du Mexique a culminé à 15,5 % en 2024, contre 13,5 % pour la Chine (cette dernière était à 21,6 % en 2017). La part des exportations mexicaines à destination des États-Unis a crû de 79,5 % en 2018 à 83,1 % en 2024 – essentiellement des biens manufacturés ou semi-finis, mais aussi des produits agricoles et du pétrole brut. Particulièrement décrié par Donald Trump, l’excédent commercial bilatéral sur les biens avec les États-Unis s’est accru continûment depuis 2009 pour atteindre 247 milliards de dollars (210 milliards d’euros) en 2024, au deuxième rang mondial derrière la Chine (360 milliards de dollars).

Sécuriser la pérennité de l’ACEUM

L’accord de coopération sur la sécurité signé le 4 septembre 2025 entre le Mexique et les États-Unis apparaît comme un succès de la capacité de négociation de la présidente Claudia Sheinbaum.

Il fait suite à l’annonce en février du déploiement de 10 000 militaires mexicains à la frontière et à l’extradition de 55 narcotraficants vers les États-Unis au cours des huit premiers mois de l’année.

Les autorités mexicaines souhaitent désormais anticiper la révision de l’Accord Canada États-Unis Mexique (ACEUM) prévue en juillet 2026, en comptant sur une position moins radicale et plus pragmatique de l’administration Trump.

À date, le taux moyen de droits de douane acquitté par le Mexique est estimé à 5 % (contre 0,2 % en 2024), alors que le taux moyen appliqué par les États-Unis serait de 11 % au niveau mondial (contre 2 % en 2024) et de 40 % sur les importations chinoises (contre 10 % en 2024).

Selon le ministère des finances du Mexique, mi-2025, 81 % des exportations mexicaines vers les États-Unis étaient conformes à l’ACEUM et seraient entrées sur le territoire sans droits de douane, contre à peine 50 % en 2024. Cette progression s’explique notamment par des efforts en matière de traçabilité.

Par ailleurs, le Mexique cherche à diversifier ses partenaires commerciaux. Le pays est signataire de 14 autres accords de libre-échange avec une cinquantaine de pays, sans compter le nouvel Accord global modernisé avec l’UE conclu le 17 janvier 2025, en cours de ratification.

L’administration Sheinbaum vise aussi à renforcer les relations commerciales avec les pays voisins. Un exemple est l’accord avec le Brésil, renouvelé en août dernier dans le secteur agricole et des biocarburants.

En parallèle, des tarifs douaniers de 10 à 50 % devraient être imposés sur certains produits importés au Mexique, notamment venant de pays avec lesquels il n’a pas d’accord de libre-échange. Les produits en provenance de Chine et d’autres pays sans traités de libre-échange seront taxés jusqu’à 50 % afin de protéger l’emploi dans les secteurs sensibles.

En réponse, la Chine évoque des mesures de représailles envers le Mexique, devenu un partenaire commercial important au cours des dix dernières années, notamment dans l’automobile.

Rester attractif pour les investisseurs

L’attractivité du Mexique pour les investisseurs étrangers post-pandémie pourrait être remise en cause par la politique protectionniste de l’administration Trump, à l’origine de l’attentisme de certaines firmes et d’une possible révision de leur stratégie de nearshoring vers les États-Unis ou d’autres pays.

En 2024, le Mexique a accueilli un niveau record d’investissements directs étrangers (IDE) depuis 2013 (44 milliards de dollars, ou 37 milliards d’euros, soit 2,4 % du PIB), devenant le 9e récipiendaire mondial et le 2e parmi les pays émergents, derrière le Brésil et devant l’Inde, l’Indonésie, le Vietnam et surtout la Chine, dont les flux d’IDE se sont effondrés.

Flux entrants d’IDE du Mexique, du Brésil, de l’Indonésie, du Vietnam de l’Inde et de la Chine entre 2000 et 2024 (en milliards de dollars). FMI (DOTS), calculs fournis par l’auteur, Fourni par l'auteur

Depuis 2018, la majorité des IDE entrants au Mexique sont provenus des États-Unis ; pourtant, l’encours total demeure dominé par les entreprises européennes (54 %), devant les entreprises états-uniennes ou ayant investi depuis les États-Unis (32 %), les investisseurs chinois ne constituant que 1 % des IDE installés.

Si les flux d’IDE totaux sont demeurés très dynamiques au premier semestre 2025 (+ 2 % par rapport à 2024), ils ont baissé dans le secteur manufacturier. Des projets d’investissements ont été annulés, suspendus ou reportés depuis la réélection de Donald Trump et l’adoption de la réforme judiciaire mexicaine.

Selon le Consejo Coordinador Empresarial, un organisme autonome représentant les entreprises mexicaines, plus de 60 milliards de dollars (50,9 milliards d’euros) d’investissements seraient actuellement gelés.

Les autorités chinoises auraient, par exemple, refusé au constructeur BYD l’autorisation d’implanter une usine automobile au Mexique avec 10 000 emplois à la clé.

Préserver des comptes externes solides

Le contexte international ne suscite pas d’inquiétude majeure, à ce stade, quant à un risque de dérive des comptes externes mexicains à court ou à moyen terme.

Le déficit du compte courant de la balance des paiements est structurellement modéré (- 0,9 % du PIB en moyenne sur 10 ans et - 0,3 % du PIB en 2024) et couvert par les flux nets d’IDE (2,1 % du PIB en moyenne sur 10 ans). Les réserves de change sont confortables et la Banque centrale n’intervient pas sur les marchés des changes, laissant flotter le peso librement. L’endettement externe est aussi modéré (36 % du PIB).

Le compte courant a pu profiter des mannes records de recettes touristiques (33 milliards de dollars, ou 28 milliards d’euros, soit 1,8 % du PIB en 2024), minorant le déficit de la balance des services, et surtout de remesas, c’est-à-dire les transferts d’argent de la diaspora (64 milliards de dollars, ou 54 milliards d’euros, soit 3,5 % du PIB en 2024).

Mais ces remesas, à 97 % en provenance des États-Unis, ont chuté de 6 % au premier semestre 2025 par rapport au premier semestre 2024. Leur évolution sera importante à suivre, compte tenu de leur rôle de soutien au pouvoir d’achat de nombreuses familles mexicaines. Les transferts hors virements bancaires, soit environ les trois quarts des transferts totaux, seront assujettis à une taxe de la part des États-Unis à compter de janvier 2026.

Par ailleurs, la structure de son commerce extérieur explique les difficultés du Mexique à générer des excédents commerciaux pérennes (hors période Covid), affichant un déficit de la balance des biens de 0,4 % du PIB en moyenne sur 10 ans.

En effet, dans le cadre de l’intégration industrielle nord-américaine, les importations mexicaines de biens intermédiaires ont représenté pas moins de 77 % des importations totales en moyenne depuis 2010, induisant une forte corrélation entre la dynamique des importations et celle des exportations et limitant la valeur ajoutée nette locale.

Parallèlement, la balance énergétique du Mexique est déficitaire depuis 2015
(- 1,2 % du PIB), compte tenu de la baisse de production de pétrole et de la dépendance aux produits raffinés en provenance des États-Unis.

Le solde du compte courant est aussi affecté par le déficit substantiel de la balance des revenus primaires (- 2,7 % du PIB sur 10 ans), lié aux rapatriements de profits et dividendes des nombreuses firmes étrangères implantées sur le territoire.

Prendre son destin économique en main, sans renier l’ancrage nord-américain

Au final, les tensions avec les États-Unis interrogent sur le modèle économique mexicain.

Pays émergent, le Mexique a vu sa croissance économique plafonner au niveau de celle des pays développés en moyenne sur les vingt dernières années (1,7 %), le positionnant dans le Top 10 des pays émergents et en développement les moins dynamiques. Le niveau et la volatilité de la croissance illustrent les limites de l’arrimage au marché nord-américain, en l’absence de puissants leviers de croissance endogènes (consommation, investissement public et privé, financement de l’économie par les banques).

Préserver la rente géo-économique, diversifier les marchés d’exportation et autonomiser le régime de croissance par un renforcement de la demande interne sont les principaux défis pour les prochaines années. Y répondre passera par des réformes repoussées ad vitam aeternam, notamment en matière fiscale et énergétique, de gouvernance publique et d’environnement des affaires.

Les orientations de politiques économiques et de politiques publiques seront cruciales afin de préserver les finances publiques tout en répondant aux importants besoins en termes de dépenses sociales, de retraite et d’infrastructures pour libérer le potentiel de croissance et assurer à la fois la stabilité macro-financière, le développement socio-économique et la transition énergétique du pays.

The Conversation

Sylvain Bellefontaine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.12.2025 à 16:32

Hydrogène vert : un couteau suisse de la décarbonation qui peine à réellement émerger

Valery Michaux, Enseignante chercheuse, Neoma Business School
Objet d’un engouement récurrent depuis vingt-cinq ans, l’hydrogène vert peine pourtant à se faire une place de choix dans la transition. Un phénomène paradoxal propre à la transition, l’« innovation éternellement émergente ».
Texte intégral (1976 mots)

L’hydrogène vert ou décarboné revient régulièrement sur le devant de la scène depuis vingt-cinq ans, drainant un flux régulier de capitaux comme le montre le dernier rapport de l’Agence internationale de l’énergie, sorti il y a quelques semaines. Comment expliquer que, depuis aussi longtemps, cette énergie et ses technologies associées peinent à décoller, tout en continuant à susciter des investissements ? On parle d’« innovation éternellement émergente » pour désigner ce phénomène paradoxal propre à la transition.


La place de l’hydrogène vert (ou bas carbone) suscite aujourd’hui des controverses plus vives que jamais. Certains ont peur d’une récupération par le secteur des énergies fossiles, qui pourrait être tenté de promouvoir l’hydrogène bleu produit à partir de gaz naturel. D’autres annoncent l’effondrement de cette filière naissante en France.

Il faut dire que le passage brutal à l’électrique des taxis parisiens à hydrogène Hype, lancés en 2015 lors de la COP21, envoie un signal hautement symbolique de la forte déstabilisation des acteurs français de l’hydrogène. Les débats autour du potentiel de cette énergie ne sont pas nouveaux : depuis vingt-cinq ans, l’hydrogène suscite un engouement récurrent et des investissements importants, sans pour autant décoller, son adoption demeurant relativement limitée.

Des innovations qui ne trouvent pas leur public, il y en a beaucoup, mais le cas de l’hydrogène est un peu différent. Nous nous sommes penchés sur le sujet pour tenter de résoudre ce paradoxe qui dure depuis les années 2000, à travers une étude longitudinale socioéconomique sur l’hydrogène.

Habituellement, les analyses classiques se concentrent sur les caractéristiques de l’innovation en elle-même pour expliquer leur adoption ou non-adoption : dans le cas de l’hydrogène, elles portent sur les technologies liées à la production et la distribution d’hydrogène vert et décarboné, sur leurs caractéristiques (coûts, rendement énergétique, facilité d’utilisation, etc.), sur les effets de réseaux (existence d’infrastructures de production et de stations de rechargement) ou sur les utilisateurs et les consommateurs.

L’originalité de notre recherche qui s’intéresse plus particulièrement à la mobilité, repose sur une autre grille d’analyse : l’approche dite multiniveau, qui resitue les innovations dans un contexte de concurrence avec d’autres technologies répondant aux mêmes besoins, tout en prenant en compte les conséquences des évolutions géopolitiques et sociétales sur les secteurs économiques.

Elle met en outre l’accent sur la façon dont le contexte politique, sociologique et géopolitique est susceptible de créer dans le temps assez de tensions pour déstabiliser les usages des acteurs du secteur.

Une « innovation perpétuellement émergente »

Nos résultats montrent un phénomène propre à la transition énergétique que nous avons appelé : « innovations perpétuellement émergentes ». Ce phénomène ne peut être compris qu’en tenant compte de trois éléments distincts fortement corrélés.

  • Tout d’abord, l’analyse d’une innovation verte ne peut faire abstraction des évolutions induites par le contexte géopolitique sur les représentations collectives de ce qu’est la transition énergétique et comment la gérer.

  • Ensuite, ces évolutions transforment le contexte de concurrence et d’arbitrages entre différentes innovations vertes visant à répondre aux mêmes besoins de décarbonation.

  • Enfin, il existe des phénomènes de verrouillage sociotechnique autour de certaines innovations vertes qui viennent encore modifier le contexte de ces concurrences intertechnologiques et influencer à leur tour les arbitrages de tous les acteurs du secteur.

L’hydrogène est un très bon exemple de ces technologies perpétuellement émergentes.


À lire aussi : L’économie de l’hydrogène, ou quand le rêve de Jules Verne se confronte aux réalités industrielles


Le mythe d’une voiture qui ne rejette que de l’eau

Reprenons le cours de son histoire. Jérémy Rifkin, prospectiviste américain, publie en 2003 un ouvrage qui va faire le tour du monde, l’Économie hydrogène.

Pour faire face à la diminution des ressources en pétrole, explique-t-il, il faudra développer une économie décentralisée fondée sur la production locale d’énergies renouvelables et le stockage de cette énergie intermittente dans l’hydrogène vert.

La représentation collective qui se construit à l’époque autour de ce gaz vert est marquée par le fait que les véhicules électriques à l’hydrogène ne rejettent que de l’eau et que le produire localement diminuera la dépendance de l’occident aux pays pétroliers. Cette vision s’érige en mythe partout dans le monde à mesure que le problème du changement climatique devient central.

Outre ne rejeter que de l’eau, l’hydrogène vert est aussi neutre en carbone. Cette vision va influencer le développement de l’hydrogène dans la mobilité, d’abord aux États-Unis puis, à partir du début des années 2010, en Europe. Dès 2015, plusieurs régions en France et en Europe lancent des expérimentations locales autour d’écosystèmes hydrogène dédiés à la production et à la mobilité locale.


À lire aussi : Les « couleurs » de l’hydrogène, un discours trompeur pour la transition énergétique


La concurrence de la voiture électrique

Entre 2015 et 2019, on observe une déstabilisation du moteur thermique dans la mobilité et le renforcement de cette vision de la transition très centrée sur les émissions de gaz à effet de serre et la qualité de l’air dans les villes (notamment à la suite du scandale sanitaire du dieselgate).

Dès 2019-2020, l’UE met en place des normes beaucoup plus strictes et les constructeurs sont forcés de s’adapter. Ils se tournent alors vers la seule technologie mature à l’époque : la voiture électrique à batterie. En effet, si l’hydrogène est évoqué de longue date dans le futur de la mobilité, les véhicules à batterie sont dans la course depuis plus longtemps. La troisième génération de batteries est déjà présente, le réseau de recharges, bien que sommaire, existe. Et le carburant – l’électricité – ne pose aucun problème.

Face à l’hydrogène qui ne possède aucune infrastructure, les jeux sont faits. Les expérimentations en la matière passent au second plan et les territoires hydrogène prennent du retard. En théorie de l’innovation, ce phénomène est connu sous le nom d’effet de verrouillage, qui se crée autour d’une technologie qui devient dominante.

Entre 2020 et 2022, les experts considèrent toutefois encore l’hydrogène comme une technologie clé dans la mobilité lourde. C’est sans compter sur la vitesse extrêmement rapide des effets de verrouillage. Environ 320 000 camions électriques et 220 modèles étaient en circulation fin 2022 dans le monde : une hausse spectaculaire et totalement inattendue, même par les experts. À titre de comparaison, il n’y avait que 12 modèles de poids lourds hydrogène à pile à combustible disponibles fin 2022 dans le monde.


À lire aussi : Poids lourds et pollution : comment accélérer l’électrification ?


Le coup de grâce de la guerre en Ukraine

2022 marque aussi le début de la guerre en Ukraine, qui va déclencher une crise énergétique et une flambée de l’inflation qui achèveront de reléguer l’hydrogène au second plan dans la mobilité. Parallèlement, notre vision de la transition évolue beaucoup à cette période. L’énergie devient une ressource précieuse que l’on ne peut plus gaspiller : la philosophie de l’économie circulaire est de plus en plus intégrée.

Or fabriquer de l’hydrogène vert (ou décarboné) à partir d’électricité renouvelable est moins efficace qu’utiliser directement cette électricité, en raison des pertes liées aux rendements de conversion. Face aux limites planétaires, il est impératif de prolonger la durée de vie de nos objets de consommation tout en garantissant leur recyclage complet. Les Allemands saisissent dès 2023 cette opportunité pour imposer une nouvelle vision de l’hydrogène qui permettrait de continuer à utiliser nos bonnes vieilles voitures thermiques.

Lors de la décision finale pour interdire les moteurs thermiques en 2035 à l’échelle européenne, l’Allemagne force les autres pays européens à laisser la porte ouverte : les moteurs thermiques resteront autorisés, à condition d’avoir recours à des e-fuels ou des carburants de synthèse liquides « zéro émission » produits à partir d’hydrogène vert ou décarboné.

Cette décision a pour effet de continuer à déstabiliser la filière hydrogène dans la mobilité car les investisseurs ne savent finalement plus sur quelles technologies hydrogène parier : gaz/pile à combustible ? Liquide/moteur thermique ?


À lire aussi : Carburants de synthèse, biocarburants, kérosène vert… De quoi parle-t-on exactement ?


Une solution parmi d’autres

Pourtant, cette situation tout à fait originale continue d’expliquer pourquoi partout dans le monde, on maintient un niveau d’investissement dans cette technologie, et pourquoi elle reste perçue comme une solution pour le futur, parmi les autres.

L’hydrogène est un couteau suisse, que l’on peut utiliser pour substituer des matières premières ou des énergies fossiles dans le cadre de nombreux processus industriels, y compris pour fabriquer des fertilisants bas carbone. Le récent rapport de l’Agence internationale de l’énergie montre une progression sans précédent des investissements dans les e-fuels à base d’hydrogène vert ou décarboné.

Il demeure toutefois en concurrence avec d’autres solutions, avec lesquelles il est comparé en matière de coûts financiers et énergétiques, d’impacts environnementaux et de consommation de ressources. Quelles technologies gagneront cette saine rivalité ? Il n’y a pas de bonne réponse, tout dépendra des cas d’usage.

The Conversation

Valery Michaux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.12.2025 à 16:31

Projet de loi de finances 2026 : La suppression des APL pour les étudiants étrangers, une mesure idéologique ?

Marion Tissier-Raffin, Maîtresse de conférences en droit public, Université de Bordeaux
Hachem Benissa, Chercheur postdoctoral, Université de Bordeaux
Parmi les mesures en débat dans le projet de loi de finances 2026 figure la suppression des APL pour les étudiants étrangers, en écho à la politique d’« attractivité sélective » affirmée depuis 2018.
Texte intégral (1839 mots)

Dans le projet de loi de finances 2026 figure la suppression des aides personnelles au logement (APL) pour les étudiants étrangers. Une proposition qui s’inscrit dans la politique d’« attractivité sélective » consacrée par le plan « Bienvenue en France » de 2018.


Parmi les nombreuses mesures du projet de loi de finances 2026 encore en débat, l’article 67 porte sur la suppression des aides personnelles au logement (APL) pour les étudiants étrangers extra-européens, à l’exception de ceux qui bénéficient d’une bourse sur critères sociaux. Les étudiants ressortissants de l’Union européenne, boursiers et non boursiers, représentant environ 25 % des étudiants étrangers, ne sont pas concernés car ils sont protégés par le droit communautaire.

En revanche, l’écrasante majorité des étudiants extra-européens en mobilité internationale et une partie des étudiants étrangers résidant en France sont visés. En effet, pour bénéficier d’une bourse de l’enseignement supérieur sur critères sociaux, il faut être domicilié fiscalement en France depuis au moins deux ans.

On estime que seuls 2 à 3 % des étudiants extra-européens, au nombre de 315 000 environ, sont éligibles à une telle bourse. Cela signifie donc que plus de 300 000 étudiants étrangers extra-communautaires ne sont pas boursiers et qu’ils risquent – si l’article 67 du projet de loi de finances est voté en l’état – de perdre leur APL dès la rentrée universitaire 2026, ce qui représente entre 100 et 250 euros d’aides financières mensuelles en moins pour se loger.

Étudiants étrangers : un durcissement des conditions d’accueil depuis 2018

Cette proposition s’inscrit d’abord dans la continuité de la politique d’attractivité sélective des étudiants internationaux consacrée dans le plan « Bienvenue en France » en 2018. Ce plan ambitionnait d’attirer 500 000 étudiants étrangers en 2027 en multipliant par quinze les frais d’inscription pour les étudiants extra-européens, passant de 178 euros à 2 770 euros pour une inscription en licence et de 254 euros à 3 770 euros pour celle en master.

Il s’agissait de remédier au déclassement de la France dans les rankings internationaux en développant une stratégie d’attractivité ciblée sur les étudiants internationaux solvables, c’est-à-dire ceux qui sont suffisamment fortunés pour ne pas faire reposer le coût de leur formation en France sur le seul financement public par l’impôt.

La suppression des APL pour les étudiants extra-européens non boursiers s’inscrit dans la même logique économique. Seuls ceux capables de financer le coût de leurs études, mais aussi leur logement, sont dès lors « bienvenus en France ». Ces mesures tendent donc à abandonner toute ambition d’accueil universaliste des étudiants internationaux dans les universités françaises.

Cette proposition s’inscrit ensuite dans la continuité du durcissement des conditions d’accès des étrangers à la protection sociale. En effet, lors des débats parlementaires concernant la loi Immigration du 25 janvier 2024, un article proposait d’instaurer une condition de séjour régulier de cinq ans en France pour bénéficier de certaines prestations sociales, ce qui incluait les APL. Mais le Conseil constitutionnel l’avait censuré pour des raisons procédurales.

Les parlementaires du groupe « Les Républicains » avaient alors fait une seconde tentative en déposant une proposition de loi référendaire reprenant la même proposition. Le Conseil constitutionnel avait cette fois-ci censuré la mesure sur le fond (Décision n° 2024-6 RIP du 11 avril 2024. Si ce dernier a rappelé qu’il est possible de conditionner l’accès à certaines prestations sociales à une durée de résidence, celle de cinq ans était disproportionnée au motif qu’elle portait une atteinte excessive aux droits fondamentaux à la protection sociale des étrangers résidant de manière régulière et stable en France.

En mars 2025, une troisième proposition de loi était donc déposée, visant cette fois à conditionner l’accès des étrangers à certaines prestations sociales à une condition de résidence de deux ans.

Un traitement différencié contraire au droit européen

Toutes ces propositions revendiquent un argument principal, celui de la théorie de l’appel d’air migratoire, à savoir que « l’accès immédiat aux prestations sociales constitue de fait un élément d’attractivité concernant la migration ». Non seulement aucune étude n’est venue étayer une telle théorie, mais aucun de nos partenaires européens n’a fixé de conditions d’antériorité de résidence aux étrangers pour bénéficier des aides au logement.

Surtout, lors de trois tentatives précédentes, les étudiants étrangers étaient exclus de leur application pour le bénéfice des APL. Si l’article 67 du projet de loi de finances était voté, il serait donc encore plus restrictif et instaurerait un véritable traitement différencié selon la nationalité et la durée de résidence des étrangers dans l’aide au logement.

Or, il existe des doutes sérieux quant à la légalité d’un tel traitement différencié, au regard de la Constitution française mais aussi par rapport aux règles du droit européen. En effet, la directive européenne sur le permis unique reconnaît que les nationaux et les étrangers titulaires d’un titre de séjour qui les autorise à travailler, ce qui inclut la carte de séjour pour motifs d’études, doivent bénéficier d’une égalité de traitement au regard des prestations sociales.

Des étudiants en situation précaire

Au-delà des questions juridiques, il faut rappeler que la situation sociale des étudiants étrangers est loin d’être particulièrement enviable, notamment dans le secteur du logement. Comme le souligne l’Observatoire de la vie étudiante, les étudiants de nationalité étrangère sont moins nombreux à toucher les APL que ceux de nationalité française (61 % contre 73 %).

Dans certaines régions de France, les étudiants extra-européens en mobilité internationale sont par ailleurs parfois exclus de l’accès aux résidences étudiantes du Crous. Ces derniers sont donc souvent contraints de se loger dans le parc locatif privé, dans lequel les prix sont plus élevés et les pratiques discriminatoires plus répandues. Ils n’ont alors souvent pas d’autres choix que de se loger dans des habitats précaires ou chez un tiers, ce qui les expose à diverses formes d’inégalités et de prédation, incluant le harcèlement et le chantage.

Le vote de l’article 67 contribuerait donc à renforcer la logique discriminatoire et la précarité résidentielle à laquelle sont déjà exposés les étudiants étrangers en France.

Plus globalement, la suppression des APL risque d’aggraver la précarité multidimensionnelle que connaissent ces étudiants. Ils figurent parmi les plus touchés par les difficultés financières : 40 % d’entre eux déclarent ne pas être en mesure de couvrir leurs besoins essentiels (alimentation, loyer, gaz ou électricité), contre 16 % des étudiants français. Par ailleurs, 30 % ont eu recours à l’aide alimentaire ou estiment qu’ils en auraient eu besoin, contre 8 % des étudiants français. Ils sont également davantage affectés par des problèmes de santé : 42 % d’entre eux présentent des signes de détresse psychologique, contre 35 % des étudiants français.

Un apport économique passé sous silence

Le témoignage des étudiants met en lumière un isolement accru, doublé d’une perception d’invisibilité et d’un enfermement dans une boucle inégalitaire, vouée à s’aggraver avec la suppression des APL. Or, toute cette précarité multidimensionnelle compromet la régularité de leur parcours académique et in fine leur réussite académique, alors même que les études constituent le motif principal de leur arrivée en France.

L’argument économique invoqué pour la suppression des APL interroge car la mesure n’a pas fait l’objet d’étude d’impact ni d’évaluation chiffrée des économies escomptées. À l’inverse, l’apport économique des étudiants étrangers en France est systématiquement passé sous silence, alors que leurs dépenses mensuelles moyennes du quotidien rapportent à l’État 2,8 milliards d’euros. En occupant des emplois, souvent précaires et en tension, ces étudiants cotisent par exemple aux caisses sociales, sans pouvoir toujours bénéficier des prestations chômage. De plus, la mesure risque de ne pas être applicable à de nombreuses nationalités en vertu des clauses d’égalité inscrites dans plusieurs accords bilatéraux signés avec des pays tiers, dont ceux du Maghreb.

À défaut d’argument économique, la proposition de supprimer les APL pour les étudiants extra-européens semble donc davantage relever d’une mesure idéologique que d’une mesure pragmatique. Or, cette instrumentalisation politique des étudiants étrangers risque de nuire à l’attractivité de l’enseignement supérieur français en décourageant certains étudiants de choisir la France, et d’aggraver encore plus leur précarité économique et sociale.

The Conversation

Marion Tissier-Raffin a reçu des financements publics de la Région Nouvelle-Aquitaine.

Hachem Benissa ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.12.2025 à 15:13

Is your dog or cat getting old? These simple gestures could help them live longer and happier lives

Sara Hoummady, DMV, PhD, Associate professor in ethology and animal nutrition, UniLaSalle
How can we support dogs and cats as they age? Practical advice from veterinary science specialists (nutrition, living arrangements, behaviours to watch out for, etc.).
Texte intégral (2681 mots)
As pets get older, their needs change. Ginger/The Conversation, CC BY-ND

Geriatric veterinary care is in great shape, with dogs and cats living on average 11.3 years, according to French data. Our knowledge of how to accompany them in later life is expanding fast. We now know that simple changes can do wonders for an old cat or dog’s comfort and quality of life. The main trick is for pet owners not to stand by idly as their four-legged companions’ age.

At what age can my dog or cat be considered old?

A study of over two million cats and four million dogs has enabled us to better define their different life stages.

Cats enter old age at around 10 years old. This period is then divided into mature, senior and super-senior stages.

The same study points out that it’s less uniform for dogs, for whom old age depends heavily upon size.

Small dogs (toy and small breeds weighing less than 9 kg, such as Chihuahuas or Cavalier King Charles Spaniels) enter their third age at around 7 years old, then become seniors at around 12 years old.

Medium to large dogs weighing more than 9 kg, such as Welsh Corgis, Golden Retrievers and Australian Shepherds, for example, reach this stage earlier: around 6.

Old golden retriever lying down
Even as a super-senior, this Golden Retriever can maintain a good quality of life. Nhung Le/Unsplash, CC BY

Not to panic, however: the new stage needn’t mean that the end is near. Rather, it may just be time to pay greater attention to your pet and to gradually adjust their environment, medical and care routine to help them age in the best possible conditions.

What is healthy ageing? How can you assess it in your pet?

But before we even talk about “healthy ageing”, it’s useful to recall what ageing is: a natural, gradual and inevitable process. Over time, animals become less tolerant of environmental stress and their cells accumulate damage, leading to various physiological changes.

So, what do we mean by a dog or cat ageing “in good health”? A recent consensus article in which I participated offers a definition adapted to our pets: an elderly animal in good health is one that retains sufficient capacity and resilience to meet its physical, behavioural, social and emotional needs, while maintaining a stable and positive relationship with its human.

Some signs are completely normal: greying hair, slight tartar build-up, thinner skin, and slightly duller senses–these bear no noticeable impact on quality of life.

gros plan cocker
Some physical changes are perfectly normal. Ava Tyler/Unsplash, CC BY

On the other hand, mobility issues that hinder access to resources (difficulty getting up, climbing stairs or interacting easily with you) should not be considered simply as signs of ageing. The same goes with the first signs of cognitive dysfunction (a syndrome that has some similarities with Alzheimer’s disease) when a dog or cat struggles to find its food bowl or seems lost in the house, for example. These cases call for veterinary advice.

Quality of life therefore becomes the central criterion for assessing whether an animal is ageing harmoniously. In dogs and cats, the concept of frailty, derived from human geriatrics, is now used (see table below).

How can you assess your pet’s frailty?**

Animals classified as frail are more prone to developing diseases and should be monitored more closely.

The major advantage of this approach is that, as in humans, frailty detected early can sometimes be mitigated. Hence the importance of regular screening and early support to best care for our elderly companions.

Some adjustments to be made

The first step is to make the animal’s environment more accessible so that it can easily reach all its resources: food, water, resting and hiding spots, contact areas, etc. A few props and adjustments can make a real difference, including small steps to climb onto the sofa, armchairs, firm and low cushions, or raised bowls for dogs and cats suffering from osteoarthritis, etc.

Beautiful ginger cat on a round cushion
High cushions or armchairs allow old pusses to tower over their domain. Ginger/The Conversation, CC BY-ND

Increasing the number of access points is also useful: two or three feeding areas, several places to sleep, and more litter trays that are easy to step over. Some commercial litter trays are too high for cats with osteoarthritis; a wide tray with a low rim can be much more comfortable.

Maintaining a calm and positive relationship is essential. Behaviour that is considered “undesirable” should always be investigated by a vet and a behaviourist (or a veterinary behaviourist): it may reflect a need, discomfort or difficulty. A cat that scratches the carpet rather than its scratching post, for example, may simply be looking for a less painful position. Some animals also become more anxious or reactive with age or certain medical conditions; it is therefore important to understand the cause rather than punish them, at the risk of damaging the relationship and failing to resolve the issue.

Cognitive and physical stimulation must continue, but adapted to the animal’s abilities. “Puzzle feeders” (or interactive bowls, where animals have to solve puzzles to get their food) are still useful, provided they are chosen according to the animal’s condition: a scratch mat or an interactive bowl that can be pushed by the nose are preferable to a system that requires complex leg movements. Games, learning and small training sessions are still beneficial; sometimes it is enough to shorten the sessions and use very enticing rewards (think small pieces of chicken breast or sausage, etc.).

Dog in a bag
Carriers are a great way for older pets to get fresh air. Treddy Chen/Unsplash, CC BY

Walks can be adapted, in particular by using comfortable and safe bags to carry the dog when it is too tired, either for part or all of the walk. The important thing is to continue to give the animal access to the outdoors.

Finally, diet is key when caring for older animals. Ageing leads to changes in digestion and a gradual loss of muscle mass. It is therefore recommended to choose a diet that is easily digestible, has a smell and taste that appeal to your pet, and is specifically formulated for the needs of senior animals. Raw meat should be avoided: it’s often unbalanced in terms of minerals, which can be harmful to older animals, who are particularly sensitive to excess phosphorus or inappropriate calcium/phosphorus ratios. They also present an increased health risk, as their immune systems are less effective.

On the other hand, combining dry food (kibble) and wet food (terrine, mousses, etc.) is often beneficial. A cooked, homemade meal (following the advice of a vet) can also help an animal regain its appetite. And for the fussiest eaters, a simple trick may suffice: warm the wet food slightly to enhance its smell and make it more appealing.

When should you see your vet?

Regular vet check-ups are still essential, particularly to keep up to date with vaccinations and worming. Ageing weakens the immune system, making senior animals more vulnerable and requiring regular protection against infectious diseases and parasites.

Geriatric consultations aim to monitor the ageing process, which is unique to each individual. The first consultation is often the longest to allow for an in-depth discussion and include additional tests where necessary. These initial findings will serve as a reference for follow-up visits. Ideally, this monitoring should begin at the start of the third age. The frequency of consultations then depends on the animal’s trajectory: every six months if signs of frailty appear, or once a year if its condition remains stable.

The challenge is no longer just to extend the lifespan of our furry friends, but to, above all, prolong their health. After all, we want them to enjoy it as long as possible, much as we would for humans.

The Conversation

Sara Hoummady is a member of AFGASP (French Association of Animal Geriatrics and Palliative Care). She received a grant from the FVE (European Veterinary Federation) for her work on feline ageing. She was part of a committee set up by a pet food manufacturer to discuss healthy ageing in dogs and cats.

16.12.2025 à 15:11

La pertinence des chiffres en question : l’exemple du coût d’une journée d’hospitalisation

Laurent Mériade, Professeur des universités en sciences de gestion - Agrégé des facultés - IAE - CleRMa, Université Clermont Auvergne (UCA)
Pas un jour ne passe sans que l’on ne soit bombardés de chiffres, le plus souvent auréolés d’une autorité indiscutable. Que se cache-t-il derrière ces chiffres ?
Texte intégral (2318 mots)

Dans les journaux, à la télévision ou au Parlement, des chiffres sont souvent sortis comme des arguments irréfutables. Mais de quoi parlent les chiffres ? Le pouvoir magique qui leur était associé il y a plusieurs siècles a-t-il complètement disparu ? Un chiffre est-il toujours incontestable ? Une réflexion encore plus indispensable à l’heure de l’IA toute-puissante.


Dépenses de santé, émissions de gaz à effet de serre, aides publiques aux entreprises, taux de délinquance, coût de la dette, de la fraude fiscale, du système de retraite, des aides sociales… Les dirigeants usent et souvent abusent de chiffres pour justifier leurs décisions ou encore leurs manières de faire ou, parfois, de ne pas faire.

En ce moment, à l’occasion de la discussion de la loi de finances pour 2026 au Parlement, nous assistons tous les jours à des batailles de « chiffres » entre parlementaires. Cependant, peut-on réellement s’y fier ? Et quelles significations leur accorder ?

Des chiffres à la valeur symbolique

Les mathématiciens attribuent, depuis l’époque mésopotamienne (environ 3000 av. notre ère) trois principales significations aux chiffres : économique, idéologique et mystique.

Les tablettes d’argile cunéiforme retrouvées à cette époque représentent à 80 % des textes administratifs de nature d’abord économique comportant principalement des données chiffrées. Il peut s’agir des dimensions d’un champ ou d’une maison, des rations de nourriture, des effectifs de soldats d’une armée, ou encore les volumes d’un stock.


À lire aussi : La gouvernance par les nombres ne façonne-t-elle pas trop les politiques publiques ?


Les nombres remplissaient aussi un rôle idéologique, notamment en fonction de leur importance. On peut citer le nombre 3 600 qui signifie à la fois « totalité » et « innombrable ». Les chiffres pouvaient également posséder une signification mystique. Les anciens Mésopotamiens associaient certains nombres à des divinités. Par exemple, on utilisait ou insérait le 15 (associé à la déesse de l’amour et de la guerre, Ishtar) pour montrer la puissance du nombre.

Un chiffre, trois dimensions

D’une manière étonnamment similaire à celle des Mésopotamiens, de nos jours, les gestionnaires considèrent aussi que leurs matières premières que représentent les chiffres sont à la fois le résultat d’une technique de calcul, d’une philosophie, et d’une représentation de la réalité. Cette signification en trois dimensions qui jalonne l’histoire des chiffres pousse à analyser plus en détail les manières dont ces chiffres (ou nombres) sont produits, alors même que nous disposons de peu d’outils pour évaluer la valeur scientifique de ces chiffrements.

Dans l’un de nos derniers articles, nous montrons que la valeur scientifique de ces chiffrements provient avant tout de leur pertinence, qui correspond à une mesure de l’utilité d’une réponse. Elle est une indication de l’importance de cette réponse pour un objectif important. Les chiffres pertinents sont ceux étroitement liés à un problème et les ignorer modifierait le problème.

Globalement, les travaux en gestion ou en économie retiennent trois formes de pertinence – pratique, théorique, sociétale – souvent rattachées aux vertus intellectuelles d’Aristote :

  • la pertinence pratique correspond à l’utilité d’un chiffre pour une question ou un problème particulier (la techne aristotélicienne) ;

  • la pertinence théorique correspond à la connaissance intellectuelle produite par ce chiffre (l’episteme) ;

  • la pertinence sociétale ou sociale correspond au savoir pratique commun produit (la phronesis).

L’étude de la pertinence des chiffres consiste souvent à interroger les utilisateurs de ces chiffres. Il est cependant difficile de juger de cette pertinence pour le plus grand nombre, car leurs utilisateurs les communiquent souvent en fonction de leurs propres subjectivités et intérêts particuliers.

La part invisible des chiffres

À travers l’analyse de la production des chiffres des dépenses et coûts hospitaliers en France, nous montrons que les pertinences pratique, théorique et sociétale des chiffres sont avant tout déterminées par leurs méthodes de calcul. Ces méthodes sont souvent la partie invisible des chiffres.

En France, par exemple pour l’année 2023, les coûts hospitaliers totaux annuels (publics et privés) étaient évalués environ à 100 milliards d’euros dans l’Objectif national de dépenses d’assurance maladie (Ondam) voté par l’Assemblée nationale, 122 milliards d’euros par la Direction de la recherche, des études, de l’évaluation et des statistiques (Drees) et à 248 milliards d’euros par l’Institut national de la statistique et des études économiques (Insee).

Ces dépenses hospitalières sont dépendantes du coût d’une journée d’hospitalisation. En France, depuis la réforme de la tarification à l’activité (T2A), les frais d’hospitalisation sont, pour une partie, remboursés aux établissements hospitaliers selon un tarif moyen du séjour du patient (tarif à l’activité dont la méthode de calcul est, elle aussi, très contestable). Pour l’autre partie (reste à charge), ils sont facturés aux usagers ou à leur mutuelle par journée de présence du patient dans l’hôpital. Pour l’Agence technique de l’information sur l’hospitalisation (ATIH), le coût moyen d’une journée d’hospitalisation dans un hôpital public français est environ de 700 euros, mais il est de 600 euros dans les services de médecine, 950 euros dans les services de chirurgie et environ de 2 000 euros en soins intensifs.

Le juste prix de l’hospitalisation existe-t-il ?

Cette journée d’hospitalisation est facturée aux patients ou à leurs caisses d’assurance maladie en moyenne 1 400 euros dans un service de médecine, mais elle est facturée en chirurgie en moyenne 1 700 euros et en moyenne 3 000 euros en soins intensifs. Pour le cabinet EY, en 2025, ce coût d’une journée d’hospitalisation est encore différent. Il est en moyenne de 873 euros en médecine et de 365 euros dans un service de soins et de réhabilitation (SSR).

Comme le dénonçait le député (et médecin) Cyrille Isaac-Sibille lors d’une récente commission des affaires sociales de l’Assemblée nationale : « Plus personne ne sait évaluer les dépenses de santé ! »

La pertinence des méthodes de calcul avant celle des chiffres

Dans notre étude, nous montrons que la fiabilité des chiffres produits provient avant tout de la pertinence de leur méthode de calcul. Pour cela, dans un groupe de travail constitué de gestionnaires, de chefs de service, de cadres de santé et de médecins d’un centre français de lutte contre le cancer chargés de l’analyse des chiffres produits dans cet établissement, nous identifions que la pertinence de la méthode de calcul du coût d’une journée d’hospitalisation peut être mesurée par quatre principaux critères : causalité, traçabilité, exhaustivité et représentativité (ou CTER model).

  • La causalité consiste à comprendre et à expliquer l’origine des chiffres calculés c’est-à-dire la force du lien entre le chiffre calculé et ses éléments de calcul. Par exemple, dans le cas des coûts d’une journée d’hospitalisation, s’assurer du lien entre le chiffre calculé et les principaux déterminants de ce chiffre : nombre ou temps de personnel de santé présents près du patient dans une journée, durée du séjour, coût d’un repas, nombre et coût des prises médicamenteuses ou des actes d’imagerie, etc.

  • La traçabilité permet de s’assurer de la fiabilité des informations de calcul et de leur possibilité de recueil. Par exemple, pour le calcul du coût d’une journée d’hospitalisation, être certain de pouvoir recueillir des informations fiables concernant la durée exacte d’un séjour hospitalier, le coût d’un repas pris durant ce séjour, le coût exact d’un acte d’imagerie médicale, le nombre de médicaments pris et leurs coûts, etc.

  • L’exhaustivité de la méthode est déterminée par le niveau de détail des informations utilisées pour calculer un chiffre. Si pour calculer le chiffre final on utilise des calculs de moyennes (par exemple, les durées moyennes de séjour pour le coût d’une journée d’hospitalisation), l’exhaustivité est faible. Si l’on utilise des éléments spécifiques (par exemple, la durée spécifique de chaque séjour hospitalier), l’exhaustivité est plus importante. Plus on utilise des éléments de calcul spécifiques et détaillés plus l’exhaustivité est grande. Plus on utilise des valeurs moyennes ou médianes, moins l’exhaustivité est grande.

Le respect de ces trois premiers critères permet de s’assurer de la précision des chiffres produits. On peut considérer qu’un chiffre est imprécis s’il ne respecte pas, ou s’il ne le fait que partiellement, ces trois principes.

  • Enfin, la représentativité évalue le rapport entre le chiffre calculé et les valeurs représentées par ses éléments de calcul. Elle détermine le nombre de valeurs (économique, sociale, sociétale, éthique, etc.) que ces éléments de calcul peuvent illustrer et permettre de gérer. Si le chiffre est calculé à partir d’éléments uniquement économiques (par exemple le coût d’un repas, d’une imagerie ou d’une heure de personnel), la représentativité est faible. En revanche, si le calcul d’un chiffre mobilise également des éléments techniques (la durée exacte du séjour, le nombre de kg de linge utilisés, de repas pris, d’imageries médicales, des personnels mobilisés ou de médicaments prescrits) qui nous informent sur les valeurs sociales, sociétales ou éthiques d’une journée d’hospitalisation alors, la représentativité est plus importante et la méthode de calcul est jugée plus pertinente.
Xerfi Canal, 2022.

Développer des outils de vérification

Face aux flux de données chiffrées que l’on reçoit tous les jours, il parait essentiel de vérifier la pertinence des méthodes de calcul avant celle des chiffres qu’elles produisent. La mobilisation des quatre critères de pertinence des méthodes de calcul produits par nos travaux (CTER) peut permettre de concevoir cette justification. Dans la plupart des situations, cela devrait être à l’utilisateur de ces chiffres (celui qui les communique) de justifier un ou plusieurs de ces critères (a minima la causalité ou la traçabilité).

Mais on pourrait également imaginer le développement de dispositifs ou outils de vérification de ces critères de pertinence des méthodes de calcul à l’image du fact-checking qu’opèrent déjà des sites d’information spécialisés sur les chiffres communiqués ou utilisés (AFP Factuel, Le vrai ou faux de France Info, Désintox d’Arte). En intégrant ces critères dans leurs algorithmes, les outils d’intelligence artificielle (IA) peuvent être également un précieux recours dans ces opérations de vérification des méthodes de calcul avant celles des chiffres.

The Conversation

Laurent Mériade a reçu des financements de l'Agence nationale de la recherche (ANR) et de l'Union Européenne (FEDER) pour mener ses travaux de recherche notamment dans le cadre de la chaire de recherche "Santé & Territoires" de l'Université Clermont Auvergne dont il est co-titulaire.

16.12.2025 à 15:11

L’ultra-trail, entre recherche de performance et quête intérieure

Olivier Bessy, Professeur émérite, chercheur au laboratoire TREE-UMR-CNRS 6031, Université de Pau et des pays de l’Adour (UPPA)
L’ultra-trail, qui implique de courir au moins 80 kilomètres, fascine et séduit un public toujours plus nombreux. Que recherchent ces coureurs de l’extrême ?
Texte intégral (1855 mots)

L’ultra-trail, qui implique de courir au moins 80 kilomètres, fascine et séduit un public toujours plus nombreux. Que recherchent les coureurs dans cette course faite d’efforts prolongés et de longues traversées intérieures ?


Au sein des pratiques du trail (marche-course sur sentier), l’ultra-trail se détache de manière singulière depuis les années 1990-2000. Cette discipline va révolutionner la course à pied en milieu naturel en un quart de siècle, en proposant une offre croissante et en répondant aux attentes de toujours plus de coureurs en quête d’extrême et d’ailleurs. Mais plus que le nombre relatif d’ultra-trails organisés et d’ultra-traileurs recensés, c’est bien l’imaginaire associé à cette pratique qui contribue à son engouement actuel, en dépassant l’univers des adeptes et en attirant les médias.

Vivre un ultra-trail est devenu le nec plus ultra pour une certaine frange de la population, car cette discipline incarne en les hybridant les imaginaires de performance, d’aventure, de quête de soi, de solidarité et de nature.

Les trois grands événements pionniers en témoignent. L’ultra-trail du Mont-Blanc (UTMB) bat chaque année le record de demandes d’inscriptions (75 000 demandes en 2025) et de personnes présentes dans l’espace Mont-Blanc pendant la semaine de l’événement (100 000 personnes), sans oublier le nombre considérable de spectateurs en ligne sur Live Trail. Il en est de même pour Le Grand Raid de La Réunion qui a aussi atteint cette année des sommets de fréquentation (7 143 inscrits pour 60 000 demandes) dont 2 845 inscrits pour la mythique Diagonale des fous. Les Templiers qui se disputent dans les Causses autour de Millau (Aveyron) complètent le trio mythique. En 2025, on dénombre 15 000 coureurs inscrits (pour 90 000 demandes) dont 2 800 au Grand Trail des Templiers, la course reine et 1 500 à l’Endurance ultra-trail.

Mais pourquoi tant de personnes choisissent de réaliser des efforts aussi extrêmes ? Nous avons cherché à le comprendre en réalisant une centaine d’entretiens et 300 micro-questionnaires auprès de participants à la Diagonale des Fous et à l’UTMB entre 2021 et 2024.

Le paradigme de l’hypermodernité

Au tournant des années 1980-1990, la société hypermoderne valorise la recherche de la performance, l’intensification de son mode de vie et la mise en spectacle de soi-même.

Le culte de la performance est devenu le modèle dominant de production de son existence : chacun est invité à explorer ses limites, à faire la preuve de son excellence et à s’inventer. La pratique de l’ultra-trail répond au culte inquiet du « moi performant » pour reprendre l’expression de Jean-Jacques Courtine qui traverse les sociétés occidentales en se différenciant du « moi soumis » et fait écho à la généralisation de « l’héroïsme de masse ».

L’ultra-traileur aime vivre des sensations extrêmes en se confrontant à des situations inhabituelles aux confins de ses possibilités. Il aime gérer l’imprévisible et flirter symboliquement avec la mort afin de réenchanter sa vie. L’ultra-trail compense un quotidien trop monotone et se révèle comme antidote à une identité défaite. Vivre ne suffit plus, il faut se sentir exister.

La mise en spectacle de soi complète ce tableau. L’ultra-traileur recherche généralement une scène inégalée de visibilité de son exploit. Plus c’est dur, plus il pense devenir un héros aux yeux des autres et pouvoir en retirer des bénéfices à fort rendement symbolique sur les réseaux sociaux et la scène de la vie sociale. C’est l’individu qui devient le théâtre premier d’exploration, objet-sujet d’expérience.

Ce paradigme est gouverné par une logique d’accélération propre à l’économie capitaliste mondialisée qui demande à chacun d’optimiser ses ressources pour gagner en efficacité, en engageant une course contre le temps, en ayant recours aux dernières innovations technologiques mais aussi en adoptant de manière croissante des conduites dopantes. Ces dernières sont observables dans la prise d’anti-inflammatoires non stéroïdiens (AINS) qui sont consommés dans le but de maximaliser les chances de relever le défi engagé, alors qu’il s’agit de médicaments qui peuvent être néfastes pour la santé en situation d’effort extrême.

Eddy, 42 ans, Parisien et cadre supérieur dans une grande entreprise témoigne :

« Se mesurer à la Diagonale des Fous, il n’y a pas mieux pour se prouver qu’on est encore capable de réaliser des choses intenses. C’est un défi de l’extrême et du courage qui me convient parfaitement, car tu te fixes un temps et tu cherches à performer par tous les moyens pour le réaliser. »

Le paradigme de la transmodernité

Face à ces excès d’existence et aux nouveaux enjeux sociétaux, une autre forme culturelle émerge durant la décennie 2010 : la transmodernité telle que la nomme la philosophe Rosa-Maria Rodriguez Magda. Inspirée par les travaux des sociologues Edgar Morin et Hartmut Rosa, elle fait cohabiter deux modèles : celui ancien mais toujours actif du technocapitalisme et celui émergent de l’écohumanisme. La transmodernité renouvelle la vision de l’habiter notre monde en hybridant les modèles de référence. La quête de sens devient alors centrale pour réguler cette tension contemporaine en cherchant à fabriquer de la cohérence dans nos modes de vie. L’écohumanisme s’observe dans les signes ténus d’un nouvel art de vivre visible dans un nouveau rapport à soi et au temps, un nouveau rapport aux autres et à l’environnement.

Un nouveau rapport à soi et au temps s’instaure dans la mesure où l’expérience ultra-trail s’inscrit sur un continuum allant de la recherche de la performance à la quête intérieure et alternant moments d’accélération et de décélération. Courir un ultra-trail s’inscrit dans une temporalité longue qui favorise les moments de décélération propices à « l’entrée en résonance ». Cette approche est reprise par le sociologue Romain Rochedy qui analyse l’ultra-trail « comme un espace de décélération ».

D’après mes recherches, un nouveau rapport aux autres se manifeste aussi. Si l’ultra-traileur s’enferme souvent dans sa bulle pour aller le plus vite possible ou continuer simplement à avancer, il est aussi de plus en plus soucieux de partager des moments de solidarité, d’émotion et de communion collective. Participer à un ultra-trail permet en effet de tisser des liens sociaux favorisés par l’effacement de la personne au profit du langage du corps et de l’expérience collective vécue qui transcendent les différences.

Un nouveau rapport à la nature apparaît enfin. Dans leur pratique, les ultra-traileurs alternent la domestication d’une nature considérée comme une adversaire et l’immersion dans une nature enveloppante représentée comme une partenaire. La pratique de l’ultra-trail peut être appréhendée comme une plongée dans les profondeurs de « la » et de « sa » nature car elle offre à chacun la possibilité de se construire un rapport intime entre « le faire avec » et « l’être avec » la nature.

Éric, 48 ans, Toulousain et kinésithérapeute déclare :

« Chaque ultra-trail auquel je participe, je le vis comme une introspection. Je suis à l’écoute de mon corps. Je prends mon temps afin de le déguster à la recherche d’émotions particulières. Je tisse des relations privilégiées avec les autres coureurs et la nature. Toutes ces épreuves favorisent des trajectoires individuelles qui constituent au final un tout collectif. C’est un moment de cohésion sociale qui n’est pas courant. »

Un laboratoire sociétal

L’ultra-trail reflète les paradoxes de notre époque tiraillée entre deux paradigmes : l’accélération hypermoderne et la décélération transmoderne. Participer à ce type d’épreuve renforce le sentiment d’identité pour des personnes en quête de repères plus consistants, comme si l’exploration de ses limites physiques venait remplacer les limites de sens que ne donne plus l’ordre social. Il s’agit alors de reprendre en main son destin, de tisser un fil qui relie le soi réel à un soi possible admirable.

L’ultra-trail devient ainsi une métaphore de notre époque, car il symbolise l’ambivalence des modèles de référence mobilisés. Cette pratique permet à chaque postulant de sortir de soi en allant au-delà de ses repères habituels et en revenir pour être davantage résilient par rapport aux affres de la vie. Elle rime alors avec une forme de renaissance. C’est pourquoi la quête de l’ultra est si forte aujourd’hui.


Olivier Bessy est l’auteur de Courir sans limites. La révolution de l’ultra-trail (1990-2025) (Outdoor éditions, 2025).

The Conversation

Olivier Bessy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.12.2025 à 14:39

De Neropolis à Trumptown, l’ambivalence des dorures

Matthieu Poux, Professeur des universités en Archéologie romaine et gallo-romaine, Université Lumière Lyon 2
Dans l’histoire comme dans les mythes, les exemples de monarques outranciers dont les palais dorés masquent mal l’autoritarisme sont légion.
Texte intégral (2301 mots)

En matière d’architecture comme d’ébénisterie, les dorures ont pour principale fonction de rehausser l’éclat des constructions ou du mobilier afin de manifester l’opulence de leurs propriétaires. Mais quand le temps fait son œuvre, elles acquièrent une nouvelle vertu : masquer leur décrépitude.


Bien avant les fastes de Versailles, symptôme paradoxal des failles de l’Ancien Régime qui l’ont mené à son déclin, le double usage des dorures prévalait déjà sous l’Empire romain. Au début des années 20 avant notre ère, Auguste, premier empereur de Rome, a triomphé de tous ses ennemis, au sénat comme sur les champs de bataille. Parvenu au faîte d’un pouvoir sans partage, au terme d’un siècle de guerres civiles et sociales, il proclame l’avènement d’une nouvelle ère de paix et de prospérité : l’âge d’or (aurea aetas), ou siècle d’or (saeculum aureum), censé marquer le retour aux temps heureux, insouciants et prospères de la Rome des origines.

Du sol au plafond

Cette nouvelle propagande distillée par les poètes de cour (Horace, Virgile, Ovide…) se traduit aussi par un programme de constructions monumentales sans précédent. Forums, édifices de culte, de spectacle et de loisir se multiplient à Rome comme dans toutes les provinces de l’Empire. Leur décoration sculptée ou peinte célèbre les mythes des origines, la nature exubérante et… l’or sous toutes ses formes : lettres dorées, apposées au fronton des nouveaux temples dédiés à l’empereur, statues revêtues de feuilles d’or, jusqu’aux stucs et boiseries des palais impériaux, sont la marque visible d’une richesse recouvrée et inépuisable, tirée du butin et des nouveaux territoires arrachés par Auguste à l’ennemi intérieur et extérieur.

Son lointain successeur Néron, dernier empereur de la dynastie julio-claudienne, portera ce message au paroxysme. Son somptueux palais de plusieurs dizaines d’hectares, construit sur les ruines fumantes de Rome incendiée en 65 de notre ère, était selon le biographe Suétone entièrement décorée de marbres, de peintures, de stucs et de boiseries dorés à la feuille d’or et incrustés de pierreries. Une débauche de moyens déployés du sol au plafond, qui lui a valu le nom de « Maison dorée » (Domus aurea).

La Domus aurea ou Maison dorée est un immense palais impérial de la Rome antique, construit pour Néron, qui couvrait une partie importante de Rome intra muros sur plusieurs dizaines d’hectares. Matthieu Poux, Fourni par l'auteur

L’indécence de ce Versailles avant la lettre a défrayé la chronique de l’époque, qui prête à Néron l’intention de rebaptiser Rome Neropolis (ville de Néron) et fait naître le soupçon qu’il serait responsable de l’incendie lui-même. Le martyre infligé à une petite communauté d’origine juive, qui se reconnaissait sous le nom de chrétiens, vient opportunément détourner l’attention.

Son propriétaire n’en jouira pas longtemps, puisqu’il est assassiné quelques années plus tard, à la faveur de l’une de ces révolutions de palais qui avaient déjà révélé, sous Caligula, la relative précarité d’un pouvoir impérial qui se voulait absolu. Ses opposants tirent profit d’une conjoncture économique dégradée, souffrant de la fragilité des importations alimentaires, d’un système fiscal inégalitaire et d’une confusion de plus en plus criante entre les finances de l’État et la cassette personnelle de l’empereur. Instabilité politique, explosion des dépenses et dévaluations monétaires annoncent déjà la chute d’un Empire fortement dépendant de son expansionnisme forcené, qui prendra fin une trentaine d’années après la chute de Néron.

Du Neropolis à Trumptown

Le parallèle est facile avec le nouvel « âge d’or » (American Golden Age) proclamé par Donald Trump à la face de l’Amérique. Une référence au Gilded Age (« période dorée »), correspondant à la période de prospérité et de reconstruction consécutive à la guerre de Sécession dans le dernier tiers du XIXᵉ siècle, incarnant sa volonté de mettre un terme aux dissensions politiques et aux difficultés économiques du pays. Ou bien plutôt, une forme de wishful thinking (pensée magique) qui, si l’on en croit les indicateurs, peine encore à se traduire dans les portefeuilles ou dans les sondages.

Quant à sa traduction matérielle, elle ne peut manquer d’interpeller archéologues et historiens de l’Antiquité. Depuis le come-back inattendu de Trump début 2025, l’or a envahi le bureau Ovale et les couloirs de la Maison Blanche : inscriptions, encadrements de tableaux et de portes, moulures, appliques, rideaux… jusqu’aux parasols ornant la terrasse bétonnée qui a remplacé le Rose Garden cher à Jackie Kennedy. L’emblématique East Wing construite par Franklin Roosevelt n’est pas épargnée, qui fera bientôt place à une gigantesque salle de bal dorée du sol au plafond, inspirée de celle qui orne la résidence personnelle de Trump à Mar-a-Lago en Floride.


À lire aussi : Grands travaux et démesure : Trump réinvente la Maison Blanche


La frénésie édilitaire du président réélu va jusqu’à planifier la construction, avant le 4 juillet 2026, d’un arc de triomphe dans la droite lignée de Napoléon… et d’Auguste, à qui l’on doit le premier arc de triomphe en pierre érigé à Rome.

En moins d’un an, l’or sur fond blanc est devenu la marque de reconnaissance de la présidence Trump et en constituera, à n’en pas douter, l’empreinte archéologique, avec ses projets immobiliers et « d’embellissement » démesurés à plusieurs centaines de millions de dollars, dans une Amérique dont le taux d’endettement dépasse les 120 % du PIB et où un dixième de la population vit toujours sous le seuil de pauvreté.

Le syndrome de Midas

Ce cadre étincelant suffira-t-il à masquer les velléités totalitaires d’un exécutif qui, bien que légitimement élu, est marqué depuis un an par une soumission rampante du Sénat, de la Chambre des représentants, des forces armées et militaires ? à occulter une précarité économique devenue la principale cause de l’impopularité croissante du locataire de la Maison Blanche ? Les prochaines échéances électorales – à supposer qu’elles puissent se tenir dans des conditions normales – fourniront un premier élément de réponse. Si de nouveaux boucs émissaires ont déjà été désignés, pour détourner l’attention de cette confusion croissante entre intérêts publics et privés, les palais dorés ont rarement pour vertu d’apaiser la révolte populaire.

Et dans l’histoire, comme dans les mythes, les exemples sont légion de ces monarques outranciers qui, de Midas à Néron, se sont distingués par leur faculté à transformer l’or en plomb.

Statue équestre de Marc Aurèle en bronze doré, musées du Capitole, Rome. Wikimeédia, CC BY

Comparaison n’est certes pas raison et Washington apparaît bien éloignée de Rome. On aurait pourtant tort d’y voir une simple analogie formelle, dont l’anachronisme ferait l’impasse sur la nature radicalement différente des sociétés antique et contemporaine. De fait, deux siècles de démocratie pèsent peu face aux cinq siècles d’existence de la République romaine.

Le génie d’Auguste a consisté à imposer à son peuple un nouveau régime d’essence monarchique et totalitaire (le principat), tout en préservant en façade le maintien des institutions républicaines (sénat, comices, magistratures civiles et religieuses…). Si son succès s’appuie sur une forme de consensus, il doit plus encore à une propagande omniprésente véhiculée par la littérature, les images et de simples ornementations dont on aurait tort, aujourd’hui, de minimiser le pouvoir insidieux.

L’histoire ne lui donnera pas tort, puisque son empire lui survivra pendant près de quatre siècles avant que l’aggravation de la situation politique, économique et migratoire par ses héritiers ait définitivement raison des fastes de l’âge d’or. Pour autant, les soubresauts et renversements dynastiques qui émaillent les premières décennies de l’Empire romain en ont tôt fait apparaître les craquelures. Nul ne peut nier qu’elles fracturent déjà l’Amérique de Trump, dont les frasques évoquent de plus en plus celles d’un Néron – un homme de spectacle, lui aussi ! Cette leçon dispensée du fond des âges n’a pas forcément vocation à voir l’histoire se répéter. Mais elle offre une grille de lecture pour tenter de comprendre et d’anticiper le monde qui vient.

The Conversation

Matthieu Poux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.12.2025 à 14:37

80 ans de la Sécurité sociale : revenir à l’esprit fondateur pour couvrir davantage de risques

Philippe Batifoulier, Professeur d'économie / CEPN (UMR 7234 CNRS), Université Sorbonne Paris Nord
Nicolas Da Silva, Maître de conférences en économie de la santé, Université Sorbonne Paris Nord
La Sécurité sociale couvre différents secteurs (maladie, accident du travail, retraite, famille, perte d’autonomie) et pourrait servir de modèle, par exemple à une Sécurité sociale climatique, ou encore de l’alimentation.
Texte intégral (2476 mots)

La Sécurité sociale couvre aujourd’hui différents secteurs (maladie, accident du travail, retraite, perte d’autonomie, famille) grâce à ses différentes caisses. Malgré le recul de certains droits sociaux, cette institution, née de la Résistance, reste résolument moderne. Elle pourrait même servir de modèle de protection sociale face à d’autres risques, par exemple ceux dûs au dérèglement climatique ou à l’insécurité alimentaire.


L’année 2025 est l’occasion de nombreuses manifestations visant à célébrer les 80 ans de la Sécurité sociale. Les ordonnances des 4 et 19 octobre 1945 marquent une étape importante de l’histoire de France.

Dans son article 1, l’ordonnance du 4 octobre dispose que :

la Sécurité sociale est « destinée à garantir les travailleurs et leurs familles contre les risques de toute nature susceptibles de réduire ou de supprimer leur capacité de gain, à couvrir les charges de maternité et les charges de famille qu’ils supportent. »

Née de la Résistance

Si les ordonnances d’octobre 1945 fournissent un point focal, elles ne sont que de l’encre sur du papier et il faut à la fois tout un processus pour en arriver là et toute une énergie pour que la loi se traduise concrètement par des droits sociaux.

Ce processus passe par l’adoption, le 15 mars 1944, du programme du Conseil national de la Résistance (CNR) initialement baptisé « Les jours heureux », qui prévoit un « plan complet de sécurité sociale, visant à assurer à tous les citoyens des moyens d’existence dans tous les cas où ils sont incapables de se le procurer par le travail. »

La date est importante et montre que la Sécurité sociale s’inscrit dans un mouvement de résistance non seulement face à l’occupant mais aussi face à un pôle collaborateur qui promeut sa propre conception de la protection sociale – la France de Vichy.

L’énergie est celle de ceux qui ont construit des caisses primaires de sécurité sociale à partir du 1er juillet 1946. Il ne suffit pas de décréter des droits. Il faut les organiser, il faut des lieux où les assurés vont pouvoir les faire valoir. C’est sous l’impulsion du ministre communiste Ambroise Croizat et du haut fonctionnaire Pierre Laroque, révoqué par Vichy parce juif, que vont se mettre en place les guichets de sécurité sociale.

Face au refus de participation de la Confédération française des travailleurs chrétiens, ce sont essentiellement les militants de la Confédération générale du travail qui construisent les caisses de sécurité sociale.

Cinq risques couverts : vieillesse, maladie, maternité, décès et invalidité

Les assurances sociales existaient avant 1945, en particulier avec les lois de 1928-1930 qui promulguent une protection obligatoire des salariés de l’industrie et du commerce dont le salaire est inférieur à un plafond. Un financement par le biais d’une cotisation obligatoire représentant 8 % du salaire et payée, en part égale, par l’employeur et par l’employé est mis en place.

Il repose également sur l’identification de cinq risques : la vieillesse, la maladie, la maternité, le décès et l’invalidité. À ces lois s’ajouteront une loi sur les allocations familiales en 1932 et une loi sur les retraites en 1941 qui instaure le régime de retraite par répartition ainsi que le minimum vieillesse. La Sécurité sociale hérite de cette histoire. Mais toute la population n’est pas couverte du fait du mécanisme de plafond d’affiliation (qui exclut les salariés les mieux rémunérés) et de la variété des statuts hors salariat.

Le régime général, une institution révolutionnaire

L’innovation majeure de 1945 est la création du régime général (RG) qui est une institution révolutionnaire. Sa radicalité s’incarne par la création d’une caisse unique (pour tous les travailleurs et tous les risques sociaux), une cotisation sociale interprofessionnelle à taux unique alors qu’elle dépendait auparavant de l’entreprise, et une gestion de la Sécurité sociale par les « intéressés », c’est-à-dire les salariés cotisants. Cette organisation confère donc aux salariés eux-mêmes la gestion de l’institution (en majorité face au patronat aussi représenté dans les caisses).

La Sécurité sociale n’est pas une institution étatique et reste encore une institution de droit privé qui remplit une mission de service public. L’État est mis à distance notamment parce qu’une majorité de parlementaires a voté les pleins pouvoirs à Pétain. Tous les grands corps sont discrédités, en particulier le patronat qui s’est compromis avec l’occupant nazi. La gestion du budget de la Sécurité sociale est confiée aux résistants, les travailleurs.

Dès 1946, le régime général est une bataille et doit faire face à de nombreux opposants. Les gestionnaires ouvriers sont mis en procès pour mauvaise gestion des comptes et les débats du Parlement en 1946 révèlent que les arguments contre la « Sécu » n’ont pas changé : les cotisations freinent la compétitivité des entreprises (à l’époque, c’est la concurrence japonaise qui était visée), les assurés fraudent les prestations, seuls les plus pauvres doivent être ciblés par la « Sécu » et il faut laisser les autres s’assurer comme ils l’entendent, etc.

L’étatisation de la Sécurité sociale

L’État, qui n’a jamais réellement disparu en gardant la main sur le niveau des cotisations et de certaines prestations, va progressivement reprendre le pouvoir sur les intéressés et transformer la Sécurité sociale en une agence d’État.

Cette étatisation s’incarne dans quatre processus fondamentaux :

  1. La gestion par les intéressés qui est l’innovation majeure de 1945–1946 se traduisait par des conseils d’administration des caisses primaires constitués de trois quarts de représentants syndicaux et un quart de représentants patronaux. La réforme Jeanneney de 1967 introduit un paritarisme et donne le même nombre de sièges aux organisations patronales. Cette réforme met fin aussi au principe de la caisse unique en créant trois caisses au sein du régime général, celles que nous connaissons aujourd’hui : la Caisse nationale d’assurance maladie ou CNAM (vouée aux maladies et accidents du travail), la Caisse nationale d’assurance vieillesse ou CNAV (qui concerne la retraite) et la Caisse nationale des allocations familiales ou CNAF (plus couramment appelée la CAF, en charge de la famille). La Caisse nationale des solidarités pour l’autonomie ou CNSA est venue se rajouter en 2021.

  2. Depuis le plan Juppé de 1995, le Parlement vote chaque année le budget de la Sécurité sociale. Les prestations sociales et notamment les dotations hospitalières sont tributaires des arbitrages budgétaires de l’État et de l’austérité budgétaire. Le choix de ce qu’il faut financer ou définancer, les règles de calcul, est la propriété des parlementaires et non plus de la représentation ouvrière.

  3. Le pouvoir d’État s’accompagne d’une prolifération d’agences et de bureaucraties techniques comme la Haute Autorité de santé (HAS), l’Union nationale des caisses d’assurance maladie ou encore les agences régionales de la santé (ARS). Avec ces agences, l’État central recentralise la politique sociale. Ainsi, pour la politique hospitalière, les ARS sont-elles dirigées par un « préfet sanitaire » directement nommé par le gouvernement et qui désigne lui-même les directeurs hôpitaux. La chaîne de commandement va du ministère à l’hôpital.

  4. Enfin, la réappropriation de la Sécurité sociale par l’État s’observe dans la fiscalisation croissante de la protection sociale avec la contribution sociale généralisée (CSG). Cet impôt, créé en 1991 avec un taux de 1,1 %, vaut aujourd’hui 9,2 % en régime normal. Son taux est fixé par l’État et il est prélevé sur d’autres revenus que les revenus du travail, comme les pensions de retraite et les allocations chômage. Contrairement à la cotisation sociale, la CSG n’ouvre pas de droits sociaux en contrepartie.

Du fait de cette fiscalisation, en 2024, la part des cotisations sociales n’était plus que de 48 % des recettes des administrations de sécurité sociale (contre 90 % à la fin des années 1980)

Ne pas fantasmer la « Sécu de 45 »

Cette évolution va de pair avec des droits de meilleure qualité aujourd’hui qu’en 1946. Il ne faut pas fantasmer la « Sécu de 45 », car l’essentiel des dépenses de sécurité sociale concernait les allocations familiales, les dépenses de santé étant principalement constituées des indemnités journalières et la Sécurité sociale était largement genrée puisque faite pour « Monsieur Gagnepain » et non « Madame Aufoyer ».

Cependant, l’étatisation a aussi accompagné, depuis les années 1980, un recul des droits sociaux avec les réformes successives sur les retraites et la santé en particulier, toujours menées pour « sauver la Sécurité sociale ».

Vers des « Sécurités sociales » climatique, de l’alimentation… ?

La Sécurité sociale reste une institution très populaire. Si elle était une institution de la résistance, elle n’est pas pour autant une institution du passé. Au contraire, elle incarne la modernité. D’abord, en 1945-1946, elle répond de façon inédite à l’incapacité du capitalisme à répondre à la question sociale. Ensuite, de nos jours, elle offre un moyen de penser l’avenir sur de nombreux domaines.

La variété des propositions d’extension de la Sécurité sociale à d’autres risques en témoigne. Un rapport récent publié par le Haut-Commissariat à la stratégie et au plan (anciennement France Stratégie) pose l’hypothèse d’une Sécurité sociale climatique. L’argumentation s’appuie sur la grande proximité entre le risque climatique et le risque social. Ces deux risques sont collectifs et très difficiles à individualiser.

Qui est responsable des inondations et comment organiser la couverture de risque avec les outils habituels du monde de l’assurance ? Une sécurité sociale climatique pourrait non seulement être plus égalitaire et plus économe, mais son ampleur financière pourrait solvabiliser les travaux d’adaptation au changement climatique qu’aucun assureur individuel ne pourrait prendre en charge.

L’autre grand champ de développement de la sécurité sociale concerne la Sécurité sociale de l’alimentation. Partant du constat de l’échec des politiques alimentaires (à distribuer de la nourriture à tous en quantité et en qualité suffisante), alors même que le secteur est largement subventionné, les expérimentations de Sécurité sociale de l’alimentation s’inspirent largement des outils de la Sécurité sociale : conventionnement, cotisation, caisse, pouvoir démocratique des intéressés, etc. Ces projets s’inscrivent dans des conceptions populaires de l’écologie qui renouvellent les formes de lutte.

En plus du climat et de l’alimentation, beaucoup d’autres activités font l’objet de réflexions à partir de la Sécurité sociale. Ainsi la Sécurité sociale des décès invoque une mutualisation des coûts de la fin de vie dans un contexte où les funérailles sont souvent hors de prix et s’ajoutent à la charge mentale et au travail des sentiments.

Ce foisonnement de plaidoyers pour l’extension de la sécurité sociale concerne aussi la culture ou l’énergie, etc. La Sécurité sociale – mais laquelle ? – n’est-elle pas un exemple à généraliser ? Car, pour beaucoup, la Sécurité sociale est une institution capable d’organiser collectivement et démocratiquement la société. Elle permet à chacun de trouver sa place en échappant à toutes les formes d’insécurités économiques, politiques et sociales.

La Sécurité sociale est résolument une institution de la modernité.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

16.12.2025 à 10:28

Comment enfants et adolescents grandissent avec l’IA, cette « amie » artificielle

Théo Mouhoud, Pédopsychiatre, Université Sorbonne Paris Nord; AP-HP
Les LLM des IA « génératives » (type ChatGPT) transforment la manière dont enfants et adolescents créent des liens affectifs, ce qui n’est pas sans risque pour leur santé mentale.
Texte intégral (1701 mots)

L’intelligence artificielle fait désormais partie du monde des enfants et des adolescents. Les données scientifiques montrent que les grands modèles de langage des IA dites « génératives », comme ChatGPT, transforment leur manière de créer des liens affectifs, de se divertir et de confier leur souffrance, ce qui n’est pas sans risque pour leur santé mentale. Des spécialistes plaident pour des outils IA destinés aux mineurs et conçus pour leur sécurité (« Child-safe AI », en anglais), c’est-à-dire encadrés sur le plan technique et éthique.


De la petite fille attachée à son robot dans la nouvelle de science-fiction Robbie (1950), d’Isaac Asimov, (disponible dans I, Robot, New York, Gnome Press, p. 1–22) à l’homme amoureux d’une intelligence artificielle (IA) dans le film Her (2013), de Spike Jonze, la fiction n’a peut-être fait qu’anticiper notre présent : de nombreux jeunes utilisent désormais l’IA comme une compagne du quotidien.

Selon un rapport récent de Common Sense Media, aux États-Unis, 72 % des adolescents ont déjà conversé avec une IA. Dans ce contexte, des questions émergent : que se passe-t-il lorsqu’un enfant ou un adolescent grandit avec une IA et tisse un lien affectif durable avec une machine ? Quels effets psychologiques, positifs ou négatifs peut avoir cette nouvelle forme de relation ?

Dans un article récent publié dans la revue European Child & Adolescent Psychiatry, j’ai analysé comment les enfants et les adolescents investissent l’intelligence artificielle et les enjeux psychologiques et relationnels qui en découlent. L’article montre que si l’IA peut proposer un soutien dans des situations d’isolement, elle expose également à des risques majeurs de confusion affective, de dépendance relationnelle et d’accès à des contenus inadaptés susceptible de mettre en danger.

Quand l’IA devient une partenaire relationnelle

Ce qui surprend un certain nombre d’adultes depuis quelque temps, c’est que les jeunes, dont les adolescents et les enfants (mais également des jeunes adultes), utilisent l’IA non plus uniquement comme moteur de recherche ou pour faire ses devoirs, mais pour entretenir une relation affective.

Les données les plus récentes confirment cette évolution, la majorité des adolescents ont conversé avec un chatbot et un tiers d‘entre eux déclarent en tirer un réconfort comparable à celui d’une amitié humaine.

L’IA est décrite comme « disponible », « sympathique », « compréhensive » et « moins jugeante » que les humains.

Cette tendance n’est pas anecdotique. Une étude menée à l’Université de Cambridge a montré que les enfants ont des difficultés à reconnaître que l’IA ne ressent pas d’émotions réelles. Avec les modèles de langage actuels, cette tendance s’exacerbe, car les IA dialoguent de manière cohérente, se souviennent de certaines interactions, s’adaptent à leur interlocuteur et adoptent un ton personnalisé.

Les enfants interprètent donc une émotion simulée en une réponse émotionnelle authentique, ce que l’on nomme « l’empathy gap » ou le « déficit d’empathie ». Autrement dit, pour beaucoup d’entre eux, l’IA n’est pas une machine, mais bien une présence. Ainsi, lorsque les enfants parlent à une intelligence artificielle – qu’ils désignent souvent par « il » ou « elle » plutôt que par « ça » –, ils ne la perçoivent pas comme un programme informatique. Ils lui attribuent des émotions, des intentions et une forme de personnalité.

Ce mécanisme est bien connu des humains, qui ont toujours eu tendance à attribuer des qualités humaines à des objets qui leur répondent, c’est l’anthropomorphisme. Cette humanisation facilite l’usage, mais expose aussi les enfants à des contenus biaisés, à une confusion entre humains et machines, et à une dépendance relationnelle qui reste, par nature, unilatérale.

Amie imaginaire ou compagne artificielle ?

Pendant longtemps, lorsqu’un enfant parlait à un interlocuteur invisible, il s’agissait souvent d’un ami imaginaire. Ce phénomène très courant peut jouer un rôle important dans le développement notamment chez les enfants autistes : il favorise la créativité, la régulation émotionnelle, l’autonomie et même certaines compétences sociales. L’ami imaginaire advient de l’imagination de l’individu, il est façonné par son histoire, ses conflits, ses besoins et ses fantasmes.

Une nouvelle figure est apparue : le compagnon artificiel. À première vue, il pourrait sembler remplir la fonction d’ami imaginaire, mais la différence fondamentale s’explique par le fait que ce dernier ne vient pas de l’univers symbolique et intime de l’enfant, il lui est proposé de l’extérieur, prêt à l’emploi, disponible 24 heures sur 24, sans limites et sans contradiction.

Le danger n’est pas tant que l’enfant s’adresse à une machine, mais que la machine se substitue au travail psychique et interne qui aide normalement l’enfant à se défendre, à se construire et à apprivoiser la complexité des relations humaines.

Des promesses… mais aussi des dangers

Les IA peuvent offrir un soutien ponctuel aux jeunes. Beaucoup évoquent la disponibilité constante, l’écoute sans jugement, la possibilité de poser des questions intimes et d’arrêter la conversation quand ils le souhaitent. Pour certains, surtout lorsqu’ils sont isolés et en souffrance, ces échanges peuvent aider à partager leurs affects et à se sentir moins seuls.

Cependant, ces bénéfices sont limités et s’accompagnent de risques bien réels. L’IA qui imite l’empathie et donne l’illusion d’altérité peut renforcer une dépendance affective chez des adolescents en souffrance et en quête d’attention ou de validation.

Les dangers les plus préoccupants actuellement se retrouvent dans les situations de détresse, où l’IA peut banaliser des idées suicidaires, produire des réponses inappropriées et dangereuses. Elles n’ont ni sens clinique, ni capacité à évaluer le risque, ni responsabilité morale.


À lire aussi : Est-ce une bonne idée d’utiliser des IA comme confidentes ou comme soutien psychologique ?


Comment protéger les jeunes ?

Face à l’essor des compagnons artificiels, maintenant commercialisés comme tels, l’enjeu majeur n’est plus de savoir s’il faut ou non les accepter, les utiliser, mais comment encadrer leur présence et leurs caractéristiques. D’abord, il faut reconnaître que ces chatbots – y compris ceux présentés comme des outils de santé mentale par les entreprises les commercialisant – sont et ne seront jamais neutres.

Il s’agit avant tout d’un marché. Ces outils sont conçus pour retenir l’attention et maximiser l’engagement de leur utilisateur et donc la dépendance émotionnelle. En effet, ces systèmes captent les données personnelles des individus à des fins commerciales. Il est donc indispensable d’introduire une régulation spécifique.

De nombreux spécialistes appellent aujourd’hui à la conception d’« IA conçue pour la sécurité des enfants », ou « Child-safe AI » : sécurisées, transparentes et limitées dans leurs réponses, capables d’orienter vers un adulte en cas de détresse. Cela suppose d’impliquer des cliniciens, des psychologues, des pédopsychiatres et des chercheurs dans leur conception.

Du côté des familles, il s’agit surtout d’ouvrir la discussion. Il en va de la responsabilité de l’adulte – celui qui met de telles technologies dans les mains des enfants – de pouvoir expliquer le fonctionnement et les pièges des modèles de langage, les aider à repérer les limites et les risques et à développer une approche critique de ces outils.

Et pour la suite ?

L’usage de l’IA par les enfants et adolescents n’est plus un phénomène marginal, il transforme déjà la manière de chercher, d’apprendre, de se divertir et de créer du lien. Face à cette mutation, un cadre clair est indispensable.

Les outils IA destinés aux mineurs doivent être encadrés, tant sur le plan technique qu’éthique. Nous avons besoin de recherches indépendantes afin de mesurer les effets psychologiques à long terme et une véritable sensibilisation des parents, des enseignants et des professionnels de santé.

L’IA fait et fera partie du monde des enfants et adolescents, qu’on le souhaite ou non. Notre responsabilité collective est claire : veiller à ce qu’elle soit un soutien et non un obstacle au développement des jeunes générations.

The Conversation

Théo Mouhoud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.12.2025 à 10:28

Se confier à une IA : trois questions juridiques sur les chatbots et l’adolescence

Nathalie Devillier, Docteur en droit international, Auteurs historiques The Conversation France
Aux États-Unis, les plaintes déposées par des parents, à la suite du décès de leur adolescent qui avait noué des relations avec des IA « génératives », interrogent aussi le droit en Europe et en France.
Texte intégral (2209 mots)

Aux États-Unis, les plaintes déposées par des parents, à la suite du décès de leur adolescent qui avait noué des relations avec des IA « génératives », interrogent le droit. Dans quelles mesures la responsabilité juridique des concepteurs est-elle engagée ? Et celle des institutions ? Enfin, quelle est la responsabilité collective d’une société qui délègue à des algorithmes le soutien psychologique qu’elle doit à ses enfants ?


Aux États-Unis, trois adolescents sont morts par suicide après avoir développé des relations avec des chatbots d’intelligence artificielle (IA). Entre protection et prohibition, entre innovation technologique et vulnérabilité développementale, le droit cherche encore ses repères. Mais face à un phénomène qui se compte désormais en dizaines de millions d’utilisateurs mineurs, l’urgence n’est plus au diagnostic : elle est à la responsabilité.

L’usage massif des chatbots IA par les adolescents nous confronte à un paradoxe vertigineux. Ces outils comblent un réel vide émotionnel, l’isolement, l’inaccessibilité des soins en santé mentale, la stigmatisation, tout en créant des risques documentés et prévisibles. Quelles réponses le droit apporte-t-il à ces deux réalités ?

Le paradoxe de la protection : ignorer un besoin ou encadrer un risque ?

Les chiffres sont sans appel. Aux États-Unis, selon Common Sense Media, les trois quarts des adolescents auraient déjà conversé avec une IA et environ un tiers d’entre eux font le choix de s’adresser à un chatbot IA plutôt qu’à un humain pour aborder des sujets qui les préoccupent.


À lire aussi : Les IA, nos nouvelles confidentes : quels risques pour la santé mentale ?


Mais cette apparente solution cache une toxicité algorithmique. Les modèles d’« IA génératives » et leurs grands modèles de langage (ou LLM, abrégé en anglais) échouent, dans un certain nombre de cas, à orienter les utilisateurs dans le désarroi vers des ressources appropriées.

Quelles réponses le droit peut-il apporter ?

Aux États-Unis, le droit tente de s’adapter. La loi de l’État de New York (NY State Senate Bill 2025-S3008C), entrée en vigueur en novembre 2025, impose aux opérateurs de déployer un protocole pour détecter l’idéation suicidaire chez les utilisateurs d’IA et d’indiquer à ceux-ci les services de crise à contacter (comme la ligne de prévention du suicide, 988). Les pénalités peuvent atteindre 15 000 dollars (plus de 12 700 euros) par jour de violation, les fonds collectés alimentant un fonds de prévention du suicide.

La loi californienne (Bill Text – SB-243 Companion chatbots) va plus loin en accordant un droit d’action privé, permettant aux individus lésés de réclamer des dommages et intérêts. Mais ces législations fragmentaires révèlent une approche réactive plutôt que préventive.

L’Union européenne, avec sa loi sur l’intelligence artificielle l’AI Act, adopte une stratégie plus systémique en classifiant les risques ex ante (c’est-à-dire avant qu’ils soient avérés, ndlr).

Les chatbots compagnons devraient être requalifiés comme systèmes à haut risque au motif qu’ils peuvent « affecter matériellement le résultat de la prise de décision » et présenter « un risque significatif de préjudice pour la santé, la sécurité ou les droits fondamentaux ». Cette qualification imposerait des obligations strictes en matière d’évaluation des risques, de qualité des données, de surveillance humaine et de précision.

La solution réside probablement dans une approche graduée par tranche d’âge : interdiction d’accès pour les moins de 13 ans (conformément au droit américain), accès conditionné au consentement parental pour les 13-15 ans avec limitations fonctionnelles, et accès autonome mais encadré pour les 16-17 ans avec garanties procédurales renforcées. Cette architecture juridique reconnaît les capacités évolutives des mineurs tout en maintenant des filets de sécurité adaptés.

La responsabilité des concepteurs : quand le design devient préjudice

En août 2025, les parents d’Adam Raine ont intenté une action contre OpenAI. Ils accusent ChatGPT de lui avoir a offert des conseils techniques sur la façon de procéder à son plan suicidaire. En octobre 2024, Megan Garcia avait déposé plainte contre Character.AI après le suicide de son fils Sewell Setzer, troisième du nom, 14 ans. La plainte inclut des captures d’écran où le bot demande « J’ai vraiment besoin de savoir… as-tu réellement envisagé le suicide ? », et lorsque l’adolescent évoque la peur d’une mort douloureuse, le bot répond « Ne parle pas comme ça. Ce n’est pas une bonne raison de ne pas aller jusqu’au bout » (cf. les notes de transcription de l’audition.

Ces tragédies posent une question juridique fondamentale : quelle est la responsabilité des concepteurs d’IA quand le design, les choix algorithmiques et la captologie créent un risque prévisible ?

La responsabilité repose sur plusieurs fondements technologiques déterminants. Les LLM fonctionnent selon une architecture neuronale où chaque réponse générée résulte de choix de conception délibérés : sélection des données d’entraînement, pondération des objectifs d’optimisation, paramétrage des fonctions de récompense (Reinforcement Learning from Human Feedback, RLHF) et calibrage des mécanismes de sécurité. Ces systèmes ne sont nullement « neutres » ou « autonomes » : ils incarnent les priorités et les valeurs de leurs concepteurs.

Character.AI commercialise sa technologie comme « IA qui se sent vivante », une promesse marketing qui révèle une intentionnalité dans la conception addictive. Les mécanismes d’engagement (notifications push, personnalisation poussée, avatars anthropomorphiques) sont délibérément conçus pour maximiser le temps d’utilisation et créer un attachement émotionnel. Cette « captologie » (technologie persuasive) est particulièrement efficace sur les adolescents dont les circuits neuronaux de régulation des impulsions sont encore en maturation.

La décision de justice rendue en mai 2025 dans l’affaire Charater.AI (US District Court, Middle District of Florida, Megan Garcia vs Character Technologies Inc.) n’a pas réglé la question de la responsabilité. Mais elle a établi que les entreprises déployant des systèmes d’IA simulant le jugement ou le comportement d’un humain peuvent être contraintes de défendre leurs choix de conception lorsque des interactions sont susceptibles de contribuer à des dommages catastrophiques.

Les IA « génératives », des produits de consommation défectueux ?

Les conditions générales d’utilisation tentent d’ériger des murailles d’exonération. OpenAI limite sa responsabilité globale au montant le plus élevé entre le montant payé pour le service pendant les douze mois précédents ou 100 dollars (85 euros). Character.AI prévoit un déni complet de garanties, fournissant ses services sur une base « TEL QUEL » et « SELON DISPONIBILITÉ » (en majuscules dans le texte), avec une limitation de responsabilité plafonnée à 100 dollars (85 euros).

Ces clauses soulèvent de sérieuses questions de validité juridique. En droit français, l’article L. 212-1 du Code de la consommation prohibe les clauses abusives qui créent un déséquilibre significatif entre les droits et obligations des parties. Une clause limitant la responsabilité à 100 dollars (85 euros) pour un décès serait manifestement abusive et donc nulle. En droit européen, la directive 2019/770 sur les contrats de fourniture de contenus numériques et de services numériques impose aux fournisseurs de garantir la conformité de leurs services, y compris leur sécurité. Les entreprises ne peuvent donc s’exonérer de leur responsabilité pour des défauts de sécurité graves, particulièrement lorsqu’ils affectent des mineurs.

Il en est de même des clauses d’arbitrage obligatoire qui privent les consommateurs de leur accès aux tribunaux. Ces clauses incluent une renonciation aux actions collectives, forçant chaque utilisateur à porter des réclamations « qu’à titre individuel et non en tant que plaignant ou membre d’une classe ». En droit français, une telle clause serait réputée non écrite pour un contrat de consommation (article L. 612-1 du Code de la consommation, issu de la directive européenne 93/13/CEE), car sont abusives les clauses qui ont pour objet ou pour effet de supprimer ou d’entraver l’exercice d’actions en justice par le consommateur.

L’arrêt américain dans l’affaire Character.AI pourrait établir une jurisprudence déterminante. La théorie de la responsabilité du fait des produits défectueux (product liability) s’applique lorsqu’un produit présente un défaut de conception, un défaut de fabrication, ou un défaut d’avertissement. Les chatbots pourraient être qualifiés de produits défectueux au motif que leurs garde-fous sont manifestement insuffisants face à un risque prévisible de préjudice grave.

La norme de raisonnabilité (reasonableness standard) impose aux concepteurs de prendre des mesures proportionnées aux risques identifiés (le critère de la raisonnabilité est un test qui vise à déterminer si les décisions prises étaient légitimes et destinées à remédier à un problème donné compte tenu des circonstances de l’époque).

La responsabilité institutionnelle : jusqu’où peut-on externaliser le soutien psychologique ?

La troisième question est peut-être la plus inconfortable : les institutions publiques peuvent-elles encore ignorer ou externaliser une partie du soutien psychologique des mineurs à des IA non supervisées ?

Le Code français de l’éducation impose aux établissements une formation à l’utilisation responsable des outils et ressources numériques (art. L. 312-9). Cette obligation devrait être étendue aux chatbots IA. Les programmes scolaires devraient intégrer la compréhension des mécanismes algorithmiques et de leurs biais, l’identification des situations où l’IA ne peut remplacer l’aide humaine professionnelle et les techniques de distanciation critique face aux réponses générées.

L’Unicef, dans ses Orientations politiques sur l’IA pour les enfants de décembre 2025 (Guidance on AI for children. Innocenti Global Office of Research and Foresight), invite les États à adapter leurs politiques à venir, y compris concernant l’assurance de sécurité et de protection, la transparence et la responsabilité de l’intelligence artificielle.

Mais la responsabilité ne s’arrête pas aux établissements scolaires. Comment accompagner les parents tout en reconnaissant que les asymétries d’information (opacité algorithmique, techniques de captologie sophistiquées) rendent illusoire une responsabilité parentale exclusive ? Ils ne peuvent prévenir des risques qu’ils ne comprennent pas pleinement et face à des technologies conçues délibérément pour contourner la surveillance parentale.

Existe-t-il suffisamment de volonté collective et institutionnelle pour accomplir les mesures de protection que nous savons nécessaires ? Car, au fond, le débat juridique sur les chatbots IA révèle un échec collectif plus profond. Nous cherchons à réglementer des algorithmes pour pallier l’absence de psychologues scolaires, de services de santé mentale accessibles, de temps parental non monopolisé par la précarité économique.

The Conversation

Nathalie Devillier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

15.12.2025 à 16:35

France–Chine : une relation déséquilibrée, au profit de Pékin

Paco Milhiet, Visiting fellow au sein de la Rajaratnam School of International Studies ( NTU-Singapour), chercheur associé à l'Institut catholique de Paris, Institut catholique de Paris (ICP)
Emmanuel Lincot, Spécialiste de l'histoire politique et culturelle de la Chine contemporaine, Institut catholique de Paris (ICP)
Emmanuel Macron voulait convaincre Xi Jinping de se rapprocher de ses positions sur le dossier ukrainien, et obtenir des avancées afin de réduire le déficit commercial français vis-à-vis de la Chine. Sans succès.
Texte intégral (2207 mots)

Le récent déplacement d’Emmanuel Macron en Chine a mis en évidence la difficulté qu’éprouve la France à influencer diplomatiquement la République populaire et à rééquilibrer les échanges commerciaux bilatéraux.


Du 3 au 5 décembre 2025, Emmanuel Macron a effectué une visite d’État en Chine, sa quatrième depuis 2017. Conformément à l’ambition de construire entre les deux pays une relation d’engagement à la fois respectueuse et exigeante, l’Élysée a déployé un dispositif conséquent : pas moins de six ministres (affaires étrangères, économie, agriculture, environnement, enseignement supérieur et culture) ainsi que trente-cinq chefs d’entreprise accompagnaient la délégation présidentielle.

Une mobilisation importante, symbole d’une relation multidimensionnelle… dont l’équilibre penche désormais résolument du côté de Pékin.

Un dialogue géopolitique de sourds

Les deux États sont de facto investis d’une responsabilité en matière de sécurité internationale, en tant que puissances nucléaires et membres permanents du Conseil de sécurité des Nations unies.

C’est au nom de cette responsabilité commune, et d’une supposée conception partagée du multilatéralisme, qu’Emmanuel Macron tente depuis 2022 de convaincre son homologue chinois d’œuvrer pour la paix en Ukraine : d’abord en s’assurant que Pékin s’abstienne de tout soutien à Moscou, ensuite en encourageant Xi Jinping à utiliser son influence sur Vladimir Poutine pour faciliter l’ouverture d’un processus diplomatique. Mais le président français n’a pas obtenu plus de succès lors de ce déplacement que les fois précédentes, se heurtant à une fin de non-recevoir polie mais ferme, son hôte se contentant d’appeler à « un renfort de la coopération » et à « écarter toute interférence ».

Il est vrai que, sur ce sujet, la neutralité de façade affichée par Pékin ne résiste pas à l’examen des faits. Le commerce sino-russe a doublé depuis 2020, et de nombreuses entreprises chinoises contribuent, discrètement mais de manière significative, à l’effort de guerre russe. Au reste, en termes de stratégie, Pékin n’a aucun intérêt à ce que le conflit russo-ukrainien cesse. Il affaiblit chaque mois davantage l’Union européenne, attire la Russie dans le giron chinois et retient pour l’heure les États-Unis sur le front occidental.

Concernant l’autre sujet géopolitique brûlant, Taïwan, Emmanuel Macron s’est gardé, cette fois-ci, de toute déclaration sujette à interprétation douteuse. Il faut dire qu’en la matière le président marche sur des œufs, et peut faire l’objet de tirs croisés. En 2023, il avait suscité l’ire de ses partenaires occidentaux en appelant les Européens à n’être « suivistes » ni des États-Unis ni de la Chine sur le dossier taïwanais. Un an plus tard, la comparaison qu’il a esquissée sur le podium du Shangri-La Dialogue, à Singapour, entre les situations ukrainienne et taïwanaise était jugée inacceptable, cette fois-ci par les Chinois.


À lire aussi : Un dialogue de sourds entre les grandes puissances en Asie-Pacifique ?


In fine, la portée réelle du dialogue franco-chinois sur les questions de sécurité internationale demeure très limitée. La diplomatie française adopte donc une approche prudente, soucieuse de ne pas compromettre une relation commerciale déjà largement fragilisée.

Une relation économique asymétrique

La France souffre en effet d’un déficit commercial abyssal vis-à-vis de la Chine, qui est d’ailleurs son plus important déficit bilatéral. En 2024, il s’est élevé à 47 milliards d’euros. Si les multinationales françaises continuent de réaliser des profits substantiels en Chine (notamment dans l’aéronautique et le spatial, l’agroalimentaire, le luxe ou le cosmétique), les retombées pour l’ensemble du tissu économique national sont moins évidentes. Depuis l’accession de la Chine à l’Organisation mondiale du commerce (OMC) en 2001, l’ouverture tous azimuts au capitalisme d’État chinois a contribué, en France, à la désindustrialisation et à la perte d’avantages compétitifs de nombreux produits à haute valeur ajoutée.

Le président français a beau prévenir que « le déficit du reste du monde vis-à-vis de la Chine est en train de devenir insoutenable », la République populaire de Chine (RPC) est devenue un maillon essentiel de nombreuses chaînes d’approvisionnement stratégiques (informatique, équipements électroménagers, textiles, batteries, terres rares, etc.). Cette dépendance sera difficilement réversible. Sauf si, en concertation avec ses partenaires européens, elle exige de la Chine des transferts de technologie, et des investissements créateurs d’emplois sur les territoires nationaux.

Mais pour l’heure, la diplomatie française n’a d’autre choix que de jouer sur des mesures de court terme : elle tente notamment de limiter l’impact des enquêtes anti-dumping menées par la douane chinoise, qui visent plusieurs produits français (spiritueux – cognac en tête –, produits laitiers, porc, viande bovine). Les filières françaises sont ici les victimes collatérales des contre-mesures chinoises adoptées pour répondre aux droits de douane imposés par Bruxelles (et soutenus par Paris) sur les véhicules électriques chinois depuis octobre 2024.

Ces manœuvres réciproques ressemblant de plus en plus à une guerre commerciale entre l’Union européenne (UE) et la Chine. Quelques heures seulement après son retour de Chine, Emmanuel Macron menaçait même d’imposer des droits de douane à la Chine « dans les tout prochains mois », si le déficit commercial ne se réduisait pas.

Ambivalences françaises, inflexibilités chinoises

Les investissements croisés constituent également un point de friction. En effet, la France investit largement plus en Chine que l’inverse : le stock d’investissements français y atteint environ 46 milliards d’euros, contre quelque 12 milliards pour les investissements chinois en France.

Paris cherche dès lors à obtenir un rééquilibrage des flux et, plus largement, à promouvoir des conditions de concurrence équitables. Dans cette perspective, les autorités françaises continuent de courtiser les investisseurs chinois… à condition que cela ne compromette pas la souveraineté nationale. Une attitude, parfois ambivalente, qui ne va pas sans casse. Ainsi, l’usine Huawei en Alsace, livrée en septembre 2025, qui a représenté un investissement de 300 millions d’euros, risque d’être abandonnée et mise en vente avant même d’avoir ouvert.

À l’échelle politique, la diplomatie française qualifie « en même temps » la Chine de rival systémique dans le cadre européen, et de partenaire stratégique dans le cadre bilatéral. Un double discours parfois illisible et souvent incantatoire, tant la dépendance au partenaire (et/ou rival) chinois reste prépondérante. Une situation que ni la France ni l’Europe n’arrivent à infléchir.

À Pékin, la France gaullienne continue d’être célébrée comme un modèle d’indépendance et de non-alignement. Personne n’est toutefois dupe : la Chine flatte à l’échelle bilatérale pour mieux diviser les Européens et préserver les avantages structurels dont elle bénéficie. Une stratégie payante : alors que l’Union européenne et la Chine célébraient cinquante ans de relations diplomatiques, et que le président français avait pris l’habitude d’être accompagné par la présidente de la Commission européenne lors de ses rencontres avec Xi Jinping, Emmanuel Macron s’est cette fois déplacé seul.

Si l’UE demeure le deuxième partenaire commercial de la Chine (derrière l’Asean) – et à ce titre un acteur incontournable –, le déficit commercial européen s’élevait en 2024 à près de 350 milliards d’euros.

La RPC entend tirer pleinement parti de cette asymétrie, tout en veillant à ce que le bloc européen ne se fédère pas contre elle. Dans ce contexte, la France est aux yeux des Chinois un pays « romantique », comprenons : has been, politiquement inefficace et économiquement étriqué.

De Beauval à Chengdu, le soft power comme dernier point d’équilibre ?

Soixante-et-un ans après l’établissement de la relation bilatérale, ce déplacement aura surtout révélé les insuffisances françaises et le déséquilibre bilatéral structurel au profit de la Chine.

Emmanuel Macron pourra toujours se féliciter d’avoir été accueilli en grand chef d’État, Xi Jinping n’ayant pas lésiné sur les moyens pour lui « donner de la face ». Fait exceptionnel dans le protocole chinois, le président français a été convié pour la troisième fois en province – après Xi’an en 2018 et Canton en 2023 –, cette fois à Chengdu, quatrième ville de Chine et siège du plus grand centre de recherche et de conservation des pandas géants, des ursidés que Pékin érige en ambassadeurs et en véritables instruments diplomatiques.

Brigitte Macron a donc pu revoir son filleul Yuan Meng, premier panda géant né en France en 2017 et retourné à Chengdu en 2023. La Chine enverra d’ailleurs deux nouveaux pandas au ZooParc de Beauval d’ici à 2027. Simultanément, Emmanuel Macron a pu échanger quelques balles avec Félix Lebrun, le jeune pongiste médaillé à Paris 2024, venu disputer en Chine une compétition internationale. Cinquante ans après, la « diplomatie du ping-pong » reste donc d’actualité, comme démonstration maîtrisée d’amitié symbolique. Sans oublier le sprint aussi inédit que disruptif du président français qui lui permit de braver les cordons de sécurité chinois pour aller saluer les étudiants de l’Université du Sichuan. La France a pu ainsi se montrer sous un jour libertaire et sympathique.

À défaut d’influer sur les orientations géopolitiques et économiques de Pékin, la France peut toujours compter sur le soft power pour entretenir un dialogue. L’honneur est donc sauf… Mais à quel prix !

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

15.12.2025 à 16:34

Faut-il fuir, se cacher ou intervenir si l’on est pris dans un attentat de masse comme celui survenu en Australie ?

Milad Haghani, Associate Professor and Principal Fellow in Urban Risk and Resilience, The University of Melbourne
Les actions d’Ahmed Al-Ahmed ont très certainement sauvé des vies, mais son intervention va-t-elle à l’encontre des recommandations officielles sur la façon de réagir lors des actes de violence de masse ?
Texte intégral (1944 mots)
Ahmed Al-Ahmed (en blanc) désarme l’un des tireurs pendant la tuerie de Bondi Beach, à Sydney (Australie), le 14 décembre 2025. Instagram

Le bilan de la tuerie de Bondi Beach (Sydney, Australie), hier 14 décembre, aurait probablement été plus lourd sans l’intervention héroïque – et extrêmement risquée – d’un passant. Cet épisode invite à s’interroger sur les recommandations officielles des autorités sur le comportement à adopter si l’on est pris dans ce type d’événements. On constate que les conseils donnés par les responsables australiens ne sont pas tout à fait les mêmes que ceux diffusés par leurs homologues états-uniens. L’étude de nombreux cas similaires survenus dans le monde donne également des indications utiles.


Les images ont fait le tour du monde : pendant l’attentat de Bondi Beach, ce dimanche 14 décembre à Sydney, un homme s’est précipité vers l’un des tireurs et lui a arraché son arme des mains.

Durant cet acte de bravoure extraordinaire, le civil en question, Ahmed Al-Ahmed, un vendeur de fruits âgé de 43 ans, a été blessé à la main et à l’épaule par le second tireur.

Le courage et le risque

Nous n’avons aucun moyen de savoir combien de vies ont été sauvées grâce au courage d’Al-Ahmed. Mais il est presque certain que son intervention a permis d’éviter des pertes humaines supplémentaires (le bilan s’élève à ce stade à 15 morts et 42 blessés, en plus des deux tireurs, dont l’un a été tué et l’autre se trouve dans un état critique).

Cette scène rappelle d’autres, y compris récemment toujours à Sydney : le 13 avril 2024, un passant français, Damien Guérot, était également intervenu au péril de sa vie lors de l’attaque du centre commercial de Bondi Junction pour faire face à un homme armé d’un couteau, qui avait ce jour-là poignardé six personnes à mort.

Lorsque des actes de courage comme ceux-ci se produisent, nous les saluons à juste titre. Cependant, ils soulèvent des questions importantes et souvent négligées : qu’est-ce qui motive des gens ordinaires à se conduire d’une façon aussi altruiste et risquée ? L’intervention des témoins est-elle une bonne stratégie ou va-t-elle à l’encontre des conseils officiels relatifs à la conduite à tenir si l’on est pris dans un acte de violence de masse ?

Les deux types d’« effet spectateur »

L’« effet spectateur » se produit lorsque la présence d’autres personnes dissuade quelqu’un d’intervenir dans une situation d’urgence, lors d’une agression ou d’un autre crime.

Mais des décennies de recherche comportementale ont remis en cause l’idée reçue selon laquelle les gens ont tendance à se figer ou à détourner le regard lorsque d’autres personnes sont présentes dans des situations dangereuses.

Une vaste méta-analyse du comportement des témoins montre que dans les situations d’urgence véritablement dangereuses et sans ambiguïté (comme celles impliquant un auteur clairement identifiable), l’effet spectateur classique (c’est-à-dire passif) est considérablement affaibli, voire dans certains cas inversé.

En d’autres termes, les attaques violentes sont précisément le type de situations où les gens sont plus enclins à agir.

L’une des raisons est que le danger clarifie les responsabilités. Lorsqu’une situation menace clairement leur vie, les gens identifient le danger plus rapidement et sont moins enclins à attendre des signaux sociaux ou des assurances de la part des autres.

On a constaté à maintes reprises que dans les situations d’urgence clairement à haut risque (en particulier celles impliquant de la violence physique), le sentiment de responsabilité individuelle s’accentue souvent au lieu de s’estomper.

Une analyse de plus de 100 attentats-suicides effectués en Israël montre que l’intervention des témoins peut réduire considérablement le nombre total de victimes.

Dans tous ces incidents documentés, l’intervention n’a que rarement permis d’empêcher complètement l’attaque, mais elle a souvent perturbé le contrôle de l’agresseur sur le moment et le lieu de l’attaque, le poussant à agir prématurément dans des lieux moins fréquentés et sauvant ainsi des vies.

Cependant, la même analyse montre également que l’intervention des témoins a souvent eu un coût personnel direct pour les intervenants.

Mais le comportement actif des témoins peut prendre plusieurs formes et intervenir à différents stades : une personne connaissant l’auteur des faits, qui remarque et signale un comportement suspect avant l’agression ; un individu qui guide les autres vers un lieu sûr ou qui partage des informations importantes au fur et à mesure que les événements se déroulent ; des gens qui apportent leur aide et assurent la coordination de diverses actions immédiatement après les faits.

Il n’en reste pas moins qu’une implication personnelle pour empêcher un acte de violence semble aller à l’encontre des conseils officiels des autorités australiennes. En effet, il y a quelques semaines à peine, le Comité australo-néo-zélandais de lutte contre le terrorisme a lancé une nouvelle campagne nationale de sécurité publique.

Un nouveau message de sécurité

La nouvelle campagne de sécurité publique reconnaît explicitement que l’Australie est un pays sûr, mais qu’il existe toujours un risque d’attaques à l’arme à feu dans les lieux très fréquentés, et que savoir comment réagir peut sauver des vies.

La campagne a introduit les consignes suivantes : « Fuir. Se cacher. Prévenir. », définies comme suit :

  • fuir : éloignez-vous rapidement et discrètement du danger, mais uniquement si cela ne présente aucun danger pour vous ;

  • se cacher : restez hors de vue et mettez votre téléphone portable en mode silencieux ;

  • prévenir : appelez la police lorsque cela ne présente aucun danger ;

L’objectif de ces conseils est d’aider les personnes à réagir dans les premiers instants critiques avant l’arrivée de la police, à prendre des décisions éclairées et à augmenter leurs chances de rester en sécurité.

Les directives officielles australiennes n’incitent à aucun moment à se confronter aux assaillants.

En revanche, les messages de sécurité publique diffusés aux États-Unis, tels que les consignes du FBI « Run. Hide. Fight » (Courez. Cachez-vous. Luttez), incluent une étape « luttez », mais uniquement en dernier recours, lorsque la fuite et la dissimulation sont impossibles et que la vie est en danger immédiat.

Les autorités australiennes ont choisi de ne pas inclure cette étape, mettant l’accent sur l’évitement et le signalement plutôt que sur la confrontation.

Quelques conseils pratiques

Mes précédentes recherches expérimentales ont permis d’identifier des conseils plus spécifiques susceptibles d’améliorer les chances de survie lors d’attaques violentes, en particulier dans des environnements bondés.

À l’aide de modélisations informatiques et d’expériences contrôlées menées avec de véritables foules, j’ai identifié plusieurs domaines stratégiques pour améliorer les chances de survie lors de tels événements.

Premièrement, s’éloigner lentement du danger n’est pas idéal : il est préférable de s’éloigner de la source de la menace aussi rapidement que possible, dès lors que cela se fait en prenant les précautions nécessaires pour rester en sécurité.

Deuxièmement, l’hésitation, qu’il s’agisse de recueillir des informations, d’inspecter ce qui se passe ou de filmer les événements, augmente le risque d’être blessé.

Troisièmement, les gens doivent rester agiles dans leur prise de décision et leur orientation lorsqu’ils se déplacent, et être prêts à adapter leurs mouvements à mesure que la situation évolue et que les informations deviennent plus claires. Cela signifie qu’il faut continuellement observer son environnement et ajuster sa direction à mesure que de nouvelles informations apparaissent, plutôt que de s’arrêter pour réévaluer la situation.

Enfin, lorsque vous vous déplacez en famille ou entre amis, il vaut mieux se mettre en file indienne, plutôt qu’en se tenant par la main côte à côte. Cela profite à tout le monde en réduisant les bousculades et en améliorant la fluidité de la fuite des personnes.

Être toujours sur ses gardes

Les horribles événements survenus à Sydney soulignent une dure réalité : la préparation aux risques de violence dans les lieux très fréquentés doit devenir plus courante.

Les espaces très fréquentés resteront toujours vulnérables à la violence délibérée, qu’elle soit motivée par des intentions terroristes ou autres.

Les messages doivent toucher un plus grand nombre de personnes, être fondés sur des preuves, nuancés et largement accessibles.

À l’approche de plusieurs événements publics majeurs et de grands rassemblements de masse (notamment le réveillon du Nouvel An), il est plus important que jamais que les gens soient conscients de ces risques et restent vigilants.

The Conversation

Milad Haghani ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

15.12.2025 à 16:26

Incertitudes politiques et débats bioéthiques : les enjeux à venir en 2026

Katia Andreetti, Anthropologue Ph.D en science politique / Chercheure associée CERSA - Paris II, Université Paris-Panthéon-Assas
Le Conseil consultatif national d’éthique prépare les États généraux de la bioéthique 2026 avant les échéances électorales de 2027 et avec la volonté d’intégrer davantage les outre-mer.
Texte intégral (1869 mots)

Dans un paysage politique recomposé, le Comité consultatif national d’éthique (CCNE) prépare le lancement des États généraux de la bioéthique 2026, avec un calendrier avancé pour précéder le « temps politicien » et un maillage territorial renforcé, notamment pour intégrer davantage les outre-mer. Un moment particulier où vont s’entrelacer enjeux scientifiques, attentes citoyennes et recomposition des équilibres démocratiques.


Dans un contexte institutionnel instable, les futurs États généraux de la bioéthique de 2026 se préparent en coulisses, comme le prévoit l’article 41 de la loi relative à la bioéthique de 2021.

Lors d’un entretien que nous a accordé en juillet 2025, le professeur Jean-François Delfraissy, président du Comité consultatif national d’éthique (CCNE), nous précisait les grandes orientations retenues par les membres du CCNE pour les futurs États généraux : numérique et santé, santé et environnement, examens génétiques et médecine génomique, dons et transplantations, neurosciences, cellules souches et organoïdes, procréation et embryologie, sobriété en médecine, prévention santé dans les outre-mer.

Jean-François Delfraissy a exprimé

« [sa] volonté de structurer davantage les discussions autour des domaines où l’innovation technologique avance le plus vite, notamment en sciences fondamentales ».

Cette analyse s’appuie également sur nos travaux de recherche consacrés à la bioéthique et aux politiques publiques de santé.

Précéder « le temps politicien, avant 2027 »

En vertu de la loi de bioéthique de 2021, cette consultation citoyenne doit précéder la prochaine loi de bioéthique ou survenir dans un délai de cinq ans à compter de la précédente promulgation. Ainsi, entre la rapidité des innovations et les délais des calendriers politiques et juridiques, les dissonances temporelles sont intrinsèques au temps de la bioéthique. Or, celui-ci exige un autre rythme : celui de l’analyse et de la concertation.

L’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST), qui réunit les deux chambres du Parlement, a déjà engagé des échanges préparatoires pour faire un premier bilan de la loi de bioéthique de 2021, en amont de l’ouverture officielle des États généraux. Jean-François Delfraissy et Philippe Berta, auditionné en qualité d’ancien rapporteur de la loi bioéthique 2021, nous l’ont confirmé.

Alors qu’une majorité parlementaire absolue prévalait à cette époque, la dissolution de l’Assemblée nationale en 2024 a entraîné une profonde recomposition de l’échiquier politique. À l’aube des élections municipales de 2026, des présidentielles de 2027 et des législatives anticipées qui devraient s’ensuivre, l’avenir de la loi relative à la bioéthique s’annonce retardé à 2028.

Procréation, neurosciences, vieillissement démographique, volet santé-environnement…

Parmi les questions qui s’annoncent saillantes pour 2026, nous pouvons retenir : la procréation post mortem, les avancées rapides de la génomique et des cellules souches, la xénogreffe, les organoïdes, les neurosciences, mais aussi la santé reproductive ou encore le vieillissement démographique.


À lire aussi : Assistance médicale à la procréation (AMP ou PMA) : les incohérences de la loi actuelle


Ces enjeux, identifiés par le CCNE, interrogent la capacité de nos politiques de santé à concilier innovation scientifique, équité sanitaire et solidarité intergénérationnelle.

Nous avons abordé ces thématiques dans notre contribution à l’ouvrage collectif Idées reçues sur l’infertilité (2024), au chapitre « Les pouvoirs publics commencent à s’emparer du sujet ».

Concernant le volet santé-environnement, s’inscrire dans une perspective de One Health, c’est-à-dire de santé globale, suppose de redéfinir le prisme intellectuel et politique qui lui est propre afin de dépasser « l’anthropocentrisme de la bioéthique ». Cette réflexion prolonge les travaux fondateurs d’Aldo Leopold (Almanach d’un comté des sables, 1995) et de Van Rensselaer Potter (Global Bioethics, 1988), précurseur d’une éthique élargie au vivant.

Les crises sanitaires récentes, notamment les zoonoses (ces maladies infectieuses transmissibles à l’humain par l’animal et inversement, ndlr), rappellent que la santé humaine ne peut être pensée isolément de celle des autres espèces et des écosystèmes qui les relient.

La méthode du CCNE : Des consultations citoyennes, au cœur des territoires

Créé en 1983, le CCNE est une instance consultative indépendante chargée d’éclairer les enjeux éthiques issus des progrès biomédicaux et technologiques. Elle veille au respect des libertés, de la dignité humaine et de la protection des plus vulnérables.

Chef d’orchestre de ce moment de démocratie sanitaire et scientifique, le Comité consultatif a perfectionné sa méthode : calendrier anticipé, maillage territorial élargi, formation renforcée.

Grâce aux espaces de réflexion éthiques régionaux (Erer), « Nous avons préparé cela avec beaucoup plus de temps que ce qu’on avait fait qu’à l’époque », souligne Jean-François Delfraissy.

De janvier à avril 2026, environ 300 débats en région seront déployés sur l’ensemble du territoire, y compris dans les outre-mer, assure le président du CCNE :

« Je me suis déplacé à La Réunion et je vais me rendre aux Antilles, pour mener une série de grands débats. Pour la première fois, le CCNE compte parmi ses membres un représentant de l’outre-mer, réanimateur exerçant en Martinique ».

Jean-François Delfraissy le rappelle :

« Il n’y a qu’un tiers de médecins et de scientifiques ; les deux autres tiers sont des juristes, des philosophes et des représentants des citoyens. Nous faisons monter le niveau des membres avec une série de présentations d’experts issus de champs scientifiques. Nous avons commencé cette « formation » de nos membres, par exemple avec Alain Fischer sur les thérapies géniques ou sur les neurosciences ».

Près de 200 auditions seront menées par les membres de l’instance avec le concours inédit du Conseil économique, social et environnemental (CESE). « Nous allons faire un comité citoyen plus fort », affirme le président du CCNE.

Un premier rendu (Bilan des États généraux) sera disponible au début de l’été 2026, puis l’avis du CCNE sera publié à l’automne. Ce grand moment démocratique précède la révision de la loi qui n’aura lieu qu’en 2028 ou 2029, à condition que le futur gouvernement décide de l’inscrire à son agenda politique.

Science, société, politique : temporalités dissonantes

Les États généraux se sont imposés comme de véritables biorituels institutionnalisés. Très attendus par les citoyens, ils ont gagné en solidité, transparence et légitimité.

Suivie de près à l’international, « la bioéthique à la française » est un processus tripartite qui s’articule entre science, société et politique. Ce modèle fait figure d’exception : il exige du collectif, du temps, de la pédagogie et un certain degré de maturité démocratique. Ainsi, consolider la culture scientifique en santé des citoyens et des élus, renforce la démocratie dans son ensemble. Dès lors, les États généraux ne peuvent être réduits à une simple phase consultative. Ils incarnent un espace de recomposition du contrat social sanitaire.

Cette démarche s’inscrit dans la continuité d’une démocratie en santé qui, en France, s’affirme comme un espace d’intermédiation entre la société civile, les institutions et les acteurs de santé. Cette conception, développée par Didier Tabuteau, prolonge la reconnaissance du patient-citoyen dont le statut s’est mué, passant de celui de patient à celui d’acteur du débat public ».

L’innovation biomédicale ouvre de nouvelles perspectives thérapeutiques, sociétales et sociales. Toutefois, elle soulève aussi d’inédites réflexions éthiques, à l’heure où nos systèmes de santé peinent à en absorber les coûts, à résorber les inégalités, tandis que l’intelligence artificielle va plus vite que notre capacité collective à définir ses contours.

Une traduction législative incertaine

Si les États généraux se veulent inclusifs et ouverts, leur traduction législative reste incertaine.

le professeur Delfraissy avertit :

« La loi ne viendra pas avant 2028, mais la science avance très vite, on risque une dissociation. »

Ainsi, ce décalage entre les temporalités de l’innovation, du débat public, du temps institutionnel et juridique, démontre que les dissonances temporelles sont intrinsèques à la bioéthique, constituant également l’un des angles morts du processus bioéthique français.

Reste une incertitude : que deviendront ces délibérations dans la future arène parlementaire ? C’est là, sans doute, que se jouera l’équilibre entre science, citoyens et démocratie.


Le professeur Jean-François Delfraissy, président du Conseil consultatif national d’éthique, a relu et validé l’article.

The Conversation

Le professeur Jean-François Delfraissy fut membre du jury de thèse de Katia Andreetti et elle a interagi avec lui lorsqu’elle travaillait en tant que collaboratrice parlementaire. Cette fonction passée l’a conduite à travailler en lien avec l’OPECST.

15.12.2025 à 16:24

Rythmes scolaires : des pauses actives pour repenser les journées de classe et lutter contre la sédentarité

Sylvain Wagnon, Professeur des universités en sciences de l'éducation, Faculté d'éducation, Université de Montpellier
Rémi Richard, Maître de Conférences en sociologie du sport et du handicap, Université de Montpellier
Sihame Chkair, Docteure et chercheure en économie de la santé et en sciences de l'éducation, Université de Montpellier
La Convention citoyenne sur les temps de l’enfant a rappelé que les rythmes scolaires actuels sont peu adaptés aux besoins des enfants. Les pauses actives sont-elles une piste pour changer la donne ?
Texte intégral (1789 mots)

Le rapport de la Convention citoyenne sur les temps de l’enfant publié en cette fin d’année 2025 rappelle que les rythmes scolaires actuels ne sont pas bien en phase avec les besoins des enfants. Proposer régulièrement à ces derniers des pauses actives ne serait-il pas un levier prometteur pour réinventer les journées de classe ?


Rendu public le 22 novembre 2025, le rapport de la Convention citoyenne sur les temps de l’enfant a rappelé que l’organisation de la journée scolaire française reste peu adaptée aux rythmes biologiques et cognitifs des élèves.

Il appelle à une réforme d’ampleur des rythmes scolaires, invitant à repenser non seulement les horaires, mais aussi la manière dont se répartissent attention, repos, mouvement et apprentissages. Dans cette perspective, proposer aux élèves des pauses actives (c’est-à-dire de courtes périodes d’exercices physiques, échauffements ou encore relaxation au fil de la journée) ne serait-il pas un levier particulièrement prometteur ?

Augmenter l’activité physique des enfants, une urgence de santé publique

En 2024 en France, seuls 33 % des filles et 51 % des garçons de 6 à 17 ans atteignent les recommandations de l’Organisation mondiale de la santé (OMS) : au moins 60 minutes d’activité physique quotidienne d’intensité modérée à soutenue. Parallèlement, entre la classe et les transports, les repas et les temps d’écran, ils restent de longues heures sédentaires.

Cette réalité interroge particulièrement l’école : comment maintenir l’attention d’élèves contraints à rester immobiles de longues heures ? Comment prévenir les troubles de l’attention, fatigue ou anxiété. Des questions d’autant plus urgentes du fait que le système scolaire français fait partie de ceux qui enregistrent le plus grand nombre d’heures de classe données aux enfants durant toute leur scolarité,

Une précision avant de poursuivre : attention à ne pas confondre sédentarité et manque d’activité physique.

La sédentarité correspond au temps passé, assis ou allongé éveillé, avec une dépense énergétique très faible. On peut donc être physiquement actif selon les recommandations de l’OMS (par exemple courir trois fois par semaine), tout en étant très sédentaire si l’on reste assis plus de huit heures par jour. À l’inverse, l’inactivité physique signifie ne pas atteindre les seuils d’activité physique recommandés (au moins 150 minutes hebdomadaires d’intensité modérée).

Ces deux dimensions interagissent mais ne se confondent pas, comme le rappelle le Guide des connaissances sur l’activité physique et la sédentarité publié par la Haute Autorité de Santé en 2022.

Relativement récente en santé publique, cette distinction ne s’est imposée qu’au cours des années 2000, lorsque les grandes enquêtes ont montré que les risques liés à la sédentarité (diabète, maladies cardiovasculaires, certains cancers) existaient indépendamment du manque d’activité physique.

Les pauses actives : bouger quelques minutes ensemble

La pause active désigne un court moment de 5 à 15 minutes de mobilisation physique, intégrée directement dans le temps d’apprentissage ou de travail. Elle se déroule en quatre phases : échauffement, exercice cardio ou moteur, activité de coordination ou d’équilibre, retour au calme par étirements ou respiration.

Elle ne nécessite ni salle dédiée ni matériel particulier. Son efficacité repose sur la régularité : plusieurs fois par jour, entre deux séquences de travail ou d’apprentissage. Si les formes peuvent varier selon les contextes et les âges, il convient de ne pas les confondre avec les temps de recréation, de motricité ou d’éducation physique.

Exemple de pause active (Faculté des sciences du sport de Marseille).

Depuis, de nombreuses études ont confirmé que l’activité physique stimule la plasticité cérébrale et la mémoire. Des études en psychologie cognitive démontrent que quelques minutes de mouvement suffisent à relancer l’attention soutenue et la concentration. La santé publique établit que rompre la sédentarité réduit le stress et prévient les troubles musculosquelettiques.

À l’école : apprendre mieux en bougeant

Depuis une dizaine d’années, les études et les expériences menées au Québec dans la cadre du projet À mon école, on s’active soulignent l’importance de ce type d’activités. En France le ministère de l’éducation nationale français a fait le choix des activités physiques quotidiennes (APQ) pour que chaque élève du premier degré bénéficie d’au moins 30 minutes d’activité physique quotidienne à l’école primaire. Cette mesure lancée, à la rentrée 2022, par le gouvernement, n’est appliquée que par 42 % des écoles primaires, selon un rapport sénatorial de septembre 2024.

Trente minutes d’activité physique quotidienne (ministère de l’éducation nationale, 2024)

Ce dispositif contribue à limiter le manque d’activité physique, mais ne réduit pas nécessairement la sédentarité. Les recommandations françaises actualisées en 2016 distinguent clairement ces deux dimensions : les bénéfices d’une pratique régulière d’activité physique ne compensent pas toujours les effets délétères du temps passé assis. Pour être efficaces, les politiques éducatives doivent donc agir à la fois sur l’augmentation du volume d’activité et sur la réduction des périodes prolongées d’immobilité. La mission flash sur l’activité physique et sportive et la prévention de l’obésité en milieu scolaire d’avril 2025 a réaffirmé l’urgence d’une politique éducative généralisée.

Dans ce contexte, les pauses actives sont présentées comme un moyen complémentaire : elles doivent améliorer la concentration et la mémorisation, réduisent l’agitation pour faciliter la gestion des comportements et le climat scolaire.

Les pauses actives ne peuvent être des activités isolées du reste des apprentissages, elles sont partie prenante d’une éducation intégrale, qui prend en compte non seulement la tête (l’intellect), mais aussi le corps (mouvement, coordination) et le cœur (gestion des émotions). Une vision théorisée par le pédagogue libertaire Paul Robin au milieu du XIXe siècle et qui pourrait être reprise par l’école publique laïque.

Une révolution dans notre rapport au temps

Comme le précise le rapport de la convention citoyenne sur les temps de l’enfant de novembre 2025, les journées des élèves doivent être repensées dans leur globalité, en rééquilibrant sollicitations intellectuelles, besoins physiques et temps de repos.

Intégrer les pauses actives dans les routines quotidiennes ne relève pas d’un gadget, mais d’une transformation profonde de nos manières de travailler et d’apprendre. Elles réintroduisent le rythme, la respiration et le mouvement comme conditions de toute activité intellectuelle. Une question déjà bien étudiée à l’université ou dans le monde professionnel où les pauses actives se développent.


À lire aussi : Bouger pour mieux apprendre : Comment lutter contre la sédentarité à l’école


Avec les pauses destinées au silence, à la rêverie ou au repos, elles dessinent une véritable écologie du temps, plus respectueuse des besoins humains.

Ces pauses actives à l’école constituent une première étape. Aller plus loin impliquerait d’intégrer le mouvement au cœur même des apprentissages, par exemple grâce au mobilier actif ou encore à des démarches pédagogiques qui associent marche et apprentissage.

La lutte contre la sédentarité pourrait alors devenir l’occasion de repenser plus largement nos modalités éducatives, en valorisant une approche où l’attention, le corps et le savoir évoluent dans l’ensemble des espaces scolaires. Promouvoir ces pratiques, c’est faire le choix d’une société qui prévient plutôt qu’une société qui tente de réparer et qui cultive l’attention plutôt que de l’épuiser.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

15.12.2025 à 16:14

Et si la nature brillait plus que ce que nous voyons ? À la découverte de la vie fluo

Romain Garrouste, Chercheur à l’Institut de systématique, évolution, biodiversité (ISYEB), Muséum national d’histoire naturelle (MNHN)
Bernd Schöllhorn, Professeur, laboratoire ITODYS, Université Paris Cité
Serge Berthier, Professeur, Institut des Nanosciences de Paris, Sorbonne Université
La fluorescence naturelle révèle un monde lumineux insoupçonné : du camouflage animal aux innovations biomimétiques, une autre vision du vivant s’ouvre à nous.
Texte intégral (3147 mots)
Portait en fluorescence aux UV de la grenouille arboricole _Ostecephalus taurinus_, en Guyane. La fluorescence aux UV des batraciens se manifeste par une couleur bleu-vert, avec quelque fois la fluorescence des os en transparence. Romain Garrouste, Fourni par l'auteur

Le parcours nocturne Lumières de la nature, proposé par le Jardin des plantes de Paris jusqu’au 16 janvier 2026, a été inspiré d’études menées en Guyane. Derrière cette exposition, on trouve notamment trois chercheurs qui ont inspecté la forêt amazonienne, armés de lampes UV. Ils nous livrent ici les secrets de la fluorescence naturelle, le plus souvent invisible pour les humains mais omniprésente dans le vivant.


Dans la pénombre de la forêt guyanaise, en début de nuit, nos lampes UV éclairent une forme mouvante dans les arbres, mauve, presque rose et assez intense. C’est un mammifère marsupial, un Marmosa, qui nous révèle un phénomène physique longtemps passé inaperçu dans le vivant… Non loin de là, sur un tronc à hauteur d’homme, une grosse grenouille arboricole montre elle une intense couleur bleu-vert, alors que sa peau est brun-vert en lumière normale, presque mimétique des troncs où elle se déplace.

Ce phénomène physique s’appelle la fluorescence, un type de photoluminescence qui se manifeste dans la nature, au sein d’une étonnante diversité d’organismes : lichens, plantes, champignons, insectes, araignées, scorpions, reptiles, poissons, oiseaux et même… mammifères. Dans ce contexte on parle de la « fluorescence naturelle » qui implique l’absorption d’un rayonnement du spectre lumineux
– l’ultraviolet (UV), le visible ou l’infrarouge (IR) – suivie de l’émission spontanée (à l’échelle de la nanoseconde) d’une lumière moins énergétique, souvent visible, mais pas uniquement.

Longtemps considérée comme une curiosité, la fluorescence naturelle se révèle plus répandue et intrigante qu’on ne l’imaginait. Elle intéresse de plus en plus la recherche, notamment dans le cadre d’applications technologiques ou biomédicales (par exemple des nouveaux marqueurs cellulaires pour la recherche). Les chercheuses et chercheurs l’étudient davantage dans la nature, une nouvelle exploration du vivant étant permise par des instruments portatifs de mesures (photo-spectromètres) et d’émissions (torches LED UV). Notre équipe de recherche se spécialise depuis plusieurs années sur l’exploration des fluorescences du vivant. Nous revenons d’une mission scientifique en Guyane dans le but d’appréhender ce phénomène dans la forêt amazonienne, et plus spécialement dans les biotopes autour de la station de recherche des Nouragues


À lire aussi : Ces champignons qui brillent dans la nuit : la bioluminescence fongique décryptée


Un éclat discret mais omniprésent

La fluorescence naturelle, à ne pas confondre avec la bioluminescence, repose sur la capacité de certaines molécules, les fluorophores, à absorber un photon d’énergie élevée (par exemple dans l’UV) et à en réémettre un autre, d’énergie moindre (dans le visible ou l’IR). La vie, à toutes ses échelles, en est imprégnée. On trouve quelquefois le terme d’autofluorescence pour bien insister sur le fait qu’il ne s’agit pas de fluorescence de composés artificiels. C’est le cas également de nombreux minéraux, comme la fluorite (CaF2), qui a donné son nom au phénomène de fluorescence du fait de sa fluorescence spectaculaire aux UV.

La fluorescence des plantes est connue depuis longtemps, notamment à travers celle de la chlorophylle : lorsqu’elle absorbe la lumière, une partie de l’énergie non utilisée pour la photosynthèse est réémise sous forme de fluorescence rouge. Ce signal est si caractéristique qu’il sert à mesurer à distance la vitalité de la végétation, y compris depuis les satellites. Mais la chlorophylle n’est pas seule à briller. D’autres composés végétaux, comme les flavonoïdes, les anthocyanes ou les ptérines, peuvent émettre une fluorescence bleue ou verte lorsqu’ils sont excités par la lumière ultraviolette.

Liane avec lichens en sous-bois humide en Guyane. Les lichens sont souvent très fluorescents aux UV. Les Monocotyledones (Graminées, Broméliacées, Cypéracées, etc.) fluorescent surtout en bleu-vert (ici surtout des Rapateacées), les pigments photosynthétiques de la
Liane avec lichens en sous-bois humide. Les lichens sont souvent très fluorescents aux UV. Les Monocotyledones (Graminées, Broméliacées, Cypéracées, etc.) fluorescent surtout en bleu-vert (ici surtout des Rapateacées), les pigments photosynthétiques de la plupart des Dicotyledones en rouge (comme les Melastomatacées de sous-bois). Romain Garrouste, Fourni par l'auteur

Plus largement, des études récentes ont révélé que la fluorescence existe dans presque tous les grands groupes du vivant.

À quoi sert la fluorescence ?

Chez certains animaux, elle pourrait jouer un rôle avant tout dans la protection contre les UV, mais aussi dans la communication visuelle telle que la reconnaissance entre congénères (comme chez l’araignée Cosmophasis umbratica, les perruches australiennes ou encore une grenouille arboricole), ou dans l’avertissement, et même le camouflage. Cela peut sembler contre-intuitif de se camoufler en étant « fluo » mais il ne faut pas oublier que d’autres organismes n’ont pas la même vision que les humains.

La fluorescence de certaines fleurs, à la lumière du jour souvent cachée aux yeux humains mais perceptible pour les insectes pollinisateurs, pourrait jouer un rôle attractif. Pour la plupart des autres organismes fluorescents, nous ignorons si cette propriété possède une fonction biologique ou s’il ne s’agit pas simplement d’un effet optique sans conséquence pour l’animal ou la plante. La frontière reste floue si l’on ne possède pas les clés pour déchiffrer les phénomènes. Encore faut-il les voir…

Chez les mammifères : quand les marsupiaux s’y mettent

La découverte a surpris la communauté scientifique : des mammifères fluorescents, vraiment ? Depuis 2020, plusieurs études ont montré que des marsupiaux – notamment les opossums américains (Didelphis spp.), mais aussi des espèces australiennes comme le planeur à sucre (Petaurus breviceps) ou phalanger, émettent une fluorescence rose ou bleutée sous lumière ultraviolette.

En Guyane, comme nous l’avons observé, des petits opossums sont également fluo, comme les Marmosa.

Fluorescence aux UV d’un marsupial dans la forêt Guyanaise, photographiée au téléobjectif dans la canopée. Rare image de la fluorescence de ces animaux dans le milieu naturel, en limite de détection du capteur
Fluorescence aux UV d’un marsupial dans la forêt Guyanaise, photographiée au téléobjectif dans la canopée. Rare image de la fluorescence de ces animaux dans le milieu naturel, en limite de détection du capteur. Romain Garrouste, Fourni par l'auteur

Des travaux récents ont élargi le constat : plus de 125 espèces de mammifères présentent un certain degré de fluorescence. Celle-ci se manifeste surtout sur les zones claires ou peu pigmentées : pelage blanc, moustaches, griffes, dents ou piquants. Sur le terrain, nous avons souvent observé des rats fluorescents dans la nature (Rattus spp.) que ce soit en Europe, en Asie ou en Guyane.

Chez les insectes, des signaux souvent cachés

Les insectes offrent une extraordinaire diversité de structures fluorescentes. Les ailes de certaines libellules et cigales contiennent de la résiline, une protéine élastique qui émet une lumière bleue sous UV. L’un des plus spectaculaires reste les nids de guêpes asiatiques (Polistes sp.), que nous avons observés au Vietnam qui battent des records de fluorescence induite par l’UV avec un rendement quantique (le rapport entre le nombre de photons émis et absorbés) exceptionnellement élevé jusqu’à 36 % (champion des matériaux biologiques terrestre à ce jour).

Les élytres des coléoptères, quant à eux, peuvent renfermer des pigments fluorescents enchâssés dans des micro ou nanostructures photoniques, capables d’amplifier, de restreindre ou de diriger la lumière émise. Chez le scarabée Hoplia coerulea, par exemple, ces structures créent une fluorescence directionnelle d’un bleu métallique saisissant. Quelques exemples ont été étudiés mais certainement beaucoup d’autres restent à découvrir.

Portrait d’une abeille à longues antenne Eucera sp. (Massif des maures, France). Les yeux des insectes sont le plus souvent bleu-vert. On distingue aussi les ocelles (ou yeux élémentaires), disposées en triangle plat, de la même couleur
Portrait d’une abeille à longues antenne Eucera sp. (massif des Maures, France). Les yeux des insectes sont le plus souvent bleu-vert. On distingue aussi les ocelles (ou yeux élémentaires), disposées en triangle plat, de la même couleur. Romain Garrouste, Fourni par l'auteur

En Amazonie, chez le Morpho sulkowskyi, un papillon iridescent et spectaculaire, la fluorescence fait aussi partie des signaux renvoyés par les ailes colorées.

Une lumière sur l’évolution… et sur la recherche

Cette redécouverte de la fluorescence naturelle dans autant de groupes vivants change notre regard sur la biodiversité et nous incite à mieux la comprendre. L’anthropomorphisme nous a conduits à croire que nous vivions dans un monde visible universel alors que c’est loin d’être le cas, par exemple, notre totale non-perception des UV qui pourtant imprègnent une grande partie du monde animal, des insectes aux poissons (la plupart des requins sont fluorescents !), et déterminent un grand nombre d’interactions écologiques, comme la pollinisation et les relations proie-prédateur, ou modifie notre perception du mimétisme (que voient réellement les prédateurs ?).

Documentaire sur la fluorescence naturelle sur lequel le « fluo trio » a été conseiller scientifique.

Pour comprendre ces phénomènes, la chimie et la physique doivent s’associer à la biologie qui peine seule à élucider les mécanismes, et qui peut les ignorer ou les minimiser.

Ne négligeons pas les applications potentielles (par fois bio-inspirées) qui peuvent découler de la meilleure connaissance et de la compréhension des systèmes naturels. La fluorescence est déjà au cœur de nombreuses applications scientifiques : microscopie de fluorescence, imagerie médicale, biologie cellulaire. Aujourd’hui, la GFP (protéine fluorescente verte), trouvée dans une méduse, est l’un des outils les plus largement utilisés en biologie moléculaire, et sa découverte a été récompensée par un prix Nobel en 2008. La découverte de nouvelles molécules fluorescentes performantes pourrait améliorer les outils de diagnostics médicaux et ouvrir la voie à des dispositifs photoniques inédits, capables d’améliorer l’efficacité des panneaux solaires, par exemple.

Le monde vivant n’est pas seulement coloré, il recèle aussi un « spectre caché » de lumières invisibles à l’œil humain. Pour le comprendre, il nous faut l’appréhender et revoir notre perception du monde, ainsi que de nombreuses certitudes. C’est ce qui fait la beauté de la science face à la merveilleuse complexité de la nature. Et si le monde était encore plus beau que ce que l’on croyait ?


Pour en savoir plus, vous pouvez visiter l’exposition « En voie d’illumination : les lumières de la nature » jusqu’au 18 janvier 2026 au Jardin des plantes (Paris), où vous verrez une reconstitution de la forêt tropicale d’Amérique du Sud, avec sa bioluminescence et sa fluorescence.

The Conversation

Romain Garrouste a reçu des financements de MNHN, CNRS, Sorbonne Université, National Geographic, MRAE, MTE, Labex BCDiv, Labex CEBA, WWF

Bernd SCHÖLLHORN a reçu des financements du CNRS (MITI et OVNI) et de l'Université Paris Cité (IDEX et laboratoire ITODYS)

Serge Berthier a reçu des financements de ANR, CNRS, Sorbonne Université.

15.12.2025 à 15:26

Les Français peuvent-ils concevoir un repas de fête sans viande ?

Service Environnement, The Conversation France
Comment transmettre aux générations futures des habitudes alimentaires plus respectueuses de la planète, alors que la gastronomie française reste associée à la viande ?
Texte intégral (798 mots)

Dans l’imaginaire collectif français, un repas de fête se passe difficilement de viande. À l’heure où les impératifs environnementaux nous invitent à réduire notre consommation carnée, il est temps de montrer que le végétal aussi peut être le cœur de la gastronomie. Mais comment faire ? Esquissons quelques pistes.


Les Français comptent parmi les plus gros consommateurs de viande au monde. Pourtant, la cuisine française s’est longtemps appuyée sur les céréales, les légumes secs et les soupes, la viande restant réservée aux grandes occasions.

Les quantités de produits carnés consommées tendent à diminuer depuis plusieurs années, mais cela tiendrait davantage à une hausse des prix plutôt qu’à une véritable préoccupation environnementale ou nutritionnelle.


À lire aussi : Faut-il manger flexitarien au nom du climat ?


La gastronomie française inscrite sur la liste du patrimoine immatériel de l’Unesco

Le repas gastronomique français constitue, à cet égard, un objet emblématique. Il a été inscrit sur la liste du patrimoine culturel immatériel de l’Organisation des Nations unies pour l’éducation, la science et la culture (Unesco) en 2010. Or, la définition de l’Unesco stipule qu’il s’agit de pratiques vivantes, qui peuvent évoluer.

Mariages, communions, repas de fêtes de fin d’année… Nous avons mené une étude auprès de 424 mangeurs qui a confirmé que la viande occupait encore une place centrale. Sur le terrain, nous avons également observé les habitudes de 18 000 personnes lors des repas de mariage.

Résultat, plus de deux convives sur trois choisissent une viande rouge, principalement du bœuf, qui, à lui seul, pèse presque autant que toutes les autres options réunies. Le poisson additionné aux plats végétariens ne représentait qu’un dixième des choix. La demande pour les plats végétariens, l’agneau ou le porc demeure marginale, voire inexistante.

Des stratégies pour végétaliser la gastronomie française

Ces constats soulèvent une question centrale : si les moments de partage les plus symboliques sont systématiquement centrés sur la viande, peut-on réellement transmettre à nos enfants une culture alimentaire plus végétale ?

Nous avons analysé les cartes de 43 restaurants allant du fast-food au restaurant gastronomique. Notre étude a fait émerger sept stratégies, directement transposables au repas gastronomique.

L’une des approches consiste à supprimer les produits animaux normalement présents dans la recette, par exemple le chili sin carne, ou d’en proposer une version pescétarienne par exemple le cassoulet de poisson.

Une autre approche se focalise sur l’expérience : il ne s’agit pas de copier la viande, mais de proposer une expérience culinaire végétarienne esthétique et narrative. C’est une stratégie prisée des chefs de la restauration gastronomique.

Il y a aussi la reconversion, qui va mobiliser des hors-d’œuvre ou des accompagnements traditionnellement végétariens comme plats principaux. Par exemple, des ravioles de Royan, ou une soupe au pistou en guise de plat principal.

On peut encore citer la coproduction, qui laisse le client composer lui-même un plat végétarien selon ses préférences, ou la coexistence, qui consiste à afficher côte à côte alternatives carnées et végétales dans le même menu. On peut également choisir d’importer une expérience gastronomique végétarienne mais issue d’une autre culture, ou encore faire du végétal un pilier identitaire de la marque pour afficher un engagement environnemental et social.

Toutes ces stratégies sont complémentaires et ne sont jamais mutuellement exclusives. Elles peuvent se combiner au sein d’un même restaurant et parfois d’un même repas.


Cet article est la version courte de celui publié par Bruno Cardinale (Université Le Havre Normandie) en septembre 2025.

The Conversation

Service Environnement ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

15.12.2025 à 15:24

L’empathie artificielle : du miracle technologique au mirage relationnel

Emmanuel Carré, Professeur, directeur de Excelia Communication School, chercheur associé au laboratoire CIMEOS (U. de Bourgogne) et CERIIM (Excelia), Excelia
Les IA conversationnelles nous écoutent, nous rassurent et semblent nous comprendre : cette empathie programmée transforme-t-elle notre rapport aux émotions ?
Texte intégral (2097 mots)
Sommes-nous condamnés à la convivialité programmée ? Pixabay, CC BY

Les intelligences artificielles qui donnent l’impression de comprendre nos émotions se multiplient. Sur Replika ou Snapchat AI, des millions de personnes dialoguent chaque jour avec ces systèmes conçus pour écouter et rassurer. Les modèles de langage, comme ChatGPT, Claude ou Gemini, prolongent cette tendance : leurs réponses empreintes d’approbation et d’enthousiasme instaurent une convivialité programmée qui finit par façonner une norme de dialogue aussi polie qu’inquiétante.


Le psychologue américain Mark Davis définit l’empathie comme la capacité à percevoir les états mentaux et émotionnels d’autrui, à s’y ajuster et à en tenir compte dans sa conduite. Les chercheurs distinguent deux versants : l’empathie cognitive, fondée sur la compréhension des intentions, et l’empathie affective, liée au partage du ressenti. Cette distinction, centrale en psychologie sociale, montre que l’empathie n’est pas une émotion mais relève d’une coordination interpersonnelle.

Dans la vie quotidienne comme dans les métiers de service, l’empathie structure ainsi la confiance. Le vendeur attentif, le soignant ou le médiateur mobilisent des codes d’attention : ton, regard, reformulation, rythme verbal. Le sociologue Erving Goffman parlait d’« ajustement mutuel » pour désigner ces gestes infimes qui font tenir la relation. L’empathie devient une compétence interactionnelle ; elle se cultive, se met en scène et s’évalue. Les sciences de gestion l’ont intégrée à l’économie de l’expérience : il s’agit de créer de l’attachement par la perception d’une écoute authentique et ainsi d’améliorer la proximité affective avec le consommateur.

Quand les machines apprennent à dialoguer

Le compagnon chatbot Replika revendique 25 millions de personnes utilisatrices, Xiaoice 660 millions en Chine et Snapchat AI environ 150 millions dans le monde. Leur efficacité repose fortement sur la reconnaissance mimétique : interpréter des indices émotionnels pour générer des réponses adaptées.

Dès la fin des années 1990, Byron Reeves et Clifford Nass avaient montré que les individus appliquent spontanément aux machines les mêmes règles sociales, affectives et morales qu’aux humains : politesse, confiance, empathie, voire loyauté. Autrement dit, nous ne faisons pas « comme si » la machine était humaine : nous réagissons effectivement à elle comme à une personne dès lors qu’elle adopte les signes minimaux de l’interaction sociale.

Les interfaces conversationnelles reproduisent aujourd’hui ces mécanismes. Les chatbots empathiques imitent les signes de la compréhension : reformulations, validation du ressenti, expressions de sollicitude. Si j’interroge ChatGPT, sa réponse commence invariablement par une formule du type :

« Excellente question, Emmanuel. »

L’empathie est explicitement mise en avant comme argument central : « Always here to listen and talk. Always on your side », annonce la page d’accueil de Replika. Jusqu’au nom même du service condense cette promesse affective. « Replika » renvoie à la fois à la réplique comme copie (l’illusion d’un double humain) et à la réponse dialogique (la capacité à répondre, à relancer, à soutenir). Le mot suggère ainsi une présence hybride : ni humaine ni objet technique mais semblable et disponible. Au fond, une figure de proximité sans corps, une intimité sans altérité.

De surcroît, ces compagnons s’adressent à nous dans notre langue, avec un langage « humanisé ». Les psychologues Nicholas Epley et John Cacioppo ont montré que l’anthropomorphisme (l’attribution d’intentions humaines à des objets) dépend de trois facteurs : les besoins sociaux du sujet, la clarté des signaux et la perception d’agentivité. Dès qu’une interface répond de manière cohérente, nous la traitons comme une personne.

Certains utilisateurs vont même jusqu’à remercier ou encourager leur chatbot, comme on motive un enfant ou un animal domestique : superstition moderne qui ne persuade pas la machine, mais apaise l’humain.

Engagement émotionnel

Pourquoi l’humain se laisse-t-il séduire ? Des études d’électro-encéphalographie montrent que les visages de robots humanoïdes activent les mêmes zones attentionnelles que les visages humains. Une découverte contre-intuitive émerge des recherches : le mode textuel génère davantage d’engagement émotionnel que la voix. Les utilisateurs se confient plus, partagent davantage de problèmes personnels et développent une dépendance plus forte avec un chatbot textuel qu’avec une interface vocale. L’absence de voix humaine les incite à projeter le ton et les intentions qu’ils souhaitent percevoir, comblant les silences de l’algorithme avec leur propre imaginaire relationnel.

Ces dialogues avec les chatbots sont-ils constructifs ? Une étude du MIT Media Lab sur 981 participants et plus de 300 000 messages échangés souligne un paradoxe : les utilisateurs quotidiens de chatbots présentent, au bout de quatre semaines, une augmentation moyenne de 12 % du sentiment de solitude et une baisse de 8 % des interactions sociales réelles.

Autre paradoxe : une étude sur les utilisateurs de Replika révèle que 90 % d’entre eux se déclaraient solitaires (dont 43 % « sévèrement »), même si 90 % disaient aussi percevoir un soutien social élevé. Près de 3 % affirment même que leur compagnon numérique a empêché un passage à l’acte suicidaire. Ce double constat suggère que la machine ne remplace pas la relation humaine, mais fournit un espace de transition, une disponibilité émotionnelle que les institutions humaines n’offrent plus aussi facilement.

À l’inverse, la dépendance affective peut avoir des effets dramatiques. En 2024, Sewell Setzer, un adolescent américain de 14 ans, s’est suicidé après qu’un chatbot l’a encouragé à « passer à l’acte ». Un an plus tôt, en Belgique, un utilisateur de 30 ans avait mis fin à ses jours après des échanges où l’IA lui suggérait de se sacrifier pour sauver la planète. Ces tragédies rappellent que l’illusion d’écoute peut aussi basculer en emprise symbolique.

Quand la machine compatit à notre place

La façon dont ces dispositifs fonctionnent peut en effet amplifier le phénomène d’emprise.

Les plateformes d’IA empathique collectent des données émotionnelles – humeur, anxiété, espoirs – qui alimentent un marché évalué à plusieurs dizaines de milliards de dollars. Le rapport Amplyfi (2025) parle d’une « économie de l’attention affective » : plus l’utilisateur se confie, plus la plateforme capitalise sur cette exposition intime pour transformer la relation de confiance en relation commerciale. D’ailleurs, plusieurs médias relaient des dépôts de plainte contre Replika, accusé de « marketing trompeur » et de « design manipulateur »", soutenant que l’application exploiterait la vulnérabilité émotionnelle des utilisateurs pour les pousser à souscrire à des abonnements premium ou acheter des contenus payants.

Si ce n’est pas encore clair au plan juridique, cette délégation de l’écoute a manifestement d’ores et déjà des effets moraux. Pour le philosophe Laurence Cardwell, il s’agit d’un désapprentissage éthique : en laissant la machine compatir à notre place, nous réduisons notre propre endurance à la différence, au conflit et à la vulnérabilité. Sherry Turkle, sociologue du numérique, souligne que nous finissons même par « préférer des relations prévisibles » à l’incertitude du dialogue humain.

Les études longitudinales ne sont pas toutes pessimistes. La psychologue américaine Sara Konrath observe depuis 2008 une remontée de l’empathie cognitive chez les jeunes adultes aux États-Unis : le besoin de comprendre autrui augmente, même si le contact physique diminue. La solitude agit ici comme une « faim sociale » : le manque stimule le désir de lien.

Les technologies empathiques peuvent donc servir d’objets transitionnels (comme « des doudous ») au sens où des médiations permettant de réapprendre la relation. Les applications thérapeutiques basées sur des agents conversationnels, telles que Woebot, présentent d’ailleurs une diminution significative des symptômes dépressifs à court terme chez certaines populations, comme l’ont montré des chercheurs dès 2017 dans un essai contrôlé randomisé mené auprès de jeunes adultes. Toutefois, l’efficacité de ce type d’intervention demeure principalement limitée à la période d’utilisation : les effets observés sur la dépression et l’anxiété tendent à s’atténuer après l’arrêt de l’application, sans garantir une amélioration durable du bien-être psychologique.

Devoir de vigilance

Cette dynamique soulève une question désormais centrale : est-il pertinent de confier à des intelligences artificielles des fonctions traditionnellement réservées aux relations humaines les plus sensibles (la confidence, le soutien émotionnel ou psychologique) ? Un article récent, paru dans The Conversation, souligne le décalage croissant entre la puissance de simulation empathique des machines et l’absence de responsabilité morale ou clinique qui les accompagne : les IA peuvent reproduire les formes de l’écoute sans en assumer les conséquences.

Alors, comment gérer cette relation avec les chatbots ? Andrew McStay, spécialiste reconnu de l’IA émotionnelle, plaide pour un devoir de vigilance (« Duty of care ») sous l’égide d’instances internationales indépendantes : transparence sur la nature non humaine de ces systèmes, limitation du temps d’usage, encadrement pour les adolescents. Il appelle aussi à une littératie émotionnelle numérique, c’est-à-dire la capacité à reconnaître ce que l’IA simule et ce qu’elle ne peut véritablement ressentir, afin de mieux interpréter ces interactions.

Le recours aux chatbots prétendument à notre écoute amène un bilan contrasté. Ils créent du lien, donnent le change, apaisent. Ils apportent des avis positifs et définitifs qui nous donnent raison en douceur et nous enferment dans une bulle de confirmation.

Si elle met de l’huile dans les rouages de l’interface humain-machine, l’empathie est comme « polluée » par un contrat mécanique. Ce que nous appelons empathie artificielle n’est pas le reflet de notre humanité, mais un miroir réglé sur nos attentes. Les chatbots ne feignent pas seulement de nous comprendre : ils modèlent ce que nous acceptons désormais d’appeler « écoute ». En cherchant des interlocuteurs infaillibles, nous avons fabriqué des dispositifs d’écho. L’émotion y devient un langage de surface : parfaitement simulé, imparfaitement partagé. Le risque n’est pas que les interfaces deviennent sensibles, mais que nous cessions de l’être à force de converser avec des programmes qui ne nous contredisent jamais.

The Conversation

Emmanuel Carré ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

15.12.2025 à 15:24

Devrait-on interdire les partis qui menacent la démocratie ?

Andrea Martini, Chercheur post-doc Marie Curie, historien, Université Paris 8 – Vincennes Saint-Denis
La Constitution allemande permet d’interdire un parti menaçant la démocratie. Un modèle à suivre ? Que nous enseigne l’histoire concernant les sanctions appliquées aux partis d’extrême droite ?
Texte intégral (2397 mots)

En Europe comme ailleurs, la montée des groupes d’extrême droite s’impose comme un phénomène majeur. Face à cette menace, les démocraties sont appelées à réagir. Parmi les réponses possibles figurent des mesures répressives, telles que l’interdiction de certains partis politiques. Mais ces stratégies sont-elles réellement efficaces ? En adoptant une perspective rétrospective sur l’histoire des démocraties européennes, il est possible d’en évaluer à la fois les forces et les limites.


Début mai 2025, l’Office fédéral allemand pour la protection de la Constitution a établi que le parti d’extrême droite Alternative für Deutschland (AfD) devait être considéré comme une organisation extrémiste. Ce statut permet aux magistrats et aux services de renseignement de mener des investigations plus approfondies sur les activités de l’AfD. Désormais, son interdiction ne peut, en termes absolus, être exclue, du moins selon ce qui est prévu par la Constitution du pays, qui considère comme l’un des scénarios envisageables la dissolution de tous les partis – qu’ils soient de droite ou de gauche – représentant une menace pour la démocratie elle-même (art. 21).

En Allemagne, cette décision de l’Office fédéral pour la protection de la Constitution a déclenché un débat intense, interrogeant l’opportunité de mettre en œuvre des mesures répressives pour protéger la démocratie. Une telle démarche ne risque-t-elle pas d’être contre-productive pour la démocratie elle-même ? La question est extrêmement délicate.

Un regard sur le passé ne peut, à lui seul, apporter une réponse définitive à un enjeu aussi complexe. Pourtant, il permet de donner de la profondeur au débat. D’ailleurs, une mesure telle que l’interdiction d’un parti n’est en rien étrangère à l’histoire des démocraties. C’est ce que montre le champ d’études consacré au concept de « démocratie militante » (ou « protégée »), une notion qui remonte aux années 1930, lorsqu’elle fut employée par le politologue allemand Karl Loewenstein afin de désigner les instruments susceptibles de contrer la montée des mouvements antidémocratiques, dans le cas spécifique l’accession au pouvoir du parti national-socialiste.

Se protéger du fascisme

La fin de la Grande Guerre coïncide avec la chute des grands empires et la naissance de nombreuses démocraties. L’exploit, toutefois, de l’idéologie fasciste en Italie et puis en Allemagne rend ce dernier modèle de plus en plus séduisant. Certains pays choisissent alors de se protéger, donnant naissance à ce que l’on peut considérer comme les premières formes de démocratie militante.

En France, le 10 janvier 1936, la IIIe République adopte une loi autorisant la dissolution des « groupes de combat et milices privées ». Cette mesure vise les ligues d’extrême droite, dont la popularité connaît une croissance exponentielle. À peine quelques semaines plus tard, la loi est appliquée pour la première fois : à la suite de l’agression dont Léon Blum, le leader du Parti socialiste, est victime, la Ligue d’Action française est dissoute.

Peinture murale de la bataille rangée de Cable Street opposant fascistes et antifascistes à Londres, en 1936. Amanda Slater, CC BY-SA

Durant la même période, le Royaume-Uni décide lui aussi de prendre des mesures face à la montée de l’extrême droite. La menace, ici, porte le nom de British Union of Fascists (BUF), un parti fondé en 1932 par Oswald Mosley. Dès son appellation, la référence au Parti national fasciste de Mussolini est évidente. Les manifestations publiques répétées du BUF font croître le niveau de tension dans le pays, au point que, le 4 octobre 1936, dans l’est de Londres, se déroule la célèbre bataille de Cable Street, qui oppose, d’un côté, les fascistes de Mosley, et de l’autre, les syndicats, des militants de gauche ainsi que des membres de la communauté juive.

En décembre 1936, le gouvernement adopte donc un Public Order Act, qui interdit le port d’uniformes politiques lors des manifestations (donc pas de chemises noires, comme avaient l’habitude d’en porter les partisans de Mosley) et renforce les pouvoirs discrétionnaires de la police pour empêcher certains rassemblements. Ce faisant, le poids réel de Mosley et du BUF diminue drastiquement.

L’immédiat après-guerre

Un deuxième tournant dans l’histoire de la démocratie militante est l’immédiat après-guerre. L’Europe, une fois sortie de la menace nazie et fasciste, considère qu’il est d’une importance capitale d’adopter de mesures destinées à se protéger : se protéger contre la menace fasciste renouvelée et, en même temps, contre la menace communiste, considérée alors comme encore plus sérieuse.

Le Royaume-Uni et la France confirment tout d’abord les lois déjà en vigueur et n’hésitent pas à les appliquer à nouveau. Dans l’immédiat après-guerre, la IVe République française recourt ainsi au dispositif de 1936 pour dissoudre toute une série de petites formations de droite, à commencer par le Mouvement socialiste d’unité française. Le Royaume-Uni fait de même : il s’appuie sur le Public Order Act de 1936 pour empêcher au nouveau parti fondé par Mosley à la fin de 1947, l’Union Movement, d’organiser des meetings publics.

Dans le même temps, les pays qui avaient vécu directement l’expérience du fascisme prennent eux aussi des mesures de précaution. C’est le cas de la République fédérale d’Allemagne (RFA) qui définit dans sa Loi fondamentale comme inconstitutionnels tous les partis qui représentent une menace pour la démocratie, mais aussi de la République démocratique allemande (RDA), où l’idéologie fasciste est naturellement proscrite. C’est également le cas de l’Italie. Là, la Constitution, entrée en vigueur en janvier 1948, interdit dans sa XIIᵉ disposition finale la réorganisation « sous quelque forme que ce soit du parti fasciste dissous ». Ce principe est en outre immédiatement accompagné d’une loi, approuvée en décembre 1947, puis d’une autre en 1952 : la loi Scelba (du nom de son initiateur, Mario Scelba, ministre de l’intérieur démocrate-chrétien), encore en vigueur aujourd’hui.

L’extrême droite malgré la démocratie militante

Il apparaît évident que les démocraties (et les acteurs sociaux qui les animent au quotidien) n’ont pas hésité à intervenir à différents moments de leur histoire pour contenir les risques de l’extrême droite, mais pourquoi alors cette dernière a-t-elle réussi à émerger ?

Nous pourrions répondre en insistant sur le fait que certaines de ces mesures n’ont pas bien fonctionné. C’est, par exemple, le cas de l’Italie, où le choix de se référer, dans les différents dispositifs législatifs uniquement au parti fasciste dissous (celui fondé par Mussolini) rend très difficile l’application de la loi : il est en effet peu probable qu’un parti d’extrême droite tente de reconstituer précisément ce parti.

Cependant, il serait naïf de lier directement la montée des formations d’extrême droite à l’échec des mesures visant à protéger la démocratie. Cela reviendrait à surestimer la portée et l’effet de ces mêmes mesures. Dans le cas de la France, par exemple, il convient de préciser que la législation n’était pas conçue pour faire disparaître n’importe quel parti d’extrême droite, mais uniquement les formations paramilitaires. Même la récente modification du cadre législatif n’a pas modifié substantiellement la situation. L’article L. 212-1 du Code de la sécurité intérieure (CSI), entré en vigueur en mai 2012 (et modifié le 26 août 2021), a abrogé les dispositions de la loi du 10 janvier 1936, sans toutefois en changer la substance. La mesure est donc efficace, comme le démontre le fait que, par décret du 12 juillet 2013, le président de la République a effectivement dissous plusieurs groupes, parmi lesquels Troisième Voie, à la suite de la mort de l’activiste antifasciste Clément Méric, tué le 6 juin 2013 par des sympathisants de ce mouvement (d’autres exemples pourraient être cités). Toutefois, cela n’empêche aucun parti d’extrême droite de participer à la vie démocratique, s’il ne provoque pas « des manifestations armées ou (…) des agissements violents à l’encontre des personnes ou des biens » ou s’il ne présente pas « le caractère de groupes de combat ou de milices privées ». Cela explique donc, par exemple, la capacité du Front national à s’insérer dans l’arène politique.

Le cas allemand nous montre sans aucun doute des lois aux effets plus larges. De nombreux partis y ont été dissous ; le premier étant, si l’on considère l’Allemagne fédérale, le Sozialistische Reichspartei en 1952. Mais là encore, il serait erroné de surestimer la portée de ces mesures : le droit allemand préfère généralement adopter une approche progressive – suspendre les financements publics, par exemple, ou placer les dirigeants sous surveillance. Seulement, dans des cas extrêmes, on en arrive à la dissolution sur laquelle seule la Cour constitutionnelle est habilitée à se prononcer.

Une interdiction contre-productive ?

Juger de l’efficacité des démocraties militantes est une tâche vraiment complexe. Dans tous les cas, il convient de garder à l’esprit que les dispositifs visant à protéger la démocratie sont le produit de contextes historiques spécifiques : ils doivent donc être replacés dans leur époque.

Ces dispositifs ont, dans l’ensemble, généralement fonctionné pour contrer un ennemi à un stade embryonnaire (le BUF au Royaume-Uni et les ligues d’extrême droite en France) et aujourd’hui encore, ils parviennent à exercer un effet dissuasif potentiel, contraignant les partis antidémocratiques – et leurs dirigeants – à se réadapter et à se repositionner. Cette réadaptation formelle pouvant d’ailleurs conduire progressivement à une transformation plus substantielle du parti.

À l’inverse, ces dispositifs semblent à présent perdre de leur efficacité lorsqu’ils deviennent trop « encombrants » – dans le cas de la potentielle interdiction d’un parti populaire comme l’AfD par exemple. Si l’interdiction de petites formations paramilitaires peut rassurer les citoyens, celle de grands partis risquerait d’être perçue comme un acte de force. Un éloignement encore plus grand d’une partie de la population de la culture démocratique serait alors un scénario plus que probable.

The Conversation

Andrea Martini est membre de l'Institut Français de Géopolitique (IFG) de Paris 8. Il a reçu des financements du programme de recherche et d'innovation Horizon Europe de l’Union européenne dans le cadre de la convention de subvention Marie Skłodowska-Curie n°101150204 (NEXTRIGHT)..

15.12.2025 à 15:23

Pourquoi le vert est-il la couleur de la nature ?

Frédéric Archaux, Chercheur, Inrae
S’il ne fallait retenir qu’une couleur pour le vivant, ce serait le vert. Celle-ci est liée à la chlorophylle, ce pigment révolutionnaire pour le règne végétal.
Texte intégral (3738 mots)

Les couleurs chatoyantes d’un coquelicot ou d’une mésange attirent le regard, mais elles remplissent également d’innombrables fonctions pour le vivant. Dans son récent livre, « Toutes les couleurs de la nature », paru aux éditions Quae, Frédéric Archaux, ingénieur-chercheur à l’Inrae, explore ces questions couleur par couleur. Nous reproduisons ci-dessous le début du chapitre consacré à la couleur verte.


S’il ne fallait retenir qu’une seule couleur pour caractériser le vivant, ce serait assurément le vert, celui de la chlorophylle : la vie sur Terre n’aurait certainement pas été aussi florissante sans ce pigment révolutionnaire capable de convertir l’énergie du Soleil en énergie chimique.

Et sans les organismes photosynthétiques, des minuscules bactéries océaniques aux immenses séquoias, quel aurait été le destin des animaux ? Certains d’entre eux hébergent même dans leur propre organisme ces précieux alliés !

La photosynthèse ? Un « Soleil vert »

Notre appartenance au règne animal et notre régime alimentaire omnivore nous font oublier à quel point pratiquement tout le vivant repose sur un processus clé assuré presque exclusivement par d’autres règnes : la photosynthèse, ou comment convertir l’énergie lumineuse en énergie chimique stockée dans des molécules organiques.

Cette énergie permet ensuite de créer d’autres molécules, parfois très complexes, de faire marcher nos muscles, de maintenir notre température corporelle, etc. Le vert est la couleur par excellence de cette photosynthèse, celle du pigment majeur qui capte et convertit l’énergie lumineuse, la chlorophylle (du grec khloros, vert, et phullon, feuille).

Bien sûr, tous les organismes photosynthétiques ne sont pas verts, car d’autres pigments (non chlorophylliens) peuvent masquer la chlorophylle. Pour ne citer qu’un exemple parmi tant d’autres, la photosynthèse chez les algues rouges repose exclusivement sur la chlorophylle A (la plus répandue sur Terre et sous l’eau), mais ces algues produisent également des carotènes et des protéines (phycobiliprotéines) de couleurs bleue et rouge, qui capturent l’énergie lumineuse puis la transmettent à la chlorophylle.

Il n’y a donc pas une mais des chlorophylles, A, B, C, D et F (sans parler des sous-types cl, c2, c3…), et la liste n’est probablement pas terminée (la forme F a été découverte en 2010). Si la chlorophylle A est universelle, la forme B se retrouve surtout chez des plantes, la C chez des algues brunes, des diatomées et des dinoflagellés, la D et la F chez des cyanobactéries. Si la chlorophylle E manque à l’appel, c’est qu’elle a été extraite en 1966 d’une algue, mais n’a toujours pas été décrite !

Du côté de leur composition chimique, ces molécules sont très proches de l’hème de notre hémoglobine, mais avec plusieurs différences de taille : l’ion métallique piégé est un ion magnésium et non ferrique. Surtout, au lieu de capter l’oxygène atmosphérique, la chlorophylle, elle, en rejette en découpant des molécules d’eau pour récupérer les atomes d’hydrogène.

La chlorophylle ressemble beaucoup à notre hémoglobine, mais elle renferme un atome de magnésium (Mg, au centre) et non de fer. Et ça change tout ! Société chimique de France

La cascade biochimique est particulièrement complexe : la chlorophylle est la pièce maîtresse, parfois présente en plusieurs centaines d’unités, de photosystèmes qui comprennent d’autres molécules par dizaines. La très grande majorité des molécules de chlorophylle absorbent des photons et transmettent cette énergie d’excitation par résonance aux molécules voisines.

Les chlorophylles absorbent les radiations bleue et rouge, réfléchissant le jaune et le vert : voilà l’explication de la couleur des plantes. Les deux pics d’absorption peuvent varier sensiblement selon les types de chlorophylle. De proche en proche, cette énergie parvient jusqu’à une paire de molécules de chlorophylle, dans le centre de réaction du photosystème dont l’ultime fonction est de produire, d’un côté, les protons H+ et, de l’autre, les électrons.

Ces protons ainsi libérés peuvent alors être combinés au dioxyde de carbone (CO2) de l’air et former du glucose, un sucre vital au métabolisme de la plante et de tous les étres vivants. La réaction, qui consomme de l’eau et du CO, relargue comme déchet du dioxygène (O2).

La compétition pour la lumière explique la course au gigantisme des arbres, ces ogres captent jusqu’à 99 % de la lumière quand la canopée est fermée.

Au fond, la conséquence la plus importante de l’apparition de la photosynthèse a été d’accroître de manière considérable la production primaire sur Terre, alors que celle-ci était initialement confinée à proximité des sources hydrothermales produisant du dihydrogène et du sulfure d’hydrogène, la photosynthèse a permis au vivant de se répandre partout à la surface du globe, pourvu que s’y trouvent de la lumière et de l’eau.

La photosynthèse capte près de six fois l’équivalent de la consommation énergétique de toute l’humanité pendant que nous relarguons des quantités invraisemblables de CO, par extraction d’énergies fossiles (35 milliards de tonnes chaque année), les organismes photosynthétiques en stockent entre 100 milliards et 115 milliards de tonnes par an sous forme de biomasse. Le joyeux club des consommateurs de CO2, comprend, outre les cyanobactéries à l’origine de la photosynthèse, d’autres bactéries, les algues et les plantes (par endosymbiose d’une cyanobactérie qui liera entièrement son destin à celui de la cellule eucaryote au fil de l’évolution, donnant naissance aux chloroplastastes).

Pourtant, le rendement de la photosynthèse demeure modeste : de l’ordre de 5 % de l’énergie lumineuse incidente est effectivement transformée en énergie chimique, soit dix fois moins que les meilleurs panneaux photovoltaïques actuels.

Viens voir un petit vert à la maison

D’autres règnes du vivant ont fait de la place à ces organismes, au bénéfice de tous les protagonistes (symbioses) ou parfois au détriment des organismes photosynthétiques. Les lichens, qui comprennent environ 20 % des espèces de champignons connues, prennent des teintes variées, qui vont du gris au jaune, à l’orange, au rouge et au vert. Dans tous les cas, ces organismes qui s’accrochent (le mot « lichen » dérive du grec leikho, lécher) sont des assemblages d’espèces auxquels les scientifiques ne cessent d’ajouter des membres.

Les pigments, de jaune or à rouge, des lichens forment une couche de surface anti-UV dont bénéficie toute la communauté qui constitue le lichen. Mtaylor848/Creative Commons, CC BY

Pendant près de cent quarante ans, on a pensé qu’il s’agissait d’une simple association entre un champignon ascomycète et une algue, avant de découvrir que la colocation pouvait être partagée avec une cyanobactérie chlorophyllienne ou fixatrice d’azote, plusieurs algues, un autre champignon (une levure basidiomycète, l’autre grand embranchement des champignons), ou encore des protistes (des eucaryotes unicellulaires) et des virus.

En résumé, les lichens sont des mini-communautés qui peuvent regrouper trois règnes du vivant, sans compter les virus ! On continue cependant de placer ces communautés au sein des champignons, car seuls ces derniers réalisent une reproduction sexuée. La grande variabilité de la coloration des lichens provient de la résultante entre les pigments exprimés par tous les colocataires.

Quand des animaux volent les chloroplastes des algues

Le règne fongique n’a pas l’exclusivité de l’endosymbiose avec les algues, tel est aussi le cas par exemple des cnidaires.

L’anémone verte vit en symbiose avec des zooxanthelles (des algues) et sert de refuge à de petits crustacés et de petits poissons. Craig D./Flickr, CC BY-SA

On peut citer dans cet embranchement, qui comprend notamment les coraux, l’actinie verte, une anémone que l’on trouve de la Manche à la Méditerranée. Elle héberge dans ses bras verdâtres à pointe rosée des zooxanthelles, des algues photosynthétiques. L’anémone perd sa jolie coloration en l’absence de ses hôtes et dépérit.

Spécimen de mouton de mer Costasiella Kuroshimae. Alif Abdul Rahman, CC BY-SA

Le mouton de mer est une curieuse limace de mer qui présente sur son dos des excroissances fusiformes vertes à pointe rose et jaune, appelées cérates. Cette espèce asiatique, qui mesure moins d’un centimètre, vit à faible profondeur. Elle parvient à ne pas digérer immédiatement les chloroplastes des algues chlorophylliennes qu’elle avale et à les faire migrer vers ses appendices dorsaux. Si le sujet est encore débattu, il semble que ces plastes continuent d’être fonctionnels et de fournir un complément en sucres bienvenu en période de disette.

Ce processus, appelé kleptoplastie (du grec kleptes, voleur), est connu, outre chez ces gastéropodes marins, chez deux autres vers plats et chez divers eucaryotes unicellulaires (certains foraminifères, dinoflagellės, ciliés, alvéolés), chez qui les plastes demeurent fonctionnels une semaine à deux mois après l’ingestion des algues.

Parente américaine de notre salamandre tachetée avec qui elle partage notamment une livrée noire rehaussée de points jaunes (la marque aposématique qu’elle est toxique), la salamandre maculée a noué, elle aussi, un partenariat avec une algue photosynthétique : Oophila amblystomatis.

L’œuf gélatineux dans lequel se développe l’embryon présente une coloration verte causée par la prolifération de l’algue. Il a été démontré expérimentalement que ces algues ont un effet très bénéfique sur la croissance et la survie des embryons de la salamandre, probablement grâce à l’oxygène que libère l’algue tandis que celle-ci bénéficie des déchets azotés produits par le métabolisme de l’embryon. Un véritable cas de symbiose donc.

Salamandre tachetée Ambystoma maculatum. Peter Paplanus, CC BY

Pendant plus d’un siècle, on a pensé que les algues présentes dans les mares fréquentées par l’amphibien colonisaient les œufs, mais l’imagerie de pointe associée à la recherche de l’ADN de l’algue dans les tissus des embryons a révélé une tout autre histoire : les algues envahissent les tissus de l’embryon durant son développement, où elles semblent s’enkyster.

La salamandre adulte continue d’ailleurs de contenir ces algues en vie ralentie, bien qu’en quantité de moins en moins importante avec le temps : on retrouve en particulier dans ses voies reproductrices et les femelles semblent capables de transmettre certaines d’entre elles directement à leurs œufs ! Les scientifiques cherchent encore à comprendre comment un vertébré est parvenu dans son évolution à se laisser envahir par une algue sans provoquer une attaque en règle de son système immunitaire !


À lire aussi : Les oiseaux migrent-ils vraiment à cause du froid ? Et font-ils le même trajet à l’aller et au retour ?


The Conversation

Frédéric Archaux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

15.12.2025 à 11:42

Le « quiet fighting » au travail : les signaux préinsurrectionnels dans une entreprise du CAC 40

Jérôme Coullaré, Docteur en sciences de gestion, laboratoire IAE Paris Sorbonne, IAE Paris – Sorbonne Business School
Olivier Meier, Professeur des Universités, président de l'Observatoire ASAP, Université Paris-Est Créteil Val de Marne (UPEC)
Le « quiet fighting » est, dans l’entreprise, une colère qui ne dit pas son nom. Des salariés mécontents, se sentant victimes d’injustices, se taisent. Mais gare au réveil !
Texte intégral (1927 mots)

Gare aux fausses promesses. Si les salariés semblent silencieux, des mouvements souterrains sont à l’œuvre qui pourraient aboutir à une nouvelle forme d’insurrection. Après le « quiet quitting » – ou démission silencieuse, le phénomène de « quiet fighting » pointe maintenant.


Alerte pour les grandes entreprises ! Le fossé entre les discours éthiques et les réalités opérationnelles nourrit à la fois un désengagement manifeste et une confrontation silencieuse qu’il faut traiter sans délai. À côté du quiet quitting, popularisé en 2022 comme la stricte limitation au périmètre du rôle et des efforts des collaborateurs, s’installe un quiet fighting plus insidieux, attisé par un sentiment d’injustice organisationnelle que le cadre théorique de Cropanzano et Folger permet de disséquer (cf. encadré 1).

Si les deux phénomènes possèdent un point commun, un déficit de justice interactionnelle, ces deux dynamiques ne forment pas un continuum. Quand le quiet quitting abaisse l’engagement au minimum, le quiet fighting combine dissidence empêchée et silence de résignation. L’une et l’autre peuvent préparer en sourdine à une confrontation avec l’entreprise. Notre enquête, prolongeant un premier travail réalisé dans le cadre d’une thèse de doctorat, établit que « l’hypocrisie organisationnelle » perçue autour des ambitions éthiques ouvre une brèche entre les entreprises et leurs collaborateurs, qui rejettent désormais l’éthique de façade.

Inégalités « justes » ou injustices illégitimes

Deux vagues d’entretiens approfondis, en 2024 et 2025 selon la méthode des incidents critiques, ont été conduites auprès d’une cinquantaine de collaborateurs volontaires dans le cadre d’une demande faite en commission « qualité de vie au travail » du Conseil social et économique d’un grand groupe du CAC 40. Plus de 120 incidents ont été recensés, croisant la vision de décideurs RH du siège (sur des sujets éthiques, diversité/discrimination) et de salariés d’une direction territoriale au plus près des opérations. Résultat clé : la majorité des situations relève aujourd’hui de sujets de « justice interactionnelle », bien davantage que de « justice distributive » ou « procédurale », telles qu’elles ont été conceptualisées par Cropanzano & Folger.


À lire aussi : « Quiet quitting » : au-delà du buzz, ce que révèlent les « démissions silencieuses »


Dans les organisations, les inégalités entre collaborateurs ne sont ni fortuites ni anormales. Elles sont souvent assumées, voire encouragées, comme des leviers d’incitation fondés sur la différenciation des performances et la hiérarchie des positions. Aux DRH d’en expliciter la légitimité et d’en travailler l’acceptabilité aux yeux des collaborateurs. Dans ce cadre, la grille des stratégies réactionnelles (Exit, Voice, Loyalty, Neglect) proposée par le socioéconomiste Albert Hirschman reste un outil utile pour éclairer les réactions des salariés face à des situations d’insatisfaction au travail (cf. encadré 2).

De la justice à la morale

Or notre étude montre que cette grille, si utile pour repérer et gérer les réactions des collaborateurs, ne suffit plus. La nature des injustices se déplace et suscite de nouvelles stratégies réactionnelles chez les salariés. Ce ne sont plus seulement les règles ou la répartition des résultats qui sont contestées, mais l’écart entre les discours éthiques et les pratiques organisationnelles. Quand l’expérience dément la promesse, le « contrat psychologique » se fissure et la question devient morale, touchant l’identité, la dignité, et une responsabilité qui dépasse les conflits transactionnels. Notre étude montre que l’on ne « négocie » plus une injustice morale jugée illégitime ; on la refuse.

Dans ce contexte, l’approche par l’EVLN apparaît incomplète. Elle saisit justement mal la dimension morale des conflits et l’incohérence ente les politiques affichées et les pratiques. L’épreuve de réalité est amplifiée par les exigences de publication extra-financière imposée par la directive de durabilité (CSRD), la vigilance citoyenne face au diversity/social washing et, en toile de fond, la tension décrite par le juriste Alain Supiot entre l’entreprise marchandise (ius proprietatis) et l’entreprise communauté morale (ius societatis) (cf. encadré 3).

Plus une organisation revendique une raison d’être morale, plus elle doit en apporter la preuve ; sinon, la loyauté de ses collaborateurs se mue en allégeance à contrecœur, porteuse de ressentiment.

Les sources du « quiet fighting »

Depuis les ordonnances « travail » de 2017, l’affaiblissement des médiations et de « dialogue social » ouvre un espace aux minorités actives décrites par Serge Moscovici. Dans notre étude, nous constatons qu’elles sont emmenées par des femmes racisées en position de cadres intermédiaires : elles formulent des récits cohérents et assument le risque de dissidence, mais se heurtent à des procédures neutralisantes et à l’absence de relais hiérarchiques. Il en résulte une [ dissidence empêchée] qui s’appuie en partie sur les travaux de la sociologue Maryvonne David-Jougneau : une mobilisation collective inachevée, dont l’influence reste pour le moment sans effet transformateur, mais qui contribue à accroître l’expérience organisationnelle et la capacité d’agir de ces cadres et des collectifs qu’elles animent.

À l’autre pôle émerge une colère souvent masculine, silencieuse et résignée. Ancrée dans un idéal méritocratique, elle repose sur la conviction que la performance, à elle seule, devrait protéger et « parler d’elle-même », sans qu’il soit besoin de la revendiquer. Cette colère est renforcée par l’attente, souvent déçue, d’une réparation portée par la DRH. Mais lorsque les circuits correctifs internes sont lents, incertains, ou centrés sur la conformité plutôt que sur l’explication et la reconnaissance du tort, la trahison institutionnelle s’impose et l’attente des collaborateurs devient ressentiment, prémisse d’un désir de revanche à fort potentiel déstabilisateur.

Ce silence de résignation, n’est pas un signe de paix sociale : il est la traduction d’une résistance contrainte, une colère froide qui prépare la confrontation, nourrie par l’empilement de micro-injustices, la polarisation, l’usure des institutions de dialogue et l’ascension d’acteurs minoritaires déterminés. Si l’explosion n’advient pas, c’est moins par loyauté que par contraintes économiques et sociales.

France Culture 2022.

Une gouvernance à revoir

À l’échelle managériale, l’exigence est claire : gouverner par la justice interactionnelle. Cette gouvernance implique de :

  • aligner promesses et pratiques organisationnelles ;

  • expliquer les décisions sensibles et prévoir des voies d’escalade claires et sûres (manager N+1/N+2 → RH/Business Partner → référent éthique → dispositif d’alerte interne), assorties de garanties explicites de protection : interdiction de toute mesure liée au signalement (blâme, sanction, rétrogradation, baisse de variable, modification de poste, mise à l’écart, licenciement), confidentialité et possibilité d’anonymat, restitution motivée ;

  • proposer des médiations internes crédibles (médiateur interne formé, IRP ou Employee Resource Group) et en dernier ressort, des recours externes balisés : Inspection du travail, Défenseur des droits), pour pallier la faiblesse des instances de représentation du personnel ;

  • installer des capteurs précoces (baromètres qualitatifs, création d’espaces de délibération protégés) pour « reconnaître et réparer vite » toute inégalité illégitime ;

  • intégrer des objectifs de justice interactionnelle dans la performance sociale des dirigeants ;

  • répondre à la demande croissante des sciences de gestion : rendre compte non seulement de la classique matérialité financière, mais également de la matérialité d’impact, (effets négatifs de l’entreprise sur les parties prenantes), confirmant l’injonction de Supiot d’un ius societatis à assumer.

Réduire l’écart entre discours et réalité

Dans le sillage des travaux de la sociologue Laure Bereni, notre conclusion est une mise en garde aux organisations qui « jouent » encore avec l’éthique. L’écart entre discours et réalités, nourri par le social/diversity washing, alimente une conflictualité dans les organisations dont l’éthique devient l’étendard.

Le quiet fighting est un signal pré-insurrectionnel. Tandis que les coûts de sortie et l’incertitude du marché rendent l’exit improbable, le quiet fighting traduit une conflictualité interne croissante plutôt que des départs : ancré dans des enjeux moraux et identitaires, il s’exprime par une résistance à bas bruit et des coalitions discrètes. Les dirigeants disposent toutefois des leviers essentiels. Ils peuvent faire preuve plutôt que promettre, légitimer plutôt qu’imposer, soigner les interactions autant que les résultats. À ce prix, le quiet fighting s’éteindra et le conflit redeviendra une ressource. Répondre par la justice interactionnelle n’est pas un supplément d’âme mais une condition de viabilité sociale et économique et, désormais, un test décisif de crédibilité et de légitimité managériales.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

15.12.2025 à 11:41

Quand le management a fait des États-Unis une superpuissance

François-Xavier de Vaujany, Professeur en management & théories des organisations, Université Paris Dauphine – PSL
La naissance du management annonce une véritable stratégie géopolitique des États-Unis. L’enjeu : standardiser les outils d’aide à la décision, la formation des élites et les départements de l’État fédéral.
Texte intégral (3245 mots)
La promotion 1942 de l’École de statistiques de l’armée de l’air des États-Unis illustre la montée en puissance du management pendant la Seconde Guerre mondiale. Collection HBS Wartime Schools, archives de la Harvard Business School., CC BY

Une étude internationale, impliquant des chercheurs français, états-uniens et brésiliens, a mis au jour une histoire méconnue. Des années 1920 aux années 1960, le management a contribué à faire des États-Unis la puissance hégémonique que l’on connaît aujourd’hui. Son « momentum » : la Seconde Guerre mondiale. Ses armes : les managers formés dans les grandes écoles, les outils d’aide à la décision et la technostructure de l’État fédéral.


Explorer des archives, c’est évoluer dans un monde à la fois silencieux et étrange vu d’aujourd’hui. Comme l’explique l’historienne Arlette Farge dans son livre le Goût de l’archive (1989), le travail de terrain des historiens est souvent ingrat, fastidieux, voire ennuyeux. Puis au fil de recoupements, à la lumière d’une pièce en particulier, quelque chose de surprenant se passe parfois. Un déclic reconfigurant un ensemble d’idées.

C’est exactement ce qui est arrivé dans le cadre d’un projet sur l’histoire du management états-unien (HIMO) débuté en 2017, impliquant une douzaine de chercheurs français, états-uniens et brésiliens.

Notre idée ? Comprendre le lien entre l’histoire des modes d’organisation managériaux du travail et les épisodes de guerre aux États-Unis. D’abord orientée vers le XXe siècle, la période d’étude a été resserrée des années 1920 à la fin des années 1960, avec comme tournant la Seconde Guerre mondiale.

Du taylorisme au management

Au début de notre recherche en 2017, nous nous sommes demandé ce qui guidait cette métamorphose du management des années 1920 aux années 1960.

Au commencement était le taylorisme. On attribue à l’ingénieur américain Frederick Winslow Taylor (1856-1915) l’invention d’une nouvelle organisation scientifique du travail dans The Principles of Scientific Management. Ce one best way devient la norme. Au cœur de cette division du travail, la mutation des rôles des contremaîtres est essentielle.

Leur fonction est d’abord de s’assurer à la fois de la présence des ouvriers et du respect des gestes prescrits par les dirigeants. Avec le management, une révolution copernicienne est en marche. Les contremaîtres sont progressivement remplacés par les techniques de management elles-mêmes. Le contrôle se fait à distance, et devient de l’autocontrôle. Des outils et des systèmes d’information sont développés ou généralisés, comme les pointeuses. Peu à peu, toutes ces informations sont connectées à des réseaux… qui dessinent ce qui deviendra des réseaux informatiques. L’objectif : suivre l’activité en temps réel et créer des rapports à même d’aider les managers dans leur prise de décision.

Outils de gestion de projet

C’est ce que la philosophie nomme le représentationnalisme. Le monde devient représentable, et s’il est représentable, il est contrôlable. Sur un temps long, de nombreux outils de gestion de projet sont créés comme :

Nombre de ces techniques ou standards de management ont une genèse américaine comme l’ont montré notamment les travaux de Locke et Spender, Clegg, Djelic ou D’Iribarne. Des années 1910 aux années 1950, une importance croissante est accordée à la visualisation des situations.


À lire aussi : Les origines néolibérales de la mondialisation : retour sur l’émergence d’un ordre géopolitique aujourd’hui menacé


Notre intuition d’une obsession pour la représentation s’est affinée avec l’exploration d’archives liées aux réseaux du management, de l’Academy of Management, l’American Management Association, et la Society for Advancement of Management.

Management de l’armée

L’United States Army Air Forces se dote d’un service de statistiques, comme l’atteste plus tard ce document de 1952. Dafthistory

Dans son introduction de la conférence de l’Academy of Management de 1938, l’économiste Harlow Person, acteur clé de la Taylor Society, revient sur le rôle joué par la visualisation. Concrètement, une mission d’amélioration des processus administratifs est réalisée pour l’armée américaine durant la Première Guerre mondiale. L’organisation scientifique du travail déploie plus que jamais ses outils au-delà des chiffres et du texte.

Pendant la Seconde Guerre mondiale, l’obsession pour la représentation est au cœur de la stratégie militaire des États-Unis, en synergie vraisemblablement avec le management. Par exemple, la carte d’état-major doit représenter la situation la plus fidèle possible au champ de bataille. Chaque drapeau, chaque figurine représentant un bataillon ami ou ennemi, doit suivre fidèlement les mouvements de chacun lors du combat. Toutes les pièces évoluant en temps réel permettent au généralissime de prendre les meilleures décisions possibles.

Mise en place d’une technostructure par Franklin Roosevelt

Un président des États-Unis incarne cette rupture managériale dans la sphère politique : Franklin Roosevelt. Secrétaire assistant à la Navy dans sa jeunesse, il assimile l’importance des techniques d’organisation dans les arsenaux maritimes de Philadelphie et New York, pour la plupart mis en œuvre par les disciples de Frederick Winslow Taylor.

Après la crise de 1929, la mise en place de politiques centralisées de relance a pour conséquence organisationnelle d’installer une technostructure. Plus que jamais, il faut contrôler et réguler l’économie. Un véritable État fédéral prend naissance avec la mobilisation industrielle initiée dès 1940.

Lorsque le New Deal est mis en place, Franklin Roosevelt comprend que le management peut lui permettre de changer le rapport de force entre pouvoir exécutif et pouvoir législatif. Progressivement, il oppose la rationalité de l’appareil fédéral et son efficience à la logique plus bureaucratique incarnée par le Congrès. Concrètement, les effectifs de la Maison Blanche passent de quelques dizaines de fonctionnaires avant la Seconde Guerre mondiale à plus de 200 000 en 1943.

Le président des États-Unis dispose désormais de l’appareil nécessaire pour devenir « l’Arsenal de la démocratie », à savoir l’appareil productif des Alliés. Cette transformation contribue à faire des États-Unis la première puissance militaire mondiale au sortir de la Seconde Guerre mondiale, alors qu’elle n’était que 19e avant son commencement.

Standardisation mondiale par le management

Bulletin de la Harvard Business School en hiver 1943. Harvard

Au-delà d’une obsession nouvelle pour la représentation tant organisationnelle que politique, la seconde dimension mise en lumière par cette recherche sur l’histoire du management est plus inattendue. Elle porte sur la mise en place d’une véritable géopolitique états-unienne par le management. Notre travail sur archive a permis de mieux comprendre la genèse de cette hégémonie américaine.

La standardisation des formations au management, en particulier par des institutions telles que la Havard Business School, a contribué subtilement à cette géopolitique américaine. Tout le développement de la connaissance managériale se joue sur le sol des États-Unis et l’espace symbolique qu’il étend sur le reste du monde, du MBA aux publications académiques, dont les classements placent aujourd’hui systématiquement les revues états-uniennes au sommet de leur Olympe.

Bulletin de la Harvard Business School en hiver 1943. Harvard Business School

Il en va de même pour le monde des cabinets de conseil en management de l’après-guerre, dominé par des structures américaines, en particulier pour la stratégie. En 1933, le Glass-Steagall Act impose aux banques la séparation des activités de dépôt de celles d’interventions sur les marchés financiers et de façon connexe, et leur interdit d’auditer et de conseiller leurs clients. Cela ouvre un espace de marché : celui du conseil externe en management, bientôt dopé par la mobilisation industrielle puis la croissance d’après-guerre.

Des cabinets se développent comme celui fondé par James McKinsey en 1926, professeur de comptabilité à l’université de Chicago. Son intuition : les entreprises souffrent d’un déficit de management pour surmonter la Grande Dépression et croître après la Seconde Guerre mondiale. De nombreux cabinets suivent cette tendance comme le Boston Consulting Group créé en 1963.

Près de 500 000 blessés industriels

Un des points les plus frappants de notre recherche est la conséquence du management sur le corps pendant le momentum de la Seconde Guerre mondiale. Plus de 86 000 citoyens des États-Unis meurent dans les usines entre 1941 et 1945, 100 000 sont handicapés sévères et plus de 500 000 sont blessés au travail.

Une partie de nos archives sur le Brooklyn Navy Yard de New York l’illustre tristement. Dans le silence, chacun et chacune acceptent une expérience de travail impossible en considérant que leur fils, leur maris, leurs neveux, leurs amis au combat vivaient des situations certainement bien pires. Le management se fait alors patriote, américain et… mortifère.

Salariées du Brooklyn Navy Yard pendant la Seconde Guerre mondiale. Brooklynnavyyard

Au final, les managers ont continué à taire une évidence tellement visible qu’on ne la questionne que trop peu : celle de l’américanité de ce qui est également devenu « nos » modes d’organisation. Au service d’une géopolitique américaine par le management.

The Conversation

Le projet de recherche HIMO (History of Instittutional Management & Organization) mentionné dans cet article a reçu des financements du PSL Seed Fund, de QLife et des bourses de mobilité de DRM.

15.12.2025 à 11:41

Cinq proverbes qui façonnent notre vision du travail

Benoît Meyronin, Professeur senior à Grenoble Ecole de Management, Grenoble École de Management (GEM)
« À chaque jour suffit sa peine », « Rendre à César ce qui est à César » ou « Aide-toi et le ciel t’aidera », ces proverbes illustrent notre rapport au travail.
Texte intégral (2480 mots)
_Le Tribut à César_, du peintre Bartolomeo Manfredi (1582-1622), illustre le proverbe « Rendre à César ce qui est à César ». Wikimédia Commons

« À chaque jour suffit sa peine », « Rendre à César ce qui est à César », « Que chacun balaie devant sa porte », « À l’impossible nul n’est tenu », « Aide-toi et le ciel t’aidera », ces cinq proverbes irriguent notre quotidien et notre vie au travail. Que disent-ils de notre façon de concevoir le management ?


« À chaque jour suffit sa peine »

Le proverbe trouve son origine dans l’Évangile de Jésus-Christ selon saint Matthieu.

Bien sûr, le manager qui ne chercherait pas à anticiper ne remplirait pas totalement son rôle. Mais réaffirmer que chaque journée est en soi une fin, qu’il ne faille pas empiler les difficultés probables ou à venir, est aussi une manière de les traiter dans l’ordre, sans s’y perdre et sans perdre son équipe. Pour le dire autrement, il y a une gestion des temporalités qui nous invite à qualifier et requalifier, sans cesse et avec exigence, les urgences, en les distinguant de ce qui est important – comme nous invite la matrice d’Eisenhower.

Par exemple, la gestion inadaptée des courriels, qui sont pourtant, comme le rappelle la chercheuse en sciences de l’information et de la communication Suzy Canivenc, des outils de communication asynchrone (en dehors du temps réel), illustre notre incapacité à bien gérer notre temps.

Le rôle d’un manager n’est pas nécessairement de tout traiter, de tout lire, d’apporter à toute demande une réponse, de décider de tout. Un temps de germination peut être le bienvenu pour, tout à la fois, laisser se dissoudre d’elles-mêmes certaines requêtes (l’émetteur ayant trouvé la réponse par lui-même ou par une autre voie), voire, qu’une posture managériale souhaitable est précisément de ne pas donner réponse ou audience à tout.

Laisser « reposer à feu doux » un sujet problématique est une façon de ne pas traiter dans l’urgence, et de s’ôter le stress associé. S’en remettre au lendemain, c’est alors faire confiance à cette part de nous-mêmes qui, même au repos, fait que notre cerveau continue à œuvrer.

« Rendre à César ce qui est à César »

Affiche française de 1788 illustrant le proverbe « Il faut rendre à César ce qui est à César et à la nation ce qui est à la nation ». Wikimedia

Cet emprunt à l’Évangile selon saint Luc pourrait nous inspirer cette réflexion : que chacun se contente de s’attirer les louanges qu’il mérite, sans éprouver le besoin de s’approprier celles d’autrui.

Si la reconnaissance est un enjeu majeur, il semble hélas que nombre d’organisations ont « la mémoire courte ». Elles oublient d’où elles viennent, ce qu’elles ont entrepris, et à qui elles le doivent. Les inspirateurs, les pionniers, les innovateurs ou les transformateurs n’ont pas toujours la reconnaissance qu’ils méritent. Prendre le temps de remercier, aussi, le concours d’un service support (l’informatique, les achats ou la communication), sans lequel un projet n’aurait pu être mené à bien, peut figurer ici.

Si l’on admet avec Adam Smith dans la Théorie des sentiments moraux et Axel Honneth dans la la Lutte pour la reconnaissance, que la reconnaissance est l’un des moteurs de nos vies, alors il convient de garder la trace, de n’oublier aucune contribution dans une réussite qui ne peut, jamais, être le fruit d’une seule entité et d’une seule personne.

« Que chacun balaie devant sa porte et les rues seront nettes »

L’exemplarité, comme le précise la professeure en comportement organisationnel Tessa Melkonian, invite à la congruence. Soit cet alignement entre ce que je dis, ce que je fais et ce que je communique de façon explicite et implicite. Un manager est reconnu pour sa capacité à incarner les valeurs et les postures attendues de chacun, à montrer la voie quand une décision nouvelle doit s’appliquer au collectif de travail.

De même, avant de prononcer une critique, il doit veiller à ce que sa propre pratique ne puisse faire l’objet d’une semblable observation. Devoir être exemplaire en tout requiert de l’énergie, de l’attention, de la constance. C’est une discipline, sans laquelle l’exigence devient un vœu pieux. Mais elle fonctionne dans une logique de réciprocité : ses collaborateurs doivent pouvoir eux-mêmes démontrer leur exemplarité avant de l’exposer à leurs propres critiques.

« À l’impossible nul n’est tenu »

Planche illustrant le proverbe, en 1815–1825. Wikimedia

Certaines missions, certaines tâches, excèdent les capacités d’une personne ou d’un collectif. Il est essentiel de le rappeler, dans une époque marquée par la quête de l’exploit et les logiques de « performance ».

Dans ce contexte, oser dire que l’échéance n’est pas tenable, sauf à dégrader la qualité des tâches (ce qui, dans certaines circonstances, peut parfaitement être audible), témoigne plutôt d’une forme de courage. Cette posture implique des contre-propositions, une voie de sortie, et non seulement une fin de non-recevoir.

Le droit à l’erreur prend ici toute sa place. Reconnaître aux équipes et se reconnaître ce même droit en tant que leader, comme nous y invite Tessa Melkonian, c’est l’un des marqueurs de l’époque. Comment rassurer une équipe sur ce droit si le manager lui-même ne sait pas évoquer ses propres échecs et ne s’autorise par des essais-erreurs ?

Il s’agit bien d’oser dire que l’on s’est trompé, que l’on a le droit de se tromper, mais le devoir de réparer, et, surtout, de ne pas reproduire la même erreur. Ici, plus qu’ailleurs peut-être, l’exemplarité managériale aurait un impact fort : entendre un dirigeant reconnaître publiquement une erreur pourrait faire beaucoup. L’ouvrage Un pilote dans la tempête, paru récemment, de Carlos Tavares, l’ancien PDG de Stellantis, constitue un témoignage éloquent de cette absence de remise en question – notamment pour ce qui concerne les décès dus aux dysfonctionnements de certains airbags.

« Aide-toi, le ciel t’aidera »

Ce proverbe popularisé par Jean de La Fontaine dans le Chartier embourbé introduit la notion de care en management. Issue des travaux pionniers de la psychologue Carol Gilligan, cette forme d’éthique nous invite à considérer les relations entre humains à travers le prisme de la vulnérabilité, de facto du soin, reçu et prodigué.

Comme nous le dit le philosophe Éric Delassus :

« L’incapacité à assumer sa vulnérabilité est la cause d’un grand nombre de difficultés dans le monde du travail, tant pour les managers que pour les managés. […] Qu’il s’agisse de difficulté propre au travail ou concernant la compatibilité entre vie professionnelle et vie personnelle ou familiale, on n’ose en parler ni à ses pairs ni à ses supérieurs de peur de passer pour incompétent, pour faible ou incapable. […] Alors, qu’en revanche, si chacun percevait sa propre vulnérabilité et celle des autres avec une plus grande sollicitude, personne n’hésiterait à demander de l’aide et à aider les autres. »

Il s’agit bien d’oser, simplement, requérir l’aide d’un collègue. En entreprise, demander un soutien demeure complexe. L’éthique du care nous ouvre une perspective inédite et bienvenue : aide ton prochain et réciproquement, sollicite son aide. Car l’autre ne m’aidera que si je lui permets de le faire, si j’accepte donc de me révéler dans toute ma vulnérabilité.

Affiche de la fable le Charretier embourbé, de Jean de La Fontaine. Wikimedia
The Conversation

Benoît Meyronin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

15.12.2025 à 11:40

Il n’est pas possible de gérer un club sportif professionnel comme une entreprise : voici pourquoi !

Patrice Bouvet, Maitre de conférences HDR en économie et management du sport, Université de Poitiers
Les clubs de sport ne sont pas des entreprises comme les autres. Soumise à des contraintes particulières, leur gestion a ses spécificités. Voici pourquoi.
Texte intégral (1863 mots)

Même si l’argent joue un rôle important dans le sport de haut niveau, la gestion d’un club sportif, ni vraiment différent ni vraiment semblable à une autre entreprise, obéit à des contraintes particulières. Les raisons ne manquent pas pour expliquer pourquoi leur management ne peut être identique.


Du fait de la professionnalisation de l’univers du sport, la gestion d’un club sportif professionnel (CSP) semble tout à fait comparable à celle d’une entreprise. En France, dans les années 1990-2000, Anny Courtade, à la fois PDG de Locasud (la centrale d’achat des magasins Leclerc dans le sud-est de la France) et du Racing Club de Cannes (volley-ball féminin) a par exemple souvent été présentée comme un brillant exemple de réussite combinée.

Au vu de cet exemple, le transfert de compétences semble assez simple : il faut s’inspirer des facteurs clés de succès existants dans le monde des affaires, en s’adaptant à l’environnement du sport. Et pourtant… Nombreux sont, à l’inverse, les chefs d’entreprise (Laurent Tapie, Laurent Platini, Peter Lim…) qui ont brillamment réussi dans leurs activités professionnelles mais qui ont échoué dans le domaine sportif. Un argument souvent avancé pour expliquer ces échecs est l’aveuglement qui serait lié à la passion conduisant à des problèmes de gouvernance. Notre vision des choses est quelque peu différente pour les sports collectifs.

Des contraintes différentes

Si le management d’un club sportif professionnel (CSP) ne peut pas emprunter les mêmes voies qu’une entreprise classique, c’est d’abord parce que ces deux types d’organisation ne se ressemblent pas autant qu’il pourrait sembler de premier abord.

Les contraintes à gérer sont très différentes, à commencer par le cadre juridique. Si, comme toutes les entreprises, les CSP peuvent choisir des statuts juridiques (SASP ou SARL sportives), ils doivent aussi créer une association sportive pour être affiliés à leur fédération de tutelle. Un lien de dépendance en résulte, notamment en cas de conflit entre l’association et la société commerciale. Cette délégation obligatoire de l’activité professionnelle leur est imposée par le Code du sport (article 2 122-1 et suivants) qui diffère du code de commerce sur de nombreux points. Les modes de régulation sont aussi différents.

Une action scrutée par les supporters

Une autre divergence cruciale concerne l’exposition médiatique : faible pour la majorité des chefs d’entreprise, elle est très forte pour les dirigeants des CSP. Cela produit des obligations très éloignées. À la différence d’un chef d’entreprise qui communique rarement auprès d’un large public mais plutôt auprès d’acteurs ciblés (collaborateurs, actionnaires, fournisseurs, clients…), les décisions, les déclarations, les réactions d’un président de CSP sont scrutées en permanence et peuvent générer de nombreuses crises (médiatiques, avec les supporters, les partenaires…).


À lire aussi : Pernod Ricard et le PSG : quand le territoire se rappelle à l’entreprise


Par répercussion, les horizons temporels de l’action s’opposent : de très court-terme pour un président de CSP, plus lointain pour un chef d’entreprise. Ces différences influent sur leur notoriété, leur popularité, leurs relations avec les parties prenantes et donc leurs motivations. Souvent inconnues du grand public, celles-ci finissent souvent par transparaître et donc par avoir des conséquences sur la légitimité des uns et des autres. Les chefs d’entreprise tirent leur légitimité de leur efficacité économique et de la confiance inspirée aux investisseurs. Celle des présidents de CSP repose sur une combinaison beaucoup plus fragile entre légitimité institutionnelle, populaire, sportive et même souvent symbolique.

La majorité des CSP ambitionnent de maximiser leurs résultats sportifs (se maintenir dans la division dans laquelle ils évoluent, participer aux compétitions européennes) sous contrainte économique (du fait de leur budget ou des décisions des instances de régulation. Les entreprises cherchent à maximiser leurs résultats économiques en prenant en compte les contraintes réglementaires des pays où ils sont implantés.

Un rapport différent à l’incertitude

Indirectement, cela produit un rapport différent à l’incertitude. Les chefs d’entreprise mobilisent des techniques pour la limiter. Les présidents de CSP font de même dans leur gestion courante mais souhaitent la voir perdurer au niveau sportif – on parle même de la glorieuse incertitude du sport- pour maintenir l’intérêt des compétitions et donc des spectacles sportifs.

Autre différence : les marchés sur lesquels interviennent les entreprises sont le plus souvent libres et ouverts, les marchés sur lesquels évoluent les CSP sont davantage encadrés. L’existence de ces réglementations résulte en partie de la nature de la production : elle est jointe. Un CSP ne peut pas produire seul une rencontre sportive, il faut a minima deux équipes pour un match. Cela implique, obligatoirement, une forme de coopération entre les concurrents alors que les entreprises peuvent librement décider de leur stratégie.

La pression des résultats

Ces différences induisent que le management des unes et des autres ne peut pas être le même. Au niveau stratégique, la première différence, concerne la temporalité. Pour les chefs d’entreprise, l’horizon est le moyen ou long terme ; pour les présidents de CSP la saison sportive, soit plus qu’un trimestre. Dans ce domaine, la nature même de l’activité impose une gestion temporelle réactive avec de fréquents ajustements en fonction des blessures, des résultats, de l’évolution de l’effectif.

À l’inverse, dans de nombreuses entreprises, la notion de planification conserve un intérêt. Plus précisément, dans les CSP la diversification, est la seule option envisageable, la stratégie volume/coût étant hors de portée puisqu’il n’est pas possible d’augmenter de façon importante le nombre de matchs joués, ni de réduire drastiquement les coûts de fonctionnement, la majorité d’entre eux étant fixes.

En ce qui concerne le marketing et la gestion commerciale, si la majorité des entreprises définissent et choisissent un positionnement, peu de CSP le font. Les déterminants de l’image de marque diffèrent sur de nombreux points. Il en va de même des déterminants de la valeur perçue et donc indirectement de l’attractivité.

Le poids de l’histoire

Beaucoup plus que dans les entreprises, l’histoire du club joue un rôle dans la perception de la valeur de la marque par les « clients-fans », valeur difficile à apprécier. Les « expériences client » divergent également : elles sont « classiques » dans les entreprises ; dans les CSP « immersives ». Les interactions qui apparaissent entre les fans d’un club (simples spectateurs, supporters, partenaires, élus..) sont primordiales. Ces interactions n’existent quasiment pas dans les entreprises.

Du fait du caractère aléatoire de l’activité de « spectacle sportif », les CSP ont des difficultés pour obtenir d’importants concours bancaires. D’autres sources de financement doivent être recherchées. Trois se dégagent clairement :

  • la commercialisation de nombreux droits (entrés, TV, image, exposition, appellation, numériques) ;

  • l’apport en compte courant d’actionnaires ;

  • à cela s’ajoute pour le football, le trading joueurs soit la pratique consistant à vendre une partie des actifs immatériels détenus par les clubs, c’est-à-dire, certains joueurs « sous contrat ».

En dépit du recours à ces possibilités, l’équilibre budgétaire n’est pas toujours atteint en fin de saison dans les CSP. L’une des causes principales, qui distingue fondamentalement ce secteur de la majorité des autres, réside à la fois dans l’importance des coûts salariaux et dans leur caractère quasiment incompressibles.

France Travail 2024.

Des RH sous contraintes

Pour ce qui est des ressources humaines, les mutations reposent sur des principes différents. Tout d’abord en ce qui concerne l’agenda : possible à tout moment dans l’entreprise, limitées à des périodes précises (mercato) dans les CSP. Les sommes engagées diffèrent également. Dans les entreprises, elles sont plus ou moins explicitement déterminées par des « grilles », dans les CSP elles sont le fruit d’âpres négociations.

Par ailleurs, dans les premières, le plus souvent la décision est prise par l’employeur. Elle l’est fréquemment par les joueurs dans les CSP, ce qui confronte les présidents de club à un dilemme spécifique : faut-il « laisser filer » le joueur au risque d’affaiblir l’équipe ou, au contraire, faut-il le conserver dans l’effectif contre sa volonté, au risque qu’il soit moins performant ?

La question des rémunérations se pose également dans des termes distincts, les possibilités de mesure de la productivité, l’influence de la médiatisation et le rôle des agents de joueurs en étant les principales explications.

The Conversation

Patrice Bouvet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.12.2025 à 17:59

Airbus : D’où vient la panne qui a conduit l’entreprise à immobiliser des milliers d’avions ?

David Monniaux, Chercheur en informatique, Centre national de la recherche scientifique (CNRS), Université Grenoble Alpes (UGA)
Les radiations solaires peuvent-elles mettre en danger un avion ? Les mesures de sécurité existantes devraient pourtant prévenir ces incidents.
Texte intégral (2103 mots)

Fin octobre, Airbus demande aux compagnies aériennes de maintenir au sol 6 000 A320, à la suite d’un incident survenu en vol. L’entreprise l’explique par une mise à jour logicielle qui serait plus sensible aux rayonnements cosmiques. Si ce genre de problèmes existe, ils sont cependant détectés immédiatement en temps normal.


Le 30 octobre dernier, un vol de Cancún vers le New Jersey de la compagnie JetBlue a rapidement chuté en plein vol, avant que les pilotes puissent rétablir sa trajectoire, au bout de quelques secondes. Après un atterrissage en urgence en Floride, quelques passagers ont reçu des soins. À la suite de cet incident, Airbus a dû changer en urgence un logiciel de pilotage dans 6000 appareils de la famille A320. On a évoqué une « perturbation par une particule isolée » et le rôle des éruptions solaires. Qu’en est-il ?

Le palliatif proposé par Airbus est de faire revenir la version de certains logiciels de pilotage à une version antérieure. Sur les forums spécialisés, on spécule sur les causes techniques de ce dysfonctionnement, sur d’éventuelles fonctionnalités ajoutées entre ces deux versions, qui seraient insuffisamment protégées contre les effets que des rayonnements cosmiques peuvent avoir dans les composants informatiques. Il vaut mieux, toutefois, attendre le rapport officiel de l’enquête sur l’incident. En attendant, nous pouvons revenir sur l’explication invoquée et en quoi elle peut surprendre.

Les rayons cosmiques, ennemis de nos systèmes électroniques

La Terre est en permanence bombardée par des particules venant de l’espace – du Soleil ou de corps plus lointains. La plupart de ces particules sont déviées par le champ magnétique terrestre, une autre partie est absorbée ou transformée par l’atmosphère, mais certaines d’entre elles peuvent atteindre la surface terrestre. Elles forment une partie de la radioactivité naturelle, et sont plus abondantes en périodes d’éruption solaire.

Ces particules arrivant de l’espace ont des effets variés. Dans les régions polaires, moins protégées par le champ magnétique terrestre, elles provoquent de magnifiques aurores dans le ciel de nuit. On leur attribue également les flashes lumineux que les astronautes perçoivent dans leurs yeux. Comme il s’agit de rayonnements ionisants, les particules reçues peuvent avoir des effets sur la santé. Ainsi, Thomas Pesquet, en six mois de séjour dans la station spatiale internationale, a bien dépassé le quota annuel maximum d’exposition aux radiations permis pour un travailleur français.

Les particules issues de l’espace peuvent provoquer des dysfonctionnements dans les circuits électroniques. Par exemple, dans les années 1990, des composants électroniques de puissance, notamment conçus pour des trains, grillaient pour des raisons mystérieuses. Pour trier parmi les diverses hypothèses envisagées, on a essayé ces composants à la surface et dans une mine de sel, sous 140 mètres de roche : les problèmes ne se produisaient pas dans la mine ! Une fois le problème identifié, on a pu concevoir des composants et des modes d’utilisation beaucoup moins vulnérables.

Qu’est-ce qu’une perturbation par une particule isolée ?

Il est plus courant que, plutôt que de griller un composant, les particules modifient une donnée qui y est stockée. Les ordinateurs retiennent les informations sous forme de 0 et de 1, et une particule peut provoquer le basculement d’un 0 en 1 ou l’inverse, ce qu’on appelle une « perturbation par une particule isolée », ou single event upset en anglais.

En 2003, dans la commune belge de Schaerbeek, une liste a obtenu lors d’une élection un excès de précisément 4 096 voix, ce qui correspond exactement au basculement d’un 0 en 1 à l’intérieur d’un nombre écrit en binaire. Un tel basculement s’expliquerait par un single event upset.

Bien évidemment, et notamment pour les applications aérospatiales, particulièrement exposées, on a développé des parades. Certaines parades sont matérielles : par exemple, les mémoires vives peuvent être munies de codes correcteurs d’erreurs fondés sur du matériel spécifique pour coder et décoder très rapidement. C’est habituellement le cas de la mémoire vive des serveurs, les machines qui stockent des données dans les data centers, mais pas des ordinateurs de bureau ou des portables, du fait de leur coût. Ces codes permettent de corriger à coup sûr certaines erreurs et, dans d’autres cas, d’au moins signaler qu’il s’est passé quelque chose d’incorrect.

D’autres parades sont logicielles : procéder régulièrement à certaines vérifications, dupliquer des données à conserver sur de longues durées, éviter de garder trop longtemps des données dans des mémoires vulnérables, enregistrer certaines informations importantes d’une façon telle que le basculement d’un chiffre fournit une valeur absurde, donc détectable… Les possibilités sont nombreuses. Il y a par ailleurs des protocoles de test, y compris consistant à placer les circuits dans le faisceau d’un accélérateur de particules (grand instrument de sciences physiques).

Des commandes de vol électriques touchées par une panne

Voyons maintenant les implications pour l’aviation. La transmission des ordres des pilotes de ligne à leurs gouvernes, les parties mobiles de l’avion qui permettent de contrôler sa trajectoire, se faisait historiquement par des systèmes de câbles, de poulies ou de circuits hydrauliques assez compliqués. Il faut en plus assurer la redondance, c’est-à-dire prévoir plusieurs modes de transmission en cas de panne. Depuis les années 1980, les nouveaux modèles d’avions utilisent des commandes de vol électriques, c’est-à-dire que ces transmissions mécaniques sont remplacées par des câblages et des calculateurs électroniques.

Ces calculateurs diminuent la charge de pilotage (ils automatisent des actions que les pilotes devraient sinon faire manuellement) et augmentent ainsi la sécurité. Ils peuvent vérifier si les pilotes commandent une manœuvre qui sortirait l’avion du domaine des manœuvres qu’il peut faire en sécurité, et peuvent par exemple prévenir le décrochage. La panne qui a valu le rappel des avions Airbus concerne un calculateur appelé ELAC, qui commande les élévateurs et les ailerons, qui sont respectivement des gouvernes situées sur le stabilisateur arrière de l’avion et sur l’arrière du bout des ailes.

Les commandes de vol sont particulièrement sécurisées

Un point qui peut tout d’abord nous rassurer est que les problèmes de particules venues de l’espace se produisent plutôt à haute altitude, lorsqu’il y a moins d’atmosphère protectrice, alors que les étapes les plus dangereuses dans un vol sont plutôt le décollage et l’atterrissage. Ceci n’excuse cependant pas le dysfonctionnement constaté. Voyons un peu pourquoi ce problème n’aurait pas dû se produire.

Les calculateurs informatisés d’aviation civile sont classés, suivant les standards internationaux de l’aviation civile, en cinq niveaux de criticité, selon la sévérité des conséquences possibles d’un dysfonctionnement : du niveau A, où un dysfonctionnement peut provoquer une catastrophe aérienne, au niveau E, où il n’y aurait pas de conséquences pour la sécurité de l’aéronef. Les commandes de vol électriques sont du niveau A, elles sont donc soumises aux normes les plus sévères. On peut donc raisonnablement supposer que les commandes de vol des A320 sont équipées de mécanismes de détection et/ou de remédiation de dysfonctionnements, y compris dus aux radiations.

Sur les Airbus A330/A340, par exemple, il existe deux niveaux de commande de vol, primaires et secondaires. Il y a trois boîtiers de commandes primaires, et lorsqu’un boîtier a subi un problème, il est temporairement désactivé – ce n’est pas grave, car il en a deux autres pour le relayer. S’il y avait un problème générique sur les commandes primaires, on pourrait fonctionner avec les commandes secondaires, qui utilisent d’autres types de composants.

Chaque boîtier de commande de vol primaire consiste en deux calculateurs, l’un qui commande les gouvernes, l’autre qui surveille celui qui commande – ils doivent produire environ les mêmes résultats, sinon le système détecte que quelque chose ne va pas. Normalement, sur un tel système, en cas de dysfonctionnement d’un des calculateurs, le problème est rapidement détecté, le boîtier est désactivé, on passe sur un autre et une chute comme celle qui s’est passée en octobre est impossible.

Pourquoi les systèmes n’ont-ils pas détecté le problème ?

J’ai personnellement travaillé sur l’analyseur statique Astrée, un outil destiné à vérifier que des logiciels de contrôle ne se mettent jamais dans des situations d’erreur. Il a notamment été utilisé par Airbus sur ses commandes de vol électriques. J’ai eu l’occasion, au fil des années, d’apprécier le sérieux et la volonté de cette société de se doter d’approches à la pointe de l’état de l’art en matière de technologies logicielles, notamment de vérification formelle.

Plus récemment, j’ai également travaillé sur des contre-mesures à des erreurs de fonctionnement informatique provoquées volontairement à l’aide de rayonnements électromagnétiques. Il existe en effet la possibilité que des personnes induisent volontairement des pannes afin de les exploiter dans un but frauduleux, c’est donc nécessaire de travailler à prévenir ces tentatives pour des cartes à puce et d’autres équipements sécurisés.

L’hypothèse qu’il s’agisse bien d’une perturbation par une particule isolée reste plausible, mais il est surprenant qu’il ait fallu plusieurs secondes pour traiter le problème. Le système de sécurité du boîtier de commande affecté par l’irradiation aurait dû détecter l’incident, le boîtier touché aurait dû être automatiquement désactivé et l’avion basculé sur un autre, en secours. Il faut donc attendre d’autres éléments pour déterminer si c’est la bonne explication, et comment cela a pu alors se produire, ou si d’autres scénarios sont à envisager.

The Conversation

David Monniaux a reçu des financements de l'ANR (PEPR Cybersécurité). En tant que co-développeur de l'analyseur Astrée, il touche une prime d'intéressement à la valorisation de ce logiciel, donc à ses ventes.

14.12.2025 à 17:58

Changer les algorithmes des réseaux sociaux suffit à réduire l’hostilité politique

Tiziano Piccardi, Assistant Professor of Computer Science, Johns Hopkins University
En utilisant un nouvel outil web, des chercheurs ont pu établir qu’une simple réorganisation de l’ordre des posts sur les réseaux sociaux suffit à apaiser le climat sur la plateforme.
Texte intégral (1107 mots)
Des chercheurs ont développé un outil web open source permettant de réorganiser en temps réel les fils d’actualité de participants consentants sur X (anciennement Twitter). Bangla Press

Les fils d’actualité des réseaux sociaux sont conçus pour capter notre attention. Mais de simples ajustements dans les algorithmes qui les sous-tendent permettent d’apaiser le débat public.


Réduire la visibilité des contenus polarisants dans les fils d’actualité des réseaux sociaux peut diminuer de manière tangible l’hostilité partisane. Pour parvenir à cette conclusion, mes collègues et moi avons développé une méthode permettant de modifier le classement des publications dans les fils d’actualité, une opération jusque-là réservée aux seules plateformes sociales.

Le réajustement des fils pour limiter l’exposition aux publications exprimant des attitudes anti-démocratiques ou une animosité partisane a influencé à la fois les émotions des utilisateurs et leur perception des personnes ayant des opinions politiques opposées.

Je suis chercheur en informatique spécialisé dans l’informatique sociale, l’intelligence artificielle et le web. Comme seules les plateformes de réseaux sociaux peuvent modifier leurs algorithmes, nous avons développé et rendu disponible un outil web open source permettant de réorganiser en temps réel les fils d’actualité de participants consentants sur X, anciennement Twitter.

S’appuyant sur des théories des sciences sociales, nous avons utilisé un modèle de langage pour identifier les publications susceptibles de polariser les utilisateurs, par exemple celles prônant la violence politique ou l’emprisonnement des membres du parti adverse. Ces publications n’étaient pas supprimées ; elles étaient simplement classées plus bas dans le fil, obligeant les utilisateurs à défiler davantage pour les voir, ce qui a réduit leur exposition.

Nous avons mené cette expérience pendant dix jours, dans les semaines précédant l’élection présidentielle américaine de 2024. Nous avons constaté que limiter l’exposition aux contenus polarisants améliorait de manière mesurable ce que les participants pensaient des membres du parti adverse et réduisait leurs émotions négatives lorsqu’ils faisaient défiler leur fil d’actualité. Fait notable, ces effets étaient similaires quel que soit le parti politique, ce qui suggère que l’intervention bénéficie à tous les utilisateurs, indépendamment de leur affiliation.

Pourquoi c’est important

Une idée reçue veut que l’on doive choisir entre deux extrêmes : des algorithmes basés sur l’engagement ou des fils purement chronologiques. En réalité, il existe un large éventail d’approches intermédiaires, selon les objectifs pour lesquels elles sont optimisées.

Les algorithmes de fil d’actualité sont généralement conçus pour capter votre attention et ont donc un impact significatif sur vos attitudes, votre humeur et votre perception des autres. Il est donc urgent de disposer de cadres permettant à des chercheurs indépendants de tester de nouvelles approches dans des conditions réalistes.

Notre travail ouvre cette voie : il montre comment étudier et prototyper à grande échelle des algorithmes alternatifs, et démontre qu’avec les grands modèles de langage (LLM), les plateformes disposent enfin des moyens techniques pour détecter les contenus polarisants susceptibles d’influencer les attitudes démocratiques de leurs utilisateurs.

Quelles autres recherches sont menées dans ce domaine

Tester l’impact d’algorithmes alternatifs sur des plateformes actives est complexe, et le nombre de ces études n’a augmenté que récemment.

Par exemple, une collaboration récente entre des universitaires et Meta a montré que passer à un fil chronologique n’était pas suffisant pour réduire la polarisation. Un effort connexe, le Prosocial Ranking Challenge dirigé par des chercheurs de l’Université de Californie à Berkeley, explore des alternatives de classement sur plusieurs plateformes pour favoriser des résultats sociaux positifs.

Parallèlement, les progrès dans le développement des LLM permettent de mieux modéliser la façon dont les gens pensent, ressentent et interagissent. L’intérêt croît pour donner davantage de contrôle aux utilisateurs, en leur permettant de choisir les principes qui guident ce qu’ils voient dans leur fil – par exemple avec Alexandria, une bibliothèque des valeurs pluralistes ou le système de réorganisation de fil Bonsai. Les plateformes sociales, telles que Bluesky et X, s’orientent également dans cette direction.

Et après

Cette étude n'est qu'un premier pas vers la conception d’algorithmes conscients de leur impact social potentiel. De nombreuses questions restent ouvertes. Nous prévoyons d’étudier les effets à long terme de ces interventions et de tester de nouveaux objectifs de classement pour traiter d’autres risques liés au bien-être en ligne, comme la santé mentale et le sentiment de satisfaction. Les travaux futurs exploreront comment équilibrer plusieurs objectifs – contexte culturel, valeurs personnelles et contrôle par l’utilisateur – afin de créer des espaces en ligne favorisant des interactions sociales et civiques plus saines.

Retrouvez dans le Research Brief de The Conversation US une sélection travaux académiques en cours résumés par leurs auteurs.

The Conversation

Cette recherche a été partiellement financée par une subvention Hoffman-Yee du Stanford Institute for Human-Centered Artificial Intelligence.

14.12.2025 à 11:49

Dans l’Italie du XVIIIe siècle, les femmes s’insurgeaient contre le harcèlement sexiste et sexuel subi dans les confessionnaux

Giada Pizzoni, Marie Curie Research Fellow, Department of History, European University Institute
Les archives du Vatican montrent qu’au XVIIIᵉ siècle, des Italiennes ont signalé des cas de harcèlement et d’abus aux autorités ecclésiastiques.
Texte intégral (1718 mots)

Blagues obscènes, questions intrusives, gestes déplacés : les archives inquisitoriales du Vatican montrent que le harcèlement sexuel au confessionnal était une réalité pour de nombreuses femmes dans l’Italie du XVIIIᵉ siècle – et que certaines ont osé le signaler.


L’Institut européen pour l’égalité entre les hommes et les femmes définit le harcèlement sexuel comme « la situation dans laquelle un comportement non désiré à connotation sexuelle, s’exprimant physiquement, verbalement ou non verbalement, survient avec pour objet ou pour effet de porter atteinte à la dignité d’une personne et, en particulier, de créer un environnement intimidant, hostile, dégradant, humiliant ou offensant ». Les agissements sexistes découlent du pouvoir et visent à exercer un contrôle psychologique ou sexuel. Dans les deux cas, les victimes se sentent souvent confuses, seules, et se croient parfois responsables des abus subis.

En tant qu’historienne, je cherche à comprendre comment les femmes ont vécu et affronté ces comportements intimidants. Je m’intéresse en particulier au harcèlement pendant la confession dans l’Italie du XVIIIe siècle. Les femmes catholiques se rendaient au confessionnal pour partager leurs doutes et leurs espoirs sur des sujets allant de la reproduction aux menstruations, mais elles étaient parfois confrontées à des remarques méprisantes ou déplacées qui les déstabilisaient.

Un déséquilibre des pouvoirs

Les archives du Vatican nous montrent que certains des hommes qui ont tenu ces propos avaient tendance à en minimiser la portée, les qualifiant de simples marques de camaraderie ou de curiosité, voire de vantardise. Ils ont pourtant rabaissé les femmes qui, après ces échanges, étaient bouleversées ou en colère. Ces femmes étaient souvent plus jeunes que leurs confesseurs, elles avaient moins de pouvoir et pouvaient subir des menaces les contraignant à se taire. Pourtant, les archives nous montrent également que certaines, jugeant ces échanges inappropriés, se sont opposées à ces abus.

Les archives contiennent les procès-verbaux des tribunaux de l’Inquisition, qui, dans toute la péninsule italienne, traitaient les signalements de harcèlement et d’abus dans les confessionnaux. Pour les femmes, la confession était primordiale car elle dictait la moralité. Le devoir d’un prêtre était de demander aux femmes si elles étaient de bonnes chrétiennes, et la moralité d’une femme était liée à sa sexualité. Les canons de l’Église enseignaient que le sexe devait être uniquement hétérosexuel, génital et se dérouler dans le cadre du mariage.

Mais si la sexualité était encadrée par un code moral de péché et de honte, les femmes étaient des agents sexuels actifs, apprenant par l’expérience et l’observation. Le fonctionnement interne du corps féminin était mystérieux pour elles, mais le sexe ne l’était pas. Alors que les hommes lettrés avaient accès à des traités médicaux, les femmes apprenaient grâce aux connaissances échangées au sein de la famille et avec les autres femmes. Cependant, au-delà de leur cercle quotidien, certaines femmes considéraient le confessionnal comme un espace sûr où elles pouvaient se confier, remettre en question leurs expériences et demander des conseils sur le thème de la sexualité. Les ecclésiastiques agissaient alors comme des guides spirituels, des figures semi-divines capables d’apporter du réconfort, ce qui créait un déséquilibre de pouvoir pouvant conduire à du harcèlement et des abus.

Signaler les cas de harcèlement

Certaines femmes victimes d’abus dans le confessionnal l’ont signalé à l’Inquisition, et les autorités religieuses les ont écoutées. Dans les tribunaux, les notaires ont consigné les dépositions et les accusés ont été convoqués. Au cours des procès, les témoins ont été contre-interrogés afin de corroborer leurs déclarations. Les condamnations variaient : un ecclésiastique pouvait être condamné à jeûner ou à faire des exercices spirituels, à être suspendu, exilé ou envoyé aux galères (travaux forcés).

Les archives montrent qu’au XVIIIe siècle en Italie, les femmes catholiques comprenaient parfaitement les blagues grivoises, les métaphores et les allusions qui leur étaient adressées. En 1736 à Pise, par exemple, Rosa alla trouver son confesseur pour lui demander de l’aide, inquiète que son mari ne l’aime pas, et il lui conseilla « d’utiliser ses doigts sur elle-même » pour éveiller son désir. Elle fut embarrassée et rapporta cet échange inapproprié. Les documents d’archives montrent fréquemment que les femmes étaient interrogées si leur mariage ne produisait pas d’enfants : on leur demandait si elles vérifiaient que leur mari « consommait par derrière », dans le même « vase naturel », ou si le sperme tombait à l’extérieur.

En 1779, à Onano, Colomba a rapporté que son confesseur lui avait demandé si elle savait que pour avoir un bébé, son mari devait insérer son pénis dans ses « parties honteuses ». En 1739, à Sienne, une femme de 40 ans sans enfant, Lucia, s’est sentie rabaissée lorsqu’un confesseur lui a proposé de l’examiner, affirmant que les femmes « avaient des ovaires comme les poules » et que sa situation était étrange, car il suffisait à une femme « de retirer son chapeau pour tomber enceinte ». Elle a signalé cet échange comme une ingérence inappropriée dans sa vie intime.

Les archives du confessionnal montrent des exemples de femmes à qui l’on disait : « J’aimerais te faire un trou » ; qui voyaient un prêtre frotter des anneaux de haut en bas sur ses doigts pour imiter des actes sexuels ; et à qui l’on posait la question suggestive de savoir si elles avaient « pris cela dans leurs mains » – et chacune de ces femmes comprenait ce qui était insinué. Elles comprenaient aussi que ces comportements relevaient du harcèlement. Autant d’actes et de paroles que les confesseurs considéraient, eux, comme du flirt – comme lorsqu’un prêtre invita Alessandra à le rejoindre dans le vignoble en 1659 – étaient jugés révoltants par les femmes qui rapportaient ces événements (Vatican, Archivio Dicastero della Fede, Processi vol. 42).

L’effet déconcertant des abus

À cette époque, le stéréotype selon lequel les femmes plus âgées n’avaient plus de sexualité était très répandu. En effet, on croyait que les femmes dans la quarantaine ou la cinquantaine n’étaient plus physiquement aptes à avoir des rapports sexuels, et leur libido était ridiculisée par la littérature populaire. En 1721, Elisabetta Neri, une femme de 29 ans qui cherchait des conseils pour soulager ses bouffées de chaleur qui la mettaient hors d’état de fonctionner, s’est entendu dire qu’à partir de 36 ans, les femmes n’avaient plus besoin de se toucher, mais que cela pouvait l’aider à se détendre et à soulager son état.

Les femmes étaient également interrogées de manière fréquente et répétée sur leur plaisir : se touchaient-elles lorsqu’elles étaient seules ? Touchaient-elles d’autres femmes, des garçons ou même des animaux ? Regardaient-elles les « parties honteuses » de leurs amies pour comparer qui « avait la nature la plus grande ou la plus serrée, avec ou sans poils » (ADDF, CAUSE 1732 f.516) ? Pour les femmes, ces commentaires représentaient des intrusions inappropriées dans leur intimité. D’après les harceleurs masculins, il s’agissait d’une forme de curiosité excitante et une façon de donner des conseils : un frère franciscain, en 1715, a ainsi démenti avoir fait des commentaires intrusifs sur la vie sexuelle d’une femme (ADDF, Stanza Storica, M7 R, procès 3).

En quête de conseils avisés, les femmes confiaient leurs secrets les plus intimes à ces érudits, et elles pouvaient être déconcertées par l’attitude que leurs confesseurs affichaient souvent. En 1633, Angiola affirmait avoir « tremblé pendant trois mois » après avoir subi des violences verbales (ADDF, vol. 31, Processi). Les remarques déplacées et les attouchements non désirés choquaient celles qui en étaient victimes.

Le courage de s’exprimer

Il est indéniable que la sexualité est un objet culturel, encadré par des codes moraux et des agendas politiques qui font l’objet de négociations constantes. Les femmes ont été sans cesse surveillées, leur corps et leur comportement étant soumis à un contrôle permanent. Cependant, l’histoire nous enseigne que les femmes pouvaient être conscientes de leur corps et de leurs expériences sexuelles. Elles discutaient de leurs doutes, et certaines se sont ouvertement opposées au harcèlement ou aux relations abusives.

Au XVIIIe siècle en Italie, les femmes catholiques n’avaient pas toujours les mots pour qualifier les abus dont elles étaient victimes, mais elles savaient reconnaître qu’elles ne vivaient pas toujours un échange « honnête » dans le confessionnal, et parfois elles ne l’acceptaient pas. Elles ne pouvaient pas y échapper, mais elles avaient le courage d’agir contre un tel abus.

Une culture d’abus sexuels est difficile à éradiquer, mais les femmes peuvent s’exprimer et obtenir justice. Les événements des siècles passés montrent qu’il est toujours possible de dénoncer, comme c’est encore le cas aujourd’hui.


Note de l’auteur : les références entre parenthèses dans le texte renvoient à des documents consultables conservés dans les archives du Vatican.

The Conversation

Giada Pizzoni a reçu une bourse Marie Skłodowska-Curie de la Commission européenne.

14.12.2025 à 11:48

Comment transformer l’aura des stars en multiplicatrice de dons

Thomas Leclercq, Professeur ordinaire en marketing, IESEG School of Management (LEM-CNRS 9221), Head of Marketing and Sales Department, IÉSEG School of Management
Étienne Denis, Professeur de Marketing, EDHEC Business School
Steven Hoornaert, Professeur en marketing digital; IESEG School of Management, Univ. Lille, CNRS, UMR 9221 - LEM - Lille Economie Management, F-59000 Lille, France, IÉSEG School of Management
Comment transformer l’aura d’une célébrité en soutien à une cause d’intérêt général ou à une association ? Réponses en graphiques, grâce à trois études menées auprès de centaines de donateurs.
Texte intégral (1331 mots)
Plusieurs jours après la guerre entre Israël et le Hezbollah, le chanteur Mika a lancé un appel aux dons sur ses réseaux sociaux afin de soutenir les populations civiles du Liban, notamment les enfants. IgnazioFiorenza/Shutterstock

Une recherche met en lumière les stratégies permettant de transformer l’aura des célébrités en crédibilité à l'égard d’une cause d’intérêt général. Alors, ces leaders d’opinion permettent-ils aux associations de récolter davantage de dons ? D’influencer nos élans de générosité ? Explications en graphiques.


Les célébrités, et plus récemment les influenceurs, ne se contentent plus de divertir : ils orientent nos choix. Des marques que nous achetons, jusqu’aux positions que nous adoptons sur des enjeux éthiques, leur empreinte est partout. Ils s’imposent comme de véritables sources d’information pour les consommateurs.

Leur influence ne s’arrête pas aux décisions de consommation. Acteurs, humoristes ou streamers façonnent nos élans de générosité et les causes que nous choisissons de soutenir. De nombreuses personnalités mettent en avant leur engagement caritatif : Pierre Garnier avec Imagine for Margo, Florence Foresti avec la Fondation des femmes ou encore Omar Sy avec les Restaurants du cœur. Côté influenceurs, le ZEvent 2025 a marqué les esprits : en trois jours de marathon sur Twitch, plus de 16,2 millions d’euros ont été récoltés grâce à des figures comme ZeratoR, Kameto ou Baghera Jones.

Pour mieux comprendre ces mécanismes, nous avons mené une série d’études pour comprendre si l’aura des célébrités apportait une crédibilité envers la cause à soutenir. Concrètement, nous avons présenté à des consommateurs plusieurs personnalités, ambassadrices d’une cause, et analysé si elles avaient un impact positif sur la crédibilité des causes d’intérêt général.

Transformer l’aura en crédibilité

Notre première étude, intuitive, consiste à choisir une personnalité dont l’histoire est directement liée à la cause. Par exemple, des personnalités telles que Selena Gomez et Lady Gaga peuvent être des ambassadrices crédibles pour les causes liées à la santé mentale chez les jeunes, compte tenu des traumatismes qu’elles ont vécus dans leur jeunesse. Il en va de même pour le combat d’Emma Watson pour l’égalité homme-femme, renforcé par son expérience des traitements des jeunes femmes et adolescentes dans l’industrie cinématographique.

La seconde étude repose sur ce que les chercheurs appellent le transfert de sens. Dans ce processus, les symboles associés à une personne sont transférés à un produit, une marque ou une organisation. De cette manière, une personnalité peut apporter à la cause son aura culturelle, son univers ou ses valeurs symboliques à une cause, même sans lien direct apparent.

Quand la notoriété devient expertise

Dans une étude auprès de 200 répondants, nous avons testé l’impact de l’attractivité de la personnalité ambassadrice sur son niveau de crédibilité perçue envers la cause et le nombre de dons générés.

À cette fin, nous avons indiqué aux participants de l’étude que le tennisman Andy Muray était le nouvel ambassadeur de « Let’s Green Up ! », une ONG fictive. Dans un premier groupe, nous avons décrit le tennisman en insistant sur son attractivité et son aura. Dans un second groupe, nous avons présenté une description plus neutre du sportif. Nous avons ensuite mesuré la crédibilité perçue de la personnalité grâce à des affirmations telles que « Cet influenceur est une source d’information fiable » ou « Je peux faire confiance à cette personne ».

Les répondants avaient enfin la possibilité de faire un don à l’ONG proposée. Les résultats sont unanimes : la présence de cette aura est une condition essentielle au succès des campagnes de récolte de dons. Elle fait augmenter la chance de faire un don de 43 % à 54 %.

Un passé qui donne du poids

Au-delà de leur aura, certaines célébrités renforcent leur crédibilité en mettant en avant un lien personnel avec la cause qu’elles soutiennent. Lorsque Mika s’engage auprès d’associations venant en aide au Liban, son message gagne en force, car il souligne son attachement à ce pays d’origine.

Pour tester cette hypothèse, nous avons réalisé une seconde étude auprès de 402 répondants. Ces derniers pouvaient soutenir une cause associée à une personnalité, en faisant varier le type de cause et la personnalité. Pour ce faire, nous avons comparé l’efficacité de l’annonce quand la cause est soutenue par Léonardo DiCaprio, célébrité connue pour son aura, et Greta Thunberg, davantage connue pour son activisme. Nous avons d’abord comparé des groupes où ces personnalités soutenaient une campagne pour l’écologie, en lien avec le passé des deux célébrités, et une autre campagne soutenant l’accès à l’éducation. Nous avons ensuite mesuré la crédibilité de la personnalité ambassadrice.

Lorsque ce lien est mis en évidence, la crédibilité de la célébrité ou de l’influenceur envers la cause augmente donc davantage.

Le pouvoir du transfert symbolique

Même lorsqu’elles n’ont pas de lien direct avec une cause, les célébrités peuvent lui donner de la crédibilité en y associant leur univers symbolique. Un humoriste qui prête son image à une campagne solidaire, ou une chanteuse pop qui soutient la recherche médicale, n’est pas forcément expert du sujet. Ce transfert de sens, présenté plus haut, permet aux associations de toucher le public par ricochet, en capitalisant sur l’image culturelle de la personnalité.

Nous avons réalisé une troisième étude auprès de 400 répondants. L’idée : inviter les participants à soutenir une association pour l’écologie. Dans un groupe, la personnalité ambassadrice est Keanu Reeves et dans l’autre, Eminem. Nous avons pu établir au préalable que Eminem démontrait un capital symbolique plus important que Keanu Reeves. Dans les deux cas, nous avons fait varier l’attractivité et l’aura de la personnalité ambassadrice en la présentant dans une posture favorable ou neutre.

Les résultats montrent qu’une personnalité présentant un capital symbolique plus élevé, comme Eminem, est perçue comme étant davantage crédible, ce qui accroît leur capacité à générer un élan de générosité.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

14.12.2025 à 11:47

Football : 30 ans après l’arrêt Bosman, quel bilan pour le marché des transferts ?

Allane Madanamoothoo, Associate Professor of Law, EDC Paris Business School
Daouda Coulibaly, PhD, Professeur-Associé, EDC Paris Business School
Moustapha Kamara, PhD Droit du Sport, EDC Paris Business School
Le 15 décembre 1995, la Cour de justice des Communautés européennes (CJCE) a rendu un arrêt qui allait transformer en profondeur le monde du football professionnel.
Texte intégral (2890 mots)

Le Belge Jean-Marc Bosman, joueur modeste des années 1990, restera peut-être dans l’histoire comme le footballeur qui aura eu le plus grand impact sur son sport. En effet, l’arrêt portant son nom, adopté il y a exactement trente ans, a permis aux joueurs en fin de contrat de rejoindre un autre club sans l’exigence d’une indemnité de transfert. Il a également mis fin à la règle qui prévalait jusqu’alors de trois étrangers maximum par équipe, ouvrant la voie à une aspiration des joueurs du monde entier vers les clubs les plus riches.


« Toi, avec ton arrêt, tu vas rester dans l’histoire, comme Bic ou Coca-Cola », avait dit Michel Platini à Jean-Marc Bosman en 1995. Platini n’avait sans doute pas tort.

Les faits remontent à 1990. Le contrat de travail de Bosman, footballeur professionnel du Royal Football Club (RFC) de Liège (Belgique), arrive à échéance le 30 juin. Son club lui propose un nouveau contrat, mais avec un salaire nettement inférieur. Bosman refuse et est placé sur la liste des transferts. Conformément aux règles de l’Union européenne des associations de football (UEFA) en vigueur à l’époque, le transfert d’un joueur, même en fin de contrat, s’effectue en contrepartie d’une indemnité versée par le club acheteur au club vendeur. Autrement dit, pour acquérir Bosman, le nouveau club devra verser une indemnité de transfert au RFC.

En juillet, l’Union sportive du littoral de Dunkerque (USL) en France est intéressée. Mais le club belge, craignant l’insolvabilité de l’USL, bloque l’opération. Bosman se retrouve sans employeur. Pis, il continue d’appartenir à son ancien club, lequel maintient ses droits de transfert. Par ailleurs, en vertu de la règle des quotas – trois étrangers maximum par équipe –, il est difficile pour le joueur de rejoindre un club dans un autre État de la Communauté européenne.

S’estimant lésé, Bosman saisit les tribunaux belges. L’affaire est par la suite portée devant la Cour de justice des Communautés européennes (CJCE).

Coup de tonnerre : le 15 décembre 1995, la CJCE tranche en faveur de Bosman.

Décision de la CJCE

La Cour précise que le sport professionnel, comme toute activité économique au sein de la Communauté européenne, est soumis au droit communautaire. Elle considère dès lors que toute disposition restreignant la liberté de mouvement des footballeurs professionnels ressortissants de la Communauté européenne est contraire à l’article 48 du Traité de Rome, lequel prévoit la libre concurrence et la liberté de circulation des travailleurs entre les États membres.

La CJCE reprend ses jurisprudences antérieures (arrêts Walrawe et Koch en 1974 et Doña en 1976) et déclare que les règles de quotas fondées sur la nationalité des joueurs ressortissants communautaires constituent des entraves au marché commun.

En outre, la Cour va plus loin dans son jugement et estime que les indemnités de transfert pour les joueurs en fin de contrat (encore appliquées par certains clubs européens en 1995) sont contraires au droit communautaire.

Enjeux et impacts de l’arrêt Bosman

Le socle de cette décision a été la standardisation ou plutôt l’universalité des règles sportives au niveau de l’UEFA (54 fédérations) et de la Fédération Internationale de Football Association, FIFA (211 fédérations), qui ont dû s’aligner sur la jurisprudence Bosman.

Ainsi, cet arrêt de la CJCE a conduit les instances du football à réformer le système des transferts (Réformes dites « Règlement du Statut et du Transfert des Joueurs », (RSTJ) 2001, 2005, 2017-2022). Conséquemment, l’arrêt Bosman a drastiquement accentué la libéralisation du marché des transferts.

Cela s’est traduit par la suppression des obstacles à la libre circulation des sportifs. Les joueurs en fin de contrat sont devenus libres de rejoindre un autre club sans que celui-ci soit tenu de verser une indemnité de transfert à leur ancien club. Fin de l’ « esclavage » sportif ! Fin également du « régime de quotas » pour les joueurs ressortissants communautaires au sein des effectifs dans les clubs européens !

De facto, il y a eu une augmentation du nombre de joueurs étrangers communautaires, désormais illimité pour les joueurs des pays de l’Union européenne (UE). C’est le cas également pour les joueurs de l’Espace économique européen et pour ceux issus des pays ayant un accord d’association ou de coopération avec l’UE à la suite des arrêts Malaja dans le basket en 2002, Kolpak dans le handball en 2003 et Simutenkov dans le football en 2005. Il en est de même, depuis l’accord de Cotonou en 2000 (remplacé par l’accord de Samoa en 2023), pour les détenteurs des nationalités de 47 pays d’Afrique, 15 pays des Caraïbes et 15 pays du Pacifique. En France, le nombre de joueurs considérés comme « extra-communautaires » est limité à quatre.

Par ailleurs, comme le souligne Vincent Chaudel, co-fondateur de l’Observatoire du Sport Business, l’arrêt Bosman a inversé le rapport de force entre joueurs et clubs. L’inflation des salaires, qui avait commencé dans les années 1980, s’est accélérée dès les premières années après cet arrêt, puis de manière exponentielle chez les superstars par la suite.

Selon le magazine Forbes, les cinq footballeurs les mieux rémunérés en 2024 étaient Cristiano Ronaldo (environ 262,4 millions d’euros), Lionel Messi (environ 124,3 millions d’euros), Neymar (environ 101,3 millions d’euros), Karim Benzema (environ 95,8 millions d’euros) et Kylian Mbappé (environ 82,9 millions d’euros). L’écart salarial entre les footballeurs et les footballeuses reste néanmoins encore béant.


À lire aussi : Equal play, equal pay : des « inégalités » de genre dans le football


L’arrêt Bosman a aussi fortement impacté la spéculation de la valeur marchande des superstars et des jeunes talents.


À lire aussi : À qui profite le foot ?


Au-delà, cet arrêt s’est matérialisé par l’extension de la libre circulation des joueurs formés localement dans un État membre de l’UE, au nom de la compatibilité avec les règles de libre circulation des personnes ; cette mesure a ensuite été étendue à d’autres disciplines sportives.

Une autre particularité concerne le prolongement de la jurisprudence Bosman aux amateurs et aux dirigeants sportifs.

Enfin, il est important de rappeler que si l’arrêt Bosman a permis à de nombreux acteurs du football (joueurs, agents, clubs, investisseurs, etc.) de s’enrichir, ce fut loin d’être le cas pour Jean-Marc Bosman lui-même. Dans un livre autobiographique poignant, Mon combat pour la liberté, récemment publié, l’ancien joueur raconte son combat judiciaire de cinq ans, ainsi que sa longue traversée du désert (trahisons, difficultés financières, dépressions, etc.) après la décision de la CJCE.

Perspectives : du 15 décembre 1995 au 15 décembre 2025, 30 ans de libéralisation

L’arrêt Bosman a dérégulé, explosé et exposé le marché des transferts. Le récent article de la Fifa consacré au marché estival de 2025 en témoigne : cet été-là, 9,76 milliards de dollars d’indemnités de transfert ont été versés dans le football masculin et 12,3 millions de dollars dans le football féminin.

Ainsi, l’arrêt a ouvert la voie à une libéralisation inédite des opérations, conduisant parfois à des montages financiers particulièrement complexes.


À lire aussi : Football financiarisé : l’Olympique lyonnais, symptôme d’un modèle de multipropriété en crise


Au-delà de l’explosion des indemnités de transfert, l’arrêt Bosman a creusé les inégalités entre les clubs, tant au niveau national qu’européen. Pendant que les clubs les moins riches servent de pépinières pour former les futurs talents, les clubs les plus riches déboursent des sommes astronomiques pour acquérir les meilleurs footballeurs : Neymar, 222 millions d’euros ; Mbappé, 180 millions d’euros ; Ousmane Dembelé et Alexander Isak, 148 millions d’euros ; Philippe Coutinho, 135 millions d’euros, etc. Cela se traduit par l’ultra-domination des gros clubs dans les championnats européens avec le risque d’un « déclin général de l’équilibre compétitif dans le football européen » selon l’Observatoire du football CIES.

Enfin, avec la libéralisation du marché des transferts, des réseaux internationaux se tissent – et par la même occasion s’enrichissent – pour dénicher les futures « poules aux œufs d’or ». L’Amérique du Sud, l’Afrique (notamment depuis l’accord Cotonou) et l’Europe de l’Est sont devenues les principaux exportateurs des footballeurs (certains partent à un âge très précoce à l’étranger et se retrouvent loin de leur famille) vers les clubs d’Europe de l’Ouest.

Pour conclure, il serait souhaitable de réguler le marché, d’assainir l’écosystème et d’apaiser les ardeurs. L’arrêt Diarra (qualifié de « Bosman 2.0 ») de la Cour de justice de l’Union européenne (CJUE) – anciennement la CJCE – le 4 octobre 2024 est une avancée dans ce sens. Bien que la Cour n’ait pas remis en cause tout le système des transferts, elle a enjoint la FIFA à modifier sa réglementation afin que les footballeurs ne soient plus sous le joug de leur club en cas de rupture unilatérale de leur contrat.

Les joueurs doivent pouvoir y mettre un terme sans craindre de devoir verser une indemnité « disproportionnée » à leur club, et sans que le nouveau club désireux de les recruter soit tenu de verser solidairement et conjointement cette indemnité en cas de rupture sans « juste cause ». Dans l’urgence, un cadre réglementaire provisoire relatif au RSTJ a été adopté par la FIFA en décembre 2024 – jugé pour autant non conforme à la décision de la CJUE.

Le monde du football a besoin d’une transformation systémique où le plafonnement des coûts de transfert, mais aussi la gestion vertueuse des clubs et des institutions, l’encadrement et l’égalité des salaires homme-femme, la prise en compte du bien-être psychologique des acteurs, etc. constitueraient un socle fort pour un renouveau du marché des transferts et de l’industrie du football dans sa globalité.

Mieux, l’industrie du football ne doit plus constituer un mobile pour creuser les écarts et les disparités sociales et sociétales.

Annexe : 11 dates et événements clés

1891 : J. P. Campbell de Liverpool est le premier agent à faire la promotion de joueurs auprès des clubs par des publicités via la presse.

1905 : William McGregor, ancien président du club d’Aston Villa et fondateur de la ligue anglaise déclare, en une formule visionnaire pour l’époque, « Football is big business ».

1930 : la première Coupe du Monde de football a lieu en Uruguay.

1932 : la mise en place du premier championnat professionnel de football en France avec des dirigeants employeurs et des joueurs salariés sans aucun pouvoir ainsi que l’établissement du contrat à vie des footballeurs, liés à leur club jusqu’à l’âge de 35 ans.

1961 : le salaire minimum des joueurs de football est supprimé. Cette décision a pour effet d’équilibrer le pouvoir de négociation entre joueurs et clubs.

Entre 1960 et 1964 : les salaires des joueurs de la première division française évoluent drastiquement (augmentation de 61 % par rapport à ceux des années 1950).

1963 : la Haute Cour de Justice anglaise dispose, dans l’affaire Georges Eastham, que le système de « conservation et transfert » est illégal.

1969 : la mise en place du contrat de travail à durée librement déterminée.

1973 : l’adoption de la Charte du football professionnel.

1991 : la première Coupe du monde de football féminin se déroule en Chine.

1995 : l’arrêt Bosman de la Cour de justice des Communautés européennes (CJCE) du 15 décembre 1995 crée un véritable bouleversement dans le système de transfert des joueurs au sein de l’UE – anciennement la Communauté européenne.

The Conversation

Moustapha Kamara a reçu une Bourse de recherche Havelange de la FIFA.

Allane Madanamoothoo et Daouda Coulibaly ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

13.12.2025 à 17:12

« Un an après le cyclone Chido, la situation de Mayotte reste critique »

Fahad Idaroussi Tsimanda, Géographe, chercheur associé au LAGAM, Université de Montpellier
Le cyclone Chido a ravagé l’île de Mayotte le 14 décembre 2024. Si l’État s’est mobilisé en urgence, les promesses de reconstruction n’ont pas été tenues.
Texte intégral (1692 mots)

Le cyclone Chido a ravagé le département français de Mayotte le 14 décembre 2024. Si l’État est intervenu massivement pour traiter l’urgence, les promesses de reconstruction structurelles semblent loin d’avoir été tenues. Entretien avec le géographe mahorais Fahad Idaroussi Tsimanda.


The Conversation : Un an après Chido, où en est la reconstruction ?

Fahad Idaroussi Tsimanda : Le 14 décembre 2024, le cyclone Chido a frappé Mayotte et endommagé 80 % du territoire mahorais (près de 60 % de l’habitat aurait été détérioré ou totalement détruit, mais aussi de nombreuses infrastructures, des territoires agricoles et naturels). Il s’agissait d’une catastrophe humanitaire majeure, malgré un bilan officiel limité à 40 morts et 41 disparus. Rapidement, l’État a mobilisé de forts moyens d’urgence après avoir déclaré l’état de calamité naturelle exceptionnelle. Sur place, plus de 4 000 personnels de la sécurité civile, de la police, de la gendarmerie et des armées ont été déployés. De l’aide humanitaire a été distribuée massivement – packs d’eau, patates, bananes, farine, huile, etc. La remise en état des routes et des principaux réseaux d’eau potable et d’électricité ont été effectifs au bout d’un mois environ.

Une forte mobilisation politique a également eu lieu dans le courant de l’année 2025. Pour formaliser et encadrer la reconstruction de l’île, le gouvernement a adopté une loi d’urgence en février 2025, puis une loi pour la refondation de Mayotte, fixant une trajectoire d’investissement de 4 milliards d’euros sur plusieurs années. Ces textes ont été complétés par des ordonnances visant à accélérer la reconstruction, notamment en adaptant temporairement les règles de construction pour faciliter la reconstruction des logements détruits.

Pourtant, notre constat est que, au-delà de l’urgence, la reconstruction structurelle n’a toujours pas eu lieu et la situation demeure critique sur place. Nous sommes encore très loin de ce que les Mahorais attendaient. Selon les chiffres de la députée Estelle Youssouffa, très peu d’argent a été dépensé : 25 millions d’euros seulement depuis le début de l’année, soit environ 0,6 % de l’enveloppe totale promise de 4 milliards d’euros.

J’ai pu constater que, dans le chef-lieu, Mamoudzou, plusieurs bâtiments publics (ceux du Département de Mayotte, la mairie, le commissariat, ceux de l’intercommunalité, etc.) sont toujours couverts de bâches. Au centre hospitalier de Mayotte, des travaux de toiture sont en cours, mais l’essentiel a en revanche été réalisé.

Pour ce qui concerne les particuliers, un prêt à taux zéro de reconstruction a été a été promis aux Mahorais, aux ménages sinistrés avec une enveloppe de 50 000 euros. Mais je ne connais personne autour de moi qui en ait bénéficié. Certains habitants ont déjà reconstruit, certains démarrent à peine leurs chantiers.

Je suis enseignant, et je constate que la situation des écoles est toujours très dégradée, avec beaucoup de salles de classe indisponibles ce qui conduit à charger les effectifs pour chaque classe. On estime que 40 % des établissements scolaires ont été détruits ou endommagés pendant le cyclone. Les classes fermées contraignent les élèves à un nombre d’heures de cours limités avec un système de rotation.

Les bidonvilles ont été ravagés par Chido. Que s’est-il passé dans ces quartiers depuis un an ? François Bayrou, le premier ministre de l’époque, s’était engagé à bloquer leur reconstruction. Est-ce le cas ?

F. I. T. : Dès le lendemain du passage de Chido, les familles de migrants vivant dans les bidonvilles ont reconstruit leurs maisons. Le préfet de Mayotte a interdit aux particuliers d’acheter des tôles s’ils ne pouvaient pas présenter de justificatif de domicile, afin d’empêcher la reconstruction de bidonvilles. Pourtant, il fut très facile de contourner cela avec le justificatif d’un voisin. Ceux qui avaient les moyens ont acheté des tôles et des chevrons. D’autres ont réutilisé les tôles déformées et ont débité des cocotiers tombés à terre pour les structures.

Imaginer reconstruire en dur dans ces quartiers est un leurre. Les personnes qui habitent dans les bidonvilles sont souvent en situation irrégulière, elles n’ont pas droit au logements sociaux qui sont de toute façon en nombre insuffisant. Quelle autre option est possible ? Selon les statistiques officielles, avant Chido, il existait environ neuf logements sociaux pour 1 000 habitants, ce qui est extrêmement faible. Or 40 % des logements sont en tôle à Mayotte et 77 % des habitants vivent sous le seuil de pauvreté national. Les bidonvilles, reconstruits à l’identique, sont toujours aussi fragiles et vulnérables face aux intempéries.

Après Chido, les migrants ont été pointés du doigt par une partie de la classe politique française. Le gouvernement Bayrou a légiféré pour durcir l’accès à la nationalité française et a promis plus de fermeté pour lutter contre l’immigration. Comment évolue la situation sur place ?

F. I. T. : Près de la moitié des personnes vivant à Mayotte sont des étrangers, dont de nombreux illégaux, installés dans les bidonvilles. Les opérations policières massives, comme Wambushu ou Place nette pour raser les bidonvilles et expulser massivement, n’ont pas été renouvelées en 2025. En revanche, les policiers aux frontières interviennent toujours en mer et au sein de l’île pour expulser les illégaux. Mais ces derniers reviennent : l’île est facilement accessible depuis les îles voisines en bateau et les frontières sont difficiles à contrôler.

Malgré les efforts de l’État, les arrivées illégales se poursuivent. Les migrants vivent toujours dans des logements précaires, avec un accès limité aux droits fondamentaux et des inégalités qui perdurent.

Les relations entre la France et les Comores jouent un rôle central dans cette problématique migratoire. Quel est l’état de ces relations ?

F. I. T. : En 2018, un accord a été conclu entre l’Union des Comores et la France. Il s’agissait pour la France d’aider les Comores sur le plan de l’agriculture, de l’éducation, de la santé – ceci à condition que le gouvernement comorien stoppe le départ des migrants depuis l’île d’Anjouan. Mais depuis, rien n’a changé. Le président de l’Union des Comores Azali Assoumani répète avec constante que la France doit abandonner Mayotte et l’île intégrer l’Union des Comores. Il affirme que Mayotte appartient aux Comores, sans doute pour satisfaire son électorat, alors que les habitants des Comores vivent dans une grande pauvreté.

Quel est l’état d’esprit des habitants de l’île que vous côtoyez ?

F. I. T. : Les Mahorais sont résilients. Après le cyclone, ils se sont entraidés, ils étaient solidaires. Ici, la vie suit son cours. Certains critiquent le gouvernement, mais, en général, les Mahorais sont confiants dans l’avenir. Ce qui est un sujet de tension, ce sont les phénomènes de violence qui impliquent parfois des migrants. Cela ne date pas de Chido. La question migratoire est montée en puissance depuis que l’île est un département français, en 2011.

The Conversation

Fahad Idaroussi Tsimanda ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.12.2025 à 09:02

Scolarité : Le privé fait-il mieux que le public ?

Léonard Moulin, Research fellow, Ined (Institut national d'études démographiques)
Les meilleurs résultats des écoles privées viennent-ils d’un « effet » propre au privé ou reflètent-ils avant tout la composition sociale plus favorisée de ses élèves ?
Texte intégral (2582 mots)

Lorsque l’on considère évaluations nationales et examens, les écoles privées affichent non seulement de meilleurs résultats que les écoles publiques, mais aussi de meilleurs taux de progression des élèves au fil de leur scolarité. Est-ce le simple reflet de leur composition sociale plus favorisée ? Ou faut-il y voir un « effet » propre à ces établissements ?


La question de l’école privée occupe aujourd’hui une place singulière dans le débat éducatif français. Elle revient d’ailleurs régulièrement au centre des discussions publiques, souvent au gré de polémiques autour des choix scolaires des ministres de l’éducation nationale eux-mêmes. La séquence s’est répétée récemment : Édouard Geffray, le nouveau ministre, a inscrit ses enfants dans le privé – comme ses prédécesseurs Amélie Oudéa-Castéra, en 2024, et Pap Ndiaye.

Si ces épisodes retiennent autant l’attention, c’est qu’ils cristallisent une tension devenue centrale : régulièrement crédité de meilleurs résultats scolaires que le secteur public, le secteur privé est largement financé par des fonds publics tout en étant autorisé à sélectionner ses élèves.

Ces différences de recrutement se traduisent par des écarts massifs dans la composition sociale des établissements entre public et privé. C’est ce que montrent les indices de position sociale (IPS) calculés par le ministère de l’éducation nationale en considérant les catégories socio-professionnelles des parents d’élèves.

Les graphiques ci-dessous traduisent ces disparités, académie par académie. Prenons l’exemple de Paris : l’IPS moyen des écoles publiques y est d’environ 118, contre 143 dans le privé sous contrat, soit un écart d’environ 25 points, l’un des plus élevés du pays. Autrement dit, les écoles privées parisiennes scolarisent un public en moyenne beaucoup plus favorisé socialement que les écoles publiques. Les distributions montrent également que le privé est concentré sur le haut de l’échelle sociale, tandis que le public accueille une population plus hétérogène, avec davantage d’élèves issus de milieux modestes.

Distribution de l’IPS des écoles publiques et privées par académie. Ministère de l’éducation nationale -- DEPP, IPS des écoles primaires, calculs de l’auteur. Note : Les graphiques présentent, pour chaque académie, la distribution de l’IPS des écoles primaires publiques et privées sous contrat. Les lignes verticales en pointillé indiquent les moyennes d’IPS par secteur., CC BY-NC-ND

Les meilleurs résultats des écoles privées aux évaluations nationales et aux examens viennent-ils réellement d’un « effet » propre au privé ou reflètent-ils avant tout la composition sociale plus favorisée de ses élèves ?

Des résultats scolaires plus élevés dans le privé

Les comparaisons internationales offrent un premier éclairage. Les évaluations PISA, menées auprès d’élèves de 15 ans, rappellent combien la France demeure l’un des pays où les résultats scolaires dépendent le plus du milieu social : près d’un cinquième des performances s’explique par l’origine sociale.

Dans ce contexte, les établissements privés – qui accueillent un public en moyenne plus favorisé – obtiennent logiquement de meilleurs scores bruts. Mais il s’agit d’une photographie instantanée, qui ne dit rien de la manière dont les élèves progressent dans le temps.

Lorsque l’on cesse de regarder uniquement les performances à un instant donné pour suivre les élèves au fil de leur scolarité, un autre constat apparaît. Du début à la fin du collège, les élèves scolarisés dans un établissement privé progressent plus que ceux du public, à milieu social comparable. Cette différence apparaît à la fois dans les évaluations de sixième et dans les notes finales du brevet : en moyenne, les trajectoires scolaires s’améliorent plus nettement dans le privé.

Lorsque l’on considère les épreuves terminales du brevet, dans les graphiques qui suivent, il apparaît que, dans chaque matière, les élèves scolarisés dans le privé sous contrat obtiennent en moyenne des notes plus élevées que ceux du public. Les distributions montrent également que les résultats des élèves du public sont plus dispersés, avec davantage d’élèves dans la partie basse de la distribution.

Écarts de performance au brevet entre collèges publics et privés. Panel d’élèves 2007 du ministère de l’éducation nationale (Panel 2007), calculs de l’auteur. Note : Les graphiques représentent les notes obtenues aux épreuves terminales du brevet (mathématiques, français, histoire-géographie) pour les élèves scolarisés en collège public ou privé sous contrat. Lecture : Les boîtes représentent l’intervalle interquartile (50 % des élèves) ; la ligne centrale indique la médiane. Les losanges noirs correspondent à la moyenne des notes obtenues aux épreuves terminales du brevet (mathématiques, français, histoire-géographie)., CC BY-NC-ND

En examinant ces parcours de manière plus fine, un élément supplémentaire émerge : ces écarts ne sont pas uniformes selon le niveau initial. Une étude récente montre que l’avantage observé en fin de troisième est plus marqué pour les élèves initialement les plus faibles, en particulier en mathématiques. Autrement dit, les différences entre public et privé tiennent à la fois aux acquis de départ, mais aussi à la manière dont les élèves progressent au cours du collège.

Des progrès plus marqués au fil de la scolarité dans le privé

Un travail conduit par le service statistique du ministère de l’éducation nationale aboutit à un résultat très proche. En suivant une cohorte d’élèves du CP au début du lycée, ses auteurs montrent que, à contexte familial et scolaire comparable, la progression en français et en mathématiques au collège – et surtout en mathématiques – est plus élevée dans le privé que dans le public.

Ces différences de progression ne peuvent pas s’expliquer par certains facteurs souvent avancés dans le débat public. Les chiffres sont sans ambiguïté : les classes du privé comptent en moyenne 27,2 élèves, contre 24,7 dans le public ; le nombre d’élèves par enseignant y est plus élevé (14,6 contre 12,8) ; et le privé n’emploie pas davantage d’enseignants agrégés (4,5 % contre 13,4 % dans le public). Rien, dans ces indicateurs d’encadrement, ne suggère donc des conditions plus favorables dans le privé.

Les explications doivent être cherchées ailleurs. Deux pistes se dégagent. D’abord, la composition sociale : les établissements privés accueillent un public plus favorisé, ce qui peut mécaniquement tirer les résultats vers le haut et permettre d’enseigner à des niveaux plus élevés.

Ensuite, le libre recrutement des enseignants, qui permet de constituer des équipes pédagogiques plus cohérentes et plus stables, potentiellement mieux alignées sur un projet éducatif commun – un cadre qui peut là aussi soutenir un niveau d’exigence plus élevé.

Une composition sociale qui n’explique pas tout

Une fois posés ces constats, une question centrale demeure : dans quelle mesure les écarts public/privé s’expliquent-ils simplement par la composition sociale beaucoup plus favorisée des établissements privés ? Lorsqu’on compare des élèves de même origine sociale, et que l’on tient compte non seulement de leurs caractéristiques individuelles, mais aussi de la composition sociale des établissements et des classes dans lesquels ils sont scolarisés, l’avantage du privé sur le public ne diminue que très légèrement.

En pratique, seulement 15 à 23 % de l’avantage initial s’efface. Autrement dit, la composition sociale explique bien une partie de la différence… mais certainement pas tout. D’autres facteurs sont donc en jeu.

L’étude révèle un point essentiel : la composition sociale n’agit pas de la même manière selon l’origine des élèves. Pour les élèves issus de milieux favorisés, l’avantage apparent du privé tient surtout au fait qu’ils sont scolarisés dans des collèges où la part d’élèves aisés est nettement plus élevée que dans le public. Une fois que l’on compare des élèves favorisés inscrits dans des établissements au profil social similaire dans les deux secteurs, l’écart de performances entre public et privé devient quasi nul. Rien n’indique, en revanche, que ces élèves tirent leurs meilleures performances de spécificités pédagogiques propres au privé.

À l’inverse, pour les élèves issus de milieux modestes, la situation est tout autre : l’avantage du privé demeure nettement perceptible, même après avoir neutralisé les effets du milieu social et de l’environnement scolaire. Ce sont finalement ces élèves, pourtant très minoritaires dans le privé, qui tirent le plus de bénéfices de la scolarisation dans le privé en termes de résultats scolaires.

Interroger l’équité du système scolaire

S’ajoute une interrogation liée au fonctionnement même des établissements : si la composition sociale n’explique qu’une part modeste des écarts observés, où chercher les leviers restants ? Une piste souvent avancée concerne le mode de recrutement des enseignants, plus flexible dans le privé : dans le public, les enseignants sont affectés par l’administration, tandis que dans le privé sous contrat ce sont les chefs d’établissement qui recrutent directement les enseignants, ce qui leur laisse davantage de marge pour composer leurs équipes pédagogiques autour du projet d’établissement.

Rien n’interdit d’examiner ce que certaines pratiques propres au privé – par exemple le recrutement plus libre des enseignants par le chef d’établissement – pourraient inspirer au secteur public, comme l’expérimentation récente menée dans le cadre du plan « Marseille en grand ». Ce type de dispositif reste encore peu documenté par la recherche et constitue un terrain privilégié pour de futurs travaux.

Finalement, peut-on considérer comme durable un système où l’argent public soutiendrait, de fait, une organisation qui contribue à renforcer la ségrégation scolaire ? La question mérite d’être posée, ne serait-ce qu’au regard des principes mêmes inscrits dans le Code de l’éducation, selon lesquels « le service public de l’éducation […] contribue à l’égalité des chances et à lutter contre les inégalités sociales et territoriales en matière de réussite scolaire et éducative ».

L’enjeu est désormais de documenter précisément les mécanismes à l’œuvre, afin d’identifier quels leviers d’organisation scolaire pourraient, à terme, être mobilisés au service d’une plus grande équité du système éducatif.

The Conversation

Léonard Moulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.12.2025 à 13:09

Le sort de Warner Bros suspendu au duel Netflix–Paramount

Julien Jourdan, Professeur, HEC Paris Business School
Deux candidats pour le rachat des studios de Warner Bros. Qui va l’emporter, de Netflix ou Paramount ? Rien n’est joué dans ce combat où se mêlent politique et économie…
Texte intégral (1517 mots)

Ce pourrait être un épisode d’une série américaine sur le monde des affaires. Qui, de Paramount ou de Netflix, mettra la main sur la Warner Bros ? Les deux projets n’ont pas les mêmes motivations. Surtout, l’un et l’autre devront faire avec le droit de la concurrence aux États-Unis, mais aussi en Europe, mondialisation oblige. Résumé des premiers épisodes, si vous avez manqué le début…


La nouvelle a frappé Hollywood de stupeur. Le 4 décembre dernier, Netflix annonçait l’acquisition des studios Warner Bros. (WB) pour 83 milliards de dollars, coiffant au poteau le favori Paramount. La situation s’est depuis compliquée : le patron de Paramount, David Ellison, a surenchéri avec une offre hostile à 108 milliards de dollars pour l’ensemble du groupe WB Discovery, incluant les studios ainsi qu’un bouquet – en déclin – de chaînes de télévision, dont la célèbre chaîne d’information CNN.

L’issue de cette bataille est incertaine à l’heure actuelle. Les deux opérations sont de nature différente. Un achat par Paramount impliquerait une triple fusion entre deux studios, deux plates-formes de streaming – Paramount+ (79 millions d’abonnés) et HBO+ (128 millions d’abonnés) – et deux bouquets de chaînes de télévision (dont CNN et CBS). Ce serait une fusion horizontale entre des acteurs en concurrence directe sur leurs marchés. L’impact social pourrait être très lourd : l’opération prévoit 6 milliards de dollars de synergies, en grande partie via la suppression de postes en doublon.


À lire aussi : Netflix, une machine à standardiser les histoires ?


Si Netflix mettait la main sur WB, ce serait principalement pour acquérir le vaste catalogue de WB et de HBO, les chaînes du câble étant exclues de l’offre du géant du streaming. Les synergies anticipées, de l’ordre de 3 milliards, concerneraient les dépenses technologiques pour les deux tiers et seraient constituées, pour le reste, d’économies sur les achats de droits de diffusion. Netflix pourrait ainsi librement diffuser Game of Thrones ou Harry Potter auprès de ses 302 millions d’abonnés dans le monde. Ce serait une fusion verticale combinant un producteur de contenus, WB, et un diffuseur, Netflix, qui éliminerait au passage un concurrent notable, HBO+.

Des précédents coûteux

Ce type d’opération pourrait rendre nerveux quiconque se rappelle l’histoire des fusions de Warner Bros. Déjà en 2001, le mariage de WB et d’AOL célébrait l’alliance du contenu et des « tuyaux » – pour utiliser les termes alors en vogue. L’affaire s’était terminée de piteuse manière par le spin-off d’AOL et l’une des plus grosses dépréciations d’actifs de l’histoire – de l’ordre de 100 milliards de dollars. Quinze ans plus tard, AT&T retentait l’aventure. L’union fut de courte durée. En 2021, le géant des télécoms se séparait de WB, qui se voyait désormais associé au groupe de télévision Discovery, sous la direction de David Zaslav, aujourd’hui à la manœuvre.

Pourquoi ce qui a échoué dans le passé marcherait-il aujourd’hui ? À dire vrai, la position stratégique de Netflix n’a rien à voir avec celle d’AOL et d’AT&T. Les fusions verticales précédentes n’ont jamais produit les synergies annoncées pour une simple raison : disposer de contenu en propre n’a jamais permis de vendre plus d’abonnements au téléphone ou à Internet. Dans les deux cas, le château de cartes, vendu par les dirigeants, et leurs banquiers, s’est rapidement effondré.

Un catalogue sans pareil

Une fusion de Netflix avec WB délivrerait en revanche des bénéfices très concrets : le géant du streaming ajouterait à son catalogue des produits premium – films WB et séries HBO – dont il est à ce jour largement dépourvu. L’opération permettrait de combiner l’une des bibliothèques de contenus les plus riches et les plus prestigieuses avec le média de diffusion mondiale le plus puissant qui ait jamais existé. L’ensemble pourrait en outre attirer les meilleurs talents, qui restent à ce jour largement inaccessibles à Netflix.

En pratique, certains contenus, comme la série Friends, pourraient être inclus dans l’offre de base pour la rendre plus attractive et recruter de nouveaux abonnés. D’autres films et séries pourraient être accessibles via une ou plusieurs options payantes, sur le modèle de ce que fait déjà Amazon Prime, augmentant ainsi le panier moyen de l’abonné.

Le rapprochement de deux stars du divertissement ferait à coup sûr pâlir l’offre de leurs concurrents, dont Disney mais aussi… Paramount. Et c’est là que le bât blesse. Les autorités de la concurrence, aux États-Unis et en Europe, approuveront-elles la formation d’un tel champion mondial ? Si la fusion est confirmée, les procédures en recours ne tarderont pas à arriver.

CNN dans le viseur

C’est l’argument avancé par David Ellison, le patron de Paramount, qui agite le chiffon rouge de l’antitrust pour convaincre les actionnaires de WBD : que restera-t-il du studio si la fusion avec Netflix est rejetée après deux ans de procédures ? Ted Sarandos, le co-PDG de Netflix, pourrait lui retourner la pareille, car une fusion horizontale avec Paramount ne manquerait pas d’éveiller, elle aussi, des inquiétudes – d’autant plus qu’elle serait largement financée par des capitaux étrangers venant du Golfe.

France 24 2025.

Le fils de Larry Ellison, deuxième fortune mondiale, réputé proche du président américain, s’est assuré le soutien financier du gendre de ce dernier, Jared Kushner. Si Donald Trump se soucie probablement assez peu du marché du streaming, il pourrait être sensible au sort réservé à la chaîne CNN, une de ses bêtes noires. En cas de victoire de Paramount, CNN pourrait être combinée avec CBS et sa ligne éditoriale revue pour apaiser le locataire de la Maison-Blanche. Du côté du vendeur, David Zaslav laisse les enchères monter. Il pourrait empocher une fortune – on parle de plus de 425 millions de dollars.

À cette heure, le sort de WB est entre les mains de cette poignée d’hommes. Des milliers d’emplois à Los Angeles, et ailleurs, sont en jeu. Une fusion WB/Netflix pourrait par ailleurs accélérer la chute de l’exploitation des films en salles, dans un contexte d’extrême fragilité : le nombre de tickets vendus dans les cinémas en Amérique du Nord a chuté de 40 % depuis 2019. Netflix pourrait choisir de diffuser directement sur sa plateforme certains films de WB, qui représente environ un quart du marché domestique du cinéma. Pour les films qui conserveraient une sortie en salle, la fenêtre d’exclusivité réservée aux exploitants pourrait se réduire à quelques semaines, fragilisant un peu plus leur économie. Hollywood retient son souffle.

The Conversation

Julien Jourdan ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.12.2025 à 13:08

Le smic protège-t-il encore de la pauvreté ?

Hugo Spring-Ragain, Doctorant en économie / économie mathématique, Centre d'études diplomatiques et stratégiques (CEDS)
Le salaire minimum remplit-il un rôle de filet de protection contre la pauvreté ? Tout dépend des situations. Le revenu disponible est un meilleur indicateur des situations réelles.
Texte intégral (1885 mots)

Vendredi 12 décembre 2025, le Groupe d’experts sur le smic publie un rapport sur l’impact du salaire minimum sur l’économie française. Son impact sur la pauvreté n’est cependant pas univoque. Le smic ne suffit pas à expliquer les trajectoires personnelles de plus en plus diverses. Le revenu disponible qui prend en compte les aides perçues et les dépenses contraintes est un critère plus juste.


La question revient cette année encore avec le rapport du Groupe d’experts du smic publié ce vendredi 12 décembre : le salaire minimum protège-t-il encore réellement de la pauvreté ? Pourtant, comme l’ont rappelé l’Insee et l’Institut des politiques publiques (IPP) dans plusieurs travaux plus ou moins récents, le salaire brut, seul, ne détermine pas la pauvreté. Ce qui importe, c’est le niveau de vie, c’est-à-dire le revenu disponible après transferts sociaux de toutes sortes (qui s’ajoutent), impôts et charges contraintes (qui se soustraient). Dans un contexte de renchérissement du logement (13 % d’augmentation de l’indice de référence des loyers, IRL) et d’hétérogénéité croissante des situations familiales, la question ne doit plus être posée en termes uniquement macroéconomiques.

La littérature académique reprend ce constat. Antony B. Atkinson souligne que la pauvreté ne renvoie pas simplement à un « manque de salaire », mais à un insuffisant accès aux ressources globales ; Patrick Moyes rappelle que la structure familiale modifie profondément le niveau de vie relatif. Quant à France Stratégie et l’Insee, après sa publication faisant l’état des lieux de la pauvreté en France, ils documentent la montée de ce qu’on appelle la pauvreté laborieuse, c’est-à-dire le fait de travailler sans pour autant dépasser les seuils de pauvreté et sans possibilité de profiter de l’ascenseur social.


À lire aussi : La pauvreté de masse : symptôme d’une crise de la cohésion sociale


Un amortisseur d’inflation ?

Notre premier graphique compare l’évolution du smic, des salaires et des prix depuis 2013. On y observe très nettement que le salaire minimum a servi d’amortisseur pendant la séquence inflationniste récente : ses revalorisations automatiques l’ont fait progresser aussi vite, souvent plus vite, que l’indice des prix à la consommation.

Figure 1 – Évolution du smic, du salaire mensuel de base (SMB), du salaire horaire de base des ouvriers et des employés (SHBOE) et de l’indice des prix à la consommation (IPC) hors Tabac – Sources : Dares, Insee, Rapport GES 2025 – Graphique de l’auteur.

Ce mouvement contraste avec celui des salaires moyens, dont la progression a été plus lente. Comme le soulignent plusieurs analyses de France Stratégie et de l’Organisation de coopération et de développement économiques (OCDE), cela a eu pour effet de resserrer la hiérarchie salariale, une situation déjà documentée lors de précédentes périodes de rattrapage du smic.

L’influence du temps de travail

Mais ce constat ne dit rien d’une dimension pourtant déterminante : l’accès au temps plein car une partie des salariés au smic n’y est pas à temps complet. Comme l’ont montré plusieurs travaux de l’Insee et de la direction de l’animation de la recherche, des études et des statistiques (Dares, ministère du travail), une proportion importante de travailleurs rémunérés au salaire minimum occupe des emplois à temps partiel, et souvent non par choix mais parce qu’aucun temps plein n’est disponible. C’est ce que les économistes appellent le temps partiel contraint.

Ce temps partiel modifie radicalement l’interprétation du smic : on parle d’un salaire minimum horaire, mais, concrètement, les ressources mensuelles ne reflètent pas ce taux. Un salaire minimum versé sur 80 % d’un temps plein ou sur des horaires discontinus conduit mécaniquement à un revenu inférieur et donc à une exposition accrue à la pauvreté.

Mais si l’on s’en tenait à cette comparaison, on pourrait conclure que le smic protège pleinement les salariés les plus modestes. Or, c’est précisément ici que la question se complexifie. Car la pauvreté ne dépend pas du seul salaire : elle dépend du revenu disponible et donc de l’ensemble des ressources du ménage. C’est ce que montrent les travaux sur la pauvreté laborieuse, un phénomène en hausse en France selon l’Observatoire des inégalités, environ une personne en situation de pauvreté sur trois occupe un emploi mais les charges familiales, le coût du logement ou l’absence de second revenu maintiennent le ménage sous les seuils de pauvreté.

Du smic au revenu disponible

Pour comprendre la capacité réelle du smic à protéger de la pauvreté, il faut observer ce qu’il devient une fois transformé en revenu disponible grâce aux données de l’Insee et de la Dares, c’est-à-dire le revenu après impôts, aides et charges incompressibles.

Le graphique suivant juxtapose trois situations familiales : une personne seule, un parent isolé avec un enfant et un couple avec un enfant dont les deux adultes perçoivent le smic.

Figure 2 – Revenu disponible et seuils de pauvreté selon trois profils de ménages rémunérés au smic Sources : Dares, Insee, Rapport GES 2025 – Graphique de l’auteur.

Dans le premier panneau, on observe qu’une personne seule rémunérée au smic dispose d’un revenu disponible supérieur au seuil de pauvreté à 60 % du revenu médian. La prime d’activité joue un rôle important, mais c’est surtout l’absence de charge familiale et de coûts fixes élevés qui explique ce résultat.

Ce profil correspond à la représentation classique du smic comme filet de sécurité individuel. Comme le confirment les données de l’Insee et les travaux de France Stratégie, la pauvreté laborieuse y est encore relativement limitée. Cependant, même seul, un actif au smic pourrait avoir des dépenses contraintes extrêmement élevées dans des zones à forte demande locative.

La pauvreté laborieuse

Le deuxième panneau raconte une histoire totalement différente. Le parent isolé, même à temps plein au smic se situe clairement en dessous du seuil de pauvreté, plus grave encore, son revenu disponible ne compense plus le salaire net via les transferts. C’est ici que la notion de pauvreté laborieuse prend tout son sens. Malgré un emploi et malgré les compléments de revenu, le ménage reste dans une situation de fragilité structurelle.

Selon l’Insee, les familles monoparentales sont aujourd’hui le groupe le plus exposé à la pauvreté et notamment à la privation matérielle et sociale, non parce qu’elles travaillent moins, mais parce qu’elles cumulent un revenu unique, des charges plus élevées et une moindre capacité d’ajustement.

Dans le troisième panneau, un couple avec un enfant et deux smic vit lui aussi en dessous de la ligne de pauvreté. Ce résultat laisse penser que la composition familiale, même accompagnée de deux smic crée une pauvreté structurelle sur les bas revenus ; aussi le graphique montre-t-il que la marge est finalement assez limitée. Une partie du gain salarial disparaît en raison de la baisse des aides et de l’entrée dans l’impôt, un phénomène bien documenté par l’IPP et par le rapport Bozio-Wasmer dans leurs travaux sur les « taux marginaux implicites ». Dans les zones de loyers élevés, un choc de dépense ou une hausse de charges peut faire basculer ces ménages vers une situation beaucoup plus précaire.

ICI France 3 Hauts-de-France, 2024.

Situations contrastées

Une conclusion s’impose : le smic protège encore une partie des salariés contre la pauvreté, mais ce résultat est loin d’être uniforme. Il protège l’individu à plein temps et sans enfant, mais ne suffit plus à assurer un niveau de vie décent lorsque le salaire doit couvrir seul les charges d’un foyer, notamment dans les configurations monoparentales. Cette asymétrie est au cœur de la montée de la pauvreté laborieuse observée par l’Insee et documentée par l’Institut des politiques publiques.

Ces résultats rappellent que la pauvreté n’est plus seulement un phénomène d’exclusion du marché du travail. Elle touche des travailleurs insérés, qualifiés et en contrat stable, mais dont le salaire minimum, appliqué sur un volume horaire insuffisant ou absorbé par des dépenses contraintes, ne permet plus un niveau de vie supérieur aux seuils de pauvreté. Le smic se révèle alors davantage un plancher salarial individuel qu’un instrument de garantie sociale familiale.

À l’heure où la question du pouvoir d’achat occupe une place centrale et où la revalorisation du smic reste l’un des outils majeurs d’ajustement, ces conclusions invitent à réorienter le débat. Ce n’est pas seulement le niveau du smic qu’il faut interroger, mais sa capacité à constituer un revenu de référence pour des configurations familiales et territoriales très hétérogènes. Autrement dit, le smic joue encore sa fonction de stabilisateur individuel, mais il n’est plus suffisant seul pour protéger durablement certains ménages.

La question devient alors moins « De combien augmenter le smic ? » que « Comment garantir que le revenu disponible issu d’un emploi au smic permette effectivement d’éviter la pauvreté ? ».

The Conversation

Hugo Spring-Ragain ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

11.12.2025 à 16:16

L’internationale trumpiste : la Stratégie de sécurité nationale 2025 comme manifeste idéologique

Jérôme Viala-Gaudefroy, Spécialiste de la politique américaine, Sciences Po
Le document relève moins d’un condensé des principales orientations diplomatiques du pays que d’un programme politique à visée mondiale.
Texte intégral (2441 mots)

L’administration Trump vient de rendre publique sa Stratégie de sécurité nationale. Charge virulente contre l’Europe, affirmation de l’exceptionnalisme des États-Unis, présentation du président actuel en héros affrontant au nom de son pays des périls mortels pour la civilisation occidentale : bien plus qu’un simple ensemble de grandes lignes, il s’agit d’une véritable proclamation idéologique.


La Stratégie de sécurité nationale (National Security Strategy, NSS) est normalement un document technocratique, non contraignant juridiquement, que chaque président des États-Unis doit, durant son mandat, adresser au Congrès pour guider la politique étrangère du pays.

La version publiée par l’administration Trump en 2025 (ici en français) ressemble pourtant moins à un texte d’État qu’à un manifeste idéologique MAGA (Make America Great Again) qui s’adresse tout autant à sa base qu’au reste du monde, à commencer par les alliés européens de Washington, accusés de trahir la « vraie » démocratie. Pour la première fois, et contrairement à la NSS du premier mandat Trump publiée en 2017, la sécurité nationale y est définie presque exclusivement à partir des obsessions trumpistes : immigration, guerre culturelle, nationalisme.

Les trois principales articulations du texte

La NSS 2025 rompt complètement avec la tradition libérale de la démocratie constitutionnelle (respect des droits fondamentaux, primauté de l’État de droit, pluralisme) et avec sa traduction internationale — la promotion de la démocratie dans le cadre d’un ordre multilatéral fondé sur des règles. Elle réécrit l’histoire depuis la fin de la guerre froide, construit un ennemi composite (immigration, élites « globalistes », Europe) et détourne le vocabulaire de la liberté et de la démocratie au service d’un exceptionnalisme ethno-populiste.

Ce document présente une grande narration en trois actes.

Acte I : La trahison des élites.

C’est le récit de l’échec des politiques menées par les États-Unis depuis 1991, imputées à l’hubris d’élites qui auraient voulu l’hégémonie globale. Elles auraient mené des « guerres sans fin », mis en place un « prétendu libre-échange » et soumis le pays à des institutions supranationales, au prix de l’industrie américaine, de la classe moyenne, de la souveraineté nationale et de la cohésion culturelle. Ce premier acte souligne enfin l’incapacité à renouveler un récit national crédible après la fin de la guerre froide : c’est sur ce vide narratif que Trump construit son propre récit.

Acte II : Le déclin.

Le déclin des États-Unis tel que vu par l’administration Trump est à la fois économique, moral, géopolitique et démographique. Il se manifeste par la désindustrialisation, les guerres ratées, ou encore par la crise des frontières avec le Mexique. Il fait écho au « carnage américain » que l’actuel président avait dénoncé lors de son premier discours d’investiture, en 2017. L’ennemi est ici décrit comme à la fois intérieur et extérieur : l’immigration, présentée comme une « invasion » liée aux cartels, mais aussi les institutions internationales et les élites de politique étrangère, américaines comme européennes. Tous sont intégrés dans un même schéma conflictuel, celui d’une guerre globale que l’administration Trump serait prête à mener contre ceux qui menaceraient souveraineté, culture et prospérité américaines.

Acte III : Le sauveur.

La NSS présente le locataire de la Maison Blanche comme un leader providentiel, comme le « président de la Paix » qui corrige la trahison des élites. Trump y apparaît comme un « redresseur », héros (ou anti-héros) qui aurait, en moins d’un an, « réglé huit conflits violents ». Il incarnerait une nation retrouvée, prête à connaître un « nouvel âge d’or ». On retrouve ici un schéma narratif typiquement américain, issu de la tradition religieuse de la jérémiade : un prêche qui commence par dénoncer les fautes et la décadence, puis propose un retour aux sources pour « sauver » la communauté. L’historien Sacvan Bercovitch a montré que ce type de récit est au cœur du mythe national américain. Un texte qui devrait être techno-bureaucratique se transforme ainsi en récit de chute et de rédemption.

L’exceptionnalisme américain à la sauce Trump

À y regarder de près, la NSS 2025 foisonne de tropes propres aux grands mythes américains. Il s’agit de « mythifier » la rupture avec des décennies de politique étrangère en présentant la politique conduite par l’administration Trump comme un retour aux origines.

Le texte invoque Dieu et les « droits naturels » comme fondement de la souveraineté, de la liberté, de la famille traditionnelle, voire de la fermeture des frontières. Il convoque la Déclaration d’indépendance et les « pères fondateurs des États-Unis » pour justifier un non-interventionnisme sélectif. Il se réclame aussi de « l’esprit pionnier de l’Amérique » pour expliquer la « domination économique constante » et la « supériorité militaire » de Washington.

Si le mot exceptionalism n’apparaît pas (pas plus que la formule « indispensable nation »), la NSS 2025 est saturée de formulations reprenant l’idée d’une nation unique dans le monde : hyper-superlatifs sur la puissance économique et militaire, rôle central de l’Amérique comme pilier de l’ordre monétaire, technologique et stratégique. Il s’agit d’abord d’un exceptionnalisme de puissance : le texte détaille longuement la domination économique, énergétique, militaire et financière des États-Unis, puis en déduit leur supériorité morale. Si l’Amérique est « la plus grande nation de l’histoire » et « le berceau de la liberté », c’est d’abord parce qu’elle est la plus forte. La vertu n’est plus une exigence qui pourrait limiter l’usage de la puissance ; elle est au contraire validée par cette puissance.

Dans ce schéma, les élites — y compris européennes — qui affaiblissent la capacité américaine en matière d’énergie, d’industrie ou de frontières ne commettent pas seulement une erreur stratégique, mais une faute morale. Ce n’est plus l’exceptionnalisme libéral classique de la diffusion de la démocratie, mais une forme d’exceptionnalisme moral souverainiste : l’Amérique se pense comme principale gardienne de la « vraie » liberté, contre ses adversaires mais aussi contre certains de ses alliés.

Là où les stratégies précédentes mettaient en avant la défense d’un « ordre international libéral », la NSS 2025 décrit surtout un pays victime, exploité par ses alliés, corseté par des institutions hostiles : l’exceptionnalisme devient le récit d’une surpuissance assiégée plutôt que d’une démocratie exemplaire. Derrière cette exaltation de la « grandeur » américaine, la NSS 2025 ressemble davantage à un plan d’affaires, conçu pour servir les intérêts des grandes industries — et, au passage, ceux de Trump lui-même. Ici, ce n’est pas le profit qui se conforme à la morale, c’est la morale qui se met au service du profit.

Une vision très particulière de la doctrine Monroe

De même, le texte propose une version mythifiée de la doctrine Monroe (1823) en se présentant comme un « retour » à la vocation historique des États-Unis : protéger l’hémisphère occidental des ingérences extérieures. Mais ce recours au passé sert à construire une nouvelle doctrine, celui d’un « corollaire Trump » — en écho au « corollaire Roosevelt » : l’Amérique n’y défend plus seulement l’indépendance politique de ses voisins, elle transforme la région en chasse gardée géo-économique et migratoire, prolongement direct de sa frontière sud et vitrine de sa puissance industrielle.


À lire aussi : États-Unis/Venezuela : la guerre ou le deal ?


Sous couvert de renouer avec Monroe, le texte légitime une version trumpiste du leadership régional, où le contrôle des flux (capitaux, infrastructures, populations) devient le cœur de la mission américaine. Là encore, le projet quasi impérialiste de Trump est présenté comme l’extension logique d’une tradition américaine, plutôt que comme une rupture.

La NSS 2025 assume au contraire une ingérence politique explicite en Europe, promettant de s’opposer aux « restrictions antidémocratiques » imposées par les élites européennes (qu’il s’agisse, selon Washington, de régulations visant les plates-formes américaines de réseaux sociaux, de limitations de la liberté d’expression ou de contraintes pesant sur les partis souverainistes) et de peser sur leurs choix énergétiques, migratoires ou sécuritaires. Autrement dit, Washington invoque Monroe pour sanctuariser son hémisphère, tout en s’arrogeant le droit d’intervenir dans la vie politique et normative européenne — ce qui revient à revendiquer pour soi ce que la doctrine refuse aux autres.

Dans la NSS 2025, l’Europe est omniprésente — citée une cinquantaine de fois, soit deux fois plus que la Chine et cinq fois plus que la Russie —, décrite comme le théâtre central d’une crise à la fois politique, démographique et civilisationnelle. Le texte oppose systématiquement les « élites » européennes à leurs peuples, accusant les premières d’imposer, par la régulation, l’intégration européenne et l’ouverture migratoire, une forme d’« effacement civilisationnel » qui reprend, sans le dire, la logique du « grand remplacement » de Renaud Camus, théorie complotiste d’extrême droite largement documentée.


À lire aussi : L’Europe vue par J. D. Vance : un continent à la dérive que seul un virage vers l’extrême droite pourrait sauver


L’administration Trump s’y arroge un droit d’ingérence idéologique inédit : elle promet de défendre les « vraies » libertés des citoyens européens contre Bruxelles, les cours et les gouvernements, tout en soutenant implicitement les partis d’extrême droite ethno-nationalistes qui se posent en porte-voix de peuples trahis. L’Union européenne est dépeinte comme une machine normative étouffante, dont les règles climatiques, économiques ou sociétales affaibliraient la souveraineté des nations et leur vitalité démographique. Ce faisant, le sens même des mots « démocratie » et « liberté » est inversé : ce ne sont plus les institutions libérales et les traités qui garantissent ces valeurs, mais leur contestation au nom d’un peuple soi-disant homogène et menacé, que Washington prétend désormais protéger jusque sur le sol européen.

La Russie, quant à elle, apparaît moins comme ennemi existentiel que comme puissance perturbatrice dont la guerre en Ukraine accélère surtout le déclin européen. La NSS 2025 insiste sur la nécessité d’une cessation rapide des hostilités et de la mise en place d’un nouvel équilibre stratégique, afin de favoriser les affaires. La Chine est le seul véritable rival systémique, surtout économique et technologique. La rivalité militaire (Taïwan, mer de Chine) est bien présente, mais toujours pensée à partir de l’enjeu clé : empêcher Pékin de transformer sa puissance industrielle en hégémonie régionale et globale.

Le Moyen-Orient n’est plus central : grâce à l’indépendance énergétique, Washington cherche à transférer la charge de la sécurité à ses alliés régionaux, en se réservant un rôle de faiseur de deals face à un Iran affaibli. L’Afrique, enfin, est envisagée comme un terrain de reconquête géo-économique face à la Chine, où l’on privilégie les partenariats commerciaux et énergétiques avec quelques États jugés « fiables », plutôt qu’une politique d’aide ou d’interventions lourdes.

Un texte qui ne fait pas consensus

Malgré la cohérence apparente et le ton très péremptoire de cette doctrine, le camp MAGA reste traversé de fortes divisions sur la politique étrangère, entre isolationnistes « America First » hostiles à toute projection de puissance coûteuse et faucons qui veulent continuer à utiliser la supériorité militaire américaine pour imposer des rapports de force favorables.

Surtout, les sondages (ici, ici, ou ici) montrent que, si une partie de l’électorat républicain adhère à la rhétorique de fermeté (frontières, Chine, rejet des élites), l’opinion américaine dans son ensemble demeure majoritairement attachée à la démocratie libérale, aux contre-pouvoirs et aux alliances traditionnelles. Les Américains souhaitent moins de guerres sans fin, mais ils ne plébiscitent ni un repli illibéral ni une remise en cause frontale des institutions qui structurent l’ordre international depuis 1945.

The Conversation

Jérôme Viala-Gaudefroy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

11.12.2025 à 15:57

Le cash recule, mais reste solidement ancré dans les portefeuilles des Français

Timothée Waxin, Responsable du département Finance, Data & Performance, Pôle Léonard de Vinci
Le recul historique de l’argent liquide marque un tournant dans les habitudes de paiement de la population française. Mais les espèces continuent de jouer un rôle essentiel.
Texte intégral (1533 mots)

Le cash recule mais ne disparaît pas. Face à l’essor fulgurant des paiements numériques et aux ambitions européennes d’un euro digital, les espèces résistent, portées par la recherche de confidentialité, de contrôle et de résilience. À l’heure du tout dématérialisé, les Français n’ont pas encore remisé pièces et billets.


Le cash, c’est-à-dire l’argent liquide, tangible et immédiatement disponible, est très ancien, bien antérieur au mot lui-même. Les premières pièces de monnaie remontent à 600 avant notre ère environ en Lydie (actuelle Turquie). Les billets de banque remplacent progressivement les pièces à partir du XVIIe siècle.

Plus de 2 600 ans après son apparition, la monnaie fiduciaire (pièces et billets), par opposition à la monnaie scripturale (virements, cartes, paiements mobiles…), est-elle condamnée à disparaître ?

Un moindre usage des espèces au profit des paiements dématérialisés

L’usage des espèces recule progressivement en France au profit de la carte bancaire et des paiements mobiles. La quatrième enquête de la Banque centrale européenne (BCE) sur les habitudes de paiement des consommateurs en zone euro, publiée en décembre 2024, montre en effet que les paiements par carte représentent désormais 48 % des transactions, contre 43 % pour les paiements en espèces.

Pour la première fois, la carte dépasse donc le cash dans l’Hexagone – une situation qui contraste avec celle de l’ensemble de la zone euro, où les espèces demeurent le moyen de paiement le plus utilisé aux points de vente.

Répartition des moyens de paiement aux points de vente, en France et en zone euro (en % du nombre de transactions)

Cette évolution s’inscrit dans une tendance de long terme, nourrie par un environnement propice à l’innovation et à la numérisation des services financiers.

L’écosystème français des paiements, porté par un tissu dynamique de fintech, propose une offre diversifiée de solutions scripturales qui séduit un nombre croissant de consommateurs. L’essor du paiement sans contact accompagne ce mouvement. Apparue en 2012 avec un plafond initial de 20 euros, relevé successivement à 30 puis 50 euros, cette fonctionnalité concerne aujourd’hui près de sept paiements sur dix réalisés au point de vente. Le développement de la technologie dite « PIN online », permettant de dépasser ce seuil après saisie d’un code sur le terminal de paiement, devrait encore accélérer cette adoption. Parallèlement, la croissance du commerce en ligne a profondément transformé les usages.

Un quart des paiements en France s’effectue désormais sur Internet, une évolution largement stimulée par la crise sanitaire, qui a ancré durablement les réflexes numériques des consommateurs. Les paiements mobiles et les virements instantanés connaissent eux aussi une progression rapide, soutenue par l’émergence de solutions innovantes comme Wero, service européen de paiement instantané proposé par les banques de cinq pays européens.

Cette transition vers le numérique soulève des enjeux majeurs

Cette dynamique devrait se poursuivre à mesure que l’écosystème des paiements continue d’évoluer. De nouveaux acteurs – prestataires techniques, grandes entreprises technologiques, fintech spécialisées – renforcent leur présence dans la chaîne de valeur des paiements.

Dans ce contexte d’initiatives privées et de dématérialisation accrue, les banques centrales cherchent à préserver leur rôle dans les paiements. L’Eurosystème prépare ainsi l’émission d’un euro numérique, destiné à compléter les espèces et les moyens de paiement existants. Son déploiement pourrait intervenir à l’horizon 2027 ou 2028, malgré des interrogations persistantes sur sa complexité d’usage et sa valeur ajoutée perçue par le grand public.

De leur côté, les paiements en stablecoins progressent également, portés par des cas d’usage concrets dans le commerce numérique, les transferts de fonds et les paiements internationaux : ils s’intègrent de plus en plus à l’économie réelle et ne relèvent plus uniquement de la spéculation.

Toutefois, cette transition vers le numérique soulève des enjeux majeurs de souveraineté. Comme le souligne François Villeroy de Galhau, gouverneur de la Banque de France, dans sa Lettre au président de la République, d’avril 2025, 72 % des paiements par carte en zone euro au second semestre 2023 reposaient sur des réseaux internationaux. Christine Lagarde, présidente de la BCE, alerte également sur la dépendance de l’Europe à des infrastructures non européennes – Visa, Mastercard, PayPal, Alipay – issues pour la plupart des États-Unis ou de Chine.

Les infrastructures de cartes nationales, comme Carte bleue (CB) en France, s’érodent en Europe : seuls neuf demeurent actives dans l’Union européenne, tandis que treize pays de la zone euro dépendent entièrement d’acteurs internationaux. Cette dépendance accroît la vulnérabilité de l’Europe face à d’éventuelles restrictions d’accès aux systèmes de paiement. Dans un récent rapport de la Fondation Concorde, nous préconisons le développement de solutions européennes et le co-badging sur les cartes pour renforcer l’autonomie financière du continent.

Le numérique séduit, le cash rassure

Malgré cette dématérialisation rapide des paiements, les Français restent profondément attachés aux espèces. L’enquête de la BCE souligne en effet que 60 % d’entre eux jugent important de conserver la possibilité de payer en liquide. L’anonymat et la protection de la vie privée (d’ailleurs, crainte souvent émise à l’égard du projet d’euro numérique de la BCE), le règlement immédiat et la maîtrise des dépenses figurent parmi les avantages les plus fréquemment cités.

L’accès au cash demeure par ailleurs très satisfaisant : 94 % des commerçants acceptent encore les espèces, et la quasi-totalité de la population (99,9 %) vit à moins de quinze minutes de trajet par la route d’un site équipé d’au moins un distributeur automatique de billets (DAB) ou d’un point d’accès privatif chez un commerçant. Bien que le nombre de DAB ait reculé (42 578 DAB fin 2024, contre 52 697 en 2018), 91 % des Français estiment que l’accès au liquide reste « facile » ou « très facile » – l’un des meilleurs scores de la zone euro.

Assez paradoxalement, la Banque centrale européenne elle-même invite dans une note « Gardez votre calme et conservez de l’argent liquide : leçons sur le rôle unique de la monnaie physique à travers quatre crises », parue en septembre dernier, à ne pas tourner totalement le dos au cash. En cas de crise majeure – panne électrique, cyberattaque ou pandémie –, elle recommande de garder entre 70 et 100 euros en liquide par personne pour les dépenses essentielles. Un conseil révélateur : si le cash décline dans nos portefeuilles, il reste une valeur refuge, un symbole de sécurité et d’autonomie. Autrement dit, la France avance vers les paiements du futur… sans tout à fait lâcher ses pièces et ses billets.

Entre la carte et les espèces, les Français se montrent ainsi ambivalents. Ils adoptent avec enthousiasme les technologies sans contact, les paiements mobiles et les virements instantanés, tout en conservant dans leurs portefeuilles un peu de cash « au cas où ». Le futur du paiement s’écrira sans doute à deux vitesses : numérique par choix, mais liquide par prudence.

The Conversation

Timothée Waxin est administrateur et vice-président du conseil scientifique de la Fondation Concorde.

11.12.2025 à 15:57

Comment Paris est passé de capitale de la vie brève à championne de la longévité

Florian Bonnet, Démographe et économiste, spécialiste des inégalités territoriales, Ined (Institut national d'études démographiques)
Catalina Torres, Maîtresse de conférence, Universidad de la República, Montevideo, Uruguay - chercheure associée, unité « Mortalité, santé, épidémiologie », Ined (Institut national d'études démographiques)
France Meslé, Démographe, Ined (Institut national d'études démographiques)
En cent cinquante ans, l’espérance de vie à Paris a fortement progressé, passant de 40 ans environ à plus de 80 ans. Une base de données inédite permet de comprendre les raisons de cet immense progrès.
Texte intégral (4251 mots)
Paris est aujourd’hui l’une des villes où l’on vit le plus longtemps, mais cela n’a pas toujours été le cas. Alexander Kagan/Unsplash, FAL

Longtemps marquée par une mortalité élevée, la population de Paris accusait à la fin du XIXᵉ siècle un lourd retard d’espérance de vie par rapport à celles des autres régions de France. Un siècle plus tard, la ville est devenue l’un des territoires où l’on vit le plus longtemps au monde. Comment expliquer ce renversement spectaculaire ? Une plongée dans les archives de la capitale permet de retracer les causes de cette transformation, entre recul des maladies infectieuses, progrès de l’hygiène publique et forte baisse des inégalités sociales face à la mort.


Combien de temps peut-on espérer vivre ? Derrière cette question d’apparence simple se cache un des indicateurs les plus brûlants pour appréhender le développement socio-économique d’un pays. Car l’espérance de vie à la naissance ne mesure pas seulement la durée moyenne de la vie ; elle résume à elle seule l’état sanitaire, les conditions de vie ainsi que les inégalités sociales au sein d’une population.

En 2024, la France figurait parmi les pays les plus longévifs au monde (autrement dit, l’un des pays où l’on vit le plus longtemps). L’espérance de vie y était de 80 ans pour les hommes et de 85 ans et 7 mois pour les femmes, selon l’Insee. Derrière ces moyennes nationales se cachent toutefois des disparités territoriales notables.

À Paris, par exemple, l’espérance de vie atteignait 82 ans pour les hommes et 86 ans et 8 mois pour les femmes – soit un avantage de 1 à 2 ans par rapport à la moyenne nationale selon le sexe. Mais cela n’a pas toujours été le cas. Retour sur cent cinquante ans d’évolutions.

Une espérance de vie longtemps inférieure à la moyenne française

Paris n’a pas toujours été un havre de longévité. Il y a cent cinquante ans, la vie moyenne des habitants de la capitale était nettement plus courte. Un petit Parisien ayant soufflé sa première bougie en 1872 pouvait espérer vivre encore 43 ans et 6 mois. Une petite Parisienne, 44 ans et dix mois.

C’est ce que révèle la figure ci-dessous, qui retrace l’évolution de l’espérance de vie à un an entre 1872 et 2019 pour la France entière (en noir) et pour la capitale (en rouge). Cet indicateur, qui exclut la mortalité infantile (très élevée et mal mesurée à Paris à l’époque), permet de mieux suivre les changements structurels de la longévité en France sur le long terme.

Graphique représentant l’espérance de vie à 1 an en France et à Paris, 1872-2019.
Espérance de vie à 1 an en France et à Paris, 1872-2019. Les lignes verticales rouges matérialisent la période durant laquelle s’est produite la convergence avec l’espérance de vie dans les autres régions du pays. DR, Fourni par l'auteur

On constate que, dans la capitale, l’espérance de vie est longtemps restée inférieure à celle du reste du pays. Ce n’est qu’au début des années 1990 (pour les femmes) et des années 2000 (pour les hommes) qu’elle a dépassé celle de l’ensemble des Français.

À la fin du XIXe siècle, l’écart en défaveur des habitants de la capitale atteignait dix ans pour les hommes et huit ans pour les femmes. Cette situation, commune de par le monde, est connue dans la littérature sous le nom de pénalité urbaine. On l’explique entre autres par une densité de population élevée favorisant la propagation des maladies infectieuses et un accès difficile à une eau potable de qualité.

Dans une étude récemment publiée dans la revue Population and Development Review, nous avons cherché à mieux comprendre comment Paris est passé de la capitale de la vie brève à l’un des territoires dans le monde où les habitants peuvent espérer vivre le plus longtemps.

Une base de données inédite pour remonter le fil de la longévité parisienne

Pour cela, nous avons collecté un ensemble inédit de données sur les causes de décès entre 1890 et 1949 à Paris, seule ville de France pour laquelle ces données ont été produites à cette époque, grâce aux travaux fondateurs des statisticiens Louis-Adolphe et (son fils) Jacques Bertillon.

Cette tâche est pendant très longtemps restée impossible, car, même si les données requises existaient, elles restaient dispersées dans les archives de la Ville et leurs coûts de numérisation étaient élevés. De plus, les statistiques de mortalité par cause étaient difficiles à exploiter, en raison de changements répétés de classification médicale. Nous avons pu récemment lever ces écueils grâce à des innovations de collecte et de méthode statistique.

En pratique, nous sommes allés photographier de nombreux livres renseignant le nombre de décès par âge, sexe et cause pour l’ensemble de la ville de Paris sur près de 60 ans. Puis nous avons extrait cette information (bien souvent à la main) afin qu’elle soit utilisable par nos logiciels statistiques. Pour approfondir nos analyses, nous avons également collecté ces données par quartier – les 80 actuels – pour certaines maladies infectieuses, afin de mieux saisir la transformation des inégalités sociales et spatiales face à la mort durant cette période.

Cette collecte minutieuse de dizaines de milliers de données a permis de constituer une nouvelle base désormais librement accessible à la communauté scientifique. Elle offre la possibilité d’analyser de manière inédite les mécanismes à l’origine de l’amélioration spectaculaire de la longévité à Paris durant la première moitié du XXᵉ siècle, une période où la population de la capitale a fortement augmenté pour atteindre près de trois millions d’habitants, notamment en raison de l’arrivée massive de jeunes migrants venus des campagnes françaises lors de l’exode rural.

Un gain important dû au recul des maladies infectieuses

Entre 1890 et 1950, l’espérance de vie à 1 an a bondi de près de vingt-cinq ans à Paris. À quoi un tel progrès est-il dû ? Si l’on décompose cette formidable hausse par grandes causes de décès, pour les hommes comme pour les femmes, on constate que les maladies infectieuses dominaient largement la mortalité parisienne à la Belle Époque. C’était en particulier le cas de la tuberculose, la diphtérie, la rougeole, la bronchite et la pneumonie. Nous avons également isolé les cancers, les maladies cardio-vasculaires et, pour les femmes, les causes liées à la grossesse.

Le résultat est sans appel : la disparition progressive des maladies infectieuses explique à elle seule près de 80 % des gains de longévité observés dans la capitale. Sur les 25 années d’espérance de vie gagnées, 20 sont dues au recul de ces infections.

Graphique en barre présentant la contribution à la hausse de l’espérance de vie à un an.
Contribution de chaque cause de décès à l’évolution de l’espérance de vie à 1 an à Paris entre 1891 et l’année indiquée, selon le sexe. Les contributions positives (au-dessus de 0) correspondent à des gains d’espérance de vie par rapport à 1891 ; les contributions négatives (en dessous de 0) indiquent des pertes ; les contributions supérieures à 1,5 an sont indiquées explicitement). DR, Fourni par l'auteur

La lutte contre la tuberculose, maladie infectieuse provoquée par la bactérie Mycobacterium tuberculosis, a été le principal moteur de ce progrès. Longtemps première cause de décès à Paris, le déclin rapide de cette maladie après la Première Guerre mondiale représente près de huit ans d’espérance de vie gagnés pour les hommes et six ans pour les femmes. Les infections respiratoires (bronchites et pneumonies), très répandues à l’époque, ont quant à elles permis un gain supplémentaire de cinq ans. Des avancées sur plusieurs fronts (transformations économiques et sociales, progrès en santé publique, efforts collectifs de lutte contre la tuberculose et améliorations nutritionnelles) ont pu contribuer à la baisse de la mortalité liée à ces maladies.

La diphtérie, particulièrement meurtrière chez les enfants au XIXᵉ siècle, a également reculé spectaculairement durant les années 1890, ce qui a permis un gain d’espérance de vie d’environ deux ans et six mois. La baisse de la mortalité due à cette cause aurait été impulsée par l’introduction réussie du sérum antidiphtérique – l’un des premiers traitements efficaces contre les maladies infectieuses.

En revanche, les maladies cardio-vasculaires et les cancers n’ont joué qu’un rôle mineur avant 1950. Leurs effets apparaissent plus tardivement, et s’opposent même parfois à la progression générale : les cancers, notamment chez les hommes, ont légèrement freiné la hausse de l’espérance de vie. Quant aux causes liées à la grossesse, leur impact est resté limité.

Cette formidable hausse de l’espérance de vie s’est poursuivie au-delà de notre période d’étude, mais à un rythme moins soutenu. L’augmentation a été d’un peu moins de vingt ans entre 1950 et 2019.

Au début du XXᵉ siècle, de féroces inégalités sociales face à la mort

Nous l’avons vu, la lutte contre la tuberculose a été l’un des principaux moteurs des progrès spectaculaires de l’espérance de vie à Paris entre 1890 et 1950. Grâce aux séries des statistiques de décès par cause que nous avons reconstituées pour les 80 quartiers de la capitale, nous avons cherché à mieux comprendre les ressorts de cette maladie en dressant une véritable géographie sociale.

Pour chaque quartier, nous avons calculé un taux de mortalité « brut »
– c’est-à-dire le rapport entre le nombre de décès dus à la tuberculose et la population totale du quartier, pour 100 000 habitants. Nous avons ainsi pu produire une carte afin de visualiser cette mortalité spécifique, aux alentours de l’année 1900.

Carte des taux bruts de mortalité par tuberculose (pour 100 000 habitants) pour les 80 quartiers parisiens en 1900
Taux bruts de mortalité par tuberculose (pour 100 000 habitants) dans les 80 quartiers parisiens en 1900. Les couleurs foncées indiquent une mortalité élevée, les plus claires une mortalité faible. DR, Fourni par l'auteur

On constate que les écarts de mortalité étaient considérables au sein de la capitale en 1900. Les valeurs les plus élevées, souvent supérieures à 400 décès pour 100 000 habitants, se concentraient dans l’est et le sud de Paris. Les trois quartiers où les valeurs étaient les plus élevées sont Saint-Merri (près de 900), Plaisance (850) et Belleville (un peu moins de 800). À l’inverse, les quartiers de l’Ouest parisien affichaient des taux bien plus faibles, et des valeurs minimales proches de 100 dans les quartiers des Champs-Élysées, de l’Europe et de la Chaussée-d’Antin.

Ces différences spatiales reflètent directement les inégalités sociales de l’époque. En nous fondant sur les statistiques de loyers du début du XXᵉ siècle, nous avons estimé quels étaient les dix quartiers les plus riches (matérialisés sur la figure par des triangles noirs) ainsi que les dix plus pauvres (cercles noirs). On constate que la nette fracture sociale entre le Paris aisé du centre-ouest et le Paris populaire des marges orientales se superpose clairement à la carte de la mortalité par tuberculose.

Une situation qui s’équilibre seulement après la Seconde Guerre mondiale

Si l’on se penche sur l’évolution de ces écarts entre la fin du XIXᵉ siècle et 1950, on constate que les quartiers les plus pauvres affichaient à la fin du XIXᵉ siècle des taux de mortalité par tuberculose supérieurs à 600, trois fois et demie supérieurs à ceux des quartiers les plus riches.

L’écart s’est encore creusé jusqu’à la veille de la Première Guerre mondiale, sous l’effet d’une baisse de la mortalité plus forte dans les quartiers riches que dans les quartiers pauvres. Ainsi en 1910, les taux de mortalité par tuberculose étaient encore quatre fois et demie plus élevés dans les quartiers populaires que dans les quartiers riches.

Graphique de l’évolution des taux bruts de mortalité par tuberculose (pour 100 000 habitants) pour les 10 quartiers les plus riches et les plus pauvres de Paris, 1893-1948.
Évolution des taux bruts de mortalité par tuberculose (pour 100 000 habitants) pour les 10 quartiers les plus riches et les 10 quartiers les plus pauvres de Paris, 1893-1948. DR, Fourni par l'auteur

Durant l’entre-deux-guerres, les écarts se sont resserrés. L’éradication progressive des maladies infectieuses a permis les progrès considérables d’espérance de vie observés de la Belle Époque à la fin de la Seconde Guerre mondiale. La mortalité a chuté très rapidement dans les quartiers les plus défavorisés. À la fin des années 1930, elle n’y était plus que deux fois supérieure à celle des quartiers riches.

Après la Seconde Guerre mondiale, les taux sont enfin passés sous les 100 décès pour 100 000 habitants dans les quartiers pauvres. Un seuil que le quartier des Champs-Élysées avait déjà atteint cinquante ans plus tôt…

Quelles leçons pour l’histoire ?

Le rythme de cette transformation – dont la lutte contre la tuberculose a été l’un des moteurs – fut exceptionnel. Ce sont près de six mois d’espérance de vie qui ont été gagnés chaque année sur la période allant des débuts de la Belle Époque à la fin de la Seconde Guerre mondiale. Les déterminants de cette forte baisse de la mortalité sont encore débattus, toutefois on peut les regrouper en trois catégories.

La première concerne les investissements dans les infrastructures sanitaires. La connexion progressive des logements aux réseaux d’assainissement aurait contribué à la réduction de la mortalité causée par les maladies infectieuses transmises par l’eau.

Par ailleurs, la mise en place au tournant du XXᵉ siècle du « casier sanitaire » aurait contribué à la baisse de la mortalité des maladies infectieuses transmises par l’air – notamment la tuberculose –, en permettant l’enregistrement des informations liées à la salubrité des logements : présence d’égouts, d’alimentation en eau, recensement du nombre de pièces sur courette, du nombre de cabinets d’aisances communs ou privatifs, du nombre d’habitants et de logements par étage, liste des interventions effectuées sur la maison (désinfections, rapport de la commission des logements insalubres, maladies contagieuses enregistrées), compte-rendu d’enquête sanitaire (relevant la nature du sol, le système de vidange, l’état des chutes, les ventilations), etc.

La seconde catégorie de déterminants qui ont pu faire augmenter l’espérance de vie tient aux innovations médicales : le vaccin BCG contre la tuberculose (mis au point en 1921) ou le vaccin antidiphtérique (mis au point en 1923) ont, entre autres, modifié le paysage sanitaire.

Enfin, la troisième et dernière catégorie relève des transformations économiques et sociales. La première moitié du XXᵉ siècle a connu une croissance économique soutenue, une amélioration des conditions de vie et une diminution marquée des inégalités de revenus.

L’amélioration du réseau de transport a par ailleurs facilité l’approvisionnement alimentaire depuis les campagnes, contribuant à une meilleure nutrition. Notre étude semble montrer, enfin, que les antibiotiques, découverts plus tardivement, n’ont joué qu’un rôle marginal avant 1950.

Comprendre les dynamiques sanitaires contemporaines

Nos recherches sur le sujet ne sont pas terminées. Nous continuons à accumuler de nouvelles données pour analyser l’évolution de l’espérance de vie et de la mortalité par cause dans chacun des 20 arrondissements et des 80 quartiers de la capitale afin d’analyser plus en détail cette période de cent cinquante ans. Nous pourrons ainsi progressivement lever le voile sur l’ensemble des raisons qui font de Paris cette championne de la longévité que l’on connaît aujourd’hui.

Ces recherches, bien que centrées sur des phénomènes historiques, conservent une importance majeure pour l’analyse des dynamiques sanitaires contemporaines. Elles documentent la manière dont les maladies chroniques ont progressivement commencé à façonner l’évolution de l’espérance de vie, rôle qui structure aujourd’hui les transformations de la longévité.

Elles démontrent également que les disparités de mortalité selon les conditions socio-économiques, désormais bien établies dans la littérature actuelle, étaient déjà présentes dans le Paris de la fin du XIXᵉ siècle.

Surtout, nos analyses examinent un cas concret montrant que, malgré l’ampleur initiale des inégalités socio-économiques de mortalité, celles-ci se sont fortement réduites lorsque les groupes les plus défavorisés ont pu bénéficier d’un accès élargi aux améliorations sanitaires, sociales et environnementales.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

11.12.2025 à 15:56

Entretenir le mythe du Père Noël, une affaire de milieu social ?

Géraldine Bois, Maitresse de conférences en sociologie, Université de Lorraine
Charlotte Moquet, Post-doctorante au CRESPPA-CSU, Ingénieure de recherche au CNRS - Docteure en sociologie de l'Université de Poitiers, Université de Poitiers
Les attitudes parentales vis-à-vis des croyances enfantines que sont le Père Noël et la petite souris varient selon les milieux sociaux.
Texte intégral (2201 mots)

Dès la grande section de maternelle, des inégalités s’immiscent au sein du quotidien des enfants. Publié sous la direction des chercheuses Frédérique Giraud et Gaële Henri-Panabière, l’ouvrage Premières classes. Comment la reproduction sociale joue avant six ans met en lumière les mécanismes précoces qui sous-tendent leur transmission d’une génération à l’autre, à partir d’une enquête de terrain menée à la fois en famille et en classe.

Dans le premier chapitre, les sociologues Géraldine Bois et Charlotte Moquet s’arrêtent sur les conceptions de l’enfance qui animent les parents. Comment celles-ci orientent-elles leurs pratiques éducatives ? Dans l’extrait ci-dessous, elles nous montrent comment leur attitude vis-à-vis des croyances enfantines, comme le Père Noël et la petite souris, varient selon les milieux sociaux.


On se représente souvent l’enfance comme l’âge de l’innocence, un âge où les enfants doivent pouvoir rêver et s’émerveiller à l’abri des soucis des adultes. De fait, tous les parents que nous avons rencontrés adhèrent à cette conception de l’enfance, à des degrés divers. Ils s’efforcent de tenir leur enfant à distance de certaines de leurs discussions (soucis professionnels, conflits familiaux, etc.) et regrettent de ne pas toujours y parvenir : « On essaye de pas le faire, mais bon quelquefois ça arrive […]. On oublie qu’il y a les petites oreilles des enfants à côté. » (Mme Moreau, pharmacienne en couple avec un ingénieur, classes supérieures)

Ils tentent tout particulièrement de le protéger des événements violents de l’actualité (attentats, guerres, etc.), en contrôlant son accès à ces informations et en évitant d’en parler devant lui. « Je me dis qu’elle a bien le temps de voir l’horreur de la société dans laquelle on vit », « Ils sont encore jeunes, ils ont encore le temps de voir beaucoup de misère », déclarent par exemple les parents interrogés.

Cette tendance à la préservation du monde de l’enfance est cependant plus ou moins marquée selon leurs appartenances sociales : certains parents, plus souvent de classes populaires, s’efforcent de maintenir leur enfant dans ce monde, quand d’autres, plus souvent de classes moyennes et supérieures, l’encouragent plutôt à le questionner.

Sur ce point, les attitudes parentales vis-à-vis des croyances enfantines que sont le Père Noël et la petite souris sont révélatrices. Certains parents entretiennent ces croyances afin de sauvegarder une « magie », un « imaginaire » et une « innocence » qu’ils estiment propres à l’enfance. Mme Chanteau (assistante sociale, classes moyennes), qui « essaye de trouver des réponses qui [lui] semblent les moins farfelues » pour limiter les doutes de sa fille Annabelle, explique : « Je trouve qu’elle est petite et j’ai envie de la conforter encore dans cet imaginaire. » Dans ces familles, la prise de conscience de la réalité à propos de ces croyances est donc remise à plus tard, comme l’exprime le père de Bastien Perret (ouvrier en couple avec une infirmière, classes populaires) : « De toute façon, après, il le saura par l’école, parce que plus il va grandir [moins il y croira]. »

Les récits des pratiques familiales témoignent de stratégies pour retarder le plus possible leur disparition. Ainsi, les parents de Bastien ont demandé à ses cousins plus âgés de ne pas lui révéler la vérité sur l’existence du Père Noël. D’autres parents échafaudent de véritables mises en scène qu’ils racontent avec beaucoup d’enthousiasme : faire disparaître dans la nuit des gâteaux destinés au Père Noël, créer une diversion pour disposer à l’insu des enfants les cadeaux sous le sapin, faire croire que le Père Noël passe en diffusant le son de son traîneau, etc.

Si ces attitudes de préservation des croyances enfantines se rencontrent dans des familles de milieux sociaux variés, elles sont nettement plus présentes dans les classes populaires et concernent la quasi-totalité des familles de ce milieu social. En outre, les quelques familles de classes moyennes et supérieures également concernées se caractérisent souvent par des origines populaires du côté des parents. Cette particularité permet de souligner que, si la façon dont les parents pensent l’enfance et agissent à l’égard de leur enfant a des effets sur son éducation, ces représentations et pratiques des parents sont elles-mêmes le fruit d’une socialisation antérieure, notamment familiale. Autrement dit, les représentations et pratiques des parents sont les produits de ce qu’ils ont appris dans leur propre environnement familial.

D’autres parents, au contraire, ne tiennent pas spécialement à ce que leur enfant continue de croire au Père Noël ou la petite souris. On rencontre cette distance vis-à-vis des croyances enfantines uniquement dans les familles de classes moyennes et supérieures, et dans la très grande majorité des familles de ces milieux sociaux. S’avouant parfois mal à l’aise avec « les mensonges » qu’implique l’entretien de ces croyances, les parents adoptent ici une attitude qui consiste à laisser leur enfant croire si celui-ci en a envie, sans l’y encourager pour autant. Sans dire explicitement la vérité à leur enfant, ces parents se montrent intéressés par les doutes qu’il exprime et voient positivement le fait qu’il ne soit pas totalement dupe ou naïf. En effet, dans ces familles, les croyances enfantines sont avant tout traitées comme un terrain d’exercice du raisonnement logique.

Comme l’explique Mme Tardieu (responsable de communication dans une grande entreprise en couple avec un ingénieur d’affaires, classes supérieures), « on est sur des sujets où justement on veut que [nos enfants] réfléchissent un petit peu ». Les parents évitent donc d’apporter à leur enfant des réponses définitives. Ils encouragent plutôt ses questionnements en lui demandant ce qu’il en pense ou ce qu’il souhaite lui-même croire : « Je lui dis : “Mais qu’est-ce que tu as envie de croire ? Est-ce que tu as envie de croire que le [Père Noël] existe ?” Et dans ces cas-là, elle réfléchit. […] On lui dit : “C’est comme tu veux. Il y en a qui croient, il y en a qui ne croient pas. C’est comme croire en Dieu. Il y en a qui croient, il y en a qui ne croient pas. Après si tu as des questions on répond, mais on ne va pas te faire ton idée.” […] On reste un peu évasifs. » (mère de Lisa Chapuis, au foyer, en couple avec un architecte, classes moyennes)


À lire aussi : Pourquoi les enfants croient-ils (ou pas) au Père Noël ?


Les enfants de classes moyennes et supérieures sont ici familiarisés à des manières de raisonner (questionner, réfléchir par soi-même) qui sont de nos jours particulièrement valorisées à l’École et peuvent de ce fait contribuer à leur procurer certains bénéfices scolaires. L’extrait d’entretien précédent montre bien que les rapports parentaux aux croyances enfantines peuvent s’inscrire dans une tendance plus générale à l’encouragement de l’esprit critique sur différents sujets.

De la même manière, les plaisanteries sur le Père Noël sont l’un des biais par lesquels les mères de Rebecca Santoli (l’une est professeure de français ; l’autre est en situation de reconversion professionnelle et exerce des petits boulots en intérim) habituent leur fille à un regard critique sur les stratégies commerciales et les inégalités de genre : « Moi je lui ai dit que le Père Noël il a le beau rôle et que c’était la Mère Noël qui faisait tout le taf [rires]. Et puis qu’il est habillé en Coca-Cola là… »

Ces mères font partie des rares parents de l’enquête – appartenant essentiellement aux fractions cultivées des classes moyennes et supérieures – à tenir régulièrement des discussions politiques entre adultes devant leur enfant. Elles amènent aussi Rebecca à des réunions militantes mêlant adultes et enfants. À propos de ce qui pourrait inquiéter leur fille, elles ont par ailleurs une attitude ambivalente qui manifeste leur tendance à vouloir solliciter son questionnement. Concernant les événements de l’actualité, elles disent avoir le souci de « l’épargner » mais aussi l’« envie de répondre à ses questions ». Elles doutent également de la pertinence de sa prise de conscience des difficultés financières de l’une d’entre elles, partagées entre le sentiment qu’elle est « un peu jeune » pour « se faire du souci » à ce sujet et la volonté de la « confronter à la réalité ».


À lire aussi : Ce que les enfants pensent vraiment du père Noël


À côté de certains parents de classes moyennes ou supérieures comme ceux de Rebecca, qui ont les moyens de décider ce à quoi ils exposent leur enfant, les parents les plus précarisés des classes populaires habituent eux aussi, mais par la force des choses, leur enfant à certaines réalités. Si Ashan accompagne sa mère, Mme Kumari (sans emploi, antérieurement infirmière au Sri Lanka) qui l’élève seule, aux réunions du comité de soutien des familles sans logement, c’est ainsi par nécessité (faute de moyen de garde aux horaires de ces réunions et parce que la famille est contrainte de vivre dans un foyer de sans-abri), contrairement aux mères de Rebecca lorsqu’elles vont avec leur fille à des réunions militantes.

D’ailleurs, Ashan tend à jouer à l’écart durant ces réunions sans visiblement écouter ce que disent les adultes, quand Rebecca est encouragée à y participer, à y prendre la parole. Contrairement à Rebecca, Ashan retire donc vraisemblablement peu de bénéfices scolaires de sa présence à ces réunions. Plus généralement, Ashan, mais aussi Libertad Anaradu (dont le père enchaîne des contrats précaires en tant qu’employé municipal et la mère est sans emploi), Balkis Bouzid (dont les parents sont sans activité professionnelle) et Flavia Kombate (dont la mère, qui l’élève seule, est auxiliaire de vie à mi-temps) sont, de fait, confrontés aux problèmes de leurs parents, ceux-ci n’ayant pas la possibilité de leur épargner certaines expériences (manque d’argent, expulsions, absence de logement stable, etc.). Ils n’ont pas non plus toujours les moyens d’entretenir les croyances de leur enfant. Par exemple, Mme Kombate dit à Flavia que le Père Noël n’existe pas et, l’année de l’enquête, elle lui explique qu’elle ne lui achètera pas de cadeaux à Noël puisqu’elle lui en a déjà offerts plus tôt dans l’année.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

11.12.2025 à 15:55

« Stranger Things » ou le triomphe de la nostalgie

Sophie Renault, Professeur des Universités en Sciences de Gestion et du Management, Université d’Orléans
Pour son ultime saison, « Stranger Things » déploie un plan d’envergure mondiale. Pivot de sa stratégie, la nostalgie unifie la narration, l’esthétique et le marketing.
Texte intégral (2302 mots)
C'est par l’activation de repères culturels que la série prépare et invite le public à l’expérience nostalgique. Allociné

Miser sur les objets cultes des années 1980, envahir l’espace public et s’inscrire dans la postérité : tel est le programme marketing très bien orchestré de la série « Stranger Things » pour sa cinquième et dernière saison qui surfe plus que jamais sur la nostalgie.


À l’occasion de la sortie de la cinquième et ultime saison de Stranger Things, Netflix déploie un plan d’envergure mondiale : événements publics, collaborations avec des marques internationales, pop-up stores… Derrière l’ampleur promotionnelle, un ressort fondamental unifie la narration, l’esthétique et la stratégie marketing de la série. Il s’agit de la nostalgie.

Objets cultes et nostalgie restauratrice

Depuis 2016, Stranger Things met en scène un imaginaire matérialisé par la présence d’objets emblématiques des années 1980. C’est par l’activation de ces repères culturels que la série prépare et invite le public à l’expérience nostalgique.

Comme l’indiquent les acteurs eux-mêmes dans un teaser promotionnel de la saison 5 :

« Vous allez ressentir des sentiments de nostalgie, ressortez vos chouchous et vos walkmans. »

Parmi les objets emblématiques des années 1980 figurent des téléviseurs à tube cathodique, des cassettes audio, des talkies-walkies, des flippers ou bien encore des bornes d’arcade.

Toutefois, l’efficacité de la nostalgie dans la série va au-delà de ces seules catégories d’objets. Si elle fonctionne si bien à l’écran, c’est parce qu’elle est immédiatement identifiable par l’association à des marques faisant partie intégrante du langage visuel de la culture pop. Les placements de produits y sont nombreux et parfaitement assumés. Il s’agit notamment de la mise en perspective dans cette cinquième saison de produits agroalimentaires parmi lesquels des boissons, comme Sunny Delight ou Coca-Cola. On identifie également plusieurs produits « technologiques », comme une radio Sanyo, un radio-cassette Sidestep, un casque stéréo KOSS, etc. On repère également des marques associées à l’enfance : une parure de lit, une affiche, un puzzle ou bien encore une poupée de l’univers Rainbow Brite, une boîte à goûter G.I. Joe, un bisounours, de la pâte à modeler Play Doh, des crayons de cire Crayola

Ils sont les véhicules d’une époque que certains ont connue et que d’autres, en écho aux travaux de Svetlana Boym, fantasment ou romancent. Comme le souligne la recherche de Dan Hassler-Forest, Stranger Things illustre une forme de nostalgie « restauratrice », en quelque sorte idéalisée. Les années 1980 apparaissent comme un refuge séduisant face à un présent jugé moins désirable.

Les références empreintes de nostalgie donnent à l’univers de la série sa cohérence esthétique et temporelle. Hawkins, ville fictive dans laquelle se déroule l’action, rappelle selon les recherches de la spécialiste britannique des médias et de la pop culture Antonia Mackay, une forme de « perfectionnisme de la guerre froide », où la tranquillité de la banlieue est interrompue par l’irruption de la menace surnaturelle. En effet, selon la chercheuse, « l’idéologie dominante de l’après-guerre promeut la vie en banlieue, une existence centrée sur l’enfant, Hollywood, la convivialité, le Tupperware et la télévision ». Les frères Duffer, réalisateurs de la série, exploitent ce contraste depuis la première saison. Plus le monde à l’envers gagne du terrain, plus l’univers nostalgique se densifie via les objets, les décors, mais aussi grâce à une bande-son rythmée de tubes des années 1980.

La nostalgie est ainsi l’un des moteurs centraux de la série. Elle s’érige en rempart symbolique contre la terreur associée au monde à l’envers. Passant d’adolescents à jeunes adultes au fil des saisons, les héros évoluent dans un environnement anxiogène figé par l’esthétique rassurante des années 1980. Par effet miroir, en qualité de spectateur, notre propre trajectoire se mêle à celle des personnages de la série. C’est ici aussi que réside l’intuition fondatrice des frères Duffer. Il s’agit de transformer la nostalgie en un espace émotionnel fédérateur, un passé commun recomposé capable de fédérer plusieurs générations.

Licences, « co-branding » et invasion de l’espace public

L’alignement entre l’univers narratif de la série et ses opportunités commerciales ouvre la voie à de multiples partenariats de marque. Le secteur de la restauration rapide, dont la mondialisation s’est accélérée durant les années 1980, est un terrain de jeu idéal pour la mise en place d’opérations commerciales autour de la série. Les exemples sont éloquents : McDonald’s a lancé un Happy Meal accompagné de figurines collector. De son côté, KFC a créé une campagne immersive en se rebaptisant temporairement « Hawkins Fried Chicken », du nom de la ville fictive dans laquelle se déroule la série. Sont mis en scène dans un spot emblématique des employés prêts à affronter tous les dangers du monde à l’envers pour assurer leur livraison. Quant à Burger King, l’enseigne a lancé les menus Hellfire Club d’une part et Upside Down d’autre part, respectivement en référence au club de jeu de rôles Donjons & Dragons de la série et au monde à l’envers qu’elle met en scène.

Cette logique d’extension de la marque Stranger Things se concrétise par des collaborations événementielles qui investissent de nombreux domaines. Par exemple à Paris, l’univers de Stranger Things s’est invité aux Galeries Lafayette. Le grand magasin des Champs-Élysées propose en effet une immersion dans l’atmosphère du monde à l’envers. Des animations interactives y permettent notamment de personnaliser une enceinte Bluetooth en forme de radio. Quant à la chaîne de boulangerie « créative » Bo&Mie, elle décline des pâtisseries aux formes inspirées de la série.

Les exploitations sous licence, depuis Lego aux figurines Pop en passant par Primark, Nike ou Casio, s’emparent de l’esthétique de la série. Stranger Things déborde ainsi de l’écran pour investir les univers marchands mais également l’espace public des grandes villes au travers d’opérations événementielles spectaculaires. C’est notamment le cas lorsque des installations lumineuses immersives sont déployées à l’image de celles de la fête des Lumières de la ville de Lyon.

La postérité en construction

Pour son dernier chapitre, Stranger Things met la nostalgie en scène comme un véritable rituel. La diffusion fractionnée en trois temps n’est pas anodine. Plutôt qu’un lancement d’un seul bloc, Netflix étale la sortie sur trois moments clefs : Thanksgiving, Noël et le Nouvel An. En s’inscrivant dans ce calendrier affectif, la série devient elle‑même un rendez‑vous mémoriel, associé à des fêtes déjà chargées de souvenirs et de traditions.

Ce dispositif permet à Netflix de maintenir l’engouement pendant plusieurs semaines, mais aussi de donner à la série une tonalité plus intime. En effet, la nostalgie du passé se mêle à celle du présent. Les spectateurs vivent les derniers épisodes avec, en filigrane, le souvenir de la découverte de la série près de dix ans plus tôt. La conclusion de Stranger Things active ainsi une double nostalgie : celle, d’une part, des années 1980 reconstituées et celle, d’autre part, de notre propre trajectoire de spectateur.

Alors qu’une page se tourne, Netflix choisit de célébrer la cinquième saison sur l’ensemble des continents à travers le mot d’ordre « One last adventure ». Par exemple, l’événement intitulé « One Last Ride », organisé à Los Angeles le 23 novembre dernier invitait les fans à parcourir Melrose Avenue à vélo, en skate ou à pied. Plus largement, la plateforme déploie une série d’animations, physiques et virtuelles, pour convier les fans du monde entier à accompagner la fin du récit.

Stranger Things est in fine un événement culturel qui va au-delà de l’écran pour occuper l’espace public, les centres‑villes, les grands magasins ou bien encore les réseaux sociaux. La nostalgie y fonctionne comme un vecteur de rassemblement. Cette dynamique s’inscrit dans une stratégie plus large de prolongement de l’univers sériel. On pense notamment aux projets dérivés comme la pièce de théâtre The First Shadow ou bien encore à la série animée Chroniques de 1985. Alors que Stranger Things s’achève, son imaginaire s’installe dans une forme de postérité.

The Conversation

Sophie Renault ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

50 / 50

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
AlterQuebec
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌞