LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

09.04.2025 à 15:04

L’incendie du centre de tri à Paris, symbole de l’envers des déchets ?

Maxence Mautray, Doctorant en sociologie de l’environnement, Université de Bordeaux

Les départs de feu dans les centres de tri sont malheureusement très fréquents et souvent causés par des erreurs humaines, possibles à divers stades du tri des déchets.
Texte intégral (1762 mots)

Les départs de feu dans les centres de tri sont malheureusement très fréquents et souvent causés par des erreurs humaines qui peuvent intervenir à différents stades de la gestion du tri, une activité qui rassemble de nombreux acteurs, ayant des objectifs parfois contradictoires.


Lundi 7 avril au soir, le centre de tri des déchets du XVIIe arrondissement de Paris s’est embrasé, provoquant la stupeur des riverains. Le feu, maîtrisé durant la nuit grâce à l’intervention de 180 pompiers, n’a fait aucun blessé parmi les 31 salariés présents, l’alarme incendie s’étant déclenchée immédiatement.

Si aucune toxicité n’a pour l’heure été détectée dans le panache de fumée émanant du site, l’incident a eu des conséquences pour les habitants : une portion du périphérique a dû être fermée à la circulation et un confinement a été décrété pour les zones à proximité. Le bâtiment, géré par le Syctom (le syndicat des déchets d’Île-de-France), s’est finalement effondré dans la matinée du mardi 8 avril.

Mais comment un feu aussi impressionnant a-t-il pu se déclarer et durer toute une nuit en plein Paris ? Si les autorités n’ont pas encore explicité toute la chaîne causale entraînant l’incendie, elles ont cependant mentionné, lors notamment de la prise de parole du préfet de police de Paris Laurent Nuñez, la présence de bouteilles de gaz dans le centre de tri et l’explosion de certaines, ce qui a pu complexifier la gestion du feu par les pompiers, tout comme la présence de nombreuses matières combustibles tel que du papier et du carton dans ce centre de gestion de tri.

Une chose demeure elle certaine, un départ de feu dans un centre de tri n’est malheureusement pas une anomalie. De fait, si cet incendie, de par son ampleur et peut-être aussi les images virales des panaches de fumées devant la tour Eiffel, a rapidement suscité beaucoup d’émois et d’attention, à l’échelle de la France, ce genre d’événement est bien plus fréquent qu’on ne le pense.

Depuis 2010, 444 incendies

La base de données Analyse, recherche et information sur les accidents (Aria), produite par le Bureau d’analyse des risques et pollutions industriels (Barpi) nous éclaire à ce sujet.

Depuis 2010, 444 incendies ont été recensés en France sur des installations de traitement et d’élimination des déchets non dangereux (centres de tri, plateformes de compostage, centres d’enfouissement…).

À ces incendies s’ajoutent parfois des explosions, des rejets de matières dangereuses et des pollutions des espaces environnants et de l’air. L’origine humaine est souvent retenue comme la cause de ces catastrophes. Même si elles n’entraînent pas toujours des blessés, elles soulignent la fragilité structurelle de nombreuses infrastructures du secteur des déchets ménagers.

Au-delà de cet événement ponctuel, l’incendie de Paris soulève donc peut-être un problème plus profond. En effet, notre système de gestion des déchets implique une multiplicité d’acteurs (ménages, industriels, services publics…) et repose sur une organisation complexe où chaque maillon peut devenir une source d’erreur, conduisant potentiellement à la catastrophe.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Un métier dangereux et méconnu

De fait, pénétrer dans un centre de gestion de tri, comme il m’a été donné de le faire dans le cadre de mes recherches doctorales, c’est se confronter immédiatement aux risques quotidiens associés aux métiers de tri des déchets dans les centres.

Si l’on trouve dans ces centres des outils toujours plus perfectionnés, notamment pour réaliser le premier tri entrant, l’œil et la main humaine restent malgré tout toujours indispensables pour corriger les erreurs de la machine.

Ces métiers, bien qu’essentiels au fonctionnement des services publics des déchets, sont pourtant peu connus, malgré leur pénibilité et leurs risques associés. Les ouvriers, dont le métier consiste à retirer les déchets non admis des flux défilant sur des tapis roulants, sont exposés à des cadences élevées, des heures de travail étendues et des niveaux de bruits importants.

Ils sont aussi confrontés à de nombreux risques : des blessures dues à la répétition et la rapidité des gestes, mais aussi des coupures à cause d’objets parfois tranchants, voire des piqûres, car des seringues sont régulièrement présentes dans les intrants.

Des erreurs de tri persistantes

La majorité du travail des ouvriers de ces centres consiste ainsi à compenser les erreurs de tri réalisées par les ménages. Ce sont souvent des éléments qui relèvent d’autres filières de recyclage que celle des emballages ménagers et sont normalement collectés différemment : de la matière organique comme des branchages ou des restes alimentaires, des piles, des ampoules ou des objets électriques et électroniques, ou encore des déchets d’hygiène comme des mouchoirs et des lingettes.

Ces erreurs, qui devraient théoriquement entraîner des refus de collecte, ne sont pas toujours identifiées par les éboueurs lors de leurs tournées.

Derrière cette réalité, on trouve également les erreurs de citoyens, qui, dans leur majorité, font pourtant part de leur volonté de bien faire lorsqu’ils trient leurs déchets.

Mais cette intention de bien faire est mise à l’épreuve par plusieurs obstacles : le manque de clarté des pictogrammes sur les emballages, une connaissance nécessaire des matières à recycler, des règles mouvantes et une complexité technique croissante.

Ainsi, l’extension récente des consignes de tri, depuis le 1er janvier 2023, visant à simplifier le geste en permettant de jeter tous les types de plastiques dans la poubelle jaune, a paradoxalement alimenté la confusion. Certains usagers expliquent qu’ils hésitent désormais à recycler certains déchets, comme les emballages en plastique fin, par crainte de « contaminer » leur bac de recyclage, compromettant ainsi l’ensemble de la chaîne du recyclage.

Malgré ces précautions, les erreurs de tri persistent. À titre d’exemple, le Syndicat mixte intercommunal de collecte et de traitement des ordures ménagères (Smictom) des Pays de Vilaine comptait 32 % de déchets non recyclables dans les poubelles jaunes collectées sur son territoire en 2023. Après 20 000 vérifications de bacs jaunes effectuées en une année afin de mettre en place une communication adaptée à destination de la population, ce taux n’a chuté que de cinq points en 2024, signe que la sensibilisation seule ne suffit pas à réorienter durablement les pratiques des usagers.

Les défis de notre système complexe de gestion des déchets

Notre système de gestion des déchets comporte donc un paradoxe. D’un côté, les ménages ont depuis longtemps adopté le geste de tri au quotidien et s’efforcent de le réaliser de manière optimale, malgré des informations parfois peu claires et un besoin constant d’expertise sur les matières concernées. De l’autre, il n’est pas possible d’attendre un tri parfait et les centres de tri se retrouvent dans l’obligation de compenser les erreurs.

À cela s’ajoute une complexité supplémentaire qui réside dans les intérêts divergents des acteurs de la gestion des déchets en France.

Les producteurs et les grandes surfaces cherchent à mettre des quantités toujours plus importantes de produits sur le marché, afin de maximiser leurs profits, ce qui génère toujours plus de déchets à trier pour les consommateurs.

Les services publics chargés de la gestion des déchets sont aussi confrontés à une hausse constante des ordures à traiter, ce qui entre en tension avec la protection de l’environnement et de la santé des travailleurs. Enfin, les filières industrielles du recyclage, communément nommées REP, souhaitent pour leur part accueillir toujours plus de flux et de matières, dans une logique de rentabilité et de réponse à des objectifs croissants et des tensions logistiques complexes.

Dans un tel contexte, attendre une organisation fluide et parfaitement maîtrisée de la gestion des déchets relève de l’utopie. Chacun des maillons de la chaîne poursuit des objectifs parfois contradictoires, entre recherche de la rentabilité, contraintes opérationnelles, protection des humains et de l’environnement et attentes des citoyens. Si des initiatives émergent (simplification du tri, contrôle des infrastructures, sensibilisation des citoyens, innovations technologiques, etc.), elles peinent à harmoniser l’ensemble du système.

Dès lors, le risque d’incidents ne peut être totalement éliminé. L’incendie du centre parisien n’est donc pas une exception, mais bien le témoin d’un système qui, malgré les efforts, reste structurellement vulnérable. Loin de pouvoir atteindre le risque zéro, la gestion des déchets oscille en permanence entre prévention, adaptation et situation de crise.

The Conversation

Maxence Mautray a reçu, de 2020 à 2024, des financements de la part du ministère de l'Enseignement supérieur et de la Recherche et du SMICVAL Libournais Haute Gironde dans le cadre d'une recherche doctorale.

08.04.2025 à 16:44

Condamnation de Marine Le Pen : vers une bascule de l’État de droit ?

Anne-Charlène Bezzina, Constitutionnaliste, docteure de l'Université Paris 1 Sorbonne, Maître de conférences en droit public à l'université de Rouen, Université de Rouen Normandie

Après la condamnation de Marine Le Pen pour détournement de fonds publics, les attaques portées contre les juges et contre les législations visant à moraliser la vie publique se sont multipliées. L’État de droit est-il menacé ?
Texte intégral (2586 mots)

Marine Le Pen a été condamnée pour détournement de fonds publics à quatre ans de prison et à cinq ans d’inéligibilité. Cette condamnation est-elle fondée en droit ? Les attaques portées contre les juges et les critiques de nombreux responsables politiques à l’encontre des législations visant à moraliser la vie publique interrogent. L’État de droit, qui désigne un État dans lequel la puissance publique est soumise aux règles de droit, est-il menacé ? Entretien avec la constitutionnaliste Anne-Charlène Bezzina.


Comment était motivée la décision du tribunal ?

Anne-Charlène Bezzina : Marine Le Pen et les cadres du RN ont été condamnés pour détournement de fonds publics. Il ne s’agit pas d’un enrichissement personnel comme l’abus de bien social. Sur trois législatures, soit plus de dix ans, un système de financement du parti a été conçu en détournant les enveloppes du Parlement européen affectées aux assistants parlementaires du RN. Ce système est avéré par de nombreuses pièces du dossier. Le nombre de députés, la durée du détournement et les montants, estimés à 4,1 millions d’euros par le tribunal, sont inédits sous la Ve République. Ces éléments constituent l’infraction principale, avec une peine de 4 ans de prison pour Marine Le Pen, dont deux fermes, aménageables sous forme de bracelet électronique.

Qu’est-ce qui justifiait la peine d’inéligibilité de 5 ans avec exécution provisoire, c’est-à-dire son application immédiate ?

A.-C. B. : En plus de la responsabilité d’un détournement de fonds, il y a, pour chacun des responsables politiques prévenus, une réflexion sur l’application d’une peine complémentaire : l’inéligibilité et une modalité d’exécution particulière, l’exécution provisoire. Cela consiste à appliquer la sanction immédiatement, sans attendre le résultat d’un appel. L’inéligibilité avec exécution provisoire a été retenue pour Marine Le Pen.

Il est fréquent pour la justice de recourir à une peine d’inéligibilité pour les élus dans le cas d’atteinte à la « probité » (c’est le terme retenu par le Code pénal). Étant donné qu’il s’agit de peines qui ne peuvent pas toujours donner lieu à une réparation par des dommages et intérêts à des victimes, on frappe là où il y a eu infraction, ici la capacité à susciter la confiance.

Le fait de retenir cette inéligibilité est facilitée pour le juge depuis la loi Sapin 2 de décembre 2016 puisque le juge ne doit plus justifier pourquoi il déclare inéligible un élu politique lorsqu’il est responsable d’une infraction de probité, mais doit justifier pourquoi il ne le déclare pas inéligible. Attention, cette loi n’était pas applicable aux faits reprochés aux parlementaires européens RN puisque ceux-ci étaient antérieurs à son entrée en vigueur. Le juge a donc été obligé de justifier son choix de l’inéligibilité et a également dû justifier pourquoi il l’avait retenue avec la modalité particulière de l’exécution provisoire.


Chaque samedi, un éclairage original et décalé (articles, quiz, vidéos…) pour mieux comprendre le monde qui nous entoure. Abonnez-vous gratuitement dès aujourd’hui !


Les motifs retenus par le juge pour déclarer conforme à la Constitution ce principe de l’exécution provisoire correspondent à ceux que la Cour de cassation et le Conseil constitutionnel avaient retenus.

Il s’agissait, comme premier élément de motivation, de justifier l’exécution provisoire par une recherche de l’efficacité de la peine. En effet, sans exécution provisoire, avec une candidature de Marine Le Pen à l’élection de 2027, et potentiellement sa victoire, l’inéligibilité n’aurait eu aucune efficacité. Le juge a précisé que cette sanction immédiate, que l’on applique à de nombreux élus ou citoyens, devait s’appliquer de la même manière à une candidate à la présidence de la République puisque la loi est la même pour tous.

Il y aurait une atteinte à l’ordre public démocratique si le juge déclarait inéligible une candidate à une élection tout en lui laissant la possibilité de s’y présenter uniquement parce qu’elle est bien placée pour remporter cette élection alors que sa culpabilité est retenue.

Le second élément de la motivation est le risque de récidive. Contrairement à ce qui est souvent avancé, il n’est pas associé à la qualité de député européen de Marine Le Pen, mais plutôt à sa qualité de « cerveau » du système de détournement de fonds. Le juge a considéré que le RN, n’ayant jamais reconnu avoir contourné les règles de droit avec l’emploi de ses assistants et déniant jusqu’à la caractérisation de l’infraction de détournement de fonds, il y avait un risque que ce système se reproduise tant qu’il n’était pas dénoncé par le parti.

En droit pénal, il faut non seulement vérifier l’élément matériel de l’infraction, c’est-à-dire la commission des faits, mais également l’élément moral, c’est-à-dire la conscience, la négligence ou la reconnaissance des faits. Au fond, c’est le système de défense du RN, mené au mépris de « la manifestation de la vérité », comme l’écrivent les juges, qui leur a fait craindre une possible récidive.

Le juge a donc appliqué la loi pénale dans le respect de l’équilibre imposé par le Conseil constitutionnel à tout juge de l’inéligibilité avec exécution provisoire, à savoir une juste pondération entre l’efficacité de la sanction pénale et la liberté de choix de l’électeur.

Le juge en a retenu une interprétation qui lui est propre et toute interprétation peut être contestée, c’est pourquoi deux parties s’affrontent toujours de manière contradictoire devant le juge et c’est également pour cette raison que la possibilité d’intenter un appel est ouverte par la loi.

Cette exécution provisoire est dure dans ses effets, mais l’on ne peut pas juridiquement considérer qu’elle n’a pas été fondée en droit ou que le juge a proposé une lecture contraire à la loi pour des motifs politiques.

Que pensez-vous des accusations de Marine Le Pen contre une justice politisée ?

A.-C. B. : La défense qui a été choisie par les accusés dès le début du procès est celle d’une « injustice de la justice » motivée par des considérations politiques. Or, il existe une procédure de récusation des juges valable pour tous les citoyens. Si vous croyez en la partialité d’un juge qui va vous juger et que vous pouvez le documenter, vous pouvez obtenir que ces juges ne soient pas désignés dans votre affaire.

Or, le RN n’a pas utilisé ce recours, alors même qu’il avait utilisé presque toutes les exceptions de procédure possibles sur une période de dix ans ! Cela ne rend pas très crédible l’argumentation de juges politisés.

Les magistrats et la justice ont été critiqués par une large partie de la classe politique. Comment recevez-vous ces critiques ?

A.-C. B. : Notre système d’État de droit, impliquant une justice indépendante, fonctionne depuis 1791 dans un climat de défiance mutuelle entre le juge et le politique. La justice, quand elle se prononce sur les affaires politiques, est toujours soupçonnée d’ingérence par les politiques ; son intervention est vécue comme une forme d’empêchement. Cette relation n’a jamais été clarifiée ni apaisée.

Durant la période récente, il y eut un temps où le droit pénal ne pouvait pas pénétrer la vie politique. C’était les affaires Balkany et Dassault, qui étaient protégés par le bureau de leurs assemblées contre toute poursuite.

Puis vers 2013, c’était le vœu des citoyens, il y a eu un basculement avec la création d’un Parquet national financier ou encore de la Haute Autorité pour la transparence dans la vie publique. Les partis et responsables politiques, dont Marine Le Pen à l’époque, ont accepté plus de transparence et ont légiféré en ce sens. La loi Sapin 2 comme de nombreuses législations – jusqu’à aujourd’hui – ont ainsi visé à moraliser la vie politique.

Le Conseil constitutionnel s’est même emparé de cette question de la moralisation politique. Dans la décision QPC du 28 mars 2025, il a estimé que cette « exigence de probité et d’exemplarité des élus et la confiance des électeurs dans leurs représentants » étaient associées à la sauvegarde de l’ordre public (celui-là même que le juge a retenu pour motiver l’exécution provisoire de la peine d’inéligibilité) qui a donc une valeur constitutionnelle. Un chemin considérable a donc été parcouru !

Pourtant, on constate aujourd’hui une véritable inversion par régression. La remise en cause de la législation sur l’inéligibilité portée par le RN l’est aussi par de nombreux responsables politiques, dont Gérard Larcher, Éric Ciotti, Jean-Luc Mélenchon, ou encore par le premier ministre François Bayrou. Cela est très paradoxal quand on pense que François Bayrou, par ailleurs jugé pour une affaire de détournements de fonds publics européens, est l’homme qui a adopté la loi de moralisation de 2017 – peut-être la plus dure d’ailleurs en termes d’inéligibilité dans notre droit.

Peut-on parler de menace sur l’État de droit ?

A.-C. B. : Oui, une menace très sérieuse existe. Jusqu’alors, le RN était assez seul pour dire que la justice était politique. Cet argument se diffuse désormais sur tous les bords de l’échiquier politique.

L’État de droit et la démocratie sont les acquis historiques les plus fragiles puisqu’ils reposent sur un sentiment : celui de la confiance. À partir du moment où le peuple perd confiance, à partir du moment où vous n’estimez plus que ces corps élus vous représentent, il y a un risque de défiance et de changements profonds.

Il suffit d’une majorité suffisamment forte pour, d’un trait de plume, supprimer le Conseil constitutionnel, ou pour diminuer le pouvoir des juges en changeant les infractions.

L’État de droit, pour lequel on se bat depuis 1789, est fragile.

Il y a un discours – et des actes – contre l’État de droit portés par certains politiques, à l’étranger, à l’instar de Trump, mais aussi de Bolsonaro ou d’Orban.

Une telle approche aurait été inaudible il y a quelques années, mais ce discours se diffuse en France. Il rend possible une bascule de l'État de droit.

A contrario, on pourrait citer des pays où l’État de droit et le respect de la justice semblent bien ancrés.

A.-C. B. : Un tel système de mœurs existe dans les républiques scandinaves. Il n’y a même pas besoin de moraliser la vie politique avec du droit pénal financier puisque le système de valeurs retenu par la société conduit à ce que le personnel politique se doit d’être irréprochable pour être élu. Si une affaire éclatait, l’élu démissionnerait de lui-même ou y serait poussé par son parti, dans le seul but de conserver le capital de confiance des électeurs. C’est peut-être cela qui manque à la politique française : non pas de nouvelles lois de moralisation, mais une moralisation du personnel politique par lui-même.

La faible mobilisation pour défendre Marine Le Pen, dimanche 6 avril, et les sondages concernant son jugement ne montrent pas des Français outrés par la décision des juges – au contraire…

A.-C. B. : Effectivement. J’aime imaginer que le peuple se sent en cohérence avec son droit et qu’il s’estime suffisamment protégé avec des infractions punies et par des juges qui appliquent les lois et qui représentent la démocratie. L’inversion des valeurs proposée par Marine Le Pen, qui affirme que la justice menace la démocratie, ne rencontre pas forcément son public.

La France reste l’héritière des Lumières. Une offensive forte existe contre cette culture qui résiste encore aux tentations du populisme même lorsqu’il s’applique à la justice.


Propos recueillis par David Bornstein.

The Conversation

Anne-Charlène Bezzina ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

08.04.2025 à 16:42

Droits de douane et nostalgie impériale : la vision économique très politique de Donald Trump

Jérôme Viala-Gaudefroy, Spécialiste de la politique américaine, Sciences Po

La confrontation avec le reste du monde, adversaires et alliés confondus, est au cœur de la politique de Donald Trump. Sa salve de droits de douane doit être comprise à cette aune.
Texte intégral (2039 mots)

La proclamation tonitruante par Donald Trump, le 2 avril dernier, d’une hausse brutale des tarifs douaniers à l’encontre de très nombreux pays du monde ne répond pas uniquement à une (très discutable, par ailleurs, comme l’atteste son revirement partiel annoncé quelques jours plus tard) logique économique. Elle s’inscrit pleinement de la vision du monde éminemment conflictuelle chère au locataire de la Maison Blanche.


Depuis son retour à la Maison Blanche, Donald Trump a lancé une nouvelle salve de droits de douane sans précédent aussi bien par leur ampleur que par leurs cibles. Alliés traditionnels et rivaux stratégiques sont désormais logés à la même enseigne, dans ce qui constitue un tournant radical de la politique commerciale états-unienne. Ce durcissement n’est cependant pas une rupture totale : il prolonge les orientations de son premier mandat en les amplifiant et en affichant une volonté de toute-puissance sans limites.

Comme en 2017, quand il parlait du « carnage américain », Trump brosse un portrait apocalyptique des États-Unis, réduits selon lui à une nation « pillée, saccagée, violée et spoliée ». À ce récit dramatique s’oppose une double promesse : celle d’une « libération » et d’un « âge d’or » restauré.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les droits de douane deviennent ainsi les armes d’une croisade nationaliste où chaque importation est une atteinte à la souveraineté, et chaque exportation un acte de reconquête.

Une vision autoritaire du commerce international

Cette doctrine commerciale de Trump s’inscrit dans une stratégie plus large caractérisée par la confrontation, la centralisation du pouvoir exécutif et une conception néo-impériale de l’économie mondiale. Loin de viser uniquement la protection de l’industrie nationale, ses mesures tarifaires cherchent à refaçonner l’ordre global selon sa propre grille de lecture des intérêts de son pays. Ce deuxième acte de la révolution trumpiste est moins une répétition qu’une accélération : celle d’un projet autoritaire fondé sur le rejet du multilatéralisme – comme en témoigne le mépris total de l’administration actuelle à l’égard de l’Organisation mondiale du commerce – et la glorification d’une souveraineté brute.

Les justifications chiffrées de ces politiques semblent à la fois fantaisistes et révélatrices. Les méthodes de calcul avancées – la division du déficit commercial bilatéral par le volume des importations – servent d’abord à frapper les pays avec lesquels les États-Unis ont un déficit commercial. Officiellement, trois objectifs sont visés : réduire ces déficits, relocaliser la production et accroître les recettes fédérales.

Mais cette trilogie économique masque une visée politique plus profonde : renforcer l’autorité présidentielle et imposer un ordre international fondé sur la domination plutôt que sur la coopération.

L’arme tarifaire, outil de pouvoir et de communication

L’expérience du premier mandat de Trump a montré les limites de cette stratégie. La guerre commerciale contre la Chine, en particulier, a provoqué une hausse des prix pour les consommateurs, désorganisé les chaînes d’approvisionnement et lourdement pénalisé les exportateurs agricoles. Une étude a estimé que ce sont les consommateurs états-uniens qui ont absorbé la majorité de ces coûts, avec une augmentation moyenne de 1 % des prix des biens manufacturés.

Trump n’est pas un chef d’État dont l’action s’inscrit dans le cadre du multilatéralisme. Il agit en seigneur solitaire, distribuant récompenses et sanctions au gré de ses intérêts politiques, voire personnels. Les droits de douane deviennent alors autant des messages médiatiques que des outils économiques. Présentés comme des « tarifs réciproques », ils construisent une narration simplifiée et percutante : celle d’un justicier qui redresse les torts infligés à des citoyens trahis par le libre-échange.

Ce récit est particulièrement populaire chez les ouvriers du secteur industriel, comme l’automobile. Il permet de désigner des coupables comme la Chine, l’Europe, ainsi que les élites nationales qui ont soutenu le libre-échange. Il transforme de fait le commerce en affrontement moral. Il ne s’agit plus de négocier mais de punir. Dans cette logique, la hausse spectaculaire des tarifs douaniers ne relève plus de l’économie, mais devient une question de souveraineté voire de puissance symbolique.

D’une obsession personnelle à une doctrine d’État

Ce protectionnisme n’a rien d’improvisé : il s’inscrit dans une obsession de longue date chez Donald Trump. En 1987, il dénonçait déjà les excédents commerciaux avec le Japon et appelait à imposer des droits de douane significatifs à Tokyo. Il parlait d’escroquerie et exprimait une forme de paranoïa face à l’idée que les États-Unis puissent être humiliés ou lésés. Cette attitude révèle sa volonté tenace de reprendre l’avantage, de « gagner » dans un monde qu’il perçoit comme fondamentalement conflictuel et hostile. C’est l’une des rares constantes chez Trump, qui n’est pas un idéologue, et qui, sur bien d’autres sujets, n’hésite pas à opérer des revirements spectaculaires.

Désormais, tout devient enjeu de souveraineté : terres rares, minerais stratégiques, données, routes maritimes. Cette vision rappelle le tournant impérialiste de la fin du XIXe siècle, notamment la présidence McKinley (1897-1901), que Trump a d’ailleurs célébrée lors de son discours d’investiture.

C’est dans cette logique qu’il faut comprendre certaines initiatives provocatrices : volonté d’acheter le Groenland, pressions sur le Canada pour accéder à ses ressources, ou encore intérêts miniers en Ukraine. Une idée implicite s’impose : les ressources sont limitées, et il faut s’assurer une part maximale du gâteau avant qu’il ne disparaisse. Dans cet univers concurrentiel perçu comme un jeu à somme nulle — quand il y a un gagnant, c’est qu’il y a forcément un perdant —, la domination remplace la coopération.

Vers un mercantilisme techno-nationaliste

Dans cette logique, la concurrence devient une menace à neutraliser plutôt qu’un moteur de progrès. L’objectif n’est pas d’élever la compétitivité des États-Unis, mais d’étouffer celle des rivaux. La vision qui préside à cette politique n’est plus celle d’un État démocratique jouant plus ou moins selon les règles du marché mondial, du moins dans le discours, mais celle d’une entreprise cherchant ostensiblement à imposer son monopole.

Ce virage autoritaire trouve un écho dans l’univers intellectuel trumpiste. Peter Thiel, mentor du vice-président J. D. Vance, affirme par exemple que « le capitalisme et la concurrence sont opposés », plaidant pour la suprématie des monopoles. Ainsi, les coupes drastiques dans l’appareil d’État fédéral et les dérégulations ne sont pas justifiées par une foi dans le libre marché, mais par un désir de contrôle et d’hégémonie.

L’objectif n’est plus d’intégrer les flux mondiaux, mais de les contourner. Il s’agit de construire une forme d’autarcie impériale, où l’Amérique dominerait une sphère d’influence fermée, protégée de la concurrence. Ce mercantilisme contemporain ne parle plus d’or ou d’argent, mais de données, d’infrastructures, de dollars et de cryptomonnaie. Il troque la coopération contre la coercition.

Vers un ordre international autoritaire ou un désastre politique ?

L’annonce du 2 avril 2025 ne peut être réduite à une mesure économique. Elle constitue un acte politique majeur, un jalon dans l’édification d’un nouvel ordre mondial fondé sur la force et la loyauté, au détriment du droit et de la coopération.

La continuité avec le premier mandat est claire. Mais l’ampleur, la radicalité et la centralisation du pouvoir marquent une rupture nette. D’ailleurs, Trump considère plus que jamais l’État comme sa propriété (ou son entreprise) personnelle, une forme de patrimonialisme. Le président impose un modèle autoritaire, où le commerce est une arme dans une guerre froide mondiale, nourrie par la peur du déclin et l’obsession du contrôle. Dans ce contexte, la prospérité cesse d’être un horizon collectif pour devenir un privilège réservé aux puissants.

Une telle dynamique pourrait se révéler politiquement explosive selon la résistance de Donald Trump à la chute des marchés financiers et à une probable inflation qui risquent de fragiliser le pouvoir exécutif.

Si, à l'issue de la période de 90 jours de suspension des droits de douane à laquelle il s'est résolue le 9 avril, il persiste dans son intransigeance malgré une baisse déjà sensible de sa popularité, les élus républicains au Congrès pourraient, sous la pression de leur base et de leurs donateurs, reprendre leur rôle de contre-pouvoir. Déjà, les premières critiques internes émergent, tandis que monte une colère populaire encore diffuse, mais palpable, contre le pouvoir.

The Conversation

Jérôme Viala-Gaudefroy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

08.04.2025 à 16:42

Les diplômes ont-ils perdu de leur valeur ?

Marie Duru-Bellat, Professeure des universités émérite en sociologie, Centre de recherche sur les inégalités sociales (CRIS), Sciences Po

La profession qu’exercent les actifs ne correspond que dans un tiers des cas au domaine de formation qu’ils ont suivie. Dès lors, quelle valeur accorder exactement aux diplômes ?
Texte intégral (1789 mots)

La profession qu’exercent les actifs ne correspond que dans un tiers des cas au domaine de formation qu’ils ont suivie. Dès lors, quelle valeur accorder exactement aux diplômes ?


Dans une société où l’égalité entre tous est un principe fondamental, mais où les « places » sont dotées d’avantages très inégaux (en termes de salaires, de conditions de travail…), il s’agit de répartir celles-ci de sorte que la hiérarchie des emplois soit considérée par tous comme légitime. C’est un véritable challenge.

On s’accorde sur le fait qu’allouer les postes selon les compétences est à la fois juste et efficace. Mais évaluer la compétence n’a rien d’évident et l’institution scolaire se voit confier cette responsabilité, concrétisant ses jugements par un diplôme.

On peine à imaginer comment l’on procéderait sans ce classement par diplômes : que les places soient héritées ou tirées au sort, la société paraîtrait encore plus injuste… Cependant, ces verdicts scolaires restent-ils pertinents dans un contexte où le niveau des qualifications progresse bien plus vite que celui des emplois ?

Le diplôme comme garantie de qualification ?

Les diplômes sont censés garantir la « vraie » valeur professionnelle des personnes. Tout particulièrement en France. À la fin des années 1960, des experts ont construit des nomenclatures appariant le niveau des études et la qualification des emplois. Même si elles ont été revues en 2019, ces nomenclatures valent encore aujourd’hui pour l’accès aux concours, mais aussi comme référence commune, invitant à considérer comme normal qu’on accède à des emplois de cadres à partir du niveau II (licence, aujourd’hui niveau 6), qu’on devienne employé ou ouvrier qualifié quand on est doté d’une formation de niveau V (CAP-BEP, aujourd’hui niveau 3), etc.

Ce faisant, on suppose implicitement que certains types de formation sont nécessaires pour occuper un poste, que les années d’études dotent de compétences directement professionnelles, avec pour conséquence que les personnes sans diplôme ne pourraient occuper que des postes étiquetés comme non qualifiés. Cette démarche ancre dans les esprits l’idée qu’un diplôme qualifie forcément pour un emploi, qu’un diplôme de tel niveau débouche sur un emploi de tel niveau, selon un « adéquationnisme » démenti par les faits.


Chaque samedi, un éclairage original et décalé (articles, quiz, vidéos…) pour mieux comprendre le monde qui nous entoure. Abonnez-vous gratuitement dès aujourd’hui !


En effet, le décalage important entre l’élévation spectaculaire des niveaux de formation et la croissance moins marquée du niveau de qualification des emplois ébranle la validité de ces relations d’équivalence entre diplôme et emploi. Ce qu’on obtient avec un diplôme, sa valeur marchande donc, tend donc à baisser avec le temps, selon l’abondance de ce diplôme au regard des emplois censés y correspondre.

Et du fait de l’élévation du niveau de diplôme, les mêmes emplois sont pourvus à des niveaux de diplômes plus élevés : en trente ans, le pourcentage de personnes dotées d’au moins un bac est passé, par exemple, de 0 à 23 % chez les ouvriers non qualifiés. Peut-on vraiment considérer ces emplois comme non qualifiés, et les personnes sans diplôme comme dépourvues de toute qualité ?


À lire aussi : 80 % de bacheliers par génération : un objectif atteint mais une démocratisation « ségrégative » ?


Par ailleurs, moins de la moitié des étudiants s’insère dans son domaine de formation et, dans l’ensemble de la population, la profession exercée ne correspond à la formation reçue que dans un tiers des cas.

Ces décalages effritent la confiance que l’on peut avoir envers les diplômes. Certes, ils restent « rentables » : le taux de chômage diminue au fur et à mesure que le diplôme s’élève et, inversement, le salaire est plus important. Et c’est bien pour cela que la course aux parcours scolaires qui débouchent sur les plus rentables d’entre eux est si féroce…

Mais cela interroge sur ce dont atteste vraiment le diplôme : une compétence technique, un « capital humain », comme le voudraient nombre d’économistes ? Ou serait-ce avant tout, comme le défendent certains autres, le signal d’un ensemble relativement flou de qualités pas forcément garanties par leur diplôme : dynamisme, motivation, ou plus largement tout ce qu’on désigne à présent sous l’étiquette de « soft skills »

Face à des jeunes que les diplômes, plus répandus, permettent moins de distinguer, les employeurs valorisent une gamme plus ouverte de compétences ; ce peut être aussi pour tenir compte des évolutions de certains emplois. En tout cas, la valorisation des compétences spécifiques à certaines tâches ou situations professionnelles brouille une fois de plus l’adéquation entre diplôme et qualification qui semblait en quelque sorte garantie.

Le diplôme comme gage de reconnaissance…

Mais la défense de la valeur des diplômes et de l’adéquation entre la formation et l’emploi n’est pas seulement une rhétorique économique ; elle sert les intérêts corporatistes de certains groupes professionnels. Sans qu’il soit besoin de faire des conjectures sur ce que le diplôme est censé certifier, celui-ci fonctionne simplement, dans de nombreux cas, comme une exigence formelle requise pour accéder à un emploi.

Nécessaire et suffisant, le diplôme constitue alors à la fois une barrière et une garantie pour des droits et des avantages négociés par les milieux professionnels. Il protège ceux qui sont dotés du diplôme adéquat et exclut tous les autres. Le contenu « technique » précis du diplôme importe moins que sa valeur distinctive et exclusive.

Cela permet de préserver la cohésion du groupe professionnel en recrutant des personnes formées à « la même école », ce qui garantit une complicité, gage d’une proximité culturelle et d’une confiance réciproque, des considérations sociales d’autant plus importantes que les compétences techniques exigées par les postes sont vagues.

Au-delà de sa valeur technique, fonctionnelle (qui peut être plus ou moins importante), le diplôme a une valeur symbolique elle aussi plus ou moins grande. La valeur du diplôme, c’est toujours plus ou moins la valeur du diplômé : c’est ainsi que la valeur du diplôme au moment de l’insertion est modulée par l’origine sociale ou le genre. Ainsi, les jeunes filles dotées d’un diplôme dans des professions considérées comme « masculines » auront souvent du mal à faire reconnaître leur compétence. Autre exemple : on recrutera un polytechnicien même si ses connaissances élevées en mathématiques ne sont d’aucune utilité, parce qu’on sait la sélection qu’il a surmontée. C’est ce que Pierre Bourdieu appelait « la fonction de consécration du diplôme ».

Par conséquent, la valeur du diplôme n’est pas toujours indexée sur des compétences, mais autant ou plus sur les qualités tout autres qu’il est censé certifier…


À lire aussi : « L’emprise scolaire » : les diplômes ont-ils trop de poids sur nos vies ?


C’est ce halo de représentation qui, au-delà de la valeur technique du diplôme, lui donne une valeur symbolique. Et comme pour tout bien symbolique, cette valeur n’existe et ne se maintient que parce qu’on y croit, tant qu’on y croit…

D’un côté, la valeur marchande du diplôme sur le marché du travail est relativement incertaine, et dépend, outre du rapport entre profil des diplômés et profil des postes, de la conjoncture économique. De l’autre, sa valeur symbolique s’en trouve elle aussi effritée. Mais le diplôme n’en certifie pas moins, jusqu’à aujourd’hui et dans notre pays, la valeur de la personne tout en légitimant la hiérarchie sociale.

Non sans « dégâts collatéraux », notamment une course aux diplômes qui rend foncièrement utilitaristes les élèves en écrasant la dimension éducative des études et qui conduit à considérer comme sans valeur toutes les compétences autres que scolaires dont font preuve, dans leur travail, ces « non qualifiés » que l’école a jugé incompétents…

À cet égard, la montée de la notion de compétence et la multiplication des formations sur le tas ou au fil des carrières, qui désagrègent en quelque sort l’idée même d’une qualification valable pour la vie et quelles que soient les tâches (ce que prétendait garantir le diplôme), constituent des évolutions intéressantes. Sans imaginer qu’on puisse se passer de diplômes, il faut sans doute relativiser leur emprise.

The Conversation

Marie Duru-Bellat ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

08.04.2025 à 16:38

US v. them: Trump’s tariffs and his economic vision of dominance

Jérôme Viala-Gaudefroy, Spécialiste de la politique américaine, Sciences Po

Confrontation with the rest of the world, enemies and allies alike, is at the heart of Donald Trump’s politics. His tariffs must be understood in this way.
Texte intégral (1843 mots)

US President Donald Trump’s April 2 announcement of sweeping new tariffs against numerous countries isn’t just driven by (already questionable) economic reasoning. It reflects the deeply adversarial worldview embraced by the current occupant of the White House.

Since returning to the presidency, Trump has unleashed a new wave of tariffs unprecedented in scope. Traditional allies and strategic rivals are now under the same banner, marking a radical shift in Washington’s trade policy that hardens positions taken in Trump’s first term, amplifying them with an unbridled display of power.

Just as in 2017, when he spoke of “American carnage”, Trump paints an apocalyptic picture of the US, a country he claims has been “looted, pillaged, raped and plundered by nations near and far, both friend and foe alike”. This dramatic narrative is met with a double promise of “liberation” and the restoration of a new “golden age”.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


Tariffs thus become the weapons of a nationalist crusade, where every import is an attack on sovereignty, and every export a symbolic act of reconquest.

An authoritarian vision of international trade

Trump’s trade doctrine is part of a broader strategy defined by confrontation, centralised executive power and a neo-imperial view of the global economy. His tariff measures go far beyond protecting domestic industry: they aim to reshape the global order according to his own interpretation of national interest. This second act of the Trumpist revolution is not a rerun, but an escalation – one based on authoritarian ambitions, the rejection of multilateralism (as seen in the administration’s utter disdain for the World Trade Organization, and the glorification of raw sovereignty.

The supposed economic logic behind these policies is as flimsy as it is revealing. The chosen calculation method – dividing the bilateral trade deficit by import volumes – is little more than a blunt instrument to go after countries the US runs a deficit with. Officially, it’s about cutting trade deficits, bringing jobs back and raising revenue. But the real agenda runs deeper: consolidating presidential power and replacing global cooperation with a doctrine of economic domination.

Tariffs as tools of power and messaging

Trump’s first term has shown the limits of this strategy. The trade war with China, in particular, triggered price hikes for consumers, disrupted supply chains and severely hurt US agricultural exporters. One study found that US consumers bore the brunt of these costs, with an average 1% increase in the prices of manufactured goods.

Trump doesn’t behave like a traditional head of state operating within a multilateral framework. He acts more like a lone ruler, dispensing rewards and punishments to serve his political – or even personal – agenda. Tariffs, in this context, function as much as media stunts as they do economic instruments. Branded as “reciprocal tariffs”, they construct a simplified and powerful narrative: that of a crusader who corrects the wrongs inflicted on citizens betrayed by free trade.

This message hits home with workers in industries like auto manufacturing. It offers up convenient villains – China, Europe, and the domestic elite who support free trade. Trade policy is no longer about negotiation; it’s about retribution. In this worldview, the spike in tariffs isn’t just an economic manoeuvre – it’s a statement of sovereignty, even of symbolic power.

From personal obsession to state doctrine

Trump’s protectionism is not an overnight development, but part of a long-standing obsession. As early as 1987, he railed against Japan’s trade surpluses with the US and called for steep tariffs on Tokyo. He spoke of the US being “ripped off” and showed a near-paranoid fear of national humiliation or betrayal. At its core, this reflects a deep-seated drive to reassert dominance – to “win” in a world he views as inherently hostile and conflictual. It’s one of the few constants in Trump’s worldview, given his lack of ideological consistency and frequent U-turns on other issues.

Today, everything is reframed as a question of sovereignty: rare earths, strategic minerals, data flows, shipping lanes. This worldview echoes the imperialist pivot of the late 19th century, especially under US president William McKinley (1897–1901) – a figure Trump pointedly invoked in his second inaugural address.

This logic also helps explain some of his most provocative gestures: stating he wants to buy Greenland, putting pressure on Canada in hopes of access to its natural resources, and eyeing Ukraine’s mining potential. The underlying idea is blunt and unmistakeable: resources are finite, and you’d better grab your share before someone else does. In this zero-sum game, where one country’s gain is another’s loss, cooperation gives way to conquest.

The rise of techno-nationalist mercantilism?

In this worldview, competition isn’t seen as a source of innovation – it’s a threat to be eliminated. The aim isn’t to make America more competitive, but to sabotage the competitiveness of others. The US no longer presents itself – even rhetorically – as a democratic nation playing by the rules of global markets. Instead, it acts like a corporation determined to secure monopoly power.

This authoritarian shift resonates with key Trumpist thinkers. Peter Thiel, a mentor to US Vice President JD Vance, famously declared that “capitalism and competition are opposites”, championing monopoly as the ultimate goal. Cuts to the federal government and sweeping deregulation aren’t about unleashing free markets – they’re about consolidating control and asserting dominance.


À lire aussi : Trump protectionism and tariffs: a threat to globalisation, or to democracy itself?


The aim now is to sidestep global systems, not to integrate them – to build an imperial-style autarky where the US controls a closed sphere of influence, shielded from outside competition. This is mercantilism reimagined for the digital age: instead of gold and silver, the currency is data, infrastructure, dollars and crypto currency. Cooperation gives way to coercion.

Toward an authoritarian international order – or a political disaster?

The April 2 announcement is far more than an economic decision. It’s a bold political statement – a deliberate move toward a new world order rooted in strength and loyalty, rather than law and cooperation.

There’s undeniable continuity with Trump’s first term. But this time, the scale, radicalism and concentration of power represent a decisive escalation. Trump increasingly treats the state as his personal property – or a private business – what some have aptly called “patrimonialism”. He is shaping an authoritarian model in which trade becomes a weapon in a new kind of global cold war, driven by fear of decline and an obsession with control. In this logic, prosperity is no longer a shared national goal – it’s a privilege reserved for those in power.

This trajectory could become politically explosive, especially as Trump faces falling markets and looming inflation – both threatening a weakening of his presidency. If he doubles down despite sinking approval ratings, Republican lawmakers may be forced – under pressure from their voters and donors – to finally push back and reassert their constitutional role. Early signs of dissent within the Republican Party are already surfacing, alongside public anger that remains scattered – but is growing harder to ignore.

The Conversation

Jérôme Viala-Gaudefroy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

08.04.2025 à 16:35

Librairies françaises : un rôle culturel essentiel dans une économie instable

David Piovesan, Maître de conférences HDR en sciences de gestion, Université Jean Moulin Lyon 3

Avec le Festival du livre du Paris, qui se tiendra au Grand Palais, du 11 au 13 avril 2025, les projecteurs sont braqués sur l’état de santé du secteur du livre. C’est l’occasion de faire le point sur les librairies.
Texte intégral (1837 mots)

Désormais rebaptisé Festival du livre de Paris, le Salon du livre va se tenir du 11 au 13 avril dans la capitale. L’occasion de prendre le pouls du secteur de la librairie. L’effet Covid semble passé et les libraires doivent faire face à un redoutable effet ciseau. Dans ce commerce pas comme les autres, cela menace leur viabilité financière, mais aussi, pour de nombreux indépendants du secteur, leur raison d’être.


Avec le Festival du livre du Paris, qui ouvre les portes du Grand Palais, du 11 au 13 avril 2025, les projecteurs sont évidemment braqués sur l’état de santé du secteur du livre. C’est l’occasion de faire le point sur les librairies. En déclin, pas rentables, résilientes, résistantes, fragiles, essentielles, tous les qualitatifs ont été utilisés ces dernières années pour qualifier les librairies. Mais où en sont-elles vraiment ?

En juin dernier, lors des Rencontres nationales de la librairie à Strasbourg, Xerfi a comme chaque année publié les principaux résultats de son étude sur la santé économique et financière des librairies. La tonalité de ces résultats a particulièrement détonné.

Le commerce le moins rentable de France

Alors que la période qui a suivi la pandémie (2021 et 2022) avait pu laisser croire que le rebond n’était pas que conjoncturel et que l’embellie alors observée s’installerait durablement, les prévisions du cabinet xerfi ont douché l’ambiance de la salle remplie de librairies lors de la présentation en juin 2024.

Avec une rentabilité moyenne de 1 %, la librairie continue en effet à être le commerce le moins rentable de France, loin derrière l’optique, la maroquinerie ou la parfumerie. Les principaux ratios de gestion sont tous à la peine : le chiffre d’affaires ralentit, les achats et charges externes (transport, banques, loyers notamment) et la masse salariale ont augmenté, le résultat brut d’exploitation atteint son plus bas niveau depuis 2018. Les auteurs de l’étude prévoyaient alors l’installation dans le temps d’un effet ciseau (diminution d’activité et augmentation des charges) conduisant à la fragilisation du tissu de librairies, synonyme de rentabilité négative et de fermetures.

Ces perspectives ont été abondamment reprises par les médias, soulignant les tensions sur la trésorerie, la grise mine des librairies et leur économie sur le fil du rasoir.


À lire aussi : À quoi ressembleront les librairies de demain ?


Un tissu fragile

Qu’en est-il finalement des librairies au printemps 2025, presque un an après ces prévisions alarmantes ? À Riga (Lettonie), où les libraires de tous les pays se réunissaient en mars dernier pour leur conférence annuelle, les libraires français venus en délégation évoquent le climat d’inquiétude qui ouvre chaque réunion depuis le début d’année.

Cette perception se confirme dans les chiffres, quelle que soit leur source.

L’observatoire de la librairie montre une année 2024 en légère régression (environ -1 %) et un début d’année 2025 franchement au ralenti (environ -3 %). La mise à jour de l’étude Xerfi en février 2025 indique que les grandes librairies et les chaînes résistent mieux que les librairies de moindre envergure. Quand les premières ont vu leur activité diminuer de 1 % en 2024 (-2 % prévus pour 2025), les secondes ont déjà subi une baisse de 2 % en 2024 (-4 % prévus en 2025).

Toutes subissent la fragilisation de l’activité, mais les moins grandes sont davantage exposées. Les prévisions économiques sont elles aussi pessimistes : avec une activité qui stagne voire régresse et des charges qui augmentent, l’effet ciseau annoncé est manifeste. Fatalement, les résultats d’exploitation se réduisent encore, bien qu’ils soient déjà structurellement faibles.

Alors que les librairies ont vu leurs parts de marché dans la vente de livres se relever depuis une dizaine d’années selon les chiffres du ministère de la culture (passant de 21,5 % en 2013 à 23,7 % en 2023), elles sont plus que jamais en péril. Contrairement aux prévisions du début des années 2000, les librairies ont réussi à s’adapter aux nouvelles conditions de l’activité en développant notamment une activité hybride et omnicanale. Mais elles font face, maintenant, à une pression économique très forte qui met en question leur modèle. Leur place à part dans l’économie française résistera-t-elle encore ?

Une année 2025 compliquée

Le contexte de l’année 2025 semble plus que compliqué. Amazon a attaqué le décret d’application de la loi Darcos au Conseil d’État et cherche encore et toujours à lutter contre la régulation publique du secteur. Le changement des règles du jeu du dispositif du Pass culture, depuis le 1ᵉʳ mars, a suscité beaucoup d’inquiétudes de la part des libraires devant les probables pertes d’activité engendrées par les nouvelles modalités.

Le rythme des créations et reprises de librairies de ces dernières années, particulièrement dynamique, signe d’un secteur encore attractif, semble lui aussi ralentir.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Outre ces faits marquants, une autre tendance perturbe le marché du livre et l’activité des librairies : le ralentissement très net des ventes de bande dessinées (BD). Alors que les librairies et l’ensemble des acteurs avaient profité jusque-là de l’explosion des ventes de BD (comics, mangas et BD) particulièrement fortes depuis la pandémie, ce secteur semble être davantage à la peine : l’activité a diminué de 9 % en 2024. Ce ralentissement n’est pas contrebalancé par le rebond des ventes de poésie signalé depuis quelque temps déjà.

Il est difficile à ce stade de vraiment savoir si ce ralentissement relève d’une « turbulence passagère de plus » ou d’un « problème structurel qui va s’enkyster ». Les libraires ont appelé, lors des Rencontres nationales de Strasbourg, à une prise de conscience de tous les acteurs du livre, et notamment des éditeurs, pour revaloriser les conditions commerciales. Un an après, où en sont les avancées ?

La promotion de la diversité culturelle

Les stocks des librairies atteignent un niveau bas, autour de 14,4 % pour 2025 : c’est le niveau le plus bas depuis 2016 (en dehors des deux années 2021 et 2022 liées à la pandémie). C’est certainement l’effet de l’optimisation de la gestion des librairies pour s’adapter aux contraintes économiques. Or, le stock d’une librairie – qu’on appelle aussi le fonds d’une librairie – participe aussi de son identité, son ADN culturel et reflète son rôle culturel.

Pourtant, malgré ces enjeux économiques et financiers prégnants, la librairie continue à jouer un rôle actif d’intermédiaire culturel. Une étude que nous avons menée avec Nicolas Guilhot à partir des données de l’Observatoire du syndicat de la librairie française montre ainsi que les libraires font face à un flux de nouveautés dont les chiffres sont étourdissants. Ainsi, le nombre de nouveautés vendues en librairie a augmenté de 4 % depuis 2017, malgré un léger fléchissement depuis la pandémie. Plus de 67 000 nouvelles références ont été vendues en 2023.

2023.

L’ampleur de la production est telle que, en 2023, les librairies ont vendu plus de 46 000 romans différents et 28 000 BD différentes. Pour un libraire travaillant dix années, le nombre de nouveaux romans à lire et connaître est de 53 000, c’est une quantité assez extraordinaire de nouveaux textes auxquels les libraires sont confrontés. Il faut rajouter à cela bien sûr 30 000 BD et 30 000 albums jeunesse, car la vie des libraires ne se limite bien souvent pas à la littérature.

Un rôle culturel et de curation

Et pourtant, face à ce flux énormissime de nouveautés, qualifié par la journaliste Claire Lecœuvre de « gâchis et de danger écologique », les libraires jouent encore un véritable rôle culturel et de curation. Les ventes ne se concentrent pas uniquement sur les nouveautés dites fraîches (de moins de 3 mois) : les ventes de catalogue (supérieures à 2 ans) restent pour la BD et la jeunesse très fortes (entre 44 % et 46 % du total des ventes de ces segments) et moindres mais malgré tout encore dominantes pour la littérature (34 %).

Le poids du catalogue (c’est-à-dire les titres anciens mais toujours intéressants) marque ainsi le travail des libraires pour ne pas subir la « best-sellerisation » et le primat des ventes issues des prix littéraires ou de la pression des médias. Ainsi, malgré des enjeux économiques compliqués et un cycle de production qui favorise les grandes ventes médiatisées, les libraires arrivent à faire vivre des titres à plus faible rotation, portés par des auteurs moins connus et des éditeurs bien souvent indépendants. Ils continuent encore à jouer un rôle en faveur de la diversité culturelle, mais pour combien de temps ?

The Conversation

David Piovesan ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

08.04.2025 à 16:34

Formation professionnelle : bilan mitigé pour le plan d’investissement des compétences

Lisa Colombier, Doctorante en sociologie et en droit, Université de Strasbourg

Aurélien Martineau, Ingénieur de recherche en géographie sociale, Université d'Angers

En 2017, le Plan d’investissement des compétences (PIC) avait pour intention de transformer en profondeur le système de formation en France. Le bilan, en 2025, est mitigé.
Texte intégral (1727 mots)
La Locomotive a davantage permis de proposer des accompagnements sociaux et des parcours individualisés aux publics, qu’une réelle orientation dans des formations qualifiantes ou certifiantes. Matej Kastelic/Shutterstock

En 2017, le Plan d’investissement des compétences (PIC) avait pour intention de transformer en profondeur le système de formation en France, tout en réussissant l’insertion professionnelle des citoyens éloignés de l’emploi. Le bilan en 2025 est mitigé. Étude de cas avec le projet la Locomotive, en Maine-et-Loire et en Alsace, auprès de 2 000 personnes sans emploi, accompagnées pendant dix mois.


En 2017, la ministre du travail Muriel Pénicaud appelle de ses vœux à l’édification d’une société de compétences, afin « d’armer nos concitoyens » face aux défis de l’évolution du marché du travail. Lancé en 2018, le Plan d’investissement dans les compétences (PIC) vise à former, dans toute la France, un million de jeunes éloignés du monde du travail et un million de demandeurs d’emploi peu ou pas qualifiés. Issu du rapport de Jean Pisani-Ferry, il ambitionne de répondre aux demandes des métiers en tension, d’anticiper les besoins en compétences associés aux transitions écologique et numérique.

Ce plan, par l’accompagnement de publics très hétérogènes, vise à agir auprès des personnes « les plus vulnérables ». L’objectif pour le ministère du travail : favoriser leur « inclusion » par l’expérimentation de « nouvelles approches de remobilisation, de développement et de valorisation des compétences de ces publics ». Avec près de 13,8 milliards d’euros de budget, il est piloté par le ministère du travail pour une durée de cinq ans. Structurés en plusieurs axes d’intervention, une grande part des fonds sont alloués à une intervention à l’échelle régionale et à différents dispositifs nationaux, ainsi qu’à des appels à projets expérimentaux nationaux.

Au terme du plan, le bilan est mitigé et critique. C’est ce que relève la Cour des comptes dans son rapport d’évaluation du PIC, publié en janvier 2025.

Un bilan critique

Le constat de la Cour des comptes est cinglant. Elle considère que le PIC n’a pas atteint ses objectifs, car « la société de compétences a été laissée de côté ».

« L’entrée centrée sur la formation et les compétences des publics peu ou pas diplômés a laissé place à une approche plus sociale et globalisante visant les publics éloignés de l’emploi. »


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les travaux de la direction de l’animation de la recherche, des études et des statistiques (Dares) confirment eux aussi ce constat. Ils mettent en exergue que les projets régionaux financés ont rencontré des difficultés de double nature : à la fois liées au « sourcing » dans les formations proposées et aux freins sociaux des publics accompagnés, limitant leur entrée en formation.

L’expérimentation de la Locomotive

L’évaluation de l’une des expérimentations du Plan d’investissement dans les compétences (PIC) montre également les enjeux et limites rencontrés localement par les porteurs de projets.

La Locomotive est lauréate de l’appel à projet 100 % Inclusion. Ce projet est déployé en Maine-et-Loire et en Alsace. Il est porté par un consortium de 33 structures – principalement des associations –, issues des champs de l’emploi-insertion et de l’animation sociale. Il a pour finalité d’accompagner socialement et professionnellement 2 000 personnes sans emploi pendant dix mois.

Le profil de ces personnes est hétérogène : en situation d’isolement, ne recourant pas à leurs droits, citoyens, ne bénéficiant d’aucun accompagnement socioprofessionnel, jeunes à la recherche d’un projet professionnel, etc. Les accompagnements réalisés représentent un « espace-temps » de socialisation et d’entraide pour réinvestir un collectif et retrouver un rythme au quotidien. De facto, les temps collectifs se concentrent en partie sur les freins à l’emploi en complément de rendez-vous individuel avec un professionnel référent.

Accompagnement social davantage que professionnel

Dans le cadre de son financement, la Locomotive est soumise à une évaluation en partie liée aux taux d’insertion professionnelle – 500 personnes – ou d’entrée en formation des publics – 200 personnes. Ces objectifs ont été menés à terme.

Cependant, les acteurs professionnels font part de la complexité qu’entraînent les enjeux d’évaluation spécifique à ce programme. Lesquels ? L’insertion professionnelle des publics à court terme – parcours de dix mois – et l’accompagnent des publics dont l’employabilité ne semble envisageable qu’à moyen, voire long terme, au regard des difficultés rencontrées.

Ces enjeux font écho au constat dressé par la Cour des comptes relative à l’approche sociale du PIC. La Locomotive a davantage permis de proposer des accompagnements sociaux et des parcours individualisés aux publics, qu’une réelle orientation, voire un engagement, dans des actions de formations qualifiantes ou certifiantes des publics.

Challenger France Travail, CAP Emploi et les missions locales

Au travers du PIC, l’État a eu la volonté d’ouvrir le champ d’intervention de l’insertion professionnelle à de nouvelles structures.

L’idée est de faire émerger de nouvelles pratiques d’accompagnement innovantes des personnes éloignées du marché du travail. Il s’agissait en creux de « challenger les trois opérateurs historiques des politiques d’aide à l’insertion professionnelle », c’est-à-dire France Travail, CAP Emploi et les missions locales.

Les structures participant à la Locomotive sont intervenues dans les territoires d’actions en addition à l’existant. Les antennes locales de France Travail et de CAP Emploi n’ont pas été impliquées dans les actions mises en œuvre. En agissant en « additionnalité », il a été nécessaire aux acteurs impliqués d’agir sans entrer en concurrence avec les opérateurs du service public de l’emploi et les dispositifs préexistants. Conclusion : les accompagnements réalisés sont devenus plus complexes. Le consortium a également peiné à mobiliser et intégrer au projet le tissu et les acteurs économiques locaux pourtant en demande de main-d’œuvre.

Limites des appels à projet

La dimension expérimentale du PIC a révélé plusieurs limites. Premièrement, les financements temporaires ont engendré une vision à court terme du projet, limitant ainsi l’engagement de certaines structures. La majorité d’entre elles ont recruté des professionnels en contrat à durée déterminée (CDD) pour l’accompagnement, entraînant une rotation importante des personnels. Cette précarité a eu des répercussions sur les accompagnements, qui nécessitent une présence durable des intervenants pour établir une relation de confiance avec les personnes accompagnées.

Deuxièmement, à la fin de l’expérimentation, les personnes accompagnées ne bénéficient plus du projet et de ses actions sur les territoires. La logique du PIC, basée en partie sur des appels à projets, oblige les structures de la Locomotive à anticiper la fin des financements. Elles doivent rechercher de nouveaux appels à projets auxquels candidater pour pérenniser les actions. Les structures associatives sont donc en constante recherche de financements, ce qui peut fragiliser leur capacité à inscrire leurs actions dans le temps long et de manière plus durable au sein des territoires.

Ce dernier constat fait écho aux conclusions du rapport du Conseil économique social et environnemental (Cese) sur le financement des associations en 2024. La baisse de la part des subventions, la hausse des commandes publiques et les appels à projets poussent les associations à avoir un système de gestion court-termisme entraînant une double conséquence : dénaturation et perte de sens de leur action.

The Conversation

Lisa Colombier est doctorante à l'Université de Strasbourg, ayant reçu des financements de la Caisse des dépôts dans le cadre du plan d'investissement dans les compétences.

Aurélien Martineau est géographe, chercheur associé et membre de l'UMR CNRS ESO-Angers 6590, ayant reçu des financements de la part de la Caisse des dépôts dans le cadre du Plan d'Investissement dans les Compétences.

08.04.2025 à 16:33

Afrique : comment les drones de livraison pourraient transformer les prévisions météo

Jérémy Lavarenne, Research scientist, Cirad

Cheikh Modou Noreyni Fall, Chercheur au Laboratoire Physique de l'Atmosphère et de l'Océan de l'UCAD, Université Cheikh Anta Diop de Dakar

Alors que les données météo manquent cruellement en Afrique, une idée fait son chemin. Celle d’utiliser les drones, de plus en plus nombreux dans les ciels du continent pour livrer par exemple des médicaments.
Texte intégral (2131 mots)
Deux drones dans une zone rurale du Malawi, utilisés, dans le cadre de la coopération financée par l’Union européenne, pour dresser des cartes localisant les infrastructures et ressources vitales les plus proches, destinées à la population locale. Anouk Delafortrie (UE)/Flickr, CC BY

Alors que les données météo manquent cruellement en Afrique, une idée fait son chemin. Celle d’utiliser les drones, de plus en plus nombreux dans les ciels du continent pour livrer par exemple des médicaments. Car ces derniers peuvent fournir également de nombreuses données météo.


Un drone fend le ciel au-dessus des plaines ensoleillées d’Afrique de l’Ouest. Ses hélices vrombissent doucement dans l’air chaud de l’après-midi. Au sol, un agriculteur suit du regard l’appareil qui survole son champ, où ses cultures peinent à se développer, à cause d’un épisode de sécheresse. Comme la plupart des paysans de cette région, il ne peut compter que sur les précipitations, de plus en plus irrégulières et imprévisibles. Ce drone qui passe pourrait-il changer la donne ? Peut-être.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Une véritable explosion des drones de livraison en Afrique

Nés dans divers contextes civils et militaires (photographie, surveillance, cartographie…), les drones connaissent aujourd’hui une expansion fulgurante en Afrique, surtout pour la livraison de produits de première nécessité dans des zones difficiles d’accès. Parmi eux, la société états-unienne Zipline et les Allemands de Wingcopter sont particulièrement actifs au Rwanda, au Ghana, au Nigeria, au Kenya, en Côte d’Ivoire et au Malawi, où ils transportent du sang, des vaccins, des médicaments ou encore du matériel médical.

Mais ce que l’on sait moins, c’est que ces drones portent aussi en eux un potentiel météorologique : au fil de leurs livraisons, et afin de sécuriser les vols et planifier efficacement leur route, ils enregistrent des données sur la vitesse du vent, la température de l’air ou la pression atmosphérique.

Un manque criant de données météo

Pourquoi ces informations sont-elles si précieuses ? Parce qu’en matière de prévision météo, l’Afrique souffre d’un déficit majeur. Par exemple, alors que les États-Unis et l’Union européenne réunis (1,1 milliard d’habitants à eux deux) disposent de 636 radars météorologiques, l’Afrique – qui compte pourtant une population quasi équivalente de 1,2 milliard d’habitants – n’en possède que 37.

Les raisons derrière cela sont multiples : budgets publics en berne, manque de moyens techniques, mais aussi monétisation progressive des données, rendant l’accès à l’information plus difficile. La question du financement et du partage de ces données demeure pourtant cruciale et devient un enjeu majeur pour la sécurité alimentaire et la gestion des risques climatiques.


À lire aussi : Le paradoxe des données climatiques en Afrique de l’Ouest : plus que jamais urgentes mais de moins en moins accessibles


La « collecte opportuniste » de données météo

Dans ce contexte, chaque nouveau moyen de récupérer des informations est un atout. Or, si les drones de livraison africains ont d’abord été pensés pour desservir des lieux isolés, ils permettent aussi des relevés météo dits « opportunistes » effectués en marge de leurs missions, dans une logique comparable aux relevés « Mode-S EHS » transmis par les avions de ligne depuis des altitudes beaucoup plus importantes. Zipline affirme ainsi avoir déjà compilé plus d’un milliard de points de données météorologiques depuis 2017. Si ces relevés venaient à être librement partagés avec les agences de météo ou de climat, ils pourraient ainsi, grâce à leurs vols à basse altitude, combler les lacunes persistantes dans les réseaux d’observation au sol.

La question du partage reste toutefois ouverte. Les opérateurs de drones accepteront-ils de diffuser leurs données ? Seront-elles accessibles à tous, ou soumises à des accords commerciaux ? Selon la réponse, le potentiel bénéfice pour la communauté scientifique et pour les prévisions météorologiques locales pourrait varier considérablement.

Fourni par l'auteur

Les drones déjà destinés à la météo

L’idée d’utiliser des drones destinés aux observations météo n’est pas neuve et rassemble déjà une communauté très active composée de chercheurs et d’entreprises. Des aéronefs sans équipage spécifiquement conçus pour la météorologie (appelés WxUAS pour Weather Uncrewed Aircraft Systems) existent déjà, avec des constructeurs comme le Suisse Meteomatics ou l’états-unien Windborne qui proposent drones et ballons capables de fournir des relevés sur toute la hauteur de la troposphère. Leurs capteurs de pointe transmettent en temps réel des données qui nourrissent directement les systèmes de prévision.

Selon les conclusions d’un atelier organisé par Météo France, ces observations contribuent déjà à améliorer la qualité des prévisions, notamment en réduisant les biais de prévision sur l’humidité ou le vent, facteurs clés pour détecter orages et phénomènes connexes. Pourtant, les coûts élevés, l’autonomie limitée et les contraintes réglementaires freinent encore une utilisation large de ces drones spécialisés.

Or, les appareils de livraison déployés en Afrique ont déjà surmonté une partie de ces défis grâce à leur modèle économique en plein essor, à un espace aérien moins saturé et à une large acceptation sociale – car ils sauvent des vies.

Entretien avec Tony Segales, l’un des scientifiques chargés de la construction et de la conception de drones pour mesurer l’atmosphère et améliorer les prévisions au National Weather Center de Norman, Oklahoma.

Fiabilité des données : des défis mais un fort potentiel

Reste la question de la fiabilité. Même si les drones de livraison captent des variables essentielles (vent, température, pression…), on ne peut les intégrer aux systèmes de prévision qu’à condition de valider et d’étalonner correctement les capteurs. Mais avec des protocoles rigoureux de comparaison et de calibration, ces « données opportunistes » pourraient répondre aux exigences de la météo opérationnelle et devenir un pilier inédit de la surveillance atmosphérique.

Leur utilisation serait d’autant plus précieuse dans les zones rurales, en première ligne face au changement climatique. Là où les stations au sol manquent ou vieillissent, les survols réguliers des drones pourraient fournir des relevés indispensables pour anticiper épisodes secs, orages violents ou autres phénomènes météo extrêmes.


À lire aussi : VIH : et si les drones servaient aussi à sauver des vies ?


L’essor d’initiatives locales

Parallèlement, des initiatives émergent pour démocratiser l’accès à la technologie drone. Au Malawi, par exemple, des projets universitaires (dont EcoSoar et African Drone and Data Academy) montrent que l’on peut construire à bas coût des drones de livraison efficaces à partir de matériaux simples (mousse, pièces imprimées en 3D). Cette démarche ouvre la voie à une potentielle collecte de données météo supplémentaires, accessible à des communautés qui souhaitent mieux comprendre et anticiper les aléas climatiques.

Coopération internationale et perspectives

À une échelle plus large, l’Organisation météorologique mondiale (OMM) mène la campagne Uncrewed Aircraft Systems Demonstration Campaign (UAS-DC), réunissant des opérateurs publics et privés autour d’un même objectif : intégrer les drones dans le réseau mondial d’observation météorologique et hydrologique. Les discussions portent sur la définition des mesures fondamentales (température, pression, vitesse du vent, etc.), et l’harmonisation des formats de données et sur leur diffusion pour que ces mesures soient immédiatement utiles aux systèmes de prévision.

Cependant, ces perspectives ne deviendront réalité qu’au prix d’une coopération poussée. Entre acteurs publics, opérateurs de drones et gouvernements, il faudra coordonner la gestion, la standardisation et, surtout, le partage des informations. Assurer un libre accès – au moins pour des organismes à but non lucratif et des communautés rurales – pourrait transformer ces données en un levier majeur pour la prévision et la résilience climatiques.

Qu’ils soient opérés par de grandes sociétés ou construits localement à moindre coût et s’ils continuent d’essaimer leurs services et de collecter des relevés, les drones de livraison africains pourraient bien inaugurer une nouvelle ère de la météorologie sur le continent : plus riche, plus précise et, espérons-le, plus solidaire – grâce à des modèles économiques soutenables, à l’utilisation déjà effective de données météo embarquées et à la créativité citoyenne qui émerge un peu partout.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

08.04.2025 à 11:51

Des centenaires et supercentenaires toujours plus nombreux : va-t-on repousser les limites de la longévité ?

France Meslé, Démographe, Ined (Institut national d'études démographiques)

Arianna Caporali, Ingénieure de recherche, Ined (Institut national d'études démographiques)

Carlo Giovanni Camarda, Docteur, spécialiste des méthodes de prévision (mortalité, longévité, etc.), Ined (Institut national d'études démographiques)

Jacques Vallin, Directeur de recherche émérite, Ined (Institut national d'études démographiques)

Jean-Marie Robine, Directeur de recherche, professeur des universités, Université de Montpeller,, Inserm

Svitlana Poniakina, Ingenieure d'études, Ined (Institut national d'études démographiques)

Le nombre de centenaires et de supercentenaires s’est considérablement accru. Se dirige-t-on vers un recul des limites de la vie ? Les données de l’International Database on Longevity devraient fournir des réponses.
Texte intégral (2140 mots)

Le nombre des centenaires s’est considérablement accru. De nouvelles classes d’âges, les plus de 105 ans et même les plus de 110 ans ou « supercentenaires », ont émergé. Cela veut-il dire que les limites de la longévité vont être repoussées ? Une base de données hébergée par l’Ined rassemble les cas validés de personnes décédées à plus de 105 ans dans une douzaine de pays. Son analyse apportera des éléments de réponse.


Jusqu’à aujourd’hui, quatre personnes seulement au monde sont reconnues comme ayant vécu plus de 118 ans. Parmi elles, figurent deux Françaises : Jeanne Calment, qui a atteint 122 ans et 5 mois et, plus récemment, Lucile Randon, décédée en 2023 à près de 119 ans (118 ans et 11 mois). Bien qu’ils soient parfois contestés, ces âges très élevés ont été validés par les chercheurs sur la base de divers certificats d’état civil ou documents administratifs.

Dans l’histoire des sociétés humaines, la survie aux très grands âges a toujours fasciné. Mais au-delà des cas extrêmes, et finalement anecdotiques, l’accroissement du nombre des personnes très âgées mérite d’être souligné.

Arrêtons-nous ici plus particulièrement sur le cas de la France.

Trente fois plus de centenaires qu’en 1970 !

Dans tous les pays où les données ont pu être validées, les personnes qui vivent au-delà de 100 et même de 110 ans sont de plus en plus nombreuses et partout le nombre de femmes est largement supérieur à celui des hommes.

En France, le nombre de centenaires dépassait 30 000 personnes en 2024. C’est 30 fois plus qu’en 1970 ! Et si l’hypothèse d’une poursuite des tendances actuelles de mortalité se confirme, l’Insee projette plus de 200 000 centenaires en France en 2070.

Baisse de la mortalité des enfants au cours du XXe siècle

En Europe, la réduction drastique de la mortalité des enfants et des jeunes adultes, observée à la fin du XIXe siècle et tout au long du XXe siècle, a permis à des survivants de plus en plus nombreux d’atteindre 70 ou 80 ans. Auparavant, la très forte mortalité infantile, essentiellement due aux maladies infectieuses, puis des risques de décès élevés tout au long de la vie réduisaient rapidement l’effectif des générations (Caselli Graziella, Meslé France et Vallin Jacques, 1999).


Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.


Jusqu’au milieu du XXe siècle, seule une part infime pouvait espérer devenir nonagénaire et a fortiori centenaire. L’augmentation du nombre de centenaires est réellement devenu spectaculaire après la fin de la Deuxième Guerre mondiale, lorsque les générations nées dans les dernières décennies du XIXe siècle, qui avaient bénéficié des progrès sanitaires tout au long de leur vie, ont atteint des âges avancés.

Autour d’une centaine en France en 1900 et encore limité à 200 en 1950, le nombre de centenaires s’établissait déjà à plus de 1 000 en 1970 pour atteindre plus de 8 000 en 2000.

La nécessité de valider les données disponibles

Au sein même des centenaires, les années récentes ont vu s’imposer une nouvelle classe d’âge, les 105 ans ou plus dont le nombre était estimé à près de 2 000 au 1er janvier 2023. À ces âges très avancés, où les effectifs sont encore faibles et où l’âge déclaré au recensement peut être imprécis, le dénombrement des personnes vivantes est difficile.

C’est là tout l’intérêt de l’International Database on Longevity (IDL), une base de données constituée par un groupe international de chercheurs et hébergée à l’Institut national d’études démographiques (Ined). Elle a pour but de fournir des données validées sur les décès survenus à l’âge de 105 ans ou plus dans des pays à statistiques fiables.

Dans cette base, les décès rassemblés à partir de sources exhaustives sont soumis à une stricte procédure de validation des âges. Cela consiste à vérifier que la date de naissance et les identifiants figurant dans l’acte de décès correspondent à ceux donnés par l’acte de naissance.

Nouveau, la newsletter Science ! Tous les 15 jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique. Abonnez-vous !

Dans le cas de la France, les données proviennent du Répertoire national d’identification des personnes physiques (RNIPP), un fichier géré par l’Insee qui contient la liste nominative des personnes, nées en France ou nées à l’étranger, disposant d’un numéro de sécurité sociale.

Pour tous les individus décédés à 110 ans ou plus et pour un échantillon des personnes décédées entre 105 et 109 ans, les caractéristiques mentionnées dans le RNIPP (date de naissance, date de décès, lieu de naissance, lieu de décès) sont vérifiées en les confrontant aux actes authentiques d’état civil (naissance et décès).

Si, à moins de 110 ans, les erreurs sont rares (0,7 %), la vérification des décès à 110 ans ou plus amène à exclure un plus grand nombre de cas (de l’ordre de 8 %).

L’augmentation des personnes qui vivent 105 ans ou plus

Les données du RNIPP montrent donc l’évolution du nombre de décès validés à l’âge de 105 ans ou plus (Figure 1). Bien sûr, ce nombre est encore dérisoire (moins de 0,15 % des décès) quand on le compare aux plus de 600 000 décès observés chaque année en France. Mais son explosion est spectaculaire. Limité à quelques individus jusqu’à la fin des années 1980, il augmente très vite pour atteindre 924 en 2020.

En 2021 et 2022, ce nombre baisse. Mais il ne faut pas y voir une diminution de la probabilité d’atteindre l’âge de 105 ans. C’est simplement l’arrivée à cet âge des classes creuses nées durant la Première Guerre mondiale.

L’effondrement des naissances (plus de 40 %), enregistré à partir de 1915 et jusqu’en 1919, se répercute encore 105 ans plus tard avec des générations aux effectifs plus réduits. Si la baisse n’est pas visible dès 2020, cela tient sans doute au fait que les décès de cette année-là ont été amplifiés par l’épidémie de Covid-19.

Une surmortalité masculine tout au long de la vie

L’immense majorité des personnes décédées à 105 ans ou plus sont des femmes (843 femmes et 81 hommes en 2020). Soit 10 fois plus de femmes que d’hommes ! Ce ratio impressionnant tient entièrement à la surmortalité masculine, qui prévaut tout au long de la vie, notamment aux âges actifs, et qui réduit d’autant les effectifs des générations masculines par rapport à leurs homologues féminines.

La natalité joue à l’inverse puisqu’il naît chaque année un peu plus de garçons que de filles. Quant à l’immigration, qui pourrait modifier le rapport entre sexes, elle n’entre pas en ligne de compte puisque seules les personnes nées en France sont prises en compte dans l’International Database on Longevity.

Dans la pyramide des décès par âge après 105 ans (Figure 2), la prépondérance féminine est encore plus spectaculaire. On y voit clairement le contraste entre le grand nombre de décès féminins et le nombre beaucoup plus réduit de décès masculins. On y observe aussi la concentration des décès des hommes aux âges les plus « jeunes », les barres masculines devenant à peine visibles au-delà de 108 ans.

Y a-t-il un plafond de longévité ?

Au-delà de la comptabilisation de cas vérifiés et de la validation des âges extrêmes atteints par quelques individus, les démographes s’intéressent aux décès à 105 ans ou plus pour affiner leurs estimations des risques de décès aux très grands âges.

S’il est désormais possible de tracer précisément la courbe de mortalité par âge jusqu’à 100 ans (dans les générations 1901-1905, une femme âgée de 100 ans avait un risque sur trois de mourir dans l’année), les risques de décès sont encore fluctuants et incertains au-delà, particulièrement pour les hommes.

À ces âges avancés, les nombres d’observations restent encore insuffisants pour trancher le débat entre les partisans d’une augmentation exponentielle de la mortalité, telle qu’observée aux âges plus jeunes, et les tenants de l’hypothèse d’un ralentissement ou même d’une stagnation aboutissant à un plateau de mortalité.

En d’autres termes, on ne sait pas si, au-delà de 105 ans, le risque de décès augmente encore très vite avec l’âge ou s’il plafonne.

La collecte de données vérifiées, de plus en plus nombreuses et fiables, disponibles dans l’International Database on Longevity, devrait permettre, dans les prochaines années, d’analyser avec moins d’incertitude la forme de la courbe de mortalité aux très grands âges et d’apporter des éléments de réponse sur l’existence, ou non, d’un plafond de longévité.


Laurent Toussaint, consultant indépendant, est également coauteur de cet article.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

08.04.2025 à 11:51

Vivre plus longtemps, mais moins bien ? Les inégalités qui pèsent sur le grand âge

Jérôme Schoenmaeckers, Docteur en Economie, Université de Liège

L’allongement de la vie ne correspond pas toujours à une amélioration de la qualité de vie, du fait d’inégalités socioéconomiques et d’une variabilité de la qualité des soins, en particulier en Ehpad.
Texte intégral (2472 mots)

L’allongement de la vie ne correspond pas toujours à une amélioration de la qualité de vie quand les seniors perdent leur autonomie. Des travaux menés à partir de données européennes montrent que les inégalités socioéconomiques ainsi qu’une variabilité dans la qualité des soins, en particulier en maison de retraite, entrent en ligne de compte.


Avec l’allongement de l’espérance de vie, de nouvelles questions émergent quant à la qualité de cette vie prolongée. Alors que l’on pourrait s’attendre à ce que la longévité soit synonyme de meilleure qualité de vie, nous avons mené plusieurs recherches, en nous appuyant sur une base de données européenne, qui démontrent une réalité bien plus complexe et contrastée.

Nous avons étudié des paramètres qui impactent la qualité de vie quand on avance en âge, comme les inégalités socioéconomiques et la variabilité dans la qualité des soins qui sont prodigués dans les maisons de retraite en Europe. Nous nous sommes également intéressés à la perception que les personnes âgées pouvaient avoir de leur lieu de vie, qu’elles résident à leur domicile ou en maison de retraite.

Une combinaison d’inégalités pour les plus pauvres

Dans une recherche publiée dans la Revue française d’économie, nous nous concentrons sur l’impact du statut socioéconomique sur la perte d’autonomie à un âge avancé. Cette étude révèle des disparités profondes et persistantes entre les groupes socioéconomiques, au détriment des personnes issues de milieux socioéconomiques défavorisés.

L’une des découvertes clés de cette recherche est l’existence d’une « triple peine » pour les individus les plus pauvres.

D’abord, ces personnes pâtissent d’une espérance de vie plus courte (selon les pays, l’écart peut aller de 4 à 7 ans d’espérance de vie). De plus, elles passent plus de temps dans un état de dépendance et, enfin, elles rencontrent davantage de difficultés en fin de vie (comme être capable de s’habiller, se laver ou se faire manger seules).


Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.


Cette combinaison d’inégalités est particulièrement préoccupante. Elle signifie en effet que les personnes issues de milieux défavorisés vivent non seulement moins longtemps, mais aussi que leur qualité de vie en fin de parcours est significativement dégradée par rapport à celles des groupes socioéconomiques plus aisés.

À noter que dans nos travaux de recherche, nous avons utilisé des données provenant d’une grande enquête longitudinale : « Survey of Health, Ageing and Retirement in Europe » (SHARE). Ces données permettent d’analyser les trajectoires de santé des individus au fil du temps, ce qui est crucial pour comprendre l’évolution de la perte d’autonomie.

Vivre chez soi ou en maison de retraite : quelle perception des personnes âgées ?

Alors que nous constatons que l’accès aux maisons de repos diffère selon le patrimoine des personnes interrogées (les personnes les plus riches seraient celles qui évitent davantage la maison de retraite), nous étudions l’impact de ce lieu de vie sur leur bien-être.

En effet, dans une autre étude très récente, nous explorons les préférences des personnes âgées quant à leur lieu de vie. Le désir de vieillir « chez soi » est souvent exprimé par les seniors qui perçoivent la maison de retraite comme une option de dernier recours. Cependant, cette étude révèle une réalité plus nuancée. En analysant les données issues de l’enquête SHARE, nous avons comparé le bien-être subjectif des personnes vivant chez elles à celui des résidents de maisons de retraite.

Nouveau, la newsletter Science ! Tous les 15 jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique. Abonnez-vous !

Initialement, les résultats montrent que les personnes vivant en maison de retraite rapportent un niveau de satisfaction de vie inférieur à celles vivant chez elles, avec une différence de près de 8 %. Cette disparité semble renforcer l’idée que la maison de retraite est liée négativement au bien-être des personnes âgées.

Cependant, après avoir contrôlé par les variables liées à la santé, au statut fonctionnel (être capable de se laver, de s’habiller ou de se faire à manger seul) et aux caractéristiques démographiques telles que l’âge, le sexe ou encore les niveaux d’éducation et de richesse, la différence de bien-être entre les deux groupes devient négligeable.

Mais attention, quand on utilise des méthodes d’appariement, en comparant des personnes similaires dans chacun des deux habitats, le fait d’être en maison de retraite ou de soins semble avoir un impact négatif sur le bonheur.

Ehpad ou domicile : choisir la meilleure option selon son état de santé

A contrario, comme nous avons pu suivre les individus au cours du temps et particulièrement pour ceux observés plusieurs fois, nous avons constaté qu’ils expérimentaient une plus-value après l’entrée en maison de retraite et de soins.

En d’autres termes, les personnes qui se retrouvent en maison de retraite ne sont pas forcément moins heureuses en raison de leur lieu de résidence, mais plutôt à cause de leur état de santé souvent plus précaire.

Cela remet en question certaines idées reçues sur les maisons de retraite. Bien qu’elles soient souvent perçues comme des lieux indésirables, les maisons de retraite offrent, pour certains individus, un environnement plus adapté à leurs besoins de santé. Par exemple, une personne en perte de mobilité ou ayant besoin d’une assistance continue pour les activités quotidiennes peut bénéficier du cadre institutionnel de ces établissements, où des soins appropriés sont disponibles en permanence.

Les résultats suggèrent donc que, pour de nombreux seniors, le choix de vivre en maison de retraite est souvent la meilleure option en fonction de leur état de santé. Plutôt que de considérer la maison de retraite comme un échec ou une contrainte, il est important de reconnaître que ces établissements peuvent améliorer la qualité de vie de ceux qui nécessitent un soutien médical important.

À noter que, dans nos travaux, nous n’abordons pas la question des maltraitances en Ehpad qui ont pu faire l’actualité ces dernières années, notamment en France, ni celles qui peuvent survenir aussi quand une personne dans le grand âge réside à son domicile.

Enfin, les difficultés d’accès aux maisons de retraite pour tous, compte tenu de leurs coûts qui peuvent être prohibitifs, sont également des paramètres qui peuvent peser.


À lire aussi : Des clés pour bien gérer un Ehpad


Surmortalité dans les maisons de retraite en Europe du Nord, même avant le Covid-19

Dans une autre étude, nous examinons la mortalité des résidents en maisons de retraite avant la pandémie de Covid-19 qui a exacerbé les problèmes existants dans ces institutions. Cette recherche s’intéresse aux écarts de mortalité entre les résidents des maisons de retraite et les personnes vivant à domicile dans différents pays européens.

Les résultats révèlent une surmortalité significative dans les maisons de retraite des pays d’Europe du Nord, du Centre et de l’Est, par rapport à ceux d’Europe du Sud comme l’Italie et l’Espagne. Pour la France en particulier, mais avec un échantillon relativement petit, l’effet n’était pas présent.

Ces différences de mortalité s’expliquent en partie par les écarts dans la qualité des soins et l’organisation des maisons de retraite. Dans les pays d’Europe du Nord, les maisons de retraite sont souvent des établissements de grande taille, gérés par des structures à but lucratif. Cela peut influencer la qualité des soins prodigués, les ressources étant parfois insuffisantes pour répondre aux besoins croissants des résidents. En revanche, dans les pays du Sud, où les soins sont plus personnalisés et où les structures familiales jouent un rôle plus important, la surmortalité n’est pas aussi prononcée.

L’étude souligne également la nécessité de réformes structurelles pour améliorer les conditions de vie dans les maisons de retraite. Une augmentation des ressources allouées aux soins de longue durée, des normes de qualité plus strictes et un meilleur soutien aux soignants pourraient aider à réduire cette surmortalité et à améliorer le bien-être des résidents.

Les grands-parents aidants davantage soutenus en cas de dépendance

Jusqu’ici, nous avons évoqué principalement les aides formelles, qu’elles aient lieu en institutions ou à domicile. Or, il est important de rappeler que le principal pourvoyeur d’aide aux personnes dépendantes est la famille.


À lire aussi : Burn-out et fardeau des aidants : de quoi parle-t-on exactement ?


Dans une recherche récente, nous examinons un nouveau motif derrière la « garde » des petits-enfants : la réciprocité en cas de dépendance.

Nous concevons un modèle à deux périodes, c’est-à-dire une première période, où le grand-parent est en bonne santé et capable de s’occuper de ses petits-enfants, et une seconde, où il est en situation de perte d’autonomie, pour analyser l’anticipation de cette réciprocité par les grands-parents.

En utilisant les données de l’enquête longitudinale SHARE, nous confirmons l’idée que les grands-parents qui ont gardé leurs petits-enfants quand ils étaient en bonne santé reçoivent plus d’aide quand leur santé se détériore. Et l’intensité de ce soutien des grands-parents à leurs enfants est importante ! Plus ils aident, plus ils reçoivent du soutien de leurs enfants dont ils gardé la progéniture en cas de besoin.

Réduire les inégalités socioéconomiques et dans la qualité des soins

Les résultats de l’ensemble de nos études montrent clairement que les soins aux personnes âgées, qu’ils soient prodigués à domicile ou en maison de retraite, nécessitent une attention particulière des décideurs politiques. Les inégalités socioéconomiques et les variations dans la qualité des soins entre les pays d’Europe ou encore les structures publiques ou privées créent des disparités importantes et dommageables dans les conditions de fin de vie des seniors.

Il est crucial que les politiques publiques s’attaquent à ces inégalités en améliorant l’accès aux soins, en renforçant les filets de sécurité sociale et en soutenant les structures familiales qui jouent un rôle clé dans de nombreux pays.

De plus, des réformes dans les maisons de retraite sont nécessaires pour garantir que tous les résidents, quel que soit leur lieu de vie, aient accès à des soins de qualité. L’enjeu est de taille : alors que la population européenne continue de vieillir, garantir une fin de vie digne et de qualité pour tous devient une priorité sociale et politique incontournable.


Ce texte a été écrit en collaboration avec Arnaud Stiepen, expert en vulgarisation scientifique.

Retrouvez le podcast « Est-il préférable de vieillir en maison de repos », un entretien avec Jérôme Schoenmaeckers, dans PULSE (un podcast conçu pour mettre en avant les recherches et les idées innovantes issues du corps académique de HEC Liège, l'école de gestion de l'Université de Liège).

The Conversation

Jérôme Schoenmaeckers ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

08.04.2025 à 11:51

Longévité : et si l’environnement et le mode de vie jouaient un rôle plus important que la génétique ?

Hassan Vally, Associate Professor, Epidemiology, Deakin University

Et si l’environnement et le mode de vie jouaient un rôle plus important que la génétique dans la longévité ? C’est ce que suggère une étude publiée dans la prestigieuse revue « Nature Medicine ».
Texte intégral (2754 mots)
Cette étude renforce l’idée selon laquelle, même si nous héritons de gènes qui augmentent certains risques, nos conditions et modes de vie déterminent également notre état de santé et notre longévité. RawpixelCom/Shutterstock

L’environnement et le mode de vie – le statut socioéconomique, le tabagisme, le niveau d’activité physique, les conditions de vie… – jouent-ils finalement un rôle plus important que la génétique dans la longévité ? C’est ce que suggère une étude publiée dans Nature Medicine, en s’appuyant sur UK Biobank, une base de données d’environ 500 00O personnes.


L’une des interrogations les plus récurrentes que se posent les êtres humains est de savoir combien de temps ils vont vivre. En découle la question de savoir quelle part de notre durée de vie dépend de notre environnement et de nos choix et quelle part est prédéterminée par nos gènes.

Une étude récente publiée dans la prestigieuse revue Nature Medicine a tenté pour la première fois de quantifier les contributions relatives de notre environnement et de notre mode de vie, par rapport à notre génétique, dans la façon dont nous vieillissons et sur notre durée de vie.


À lire aussi : Nous héritons de la génétique de nos parents, mais quid de l’épigénétique ?


Les résultats sont frappants et suggèrent que notre environnement et notre mode de vie jouent un rôle beaucoup plus important que nos gènes dans la détermination de notre longévité.

Comment les chercheurs ont-ils procédé ?

Cette étude s’est appuyée sur les données de la UK Biobank, une grande base de données du Royaume-Uni qui contient des informations détaillées sur la santé et le mode de vie d’environ 500 000 personnes. Les données disponibles comprennent des informations sur la génétique, des dossiers médicaux, des données d’imagerie médicale et des informations sur le mode de vie.

Dans une autre partie de l’étude, ont été analysées les données issues d’un sous-ensemble de plus de 45 000 participants dont les échantillons de sang ont été soumis à ce que l’on appelle le « profilage protéomique ».

Le profilage protéomique est une technique relativement nouvelle qui étudie la façon dont les protéines du corps changent au fil du temps afin d’identifier l’âge d’une personne au niveau moléculaire. Grâce à cette méthode, les chercheurs ont pu estimer à quelle vitesse le corps d’un individu vieillissait réellement. C’est ce qu’on appelle l’âge biologique, par opposition à l’âge chronologique (ou nombre d’années vécues).


Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.


Les chercheurs ont évalué 164 expositions environnementales ainsi que les marqueurs génétiques de maladies chez les participants. Les expositions environnementales comprenaient les choix autour du mode de vie (par exemple, le tabagisme, l’activité physique), les facteurs sociaux (comme les conditions de vie, le revenu du ménage, la situation professionnelle) et les facteurs liés au début de la vie, tels que le poids corporel pendant l’enfance.

Ils ont ensuite recherché des associations entre la génétique et l’environnement, et 22 maladies majeures liées à l’âge (telles que les maladies coronariennes et le diabète de type 2), la mortalité et le vieillissement biologique (tel que déterminé par le profilage protéomique).

Ces analyses ont permis aux chercheurs d’estimer les contributions relatives des facteurs environnementaux et génétiques au vieillissement et à la mort prématurée.

Qu’ont-ils mis en évidence ?

En ce qui concerne la mortalité liée à la maladie, comme on pouvait s’y attendre, l’âge et le sexe expliquent une part importante (environ la moitié) de la variation de l’espérance de vie. Cependant, la constatation principale est le fait que les facteurs environnementaux expliquent collectivement environ 17 % de la variation de la durée de vie, là où les facteurs génétiques y contribuent pour moins de 2 %.

Ce résultat penche très clairement du côté de l’éducation dans le débat « nature contre éducation ». Elle suggère que les facteurs environnementaux influencent la santé et la longévité d’une manière beaucoup plus importante que la génétique.

Nouveau, la newsletter Science ! Tous les 15 jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique. Abonnez-vous !

Comme on pouvait s’y attendre, l’étude a révélé une combinaison différente concernant la manière dont l’environnement et la génétique influencent respectivement différentes pathologies.

C’est sur les maladies pulmonaires, cardiaques et hépatiques que les facteurs environnement exerçaient le plus grand impact. C’est dans la détermination du risque de cancer du sein, de l’ovaire et de la prostate, ainsi que du risque de démence que la génétique jouait le rôle le plus important.

Les facteurs environnementaux qui ont eu le plus d’influence sur les décès précoces et le vieillissement biologique sont le tabagisme, le statut socioéconomique, les niveaux d’activité physique et les conditions de vie.

Un homme d’un certain âge porte un petit enfant sur ses épaules, ils sont à l’extérieur
Les facteurs génétiques augmentent le risque de développer certaines maladies plus que d’autres. Kleber Cordeiro/Shutterstock

Le fait d’être plus grand à l’âge de 10 ans serait associé à une durée de vie plus courte. Bien que cela puisse paraître surprenant et que les raisons ne soient pas éclaircies, c’est ce qu’avançait une recherche antérieure selon laquelle les personnes plus grandes seraient plus susceptibles de mourir plus tôt. (Les résultats de cette recherche qui ne s’appuie pas sur la base de données UK Biobank sont à prendre avec précaution, ndlr).

Le fait de peser plus lourd à l’âge de dix ans et le tabagisme maternel (si votre mère a fumé en fin de grossesse ou lorsque vous étiez nouveau-né) ont également été associés à un raccourcissement de l’espérance de vie.

Le résultat le plus surprenant de cette étude est probablement l’absence d’association entre le régime alimentaire et les marqueurs du vieillissement biologique, tels que déterminés par le profilage protéomique. Cette constatation va à l’encontre du grand nombre de preuves qui montrent un rôle crucial des habitudes alimentaires dans le risque de maladie chronique et la longévité.

Les explications plausibles sont nombreuses. Premièrement, on pourrait avancer l’hypothèse d’un manque de puissance statistique dans la partie de l’étude consacrée au vieillissement biologique. En d’autres termes, le nombre de personnes étudiées était peut-être trop faible pour permettre aux chercheurs d’observer l’impact réel du régime alimentaire sur le vieillissement.

Deuxièmement, les données concernant l’alimentation, qui étaient autodéclarées et mesurées à un seul moment de l’étude, étaient probablement de qualité relativement médiocre, ce qui a limité la capacité des chercheurs à observer des associations. Enfin, la relation entre l’alimentation et la longévité étant probablement complexe, il peut être difficile de distinguer les effets de l’alimentation des autres facteurs liés au mode de vie.

Malgré ces résultats, on peut affirmer que notre alimentation est l’un des piliers les plus importants de la santé et de la longévité.

Quelles autres limites de l’étude considérer ?

Dans cette étude, les expositions clés (comme le régime alimentaire) n’ont été mesurées qu’à un seul moment et n’ont pas fait l’objet d’un suivi dans le temps, ce qui introduit des erreurs potentielles dans les résultats.

De plus, comme il s’agissait d’une étude observationnelle, nous ne pouvons pas considérer que les associations trouvées représentent des relations de cause à effet. Par exemple, le fait que la vie en couple soit corrélée à une plus grande longévité ne signifie pas qu’elle soit à l’origine de l’allongement de la durée de vie. D’autres facteurs peuvent expliquer cette association.

Enfin, il est possible que cette étude ait sous-estimé le rôle de la génétique dans la longévité. Il est important de reconnaître que la génétique et l’environnement n’agissent pas de manière isolée. Au contraire, les résultats en matière de santé dépendent de leur interaction, et cette étude n’a peut-être pas saisi toute la complexité de ces interactions.

Une femme âgée tient un chien en laisse et marche dans un champ
Cette étude suggère que les facteurs environnementaux influencent la santé et la longévité bien davantage que la génétique. Ground Picture/Shutterstock

À votre niveau, pouvez-vous agir ?

On relèvera que, dans cette étude, un certain nombre de facteurs, comme le revenu du ménage, le fait d’être ou non propriétaire de son logement et le statut professionnel, sont associés aux maladies du vieillissement alors que ces paramètres ne sont pas nécessairement contrôlables par la personne. Cela souligne à quel point il est crucial de prendre en compte les déterminants sociaux de la santé pour garantir à chacun les meilleures chances de vivre longtemps et en bonne santé.

En même temps, ces résultats envoient un message encourageant : la longévité est largement déterminée par les choix que nous faisons. C’est une excellente nouvelle, à moins que vous n’ayez de bons gènes et que vous espériez qu’ils fassent le gros du travail.

Finalement, les résultats de cette étude renforcent l’idée selon laquelle si nous pouvons hériter de certains risques sur le plan génétique, la façon dont nous mangeons, dont nous nous déplaçons et dont nous nous engageons dans le monde semble être plus importante pour déterminer notre état de santé et notre durée de vie.

The Conversation

Hassan Vally ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

07.04.2025 à 16:57

Trump, la guerre commerciale et le dollar : et si c’était une chance pour l’Union européenne ?

Jean-Marie Cardebat, Professeur d'économie à l'Université de Bordeaux et Professeur affilié à l'INSEEC Grande Ecole, Université de Bordeaux

Après les tarifs douaniers du « liberation day » états-unien inventé par Trump, voici venu le temps de la dépréciation du dollar. L’Union européenne pourrait en profiter pour renforcer sa position géostratégique.
Texte intégral (1439 mots)

Depuis la proclamation par Donald Trump du « jour de la libération » (« liberation day ») et ses déclarations, les regards se sont concentrés sur les tarifs douaniers. Mais une deuxième offensive se profile : une dépréciation massive du dollar qui pourrait provoquer une crise mondiale. Dans cette reconfiguration brutale des équilibres, des opportunités inédites pourraient s’ouvrir pour l’Europe à travers une nouvelle diplomatie commerciale ouverte.


Si l’on pense en avoir fini avec les offensives mercantilistes de Trump depuis le « liberation day », on se trompe certainement. La deuxième offensive arrive. Elle pourrait être plus sévère encore. Elle tient en une dépréciation massive du dollar américain. L’onde de ces chocs va en outre créer un effet récessif mondial qui viendra parachever l’œuvre de Trump. À quoi faut-il s’attendre ? Comment réagir à ces offensives ?

Depuis le début de la décennie, la parité entre l’ euro et le dollar s’établit autour de 1,05 à 1,10 dollar par euro. Au regard des fondamentaux de l’économie américaine, de ses déficits budgétaires et commerciaux abyssaux, cette valeur est surévaluée. Si l’on se réfère au taux de change d’équilibre de parité des pouvoirs d’achat, le taux de change euro-dollar devrait s’établir autour de 1,50 dollar par euro. Ce taux de PPA représente une force de rappel de long terme pour les taux de marché. Si le dollar reste surévalué, c’est parce qu’il est LA monnaie mondiale pour les échanges internationaux et les réserves, donc la monnaie que souhaitent détenir les non américains. Un dollar surévalué, c’est déjà arrivé dans l’histoire, notamment dans les années 1980.

Dollar et déficit : une histoire qui recommence

Mais ça, c’était avant. L’administration Trump est fermement décidée à s’attaquer à ce qu’elle considère comme la deuxième cause de son déficit commercial : la surévaluation du dollar. Les droits de douane et la dépréciation du dollar font partie du même plan stratégique de réindustrialisation du pays. Il n’est dès lors pas impensable que la parité Euro-Dollar d’ici à la fin de l’année flirte avec les 1,40 à 1,50 dollar par euro. Cela représenterait une dépréciation de la devise américaine d’environ 30 %.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Mécaniquement, cette dépréciation renchérirait le prix des biens exportés par les Européens, une fois exprimé en dollar sur le marché états-unien, du même montant. En d’autres termes, une dépréciation de 30 % du dollar renchérit les biens exportés vers les États-Unis de 30 %, ce qui dépasse encore les 20 % de droits de douane. Les deux effets de hausse des prix en dollar des biens exportés se cumulant, autant dire que l’accès au marché américain se compliquerait très sévèrement pour les entreprises européennes.

Mais ce n’est pas tout, un effet indirect viendrait s’additionner à ce double choc de prix : c’est l’effet revenu. Les exportations vers le marché états-unien dépendent de deux élasticités : l’élasticité-prix et l’élasticité-revenu. L’élasticité-prix donne le montant de la baisse de la demande locale lorsque les prix augmentent (à cause des droits de douane et de la dépréciation du dollar), l’élasticité-revenu renseigne sur la baisse de la demande locale liée à une baisse de revenu des résidents, les États-Uniens.

Des produits plus chers et des consommateurs plus pauvres

Or, la politique de Trump est clairement récessive selon les premiers indicateurs économiques publiés et les prévisions des économistes. Logique, puisqu’une partie de la croissance mondiale vient des gains à l’échange selon le principe de spécialisation des économies hérité d’Adam Smith et David Ricardo. Pire, ce n’est pas seulement la croissance américaine qui va ralentir, mais bien la croissance mondiale par effet de domino, affectant encore un peu plus les exportateurs européens.

Quels sont les signes d’espoir dans ce scénario ? Il y a en plusieurs en fait. D’abord, le dollar, puisqu’il est la monnaie internationale, est largement détenu par les étrangers. Trump voudrait les forcer à vendre leurs dollars pour en faire baisser le cours, mais ce n’est pas si simple. Déjà, il a du mal à tordre le bras du gouverneur de la Fed (banque centrale américaine) pour lui faire changer de politique monétaire afin de faire baisser le dollar. Rappelons que la Fed est en théorie indépendante du gouvernement. Sans entrer dans les détails techniques, si Trump décide des droits de douane des États-Unis, il ne maîtrise pas la valeur du dollar aussi facilement. La dépréciation de 30 % n’aura peut-être pas lieu.


À lire aussi : Décrochage de croissance entre la France, l’UE et les États-Unis : l’urgence d’un choc de productivité


D’autant que l’effet inflationniste de cette dépréciation et de ces droits de douane sur l’économie domestique va user l’opinion américaine autant que leur porte-monnaie. Trump pourrait se heurter à une forme d’épuisement social dès 2025 l’obligeant à infléchir ses positions. Le pire n’est donc pas certain.

Renforcer la position européenne

Il faut aussi voir le positif dans cette histoire. La Chine est mal en point, affectée par la fermeture du marché états-unien et par des problématiques économiques internes. Ne serait-ce pas le moment pour l’Europe d’essayer de négocier des accords commerciaux de réciprocité plus avantageux pour les Européens ? La Chine a besoin de l’Europe, dont la position de force se renforce finalement avec Trump.

France 24, 2025.

Se tourner vers la Chine pour redéfinir un ordre commercial plus ouvert et équilibré serait sans doute plus utile économiquement que de vouloir affronter Trump dans une guerre commerciale. Si Trump isole et ralentit les États-Unis, laissons-le faire et n’engageons pas des représailles qui ne feraient qu’aggraver notre situation. Ouvrons-nous aux autres en revanche et profitons du fait qu’ils aient besoin de nous.

Ce qui est vrai pour la Chine l’est pour les autres zones du monde. On a beaucoup parlé ces derniers mois du Mercosur et de l’accord avec le Canada (CETA). Faut-il encore s’opposer à des accords de libre-échange entre l’Europe et ces zones ? On peut gager que l’opinion publique européenne va évoluer sur cette question. En d’autres termes, l’isolationnisme de Trump fait naître des opportunités de libre-échange ailleurs. L’Europe pourrait les saisir avec une grande offensive diplomatique. Un judoka se sert de l’élan de son adversaire, Trump s’isole, l’Europe peut accentuer encore cette tendance en négociant des accords avec les autres zones du monde. Et si l’Europe sortait par le haut de cette crise ?

The Conversation

Jean-Marie Cardebat ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

07.04.2025 à 16:56

Plus de trace de l’objectif « zéro artificialisation nette » ?

Brian Padilla, écologue, recherche-expertise "biodiversité et processus d'artificialisation", Muséum national d’histoire naturelle (MNHN)

Fanny Guillet, sociologue, chargée de recherche au CNRS, Muséum national d’histoire naturelle (MNHN)

Julien Siracusa-Philippe, Chargé de projet "Évaluation scientifique des politiques publiques de neutralité écologique"

Maylis Desrousseaux, Maîtresse de conférences en Urbanisme, Université Paris-Est Créteil Val de Marne (UPEC)

La proposition de loi Trace en cours de discussion au Parlement diminue fortement l’objectif « zéro artificialisation nette », fixés en 2021. Mais quels étaient ces objectifs et en quoi sont-ils menacés ?
Texte intégral (2528 mots)
Un village dans les Alpes-Maritimes. Dans ce département, 35,35 % du littoral est artificialisé, ce qui en fait l’un des taux les plus élevés de France. Kemal Mercan/Shutterstock

La proposition de loi Trace (Trajectoire de réduction de l’artificialisation concertée avec les élus), en cours de discussion au Parlement, diminue fortement les objectifs de « zéro artificialisation nette » (ZAN), fixés en 2021. Mais quels étaient ces objectifs et en quoi sont-ils menacés ?


Chaque année, la France hexagonale voit en moyenne 200 km2 d’espaces naturels, agricoles ou forestiers disparaître. C’est l’équivalent de 20 000 terrains de football qui sont ainsi artificialisés. Dans les deux tiers des cas, ces espaces sont dévolus à la construction de nouveaux logements, souvent loin des métropoles, dans des zones à faible croissance démographique. Plus frappant encore, un quart de cette artificialisation concerne des communes qui perdent des habitants.

Ces chiffres sont préoccupants, alors que de nombreux travaux scientifiques soulignent le rôle de l’artificialisation des sols dans les crises écologiques actuelles. La fragmentation et la disparition d’espaces naturels figurent de fait parmi les principales causes de l’effondrement de la biodiversité. La diminution de la capacité des sols à stocker le CO2 – voire la transformation de ces derniers en sources d’émission lorsqu’ils sont dégradés – accentue les dérèglements climatiques. L’imperméabilisation des sols favorise, elle, le ruissellement de surface, amplifiant la pollution des cours d’eau et les risques d’inondations.

Les récentes crues dévastatrices dans les Hauts-de-France au cours de l’hiver 2023-2024 ou encore les inondations survenues en octobre 2024 dans le centre et le sud de la France sont les derniers témoins des conséquences directes de l’artificialisation et de l’altération des fonctions écologiques des sols.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le ZAN : une ambition environnementale reléguée au second plan

Pour enrayer l’effondrement de la biodiversité et amorcer une stratégie nationale de préservation des sols, la France s’est fixé un objectif ambitieux dans la loi Climat et résilience (2021) : « zéro artificialisation nette » (ZAN) en 2050. Construit en 2 étapes, cet objectif vise dans un premier temps à réduire de moitié la consommation d’espaces naturels, agricoles et forestiers (Enaf) sur la période allant de 2021 à 2031 par rapport à la décennie précédente, puis, d’ici à 2050, de prendre les dispositions nécessaires pour qu’à l’échelle nationale, un hectare soit « désartificialisé » pour chaque hectare artificialisé.

Initialement pensé comme une politique environnementale ambitieuse, le ZAN a néanmoins suscité de nombreux débats autour de sa mise en œuvre et sur la répartition des « enveloppes » d’artificialisation. Son déploiement territorial, censé permettre aux régions d’organiser la réduction de la consommation d’Enaf, s’est transformé en un exercice comptable. Plutôt que de s’intéresser à évaluer les conséquences des choix d’aménagement sur le fonctionnement des écosystèmes composant leurs territoires, les représentants des collectivités se sont en effet opposés aux méthodes retenues pour compter les mètres carrés artificialisés.

Les autorités environnementales, chargées de rendre des avis publics sur les études d’impacts des projets, plans et programmes, rappellent pourtant dans leurs avis successifs et leurs rapports annuels que le ZAN ne se limite pas à un simple contrôle des surfaces artificialisées : il implique aussi d’évaluer l’impact des projets sur les fonctions écologiques des sols.

Malgré ces rappels, face à la pression des associations d’élus, le Sénat a déjà assoupli le dispositif, en 2023, avec la loi ZAN 2, qui repousse le calendrier de mise en œuvre et offre à de nombreuses communes la garantie de pouvoir consommer à hauteur d’un hectare d’Enaf, sans prendre la peine de discuter des besoins en matière d’aménagement et des alternatives à explorer.


À lire aussi : Objectif ZAN : comment tenir les comptes ?


La loi Trace : assouplissement ou déconstruction du ZAN ?

Avec la proposition de loi Trace (Trajectoire pour une réduction de l’artificialisation concertée avec les élus) – adoptée par le Sénat, le 18 mars dernier, et dans l’attente d’un examen à l’Assemblée nationale, l’objectif ZAN risque une nouvelle fois d’être profondément fragilisé. Présentée comme un simple assouplissement, cette réforme remet en cause des avancées de la loi Climat et résilience. Elle retourne par exemple, à une définition comptable de l’artificialisation, fondée uniquement sur la consommation d’Enaf et supprime celle de la loi Climat et résilience qui la qualifiait comme une « altération durable de tout ou partie des fonctions écologiques des sols ».

Cette dernière définition s’approchait pourtant des constats issus des travaux en écologie, selon lesquels l’intensification des usages de l’espace participe aux impacts sur le bon fonctionnement des écosystèmes.

Ces quatre photographies illustrent des niveaux d’artificialisation croissants. Des espaces verts urbains régulièrement tondus ou des espaces agricoles intensifs participent à l’altération des fonctions écologique des sols
Ces quatre photographies illustrent des niveaux d’artificialisation croissants. Des espaces verts urbains régulièrement tondus ou des espaces agricoles intensifs participent à l’altération des fonctions écologique des sols. Images : Pixabay/Pexels/Wikimedia, Fourni par l'auteur

De fait, la suppression de cette définition suppose qu’un sol peut être interchangeable avec un autre tant que son usage reste naturel, agricole ou forestier, ignorant ainsi tous les processus écologiques qui conduisent à la création, à l’évolution et à la santé d’un sol.

En choisissant de prendre en compte uniquement la consommation d’Enaf, la proposition de loi laisse aussi de côté le principal outil qui permettait de mesurer, à une échelle fine, les changements d’usage et d’occupation des sols. Les données d’occupation du sol à grande échelle (OCS GE), produites par l’IGN pour comptabiliser l’artificialisation permettaient en effet de suivre l’artificialisation causée par les politiques de planification de l’urbanisme.

Le calcul de la consommation d’Enaf se base sur les parcelles cadastrales et les fichiers fonciers, tandis que les données de l’OCS GE sont spatialement plus précises. Les espaces considérés comme artificialisés sont très différents selon la méthode reten
Le calcul de la consommation d’Enaf se base sur les parcelles cadastrales et les fichiers fonciers, tandis que les données de l’OCS GE sont spatialement plus précises. Les espaces considérés comme artificialisés sont très différents selon la méthode retenue. Graphique réalisé à partir d'une orthophotographie de la BD TOPO V3, des données cadastrales du Plan Cadastral Informatisé et des données de l'OCS GE, Fourni par l'auteur

Autre recul significatif : le report à 2034 de l’objectif intermédiaire de réduction de l’artificialisation, dont l’ambition sera désormais fixée par les régions. Ce décalage enterre l’idée d’une transition immédiate vers une sobriété foncière, pourtant essentielle pour repenser nos besoins en aménagement, alors même que de nombreux élus ont déjà commencé à intégrer ces objectifs (c’est le cas par exemple de la Région Bretagne ou encore du schéma de cohérence territoriale (Scot) de Gascogne).

S’y ajoute par ailleurs une disposition visant à accorder un droit à artificialiser de 0,5 ha en cas de requalification d’un hectare de friche. Autrement dit, lorsqu’une collectivité s’emploiera à aménager sur 4 ha d’espaces délaissés, elle sera autorisée à détruire par ailleurs 2 ha supplémentaires d’Enaf.

Enfin, l’exclusion des projets d’envergure nationale ou européenne du calcul de l’artificialisation marque un autre tournant préoccupant. Ces grands projets, dont la liste ne cesse de s’allonger, sont supposés permettre de concilier le développement économique et la transition écologique. Y figurent pourtant de nombreux projets routiers, des établissements pénitentiaires et des zones d’activité. Le législateur choisirait ainsi d’exonérer l’État des contraintes du ZAN, opposant de fait sa politique de réindustrialisation aux impératifs de préservation de l’environnement.

En quelques articles seulement, la proposition de loi Trace transforme ainsi l’objectif ZAN en un catalogue d’exceptions, autorisant la destruction et la fragmentation des espaces naturels sans réelle évaluation de leurs fonctions écologiques. Il ne reste, de fait, plus grand-chose des ambitions initiales d’une loi qui voulait donner un élan nouveau à une politique de régulation de l’aménagement qui peine à porter ses fruits depuis vingt-cinq ans.

Quelques semaines après l’annulation par le tribunal administratif de Toulouse du projet d’autoroute A69 – qui devait artificialiser 366 hectares de sols et dont les travaux ont déjà causé la destruction de nombreux espaces naturels, cette nouvelle proposition de loi illustre les tensions croissantes entre, d’un côté, les mobilisations citoyennes contestant les grands projets d’aménagement consommateurs de foncier et, de l’autre, une volonté politique de simplification, qui semble aller à rebours des engagements environnementaux annoncés dans la stratégie nationale Biodiversité 2030.

En cherchant à détricoter les principes du ZAN, la loi Trace pose donc une question fondamentale : voulons-nous réellement engager la transition, ou préférons-nous maintenir un modèle dépassé, aux dépens de l’environnement dont nous dépendons ?

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

07.04.2025 à 16:55

Le rôle du cinéma dans la mémoire de la Seconde Guerre mondiale, de « la Bataille du rail » à « la Grande Vadrouille »

Fabien Théofilakis, Maître de conférences, histoire contemporaine, Université Paris 1 Panthéon-Sorbonne

De « la Bataille du Rail » à « la Grande Vadrouille », du « Silence de la mer » au « Vieil Homme et l’enfant », le cinéma a contribué à forger une mémoire visuelle de la Seconde Guerre mondiale.
Texte intégral (3308 mots)
Le cinéma a joué un rôle clé dans la manière dont la mémoire visuelle de la guerre de 1939-1945 s’est structurée.

De la Bataille du Rail à la Grande Vadrouille, du Silence de la mer au Vieil Homme et l’enfant, des classiques du cinéma contribuent à nos représentations de la Seconde Guerre mondiale. Dans quelle mesure ces films reflètent-ils la façon dont la mémoire visuelle des années 1939-1945 s’est forgée et a évolué en France ?


Les cheminots faisant dérailler le convoi allemand Apfelkern dans la Bataille du rail (1946), le duo de résistants malgré eux formé par Louis de Funès et Bourvil dans la Grande Vadrouille (1966) ou encore la famille Bourdelle dans Papy fait de la résistance (1983) ont contribué, avec d’autres personnages de films, à forger une mémoire visuelle de la Seconde Guerre mondiale, dans sa version héroïsante.

Voilà qui nous rappelle combien la fiction a pu tenir une place importante dans la manière dont nos sociétés se représentent le passé. Avec sa puissance de média de masse, le cinéma joue un rôle clé dans la structuration d’une mémoire visuelle du second conflit mondial, comme en témoignent certains succès commerciaux. La Grande Vadrouille a réuni plus de 17 millions de spectateurs, un record ; Papy fait de la résistance quatre millions !


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Alors que l’on commémore les 80 ans de la fin du conflit, il est pertinent d’interroger les topoï comme les silences de ces représentations cinématographiques. C’est ce que nous avons fait avec des étudiantes et étudiants français et allemands dans un séminaire organisé à la Freie Universität de Berlin.

À partir d’un corpus comportant 26 films, dont 11 se focalisaient sur la période 1939-1945, nous avons cherché à savoir dans quelle mesure la manière dont on définit son image en tant que collectif est liée à l’image qu’on se fait de l’Autre.

Le cinéma, reflet ou incubateur des régimes mémoriels ?

Introduit par Henry Rousso en 1987 dans le Syndrome de Vichy, le résistancialisme désigne un triple processus visant à marginaliser ce qu’a été le régime de Vichy et à systématiquement minorer son emprise sur la société française ; à construire la « Résistance » en objet de mémoire bien au-delà du nombre réel de ses participants ; à assimiler cette « Résistance » à l’ensemble de la nation.

De la sortie de la guerre à la fin des années 1960, ce mythe résistancialiste structure la plupart des récits filmiques, relève Zélie Martinet, participante du séminaire. « Dans ces productions, les personnages ont souvent un lien, volontaire ou non, avec la résistance ». L’exemple paradigmatique apparaît dans la Grande Vadrouille avec « deux protagonistes qui se retrouvent entraînés à résister, quasi malgré eux, secondés par des Français plus prêts les uns que les autres à les aider ». Une France naturellement résistante car occupée, mais pratiquement sans collaborateurs, ni déportation de Juifs…

Dans La Grande Vadrouille, le film de Gérard Oury, une nonne aide les deux Britanniques à rejoindre l’Angleterre, allant jusqu’à monter dans un planeur avec eux
Dans la Grande Vadrouille, le film de Gérard Oury, une nonne aide les deux Britanniques à rejoindre l’Angleterre, allant jusqu’à monter dans un planeur avec eux. Cette image illustre le résistancialisme et l’idée selon laquelle l’ensemble des Français aurait été impliqué dans la Résistance.

C’est en 1974, avec les Guichets du Louvre, centrés sur la rafle du Vél’ d’Hiv’, en juillet 1942, à Paris, que le grand écran devient le lieu de projection d’une crise des mémoires héroïques.

Dans cette évolution, on voit combien le cinéma français sur la Seconde Guerre mondiale reflète davantage les façons dont la société française se représente son passé qu’il ne les infléchit ou les devance.

Représentations de l’Allemand : de la caricature à l’humanisation

Ces régimes mémoriels sont le lieu d’une autre évolution : celle de la représentation de l’Allemand.

Dans les productions d’après-guerre, il « correspond d’abord aux stéréotypes du soldat autoritaire et violent, qui s’impose et impose son autorité aux Français », souligne Zélie Martinet. Ainsi, dans la Bataille du rail, en 1946, les cheminots sont rassemblés pour écouter le discours d’un officier allemand. Il les harangue avec un fort accent français et une gestuelle exagérée qui rappela sans doute aux spectateurs les discours de Hitler. Le propos est également sans nuance : « Nous vous tendons la main ; mais si vous nous tendez le poing, on vous cassera la gueule », pour reprendre la traduction de l’ouvrier interprète.

La Bataille du rail, de René Clément, bande-annonce (INA Officiel).

Dans le Silence de la mer –  la nouvelle de Vercors que Jean-Pierre Melville adapte en 1949 –, apparaît une autre Allemagne avec Werner von Ebrennac, un officier de la Wehrmacht, francophone et francophile. Cadrages et silences soulignent l’ambiguïté de la relation qui s’instaure au-delà des mots avec la nièce du narrateur chez lequel il est logé. « L’Allemand est alors représenté d’une autre façon : humanisé comme humaniste, il pourrait être dans un autre contexte l’ami de ses ennemis », selon Zélie Martinet, étudiante du séminaire.

Dans Un taxi pour Tobrouk (1961), l’officier distingué au français châtié, joué par Hardy Krüger – grand blond aux yeux bleus affecté à l’Afrika Korps – prolonge cette évolution la décennie suivante. Alors qu’il est prisonnier d’une escouade de FFL (Forces françaises libres), il est si secourable que la méfiance initiale de ses geôliers se transforme en irrésistible sympathie : « À la guerre, on devrait toujours tuer les gens avant de les connaître », finit par dire l’un des Français.

Dans les années 1980, Papy fait de la résistance (1983) apporte comme une conclusion à cette évolution en désarmant cette figure sur le mode comique : alors que la culture du général Hermann Spontz, dont les citations, « attribuées à tort à Goethe ou à raison à Corneille », sont désormais ridiculisées, la face obscure de l’occupant est également tournée en dérision avec Ludwig von Apfelstrudel, demi-frère de Hitler et nazi fanatique. Toutefois, l’humanisation guette : dans la parodie finale des Dossiers de l’écran, l’ancien gouverneur militaire de Paris est devenu le mari de Bernadette Bourdelle.

À l’heure où la réconciliation entre les deux anciens ennemis héréditaires apparaît comme une constante européenne, la mémoire héroïque de la Seconde Guerre mondiale est en passe d’être remplacée par une orientation victimaire structurée autour de la Shoah.

Inversement, si on lie ces représentations de l’Autre à la violence guerrière, Marie Chave – autre participante du séminaire – fait valoir « une autre caractéristique qui s’illustre surtout à travers le contexte historique et la présence allemande ». Et de prendre l’exemple du Vieil Homme et l’enfant (1967) dans lequel les soldats allemands sont quasi absents : présence d’officiers dans un magasin parisien, affiche annonçant des représailles en cas d’attentats dans un village.

Le Vieil Homme et l’enfant (1 :05:35’), de Claude Berri : Si l’on ne voit pas de soldats allemands dans le film, leur présence est tout de même rappelée par des images comme cette affiche de menace de mort par le gouvernement allemand contre toute résistance.

Loin du front et des rafles, le film met en avant l’antisémitisme français vu par un enfant juif. Les truculents échanges sur « les » Juifs entre pépé et le petit Claude, enfant caché qui lui a été confié, apportent un regard différent sur le cinéma de guerre : « Sans Allemand ni occupation, disparaît cette représentation habituellement si violente et éprouvante pour les spectateurs », souligne Marie Chave. Pour autant, la mise à distance de l’antisémitisme de la France de Vichy brocarde les stéréotypes et invite à réfléchir sur la violence insidieuse des catégories.

Des groupes invisibilisés dans la mémoire nationale

L’utilisation du cinéma ne déforme pas seulement, elle invisibilise aussi ceux qui ne peuvent revêtir les habits de héros, à commencer par le 1,8 million de prisonniers de guerre français.

Comme le relève Eloïse Quinette, qui a participé au séminaire, ils sont « vus comme les perdants de la campagne de 1940 et ne rentrent pas dans le mythe résistantialiste ». Seul l’évadé a droit de cité – et encore : la tentative de Charles Bailly et sa vache Marguerite s’apparente à une pittoresque cavale à travers une Allemagne tantôt bienveillante (du côté des fermiers et surtout des fermières) tantôt si bêtement disciplinée que ses autorités se révèlent inefficaces et qu’on se demanderait presque pourquoi 4,37 % uniquement des captifs dans le Reich ont réussi à se faire la belle.

La Vache et le Prisonnier [1 :09 :18] -- Charles, le héros, toujours en uniforme de prisonnier, discute avec une famille de fermiers allemands dans leur maison
La Vache et le Prisonnier [1 :09 :18] – Charles, le héros, toujours en uniforme de prisonnier, discute avec une famille de fermiers allemands dans leur maison. Film d’Henri Verneuil, 1959

Sorti en 1955, les Évadés brouille par son huis clos l’image résistancialiste. L’image de l’évadé se politise avec les trois prisonniers cachés dans un wagon qui doit les mener en pays neutre : « Ils ont des motivations diverses et pas toujours patriotiques pour leur projet : rejoindre Londres, rester en Suède ou rentrer en France et attendre », relève encore Éloïse Quinette.

Une différenciation parallèle semble se développer dans les représentations des Allemands : aux gradés bornés et fanatiques qui donnent l’ordre de couler le canot de sauvetage faisant route vers la Suède succèdent des soldats pilleurs et un jeune gardien qui paraît chercher autant que ses passagers clandestins à échapper à la guerre.

Le cinéma, outil mémoriel et politique : entre ambition et limites

Les relations franco-allemandes ne sont pas seulement le propos des films, elles tiennent aussi au contexte de production, avec des accords de coopération cinématographique, notamment à partir de l’entre-deux-guerres.

« Dans les années 1950-1960, des films comme Die Brücke/le Pont, le Silence de la mer ou encore la Grande Vadrouille ouvrent la relation franco-allemande à un horizon d’attente européen. Ils peuvent alors offrir une vision plus nuancée des rapports entre les Français et leurs alliés ou ennemis à travers des figures plus complexes », note Marie-Lou Bruxer, une quatrième participante du séminaire.


À lire aussi : Le retour des pères après la Seconde Guerre mondiale : un tournant dans l’histoire des familles en France ?


Cela conduit à s’interroger sur la capacité de ce cinéma à « façonner les perceptions collectives pour devenir un vecteur de mémoire ». Conclure qu’il s’est imposé comme un outil pédagogique pour transmettre l’histoire serait toutefois hâtif tant les limites existent, à commencer par les droits d’auteur freinant la diffusion et la barrière linguistique restreignant la portée des films.

Certes, le cinéma ne permet sans doute pas de retracer de manière linéaire ou exhaustive l’évolution des relations franco-allemandes depuis 1945. Toutefois, il offre un miroir particulièrement révélateur de l’imaginaire collectif en soulignant combien l’image de soi est étroitement liée à celle de l’Autre. Cette valence du couple franco-allemand à l’écran peut fournir un levier pour interroger les manières dont ces deux nations se construisent, se racontent et se projettent dans une histoire commune européenne.

The Conversation

Fabien Théofilakis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

07.04.2025 à 16:54

Blanchisseuses, putains ou nonnes : les femmes dans l’Avignon des papes au Moyen Âge

Joëlle Rollo-Koster, Professor of Medieval History, University of Rhode Island

Quelle place avaient les femmes à la cour papale, au Moyen Âge ? Une étude historiographique montre que si elles n’étaient pas des figures de pouvoir, elles étaient indispensables au quotidien de la cour papale.
Texte intégral (2999 mots)
Jusque dans les années 1330, la prostitution était une profession légale en Avignon. Elle avait souvent lieu dans les maisons de bain. Miniature tirée du Livre de Valère Maxime, blibliothèque de l'Arsenal, Paris, XVe siècle

Quelle place avaient les femmes à la cour papale, au Moyen Âge ? En suivant la trace des paiements effectués par la papauté, une étude historiographique montre que si elles n’étaient pas des figures de pouvoir, elles étaient indispensables au quotidien de la cour.


Le rôle des femmes dans l’église médiévale était officiellement très limité. Il se circonscrivait à l’enfermement et au célibat. Elles pouvaient être emmurées à vie comme recluses, ou nonnes dans un couvent classique.

En pratique, la réalité était plus complexe.

Les femmes médiévales étaient présentes partout, même dans les maisons des prêtres. L’historienne Jennifer Thibodeaux nous rappelle que si le célibat était déjà l’idéal de l’Église, il n’a pas été véritablement appliqué avant la fin du Moyen Âge. Jusqu’au XIe siècle au moins, certains prêtres avaient des épouses et des enfants qui n’étaient pas considérés comme illégitimes. Même après la peste noire du XIVe siècle, les foyers cléricaux avec femmes et enfants prospéraient en Italie.

L’historienne Isabelle Rosé insiste aussi sur le fait que le célibat se définissant en binôme : abstinence temporaire et perpétuelle, une abstinence temporaire, largement acceptée par l’Église n’empêchait pas une vie familiale.

A jewel-toned miniature painting shows a small walled city with a castle
Représentation du palais des Papes à Avignon, datant du XVe siècle, atelier du Maître de Boucicaut. Bibliothèque nationale.

Au fil du temps, à partir du Moyen Âge central, l’approche de l’Église sur la sexualité illicite et l’illégitimité se durcit, et son attitude envers les femmes fait de même. Les scolastiques médiévaux – tous des hommes – définissent le tempérament des femmes en termes négatifs. Pour eux, elles sont lubriques, frivoles, infidèles, capricieuses, imprévisibles et facilement tentées. Elles doivent donc être constamment surveillées et tenues à l’écart des clercs – du moins en théorie. Elles ne peuvent pas occuper de poste officiel à la cour pontificale, sauf si elles sont la mère ou la sœur du pape.

Ainsi, les normes officielles excluent les femmes des fonctions cléricales et limitent leurs rôles sociaux, mais l’étude des registres comptables médiévaux révèle une réalité plus nuancée.

Les registres comptables des Archives vaticanes permettent de tracer ce qui était payé pour quoi à la cour d’Avignon, où la papauté est installée pour la majeure partie du XIVe siècle. Au fil d’une tâche fastidieuse – déchiffrer les « mains médiévales » qui classent les dépenses en catégories telles que « salaires extraordinaires », « ornements liturgiques », « dépenses militaires » ou « comptes de la cire » – j’ai découvert une surprise : les femmes apparaissent dans les comptes parmi les employés salariés de la cour papale.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Des petites mains essentielles à la cour papale

Elles travaillent, sont rémunérées, et participent au bon fonctionnement de la cour pontificale et de ses environs, bien que dans l’ombre et sous l’autorité de figures masculines. Les femmes occupent même des postes qui impliquent un contact direct avec le chef de l’Église. Même les vêtements d’un pape doivent être confectionnés, réparés et lavés.

Les Introitus et Exitus, les registres financiers médiévaux des Archives apostoliques du Vatican, fournissent des preuves substantielles que les femmes fabriquaient des ornements et des vêtements sacerdotaux. Ce sont des femmes qui ont créé le style orné hautement apprécié des pontifes avec du lin blanc pur et des broderies d’or.

Entre 1364 et 1374, les registres mentionnent également les blanchisseuses du pape – des femmes perdues dans l’histoire. Parmi elles, on trouve Katherine, l’épouse de Guillaume Bertrand ; Bertrande de Saint-Esprit, qui lave tout le linge du pape lors de son élection ; et Alasacie de la Meynia, épouse de Pierre Mathei, qui s’occupe du linge du pape pour les festivités de Noël de 1373, puis en 1375.

Ces femmes sont toutes épouses d’officiers à la cour papale. Les archives les identifient par leur nom complet, ce qui n’est pas le cas pour tout le monde dans les registres. C’est important : les archives leur confèrent une présence réelle, contrairement à la plupart des travailleuses de l’époque.

A yellowed page with a colored drawing in the middle of the text.
Une femme faisant la lessive, Codices Palatini germanici, manuscrit mediéval allemand. Heidelberg University Library.

Les archives plus tardives sont moins précises. Entre 1380 et 1410, des vêtements liturgiques sont confectionnés et lavés par diverses femmes, notamment l’épouse non nommée de Pierre Bertrand, docteur en droit ; Agnès, épouse de Maître François Ribalta, médecin du pape ; Alasacie, épouse du charpentier Jean Beulayga ; et l’épouse non nommée du chef cuisinier du pape, Guido de Vallenbrugenti, alias Brucho. Seule une femme, Marie Quigi Fernandi Sanci de Turre, apparaît sans parent masculin.

Avec le temps, dans les archives du XVe siècle tardif, les noms des femmes ne sont plus systématiquement enregistrés.

Un salaire touché par le mari

La plupart de ces femmes sont également mariées à des officiers curiaux qui maintiennent leur rang à la cour grâce à des métiers dans le commerce, la médecine ou l’armée. Les épouses maintiennent une occupation salariée, explicite et enregistrée mais ne sont jamais payées directement, leur mari perçoit leur salaire.

Les travaux domestiques et artisanaux réalisés par ces femmes ne sont pas toujours documentés avec précision, mais ils sont néanmoins essentiels. Elles sont responsables de la fabrication et de l’entretien des vêtements liturgiques, du linge personnel du pape, et d’autres tâches qui garantissent le bon déroulement des cérémonies ecclésiastiques. Cette reconnaissance financière, même si elle est administrée par leur époux, témoigne d’une forme d’emploi rémunéré pour les femmes à la cour papale.

Les femmes, 15 % des cheffes de famille en Avignon au Moyen Âge

Même si ces femmes ne sont pas officiellement reconnues comme membres de la cour papale, leur travail est crucial pour le fonctionnement de l’Église. Le fait qu’elles apparaissent dans les archives financières papales montre que l’Église médiévale reconnaissait leur contribution, même si cela était sous une forme limitée et indirecte. Leur présence rappelle que l’histoire de l’Église n’est pas seulement celle des cardinaux et des papes, mais aussi celle des nombreuses personnes anonymes qui ont contribué à son fonctionnement quotidien.

De nombreuses femmes à la fin du Moyen Âge ont immigré en Avignon pour y trouver un gagne-pain. Selon une enquête partielle sur les chefs de ménage de la ville en 1371, environ 15 % sont des femmes. La plupart arrivent de loin – d’autres régions de la France actuelle, ainsi que d’Allemagne et d’Italie – pour rejoindre la cour papale et tenter leur chance sur le marché du travail.

Parmi ces cheffes de ménage, 20 % déclarent une profession. La variété de leur métier est stupéfiante. Il y a des marchandes de fruits, des couturières, des tenancières de tavernes, des bouchères, des chandelières, des charpentières et des tailleurs de pierre. À Avignon, les femmes peuvent être poissonnières, orfèvres, gantières, pâtissières, épicières et marchandes de volaille. Certaines sont fabricantes d’épées, pelletières, libraires, revendeuses de pain ou gardiennes d’étuves.

Travailleuses du sexe à la cour papale

Les bains publics, appelés « étuves », sont souvent des bordels. En Avignon, la prostitution est considérée comme une profession légale, quelques fois contrôlée par l’Église. Marguerite de Porcelude, surnommée « la Chasseresse », paie ainsi une taxe annuelle au diocèse pour son logement. Plusieurs prostituées louent des logements appartenant au couvent de Sainte-Catherine, et Marguerite Busaffi, fille d’un banquier florentin influent, possède un bordel dans la ville.

En 1337, le maréchal de la cour romaine – le plus haut magistrat séculier à la cour – impose une taxe de deux sols par semaine aux prostituées et aux souteneurs. Scandalisé par cette pratique, le pape Innocent  VI l’annule en 1358.

One side of the illustration shows pairs of people sitting in tubs and eating at a table, while the other shows a couple in a blue bed.
Scène de bordel, illustrée par Maître François dans une édition du XVe siècle de la Cité de Dieu, de saint Augustin. Bibliothèque nationale des Pays-Bas.

Cependant, en raison de la souillure attachée au commerce du sexe, l’Église tenta de réformer les prostituées et de les convertir en religieuses. Dans les années 1330, les papes d’Avignon les enferment dans un couvent spécial, celui des repenties, situé loin du centre-ville.

Pendant près d’un siècle, des groupes de prostituées y prennent le voile et vivent en religieuses, dirigeant elles-mêmes les affaires de leur couvent avec une poigne de fer.

Dans les années 1370, le pape Grégoire XI offre aux religieuses et à leurs bienfaiteurs une indulgence plénière, c’est-à-dire une absolution totale de leurs péchés. Cloîtrées, les repenties suivent une règle qui insiste sur leur abstinence, le « chemin à suivre pour le retour à une chasteté spirituelle ».

Les dames du couvent ont laissé des archives détaillées des biens qu’elles ont acquis. En 1384, ses dirigeantes adressent une requête au Trésor pontifical, exigeant le paiement des arriérés d’un don sacerdotal – et elles obtiennent gain de cause. Peu de femmes médiévales osaient réclamer leurs dus devant une cour, encore moins devant la cour du pape. Les repenties, ces anciennes travailleuses du sexe, elles, l’ont fait.

The Conversation

Joëlle Rollo-Koster ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

07.04.2025 à 16:52

Donald Trump, défenseur du sport féminin, vraiment ?

Mathieu Maisonneuve, Professeur de droit public, Aix-Marseille Université (AMU)

Retour sur le très controversé décret de Donald Trump interdisant aux femmes transgenres de prendre part à des compétitions sportives féminines.
Texte intégral (2136 mots)

Un décret signé par Donald Trump vise à interdire aux femmes transgenres de participer à toute compétition sportive, quel que soit le sport, et y compris au niveau amateur. Derrière une justification centrée sur la protection des femmes sportives, qui seraient confrontées à une concurrence déloyale si elles affrontaient des femmes transgenres, il y a une vision idéologique qui, pour Washington, a vocation à être appliquée dans le monde entier.


Le 5 février dernier, le président Trump a signé un décret visant à « maintenir les hommes en dehors du sport féminin ». Son but est clair : en faire bannir les personnes trans MtF (Male to Female). Selon ce texte, les compétitions féminines devraient être réservées aux personnes « appartenant, au moment de la conception, au sexe qui produit les grandes cellules reproductives », à savoir les ovocytes. Exit donc les femmes trans (puisqu’elles sont nées de sexe masculin), et même la plupart des femmes intersexes (lesquelles présentent des caractéristiques sexuelles qui ne correspondent pas à la division binaire des sexes).

Que l’on ne s’y trompe pas. L’équité des compétitions féminines ou l’intégrité physique des autres participantes, que la participation des femmes trans menacerait et que le décret mentionne pour justifier leur exclusion radicale, ne sont que des prétextes. Si le sujet divise politiquement, il existe au moins une certitude scientifique et juridique : de tels objectifs, pour légitimes qu’ils sont, ne peuvent rationnellement justifier le bannissement de toutes les sportives transgenres, quels que soient leur parcours de transition et leur âge, dans tous les sports, à tous les niveaux de compétition.

Un décret contestable du point de vue juridique

Comparer physiquement à des hommes cisgenres les femmes trans ayant, en plus d’une transition sociale, effectué une transition hormonale (ou eu recours à une chirurgie de réassignation sexuelle) repose sur une fausse équivalence. Traiter de la même façon les filles trans prépubères et les femmes trans ayant connu les effets de la puberté masculine a tout d’une atteinte à l’intérêt supérieur de l’enfant sportif. Assujettir les échecs ou le tir sportif à la même règle que l’haltérophilie ou la boxe fait fi des plus élémentaires spécificités sportives. Mélanger les compétitions « élite » et « loisir » ignore que l’important est parfois seulement de participer.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le décret pourrait ainsi concrètement conduire, en apportant une réponse simpliste à une question complexe, à ce qu’une jeune fille trans âgée de 8 ans (la prise de conscience de la dysphorie de genre peut parfaitement intervenir dès l’enfance et, s’il peut en aller autrement pour une transition médicale, il n’y a pas d’âge minimum pour effectuer une transition sociale) ne puisse prendre part à des compétitions scolaires féminines de bowling. Ce cas fictif n’est guère éloigné de cas réels, nés de l’application de lois adoptées par de nombreux États républicains, actuellement contestées en justice, au motif qu’elles seraient contraires à la clause d’égale protection de la Constitution américaine et au titre IX de l’Education Amendments Act de 1972 (qui prohibe en principe toute discrimination sur la base du sexe dans les programmes et activités d’éducation bénéficiant d’une aide financière fédérale).

Bien que l’actuelle composition de la Cour suprême rende tout pronostic délicat, plusieurs des juridictions saisies, y compris des cours d’appel fédérales, se sont montrées sensibles à l’argument, relevant le caractère disproportionné des lois contestées. Il n’est pas impossible que le décret du président Trump, que deux adolescentes du New Hampshire ont été les premières à attaquer, connaisse le même sort.

Dogmatisme assumé

La généralisation abusive à laquelle procède le décret contesté ne constitue en réalité rien d’autre que la manifestation d’un dogmatisme assumé.

L’exclusion promue l’est avant tout, ainsi que le texte ne le cache pas, pour des raisons de « dignité » (celle des sportives cisgenres qui subiraient l’« humiliation » de devoir participer aux mêmes compétitions que des sportives trans) et de « vérité » (alternative, est-on tenté d’ajouter).

En réalité, il ne s’agit pas de protéger le sport féminin. Il s’agit d’exploiter la prétendue évidence (même parmi les électeurs démocrates, 67 % la partageraient selon un sondage effectué en janvier 2025) de l’avantage compétitif injuste dont disposeraient les sportives trans (que le titre du décret qualifie d’« hommes ») par rapport à leurs concurrentes cis (qui, elles, seraient de « vraies femmes »), pour dénoncer plus généralement le « délire » que constituerait le fait de s’affranchir du « bon sens » au nom de l’« idéologie du genre ».

En l’état de la science, la seule vérité est qu’il est « absurde » de donner une réponse unique à la question de la participation des femmes et filles transgenres aux compétitions féminines. Avant la puberté, ou même après pour les enfants qui auraient eu accès à des bloqueurs de puberté, il existe un quasi-consensus scientifique selon lequel les filles et les garçons ont peu ou prou les mêmes capacités physiques, à tout le moins qu’il n’existe pas de différences liées au sexe telles qu’il serait injuste de les faire concourir ensemble. Après la puberté, l’avantage physique dont disposeraient les hommes sur les femmes est très variable d’un sport à un autre, voire parfois inexistant. Et même dans les sports où il est acquis que les effets de la puberté masculine jouent un rôle déterminant, il n’est nullement exclu, sauf peut-être dans certaines disciplines, que l’équité sportive ne serait pas préservée en dépit de la participation d’athlètes ayant suivi une transition hormonale. Le débat reste ouvert.

Quelles conséquences internationales ?

On aurait tort, de notre côté de l’Atlantique, de se contenter de sourire (jaune) face à la transphobie qui motive le décret présidentiel sur le sport féminin. Il n’entend pas seulement rallier à sa vision ostracisante l’ensemble du sport américain. Il prétend y convertir le sport mondial.

Le secrétaire d’État des États-Unis est ainsi chargé de promouvoir au niveau international, aux Nations unies ou ailleurs, l’adoption de normes d’exclusion. Il lui est en particulier demandé d’utiliser tous les moyens appropriés pour que le Comité international olympique (CIO) adopte des règles empêchant qu’à l’avenir une femme transgenre, voire intersexe, puisse prendre part à des événements sportifs dépendant de lui, même sous condition d’avoir réduit son taux de testostérone.

Extrait du décret du 5 février 2025 : « Le secrétaire d’État utilisera toutes les mesures appropriées et disponibles pour veiller à ce que le Comité international olympique modifie les normes régissant les épreuves sportives olympiques afin de promouvoir l’équité, la sécurité et les meilleurs intérêts des athlètes féminines en veillant à ce que l’éligibilité à la participation aux épreuves sportives féminines soit déterminée en fonction du sexe et non de l’identité de genre ou de la réduction de la testostérone. » Whitehouse.gov

Le principe d’indépendance du mouvement sportif, lequel est censé s’opposer à toute ingérence politique dans son fonctionnement, résistera-t-il à l’offensive américaine annoncée ? On peut l’espérer. L’arrêt que rendra prochainement la Grande Chambre de la Cour européenne des droits de l’homme dans l’affaire Caster Semenya, née de la contestation des règles de la Fédération internationale d’athlétisme relatives à l’éligibilité des sportives intersexuées, y aidera peut-être.

Le bras de fer en vue des Jeux olympiques et paralympiques de Los Angeles est en tout cas déjà engagé. Le décret prévoit en effet de refuser l’entrée aux États-Unis à toute personne transgenre ou intersexe désireuse de s’y rendre pour participer à des compétitions féminines. Or de tels refus seraient contraires aux promesses faites par le gouvernement américain au stade de la candidature pour l’organisation des Jeux de 2028 et reprises dans le contrat de ville hôte.

Cette dernière, comme les États-Unis, s’est engagée non seulement à ce que toute personne titulaire d’une carte d’identité et d’une accréditation olympique puisse entrer sur le territoire américain, mais aussi, plus largement à respecter les principes fondamentaux et les valeurs de l’olympisme – à commencer par le principe de non-discrimination. Si ce principe n’interdit pas nécessairement toute différence juridique de traitement, encore faut-il, selon un standard à peu près universellement admis, qu’elle repose sur une justification objective et raisonnable. Soit l’exact inverse de celle fondant le décret signé par le président Trump.

The Conversation

Mathieu Maisonneuve est membre du comité d'experts sur la transidentité dans le sport de haut niveau

07.04.2025 à 16:52

Laïcité et sport : un sujet surpolitisé, mais qu’en est-il juridiquement ?

Lauren Bakir, Ingénieure de recherche CNRS, Université de Strasbourg

En février, le Sénat a voté une proposition de loi systématisant l’interdiction du voile islamique dans le sport. Selon de nombreux juristes, ce texte risque de dévoyer la laïcité et de discriminer les femmes qui portent le voile.
Texte intégral (1634 mots)

En février dernier, le Sénat a voté une proposition de loi visant à « assurer le respect du principe de laïcité dans le sport ». Pourtant, selon de nombreux juristes et associations de protection des droits humains, ce texte risque au contraire de dévoyer la laïcité et de discriminer les femmes qui portent le voile. Qu’en est-il ?


En 1905, la France adopte la loi de séparation des Églises et de l’État après des débats houleux entre les parlementaires antireligieux et les parlementaires favorables à une loi de liberté. C’est cette seconde approche qui est adoptée, suivant la célèbre phrase du rapporteur de la loi, Aristide Briand : « Notre loi est une loi de liberté, qui fait honneur à une assemblée républicaine ». Une cinquantaine d’années plus tard, l’article 1 de la Constitution de 1958 déclare que la France est une République laïque.

Au-delà des mots et des textes généraux, qu’est-ce que cela signifie concrètement ? Juridiquement, cela signifie que trois éléments sont garantis : la neutralité de l’État, l’égalité entre les cultes, et la liberté de religion. Cette dernière, constamment remise en cause depuis quelques années, implique à la fois la liberté de croire, de ne pas croire, d’extérioriser ses convictions individuellement – par le port d’un voile par exemple – ou collectivement – participer à des cérémonies religieuses par exemple.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


La liberté de religion est le principe et trouve comme limite, comme toute liberté fondamentale, l’ordre public et le respect des droits d’autrui. La neutralité de l’État justifie quant à elle que, de longue date, les personnes exerçant des missions de service public (enseignants à l’école publique, médecins et infirmiers à l’hôpital public, forces de l’ordre, etc.) sont elles-mêmes tenues à la neutralité : elles ne peuvent exprimer leurs convictions religieuses dans l’exercice de leurs fonctions.

Pourtant, depuis quelques années, une confusion entre neutralité de l’État et liberté de religion des personnes s’est imposée dans le débat public.

Évolutions et restrictions de la liberté de religion depuis 2004

Le 15 mars 2004 est adoptée une loi qui interdit aux élèves de l’école publique de porter des signes manifestant « ostensiblement une appartenance religieuse ». Le 10 octobre 2010, c’est la dissimulation du visage dans l’espace public qui est interdite. Le 8 août 2016, est adoptée la loi Travail qui permet aux employeurs d’insérer dans le règlement intérieur de leur entreprise une « clause de neutralité » : celle-ci permet de restreindre le port de signes convictionnels (religieux, politiques, philosophiques) aux salariés, à certaines conditions (il faut notamment que l’entreprise poursuivre une politique de neutralité, et que l’interdiction ne concerne que les salariés en contact avec la clientèle).

En dépit de la formulation neutre des textes de loi – qui visent tantôt les signes religieux, tantôt la dissimulation du visage, tantôt les signes convictionnels –, c’est bien le port du voile qui motive politiquement ces interdictions, et c’est bien aux femmes qui portent le voile que ces interdictions, une fois entrées en vigueur, s’appliquent en grande majorité.

Face à la réalité juridique, une réalité politique et sociale

Si les textes juridiques ne mentionnent pas le voile directement, c’est parce que dans un État de droit libéral et démocratique, certaines règles sont à respecter lorsque les autorités souhaitent limiter nos libertés fondamentales.

L’État de droit a vocation à éviter la tyrannie d’une majorité sur les minorités, à ériger des garde-fous pour éviter l’arbitraire inhérent à tout exercice du pouvoir. L’État de droit implique donc que toute restriction de liberté soit justifiée, proportionnée, nécessaire, adaptée au but poursuivi. Il n’est donc pas possible de viser une religion en particulier, ou un genre en particulier.

La réalité politique et sociale est toute autre : dans les discours politiques, c’est bien le port du voile qui est visé. Qualifié tantôt d’instrument de soumission des femmes, tantôt d’étendard de l’islamisme – des accusations extrêmement graves et, surtout, strictement déclaratives –, c’est bien le port du voile qui occupe et anime le personnel politique.

Dans les faits, ce sont également les femmes qui portent un voile qui sont impactées : elles sont contraintes d’enlever leur voile à l’entrée de l’école, de l’entreprise, ou s’adaptent en cherchant une activité professionnelle n’impliquant pas de nier une partie de leur identité.

Et dans le sport ? Quel cadre juridique ?

Dans un arrêt rendu en juin 2023, le Conseil d’État distingue deux catégories de sportifs. D’un côté, les joueurs sélectionnés pour jouer en équipe de France sont soumis au principe de neutralité du service public, la Fédération étant délégataire d’une mission de service public. D’un autre côté, les autres licenciés ne sont pas soumis au principe de neutralité du service public mais aux statuts des Fédérations. Celles-ci déterminent les règles de participation aux compétitions qu’elle organise, parmi lesquelles les règles permettant d’assurer, pendant les matchs, la sécurité des joueurs et le respect des règles du jeu (par ex. réglementation des équipements et des tenues).

C’est sur cette base que le Conseil d’État juge que la Fédération française de football a pu interdire, dans l’article 1 de ses statuts, le port, pendant les matchs, de « tout signe ou tenue manifestant ostensiblement une appartenance politique, philosophique, religieuse ou syndicale », cette interdiction étant « nécessaire pour assurer leur bon déroulement des matchs, en prévenant notamment tout affrontement ou confrontation sans lien avec le sport ». Pour résumer, les joueurs hors équipe de France sont soumis aux statuts des Fédérations : s’agissant de la Fédération française de football, cela signifie que pendant les matchs, les joueurs ne peuvent porter de signes exprimant leurs convictions.

Il convient de souligner que juridiquement, une telle interdiction est discutable, le risque d’affrontement ou de confrontation découlant d’un éventuel port de signe convictionnel n’ayant jamais fait l’objet d’études précises. C’est d’ailleurs pour cette raison que la Cour européenne des droits de l’homme a été saisie et devrait rendre sa décision avant la fin de l’année 2025.

Il faut également rappeler qu’en novembre dernier, le Comité des droits de l’homme des Nations unies, dont une des missions est de contrôler la conformité de nos législations nationales avec nos engagements internationaux, a relevé « avec préoccupation l’élargissement de telles restrictions, telles les interdictions dans le domaine sportif qui, […] dans la pratique, auraient un impact discriminatoire sur les membres des minorités religieuses, notamment les femmes et les filles de confession musulmane », invitant la France à revoir sa copie.

Que changerait le vote de la proposition de loi visant « à assurer le respect du principe de laïcité dans le sport » ?

Si cette proposition de loi était votée par l’Assemblée nationale et était promulguée, cela conduirait à systématiser l’interdiction du port du voile dans toutes les compétitions, y compris celles des amateurs. À la distinction actuelle entre joueurs sélectionnés en équipe de France et « représentant », d’une certaine façon, l’État – incluant une obligation de neutralité –, et la liberté laissée aux différentes fédérations dans leurs statuts, se substituerait une interdiction générale concernant toutes les sportives.

La France serait alors le seul pays à nier la liberté de religion des femmes de confession musulmane qui décident de porter le voile de façon aussi étendue. Si le premier ministre considérait le 18 mars qu’il y avait « urgence de légiférer sur le sujet », il semble avoir depuis changé d’avis. Ce revirement de situation ne signifie pas que ce dossier est abandonné. Il dépendra, en réalité, de la conjoncture politique.

The Conversation

Lauren Bakir ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

07.04.2025 à 11:28

Investir dans des bureaux à la Défense rapporte-t-il encore ?

Gérard Hirigoyen, Professeur émérite Sciences de Gestion, Université de Bordeaux

Même si le marché des bureaux traverse une crise profonde – 5 millions de mètres carrés inoccupés en 2024 –, il reste toujours attractif. La raison ? Sa valeur immatérielle.
Texte intégral (1479 mots)
Le marché de l’immobilier d’entreprise (bureaux, commerces, entrepôts), après avoir doublé en moins de dix ans, est en crise. Marina Datsenko/Shutterstock

Même si le marché des bureaux traverse une crise profonde – 5 millions de mètres carrés inoccupés en 2024 –, il reste toujours attractif. La principale raison ? Sa valeur reste immatérielle… et non purement financière. Focus sur le quartier de la Défense à Paris qui connaît un taux de vacance de 15 %, mais qui reste un symbole de la puissance économique de la France.


Le quartier de la Défense, l’un des quartiers d’affaires les plus importants au monde, second en Europe en volume d’activités financières après la City de Londres, n’échappe pas à la crise d’ampleur constatée sur l’investissement dans la classe d’actifs « bureaux ».

Ce marché, après avoir doublé en moins de dix ans, et fait de la France l’un des premiers marchés européens, présente plus de 5 millions de mètres carrés inoccupés en Île-de-France. Le taux de vacance est désormais positionné à 3,6 % dans le quartier central des affaires de Paris (le VIIIe et une partie des Ier, IIe, IXe, XVIe et XVIIe), à 13,7 % dans les XVIIIe, XIXe et XXe arrondissements. En petite couronne, le taux de vacance monte à 23,5 % et 15 % à la Défense.

En 2024, le marché des bureaux en Île-de-France traverse une phase de mutation profonde. Les zones périphériques de Paris doivent se réinventer face aux défis d’une suroffre et d’une transformation accélérée des usages. Certains plaident même pour une transformation massive des immeubles de bureaux en logements. Une telle initiative est-elle pour autant adaptée et souhaitable pour la Défense, et in fine généralisable ? Alors que l’investisseur comme l’occupant ou encore le financeur sont tous de plus en plus à la recherche de performance durable, investir dans l’immobilier de bureaux à La Défense peut-il être un acte de finance durable ?

Puissance économique de la France

La valeur de l’immobilier de bureaux ne se résume pas à la valeur économique directe issue des loyers. Sa valeur d’utilité obtenue par la somme des cash flows (ou flux de trésorerie) actualisés est assise sur une valeur immatérielle qui le transcende. Autrement dit, l’argent ne prend de la valeur au fil du temps grâce aux intérêts, mais aussi pour d’autres raisons plus impalpables.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Comme la valeur de la tour Eiffel ne saurait être estimée qu’à l’aune d’un flux de trésorerie futur sur les tickets vendus, le quartier de la Défense n’est pas qu’un quartier d’affaires. Il est le symbole du pouvoir de la France dans le monde et de sa capacité à l’influencer. Réduire l’emprise spatiale de ce quartier, envisagez d’en modifier son identité, entrainerait irrémédiablement une évolution substantielle de l’image de la France en matière de centre de décision et de recherche, donc de terre innovante.

Dans ses bureaux se déroulent des activités tertiaires : principalement y sont abrités les sièges sociaux d’entreprises, le développement de la recherche ou encore de l’éducation. Lorsqu’il est évoqué la possibilité de reconfigurer ce quartier pour le revaloriser, il est nécessaire de prendre en compte l’impact sur la valeur territoriale d’un tel projet. L’objectif : intégrer une valeur symbolique générative d’émotions au calcul de la performance ESG.

Valeur verte et décote brune

Investir à la Défense en veillant à améliorer la durabilité des actifs permet aux parties prenantes engagées, acteurs des secteurs financiers et/ou immobilier, d’accroître leur performance environnementale, sociale et de gouvernance (ESG), d’améliorer de facto leur performance financière, du fait de l’émergence d’une valeur « verte » additionnelle ou rectificative de la « décote brune ». L’actif immobilier prend de la valeur s’il respecte les exigences environnementales. A contrario, il perd de la valeur si d’importants travaux de mise en conformité sont à réaliser.

La réhabilitation d’un immeuble vide contribue de manière plurielle à son environnement : création d’emplois directs ou indirects, suppression de la pollution visuelle d’un immeuble délabré et insalubre, etc. Par ricochet, la valeur financière de l’actif, une fois l’opération menée, s’en trouvera renforcée par une contribution à l’attractivité retrouvée du quartier. Mais le périmètre de la création de valeur et l’impact d’un tel investissement ne s’arrêtent pas là.

Emploi de bureaux et surface de bureaux

Davantage que le seul développement du télétravail imputé à la pandémie de Covid-19, l’immobilier de bureaux connaissait déjà une situation de suroffre. Sur la période 2008-2018, on observe en Île-de-France une décorrélation des courbes de croissance d’emplois de bureaux et de création de surfaces de bureaux. Pour chaque emploi de bureau, 49 m2 sont créés en moyenne, contre 28 m2 sur la période 1999 à 2007.

Ce phénomène est-il finalement la démonstration sous nos yeux de la conséquence du déracinement des entreprises, relevée dans l’étude « Vers un grand déracinement des entreprises françaises cotées ? » Ou simplement l’illustration d’une gouvernance dysfonctionnelle de la part des investisseurs empreinte de biais cognitifs et émotionnels, laissant se déployer une suroffre ?

Valeur émotionnelle

Un investisseur n’est pas uniquement considéré comme un être raisonnable, mais un être d’émotions. Il bénéficie d’une valeur émotionnelle issue du symbole que représente un actif comme un bureau à la Défense. Monétisable du fait d’une désirabilité de l’actif recouvrée, la valeur émotionnelle viendra augmenter la valeur financière.

La finance deviendrait réellement durable, en permettant, par son engagement patriotique, la transmission du patrimoine français matériel et immatériel aux générations futures ? Sous réserver qu’elle inclut également dans ses pratiques une gouvernance globale ?

Alors que les conventions fiscales peuvent favoriser l’investissement en immobilier hors de France, alors que d’aucuns envisagent d’accroître sa taxation en France, et dans un contexte de refonte de l’IFI, qui osera alors encore se risquer à qualifier l’investissement immobilier en France « d’improductif » ?

Cet article a été co-rédigé par Pascal Weber, présidente de Walreus.

The Conversation

Gérard Hirigoyen ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

07.04.2025 à 11:28

Penser la souveraineté au niveau des entreprises et des managers

Romaric Servajean-Hilst, Professeur de stratégie et management des achats et de l'innovation collaborative Kedge Business School, Chercheur-associé au Centre de Recherche en Gestion i3 de l'Ecole polytechnique, Kedge Business School

Devant la multiplication des risques géopolitiques, la souveraineté doit être considérée à tous les niveaux des entreprises concernées, dans l’intérêt général.
Texte intégral (1813 mots)

Face aux risques de rupture d’approvisionnement et aux besoins des États, la notion de souveraineté impose d’être prise en compte à tous les niveaux des entreprises concernées, dans l’intérêt général.


« Souveraineté » est un mantra qui revient de manière appuyée dans les discours politiques comme dans ceux des dirigeants d’entreprises. Les grands chamboulements politiques, géopolitiques et économiques des dernières années et des dernières semaines, voire des derniers jours, la remettent au cœur du jeu. Le Conseil d’État y a consacré son étude annuelle en 2024 et a fait de nombreuses propositions pour améliorer la souveraineté de l’État.

Pour autant, il reste encore à pousser la réflexion jusqu’à l’échelle des entreprises françaises et de la manière dont les employés s’en emparent au quotidien.

Assurer l’autonomie de la nation

En France, le principe de souveraineté est au cœur de l’article 3 de la Constitution de 1958. Il consiste à assurer l’autonomie de la nation française dans l’exercice de son autorité. Rechercher une souveraineté dans la santé, la défense, l’agriculture, l’accès à l’énergie du peuple revient à assurer l’autonomie d’approvisionnement de chaque filière. C’est ce qui permet aux citoyens d’accéder sans risques aux produits et services associés.

Ainsi, l’État peut être amené à sécuriser certains actifs clés. Cela a été le cas en 2024 à travers l’acquisition de certains actifs d’Atos achetés par la France, afin de garantir l’autonomie de fonctionnement de systèmes militaires stratégiques. Cela peut aussi se jouer à l’échelle de plusieurs pays alliés.


À lire aussi : Quelle technologie de batterie pour les voitures électriques ? Un dilemme de souveraineté industrielle pour l’Europe


Maîtriser l’approvisionnement

Or, assurer l’autonomie d’une filière, depuis la matière première jusqu’au consommateur, passe par la maîtrise des différents maillons de ses chaînes d’approvisionnement qui sont fragmentées géographiquement et d’un point de vue organisationnel. L’autonomie n’étant pas l’autarcie, la souveraineté n’est pas affaire de fermeture mais de maîtrise de l’ouverture. À l’échelle étatique, cette maîtrise se trouve diluée par l’économie de marché et la mondialisation. Aussi, la gestion de la souveraineté est de facto en grande partie transférée vers les entreprises, sous un contrôle étatique variable, à travers les différentes filières industrielles.

Pour une entreprise, être autonome équivaut à savoir assurer la résilience de sa chaîne d’approvisionnement face aux crises successives et à venir. Il faut pouvoir assurer la continuité de sa production, donc pouvoir maîtriser ses chaînes d’approvisionnements. Les défauts de souveraineté sont apparus de manière douloureuse au gré des crises successives d’approvisionnement survenues depuis le Covid-19. Quand, par exemple, le canal de Suez a été bloqué par l’échouage du porte-conteneurs Ever-Given, des chaînes de production automobiles européennes ont été mises à l’arrêt, faute de composants électroniques disponibles.

Demande des États

Par ailleurs, les États accroissent également leurs demandes dans ce sens, à l’aide de règlements, de subventions ou d’engagements contractuels. Et cela se traduit par exemple par la relocalisation d’une usine de paracétamol ou par des campagnes de prospection afin d’extraire du lithium sur le sol français. Mais, cela suffit-il pour assurer la souveraineté ?


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Pour une entreprise, assurer la souveraineté de ses produits (ou services) nécessite de maîtriser tous les éléments de ses chaînes d’approvisionnement et de valeur : depuis les matières premières jusqu’au produit final, ainsi que l’outil de production et les pièces de rechange, mais aussi les savoirs et savoir-faire pour les élaborer, les faire fonctionner et les améliorer. Pouvoir proposer des pâtes alimentaires demande de maîtriser son approvisionnement en blé dur, et en amont des semences et autres intrants. Mais il faut également s’assurer que les pétrins, laminoirs et extrudeurs seront toujours en état de transformer la farine de blé en pâtes. Et, plus le produit est complexe, plus l’entreprise est grande et plus il est difficile de garder la maîtrise sur tous ces éléments, ainsi que le relève le baromètre de la souveraineté 2025.

Qui est le maillon faible ?

Il s’agit d’abord de savoir cartographier l’ensemble des étapes et des parties prenantes de ses chaînes d’approvisionnement et de valeur liées à chaque produit pour lequel il y a un besoin de souveraineté. Puis, il faut choisir les niveaux d’autonomie recherchés pour chacune des étapes, savoir s’il faut les réaliser en interne ou recourir à des prestataires externes. Dans ce dernier cas, il s’agit de bien choisir ses contributeurs, en premier lieu ses fournisseurs, et d’évaluer leur fiabilité. Faut-il acheter local ou dans des pays amis ? Faut-il se concentrer sur une seule source ou bien diversifier son portefeuille ? Ces questions doivent se poser à tous les instants du cycle de vie d’un produit souverain. Il s’agit alors d’apporter des réponses s’appuyant sur des critères aussi bien économiques que géostratégiques. Par exemple, en ne sous-traitant pas l’ensemble de ses activités de chaudronnerie dans des pays à bas coût, les savoir-faire ne sont pas perdus et peuvent être développés quand ils sont nécessaires. L’intérêt général est en jeu. Et, il se joue dans tous les maillons de l’entreprise.

Développer la souveraineté impose de se pencher à nouveau sur la conception des produits et des modes de production après des décennies de mondialisation. Pendant la Seconde Guerre mondiale, General Electric, manquant de matières premières, de main-d’œuvre qualifiée et de certains composants clés aux États-Unis, avait mis en place une méthode pour revoir la conception de ses produits sans certains éléments. Ainsi, fabriquer aujourd’hui des puces électroniques « Made in Europe » exige d’innover sur les produits comme sur les procédés de production, et de créer de nouvelles alliances, voire de créer de nouvelles manières d’évaluer la rentabilité de ces industries très capitalistiques.

France 24, 2025.

Manager la souveraineté

Puis au quotidien dans l’entreprise, conserver sa souveraineté s’appuie sur une vigilance constante quant à la santé et la situation de ses fournisseurs, de leurs fournisseurs et des fournisseurs de leurs fournisseurs… Il s’agit de savoir identifier les signaux faibles de défaillances financières comme logistiques qui pourraient apparaître sur chacun des maillons de la chaîne d’approvisionnement. Il s’agit aussi de surveiller les éventuelles menaces en cas de changement de stratégie ou de propriété de ces parties prenantes.

Cela requiert alors des capacités d’analyse et de projection dans un environnement changeant et instable. Il faut aussi être capable de nouer des alliances avec ses fournisseurs, voire ses concurrents, pour apporter des réponses collectives, à l’échelle de grands projets structurants – comme c’est le cas par exemple dans le domaine du spatial en Europe – mais aussi du grain de sable qui peut bloquer un engrenage complexe. Chaque élément est important.

Le Conseil d’État dans son rapport de 2024 a souligné qu’il était nécessaire de renforcer au niveau de l’État la citoyenneté afin de permettre un exercice plein de la souveraineté. Il met également en avant le besoin de renforcer les compétences techniques et scientifiques des Français. Pour pouvoir déployer ces propositions, ainsi que les autres, à un niveau étatique et macro-économique, et les rendre effectives, il conviendrait de les enrichir par un apprentissage du management de la souveraineté à tous les échelons de l’entreprise.

Cela passe notamment par une sensibilisation particulière des fonctions dirigeantes et financières. Cela doit aussi passer par la sensibilisation et la formation des fonctions en charge de l’innovation, des achats et de la logistique. Ce sont leurs analyses et leurs décisions qui permettent d’abord d’assurer l’autonomie et la sécurité des produits et services souverains, à court comme à long terme. La souveraineté dans l’entreprise est une question de citoyenneté comme de gestion des ressources externes comme internes, matérielles et humaines.

Cet article a été écrit en collaboration avec Antoine Chaume, élève-ingénieur à l'Institut supérieur de l'aéronautique et de l'espace - Sup'aéro

The Conversation

Romaric Servajean-Hilst ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

07.04.2025 à 11:27

Travail hybride : opportunité ou risque pour fidéliser les collaborateurs clés ?

Caroline Diard, Professeur associé - Département Droit des Affaires et Ressources Humaines, TBS Education

Nicolas Dufour, Professeur affilié, PSB Paris School of Business

Certains collaborateurs sont incontournables pour l’entreprise. L’hybridation entre présentiel et distanciel permet-elle de les fidéliser ? Ou, au contraire, ouvre-t-elle la boîte de Pandore ?
Texte intégral (1475 mots)
Si toutes les organisations peuvent être confrontées au risque collaborateur clé, toutes ne sont pas nécessairement armées face à ces situations. SmartPhotoLab/Shutterstock

Certains collaborateurs sont déterminants pour l’entreprise. Comment les bichonner à l’ère du télétravail ? L’hybridation des modes présentiel et distanciel permet-elle de les fidéliser ? Ou, au contraire, ouvre-t-elle la boîte de Pandore ?

Dans leur essai Le Risque collaborateur clé. Réduire les impacts liés à l’absence d’un ou de plusieurs collaborateurs clés, à paraître aux éditions Gereso en avril, Caroline Diard, professeure associée au département droit des affaires et RH de TBS Education, et Nicolas Dufour, professeur affilié au CNAM, aident les entreprises à s’armer pour faire face à cette situation.


Les derniers chiffres de la direction de l’animation de la recherche, des études et des statistiques (Dares) confirment un ancrage du télétravail dans les pratiques organisationnelles : 22 % des salariés du privé télétravaillent au moins une fois par mois.

Il n’est plus question du télétravail que nous avons connu avant le confinement de mars 2020. Les accords d’entreprise se sont multipliés. Ils sont désormais fréquemment formalisés et objet de dialogue social. On assiste également à une forme d’acculturation au télétravail qui a permis de repenser l’expérience collaborateur.

On parle désormais de travail hybride. L’hybridation produit une imbrication des temps et des espaces. Il est désormais entendu que l’exercice d’une activité peut être effectué pour partie en présentiel et pour partie à distance. Le lieu d’exercice peut être varié : le domicile, un train, un avion, un espace de coworking, une salle d'attente. Au-delà de cette déspatialisation, les temps sont également multiformes et imbriqués – temps de travail, temps social, temps domestique, temps familial, temps de loisir.

Risque collaborateur clé

Le risque collaborateur clé est l’un des principaux risques en ressources humaines (RH). Si l’adage « les cimetières sont remplis de gens irremplaçables » est souvent mis en avant, la gestion de ce risque recoupe des réalités bien diverses. Le collaborateur clé peut être défini comme « celle ou celui qui possède un savoir-faire, une technique, une expertise et/ou des responsabilités uniques qui en font un élément indispensable ». Deux notions au moins sont donc au cœur de ce concept : la rareté – voire le caractère unique du personnage en question – et l’apport en termes de ressources pour l’entreprise – financières ou d’expertise.


Abonnez-vous dès aujourd’hui ! Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Le risque « collaborateur clé » peut se manifester de plusieurs manières : absence, décès, départ à la retraite, démission, révocation, conflit avec l’employeur, etc. Ce sujet, loin d’être nouveau, a été abordé dans différents champs que sont les sciences de gestion, le management des ressources humaines, l’assurance, le contrôle interne, le service juridique. Nous proposons aujourd’hui de dédier un livre à cette thématique : Le risque collaborateur clé : réduire les impacts liés à l’absence d’un ou de plusieurs collaborateurs clés.

Si toutes les organisations peuvent être confrontées au risque collaborateur clé, toutes ne sont pas nécessairement armées face à ces situations. L’enjeu de notre ouvrage est double : la prise de conscience d’un risque devenu incontournable et les moyens pour tenter de réduire les impacts liés à l’absence non planifiée d’un ou de plusieurs collaborateurs clés.

Attractivité et fidélisation

L’hybridation est devenue un élément de la marque employeur. Outil d’attractivité et de fidélisation, il est un fort levier de rétention.

Les collaborateurs clés disposent de compétences et d’expertises qui sont considérées comme rares, voire uniques, par leur entreprise. Ils sont fréquemment abordés par des cabinets de recrutement et peuvent saisir de nombreuses opportunités. Une démission de collaborateur clé pourrait mettre en danger la poursuite de certaines missions.

Certains de ces collaborateurs pourraient être tentés d’aller voir si l’herbe est plus verte ailleurs dans un contexte relativement favorable pour l’emploi. Au quatrième trimestre 2024, le taux de chômage est quasi stable à 7,3 %. Alors que les entreprises sont confrontées à de nombreuses démissions et ruptures conventionnelles, elles ont tout intérêt à communiquer sur les possibilités en matière de lieu d’exercice du travail – domicile, nomadisme, coworking, présentiel entreprise, résidence secondaire.

Risque d’invisibilité

Le risque d’invisibilité – en dehors des cadres contractuels traditionnels – créé par l’hybridation pourrait à l’inverse créer un danger pour l’organisation. Loin du collectif de travail, le collaborateur clé peut saisir d’autres opportunités professionnelles. Le travail en coworking peut lui permettre de tisser des liens utiles pour son employabilité et lui offrir des perspectives de carrière à l’extérieur. Il pourrait aisément être « débauché », loin des yeux de l’entreprise.

« En matière de télétravail, la décision radicale de retour en arrière pourrait pousser de nombreux collaborateurs clés à la démission. Une telle vision serait pourtant un très mauvais calcul dans une période où de nombreux secteurs peinent à recruter et où l’hybridation permet de renforcer la marque employeur comme facteur d’attractivité. D’après France Travail, 57,4 % des entreprises seraient concernées. Ne lâchons pas le télétravail, cela nous priverait d’une opportunité de concilier vie personnelle et professionnelle, de limiter les déplacements et d’adopter une démarche responsable, et surtout de retenir les hommes clés. »

Les attentes sont fortes en matière de conciliation entre vie professionnelle et vie personnelle. Concernant les hommes clés, il serait pertinent d’accéder à toute demande en matière d’hybridation, et ce même si le télétravail n’est pas formalisé dans l’entreprise.

Télétravail à l’étranger

Les services RH ont tout intérêt à être inventifs pour retenir les collaborateurs clés. On pense notamment à la mise en place de télétravail à l’étranger, par exemple.

L’hybridation est devenue un élément de rétribution au même titre qu’une prime variable, un complément retraite, l’épargne salariale. Il s’agit d’offrir une flexibilité à la fois temporelle et géographique, avantage non pécuniaire susceptible d’être privilégié par les collaborateurs clés souhaitant envisager un lieu de vie qui est éloigné de l’entreprise par exemple.

L’hybridation n’est heureusement pas l’unique voie de satisfaction des collaborateurs clés. L’aménagement du temps de travail, la souscription d’un abonnement de coworking, un package de rémunération innovant, pourraient répondre aux attentes des collaborateurs clés.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

07.04.2025 à 11:27

Comment l’engagement ESG renforce la résilience des entreprises

Hachmi Ben Ameur, Directeur de recherche, Professeur, INSEEC Grande École

Selma Boussetta, Maître de conférences en finance, Université de Bordeaux

Et si, pour une fois, la vertu payait ? Les entreprises ayant une politique ESG volontaire seraient moins affectées par les chocs boursiers exogènes. Plusieurs raisons l’expliquent.
Texte intégral (1227 mots)

Et si une certaine vertu payait ? Les entreprises ayant une politique ESG volontaire seraient moins affectées par les chocs boursiers exogènes. Parmi les raisons qui l’expliquent figurent notamment la qualité des liens qu’elles nouent avec leurs parties prenantes.


Les pratiques ESG (relatives aux critères environnement-social-gouvernance, ndlr) des entreprises cotées sont devenues un enjeu central dans l’analyse des marchés financiers, car les investisseurs intègrent de plus en plus ces critères dans leurs décisions d’allocation de capital. Cette évolution influence directement la capacité des entreprises à attirer des financements, à réduire leur coût du capital et à bénéficier de primes de valorisation sur les marchés boursiers.

Les agences de notation ESG et les gestionnaires d’actifs accordent une importance croissante à ces critères, considérant qu’ils reflètent non seulement la performance extrafinancière des entreprises, mais aussi leur potentiel de création de valeur à long terme. Dans ce contexte, il est essentiel d’analyser l’impact des pratiques ESG sur la résilience financière des entreprises.

Sur les marchés boursiers américains, après une année 2020 exceptionnelle, la pandémie de Covid-19 a exercé un choc exogène qui les fit reculer de près de 30 points. Cet événement inédit nous donne l’occasion de comprendre l’influence du score ESG sur la résilience financière des entreprises cotées à deux niveaux. D’une part, à travers la sévérité des pertes liées au cours de l’action et d’autre part sur leur capacité de rebond post-crise. Notre étude, portant sur 1 508 entreprises cotées aux États-Unis entre décembre 2019 et juin 2021, montre que les entreprises disposant d’un meilleur score ESG ont bénéficié d’une plus grande confiance des investisseurs. Cette perception favorable du marché a permis de limiter la baisse du cours de leurs actions et d’accélérer leur retour au niveau d’avant crise.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Facteurs de résilience

Notre étude nous a permis de comprendre que toutes les composantes ESG ne jouent pas un rôle significatif sur le potentiel de résilience des entreprises. Ainsi, si les composantes RSE du score ESG exercent une influence forte, ce n’est pas le cas de la dimension qui relève de la gouvernance. Concrètement, la résilience accrue s’explique par l’action conjointe de quatre facteurs :

Premièrement, les entreprises fortement engagées en ESG sont généralement mieux préparées à gérer les risques, ce qui leur permet de mieux traverser les périodes de turbulence économique. Elles sont souvent mieux préparées à faire face à des situations imprévues, comme une crise sanitaire, grâce à des plans de continuité d’activité bien élaborés et une réactivité accrue face aux changements rapides du marché.


À lire aussi : Effectuer des investissements responsables, ce n’est pas renoncer à leur rentabilité


L’impact de la fidélité des consommateurs

Deuxièmement, les entreprises fortement engagées en ESG bénéficient souvent d’une meilleure réputation, ce qui constitue indéniablement un atout majeur pendant les crises. La fidélité des clients et la confiance des parties prenantes sont renforcées, ce qui aide ces entreprises à maintenir leurs revenus et investissements même en période difficile.

Troisièmement, les bonnes pratiques ESG impliquent souvent des relations plus solides avec les employés et les fournisseurs. Cela peut se traduire par une plus grande réactivité et une meilleure collaboration lorsqu’il est nécessaire d’adapter rapidement les opérations en réponse à une crise.

France 24, 2025.

Quatrièmement, les entreprises qui sont à l’avant-garde de l’innovation notamment dans le développement de produits ou services plus durables envoient un signal positif aux investisseurs qui leur prêtent volontiers de meilleures capacités de résilience face aux crises environnementales. Ces entreprises sont plus aptes à répondre plus efficacement aux défis émergents.

Résistance aux futurs chocs

L’article souligne que du point de vue des entreprises, investir dans le capital environnemental et social pourrait les aider à résister à de futurs chocs et représenter une forme d’assurance efficace en période de crise. Pour les investisseurs, les politiques environnementales et sociales pourraient diminuer le risque d’exposition des entreprises en cas de crise. Les résultats suggèrent que les gestionnaires devraient se concentrer sur les pratiques environnementales et sociales pour améliorer la résilience financière, ce qui pourrait se traduire par des avantages concurrentiels significatifs.

Dit autrement, le capital environnemental et social d’une entreprise est tout aussi important que son capital financier pour évaluer sa capacité à surmonter les crises et à sur-performer à l’avenir. Il devrait à ce titre être de plus en plus scruté par les investisseurs dans leur choix de portefeuille.

De nouveaux critères pour les investisseurs ?

Alors que les défis environnementaux et sociaux prennent une importance croissante, il est intéressant de considérer la manière dont les entreprises et les marchés valorisent les pratiques ES. À l’avenir, il pourrait devenir impératif pour les entreprises non seulement d’adopter des stratégies ES en réponse aux attentes des parties prenantes, mais aussi comme un élément essentiel de leur survie et de leur prospérité dans un environnement commercial, de plus en plus incertain et volatile.

Les innovations dans le domaine de la durabilité, mais aussi les bonnes pratiques RSE, peuvent non seulement contribuer à la résilience financière, mais aussi stimuler la croissance économique et le développement social. En définitive, cette réflexion doit inciter les entreprises à repenser leurs modèles et les investisseurs à réévaluer leurs critères d’investissement, en mettant un accent plus prononcé sur les pratiques durables et responsables, non seulement pour leur impact social et environnemental positif, mais également pour leur potentiel de création de valeur à long terme.

The Conversation

Selma Boussetta a reçu des financements de ANR JCJC.

Hachmi Ben Ameur ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

07.04.2025 à 11:26

Et McDonald’s ressuscita les jouets « pour adultes » avec un menu pixélisé

Sophie Renault, Professeur des Universités en Sciences de Gestion et du Management, Université d’Orléans

En surfant sur le succès du jeu vidéo « Minecraft » et de la sortie du film du même nom, McDonald’s propose en mars 2025 un menu Minecraft. Décryptage de la stratégie de la chaine de restauration rapide.
Texte intégral (2101 mots)
Un logo pixélisé, un jouet en plastique... Avec _Minecraft_, McDonald’s joue la carte de la nostagie. McDonald’s tous droits réservés

Avec ces 170 millions de joueurs dans le monde, Minecraft ne pouvait qu’intéresser les marques. Ainsi, McDonald’s propose désormais un menu Minecraft. Décryptage de la stratégie de la chaîne de restauration rapide : quels sont les enjeux du retour des jouets en plastique chez McDo ?


À l’occasion de la sortie du film Minecraft, McDonald’s lance un menu avec jouets… pour adultes. De dimension internationale, cette opération de marketing concerne une centaine de pays. Elle s’inspire de la nostalgie du Happy Meal d’antan, tout en contournant, s’agissant de la France, l’interdiction des jouets en plastique…

Depuis le 25 mars 2025, les amateurs de pop culture et de souvenirs d’enfance peuvent retrouver chez McDonald’s France un menu d’un genre particulier : le menu Minecraft, inspiré de l’univers pixelisé du célèbre jeu vidéo et lancé à l’occasion de la sortie de Minecraft, le film, en salles le 2 avril 2025. Il est possible pour les amateurs du fast-food de commander les traditionnels menus Best Of ou Maxi Best Of, assortis d’une sauce inédite baptisée « Nether Flame » (du nom de la dimension infernale dans le jeu, ndlr) et, surtout, d’un jouet en plastique.

Un menu collector et régressif, lancé à un moment stratégique

Revisitées dans le design graphique de Minecraft, six figurines à collectionner sont proposées à l’effigie des mascottes historiques de McDonald’s (Grimace, Birdie, le Hamburglar) et des plats emblématiques, comme le Big Mac renommé Big Mac Crystal. Chaque figurine est accompagnée d’une carte collector et d’un code à scanner qui débloque un « Skin » spécial dans le jeu. Longtemps réservé aux enfants, le jouet fait donc ici son grand retour… mais dans une version pensée pour les adultes.

En parallèle, à partir du 2 avril 2025, le menu enfant a également adopté l’univers de Minecraft, tout en respectant la réglementation française : les jouets proposés sont en carton, et non en plastique.

Ce lancement intervient à un moment clé dans l’actualité de la licence Minecraft. Lors du Minecraft Live de mars 2025, ont été annoncées plusieurs évolutions majeures parmi lesquelles une refonte graphique ambitieuse (Vibrant Visuals), de nouvelles créatures et un événement in-game spécial pour célébrer la sortie du film.

En se greffant à cette actualité, McDonald’s ne se contente pas de surfer sur une tendance : il se positionne au cœur d’un écosystème culturel captant à la fois l’attention des fans du jeu comptant plus de 170 millions de joueurs mensuels dans le monde et celle des nostalgiques du Happy Meal.

La nostalgie comme ressort émotionnel et commercial

Ce « menu pour adultes » n’arrive pas sans signaux précurseurs. Le 20 février 2025, McDonald’s France lançait un message sur les réseaux sociaux Instagram et Facebook : « Je suis le seul à rêver d’un Happy Meal pour adulte ? »

Le ton était donné et le teasing lancé. Ce post a largement mis en émoi la communauté de fans de la marque demandant le retour des jouets de leur enfance.

Sur le compte Instagram, on pouvait notamment lire les commentaires suivants :

« Un Happy Meal, mais avec les vieux jouets qu’on avait avant, c’était génial », « Si McDo fait un Happy Meal adulte avec un jouet ou un livre, je prends ! »

ou bien encore :

« Faire un Happy Meal pour les adultes qui sont nés dans les années 1990 avec les jouets qui allaient avec ! »

Le 10 mars 2025, un nouveau post constitué d’une photographie d’un ancien jouet Tokio Hotel, accompagnée du message « Il y a 15 ans dans mon Happy Meal… » ravivait plus encore la flamme.

Tout cela participe d’une stratégie maîtrisée de marketing de la nostalgie, qui transforme les souvenirs en expérience de marque. En effet, pour toute une génération ayant grandi dans les années 1990 et 2000, les jouets Happy Meal faisaient partie intégrante de l’expérience McDo : figurines Disney, mini tamagotchis, gadgets loufoques… Autant de souvenirs qui, aujourd’hui, constituent des vecteurs émotionnels puissants.

Ce n’est d’ailleurs pas la première incursion de McDonald’s dans cette logique. En 2022, aux États-Unis, l’enseigne avait lancé un « Happy Meal pour adultes » avec la marque Cactus Plant Flea Market. En 2024, en Espagne, une édition spéciale proposait des figurines inspirées de la série Friends. La même année, un menu Squid Game était proposé en Australie.

Zone grise réglementaire

En France, ce retour du jouet revêt une dimension particulière. L’article 81 de la loi n° 2020-105 du 10 février 2020 relative à la lutte contre le gaspillage et à l’économie circulaire impose, depuis le 1er janvier 2022, la fin de « la mise à disposition, à titre gratuit, de jouets en plastique dans le cadre de menus destinés aux enfants ». En ciblant – sur le territoire français – les seuls adultes, McDonald’s joue habilement sur une zone grise réglementaire, tout en assumant une stratégie générationnelle.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


L’opération fonctionne comme une passerelle entre deux territoires de nostalgie : celui de McDonald’s lui-même, marque intergénérationnelle aux codes affectifs puissants, et celui de Minecraft, jeu culte qui parle autant aux enfants d’hier qu’aux gamers d’aujourd’hui. En conciliant ces deux univers, l’enseigne réussit à capter l’attention d’un large public.

Le succès du menu Minecraft ne se fait pas attendre. Sur les réseaux sociaux, les réactions enthousiastes affluent, mêlant incrédulité « Genre c’est un vrai jouet, genre un truc en plastique ? ? ? » et enthousiasme nostalgique « Comment ça fait plaisir d’avoir des jouets physiques ! Continuez à faire des Happy Meal pour adultes s’il vous plait ». En réactivant le plaisir régressif, McDonald’s touche une corde sensible : celle d’une nostalgie réconfortante, bienvenue dans un monde traversé par l’anxiété, les incertitudes et les tensions. Dans un quotidien souvent pesant, ces petits rappels de l’enfance offrent un refuge émotionnel, léger mais puissant.

YouTube, Fiouze, 2025.

Un retour en enfance… qui interroge nos contradictions de consommateurs

Cette opération marketing n’est pas exempte d’ambiguïtés. En réintroduisant des jouets en plastique, certes pour adultes, la marque ouvre un débat que l’on pensait clos : celui de la pertinence d’objets à usage court dans un contexte de transition écologique. Bien sûr, les adultes font le choix d’acheter ces figurines (elles peuvent être acquises indépendamment du menu au tarif de 3 euros), souvent pour les collectionner. Mais une question se pose : le jouet en plastique est-il plus acceptable lorsqu’il est assumé et destiné à un public majeur ?

Dans l’esprit des nostalgiques du jouet plastique, les jouets en carton présents désormais dans les menus destinés aux enfants sont un objet de débats. En lien avec l’écho nostalgique ressenti suite à la diffusion par McDonalds France du visuel d’une enceinte musicale Tokio Hotel dont plusieurs nostalgiques disaient qu’ils l’avaient conservée et qu’elle fonctionnait toujours, on pouvait notamment lire :

« Si vous voulez faire un vrai geste écologique, supprimez carrément les jouets en carton et les livres. Ils finissent tous à la poubelle contrairement aux jouets plastiques gardés des années. Ok pour l’écologie mais intelligente ! »,

ou encore :

« La France entière réclame le retour des vrais jouets. Les cadeaux actuels finissent à la poubelle pour encore plus de déchets finalement… »

À travers ces réactions se dessine une critique implicite : en voulant supprimer le plastique à tout prix, on aurait favorisé une surconsommation d’objets perçus comme bas de gamme et moins durables, créant in fine… plus de déchets.

En attendant le retour de Diddl

Au-delà de la tension écologique, on observe un glissement dans notre culture de consommation. L’enfance devient un territoire commercial réinvesti, non plus pour les enfants eux-mêmes, mais pour les adultes qui cherchent à revivre ce qui les faisait rêver. Le phénomène dépasse largement le cas McDonald’s : le retour du chocolat Merveilles du Monde ou encore l’attachement persistant des adultes à des univers comme Hello Kitty, les Bisounours ou les Polly Pocket en témoignent.

Ces icônes de l’enfance n’ont jamais vraiment disparu, mais elles font aujourd’hui l’objet d’un véritable marché générationnel, assumé, cultivé et souvent nostalgique. Le retour de Diddl en 2025, très attendu par les trentenaires et quadragénaires, illustre également cette dynamique. À l’heure où la consommation est de plus en plus expérientielle voire émotionnelle, la nostalgie reste l’un des leviers les plus puissants du marketing. S’agissant de McDonald’s, il semble s’agir de la parfaite recette pour retrouver la frite !

The Conversation

Sophie Renault ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

07.04.2025 à 11:26

Deezer rentable pour la première fois : quel est son modèle économique ?

Nabyla Daidj, Enseignant-chercheur en management des SI et en stratégie, Institut Mines-Télécom Business School

Longtemps, Deezer, la plateforme de streaming musical française, a cherché son modèle économique. Elle pourrait l’avoir trouvé. Retour sur vingt ans d’histoire musicale.
Texte intégral (1803 mots)

Longtemps, Deezer, la plateforme française de streaming musical, a cherché son modèle économique. Elle pourrait l’avoir trouvé. Retour sur vingt ans d’histoire musicale. Où il se confirme que, pour espérer réussir dans le numérique, il faut savoir se remettre en question régulièrement.


Les années 1990 et 2000 ont été marquées par des changements majeurs dans l’industrie des médias et en particulier dans le secteur de la musique. Ce dernier a connu une baisse des ventes physiques (CD), l’augmentation des téléchargements (sur un mode illégal mais aussi légal), un usage croissant du smartphone comme terminal privilégié pour la consommation de contenus… Le marché du streaming musical enregistre alors une croissance rapide devenant l’un des principaux moyens d’écouter de la musique dans de nombreux pays, dont la France.

C’est dans ce contexte de transformation numérique que Daniel Marhely décide de lancer en 2006 en France une plateforme de streaming musicale Blogmusik, rebaptisée Deezer, dès 2007. Les débuts de Deezer sont chaotiques sur un marché français très concurrentiel avec des acteurs déjà bien installés à l’époque, à l’instar de Spotify. Mais progressivement, Deezer réussit à se positionner comme un acteur clé avec sa plateforme de streaming au niveau international.

La fin des pertes

Après des années de performances financières assez médiocres, Deezer annonce en mars 2025, des résultats pour 2024 en nette progression avec une augmentation du chiffre d’affaires de 12 % et surtout une amélioration significative de la rentabilité : la plateforme a atteint le seuil de rentabilité pour la première fois au cours du second semestre de l’année 2024, avec un Ebitda (bénéfice avant intérêts, impôts, dépréciation et amortissement) ajusté passant d’une perte de 28,8 millions d’euros en 2023 à 4 millions d’euros en 2024. Les prévisions pour 2025 sont optimistes avec des objectifs affichés pour un Ebitda ajusté positif et un flux de trésorerie disponible positif pour la deuxième année consécutive. Deezer a traversé plusieurs phases qui coïncident avec des prises de décision stratégique engageant l’entreprise à adapter notamment son modèle d’affaires.

Cette notion de modèle d’affaires s’est très largement diffusée depuis la fin de la décennie 1990. Cela correspond à la montée en puissance de tous les services et applications numériques dans un contexte de convergence des secteurs des TIC. Le modèle d’affaires (ou modèle économique) renvoie à des sens, des interprétations et des représentations multiples selon l’angle considéré (différenciation, avantage concurrentiel, innovation, disruption, partage de la valeur, etc.) et la discipline de référence (management des systèmes d’information, stratégie, entrepreneuriat, marketing digital, etc.). De fait, le modèle d’affaires est défini tour à tour comme une méthode, une démarche, un cadre d’analyse unifié, une logique, un concept, etc.

Le modèle d’affaires de Deezer sur plusieurs années peut être analysé au travers de trois dimensions principales dont certaines sont très anciennes et relèvent du champ économique « classique » :

  • la valeur : proposition, processus de création, partage de la valeur ;

  • les ressources : capacités d’innovation, « scalabilité » (passage à l’échelle et rendements croissants) ;

  • les revenus : le modèle de revenu (flux de revenus), souvent confondu avec le modèle d’affaires lui-même. Il existe plusieurs modèles de revenus parmi lesquels les formules « gratuites » (assorties ou non de publicité), payantes avec notamment les abonnements, les offres premium, etc.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Un environnement en évolution permanente

Deezer a évolué dans un environnement technologique et réglementaire très changeant obligeant les acteurs du marché à des adaptations continues. Trois grandes périodes peuvent être identifiées avec un impact significatif sur les modèles d’affaires :

  • La fin des années 2000 : les premiers tâtonnements dans le streaming musical. Le fait marquant est bien entendu le lancement de la plateforme (avec des ressources et une démarche innovante) qui s’inspire des autres modèles existants sur le marché. Deezer a surtout testé pendant cette période des modèles de revenus (abonnements, formule premium). La proposition de valeur « accès (écoute et/ou téléchargement) à un son de très haute qualité et sans publicité » trouve son public et les premiers chiffres sont encourageants.

  • Les années 2010 : vers une transformation profonde du modèle d’affaires initial ? Cette décennie a été l’occasion, notamment pour Deezer, de « reconfigurer certaines briques » de son modèle d’affaires d’origine et d’étendre le périmètre géographique de ses activités au-delà du territoire français. Deezer poursuit la signature d’accords avec les labels de musique. La plateforme s’est enrichie avec des ressources issues de nombreux partenariats que Deezer a su développer. Plusieurs alliances sont nouées avec des opérateurs tels qu’Orange mais aussi avec d’autres acteurs du secteur des médias comme Fnac-Darty puis dans la décennie suivante avec Bouygues Telecom, Sonos, RTL+, DAZN, etc.


À lire aussi : « Homo subscriptor » : stade suprême du capitalisme numérique


Deezer réussit plusieurs levées de fonds successives et l’intégration de nouveaux actionnaires. Les processus de capture et de partage de la valeur entre les différents partenaires (offres intégrées) évoluent en conséquence. Son modèle économique est hybride, alliant des canaux de distribution direct (B2C) et indirect (B2B grâce aux partenaires).

Une licorne française

Côté consommateurs, Deezer poursuit sa croissance avec un catalogue de plus en plus étoffé, une audience en augmentation avec des offres ciblées (Deezer famille) et une mise à jour du site et de l’application (navigation plus fluide), de nouveaux contenus, des interactions directes et exclusives entre les utilisateurs et leurs artistes préférés, l’accompagnement d’artistes en leur permettant une plus grande visibilité sur la plateforme et les réseaux sociaux.

Même si Deezer devient une licorne française à la fin des années 2010, son renoncement à une première tentative d’entrée en Bourse en 2015 montre aussi que le modèle d’affaires de la plateforme n’était pas encore totalement « stabilisé » et que Deezer cherche de nouveaux relais de croissance et nouvelles sources de monétisation de son audience.

France Culture 2024.
  • 2020-2025 : l’innovation au cœur du modèle d’affaires

Si la période est contrastée, l’entreprise réussit sa deuxième tentative d’entrée en Bourse (Euronext Paris) en 2022. Mais le bilan est très mitigé. Les résultats économiques et financiers ne suivent pas, si bien que le cours s’effondre.

Amélioration de l’expérience client

Parallèlement, Deezer poursuit sa stratégie d’innovation avec pour objectif l’amélioration de l’expérience client par l’établissement notamment de playlists, ainsi que le développement de son algorithme Flow, qui inclut les favoris et des recommandations personnalisées sur la base des contenus ajoutés aux favoris par les utilisateurs. Flow évolue avec l’intégration de filtres. Parmi les autres fonctionnalités nouvelles, la synchronisation des paroles est désormais proposée. Le recours à l’intelligence artificielle (IA) sert quant à lui à identifier les musiques générées par l’IA.

En matière de rémunération et de redistribution pour les droits d’auteur, c’est le modèle au prorata (market centric) qui a été adopté majoritairement par les différents acteurs du streaming musical. Les revenus d’abonnement ou publicitaires génèrent un montant global qui est réparti en proportion de tous les temps d’écoute. Ce modèle favorise les artistes les plus populaires et les morceaux les plus écoutés.

Mieux rémunérer les artistes ?

C’est dans ce contexte en 2023 que Deezer décide de lancer un modèle de streaming musical centré cette fois-ci sur l’artiste baptisé : « Artist-Centric » dans une approche plus locale et non plus globale. Au cœur de ce modèle d’affaires, l’objectif affiché est de mieux rémunérer les artistes et de mieux prendre en compte les goûts des utilisateurs pour des artistes indépendants et/ou des musiciens faisant peu d’audience.

2025 s’annonce comme une année de consolidation pour Deezer avec une trajectoire positive. Elle révèlera aussi si l’embellie récemment constatée est le signe d’une amélioration structurelle de la situation financière de l’entreprise ou si elle n’était que passagère. À suivre donc…

The Conversation

Nabyla Daidj ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

06.04.2025 à 17:35

L’éloignement des détenus étrangers, solution à la surpopulation carcérale ?

Vincent Sizaire, Maître de conférence associé, membre du centre de droit pénal et de criminologie, Université Paris Nanterre – Université Paris Lumières

Gérald Darmanin estime qu'afin de faire face à la surpopulation carcérale, il est nécessaire de transférer les détenus étrangers dans leur pays d'origine. Une approche qui ne résiste pas à l'épreuve des faits.
Texte intégral (1691 mots)

Gérald Darmanin, le nouveau garde des sceaux, estime qu’afin de faire face à la surpopulation carcérale qui ne cesse d’augmenter d’année en année, il est nécessaire de transférer les détenus étrangers dans leur pays d’origine. L’efficacité de ces mesures martiales, répétées à l’envi, ne résiste pas à l’épreuve des faits. Pire, elles conduiraient à des effets aussi néfastes que contre-productifs. Il existe d’autres solutions pour réduire le taux d’incarcération.


Le 21 mars dernier, le garde des sceaux a adressé à l’ensemble des procureurs une circulaire les exhortant à user de tous les moyens à leur disposition pour transférer les détenus étrangers dans leur pays d’origine. Présentée dans la presse comme destinée à répondre à la surpopulation carcérale endémique qui sévit dans notre pays depuis plus de vingt ans, la mesure peut paraître frappée au coin du bon sens, le nombre de personnes étrangères incarcérées correspondant, peu ou prou, au nombre de places nécessaires pour remédier à cette situation. A l’analyse, cette solution se révèle pourtant doublement illusoire.

Alors que les prisons françaises comptent environ 19 000 ressortissants étrangers, les mesures préconisées sont loin de permettre le transfèrement de l’ensemble de ces personnes. La circulaire se garde d’ailleurs bien de fixer un quelconque objectif chiffré. D’une part, il faut avoir l’esprit qu’une grande partie d’entre eux sont placés en détention provisoire, se trouvant en attente de leurs procès ou d’une décision définitive sur les poursuites intentées à leur encontre. Et si les personnes étrangères représentent en moyenne un quart de la population carcérale, elles comptent pour un tiers des personnes provisoirement incarcérées, soit environ 8 000 détenus. Sauf à interrompre brutalement le cours des procédures judiciaires les concernant – et, partant, laisser l’infraction en cause sans aucune réponse – il ne saurait évidemment être question de les rapatrier dans leur pays d’origine avant qu’un jugement définitif n’ait été rendu à leur égard.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Une solution illusoire et impraticable

En outre, que la personne ait été ou non définitivement condamnée, les conventions internationales encadrant ces échanges prévoient qu’aucun transfert ne peut davantage se faire sans que la personne détenue y consente expressément. Cette exigence ne disparait que pour les transferts impliquant des ressortissants d’un pays membre de l’Union européenne, lesquels ne représentent qu’une très faible proportion de la population carcérale. Par ailleurs, aucune mesure de transfèrement ne peut se faire sans l’accord des autorités du pays d’accueil. Il en est de même pour la mesure d’aménagement de peine spécifique aux personnes étrangères soumises à une obligation de quitter le territoire que constitue « la liberté conditionnelle – expulsion » : la personne est libérée avant la fin de sa peine aux seules fins de mettre à exécution, dès sa sortie de prison, son retour dans son pays d’origine. Si cette mesure ne suppose pas l’accord formel du condamné, elle requiert en revanche la délivrance d’un laissez-passer par les autorités étrangères – une procédure dont l’effectivité est aujourd’hui mise à mal par la politique du chiffre qui sévit en la matière. En imposant aux services préfectoraux de délivrer toujours plus d’OQTF chaque année, les autorités les privent d’assurer utilement le suivi de chaque situation individuelle.

Rappelons enfin que le transfert d’une personne détenue dans un autre État ne peut se faire s’il implique une atteinte disproportionnée à son droit à une vie privée et familiale tel que garanti par l’article 8 de la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales : même si elle en a la nationalité, une personne ne peut être renvoyée dans son pays d’origine si l’essentiel de ses liens personnels et familiaux sont en France et qu’elle y réside depuis de très nombreuses années. On mesure ainsi à quel point, au-delà des effets de manche, les mesures annoncées par le ministère de la Justice ne sont absolument pas susceptibles de remédier à la surpopulation carcérale.

Ces mesures sont d’autant moins susceptibles d’y mettre fin qu’elles conduisent à occulter les véritables causes de ce phénomène. Ainsi que l’a démontré la brutale hausse des incarcérations ayant immédiatement suivi les libérations massives intervenues au plus haut de la crise sanitaire, au printemps 2020, le problème se situe moins au niveau des sorties que des entrées. Le nombre de places de prison a beau augmenter année après année, il reste toujours largement inférieur au nombre de personnes incarcérées. Face à ce constat, il n’existe dès lors que deux solutions si l’on veut vraiment en finir avec la suroccupation dramatique des prisons françaises. En premier lieu, certains acteurs préconisent d’instituer un mécanisme de régulation carcérale « automatique », prévoyant que, lorsque l’ensemble des places d’un établissement sont occupées, aucun nouveau condamné ne peut être incarcéré sans qu’un détenu ne soit libéré préalablement. La mise en œuvre de ce mécanisme suppose toutefois que le nombre de détenus soit identique ou à tout le moins proche du nombre de places. Le taux d’occupation particulièrement élevé des établissements surpeuplés – qui dépasse parfois 200 % – le rend ainsi impraticable en l’état. En l’état du flux de nouvelles incarcérations, sa mise en place supposerait en outre de renforcer considérablement les services chargés de l’aménagement des peines afin qu’ils puissent, en temps utile, faire sortir autant de personnes qu’il en rentre.

Les vraies causes de la surpopulation carcérale

C’est pourquoi il est sans doute préférable de chercher d’abord à agir sur les causes de la surpopulation carcérale. Si le taux d’incarcération a plus que doublé depuis la fin du XXe siècle c’est que, dans le même temps, le nombre d’infractions passibles d’emprisonnement a suivi la même pente ascendante et que les peines encourues pour certaines des plus poursuivies d’entre elles – à l’image des vols aggravés – n’ont également cessé d’augmenter.

Conséquence mécanique de cette évolution, le nombre personnes incarcérées comme la durée moyenne d’emprisonnement ferme n’ont fait que croître. Remédier à la surpopulation carcérale suppose alors de remettre durablement en cause une telle évolution. D’une part, en envisageant la dépénalisation des faits pour lesquels une réponse alternative à la répression paraît plus adaptée et efficace. A l’image de ce qui se pratique dans la majorité des États d’Europe de l’Ouest, mais également au Canada ou en Californie, l’abrogation du délit de consommation de produits stupéfiants, aujourd’hui passible d’un an d’emprisonnement, aurait un effet à la baisse immédiat sur la population carcérale.

De la même façon, substituer à la prison la mise à l’épreuve ou le travail d’intérêt général comme peine de référence pour certains délits – par exemple pour les atteintes aux biens – permettrait de réduire significativement le taux d’incarcération. Rappelons à cet égard que si les personnes étrangères sont surreprésentées dans les prisons françaises, cela tient avant tout à leur précarité matérielle et administrative, qui les prive bien souvent des « garanties de représentation » (un domicile stable, un logement propre permettant notamment de mettre en place une surveillance électronique) qui permettent aux autres d’échapper à la détention provisoire ou d’obtenir un aménagement de leur emprisonnement.

The Conversation

Vincent Sizaire ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

06.04.2025 à 17:34

Le porte-avions « Charles-de-Gaulle », vitrine des ambitions françaises en Indo-Pacifique

Paco Milhiet, Visiting fellow au sein de la Rajaratnam School of International Studies ( NTU-Singapour), chercheur associé à l'Institut catholique de Paris, Institut catholique de Paris (ICP)

Le « Charles-de-Gaulle », outil militaire d’envergure, est devenu en quelque sorte un ambassadeur français hors norme dans la région Indo-Pacifique.
Texte intégral (2048 mots)

Le porte-avions Charles-de-Gaulle et son groupe aéronaval reviennent d’une mission en Indo-Pacifique, région où la France cherche à développer son influence. Illustration concrète de la stratégie mise en œuvre par Emmanuel Macron depuis 2018, ce déploiement démontre la capacité de la France à projeter une puissance aéromaritime à des milliers de kilomètres de ses côtes hexagonales.


« Un porte-avions, c’est 100 000 tonnes de diplomatie », aurait affirmé l’ancien secrétaire d’État américain Henry Kissinger (1923-2023). Apocryphe ou non, cette expression reste d’actualité tant ces navires constituent un atout majeur pour les États qui en disposent.

Déployer un porte-avions, outil opérationnel sans équivalent, constitue autant un message d’affirmation stratégique qu’un moyen d’asseoir sa crédibilité diplomatique. Dernier exemple en date : en octobre 2023 à Gaza, trois jours après le début de la guerre, l’USS Gerald R. Ford naviguait en Méditerranée orientale pour tempérer toute velléité iranienne d’intervenir dans le conflit.

Traduction française de l’adage kissingerien, les 42 000 tonnes du porte-avions Charles-de-Gaulle (CDG), navire amiral de la Marine nationale, sont un avantage hors norme pour la France. Parti de Toulon en novembre dernier, le CDG est actuellement en mer dans le cadre de la mission Clemenceau 25, un déploiement résolument tourné vers l’Indo-Pacifique, une région où la France cherche à tisser son influence, en toute autonomie.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


« Mission Clemenceau 25 : une démonstration de la puissance navale française », ministère des armées, Youtube (février 2025).

Un porte-avions n’est donc pas seulement un moyen de projection militaire essentiel, c’est aussi un appui crédible de la stratégie Indo-Pacifique française, nouvel espace géopolitique de référence où la France cherche à faire valoir ses intérêts.

Un outil opérationnel hors norme

L’utilisation du porte-avions comme outil opérationnel a parfois divisé la communauté d’experts stratégiques, notamment quand il convient de faire des choix budgétaires.

Coût prohibitif ; absence de permanence à la mer sans « sister ship » ; vulnérabilité en cas de guerre de haute intensité ; défis posés par les stratégies de déni d’accès et d’interdiction de zone (stratégies A2/AD), et par des missiles à longue portée de plus en plus performants : autant de critiques régulièrement formulées à l’encontre de l’emploi du CDG.

Pourtant, le porte-avions demeure un instrument largement utilisé et convoité au XXIe siècle. On observe un essor des flottes de porte-avions dans le monde, car elles sont perçues par de nombreux pays comme l’outil de souveraineté absolue qui leur confère la capacité à se projeter loin et longtemps.

Dans le cadre de la mission Clemenceau 25, le CDG, accompagné de son groupe aéronaval (GAN) – constitué d’une trentaine d’aéronefs et de cinq navires de guerre – mobilise près de 3 000 militaires, déployés pendant 150 jours de la Méditerranée jusqu’aux confins du Pacifique occidental.

Opérant depuis la haute mer – espace de liberté et sanctuaire stratégique –, le CDG est à la fois une base aérienne embarquée, une centrale nucléaire et un centre de commandement. Le tout est un mécanisme parfaitement synchronisé capable de catapulter, puis de faire apponter en pleine mer, des dizaines d’aéronefs par jour.

Véritable ville flottante, le porte-avions CDG est néanmoins un instrument mobile, il peut parcourir près de 1 000 km par jour et engager le feu à plus de 2 000 km. De plus, ses divers senseurs (radars, sonars, satellites) assurent une bulle informationnelle pour agir efficacement dans tous les champs et milieux de conflictualité (mer, terre, air, fonds marins, cyber, espace).

« Le porte-avions Charles-de-Gaulle, une ville de 42 000 tonnes », France 24 (2023).

L’ensemble de ces capacités permettent aux marins français de remplir un large éventail de missions : défense aérienne et antimissile, combat naval, frappe contre la terre, opération amphibie, lutte anti-sous-marins, interception maritime, protection du transport maritime, entre autres. Outil souple et polyvalent, le CDG est le symbole de l’autonomie stratégique française ainsi qu’un instrument crédible qui facilite les coopérations avec des nations partenaires.

Un instrument de coopération crucial

En service depuis 2001, les déploiements du GAN sont systématiquement l’occasion d’interactions avec les marines et armées étrangères. À cet égard, la mission Clemenceau 25 a porté à un niveau inédit les partenariats de la Marine nationale en Indo-Pacifique, structurés autour de trois moments clés : l’exercice de sécurité maritime La-Pérouse 25, mené avec huit nations riveraines de la région dans les détroits d’Asie du Sud-Est (Malacca, Lombok, Sonde) ; l’exercice trilatéral Pacific Steller aux côtés des États-Unis et du Japon ; et l’exercice annuel franco-indien Varuna.

Symbole des bonnes relations qu’entretient la France dans la région, le CDG a, pour la première fois de son histoire, fait escale aux Philippines (Subic Bay), en Indonésie (Lombok, où le ministre Sébastien Lecornu s’est rendu) et a fait une étape remarquée à Singapour.

Agrégateur de coopération maritime en temps de paix, pierre angulaire des flottes modernes, permettant une montée en puissance des forces partenaires et renforçant la confiance et l’interopérabilité, le GAN peut également être en facteur de désescalade politique en temps de crise. Outre le déploiement américain en Méditerranée mentionné plus haut, un autre exemple date de 1995, quand les États-Unis avaient déployé deux porte-avions dans le détroit de Formose en réponse à des tirs de missiles lancés par Pékin dans les eaux territoriales taïwanaises.

Le GAN est donc un puissant levier politique que la France exploite pour affirmer ses ambitions en Indo-Pacifique.

« La France, un point d’entrée stratégique dans l’Indo-Pacifique », Marine nationale (2024).

Stratégie Indo-Pacifique, au-delà du narratif

À partir de mai 2018, Emmanuel Macron, a formalisé une stratégie Indo-Pacifique française pour légitimer et crédibiliser le statut de la France en tant que puissance régionale.

À travers l’exercice de la souveraineté dans les collectivités de la zone, ce nouveau narratif est une opportunité pour la diplomatie française de valoriser ses attributs de puissances diplomatiques, culturelles, économiques et surtout militaires dans cette vaste région.

Ainsi, la France cherche à promouvoir une vision singulière, celle d’un espace Indo-Pacifique libre, ouvert, respectueux du droit international et favorisant une approche multilatérale. Et refusant toute logique de bloc, le président Macron encourage l’ensemble des partenaires à être libres de la coercition chinoise sans pour autant s’aligner systématiquement sur les États-Unis.

Pour le ministère des armées, les déclinaisons opérationnelles de la stratégie Indo-Pacifique impliquent la protection de 1,8 million de Français résidant dans les collectivités françaises de la zone. Il s’agit également de contribuer aux opérations nationales et européennes en mer Rouge et dans l’océan Indien, afin de renforcer la sécurité maritime dans ces régions.

En complément des forces prépositionnées en permanence dans les collectivités françaises de la région et des missions régulières de la Marine nationale et de l’Armée de l’air et de l’espace dans la zone, le déploiement du CDG constitue ainsi un signal stratégique fort, qui crédibilise la stratégie portée par l’État.

Un gage de crédibilité… et de rentabilité ?

Déployée en autonomie malgré la tyrannie des distances, notamment grâce à une escorte complète de frégates et à la présence du bâtiment ravitailleur Jacques-Chevallier, la mission Clemenceau 25 a permis de démontrer la capacité de la France à utiliser sa force aéromaritime loin du territoire hexagonal pendant plusieurs mois.

Le GAN est aussi la vitrine de l’excellence française à travers la diversité des technologies et des armements mis en œuvre. Le Rafale M F4.1, le sous-marin nucléaire d’attaque de classe Suffren, ou encore les frégates multimissions sont autant de « porte-étendards » et de potentiels contrats à l’exportation pour l’industrie française de l’armement.

En 2024, la France est devenue le deuxième exportateur mondial d’armements, et certains de ses plus gros clients, comme l’Inde, l’Indonésie et les Émirats arabes unis, sont des nations de l’Indo-Pacifique. Le déploiement du GAN relève donc aussi du soutien à l’exportation de la base industrielle et technologique française.

Instrument crédible, multimodal et polyvalent, dont les fonctions dépassent le strict cadre militaire, le GAN est un atout de première main pour la France. En attendant la mise en service du nouveau porte-avions (à l’horizon 2038), le Charles-de-Gaulle restera le « meilleur ambassadeur » français dans la zone Indo-Pacifique.

The Conversation

Paco Milhiet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

06.04.2025 à 17:33

Climat et agriculture : pour éviter le risque de surchauffe, le levier du méthane

Marc Delepouve, Chercheur associé au CNAM, Docteur en épistémologie, histoire des sciences et des techniques, Conservatoire national des arts et métiers (CNAM)

Bertrand Bocquet, Professeur des Universités, Physique & Science, Technologie et Société, Université de Lille

En éliminant les énergies fossiles, on réduit les émissions de gaz à effet de serre… mais également de dioxydes de soufre à l’effet refroidissant. Comment éviter toute surchauffe transitoire ?
Texte intégral (2629 mots)

Limiter l’utilisation des énergies fossiles doit permettre de lutter contre le réchauffement climatique. Or, à court terme, il faut aussi prendre en compte l’autre conséquence de la décarbonisation de l’économie : la baisse des émissions de dioxydes de soufre, qui ont, au contraire, un effet refroidissant sur la planète. Pour pallier le risque de surchauffe transitoire, il existerait pourtant un levier précieux : réduire les émissions de méthane liées à l’agriculture.


L’agriculture est sous tension. Aujourd’hui source de problèmes écologiques, sanitaires, sociaux et même éthiques du fait des enjeux de souffrance animale, elle pourrait se situer demain du côté des solutions. Elle pourrait constituer le principal levier pour répondre au risque d’un épisode de surchauffe du climat.

La réduction de l’utilisation des énergies fossiles, rendue nécessaire pour l’atténuation du changement climatique, porte en effet un tel risque. Le recours aux énergies fossiles (charbon, pétrole, gaz naturel…) provoque des émissions de dioxyde de carbone (CO2), dont l’effet de serre réchauffe le climat. Mais la combustion d’un grand nombre de ces produits fossiles s’accompagne de l’émission de dioxyde de soufre (SO2) qui possède un effet refroidissant sur le climat et génère des aérosols qui ont eux aussi un effet refroidissant.

Au plan global, l’impact du CO2 en termes de réchauffement est plus fort que le pouvoir refroidissant du SO2 et constitue la première cause du changement climatique. Se passer des énergies fossiles, ce que nous nommerons dans cet article défossilisation de l’énergie, est donc au cœur des stratégies d’atténuation du changement climatique.

Le problème, c’est que les effets sur le climat d’une baisse des émissions de CO2 mettent du temps à se faire sentir du fait de la durée de vie élevée du CO₂ dans l’atmosphère. En comparaison, les effets d’une chute des émissions de SO2 sont quasiment immédiats, la durée de vie de ce gaz n’étant que de quelques jours dans la troposphère et de quelques semaines dans la stratosphère.

Si elles ne prennent en compte ces différences de temporalité, les stratégies d’atténuation pourraient conduire à un épisode de surchauffe momentané du climat. Les rapports du GIEC ont notamment exploré ces incertitudes : à l’issue d’un arrêt rapide des fossiles, l’effet réchauffant lié à la fin des émissions de SO2 se situerait très probablement dans la fourchette de 0,11 °C à 0,68 °C.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Afin de répondre à ce risque, certains promeuvent des solutions de géo-ingénierie, dont certaines sont porteuses de risques environnementaux majeurs. Pourtant, une solution simple qui ne présente pas de tels risques existe.

Elle repose en premier lieu sur la diminution rapide des émissions anthropiques de méthane, tout d’abord celles issues de l’agriculture, du fait de l’élevage de bétail notamment. Cette option est politiquement sensible, car elle nécessite l’appropriation de ces enjeux et la mobilisation du monde agricole et des consommateurs.

Pour ce faire, il est essentiel que des recherches ouvertes soient menées avec et pour la société.


À lire aussi : Climat : derrière les objectifs chiffrés, une édulcoration des connaissances scientifiques ?


De la surchauffe à l’emballement

Revenons d’abord sur l’effet refroidissant des émissions de SO2 émis par les énergies fossiles. Cet effet sur le climat résulte de l’albédo du SO2, c’est-à-dire du pouvoir réfléchissant du SO2 pour le rayonnement solaire. Cet albédo intervient à trois niveaux :

  • tout d’abord, directement par le SO2 lui-même,

  • ensuite, par l’intermédiaire de l’albédo des aérosols que génère le SO2,

  • enfin, ces aérosols agissent sur le système nuageux et en augmentent l’albédo. En leur présence les nuages sont plus brillants et réfléchissent plus de rayonnement solaire vers l’espace.


À lire aussi : Moins d’aérosols de soufre, moins d’éclairs : les effets surprenants d’une réglementation maritime


Ce n’est pas tout. Au risque d’un épisode de surchauffe dû à la baisse des émissions de SO2, s’ajoute celui d’une amplification du réchauffement par des phénomènes laissés sur le côté par les modèles climatiques et les scénarios habituels. Par exemple, des hydrates de méthane des fonds marins pourraient mener à des émissions subites de méthane. Autre exemple, sous les glaciers polaires, des populations de micro-organismes émetteurs de méthane ou de dioxyde de carbone pourraient se développer massivement du fait de la fonte des glaces.

La question prend une nouvelle importance : depuis 2024, l’ampleur du réchauffement se situe au-dessus de la fourchette probable prévue par le GIEC. La température moyenne de l’année 2024 a dépassé de plus de 1,5 °C le niveau de référence de l’ère préindustrielle. Pour le mois de janvier 2025, ce dépassement est de 1,75 °C, et de 1,59 °C en février, malgré le retour du phénomène climatique La Niña qui s’accompagne généralement d’un refroidissement temporaire des températures.

S’agit-il d’une tendance de fond ou seulement d’un écart passager ? À ce jour, il n’existe pas de réponse à cette question qui fasse l’objet d’un consensus entre les climatologues.

Réduire les émissions de méthane, une carte à jouer

Réduire rapidement les émissions de méthane d’origine humaine permettrait de limiter considérablement le risque d’épisodes de surchauffe, et ceci sans occasionner d’autres risques environnementaux.

Le méthane est, à l’heure actuelle, responsable d’un réchauffement situé dans une fourchette de 0,3 °C à 0,8 °C, supérieure à celle du SO2. Quant à la durée médiane de vie du méthane dans l’atmosphère, elle est légèrement supérieure à dix ans.

Dix ans, c’est peu par rapport au CO2, mais c’est beaucoup plus que le SO2 et ses aérosols. Autrement dit, réduire les émissions de méthane permettrait de limiter le réchauffement à moyen terme, ce qui pourrait compenser la surchauffe liée à l’arrêt des émissions de SO2.

Durée de vie médiane de plusieurs composés chimiques dans l'atmosphère. Fourni par l'auteur

Mais pour cela, il faut qu’il existe une réelle stratégie d’anticipation, c’est-à-dire une réduction des émissions de méthane d’origine humaine qui surviennent de façon plus rapide que la défossilisation de l’énergie (baisse des émissions de CO2), sans pour autant affaiblir les ambitions relatives à cette dernière.

Où placer les priorités ? À l’échelle mondiale, les émissions anthropiques de méthane sont issues :

  • à hauteur d’environ 40 %, d’activités agricoles (rizières en surface inondée, élevage de ruminants…),

  • à 35 %, de fuites liées à l’exploitation des énergies fossiles,

  • et pour environ 20 %, de déchets (fumiers, décharges, traitement des eaux…).

On peut donc considérer que 35 % des émissions s’éteindraient avec la défossilisation. D’ici là, il est donc urgent de réduire les fuites de méthane liées à l’exploitation des énergies fossiles tant que celle-ci n’est pas totalement abandonnée.

Mais comme ce levier ne porte que sur un bon tiers des émissions de méthane, il reste prudent de miser sur l’agriculture, l’alimentation et la gestion des déchets.

Favoriser l’appropriation locale

Réduire les émissions de méthane de l’agriculture peut, par exemple, passer par une modification des régimes alimentaires des ruminants, par le recours à des races moins émettrices de méthane, par l’allongement du nombre d’années de production des ruminants, par des changements dans le mode de culture du riz, ou par la récupération du méthane issu de la fermentation des fumiers. Il existe une grande diversité de procédés techniques pour réduire les émissions de méthane d’origine agricole.

Ces procédés sont le plus souvent à mettre au point ou à perfectionner et restent à développer à l’échelle internationale. Ils requièrent des innovations techniques, une adaptation des marchés et une appropriation par les agriculteurs. Leur déploiement ne peut suffire et ne pourra être assez rapide pour répondre à l’urgence qu’il y a à diminuer drastiquement les émissions de méthane. La question de la réduction de certaines productions agricoles et de certaines consommations alimentaires se pose donc.

Réduire de façon conséquente la consommation de viande de ruminants, de produits laitiers et de riz est possible… si les comportements de consommation individuels suivent. Cela exige une forme de solidarité mais aussi des décisions politiques fortes. Cela passe par une appropriation pleine et entière des enjeux climatiques par les agriculteurs, par les consommateurs et par l’ensemble des parties prenantes des questions agricoles et alimentaires.

La dimension locale serait une voie pertinente pour mettre en œuvre des solutions. À cet égard, les GREC (groupes régionaux d’experts sur le climat) pourraient jouer un rôle majeur.

Nous avons notamment identifié deux leviers : la dimension de forum hybride de la démocratie technique (espace d’échanges croisés entre savoirs experts et savoirs profanes), qui peut être prolongée par une dimension de recherche-action-participative (RAP).

Au niveau régional, ils permettraient de mettre en débat les connaissances scientifiques en matière de changement climatique, comme ce cas a priori contre intuitif de surchauffe planétaire liée à la défossilisation. Ils pourraient contribuer à la définition de stratégies déclinées localement en solutions concrètes et nourrir des questionnements nécessitant un travail de recherche.

Les GREC pourraient ainsi impulser des démarches participatives de recherche et d’innovation et, par exemple, s’appuyer sur des dispositifs d’interface sciences-société (boutiques des sciences, tiers-lieux de recherche, fablab, hackerspace…). Pour cela, ils pourraient s’appuyer sur des approches RAP qui permettent de co-produire des savoirs avec des chercheurs, d’avoir une meilleure appropriation des résultats de recherche pour des applications concrètes et d’impliquer des citoyens et/ou des groupes concernés au travers de leur participation active à toutes les étapes du projet de recherche et de ses applications.

Par la création d’un réseau international, les GREC pourraient favoriser des synergies entre les actions locales et contribuer à définir et à renouveler les stratégies nationales et internationales, tout ceci, non par le haut comme de coutume, mais par le bas.

The Conversation

Bertrand Bocquet est membre du Réseau de recherche sur l'innovation (https://rri.univ-littoral.fr/)

Marc Delepouve ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

06.04.2025 à 17:32

Aux États-Unis, Trump à l’assaut de l’éducation, entre censure, coupes budgétaires et répression

Esther Cyna, Maîtresse de conférences en civilisation des États-Unis, Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay

Depuis le retour de Donald Trump à la Maison Blanche, les assauts contre l’éducation prennent une ampleur inédite et se déclinent au plan fédéral comme dans les districts scolaires.
Texte intégral (1982 mots)

Aux États-Unis, voilà quelques années que les programmes scolaires et les universités sont régulièrement pris pour cible par les militants ultraconservateurs. Depuis le retour de Donald Trump à la Maison Blanche, cet assaut contre l’éducation prend une ampleur inédite et se décline au niveau fédéral comme dans les districts scolaires.


Le jeudi 20 mars, devant un groupe d’écolières et d’écoliers mis en scène à la Maison Blanche, Donald Trump a signé un décret (executive order) visant à démanteler le ministère de l’éducation aux États-Unis.

Si la suppression complète du ministère nécessitera un vote du Congrès, le décret marque néanmoins un affaiblissement certain de l’agence fédérale et symbolise l’assaut mené par Trump et son gouvernement contre l’éducation publique et l’État fédéral.

Les attaques du gouvernement Trump et du Parti républicain contre l’éducation publique et l’enseignement supérieur n’ont fait que s’amplifier depuis son premier mandat. L’abolition du ministère de l’éducation, la censure des programmes scolaires et des livres accessibles aux élèves, la promotion de l’enseignement privé religieux subventionné par les impôts publics et la répression des universités sont autant de stratégies au sein d’une guerre contre l’éducation, la recherche et, plus largement, contre les discours allant à l’encontre des récits ultraconservateurs et nationalistes chrétiens défendus par le gouvernement états-unien actuel.

Sabrer l’État fédéral

Depuis l’arrivée au pouvoir de Trump en janvier 2025, le ministère de l’efficacité gouvernementale (Department of Government Efficiency, DOGE) dirigé par Elon Musk a décimé les rangs de l’administration fédérale états-unienne.

Plus de 100 000 employés de l’État fédéral ont d’ores et déjà perdu leur emploi. Les licenciements les plus drastiques ont visé les ministères du logement et du développement urbain ainsi que celui de l’éducation et font l’objet de batailles judiciaires à l’issue incertaine. Le gouvernement a également annoncé supprimer des milliards de dollars de financement à la recherche dans le domaine de la santé.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


S’en prendre ainsi à l’État fédéral a plusieurs conséquences pour l’éducation, même s’il faut rappeler que l’éducation aux États-Unis est surtout une affaire d’États fédérés et de districts scolaires. Environ 10 % seulement du coût de l’éducation publique aux États-Unis provient de l’État fédéral, la majeure partie provenant de sources locales (c’est-à-dire de l’impôt foncier des districts scolaires) et des États fédérés.

Le rôle de l’État fédéral en matière d’éducation est traditionnellement plutôt faible, à deux exceptions près : le financement du programme « Title I », créé en 1965, qui prévoit des fonds fédéraux supplémentaires pour les élèves les plus pauvres et celui d’IDEA, établi en 1975, par lequel l’État fédéral finance les programmes spécialisés pour les enfants en situation de handicap. Avec la destruction complète ou partielle du ministère, ces deux populations, particulièrement vulnérables, risquent ainsi de perdre toute chance de poursuivre un cursus scolaire adapté à leurs besoins spécifiques.

Prônant le « retour de l’éducation au peuple », qui n’est pas sans rappeler l’arrêt ayant aboli le droit fédéral à l’avortement en 2022, Trump et le Parti républicain orchestrent ainsi une dépossession des pouvoirs fédéraux au profit d’échelles plus locales, aux dépens des enfants les plus défavorisés.

Censurer les programmes scolaires

Depuis plusieurs années, le Parti républicain promeut le retrait des écoles et bibliothèques de livres traitant de questions d’identité ethno-raciale, de genre et de sexualité et la censure des contenus des programmes scolaires qui évoquent, par exemple, le passé esclavagiste et ségrégationniste des États-Unis ainsi que les inégalités qui persistent dans la société états-unienne.

Ces livres interdits dans les écoles américaines (France 24, mai 2023).

En s’immisçant dans les processus par lesquels les districts scolaires locaux et les universités prennent des décisions sur le contenu et la manière d’enseigner, les militantes et militants conservateurs veulent imposer à la jeunesse des récits négationnistes ainsi qu’une vision de la population des États-Unis binaire, blanche, chrétienne, niant jusqu’à l’existence des personnes qui ne correspondraient pas à cette norme fantasmée.

Cette stratégie de censure est principalement portée à l’échelle locale et celle des États, même si l’État fédéral a symboliquement marqué son adhésion à la mouvance ultraconservatrice en interdisant des livres au sein des seules écoles qu’il gère directement, les académies militaires.

Pour le reste des écoles publiques du pays, seuls les législatures des États et les conseils des districts scolaires locaux ont le pouvoir de prendre des décisions quant aux livres disponibles dans les écoles. Dès 2021, des groupes de mères d’élèves ultraconservatrices tels que Moms 4 Liberty se sont saisis de cette échelle locale pour faire progresser leur vision malgré la défaite de Trump à l’élection présidentielle.

Abolir la séparation entre Église et État à l’école

Le projet idéologique des républicains est celui d’un nationalisme chrétien ultraconservateur ; à ce titre, le gouvernement soutient les écoles religieuses. Lors de son premier mandat, Trump avait clairement affiché son soutien à la privatisation de l’éducation et aux programmes de financement public d’écoles privées lorsqu’il avait nommé Betsy DeVos à la tête du ministère de l’éducation.

La branche judiciaire, dominée par les juges nommés par Trump durant son premier mandat, joue un rôle clé dans l’avancée de ce projet religieux. Au printemps 2025, la Cour suprême des États-Unis va s’exprimer sur la question de la religion à l’école dans le cadre d’un arrêt très attendu, en déterminant si la création d’une école publique en ligne, dans l’Oklahoma, dont la gestion est déléguée à un archidiocèse catholique, constitue une violation de la Constitution. Si la Cour suprême déclare que l’école en question est compatible avec la Constitution, il sera alors légal de financer des écoles religieuses publiques par les impôts.

En 2021, la Cour suprême avait déjà empiété sur la séparation entre Église et État en déclarant dans l’arrêt Kennedy v. Bremerton School District que le coach de football d’une école publique pouvait prier publiquement pendant les matchs de son équipe.

Contrôler et punir les universités

Les universités états-uniennes, diabolisées depuis des décennies par les conservateurs comme des bastions d’« idéologie gauchiste » et identifiées comme des menaces à l’hégémonie conservatrice, sont victimes d’attaques sans précédent depuis la chasse aux sorcières des années de maccarthysme.

Les mécanismes sont cette fois différents, Trump ayant principalement utilisé le levier financier pour punir les universités de leurs politiques sportives quant aux personnes transgenres, pour les manifestations propalestiniennes de 2024 et, plus largement, pour les thématiques de recherche de ces institutions.


À lire aussi : Trump contre la liberté académique : les juges, derniers remparts contre l’assaut autoritaire


L’université de Columbia a marqué, fin mars 2025, un tournant majeur en cédant à des demandes extrêmes du gouvernement Trump qui menace d’y supprimer des programmes de recherche fédéraux à hauteur de 400 millions de dollars. En acceptant de renoncer à l’autonomie des départements d’études du Moyen-Orient, d’études africaines-américaines et asiatiques, en plus de s’être engagée à durcir la répression des manifestations étudiantes et d’interdire le port du masque sur le campus, la prestigieuse institution new-yorkaise montre que les universités états-uniennes ne seront sans doute pas le lieu de la résistance à Trump.

Attaquer l’éducation : une stratégie d’extrême droite

Pendant sa campagne de 2016, Trump avait déclaré « adorer les personnes mal éduquées », puisqu’il voit en elles un électorat docile et réceptif à ses discours mensongers, trompeurs et antifactuels.

Jouant sur plusieurs échelles, des districts scolaires à l’État fédéral en passant par les universités, le gouvernement Trump mène aujourd’hui une offensive musclée contre la liberté d’expression, pourtant prônée comme une valeur phare du Parti républicain. Les stratégies d’attaque contre l’éducation – lorsqu’elle n’est pas privée, religieuse et ne promeut pas la vision nationaliste chrétienne blanche du parti au pouvoir – témoignent d’une volonté d’étouffer la pensée critique.

Cette menace pour la démocratie états-unienne, mise à mal par la concentration du pouvoir du gouvernement Trump, est symptomatique des régimes d’extrême droite. En vidant de leur substance le système d’éducation publique et en s’attaquant frontalement aux universités, les républicains espèrent façonner les pensées et les paroles des citoyennes et citoyens états-uniens, de leur futur électorat, créant ainsi une nouvelle génération dépourvue des compétences requises pour participer activement à la démocratie et repousser l’oppression totalitaire.

The Conversation

Esther Cyna ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

06.04.2025 à 17:30

Comac : la menace chinoise pour Airbus et Boeing

Raymond Woessner, Professeur honoraire de géographie, Sorbonne Université

La Comac (Commercial Aircraft Corporation of China) prend son envol dans la galaxie des constructeurs aéronautiques mondiaux. Airbus, l’ayant aidée à décoller, s’en mord-il les doigts ?
Texte intégral (2310 mots)
Comac ARJ21-700 de Chengdu Airlines en phase d’atterrissage. LP2Studio/Shutterstock

La Comac (Commercial Aircraft Corporation of China) prend son envol dans la galaxie des constructeurs aéronautiques mondiaux. L’avionneur européen Airbus, qui l’a aidée à décoller, s’en mord-il déjà les doigts ?


Depuis plusieurs décennies, Airbus et Boeing sont les maîtres du ciel dès lors qu’il s’agit de jets court, moyen et long-courriers. Mais désormais une entreprise chinoise, la Commercial Aircraft Corporation of China (Comac), s’est invitée au jeu.

Faute d’avoir raté la révolution industrielle, l’industrie aéronautique chinoise avait travaillé avec des Allemands dans les années 1920, des Italiens dans les années 1930, des Soviétiques dans les années 1950, des Américains et des Français dans les années 1970 et 1980… Or, ne pas avoir d’avion Made in China, c’était se trouver « à la merci des autres », avait déploré le président Xi Jinping en 2014. Comment l’industrie chinoise en général a fait des bonds de géant, pourquoi son aviation civile n’en ferait-elle pas autant ? Et que signifierait cette émergence à l’échelle globale ?

Échecs russes, canadiens et chinois

Les normes de sécurité de l’aviation civile sont particulièrement élevées. Le transport aérien est déjà le mode de transport le plus sûr au monde et son but ultime est d’atteindre 0 accident. C’est pourquoi les matériaux utilisés et les systèmes de contrôle comptent parmi les plus élaborés qui soient. Du fait de la recherche d’une moindre pollution, les technologies évoluent en permanence.

C’est ainsi que l’aviation civile russe, incapable de suivre le mouvement malgré son passé glorieux, a sombré. Ou que les Canadiens de Bombardier ont été rachetés par Airbus.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


En Chine, le désir d’avions nationaux remonte aux années 1990 lorsque Aviation Industry Corporation of China (Avic), basé à Pékin, voulait produire des MacDonnell Douglas MD-90 américains sous licence. Mais en 1998 le projet avait tourné court, car les Américains redoutaient un copier-coller à leur détriment. En 2008, le gouvernement chinois a alors compris qu’il lui fallait mettre d’énormes moyens en œuvre, avec deux projets menés en parallèle.

Marché de dupes pour Airbus

Airbus a été invité à assembler des A320 en Chine, par l’intermédiaire d’une joint-venture avec Avic qui a été implantée dans la zone franche de Tianjin. Il s’agit du 4e site mondial d’assemblage des A320 après ceux de Toulouse (Haute-Garonne), de Hambourg (Allemagne) et de Mobile aux États-Unis. Plus de 700 avions y ont déjà été assemblés et la cadence s’accélère, en 2026, avec l’ouverture d’une deuxième ligne de fabrication. Tianjin assure également la finition des A350 destinés à la Chine. Airbus a créé tout un écosystème : l’usine de matériaux composites de Harbin, la fabrication de pièces de rechange, la formation du personnel, le centre de recherche de Suzhou pour l’environnement et celui de Shenzhen pour la digitalisatio.

En même temps que l’arrivée d’Airbus comme manufacturier, le gouvernement a créé la Comac, Commercial Aircraft Corporation of China. L’entreprise est contrôlée à 31,6 % par l’État et à 26,3 % par la municipalité de Shanghai, s’y ajoutent des industriels chinois de l’aviation, dont Avic, et de la métallurgie : Baoshan Steel, Chinalco, Sinochem. Du point de vue de l’organisation industrielle, la Comac s’inspire d’Airbus, avec des usines réparties un peu partout en Chine et l’assemblage final effectué à Shanghai. Le but de la Comac est de construire une gamme complète d’appareils, et peut-être même, un jour, de très gros quadriréacteurs et des avions supersoniques.

L’ARJ21, premier-né

Dès l’Airshow China de 2014, le représentant d’Airbus voyait poindre la concurrence de la COMAC. On passerait alors du couple Airbus-Boeing à un oligopole mondial à trois. Mais la gestation des projets chinois est longue. En octobre 2008 a volé l’Advanced Regional Jet for the 21st Century (ARJ21). Ce biréacteur de 90 places ressemble finalement au vieux MD-90 avec ses réacteurs placés à l’arrière et son empennage haut, et 181 commandes de l’ARJ21 ont été passées immédiatement sur décision gouvernementale.

Avion COMAC ARJ21
Le Comac ARJ21 est un avion régional bimoteur, premier jet pour passagers développé et produit en série en République populaire de Chine, utilisé par la compagnie indonésienne TransNusa. alphonsusjimos/Shuttertstock

Huit ans plus tard, en 2016, Chengdu Airlines a effectué le premier vol commercial de l’ARJ21. Une vingtaine de sous-traitants américains, le Français Zodiac pour les toboggans d’évacuation et d’autres Européens jouent un rôle essentiel dans l’équipement de l’avion. Près de 120 appareils sont en service auprès de diverses compagnies chinoises et du transporteur indonésien TransNusa, le seul opérateur étranger de Comac jusqu’à présent.

Autonomie stratégique chinoise

Par le jeu de la sous-traitance et de la fourniture d’éléments très avancés, les avions d’Airbus, de Boeing et de la Comac intègrent en réalité de nombreux éléments communs. Mais un avion n’est pas un scooter ou une voiture. Il est encastré dans des politiques de souveraineté nationale d’autant plus qu’il partage des éléments avec les avions de guerre.

En 2019, du fait de l’agressivité du président Trump à l’encontre la Chine, une coopération technique avait été lancée entre la Comac et l’United Aircraft Corporation (UAC) russe pour la construction du CR929. Un futur rival sur le marché des long-courriers Airbus A350 et Boeing 787 voire B777.

Avion COMAC CR929
Le CR929, en coopération technique avec les Russes, n’a jamais vu le jour. testing/Shutterstock

Il aurait dû entrer en production en 2025, mais la Comac et l’UAC ont rompu leur pacte en 2023. Les Chinois continuent à développer le projet seuls… Le gouvernement chinois – tout comme celui de la Russie – cherche à s’émanciper de ce qu’il considère comme une mise sous tutelle. Dès 2016, il a fondé l’Aero Engine Corporation of China (AECC) fusion de différents établissements industriels publics chinois forte de 72 000 salariés. « Un pas stratégique », selon le président de la République Xi Jinping.

AECC veut alors construire des réacteurs civils, outre les moteurs militaires qu’elle produit déjà. La cible est le développement de réacteurs pour tous types d’avions civils, gros porteurs inclus. Le moteur CJ-1000A devrait progressivement se substituer aux motorisations de la CFM, la joint-venture de Safran et de General Electric, qui assemble des réacteurs en Chine à partir de composants fabriqués aux États-Unis et en France.

Remplacer Aribus et Boeing ?

Rien n’est simple. Ryanair avait été associé à la conception du C919 et affirmait en vouloir 700 exemplaires, alors qu’elle est une compagnie qui n’utilise que des Boeing 737. Mais le marché ne sera pas conclu avant le milieu des années 2030 parce que, selon Michael O’Leary, le patron de Ryanair, le marché chinois est servi en premier.

Les perspectives qui s’ouvrent sont vertigineuses pour la Weltanschauung, la manière de voir et de comprendre le monde. De part et d’autre de l’Atlantique, depuis des décennies, on a raisonné en termes de coopération et concurrence entre les entreprises. En Chine, on a appris de l’Occident. On apprend encore sans que l’intention finale soit évidente. S’agit-il de créer une troisième étoile dans le firmament des avionneurs, à côté d’Airbus et de Boeing, tous réunis par des liens très forts par l’intermédiaire de leurs fournisseurs ? ou de prendre leur place ? À moyen terme, la croissance du marché aérien est telle qu’il y aura des débouchés pour tout le monde. Mais au-delà ?

The Conversation

Raymond Woessner ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

06.04.2025 à 17:30

Les conflits au sein d’une équipe : coup de frein ou coup de boost pour la créativité ?

Brad Harris, Professor of management, associate dean of MBA programs, HEC Paris Business School

Le conflit n’est pas toujours un problème quand il s’agit de stimuler la créativité, au contraire. Reste que tout va dépendre de la nature du conflit et des personnes impliquées.
Texte intégral (1445 mots)

Pour de nombreuses équipes, la notion de « bon conflit » relève du mythe. La plupart du temps, les désaccords sont perçus comme une entrave, en particulier lorsqu’ils opposent des personnalités fortes ou portent sur des choix stratégiques. Et si, bien gérées, certaines confrontations au sein d’une équipe pouvaient aider à faire éclore de nouvelles idées ?


La recherche s’intéresse depuis longtemps à l’impact des conflits d’équipe sur la créativité. Selon certains chercheurs, un « bon » conflit peut la stimuler ; selon d’autres, il nuit au potentiel créatif. Jusqu’à présent, les travaux ont dit tout et son contraire. La plupart des études ont tendance à mettre tous les conflits dans le même panier, ou, au mieux, à les classer grossièrement entre conflits liés aux tâches et conflits interpersonnels, en supposant qu’ils affectent tous les membres de l’équipe de façon identique. Mais nous le voyons maintenant, cette approche est trop simpliste.

Des recherches récentes, dont les nôtres, montrent qu’on obtient un tableau plus clair de la situation en examinant un facteur clé : le rôle des individus dans l’équipe, et en particulier leur statut au sein du réseau. En particulier, des effets intéressants se produisent au cours des conflits impliquant les membres clés : ceux qui occupent une position centrale dans le flux des tâches. Grâce à ces résultats, les dirigeants auront un nouvel outil d’analyse pour comprendre l’impact des conflits sur leurs équipes et adopter des mesures concrètes afin que ces tensions stimulent la créativité au lieu de l’entraver.

Le côté (parfois) positif du conflit

Dans toute équipe, des désaccords sur les tâches – qu’il s’agisse de la répartition des ressources, de la prise de décision ou de l’organisation du travail – sont inévitables. Ces conflits, appelés « conflits de tâche », sont souvent considérés comme bénéfiques par la recherche traditionnelle, qui y voit une source de nouvelles perspectives, un moteur de discussion et, s’ils sont bien gérés, un levier pour stimuler la créativité.

Pourtant, les données disent tout autre chose, et l’histoire est souvent plus complexe. Notre étude est née de la volonté de mieux comprendre ces résultats parfois contradictoires.


À lire aussi : Entreprise : la valeur (ajoutée), si profondément humaine, de la conversation


En analysant les réseaux de 70 équipes travaillant au développement de nouveaux produits, nous avons constaté que les conflits de tâche impliquant des membres clés peuvent effectivement stimuler la créativité, en incitant l’équipe à repenser son travail – mais seulement à certaines conditions. Plus précisément, ces désaccords n’ont d’effet créatif que dans les équipes dont les membres partagent largement les mêmes objectifs. Ce constat reste valable même en tenant compte de tous les autres conflits de tâche existants au sein de l’équipe.

Lorsqu’un membre-clé – celui dont les autres dépendent pour des informations essentielles – entre en conflit sur une tâche, l’équipe est contrainte de prendre du recul, de réévaluer la situation et d’explorer de nouvelles approches. Cela l’oblige à sortir du mode pilotage automatique et, si un objectif commun est clairement partagé, cela favorise une attitude plus flexible et ouverte aux idées nouvelles – le moteur même de la créativité.

En revanche, en l’absence d’objectifs partagés, ces conflits n’apportent aucun véritable bénéfice créatif. Et ce n’est pas surprenant : pourquoi se fatiguer à remettre en question le statu quo si l’on n’est pas aligné sur le résultat à atteindre ? Finalement, ce que l’on considère traditionnellement comme des conflits d’équipe généraux ne contribue pas à la créativité ; c’est au cœur même de l’équipe que les véritables dynamiques créatives émergent.

La face obscure du conflit

À l’inverse, les tensions personnelles – appelées « conflits relationnels » – ont un impact bien différent. Ces conflits ne portent pas réellement sur le travail en lui-même, mais résultent plutôt de frictions entre des personnalités ou de problèmes interpersonnels.

Les travaux de recherche ont déjà bien établi que les conflits relationnels nuisent à la créativité au sein des équipes. Mais notre étude va plus loin : lorsque ces tensions impliquent des membres clés, leurs effets sont encore plus délétères. En fragilisant la cohésion du groupe (son « ciment »), ces conflits érodent la confiance et le sentiment de sécurité indispensables à l’émergence d’idées nouvelles.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Lorsque les membres clés possèdent une forte intelligence émotionnelle, les effets les plus néfastes de ces conflits peuvent être atténués. En d’autres termes, cette compétence leur permet de gérer les tensions personnelles sans compromettre la cohésion de l’équipe, même lorsqu’apparaissent des désaccords. Une preuve de plus que les talents les plus précieux des entreprises sont non seulement ceux qui excellent dans leur domaine, mais aussi ceux qui savent gérer l’aspect humain.

Tirer profit du conflit

Alors, comment les managers peuvent-ils exploiter le potentiel créatif des conflits tout en en limitant les effets négatifs ? Voici quelques mesures concrètes à adopter :

  • définir des objectifs communs : en instaurant des objectifs partagés, les dirigeants favorisent un cadre où les conflits de tâche deviennent constructifs. Lorsque tous les membres avancent dans la même direction, les désaccords sur la manière d’y parvenir sont plus facilement surmontés, encourageant ainsi la réflexion et l’adaptabilité de l’équipe ;

  • développer l’intelligence émotionnelle : les conflits relationnels impliquant des membres clés peuvent fragiliser la cohésion de l’équipe. Il est donc essentiel de doter ces acteurs stratégiques des compétences émotionnelles nécessaires pour gérer les tensions interpersonnelles. Recruter des profils dotés d’une intelligence émotionnelle élevée ou les former à ces compétences permet de désamorcer les conflits sans nuire à l’unité du groupe, ce qui préserve ainsi son potentiel créatif ;

  • repenser le conflit : tous les conflits ne sont pas néfastes – ni bénéfiques – de la même manière. Une bonne structuration d’équipe prend en compte à la fois le rôle des membres clés et l’impact de leurs désaccords sur la dynamique collective. Les dirigeants doivent cesser de voir le conflit uniquement comme un obstacle et l’envisager aussi comme un levier de créativité, à condition de bien identifier qui est impliqué et comment cela est géré.

De manière générale, la recherche traditionnelle sur les conflits d’équipe adopte souvent une approche uniforme, considérant les conflits de tâche et relationnels comme s’ils impactaient tous les membres de la même manière. Grâce aux avancées dans l’analyse des dynamiques d’équipe, notre étude montre au contraire que les conflits impliquant des membres centraux du réseau ont un impact disproportionné sur la cohésion et la créativité du groupe.

Les conflits impliquant ces membres clés ne peuvent pas être ignorés : leurs répercussions se propagent à l’ensemble de l’équipe, influençant sa dynamique et son efficacité.

The Conversation

Brad Harris ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

06.04.2025 à 17:29

Crypto-art et marché : les NFT, révolution ou mirage ?

Zhe Yuan, Associate professor, Pôle Léonard de Vinci

Elissar Toufaily, Enseignante Chercheuse en marketing digital, Pôle Léonard de Vinci

Insaf Khelladi, Professeur Associé en Marketing, Pôle Léonard de Vinci

Qu’ont apporté les NFT au marché de l’art ? Oblitérées par l’effondrement du marché, les possibilités offertes par ces jetons n’ont pas encore été pleinement explorées par les artistes.
Texte intégral (1879 mots)

Alors que la Paris Blockchain Week, du 8 au 10 avril 2025, s’apprête à explorer les dernières tendances du Web3, la place des jetons non fongibles, ou NFT, dans l’art physique suscite encore des débats. Entre innovation, spéculation et défis juridiques, ces actifs numériques redéfinissent-ils la propriété artistique ou restent-ils une bulle incertaine ?


L’intégration des jetons non fongibles ou Non-Fungible Tokens (NFT) dans l’industrie de l’art transforme la manière dont les œuvres sont perçues, échangées et valorisées. En marge du salon NFT Paris de février 2025, un collectionneur a divisé une peinture à l’huile de Georges Braque en 144 images haute définition, frappées sur la blockchain bitcoin via le protocole Ordinals et vendues sous forme de NFT.

Ces jetons non fongibles ne confèrent pas la propriété de l’œuvre originale, mais offrent une part des revenus générés par son exploitation (expositions, locations). Toutefois, cette approche dépend fortement des termes contractuels spécifiques de chaque NFT, car la plupart d’entre eux ne garantissent pas un partage des revenus avec les détenteurs.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Ce modèle soulève de nombreuses interrogations sur la valeur, la liquidité et la viabilité des NFT dans le marché de l’art traditionnel. Ces nouvelles formes de propriété numérique sont-elles de simples outils spéculatifs ou annoncent-elles une révolution dans la manière dont nous collectionnons et investissons dans l’art ?

NFT et marché de l’art : entre spéculation et usage réel

Les recherches récentes indiquent que la valeur perçue des NFT repose sur deux dimensions principales : la spéculation et l’utilité. Alors que le marché de l’art physique est traditionnellement basé sur la rareté et l’authenticité, les NFT ont introduit un nouveau paradigme dans lequel la valeur repose souvent sur l’engouement des communautés numériques et la dynamique des marchés financiers.

Un phénomène similaire est identifié dans la mode et l’industrie du luxe : bien que les NFT puissent représenter des actifs numériques uniques, leur valeur repose davantage sur l’effet de mode et l’engagement communautaire que sur un usage pratique.

Ainsi, 95 % des NFT n’auraient aujourd’hui plus de valeur, et l’intérêt des consommateurs tend à s’éroder lorsque l’effet de nouveauté disparaît. De la même manière, dans l’art, plusieurs collections NFT ont vu leur valeur s’effondrer après des pics de spéculation. Ce constat souligne une problématique essentielle : comment rendre les NFT artistiques réellement attractifs et durables ?

Les défis de la tokenisation des œuvres d’art physiques

Toutes les œuvres ne sont pas adaptées à la transformation en NFT. Trois éléments conditionnent leur succès. Tous d’abord, la notoriété et la rareté de l’œuvre. Des artistes établis, comme Beeple ou Damien Hirst, ont réussi à vendre des NFT à des prix élevés grâce à leur renommée préexistante. À l’inverse, un artiste émergent devra s’appuyer sur une stratégie de communauté pour créer une demande.


À lire aussi : Art contemporain : Damien Hirst, un pas de deux avec le capitalisme


Ensuite, le modèle économique du NFT. Les jetons liés à des œuvres physiques doivent garantir une exploitation commerciale viable (locations, expositions). Sans un modèle économique clair, la valeur de ces crypto-actifs risque de s’effondrer rapidement.

Enfin, la dépendance aux tendances spéculatives. La valeur des NFT est souvent corrélée aux fluctuations du marché des cryptomonnaies. Cette volatilité freine l’adoption des NFT par les collectionneurs traditionnels et les investisseurs institutionnels.

Les défis réglementaires et technologiques

L’intégration des NFT dans l’art soulève également des problématiques juridiques et techniques majeures. Un flou juridique persistant. À ce jour, les détenteurs de NFT ne disposent pas toujours de droits clairs sur l’exploitation de l’œuvre. L’incertitude réglementaire rend difficile l’intégration des NFT dans les galeries et musées.

En outre, selon une étude réalisée en 2022, plus de 80 % des NFT créés gratuitement sur OpenSea étaient en réalité des copies non autorisées ou des œuvres plagiées.

Cette situation met en lumière une industrie qui, malgré un fort potentiel, repose encore largement sur une dynamique spéculative et un cadre réglementaire fragile.

D’une part, ce marché est illiquide et volatil. Contrairement à l’art traditionnel, où les œuvres sont vendues à des prix plus ou moins stables sur le long terme, les NFT connaissent des fluctuations extrêmes. En outre, la majorité des jetons restent invendus ou voient leur prix chuter drastiquement après l’euphorie initiale.

D’autre part, l’adoption est freinée par la complexité technique. Le Web3 souffre encore d’un manque d’ergonomie. Pour rendre les NFT accessibles, il faudrait simplifier leur usage, notamment en intégrant des interfaces grand public similaires à celles d’Amazon ou d’Apple Pay.

Les NFT artistiques peuvent-ils s’imposer durablement ?

Malgré ces défis, certaines stratégies peuvent rendre les NFT plus attractifs et mieux intégrés au marché de l’art. En outre, des modèles hybrides (ou phygitaux, c’est-à-dire physiques et digitaux) peuvent voir le jour en associant un NFT à un certificat d’authenticité blockchain et en offrant des expériences exclusives aux collectionneurs.

Guerlain avait ainsi lancé les « CryptoBees », où chaque NFT était lié à un projet écologique, combinant art et impact environnemental.

Par ailleurs, le cadre légal et contractuel de certains NFT pourrait être repensé pour garantir la redistribution des bénéfices à leurs détenteurs ou garantir l’authenticité d’un objet à l’image des initiatives comme le consortium Aura blockchain (LVMH, Prada, Cartier), qui certifie l’authenticité des objets de luxe.

Enfin, l’accès aux NFT peut être davantage facilité, notamment en supprimant la complexité technique ; par exemple par la gestion des « wallets », la détention de clés privées et la compréhension des gas fees ou frais de fonctionnement du réseau.

En février, un spécialiste Web3 de Google pour la zone Asie Pacifique a annoncé sur la scène d’un festival crypto que son entreprise « étudie des moyens de réduire les barrières à l’entrée afin que les utilisateurs du Web 2.0 puissent facilement accéder aux services du Web3 comme le Bitcoin », ce qui pourrait démocratiser l’usage des NFT.

Des perspectives pour les marques

Certains projets NFT offrent des droits commerciaux aux détenteurs, leur permettant d’exploiter l’image de leur NFT à des fins entrepreneuriales. Par exemple, les membres du Bored Ape Yacht Club (BAYC), détenteurs de jetons non fongibles du même nom, disposent de droits commerciaux complets sur leur NFT, leur permettant de créer des entreprises ou des produits dérivés reprenant le personnage figurant sur leur jeton. Notons que malgré ce modèle, ces NFT ont perdu 93 % de leur valeur par rapport à leur pic de valorisation d’avril 2022.

Ce concept, souvent qualifié de decentralized branding (« stratégie de marque décentralisée »), ouvre de nouvelles perspectives d’empouvoirement entrepreneurial où les collectionneurs deviennent des acteurs économiques à part entière.

Les NFT peuvent-ils s’implanter dans le monde de l’art ?

Les NFT ont introduit un nouveau paradigme dans le marché de l’art, en ouvrant des opportunités inédites pour les artistes et collectionneurs. Toutefois, leur adoption reste entravée par des défis structurels étroitement liés aux NFT : spéculations excessives, absence de cadre réglementaire clair et complexité technologique.

Pour s’imposer durablement, les NFT devront dépasser leur statut d’objets spéculatifs et proposer une véritable valeur ajoutée aux acteurs du marché de l’art. Leur succès reposera sur la transparence des transactions, l’authenticité certifiée et la création d’expériences engageantes pour les acheteurs. Les initiatives combinant art physique et numérique pourraient ainsi favoriser une transition progressive vers un modèle plus stable et attractif.

Le record de Beeple, dont l’œuvre « Everydays — The First 5000 Days » a été vendue aux enchères pour 69 millions de dollars en 2021, a attiré l’attention du monde entier, avant que la chute vertigineuse des cours ne les chasse du devant de la scène. Mais le véritable avenir des NFT dépend de la capacité des artistes, des plateformes, des systèmes juridiques et des institutions culturelles à construire conjointement un écosystème plus fiable, plus inclusif et plus facile à utiliser.


Les autrices remercient M. Guoxiong Liang (CHtresor Art) et la galerie Aesthetica pour leurs contributions documentaires.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

05.04.2025 à 16:53

Algérie – France : quel bilan réel de l’immigration depuis l’indépendance ?

Jean-Baptiste Meyer, Directeur de recherche (Centre Population et Développement), Institut de recherche pour le développement (IRD)

France et Algérie sont socialement et démographiquement imbriquées. Un à deux français sur dix a un lien avec l’Algérie. Les descendants des migrants ont des réussites scolaires et professionnelles égales ou supérieures à la moyenne.
Texte intégral (2236 mots)

Alors que l’immigration nord-africaine est souvent associée à des images négatives - pauvreté, délinquance, radicalisation - par une partie de la classe politique et des médias, plusieurs études montrent que les enfants et petits-enfants d'immigrés algériens réussissent aussi bien - voire mieux - que l’ensemble de la population française au plan scolaire et professionnel.


L’intégration entre les populations de l’hexagone et celle de son ancienne colonie n’a jamais été aussi forte. Près de deux millions de migrants nés en Algérie sont enregistrés en France au début du XXIᵉ siècle) alors qu’au moment de l’indépendance, seuls 400 000 d’entre eux résidaient dans l’hexagone.

Outre les deux millions de migrants algériens, il faut ajouter les descendants de ces personnes migrantes et celles issues d’unions mixtes, qui le multiplient plusieurs fois. Selon le chercheur Azize Nafa, les estimations varient mais concordent sur le fait qu’au moins six millions de personnes constituent cette population transnationale et que dix à douze millions de personnes ont un lien passé et/ou présent avec l’Algérie, en France – soit entre un et deux Français sur dix.

Ainsi, les deux pays se révèlent être démographiquement et socialement imbriqués. Ils conforment un continuum sociétal bien éloigné d’une représentation, politique et imaginaire, de séparation.

Un « binôme » franco-algérien quasi unique dans le monde

Le cas est exceptionnel dans le monde. Seuls les États-Unis d’Amérique et le Mexique peuvent être comparés au binôme franco-algérien. Ainsi, 9 personnes sur 10 émigrées d’Algérie choisissent la France pour destination, et 9 mexicains sur 10 choisissent les États-Unis. Ni l’Allemagne et la Turquie (56 % des personnes immigrées de ce dernier pays choisissent le premier), ni le Royaume-Uni et l’Inde (18 % seulement), ou l’Australie avec ses voisins asiatiques ne montrent une telle intensité/exclusivité de la relation migratoire.

Ces situations d’exception sont dues à plusieurs facteurs : la proximité géographique, liée à un différentiel de développement socio-économique important et l’existence de réseaux sociomigratoires transfrontaliers.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


La phase historique génératrice de cette transnationalisation est surtout consécutive à la période coloniale. C’est la croissance économique au nord, couplée à la croissance démographique au sud, qui a induit ces flux et poussé à cette intégration. Il s’agit d’une forme traditionnelle d’immigration de main-d’œuvre qui ne va pas sans soubresauts entre les États d’accueil et d’origine. Mais elle façonne durablement une société dont les clivages antérieurs – coloniaux ou guerriers – sont parfois reproduits mais aussi éventuellement transformés par la migration.

C’est d’ailleurs le sens qu’il faut donner à l’accord de 1968 tant décrié aujourd’hui, car supposé injustifié. Il venait stabiliser les flux d’une libre circulation instituée par les accords d’Évian. Ce régime d’exception n’est pas un privilège gratuit accordé par la France à l’Algérie : il s’agit d’une adaptation mutuelle à des conditions postcoloniales de coopération. Selon [Hocine Zeghbib], l’accord représente « un compromis entre les intérêts mouvants » des deux pays. Il a sans aucun doute permis à la France de disposer d’une main-d’œuvre extrêmement utile pour son développement économique durant la deuxième moitié des trente glorieuses.

L’image durable de l’ouvrier algérien peu qualifié

Entre 1962 et 1982, la population algérienne en France a doublé comme le rappelle Gérard Noiriel. Les films télévisés de Yamina Benguigui et de Mehdi Lallaoui, soigneusement documentés et abondamment nourris de travaux d’historiens, ont popularisé une représentation durable de cette immigration, essentiellement constituée de travailleurs, venus soutenir l’économie française en expansion de l’après-guerre.

Main-d’œuvre masculine, peu qualifiée, dans des logements précaires et des quartiers défavorisés, la vision s’impose d’une population différente et distincte de celle de bon nombre de natifs. Les catégories socioprofessionnelles dont elle relève sont celles des employés et des ouvriers à un moment où l’avènement de la tertiarisation post-industrielle fait la part belle aux emplois en cols blancs. Ces derniers supplantent les premiers qui deviennent minoritaires à partir de 1975, sur les plans économiques, sociaux et symboliques. Mais ces catégories restent pourtant majoritaires chez les travailleurs immigrés dans les premières années de la migration.

Des secondes et troisièmes générations qui réussissent

Au-delà d’un apport passager et ancien au marché du travail, est-on désormais confronté à ce que certains pourraient décrire comme un « fardeau » socioculturel ?

Les constats empiriques – notamment ceux de Norbert Alter – démontrent le contraire. Ils révèlent la combativité et la créativité accrues des jeunes issus de l’immigration, et leurs réalisations effectives et reconnues, dans divers domaines, notamment socio-économiques.

Les recherches qualitatives que nous avons pu mener font état, depuis plusieurs décennies déjà, de réussites exemplaires de personnes issues de l’immigration, algérienne, maghrébine et autre. Nombreux sont les cas d’entrepreneurs, artistes, chercheurs, journalistes et autres dont les parcours de vie professionnelle s’offrent en référence positive. Mais ce ne sont pas des exceptions qui confirmeraient une supposée règle du passif, du négatif, migratoire. Ces cas n’ont rien d’anecdotique ou d’exceptionnel. Les statistiques disent la même chose.

Plusieurs enquêtes récentes comme Trajectoires et Origines TeO2 menée par l’INED en 2020 ainsi que l’enquête emploi de l’Insee, font état d’une réussite éducative et socioprofessionnelle des descendants de l’immigration maghrébine en France.

Catégories socioprofessionnelles des actifs occupés (2020)

Thomas Lacroix. Marocains de France à la croisée des chemins. In Mohamed Berriane (dir.). Marocains de l’extérieur – 2021, Fondation Hassan II pour les Marocains Résidant à l’Etranger. INSEE.

Pour les deuxièmes et troisièmes générations, cette réussite s’avère statistiquement comparable, équivalente et même parfois supérieure, à l’ensemble de la population française. Ainsi les catégories « artisans, commerçants et chefs d’entreprise » de même que celle des « cadres et professions intellectuelles supérieures » sont mieux représentées (29 %) dans les populations issues de l’immigration maghrébine que pour la moyenne des Français (26 %).

L’image d’une population immigrée globalement ségréguée et défavorisée mérite donc quelques corrections fondamentales.

Concernant les marocains de l’extérieur, l’enquête emploi de l’Insee analysée par Thomas Lacroix montre que la première génération demeure moins favorisée, avec une catégorie ouvrière surreprésentée par rapport à la population générale. En revanche, pour les Algériens, la proportion des ouvriers y est à peine supérieure à celle de l’ensemble tandis que celle des cadres et professions intellectuelles a même un point de pourcentage au-dessus. Le paysage social a donc significativement évolué depuis l’indépendance.

Cela est dû en partie à l’éducation qui permet des rattrapages rapides des populations immigrées vis-à-vis des natifs. De ce point de vue, les résultats de l’enquête Trajectoire et origines de l’INED confirment les statistiques de l’Insee, montrant qu’après deux générations, les niveaux de performance dans l’enseignement supérieur sont équivalents entre les deux populations – ce rattrapage se réalise même dès la première génération lorsque ses ressortissants viennent de couples mixtes.

Un brassage synonyme d’intégration malgré des discriminations

Le brassage apparaît ainsi comme un facteur significatif d’intégration et d’égalité. Toutefois, selon cette enquête et à la différence de celle de l’Insee, le débouché sur le marché du travail est un peu moins favorable pour les personnes issues de l’immigration que pour les natifs. Les auteurs expliquent cette différence par une discrimination persistante envers les populations d’origine étrangère, maghrébine en particulier, en s’appuyant sur les travaux de Dominique Meurs.

Cette persistance de formes de discrimination, ainsi que les situations sociales désavantageuses dont souffre la première génération immigrée ne sont pas sans conséquences. Cette situation nuit bien sûr à cette population, mais nourrit également du ressentiment. C’est dans ce contexte que germent des discours haineux à son égard ou, à l’inverse, vis-à-vis de la France. D’un côté, on opère l’amalgame entre immigration et délinquance au vu de conditions sociales dégradées ; de l’autre s’expriment d’acerbes dénonciations à propos de la méfiance subie par les migrants d’Algérie. Pourtant, ces discours ne reflètent pas la totalité des liens, pour beaucoup indissolubles et féconds, que le temps a tissés entre ce pays et la France.

Changer de regard

Les constats précédents nous invitent à reconnaître ce que les circulations trans – méditerranéennes ont produit : une société qui déborde chacune de ses parties et dont l’intégration s’avère globalement positive. Certes, des inégalités perdurent ainsi que des souffrances et des acrimonies. Mais ces difficultés demeurent limitées et ne devraient guère constituer la référence majeure de politiques, de part et d’autre de la Méditerranée, qui abîmeraient le lien social entre des populations mêlées, sur des territoires souvent partagés.

The Conversation

Jean-Baptiste Meyer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

03.04.2025 à 20:03

Les bonobos font des phrases (presque) comme nous

Mélissa Berthet, Docteur en biologie spécialisée en comportement animal, University of Zurich

Une nouvelle étude démontre que les bonobos créent des combinaisons de cris complexes et avec du sens, semblables aux phrases dans le langage humain.
Texte intégral (2305 mots)

Les bonobos – nos plus proches parents vivants – créent des combinaisons de cris complexes et avec du sens, semblables aux phrases dans le langage humain. Nos résultats, publiés aujourd’hui dans la revue Science, remettent en question de vieilles croyances sur ce qui rend la communication humaine unique et suggèrent que certains aspects clés du langage ont une origine évolutive ancienne.


Les humains combinent sans effort les mots en phrases, ce qui nous permet de parler d’une infinité de sujets. Cette capacité repose sur la syntaxe compositionnelle (ou « syntaxe » dans la suite de ce texte) – la capacité de créer des combinaisons d’unités porteuses de sens dont le sens global est dérivé du sens des unités et de la façon dont elles sont agencées. Par exemple, l’expression « robe bleue » a un sens dérivé de « robe » et « bleue », elle est compositionnelle – au contraire de « tourner autour du pot », dont le sens n’a rien à voir avec « tourner » et « pot ».

La syntaxe nous permet par exemple de combiner les mots en phrases, elle est omniprésente dans notre communication. Au contraire, quelques rares exemples isolés de syntaxe ont été observés chez d’autres espèces, comme les mésanges japonaises et les chimpanzés. Les scientifiques ont donc longtemps pensé que l’omniprésence de la syntaxe était propre au langage humain et que les combinaisons vocales chez les animaux n’étaient surtout qu’une simple juxtaposition aléatoire de cris. Pour vérifier cela, nous avons mené une étude approfondie de la communication vocale des bonobos dans leur habitat naturel, la réserve communautaire de Kokolopori (République démocratique du Congo). Nos résultats révèlent que, tout comme le langage humain, la communication vocale des bonobos repose également largement sur la syntaxe.

Un dictionnaire bonobo

Étudier la syntaxe chez les animaux nécessite d’abord une compréhension approfondie du sens des cris, isolés et combinés. Cela a longtemps représenté un défi majeur, car il est difficile d’infiltrer l’esprit des animaux et décoder le sens de leurs cris. Avec mes collègues biologistes de l’Université de Zürich et de Harvard, nous avons donc développé une nouvelle méthode pour déterminer avec précision la signification des vocalisations animales et l’avons appliquée à l’ensemble des cris de bonobos, aussi bien les cris isolés que les combinaisons.

Nous sommes partis du principe qu’un cri pouvait donner un ordre (par exemple, « Viens »), annoncer une action future (« Je vais me déplacer »), exprimer un état interne (« J’ai peur ») ou faire référence à un événement externe (« Il y a un prédateur »). Pour comprendre de manière fiable le sens de chaque vocalisation tout en évitant les biais humains, nous avons décrit en détail le contexte dans lequel chaque cri était émis, en utilisant plus de 300 paramètres contextuels.

Par exemple, nous avons décrit la présence d’événements externes (y avait-il un autre groupe de bonobos à proximité ? Est-ce qu’il pleuvait ?) ainsi que le comportement du bonobo qui criait (était-il en train de se nourrir, de se déplacer, de se reposer ?). Nous avons également analysé ce que l’individu qui criait et son audience faisaient dans les deux minutes suivant l’émission du cri, c’est-à-dire tout ce qu’ils commençaient à faire, continuaient à faire ou arrêtaient de faire. Grâce à cette description très détaillée du contexte, nous avons pu attribuer un sens à chaque cri, en associant chaque vocalisation aux éléments contextuels qui lui étaient fortement corrélés. Par exemple, si un bonobo commençait toujours à se déplacer après l’émission d’un certain cri, alors il était probable que ce cri signifie « Je vais me déplacer ».

Grâce à cette approche, nous avons pu créer une sorte de dictionnaire bonobo – une liste complète des cris et de leur sens. Ce dictionnaire constitue une avancée majeure dans notre compréhension de la communication animale, car c’est la première fois que des chercheurs déterminent le sens de l’ensemble des vocalisations d’un animal.

Un whistle a un sens proche de « Restons ensemble ». Mélissa Berthet, CC BY-SA36,7 ko (download)

La syntaxe chez les bonobos

Dans la seconde partie de notre étude, nous avons développé une méthode pour déterminer si les combinaisons de cris des animaux étaient compositionnelles, c’est-à-dire, déterminer si les bonobos pouvaient combiner leurs cris en sortes de phrases. Nous avons identifié plusieurs combinaisons qui présentaient les éléments clés de la syntaxe compositionnelle. De plus, certaines de ces combinaisons présentaient une ressemblance frappante avec la syntaxe plus complexe qu’on retrouve dans le langage humain.

Dans le langage humain, la syntaxe peut prendre deux formes. Dans sa version simple (ou « triviale »), chaque élément d’une combinaison contribue de manière indépendante au sens global, et le sens de la combinaison est la somme du sens de chaque élément. Par exemple, l’expression « danseur blond » désigne une personne à la fois blonde et faisant de la danse ; si cette personne est aussi médecin, on peut également en déduire qu’elle est un « médecin blond ». À l’inverse, la syntaxe peut être plus complexe (ou « non triviale ») : les unités d’une combinaison n’ont pas un sens indépendant, mais interagissent de manière à ce qu’un élément modifie l’autre. Par exemple, « mauvais danseur » ne signifie pas qu’il s’agit d’une mauvaise personne qui est aussi danseuse. En effet, si cette personne est aussi médecin, on ne peut pas en conclure qu’elle est un « mauvais médecin ». Ici, « mauvais » ne possède pas un sens indépendant de « danseur », mais vient en modifier le sens.

Des études antérieures sur les oiseaux et les primates ont démontré que les animaux peuvent former des structures compositionnelles simples. Cependant, aucune preuve claire de syntaxe plus complexe (ou non triviale) n’avait encore été trouvée, renforçant l’idée que cette capacité était propre aux humains.

En utilisant une méthode inspirée de la linguistique, nous avons cherché à savoir si les combinaisons de cris des bonobos étaient compositionnelles. Trois critères doivent être remplis pour qu’une combinaison soit considérée comme telle : d’abord, les éléments qui la composent doivent avoir des sens différents ; ensuite, la combinaison elle-même doit avoir un sens distinct de celle de ses éléments pris séparément ; enfin, le sens de la combinaison doit être dérivé du sens de ses éléments. Nous avons également évalué si cette compositionnalité est non triviale, en déterminant si le sens de la combinaison est plus qu’une addition du sens des éléments.

Pour cela, nous avons construit un « espace sémantique » – une représentation en plusieurs dimensions du sens des cris des bonobos – nous permettant de mesurer les similarités entre le sens des cris individuels et des combinaisons. Nous avons utilisé une approche de sémantique distributionnelle qui cartographie les mots humains selon leur sens, en considérant que les mots avec un sens proche apparaissent dans des contextes similaires. Par exemple, les mots « singe » et « animal » sont souvent utilisés avec des termes similaires, tels que « poilu » et « forêt », ce qui suggère qu’ils ont un sens proche. À l’inverse, « animal » et « train » apparaissent dans des contextes différents et ont donc des sens moins proches.

Exemple d’espace sémantique cartographiant trois mots humains. Les mots « animal » et « singe » sont proches l’un de l’autre parce qu’ils ont un sens proche. Au contraire, « train » a un sens plus différent, il est plus loin de « animal » et « singe ». Mélissa Berthet, CC BY

Avec cette approche linguistique, nous avons pu créer un espace sémantique propre aux bonobos, où l’on a pu cartographier chaque cri et chaque combinaison de cris selon s’ils étaient émis dans des contextes similaires ou non (donc, s’ils avaient un sens proche ou non). Cela nous a permis de mesurer les liens entre le sens des cris et de leurs combinaisons. Cette approche nous a ainsi permis d’identifier quelles combinaisons répondaient aux trois critères de compositionnalité, et leur niveau de complexité (triviale vs non triviale).

Nous avons identifié quatre combinaisons de cris dont le sens global est dérivé du sens de leurs éléments, un critère clé de la compositionnalité. Fait important, chaque type de cri apparaît dans au moins une combinaison compositionnelle, tout comme chaque mot peut être utilisé dans une phrase chez les humains. Cela suggère que, comme dans le langage humain, la syntaxe est une caractéristique fondamentale de la communication des bonobos.

De plus, trois de ces combinaisons de cris présentent une ressemblance frappante avec les structures compositionnelles non triviales du langage humain. Cela suggère que la capacité à combiner des cris de manière complexe n’est pas unique aux humains comme on le pensait, et que cette faculté pourrait avoir des racines évolutives bien plus anciennes qu’on ne le pensait.

Essayons de faire la paix. Mélissa Berthet, CC BY44,4 ko (download)

Un bonobo émet un subtil « peep » (« Je voudrais… ») suivi d’un « whistle » (« Restons ensemble »). Ce cri est émis dans des situations sociales tendues, il a un sens proche de « Essayons de trouver un arrangement » ou « Essayons de faire la paix ».

L’évolution du langage

Une implication majeure de cette recherche est l’éclairage qu’elle apporte sur l’évolution de la syntaxe dans le langage. Si nos cousins bonobos utilisent de façon extensive la syntaxe compositionnelle, tout comme nous, alors notre dernier ancêtre commun le faisait probablement aussi. Cela suggère que la capacité à construire des sens complexes à partir de plus petites unités vocales était déjà présente chez nos ancêtres il y a au moins 7 millions d’années, voire plus tôt. Ces nouvelles découvertes indiquent que la syntaxe n’est pas propre au langage humain, mais qu’elle existait probablement bien avant que le langage n’émerge.

The Conversation

Mélissa Berthet a reçu des financements du Fond National Suisse (SNF).

03.04.2025 à 17:52

Séisme au Myanmar : les dessous tectoniques d’une catastrophe majeure

Christophe Vigny, chercheur en géophysique, École normale supérieure (ENS) – PSL

Les secousses du séisme du 28 mars au Myanmar ont été très destructrices, notamment car elles ont « liquifié » le sol sous les bâtiments dans une plaine sédimentaire.
Texte intégral (2050 mots)

Un séisme a touché l’Asie du Sud-Est le 28 mars 2025. D’une magnitude de 7,7, son épicentre est localisé au Myanmar, un pays déjà très fragilisé par des années de guerre civile. Les secousses sismiques y ont été très destructrices, notamment car elles ont « liquifié » le sol sous les bâtiments dans la plaine sédimentaire de la rivière Irrawady.


Le séisme du 28 mars qui s’est produit au Myanmar (Birmanie) est une catastrophe de très grande ampleur. Il s’agit d’un très gros séisme – la magnitude 7,7 est rarement atteinte par un séisme continental – de l’ordre des séismes de Turquie de février 2023, de Nouvelle-Zélande en novembre 2016, du Sichuan en mai 2008 ou encore d’Alaska en novembre 2002. Le choc principal a été suivi douze minutes plus tard par une première réplique.

Le bilan est très probablement très sous-estimé pour toutes sortes de raisons : difficultés d’accès, pays en guerre… et pourrait, selon mon expérience et l’institut américain de géologie, largement atteindre plusieurs dizaines de milliers de victimes.

Les raisons d’un tel bilan sont multiples : le séisme lui-même est très violent car d’une magnitude élevée, sur une faille très longue et avec une rupture peut-être très rapide. De plus, la faille court dans une vallée sédimentaire, celle de la rivière Irrawady, où les sols sont peu consolidés, ce qui donne lieu à des phénomènes de « liquéfaction », fatals aux constructions, pendant lesquels le sol se dérobe complètement sous les fondations des immeubles. Les constructions elles-mêmes sont d’assez faible qualité (bétons peu armés, avec peu de ciment, mal chaînés, etc.). Enfin, les secours sont peu organisés et lents, alors que de nombreux blessés ont besoin de soins rapides.


À lire aussi : Séisme au Myanmar ressenti en Asie du Sud-Est : les satellites peuvent aider les secours à réagir au plus vite


Le Myanmar repose sur un système tectonique chargé

Le séisme s’est produit sur la faille de Sagaing qui traverse le Myanmar du nord au sud sur plus de 1000 kilomètres de long. Cette faille résulte de la tectonique des plaques dans la région : la plaque indienne « monte » vers le nord à près de 4 centimètres par an. Devant elle, l’Himalaya. Sur les deux côtés, à l’ouest et à l’est, deux systèmes de failles accommodent le glissement entre la plaque indienne et la plaque eurasienne. À l’est, c’est la faille de Sagaing, du nom d’une grande ville du pays.

Le séisme s’est produit sur la faille de Sagaing qui traverse le Myanmar du nord au sud sur plus de 1000 kilomètres de long. Fourni par l'auteur

Des mesures GPS réalisées au Myanmar à la fin des années 1990 par notre équipe ont produit beaucoup de résultats : nous avons tout d’abord observé que la faille était bien bloquée. Ceci implique que le déplacement continu des plaques tectoniques indienne et eurasienne provoque bien de l’« accumulation de déformation élastique » dans les plaques, et que cette déformation devra être relâchée tout ou tard sous forme de séisme, quand l’accumulation dépassera le seuil de résistance de la friction sur le plan de faille.

Mais nous avions fait également une découverte un peu déconcertante : la faille de Sagaing n’accommodait qu’un peu moins de 2 centimètres par an de déformation (exactement 1.8), le reste des 4 centimètres par an imposé par le mouvement des plaques indiennes et eurasiennes devant être accommodé ailleurs… Mais où ? Mystère.

Les études suivantes suggérèrent que cette déformation manquante se produit plus à l’ouest, sur la subduction dite « Rakhine-Bangladesh ».

De nombreux séismes dans l’histoire birmane

Il y a eu beaucoup de séismes le long de l’histoire au Myanmar. Les études archéologiques menées au début des années 2000 sur la cité impériale de Pegu, dans le sud du Myanmar, ont révélé que les murs de celle-ci avaient été fréquemment rompus par des séismes (sept depuis la fin du XVIe siècle), mais aussi décalés, car la cité était construite exactement sur la faille. La mesure du décalage total entre deux morceaux de murs (6 mètres en 450 ans) donne une vitesse moyenne sur cette période de 1,4 centimètre par an.

Plus au Nord, la cité impériale de la ville de Mandalay est aussi marquée par les séismes : des statues massives ont été cisaillées par les ondes sismiques des tremblements de terre passés.

Mieux comprendre le cycle sismique, ou comment les contraintes s’accumulent avant d’être relâchées lors un séisme

Grâce à ces études, nous avons aujourd’hui une meilleure vision de la situation tectonique à Myanmar.

La faille est tronçonnée en segment plus ou moins long, de 50 à 250 kilomètres de longueur. Chacun de ces segments casse plus ou moins irrégulièrement, tous les 50-200 ans, produisant des séismes de magnitude allant de 6 à presque 8.

Le plus long segment est celui dit de Meiktila. Il fait environ 250 kilomètres entre Mandalay et Naypyidaw. Il a rompu pour la dernière fois en 1839, avec un séisme de magnitude estimée entre 7,6 et 8,1. Le calcul est donc finalement assez simple : ici, la déformation s’accumule autour de la faille au rythme de 1,8 centimètre par an et le dernier séisme s’est produit il y a 184 ans : le prochain séisme devra donc relâcher 3,3 mètres, avant que l’accumulation ne reprenne.

Or, un déplacement de 3,3 mètres sur une faille de 250 kilomètres de long et environ 15 kilomètres de profondeur correspond bien à un séisme de magnitude 7,7 – comme celui qui vient de frapper.

Enfin, les toutes premières analyses par imagerie satellitaire semblent indiquer que la rupture se serait propagée largement au sud de la nouvelle capitale Naypyidaw, sur presque 500 kilomètres de long au total. Elle aurait donc rompu, simultanément ou successivement plusieurs segments de la faille.

La prévision sismique : on peut anticiper la magnitude maximale d’un prochain séisme, mais pas sa date

Sur la base des considérations précédentes (faille bloquée, vitesse d’accumulation de déformation et temps écoulé depuis le dernier séisme), il est assez facile d’établir une prévision : un séisme est inévitable puisque la faille est bloquée alors que les plaques, elles, se déplacent bien. La magnitude que ce prochain séisme peut atteindre est estimable et correspond à la taille de la zone bloquée multipliée par la déformation accumulée (en admettant que le séisme précédent a bien « nettoyé » la faille de toutes les contraintes accumulées).

La difficulté reste de définir avec précision la date à laquelle ce séisme va se produire : plus tôt il sera plus petit, plus tard il sera plus grand. C’est donc la résistance de la friction sur la faille qui va contrôler le jour du déclenchement du séisme. Mais celle-ci peut varier en fonction du temps en raison de paramètres extérieurs. Par exemple, on peut imaginer qu’une faille qui n’a pas rompu depuis longtemps est bien « collée » et présente une résistance plus grande, à l’inverse d’une faille qui a rompu récemment et qui est fragilisée.

Ainsi, plutôt que des séismes similaires se produisant à des intervalles de temps réguliers, on peut aussi avoir des séismes de tailles différentes se produisant à intervalles de temps plus variables. Pour autant, la résistance de la faille ne peut dépasser une certaine limite et au bout d’un certain temps, le séisme devient inévitable. Il est donc logique de pouvoir évoquer la forte probabilité d’un séisme imminent sur un segment de faille donné, et d’une magnitude correspondant à la déformation accumulée disponible. La magnitude de 7,7 dans le cas du récent séisme sur la faille de Sagaing correspond exactement aux calculs de cycle sismique.

Par contre, la détermination de la date du déclenchement du séisme au jour près reste impossible. En effet, si la déformation augmente de quelques centimètres par an, elle n’augmente que de quelques centièmes de millimètres chaque jour, une très petite quantité en termes de contraintes.

La crise sismique est-elle terminée ?

Il y a toujours des répliques après un grand séisme, mais elles sont plus petites.

Il y a aujourd’hui au Myanmar assez peu de stations sismologiques, et les plus petites répliques (jusqu’à la magnitude 3) ne sont donc pas enregistrées. Les répliques de magnitude entre 3 et 4,5 sont en général perçues par le réseau thaïlandais, mais seules les répliques de magnitude supérieure à 4,5 sont enregistrées et localisées par le réseau mondial.

Il semble néanmoins qu’il y ait assez peu de répliques dans la partie centrale de la rupture, ce qui pourrait être une indication d’une rupture « super-shear » car celles-ci auraient tendance à laisser derrière elles une faille très bien cassée et très « propre ».

The Conversation

Christophe Vigny a reçu des financements de UE, ANR, MAE, CNRS, ENS, Total.

03.04.2025 à 17:51

Chikungunya à La Réunion : une épidémie d'ampleur qui exige une vigilance renforcée

Yannick Simonin, Virologiste spécialiste en surveillance et étude des maladies virales émergentes. Professeur des Universités, Université de Montpellier

Une épidémie marquée de chikungunya, maladie transmise par le moustique tigre, sévit à La Réunion. Début avril, on déplorait deux décès, et 14 nouveau-nés étaient en soins intensifs. On fait le point.
Texte intégral (2649 mots)

Une épidémie marquée de chikungunya sévit à La Réunion, depuis le début de l’année 2025. Début avril, on déplorait le décès de deux personnes âgées de 86 et 96 ans, dont l’une présentait des comorbidités, et une dizaine de nouveau-nés étaient en soins intensifs.

On fait le point sur cette maladie qui reste méconnue et sur cette épidémie inédite.


Le chikungunya est une maladie virale transmise à l’humain par la piqûre d’un moustique lui-même préalablement infecté par le virus. Depuis début 2025, l’île de La Réunion connaît une épidémie de grande ampleur. Le pic épidémique pourrait survenir en avril ou en mai.

Les épidémies de chikungunya sont-elles fréquentes à La Réunion ?

La situation que vit actuellement La Réunion est atypique. En effet, la dernière grande épidémie de chikungunya à La Réunion remonte à vingt ans, c’était en 2005-2006. Avant cette date, peu de cas de chikungunya avaient été observés sur l’île et de manière très ponctuelle.

Avant cette première grande épidémie, La Réunion n’était pas une zone de circulation du virus chikungunya, car Aedes aegypti, le moustique vecteur principal de ce virus, n’y est pas implanté. En revanche, l’île abritait depuis de nombreuses décennies un autre moustique de la même famille, Aedes albopictus, plus connu sous le nom de moustique tigre. Mais alors le moustique tigre n’était pas connu comme pouvant transmettre ce virus.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Pourtant en 2005-2006, à la grande surprise des virologistes, la première grande épidémie de chikungunya à La Réunion fut portée par le moustique tigre. On a découvert plus tard que le virus du chikungunya avait muté au niveau de sa surface, ce qui lui a permis de mieux s’adapter au moustique tigre. L’arrivée du virus sur l’île est ainsi un exemple bien connu et inquiétant de l’adaptation d’un virus à un nouvel environnement.

Quels facteurs ont favorisé la survenue de l’épidémie de 2025 ?

L’apparition de ce type d’épidémies est toujours très difficile à anticiper. Toutefois, certaines conditions les favorisent, à commencer par la présence en grande quantité du moustique tigre à La Réunion. L’été austral est chaud et humide, ce qui crée un environnement idéal pour sa reproduction.

Les récentes fortes précipitations ont aussi favorisé la stagnation d’eau, ce qui a multiplié les gîtes larvaires pour les moustiques. Ce phénomène a probablement été amplifié aussi par le cyclone Garance, qui a généré des pluies abondantes les 19 et 20 février 2025.

Par ailleurs, dans les zones réunionnaises fortement urbanisées, des gîtes larvaires artificiels, comme des seaux, des pneus usagés, des pots de fleurs, des bidons, des gouttières obstruées et autres objets laissés à l’extérieur et remplis d’eaux stagnantes, jouent également un rôle pour alimenter la ponte et la croissance des œufs.

Enfin, puisque la dernière grande épidémie de chikungunya a eu lieu en 2005, la population locale est très faiblement immunisée contre ce virus, ce qui permet au pathogène de circuler assez aisément, en particulier parmi les populations modestes qui vivent dans des conditions de vie insalubres, favorables à la prolifération des moustiques.

Quelles sont les aires de répartition du chikungunya en France et dans le monde ?

Le virus du chikungunya est présent dans des zones géographiques assez vastes où est implanté Aedes aegypti, le moustique connu à l’origine pour la transmission de ce virus, en Asie, en Océanie, en Afrique et en Amérique. On relève au passage que l’aire de répartition d’Aedes aegypti s’étend. Du fait des changements globaux, en particulier climatiques, les probabilités sont élevées de le voir apparaître un jour en Europe et le cortège des virus qu’il peut transmettre…

À la faveur d’une mutation qui est apparue il y a vingt ans et qui lui a permis de s’adapter au moustique tigre (Aedes albopictus) présent à La Réunion, l’aire de répartition du virus du chikungunya a été largement modifiée. Désormais, plusieurs souches de virus chikungunya circulent, selon qu’elles sont adaptées à Aedes aegypti ou au moustique tigre (Aedes albopictus).

Dans le cas de la France, nous sommes face à des possibilités de transmission du chikungunya à la fois dans les zones où Aedes aegypti est implanté, par exemple aux Antilles françaises (Guadeloupe, Martinique, Saint-Martin, Saint-Barthélemy) ou encore en Guyane, mais aussi dans celles où le moustique tigre (Aedes albopictus) est présent, comme à La Réunion mais également en France hexagonale.

Aedes albopictus y est bien établi dans de nombreuses régions, en particulier dans le Sud mais également en Île-de-France et jusque dans l’Est. En janvier 2024, on considère qu’il s’est implanté dans 78 des 96 départements de l’Hexagone.

À noter que le risque est élevé à Mayotte qui, notamment en raison d’un climat tropical humide favorable, abrite les deux espèces de moustiques.

Des cas autochtones de chikungunya – liés à des infections sur le territoire et non à des voyageurs déjà infectés à leur arrivée – ont déjà été répertoriés par le passé en France hexagonale. La première identification de ce virus en Île-de-France en 2024 illustre parfaitement la possibilité pour lui de s’implanter en Europe, et pas uniquement dans les régions méditerranéennes.

Pourquoi entend-on plus souvent parler de la dengue que du chikungunya ?

Le virus du chikungunya tout comme celui de la dengue (ou de Zika) sont principalement transmis par les deux grandes catégories de moustiques du genre Aedes : le moustique tigre (Aedes albopictus) et Aedes aegypti.

Ces virus appartiennent à une catégorie de virus appelée arbovirus, une dénomination qui vient de l’anglais arthropod-borne virus qui signifie « virus transmis par les arthropodes ». Si on entend plus souvent parler de la dengue, c’est parce qu’il s’agit de l’arbovirus le plus répandu au niveau mondial, selon l’Organisation mondiale de la santé (OMS).

C’est aussi parce que le taux de mortalité associée à la dengue est plus élevé. Sans prise en charge adaptée, il peut en effet atteindre les 10 % voire 20 % (principalement en raison de symptômes hémorragiques), mais il oscille le plus souvent entre 0,3 % et 2,5 %, suivant les études et les pays.

Le taux de mortalité du chikungunya est, lui, bien plus faible, autour de 0,1 %. La problématique de santé publique associée au chikungunya vient de sa capacité à provoquer des atteintes articulaires chroniques invalidantes chez bon nombre de patients.


À lire aussi : Virus « exotiques » en France : un sujet plus que jamais d'actualité


Les catégories de personnes les plus exposées aux formes sévères du chikungunya, qui peuvent prendre la forme d’atteintes neurologiques comme des encéphalites, sont les personnes âgées, notamment celles qui souffrent déjà d’autres pathologies, des sujets immunodéprimés et les femmes enceintes.

Pourquoi le chikungunya n’est-il pas une maladie anodine ?

Le chikungunya provoque des douleurs articulaires qui peuvent survenir au niveau des chevilles, des hanches, des épaules, des poignets… et persister très longtemps, jusqu’à plusieurs années après l’infection, chez près de la moitié des personnes contaminées. Cette situation peut se révéler très invalidante au quotidien pour les personnes concernées.

D’ailleurs, chikungunya signifie « qui se recourbe » ou « qui marche courbé » en makondé, une langue parlée en Tanzanie et au Mozambique où la maladie a été initialement décrite. Ceci décrit bien la posture des patients atteints de la maladie, qui peuvent souffrir des douleurs articulaires si intenses qu’ils sont obligés d’adopter une posture voûtée. Souffrir de douleurs et de fatigue chroniques peut être particulièrement invalidante en empêchant, par exemple, de mener une activité professionnelle normale.

Il convient d’insister sur le fait qu’il n’existe pas de traitements spécifiques contre les atteintes chroniques dues au chikungunya, des atteintes qui restent par ailleurs mal comprises.

S’agit-il d’une persistance du virus dans l’organisme ? d’une dérégulation immunitaire entraînant une inflammation prolongée ? La question reste ouverte même si la recherche progresse dans ce domaine.

Pourquoi le nouveau vaccin n’est-il pas recommandé pour l’ensemble de la population ?

Il convient de souligner que nous avons la chance de disposer d’un vaccin, ce qui n’est pas le cas pour la majorité des virus transmis par les moustiques. Le vaccin contre le chikungunya est très récent puisqu’il a obtenu une autorisation de mise sur le marché dans l’Union européenne en juin 2024 seulement (vaccin Ixchiq du laboratoire Valneva).

Dans le cadre de l’épidémie à La Réunion, en France, la Haute Autorité de santé (HAS) a estimé que

« les résultats disponibles sont suffisants pour le recommander à des populations à risque de formes graves et/ou chroniques, pour lesquelles le bénéfice attendu est important ».

En pratique, la HAS cible en priorité les personnes âgées de 65 ans et plus, notamment celles avec des comorbidités (hypertension artérielle, diabète, maladies cardiovasculaires, respiratoires, rénales, hépatiques et neurovasculaires) ainsi que les personnes de 18 à 64 ans avec des comorbidités. La HAS ne recommande pas, à ce stade, l’utilisation du vaccin chez les femmes enceintes. Le vaccin est également recommandé aux professionnels de santé et aux professionnels de la lutte antivectorielle (c’est-à-dire spécialisés dans la lutte contre les moustiques).

Pour l’instant, les premières personnes éligibles à la vaccination sont les personnes les plus fragiles, car les doses disponibles sont limitées et le recul manque quant à son efficacité globale, même si on s’attend à une efficacité suffisamment importante d’après les données disponibles.

Mais, à terme, pourrait se poser la question d’élargir cette vaccination pour tenter de freiner la circulation du virus et protéger l’ensemble de la population de La Réunion. À noter que d’autres vaccins sont également en cours de développement.

Quels sont les moyens de lutte contre le chikungunya, autres que le vaccin ?

Pour se protéger contre le chikungunya, des équipes d’experts de la lutte antivectorielle, mandatés par les agences régionales de santé (ARS), sont dépêchées sur place dès qu’un cas de chikungunya est identifié, afin d’éliminer les moustiques adultes et les gîtes larvaires.


À lire aussi : Les pièges à moustiques sont-ils vraiment efficaces ?


Mais pour limiter en amont la propagation des moustiques, il convient d’informer la population afin qu’elle évite de créer des gîtes larvaires artificiels, ces eaux stagnantes qui permettent la ponte et représentent la première source de prolifération des moustiques.


À lire aussi : Lutte contre les moustiques : robot sexeur et insecte stérile, une méthode prometteuse


Enfin, il est important de limiter le risque de piqûres en ayant recours à des moustiquaires, des répulsifs, des insecticides et en portant des vêtements clairs, couvrants et amples afin de limiter le risque de piqûres.

Comment évaluer les risques d’épidémie de chikungunya en France hexagonale ?

Dans l’avis de l’Agence de sécurité sanitaire (Anses), « Moustique tigre en France hexagonale : risque et impacts d’une arbovirose » de juillet 2024, le groupe d’experts dont je faisais partie a clairement identifié le chikungunya comme étant à potentiel risque épidémique en France hexagonale sur le moyen terme (tout comme la dengue et Zika), la majorité des départements étant désormais colonisée par le moustique tigre.

Une épidémie de chikungunya, de même que celles des autres arbovirus, dépend aussi d’une dynamique de circulation globale du virus et des échanges aériens entre des pays où le virus circule.

Par conséquent, les échanges aériens réguliers entre la France et La Réunion, mais aussi, d’une façon plus générale, avec les départements et régions d’outre-mer (DROM) et des zones actives de circulation du chikungunya peuvent favoriser l’introduction du virus dans l’Hexagone, dès l’été 2025.

The Conversation

Yannick Simonin a reçu des financements de l’Université de Montpellier, de l’ANRS-MIE, de la région Occitanie et de l’Union européenne.

03.04.2025 à 17:50

Vers une inscription du non-consentement dans la définition du viol ?

Audrey Darsonville, Professeur de droit pénal, Université Paris Nanterre – Université Paris Lumières

Un texte de loi transpartisan préconise d’intégrer le non-consentement dans la définition du viol. Cette proposition a été adoptée le 1ᵉʳ avril en première lecture par l’Assemblée nationale et doit être examinée au Sénat.
Texte intégral (1853 mots)

S’appuyant sur un rapport de la Délégation des droits des femmes, un texte de loi transpartisan préconise d’intégrer le non-consentement dans la définition du viol. Cette proposition a été adoptée en première lecture par l’Assemblée nationale le 1er avril et doit être examinée au Sénat.


Selon le Code pénal, le viol est défini comme un acte de pénétration sexuelle commis avec violence, contrainte, menace ou surprise. Pour condamner un agresseur, les juges doivent donc démontrer que ce dernier a commis l’acte sexuel en recourant à la violence, la contrainte, la menace ou la surprise. L’usage d’un de ces quatre modes d’action démontre l’absence de consentement de la victime. Or, par un curieux paradoxe, l’incrimination du viol est donc tournée vers le défaut de consentement de la victime mais occulte soigneusement de le nommer.

C’est à cette lacune que se propose de répondre la proposition de loi déposée le 21 janvier 2025. Elle énonce que le consentement suppose d’avoir été donné librement, qu’il est spécifique et qu’il peut être retiré à tout moment. Elle décrit des situations dans lesquelles il n’y a pas de consentement, violence, menace, surprise ou contrainte, mais aussi en cas d’exploitation de la vulnérabilité de la victime. La proposition souligne aussi que le consentement de la victime ne peut se déduire du silence ou de l’absence de résistance de la victime. Le célèbre adage « qui ne dit mot consent » serait enfin banni, qui ne dit ne consent pas nécessairement à un acte sexuel.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


La proposition s’inscrit dans un double objectif, s’aligner avec le contexte européen qui tend à une telle inscription du consentement dans la loi pénale et lutter contre les classements sans suite massifs des plaintes déposées pour des faits de viol ou d’agression sexuelle, comme l’explique la Commission nationale consultative des droits de l’homme le 18 mars 2025 : « Alors que, selon la dernière enquête VRS (vécu et ressenti en matière de sécurité) de l’Insee parue fin 2023, 270 000 femmes affirment avoir été victimes de violences sexuelles, seules 6 % d’entre elles ont déposé plainte. Le taux de classement sans suite est, quant à lui, extrêmement élevé : 86 % dans les affaires de violences sexuelles, atteignant même 94 % pour les viols ».), principalement en raison du caractère insuffisamment caractérisé des faits dénoncés.

Le contexte européen

Jusqu’à présent, la France ne s’était pas mise en conformité à la Convention sur la prévention et la lutte contre la violence à l’égard des femmes et la violence domestique, dite Convention d’Istanbul, signée en 2011 (et ratifiée par la France en 2014).

Cette Convention traite de la question du consentement dans le viol en ces termes : « Le consentement doit être donné volontairement comme résultat de la volonté libre de la personne considérée dans le contexte des circonstances environnantes ». Le GREVIO (Groupe d’experts sur la lutte contre la violence à l’égard des femmes et la violence domestique), organe de contrôle de l’application de la convention d’Istanbul, a rendu un rapport relatif à la France en 2019. Ce dernier pointe les lacunes de la législation française du fait de son refus d’intégration de la notion de libre consentement.

Enfin, plus d’une quinzaine de pays européens (l’Allemagne, la Belgique, Chypre, la Croatie, le Danemark, l’Espagne, la Finlande, la Grèce, l’Irlande, l’Islande, le Luxembourg, Malte, les Pays-Bas, la Pologne, la République tchèque, le Royaume-Uni, la Slovénie, la Suède et la Suisse) ont changé leur législation dont des pays au système judiciaire proches du notre comme la Belgique.

En outre, la France ne peut occulter ses obligations relatives à la jurisprudence de la Cour européenne. En effet, depuis l’arrêt de la Cour européenne M.C. c. Bulgarie du 4 décembre 2003, les juges de Strasbourg ont imposé aux États une obligation positive de promulguer une législation pénale permettant de punir effectivement le viol par une appréciation de la notion de consentement qui ne soit pas fondée uniquement sur l’exigence d’une violence ou d’une opposition physique de la victime.

Cette décision a été rendue il y a plus de 20 ans et, depuis, la Cour a toujours maintenu cette position comme encore récemment lors de l’arrêt du 12 décembre 2024, affaire Y. c. République tchèque. Le couperet se rapproche cette fois-ci de la France puisque sept requêtes sont actuellement pendantes devant la CEDH concernant le traitement judiciaire français du viol. Sans faire de droit fiction, il est probable que la France soit condamnée en 2025 au regard de la jurisprudence européenne.

Une réforme française inévitable ?

Sans attendre cette probable condamnation, La France s’est engagée sur la voie d’une réforme. La proposition de loi déposée en janvier dernier a fait l’objet d’un avis consultatif du Conseil d’État, rendu le 11 mars. Dans cet avis, le Conseil d’État retient que l’inscription du consentement dans la loi sur le viol est opportune car « l’objectif poursuivi par les auteurs de la proposition de loi en recourant à cette rédaction était de renforcer la répression de l’infraction dans les situations de vulnérabilité organisées ou exploitées par l’auteur, notamment celles nées d’un état de sidération ou d’emprise, pour contraindre la victime à un acte sexuel ». Ainsi, la loi permettra de consolider les avancées de la jurisprudence en énonçant des dispositions claires.

Le Conseil d’État critique en revanche certaines formulations de la proposition et a énoncé une nouvelle définition du consentement. Cette formulation a été intégrée par voie d’amendements devant la commission des lois et le texte adopté le 1er avril en première lecture à l’Assemblée nationale retient donc cette définition résultant de l’avis du Conseil d’État.

Le texte adopté expose qu’est une atteinte sexuelle « tout acte sexuel non consenti commis sur la personne d’autrui ou sur la personne de l’auteur » ; « Au sens de la présente section, le consentement est libre et éclairé́, spécifique, préalable et révocable. Il est apprécié́ au regard des circonstances environnantes. Il ne peut être déduit du seul silence ou de la seule absence de réaction de la victime. Il n’y a pas de consentement si l’acte à caractère sexuel est commis avec violence, contrainte, menace ou surprise, quelle que soit leur nature ».

Quelles suites pour ce texte ?

La proposition de loi ne fait pas l’unanimité et, d’ailleurs, elle a été adoptée par 161 voix pour et 56 contre. Le texte fait l’objet de critiques, notamment au regard de la présomption d’innocence de la personne mise en cause. Cet argument a été écarté par le Conseil d’État de même que l’inquiétude relative au fait d’exposer encore davantage la victime dans les poursuites pour viol. C’est même l’inverse qui est postulé par cette réforme dont la finalité est de déplacer le curseur de la victime vers le mis en cause afin de l’interroger sur le fait de savoir s’il s’est assuré du consentement de l’autre.

L’avenir de la loi est désormais entre les mains du Sénat qui adoptera ou non la proposition. Cependant, quelle que soit l’issue du travail parlementaire, cette proposition aura eu le mérite de mettre au cœur du débat sociétal la question du consentement en matière de violence sexuelle. Le procès de Mazan aura éclairé de façon particulièrement cruelle à quel point le consentement de l’autre, et particulièrement celui de la femme, était indifférent pour beaucoup. Combien de fois au cours de ce procès les accusés ont-ils tenu des propos tels que « je pensais qu’elle était d’accord » (en présence d’une femme sous sédation chimique et donc dans l’incapacité de parler pour manifester un accord) ou encore, « son mari était d’accord donc cela suffisait » (en négation absolue du fait que l’épouse n’avait elle pas donné son consentement).

De tels propos trahissent bien que, comme le Conseil d’État l’a rappelé, les viols et les agressions sexuelles sont « avant tout, un viol du consentement ». La loi, si elle est votée définitivement, sera une première étape importante qui devra, pour produire effet, être accompagnée de moyens humains et matériels pour changer l’appréhension judiciaire du viol.

The Conversation

Audrey Darsonville ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

03.04.2025 à 17:49

America First : quand Donald Trump relance une idéologie centenaire controversée

Frédérique Sandretto, Adjunct assistant professor, Sciences Po

C’est l’élément de langage préféré de Donald Trump : mais d’où vient le slogan « America First » ?
Texte intégral (2718 mots)

L’expression America First a une longue histoire aux États-Unis. Remis au goût du jour par Donald Trump durant sa campagne présidentielle de 2016, et à nouveau promu en principe fondateur de sa politique depuis son retour à la Maison Blanche en janvier 2025, ce slogan reflète une vision nationaliste et protectionniste qui, pratiquement depuis la naissance du pays, proclame la primauté des intérêts américains en matière de politique étrangère et commerciale.


« Nous sommes réunis aujourd’hui pour annoncer un nouveau décret qu’on entendra dans toutes les villes, toutes les capitales étrangères et tous les centres du pouvoir. À partir d’aujourd’hui, ce sera strictement l’Amérique d’abord. L’Amérique d’abord ! », déclare Donald Trump lors de son discours d’investiture le 20 janvier 2017. Cette formule, « America First », qui avait inquiété les dirigeants du monde entier, a été remise en avant lors de son retour à la Maison Blanche huit ans plus tard.

« Trump : America first and only America first », CNN (2017).

L’origine de ce slogan devenu un élément central de la rhétorique de Donald Trump remonte en réalité à bien plus tôt dans l’histoire des États-Unis.

L’isolationnisme : un vieux refrain américain

En effet, l’isolationnisme ne date pas d’hier dans la politique étrangère des États-Unis. C’est une longue tradition américaine fondée sur l’idée selon laquelle le pays devait éviter de s’engager dans les affaires du monde pour se concentrer sur ses propres préoccupations internes.

C’est à la fin du XVIIIe siècle que cette vision de la politique extérieure trouve son origine, dans le célèbre dernier discours présidentiel de George Washington, « Farewell Adress » en 1796. Le premier président des États-Unis mettait en garde son peuple contre les alliances permanentes avec des puissances étrangères et préconisait plutôt une politique de neutralité et d’indépendance.

Au début du XXe siècle, cette tradition isolationniste a été mise à l’épreuve à plusieurs reprises, notamment avec la Première Guerre mondiale. Mais malgré la participation des États-Unis à la guerre (1917-1918), un très fort sentiment isolationniste est resté enraciné dans le pays. Après la guerre, une grande partie de l’opinion publique américaine souhaitait éviter une nouvelle implication dans les conflits européens. Cette distanciation s’est renforcée par la déception américaine face aux résultats du traité de Versailles, qui ne répondaient pas aux attentes de Washington en ce qui concerne la sécurité internationale.

Affiche électorale « America First » utilisée lors de la campagne aux municipales de Chicago en 1927. CC BY

C’est dans ce contexte des années 1920 que le slogan America First est né, scandé par ceux qui s’opposaient à l’entrée des États-Unis dans des engagements internationaux en lien avec les quatorze points du président Woodrow Wilson et la mise en place de la Société des nations.

Un fer de lance : l’America First Committee

La formule America First a été popularisée par le mouvement isolationniste des années 1940 America First Committee (AFC). Ce comité créé par des figures politiques et des intellectuels influents prônait le rejet de l’intervention américaine dans la Seconde Guerre mondiale et favorisait le protectionnisme.

À cette époque, l’expression America First a pris une signification plus forte sous l’influence de l’avocat Robert A. Taft, fils de l’ancien président William Howard Taft (1908-1912), et de l’aviateur Charles Lindbergh, devenu l’un des porte-parole du comité. Le but principal de l’America First Committee ? Faire pression sur le gouvernement des États-Unis pour que celui-ci n’implique pas le pays dans la guerre qui éclatait en Europe et en Asie.

Lindbergh s’adresse à quelque 3 000 personnes lors d’un rassemblement de l’America First Committee au Gospel Temple de Fort Wayne. Ce discours marquait sa première apparition depuis son discours controversé de Des Moines. 5 octobre 1941. CC BY

L’America First Committee prônait une politique de non-intervention et s’opposait vigoureusement à l’adhésion des États-Unis aux efforts de guerre des alliés face à l’Allemagne nazie. Pour le comité, s’engager dans la guerre européenne – ou, plus tard, dans le conflit mondial – allait affaiblir les États-Unis et mettre en péril leur souveraineté. Le tout pour un conflit lointain et coûteux.

L’argument principal était le suivant : les États-Unis ayant la capacité de se défendre eux-mêmes, il n’est pas nécessaire de s’impliquer dans les conflits extérieurs. « L’Amérique d’abord » devait se concentrer sur ses intérêts internes, sur la consolidation de son économie et de sa sécurité, plutôt que jouer un rôle de police mondiale.

Le slogan « America First » a trouvé une résonance particulière dans la population américaine qui ne voyait pas l’intérêt d’intervenir dans les affaires européennes ou asiatiques, particulièrement après les horreurs et les pertes humaines de la Première Guerre mondiale. Le comité a ainsi réussi à mobiliser une grande partie de l’opinion publique contre l’intervention des États-Unis dans la Seconde Guerre mondiale.

Cette position a toutefois été contestée au fur et à mesure que l’Allemagne nazie étendait son contrôle sur l’Europe, et que les attaques japonaises se multipliaient dans le Pacifique. L’attaque de Pearl Harbor par le Japon le 17 décembre 1941 a changé la donne et forcé les États-Unis à entrer dans la guerre mettant fin à l’influence de l’AFC. L’opinion publique a alors radicalement basculé en faveur de l’intervention militaire, estimant que la sécurité nationale des États-Unis était désormais en danger. L’America First Committee s’est dissous peu après l’entrée des États-Unis dans le conflit, mais l’impact de ce mouvement sur la pensée politique américaine a persisté.

Le président Donald Trump salue un membre du public après avoir prononcé un discours sur le plan de santé America First, le jeudi 24 septembre 2020, au Duke Energy Hangar à Charlotte, en Caroline du Nord. Photo officielle de la Maison Blanche par Shealah Craighead. CC BY

Populisme et protectionnisme, héritiers de l’isolationnisme

Le sentiment isolationniste et nationaliste a été réactivé à plusieurs reprises tout au long du XXe siècle, pendant la guerre du Vietnam, les crises économiques, et lors des débats sur le commerce international. Dans les années 1980 et 1990, à l’époque des présidences de Ronald Reagan et George H. W. Bush, bien que les États-Unis soient restés un acteur clé du système international, des voix isolationnistes se sont fait entendre, en réaction aux interventions militaires américaines et à la mondialisation.

Le populisme économique et la critique du libre-échange se sont développés dans des secteurs économiques affectés par la délocalisation et la mondialisation.

Le retour en force du slogan « America First » s’est manifesté de manière marquante sous la première présidence de Donald Trump, qui a réutilisé l’expression pour mettre en avant une politique économique protectionniste, une critique radicale du multilatéralisme et un net désengagement des affaires internationales par rapport aux présidences présidentes de Barack Obama et de George W. Bush.

Trump avait d’ailleurs fait de cette philosophie un axe central de sa campagne électorale de 2016, se présentant comme un défenseur des intérêts des travailleurs américains et des citoyens ordinaires par opposition aux élites politiques et économiques mondialisées.

Ce retour au nationalisme économique, associé à un rejet des accords commerciaux internationaux et des engagements militaires à l’étranger, a ravivé les vieux débats sur la place de l’Amérique dans le monde et son rôle dans les affaires mondiales.

L’instrumentalisation des récits nationaux

Le succès du slogan « America First » repose également sur sa capacité à mobiliser des récits nationaux profonds. Les discours de Trump se sont appuyés sur une mythologie américaine mettant en avant la prospérité perdue (« Make America Great Again »), le peuple américain comme héros face aux élites corrompues et la nécessité de restaurer un ordre moral et économique qui aurait existé par le passé avant de s’effilocher.

Ces récits s’inscrivent dans une longue tradition politique, où l’Amérique est perçue comme une nation exceptionnelle, destinée à servir de modèle au monde.

La rhétorique de Trump, cependant, se distingue par une rupture avec l’idéal d’une Amérique cosmopolite et ouverte. En mettant l’accent sur le déclin supposé du pays, Trump a réactivé un discours populiste, opposant un peuple « véritablement américain » à des ennemis extérieurs (la Chine, l’Union européenne, l’immigration illégale) et intérieurs (les démocrates, les médias traditionnels, la bureaucratie).

La diplomatie du chacun pour soi

En réactivant et modernisant la doctrine America First Donald Trump a redéfini la politique étrangère et économique des États-Unis selon une vision nationaliste et protectionniste.

Son approche repose sur un rejet du multilatéralisme au profit d’accords bilatéraux plus favorables à Washington, une volonté de relocaliser l’industrie américaine et une posture de fermeté face à la Chine et à l’Europe.

Toutefois, cette modernisation de la doctrine s’est accompagnée de tensions avec les alliés traditionnels des États-Unis et d’une polarisation accrue au sein du pays. Si ses partisans saluent un retour à la souveraineté économique et à une diplomatie musclée, ses détracteurs dénoncent un isolement international et des politiques aux conséquences incertaines sur le long terme.

L’héritage de cette doctrine reste donc sujet à débat : a-t-elle renforcé les États-Unis ou fragilisé leur leadership mondial ? Plus d’un siècle après son émergence, Donald Trump peut-il réellement se poser en héritier légitime de cette doctrine historique, ou en a-t-il dévoyé les principes pour servir une vision plus personnelle du pouvoir ?

The Conversation

Frédérique Sandretto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

03.04.2025 à 17:49

Au cœur de la mobilisation anti-gouvernementale en Turquie

Gülçin Erdi, Directrice de recherche au CNRS, en affectation à l'Institut français d'études anatoliennes (IFEA) à Istanbul, Université de Tours

Les manifestants turcs sont pour l’essentiel jeunes, diplômés ou non. N’ayant connu qu’Erdogan, au pouvoir depuis 2003, ils souhaitent des changements radicaux.
Texte intégral (3027 mots)

Le 19 mars dernier, l’arrestation pour « corruption » et « terrorisme » (cette dernière accusation ayant depuis été abandonnée) d’Ekrem Imamoglu, maire d’Istanbul et principal opposant à Recep Tayyip Erdogan, a provoqué une vaste mobilisation en sa faveur de la société civile. Après un premier article consacré au contexte dans lequel ces événements surviennent, la sociologue Gülçin Erdi, spécialiste de la Turquie et notamment des questions urbaines, analyse ici la composition et les mots d’ordre des foules gigantesques qui se réunissent régulièrement pour contester, au-delà de la mise en détention de l’édile de la plus grande ville du pays, un système que les manifestants jugent largement corrompu et inefficace.


Dans le quartier de Saraçhane, un nouveau lieu emblématique de la contestation politique a émergé, surnommé par les manifestants le « nouveau Taksim », en référence à la contestation de 2013 qui s’était largement déployée autour de cette grande place du centre d’Istanbul.

Cette mobilisation est principalement motivée par un sentiment d’indignation face à un système politique perçu comme corrompu, et face à la détérioration économique et aux restrictions des libertés publiques. C’est ce qu’il ressort des slogans scandés par les participants, mais aussi des discussions que nous avons pu avoir avec eux, lors des nombreux rassemblements auxquels nous avons assisté depuis le début d’un mouvement, qui ne semble pas près de prendre fin.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Qui manifeste ?

Une observation approfondie du mouvement révèle une prédominance notable, parmi les participants, de jeunes adultes âgés de 18 à 30 ans. Si l’on remarque également un certain nombre de personnes ayant pris part, en 2013, à l’occupation du parc Gezi, actuellement âgées de 40 à 50 ans, ce sont les jeunes qui jouent un rôle principal dans la mobilisation. Parmi eux, deux profils se distinguent particulièrement.

23 mars 2025, Saraçhane. G. Erdi, Fourni par l'auteur

D’une part, des étudiants provenant des établissements universitaires les plus prestigieux d’Istanbul, aux parcours académiques souvent brillants, provenant de diverses facultés (aménagement urbain, sciences sociales, ingénierie, droit…). D’autre part, des jeunes non diplômés, motivés par un sentiment de ras-le-bol et une perception superficielle de la politique, leur engagement se limitant au nationalisme.

Il est à noter que la plupart des manifestants, en particulier les plus jeunes, dissimulent leur identité en couvrant leur visage, une mesure préventive contre une éventuelle détection par les forces de l’ordre. Les jeunes avec qui nous avons eu l’occasion de nous entretenir ont exprimé leur perception d’un climat de répression et de surveillance constante, tout en affirmant leur volonté d’éviter les conflits avec les forces de l’ordre, mais en participant activement à la manifestation, car, à leurs yeux, « il n’y a pas d’autre choix ».

La motivation de la majorité d’entre eux ne se limite pas uniquement à la libération d’Ekrem Imamoglu. Son arrestation est vue avant tout comme un événement symbolique et un prétexte pour descendre dans la rue. L’un de nos interlocuteurs exprime ainsi son exaspération croissante :

« J’en ai marre de l’insécurité et du futur incertain dans ce pays. Je suis étouffé. »

Un étudiant rencontré à Saraçhane abonde dans son sens :

« Nous nous éveillons quotidiennement avec la crainte que notre intégrité physique soit mise en péril à tout instant. »

Un autre, cagoulé et vêtu d’un foulard représentant Atatürk, assène :

« Tous les étudiants présents ici ont pour objectif de défendre la laïcité et de s’opposer au fascisme. […] À la tête de ce pays, il y a actuellement un dictateur et nous voulons le renverser. En ma qualité d’enfant d’Atatürk et de personne de gauche, je me trouve ici pour soutenir la République. »

Il ajoute que si les étudiants n’avaient pas manifesté, l’accusation de terrorisme à l’encontre d’Imamoglu n’aurait pas été retirée et qu’un kayyum (c’est-à-dire un administrateur désigné par l’État) aurait été nommé à la tête de la municipalité.

Les Stambouliotes sortis dans la rue ne croient pas à la culpabilité du maire et considèrent son arrestation comme une injustice supplémentaire dont ils sont les témoins, comme dit l’un des manifestants, « [après] l’accumulation de vingt ans d’oppression ».

« La situation est déterminée par la volonté d’un individu. Cette autorité est celle qui fixe les taux d’intérêt, les modalités de divertissement, etc. »

Frustrés par une situation politique et économique qui rend très difficile, voire impossible, la réalisation de bon nombre de leurs projets personnels, y compris l’acquisition de biens matériels tels qu’un véhicule ou un logement, les contestataires aspirent à un État plus juste, plus libre et plus démocratique, où la nécessité de recourir à des actions collectives, telles que des manifestations pour défendre leurs droits, ne serait pas une option nécessaire. Ils disent aussi vouloir vivre dans un environnement où l’accès à Internet ne soit pas entravé par des restrictions volontaires et des censures de comptes divers pour des raisons politiques et, au-delà, dans un pays où ils n’envieraient pas les habitants d’États démocratiques qui, selon eux, vivent plus librement et dans une plus grande prospérité.

Le kémalisme, seule voie alternative crédible à Erdogan ?

Comme nous l’avons souligné, les jeunes manifestants se divisent en deux catégories en termes de niveau de diplôme ; cependant, l’homogénéité de leurs positions politiques est remarquable, ce qui contraste avec la grande diversité observée lors de mouvements sociaux précédents tels que Gezi. Il semble que les références de la jeunesse actuelle soient différentes en raison du contexte politique des quinze dernières années. Les symboles traditionnels de la communauté LGBT (notamment le drapeau arc-en-ciel) et du mouvement kurde sont quasi absents du quartier de Saraçhane. Ces symboles ne sont pas perçus de manière favorable.

La majorité des manifestants sont imprégnés d’un nationalisme et d’un kémalisme marqués, comme l’illustrent leurs références, devises et slogans. Les portraits d’Atatürk et les drapeaux turcs sont omniprésents, souvent accompagnés du signe des Loups gris, symbole de l’ultra-droite.

Pour autant, il serait erroné de voir dans ces manifestations des rassemblements avant tout mus par le nationalisme.

Les participants sont, dans la plupart des cas, des jeunes qui n’ont connu que le gouvernement de l’AKP et de Recep Tayyip Erdogan, au pouvoir depuis 2003. Ils ont grandi dans un contexte où l’autoritarisme et le conservatisme ont progressivement pris le dessus. Le système éducatif a subi de multiples révisions, introduisant des références marquées à l’histoire ottomane et à l’islam. Parallèlement, la laïcité a été marginalisée, tandis que les confréries musulmanes ont connu une croissance significative dans le pays.

Cette montée en puissance des courants islamiques s’est notamment manifestée dans les recrutements et les contrats publics, marquant ainsi leur ascension au sein de l’appareil étatique à la suite du démantèlement de la confrérie Gülen, accusée d’avoir orchestré la tentative de coup d’État de juillet 2016.

Depuis le mouvement de Gezi, l’opposition au régime d’Erdogan s’articulait principalement autour de deux branches : le mouvement politique kurde et les courants kémalistes, lesquels se sont souvent associés au sentiment antimigrant, très sensible dans un pays qui a accueilli en moins de dix ans plusieurs millions de réfugiés et de migrants, principalement en provenance de Syrie, mais aussi d’Irak, d’Afghanistan et d’Iran. En Turquie, l’idée est répandue que ces migrants sont favorables à Erdogan, qui leur a apporté son soutien et a favorisé leur accueil, et qu’ils voteront en grand nombre pour lui une fois qu’ils seront naturalisés turcs.

Pour les jeunes issus de familles ordinaires, en quête d’identité et de repères politiques, les mouvements de gauche, affaiblis par la répression étatique depuis Gezi et dépourvus d’une base populaire significative, apparaissent aujourd’hui comme une alternative peu crédible. Ce sont les kémalistes qui incarnent la seule opposition tangible et clairement en confrontation avec l’appareil étatique.

Récemment, l’armée a renvoyé certains jeunes diplômés de l’institution militaire après qu’ils ont exprimé leur allégeance à la figure de Mustafa Kemal Atatürk, le fondateur de la République turque, en scandant « Nous sommes les soldats de Mustafa Kemal Atatürk ». Cette expression est un slogan largement diffusé à Saraçhane. Se dire kémaliste, aujourd’hui, ce n’est pas nécessairement embrasser toute la doctrine du fondateur de la République, ni partager en tous points les orientations du CHP, le parti kémaliste d’Ekrem Imamoglu ; c’est avant tout une façon d’exprimer son rejet d’Erdogan et de l’AKP.

Quel avenir pour la contestation ?

Le 26 mars 2025, le dirigeant du CHP Özgür Özel a annoncé l’achèvement des manifestations à Saraçhane, avec pour objectif de propager la contestation à travers le pays, dans diverses localisations et sous différentes formes. Il a également appelé à un rassemblement massif à Maltepe, dans la banlieue est d’Istanbul, le 29 mars. Le succès a été au rendez-vous : selon les estimations de l’opposition, la manifestation de Maltepe aurait réuni environ deux millions de personnes. Bien que ce chiffre puisse paraître quelque peu exagéré, la mobilisation a été indubitablement importante, et l’ensemble des forces politiques d’opposition du pays, y compris le DEM, un parti d’opposition de premier plan étroitement lié à la cause kurde, y ont pris part.

Parallèlement, une campagne de boycott ciblant les chaînes de télévision progouvernementales qui ont refusé de couvrir les manifestations, ainsi que les entreprises dont elles dépendent, a été lancée. Les étudiants ont également initié la création d’une coordination interuniversitaire indépendante et ont commencé à organiser, indépendamment du CHP, des manifestations à Istanbul et dans d’autres villes, malgré les arrestations massives et les interventions brutales des forces de l’ordre.

Il devient d’ailleurs de plus en plus difficile pour le gouvernement de fermer les yeux sur le mécontentement croissant de la société face au traitement subi par les jeunes en garde à vue, qui suscite indignation et colère.

Comme le démontrent Valerie Bunce et Sharon Wolchik en se référant aux exemples postsoviétiques et d’Europe de l’Est, les périodes où la confiance dans l’intégrité et l’équité des élections est mise en doute, et où l’électorat perçoit la victoire du gouvernement comme inévitable, quelles que soient les circonstances, sont celles où les formes d’action non électorales telles que les protestations, les marches de masse et la désobéissance civile s’intensifient.

La Turquie, à l’heure actuelle, est le théâtre d’une dynamique comparable. Alors que l’opposition concentre ses efforts sur les procédures électorales depuis un certain temps, l’intensification des actions de mobilisation dans les espaces publics semble être étroitement liée à la perte de crédibilité de la croyance sociale, selon laquelle la transformation politique peut être atteinte par le biais des élections.

La mobilisation politique s’est étendue au-delà des grandes métropoles, gagnant de nombreuses petites villes conservatrices à travers le pays – un phénomène qui revêt une importance particulière en termes de participation citoyenne et d’impact sur le paysage politique.

Ces mobilisations locales et populaires ne sauraient être réduites à de simples réactions épidermiques sans lendemain ; même lorsqu’elles s’essoufflent, elles ont des effets à long terme qui transforment le comportement des électeurs et repositionnent les partis politiques. Il conviendra donc de poursuivre l’observation du pays dans les semaines à venir, notamment après la fin de la célébration de l’Aïd al-Fitr, dont les congés ont été étendus à la dernière minute par Erdogan jusqu’au 7 avril, probablement dans l’objectif de calmer les mobilisations.

Cependant, si les démonstrations de rue sont ralenties, de nouveaux répertoires d’action ont émergé. Dans plusieurs villes, à 20h30 chaque soir, les habitants frappent sur des casseroles en scandant « droit, loi, justice ». L’appel au boycott de la consommation lancé par la coordination des étudiants, pour le 2 avril, a été largement suivi dans les grandes métropoles, soutenu également par les petits commerçants qui n’ont pas ouvert leur magasin.

L’embarras de la communauté internationale

Dans ce contexte, on ne peut pas ne pas mentionner la position ambiguë de l’Union européenne – sans parler des États-Unis qui n’ont fait qu’exprimer leur inquiétude pour la stabilité politique d’un pays allié. Les responsables de l’UE se sont contentés de déclarations timides sans apporter un soutien clair aux protestataires, contrairement à la période de Gezi en 2013. Signe que le contexte politique n’est plus le même, et que nous vivons dans une époque où la realpolitik prime sur les principes de droits de l’homme et de démocratie pour les pays européens… qui ont pourtant massivement utilisé ces arguments pendant des décennies pour justifier leur refus de laisser la Turquie adhérer à l’UE.

La crédibilité de cette instance aux yeux des Turcs est de ce fait largement atteinte, d’autant que ses dirigeants considèrent la Turquie d’un point de vue avant tout sécuritaire : elle est appelée à jouer un rôle important dans la défense européenne, et à contenir les migrants qui cherchent à rejoindre les pays de l’UE en provenance du Proche-Orient et d’Afrique. Özgür Özel a par ailleurs accusé l’Europe de soutenir un autocrate en avertissant que la Turquie changera d’ici un an… et que l’Europe ne devrait pas venir frapper à sa porte à ce moment-là.

The Conversation

Gülçin Erdi a reçu des financements de l'ANR.

03.04.2025 à 17:48

Tant que l’écologie ne sera pas une urgence, il sera difficile de renoncer à nos modes de vie

Fabrice Raffin, Maître de Conférence à l'Université de Picardie Jules Verne et chercheur au laboratoire Habiter le Monde, Université de Picardie Jules Verne (UPJV)

Nous n’avons jamais été aussi nombreux dans le monde à connaître un niveau de confort et de liberté aussi élevé. La menace qui pèse sur l’environnement nous poussera-t-elle à y renoncer ?
Texte intégral (1543 mots)

Nous n’avons jamais été aussi nombreux dans le monde à connaître un niveau de confort et de liberté aussi élevé. Ce mode de vie, même s’il nous émancipe, est malheureusement indissociable de la destruction de l’environnement. Faudra-t-il que celle-ci devienne une menace tangible pour nous pousser à renoncer à notre « petit confort » ? L’anthropologie permet d'éclairer cette question.


Lorsque j’entre dans la maison de René, ce matin de décembre 2022, dans le village de Beaucourt-en-Santerre, la température est bien plus proche de 25 °C que des 19 °C alors préconisés pour « économiser l’énergie ». René, retraité de la fonction publique, fait partie de ces humains modernes et puissants du XXIe siècle.

Il ne prend pas du tout au sérieux la menace du gouvernement de l’époque concernant les possibilités de rupture d’approvisionnement électrique : « on a des centrales nucléaires quand même ! »

Durant notre échange, René montre qu’il maîtrise la température de sa maison : sans effort, il repousse l’assaut du froid qui règne alors dehors.

« Je n’ai pas travaillé toute ma vie pour me geler chez moi_, déclare-t-il sûr de lui, les écolos, tout ça, ils nous emmerdent ».

Comment expliquer cette inaction pour le moins paradoxale ? La pensée du philosophe Henri Lefebvre est éclairante. Selon lui, l’humain doit éprouver un besoin pour agir, travailler et créer. Pour lui, le véritable besoin naît d’une épreuve, d’un problème qu’il faut régler nécessairement, ce serait même la seule façon d’engendrer une action humaine volontaire.

Ce phénomène pourrait expliquer pourquoi il est si difficile de traduire en actes

« l’urgence écologique ». Peut-on parler « d’urgence » lorsqu’il n’y a pas encore de réelle épreuve ?

Une menace pas assez pressante

La multiplication des tempêtes violentes, des inondations, la montée des océans, la fonte des glaciers, les sécheresses et les incendies, aussi réels et tangibles soient-ils, n’ont peut-être pas encore eu lieu à suffisamment large échelle pour marquer les routines quotidiennes à l’échelle d’un pays entier.

L’hypothèse est la suivante : dans les pays occidentaux, les aléas climatiques ne porteraient pas encore suffisamment à conséquences pour que se ressente un besoin d’agir généralisé.

Autrement dit, les souffrances engendrées par le changement climatique restent peut-être trop éloignées, trop localisées ou trop sporadiques. À peine éprouve-t-on collectivement un malaise au regard de la convergence des avertissements continus des militants écologistes et de la litanie des catastrophes à l’échelle planétaire, mais localisées sur de petits périmètres.

De plus, pour des dégâts locaux et éphémères, si forts soient-ils, les pays occidentaux sont assez équipés pour y remédier économiquement et techniquement, assez riches pour qu’ils ne remettent pas en cause l’organisation socio-économique globale.

Comme une fuite en avant, l’exploitation des ressources naturelles leur donne, la capacité de maîtriser les effets des catastrophes naturelles nées de l’exploitation des ressources naturelles. Jusqu’à où ?

Un consumérisme existentiel

Dès lors, faire évoluer notre mode de vie occidental demeure une option peu envisagée, d’autant plus que ce dernier est perçu comme la dimension la plus fondamentale, l’accomplissement le plus profond et caractéristique des Modernes que nous sommes.

Ce mode de vie couvre avec une efficacité inédite les besoins les plus essentiels que l’humanité a toujours cherché à combler : repousser les limites de la mort, les maladies, alléger le fardeau physique de l’existence dans la lutte pour satisfaire nos besoins biologiques et nous protéger contre un environnement hostile, etc.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


La recherche du confort matériel est, en cela tout à fait existentielle. Cet existentialisme n’a rien d’écologique. Les besoins de l’humain sont tout entiers tournés vers la production, la réalisation, l’acquisition d’objets, la consommation d’artefacts qui le libèrent. La source de cette prospérité matérielle étant fondée sur l’exploitation du monde vivant et minéral, les humains procrastineront tant que possible le changement d’équilibre de ce rapport à l’environnement.

Devant cette nécessité existentielle, pointer la responsabilité et la rationalité en mobilisant des arguments scientifiques n’a que peu d’effets. Surtout lorsque les appels sont maladroitement portés. Certains militants écologistes ou scientifiques sont ainsi perçus comme des prédicateurs, des prospectivistes ou des moralistes.

C’est qu’ils n’ont, selon moi, pas compris le primat anthropologique de la lutte contre l’environnement : notre mode de vie occidental comble, bien que de manière imparfaite, mais plus que jamais dans l’histoire, les besoins fondamentaux des humains.

Un combat perdu d’avance ?

Le risque est donc que les Modernes occidentaux se battent tant que possible pour le maintien de ce mode de vie, et ce jusqu’à épuisement des ressources.

Au regard de l’actualité depuis l’élection de Trump et l’invasion de l’Ukraine, il y a fort à parier qu’ils s’attaqueront même aux humains les plus faibles pour le conserver, avant de se battre entre eux. Il est même possible que, pour conserver ce privilège, ils préfèrent sacrifier les humains les plus pauvres.

Parce que ce mode de vie représente la plus grande émancipation vis-à-vis de la mort et de la douleur jamais atteinte pour un nombre d’individus aussi grand, mais aussi la plus grande liberté obtenue par rapport à l’environnement.

Une émancipation continue, bien que non achevée, vis-à-vis de ce que Marx appelait, « le règne de la nécessité ». Et si, pour paraphraser Marx, « un règne de la nécessité subsiste toujours », une bonne partie des occidentaux, même s’ils travaillent, sont « au-delà de ce règne ». Le règne des Modernes ressemble beaucoup à ce moment de l’histoire de l’humanité auquel Marx aspirait où « commence le développement des puissances de l’homme, qui est à lui-même sa propre fin, qui est le véritable règne de la liberté ». Un moment où travailler et consommer ne soient plus seulement réduits à satisfaire des besoins biologiques, mais à l’épanouissement, au bien-être de la personne.

La liberté et le confort qui libèrent le temps et le corps sont les biens les plus précieux de l’humain moderne occidental (et de tous les non-occidentaux devenus Modernes). Il est possible qu’il faille attendre que la menace climatique mette en péril cette liberté de façon palpable pour qu’il ressente le besoin de la défendre. Alors seulement, il pourra pleinement agir pour rééquilibrer son rapport à l’exploitation de l’environnement… s’il est encore temps.

C’est sur cette réalité anthropologique qu’achoppe aujourd’hui l’injonction à l’action écologiste, une injonction d’autant moins efficace qu’elle s’oppose à une quête essentielle de l’humanité depuis son apparition sur terre.

Dans ce contexte, faudrait-il penser que la perspective anthropologique est désespérante ? Non, puisqu’elle permet au contraire d’éviter l’écueil des injonctions militantes naïves, des faux espoirs simplistes, ou encore, de contrer la parole des gourous. L’enjeu est de repartir de l’humain pour engager des actions vraiment efficaces.

The Conversation

Fabrice Raffin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

03.04.2025 à 17:46

Pourquoi Trump a-t-il peur du prix des œufs ?

Clodagh Harrington, Lecturer in American Politics, University College Cork

L’escalade du prix des œufs est devenue un problème politique majeur pour le gouvernement Trump, et il n’est pas près de disparaître.
Texte intégral (1568 mots)

L’escalade du prix des œufs est devenue un problème politique majeur pour le gouvernement Trump, et il n’est pas près de disparaître. Hausse du panier moyen des Américains, épidémie de grippe aviaire, expulsion des migrants – qui représentent 70 % de la main-d’œuvre agricole –, l’œuf est au cœur d’enjeux politiques et géopolitiques majeurs.


Le prix des œufs a considérablement augmenté ces dernières années aux États-Unis. Une douzaine d’œufs coûtaient 1,20 USD en juin 2019. Aujourd’hui, le prix est d’environ 4,90 USD, avec un pic à 8,17 USD début mars.

Certains restaurants ont imposé des suppléments sur les plats à base d’œufs, attirant encore plus l’attention sur l’escalade des coûts. Et il y a aussi des pénuries dans les rayons des supermarchés.

Dans les mois à venir, les États-Unis prévoient d’importer jusqu’à 100 millions de produits de consommation de base. Des représentants du gouvernement s’adressent à des pays, de la Turquie au Brésil, pour s’informer sur les œufs destinés à l’exportation.

La secrétaire à l’agriculture, Brooke Rollins, qui avait précédemment déclaré que l’une des options de la crise était que les gens aient un poulet dans leur jardin a suggéré dans le Wall Street Journal que les prix sont peu susceptibles de se stabiliser avant quelques mois. Et Donald Trump a récemment partagé un article sur le réseau Truth Social appelant le public à « se taire sur les prix des œufs ».

Épidémie de grippe aviaire

La principale cause du problème est une épidémie de grippe aviaire qui a entraîné l’abattage de plus de 166 millions d’oiseaux aux États-Unis. Environ 98 % des poulets du pays sont produits dans des fermes industrielles, plus propices à la contagion.

Selon les Centers for Disease Control, la grippe s’est déjà propagée à plusieurs centaines de vaches laitières et à un être humain. Le département de l’agriculture des États-Unis a récemment annoncé un plan de 1 milliard de dollars pour contrer le problème, avec des fonds pour l’amélioration de la biosécurité, la recherche de vaccins et l’indemnisation des agriculteurs.

En janvier 2025, l’attachée de presse de Donald Trump à la Maison Blanche Karoline Leavitt a accusé l’administration précédente d’être à l’origine des prix élevés des œufs. Il est vrai que des oiseaux ont été abattus sous la surveillance du président Joe Biden, mais c’était et cela reste une pratique courante lors des épidémies de grippe aviaire et cela avait également été le cas sous les administrations Obama et Trump 1.

Tout le monde achète des œufs

Cependant, cela montre à quel point la hausse du prix des œufs est devenue une question politique. Elle a été régulièrement mentionnée dans les discours de campagne comme un symbole des maux de l’économie états-unienne. Donald Trump a promis de fixer le prix des œufs rapidement s’il était élu, mais, jusqu’à présent, il n’en est rien.

Les prix sont toujours à la hausse. Même lorsque les prix baissent soudainement, comme ils l’ont fait cette semaine, les Américains savent à quel point ils étaient moins chers jusque récemment.

Il y a un certain nombre de raisons pour lesquelles le prix des œufs est devenu important pour les hommes et femmes politiques états-uniens. Tout d’abord, presque tout le monde achète des œufs. La pénurie et la hausse des prix qui s’ensuit font donc l’actualité et touchent les consommateurs de toutes les tranches de revenus. Ensuite, ils symbolisent les vulnérabilités économiques du pays. Enfin, les prix des œufs sont politiques en raison de la promesse de Trump de les faire baisser.

Courses alimentaires

Les sondages ont montré que l’économie et l’inflation ont été des facteurs clés dans le choix des électeurs le jour du scrutin présidentiel de 2024. En février 2025, Donald Trump a accordé une interview à NBC News dans laquelle il a déclaré qu’il avait remporté les élections sur les thématiques de l’immigration et des… courses alimentaires !

En matière d’immigration, les électeurs fondent souvent leurs opinions sur ce qu’ils perçoivent comme étant vrai. Une rhétorique dure sur la construction d’un mur peut être associée au sentiment d’avoir un président qui prend des mesures fortes, que quelque chose de tangible se matérialise ou non.

Avec les courses alimentaires, la réalité l’emporte sur la perception. Le prix des œufs est imprimé sur la boîte et le coût est payé directement par les électeurs.

Donald Trump réagit au prix des œufs dans son pays.

Ensuite, il y a les producteurs d’œufs. Les agriculteurs états-uniens avaient tendance à soutenir massivement Trump. Les zones rurales ont voté pour lui de plus en plus au long de ses trois tentatives électorales. Elles augmentent même leur soutien pour lui en 2020 après des guerres commerciales et des augmentations de prix qui les auraient affectées négativement.

Économie de la « table de cuisine »

Un autre facteur qui pourrait faire grimper les prix des œufs est qu’on estime que 70 % de la main-d’œuvre agricole est constituée de main-d’œuvre immigrée – dont 40 % sont sans papiers. Si les plans de l’administration Trump pour des tarifs douaniers élevés et des expulsions massives de migrants se concrétisaient, l’industrie agroalimentaire aurait du mal à fonctionner.

De nouvelles augmentations des prix des denrées alimentaires seront inévitables, avec une exacerbation potentielle en raison du gel du financement de certains programmes du département de l’agriculture des États-Unis que Trump a promulgué. En mars 2025, une réduction d’1 milliard de dollars a été annoncée, dont les conséquences se font déjà sentir chez les agriculteurs. Le message « douleur maintenant, pour gain plus tard » est une promesse politique délicate.

À l’ère des turbulences internationales, les élections sont largement gagnées sur des questions plus banales. Plus précisément, l’économie de la « table de cuisine » parle à chaque électeur, peu importe à quel point sa table est grande ou non.

Normes de bien-être animales et humaines

Les Américains savent que, au Canada voisin, les prix des œufs n’ont pas augmenté de façon spectaculaire. Il n’y a pas eu de pénurie. Mais les prix au Canada ont toujours été plus élevés qu’aux États-Unis, du moins en partie parce que les normes agricoles diffèrent.

Les États-Unis n’ont pas de normes de bien-être élevées pour les travailleurs agricoles ni pour les animaux. Cette lacune doit être comblée afin d’aider à réduire le risque futur de grippe aviaire, mais cela risque encore d’augmenter les prix.

Blâmer le précédent président n’est pas une position durable pour Donald Trump. Comme l’ancien président Harry Truman pourrait le lui rappeler : « La responsabilité s’arrête ici. »

The Conversation

Clodagh Harrington ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

03.04.2025 à 17:44

« Le Roi lion », « Blanche-Neige », « Zootopie »… ce que les accents des personnages de dessins animés disent des stéréotypes

Grégory Miras, Professeur des Universités en didactique des langues, Université de Lorraine

Mélanie Lancien, Maîtresse de Conférence en linguistique

Que racontent les accents des personnages de dessins animés, comme ceux de Disney ou de Dreamworks ? Mettent-ils en avant la diversité culturelle ou jouent-ils surtout sur les stéréotypes ?
Texte intégral (1869 mots)

Que racontent les accents des personnages de dessins animés type Disney ou Dreamworks ? Mettent-ils en avant la diversité culturelle ou jouent-ils surtout sur les stéréotypes ?


Chacun se souvient de l’accent hispanophone du Chat Potté dans Shrek, ou (quasi) russophone de Gru, dans Moi, Moche et Méchant. Or, dans les versions originales comme dans les versions doublées, c’est souvent les accents standards, dits « neutres », qui dominent. Qui ne s’est pas déjà demandé pourquoi Mulan et Rebelle dans les dessins animés éponymes, ou encore Tiana, dans la Princesse et la Grenouille, s’expriment comme des présentatrices télé ! Alors quelle est la place des accents, notamment étrangers, dans les dessins animés ? Et comment ces accents dialoguent-ils avec les perceptions que nous en avons dans la vie réelle ?

Accents et dessins animés, des variations mais pas trop

Dans les années 1990, la chercheuse américaine Rosina Lippi-Green a analysé 24 dessins animés de la franchise Disney, produits entre 1938 et 1994. Cela va de Blanche-Neige au Roi lion – soit 371 personnages au total. Dans les versions originales en langue anglaise de ces films, elle a dénombré 91 personnages qui, en toute logique, ne devraient pas parler anglais : citons le Roi lion qui se déroule objectivement en Afrique avec des patronymes originaires du swahili, une langue parlée en Afrique centrale et orientale (par exemple, mufasa signifie « le roi » ou « celui qui gouverne »).

Or, sur 91 personnages, ils ne sont que 34 à s’exprimer en anglais avec un accent dit « étranger » – cette dénomination étant sujette à débat, car elle pose la question des limites de ce qui est étranger. Les autres personnages n’ont « aucun accent » ou plutôt un accent standard.


Chaque samedi, un éclairage original et décalé (articles, quiz, vidéos…) pour mieux comprendre le monde qui nous entoure. Abonnez-vous gratuitement dès aujourd’hui !


Le cas de l’ours Paddington, personnage de fiction créé par l’écrivain britannique Michael Bond, n’est pas en reste sur la question. Originaire du Pérou où il s’entraîne avec des ressources pédagogiques britanniques, on lui attribue son nom à son arrivée en Angleterre. Or, de nombreux spectateurs se demandent, dans la presse et sur des forums anglophones après la sortie du film, pourquoi il a un accent anglais britannique plutôt qu’un accent hispanophone en anglais. Ils semblent oublier qu’il s’agit d’un personnage fictif qui pourrait donc avoir n’importe quel accent. L’adaptation française a tranché la question en lui attribuant un accent standardisé (dit « sans accent »). Angela Smith, chercheuse en Grande-Bretagne, souligne qu’il est présenté à l’origine, par son créateur, comme ayant une petite voix, loin de l’agressivité d’un ours et sans accent étranger, mais ayant adopté la langue de la culture dominante anglo-saxonne.

Luca Valleriani de l’Université La Sapienza, à Rome, a étudié le cas du long-métrage d’animation Zootopie, produit par Disney, qui met en scène des animaux anthropomorphiques– c’est-à-dire reprenant des traits humains. Dans cette ville peuplée d’animaux, un officier lapin doit collaborer avec un renard arnaqueur pour résoudre une affaire. Dans la version originale, c’est-à-dire anglophone, plusieurs personnages ont des accents états-uniens et trois ont des accents dits « étrangers » : une pop star a l’accent latino-américain (doublée par Shakira), un patron de mafia a l’accent italien américain et un chef de la police a l’accent de l’est londonien avec une touche sud-africaine.

Dans les adaptations danoise et française du film, deux de ces accents (la pop star et le chef de la police) ont été standardisés. En France, l’accent italien du patron de la mafia a presque disparu en étant substitué par une qualité de voix et une prosodie spécifiques qui s’ajoutent à une musique clichée de l’Italie jouée lorsqu’il s’exprime. La version italienne a adapté ces différents accents, en attribuant aux personnages des variétés régionales italiennes : napolitaine, sicilienne et toscane, notamment.

Des accents et des stéréotypes

Le film Zootopie est un bon exemple d’usage stéréotypé des accents. Il propose un message humaniste selon lequel la race et l’apparence physique n’ont rien à voir avec le fait d’être mauvais ou bon. Et pourtant, il charge les accents de stéréotypes, particulièrement ceux, régionaux, renvoyant à des dimensions sociales, « provinciale » ou « mafieuse ». La question du doublage devient ainsi majeure puisque la plupart de ces productions sont produites aux États-Unis et renvoient à des stéréotypes ou clichés états-uniens ou anglophones.

Lippi-Green rappelle que le contexte géopolitique se reflète dans les stéréotypes de chaque époque. Prenons les personnages des méchants : pendant la Seconde Guerre mondiale, ils parlaient avec un accent japonais ou allemand ; pendant la guerre froide, avec un accent russe, et pendant les guerres d’Iran ou d’Irak, avec un accent arabe, identifiant ainsi les adversaires du héros ou de l’héroïne comme venant de pays « ennemis » des États-Unis.

Podcast de What’s Up Brault : « Pourquoi l’accent allemand ? »

Toujours selon la chercheuse Lippi-Green, les producteurs utilisent ces accents pour plusieurs raisons : situer rapidement un espace géographique (accent russe = Russie) ; faire un raccourci en cataloguant un personnage (accent italien = un mafieux) ; produire un effet humoristique (accent belge) ; ou alors, par facilité et pour des questions de coûts, ils vont standardiser les façons de parler. Dans son étude, elle montre aussi, dans les versions en anglais des films, que la proportion de méchants ayant un accent dit « étranger » (40 %) est supérieure à celle qui a un accent américain ou britannique (20 %). Si son travail relève que l’accent français hexagonal est souvent présenté comme ayant une valeur positive, il fait aussi l’objet de stéréotypes ; il est régulièrement associé à des personnages irascibles (le cuisinier dans la Petite Sirène) ou dragueurs (O’Malley dans les Aristochats), reflétant le cliché que l’on se fait des Français aux États-Unis.

Un impact sur la construction des représentations

Les discriminations liées à l’accent ne sont pas toujours évidentes ni explicites. On peut noter que dans les films d’animation, les personnages qui, en plus d’un accent, ont aussi d’autres caractéristiques très différentes des personnages principaux, sont souvent relégués à des rôles secondaires. Ils peuvent aussi avoir des rôles de premier plan avec des opportunités réduites (le méchant manipulateur doit être vaincu sans rédemption possible). Parallèlement, les études semblent montrer que les personnages de méchants sont régulièrement affublés d’un accent britannique, qui leur donnerait de la crédibilité, car il renverrait à des traits de caractère alliant une intelligence redoutable et une faible moralité. Dans la version anglophone du Roi lion, Mufasa (le roi de la savane) a un accent américain, tandis que son frère, Scar, a un accent britannique.

Si l’on connaît peu l’impact direct de ces accents sur les jeunes enfants, Patricia Kuhl a pu démontrer que les nourrissons américains âgés de 9 à 10 mois peuvent activer un apprentissage phonétique (dans ce cas, le mandarin) à partir d’une exposition humaine en direct, mais que cet apprentissage ne se fait pas avec la télévision. Cela suggère que, chez le très jeune enfant, l’interaction sociale réelle renforce la capacité à s’approprier de nouveaux sons. Kossi Seto Yibokou souligne que les étudiants français qui apprennent l’anglais à l’université sont largement influencés par la prononciation américaine des séries. Il est donc possible de penser que l’impact des écrans sur les accents peut dépendre de l’âge.

Lippi-Green compare l’accent à une Maison des sons que l’on construit, puis décore, aménage et étend en fonction de ses rencontres. Les individus adaptent (in)volontairement leurs accents en fonction des situations et du temps qui passe. Les films, dessins animés, mangas et autres médias peuvent influencer notre perception des accents de manière complexe. Parfois, ils diffusent une image caricaturale des accents, ce qui nous habitue à être plus à l’aise avec ce qui nous est familier (ce que l’on présente comme un « non-accent » ou un accent « neutre ») et méfiants envers ce qui semble différent de nous (les accents que l’on identifie comme « étrangers » par exemple).

Faire entendre des accents différents mais non stéréotypés, dès le plus jeune âge, contribue à favoriser la capacité universelle à se comprendre les uns et les autres, peu importe sa façon de parler. Plutôt que de supprimer ou corriger les accents, on peut aider à mieux les comprendre.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

03.04.2025 à 12:27

Après l’échec des droits de douane de Trump 1, pourquoi cela serait-il un succès sous Trump 2 ?

Antoine Bouët, Directeur, CEPII

Retour vers le futur. Un voyage dans le temps s’impose pour comprendre les conséquences des droits de douane. Revenons sur les effets de ceux imposés lors de son premier mandat, en 2018 et 2019.
Texte intégral (3196 mots)
La stratégie de la première administration Trump sur la hausse des tarifs douaniers s’est soldée par un échec : hausse de l’inflation, hausse des importations d’Inde, du Mexique ou du Vietnam et recettes en légère hausse. Akatz/Shutterstock

Retour vers le futur. Un voyage dans le temps s’impose pour comprendre les conséquences potentielles des droits de douane mis en place en 2025 par la nouvelle administration Trump. Revenons donc sur les effets de ceux imposés lors de son premier mandat, en 2018 et 2019.


En 2018 et 2019, sous la première administration Trump, les droits de douane avaient concerné environ 300 milliards d’importations de panneaux solaires, machines à laver, acier, aluminium, puis de nombreux produits de Chine, d’Inde et d’Europe : dispositifs médicaux, téléphones, produits chimiques, textiles, avions, fromages, huiles d’olive.

Avec quels bénéfices ? Dans ses déclarations, en 2025, Donald Trump assigne plusieurs objectifs aux droits de douane : le rééquilibrage de la balance commerciale, la réindustrialisation du pays et la création d’emplois dans le secteur manufacturier. Il met en avant une augmentation des recettes publiques de l’État fédéral, tout en soulignant la nécessité de sanctionner la Chine pour ses pratiques jugées déloyales.

Le président états-unien espère attirer des investissements directs étrangers (IDE), qui chercheraient à contourner les barrières tarifaires imposées. Cet argument du tariff-jumping rappelle qu’une entreprise peut établir des filiales aux États-Unis pour éviter de hauts tarifs douaniers.

Pour Donald Trump, les droits de douane sont une taxe sur les exportateurs étrangers, non sur ses concitoyens. Ils ne pèsent pas sur les ménages et les entreprises états-uniennes, qui, dès lors, ne devraient pas voir les prix des biens qu’ils achètent augmenter.

S’il considère la possibilité de représailles commerciales, il en minore les effets, car les contre-représailles que les États-Unis exerceraient sont de nature à renforcer leur poids dans les négociations.

Voyons ce qu’il en a été de ces différents objectifs sous l’administration Trump 1.

Déficit en hausse

Commençons par la balance commerciale (Graphique 1). Le déficit états-unien est passé de 870 milliards de dollars en 2018 à 1 173 milliards en 2022, puis 1 203 milliards en 2024. Si les importations ont connu un léger fléchissement en 2018, et surtout 2020 — année du Covid-19 —, elles ont ensuite repris une tendance haussière.

Solde commercial des États-Unis de 2015 à 2024
Graphique 1. Solde commercial des États-Unis de 2015 à 2024. US International Trade Commission

Les exportations ont enregistré une évolution similaire avec une hausse moins marquée en fin de période. Parmi les facteurs qui ont pu jouer un rôle : l’évolution du dollar. Avec la baisse des importations, la demande de monnaie étrangère se réduit – comme le yuan chinois, la roupie indienne ou l’euro –, ce qui favorise l’appréciation du dollar. Un dollar plus fort équivaut à des produits états-uniens plus chers pour les étrangers. Conséquence : une baisse des exportations du pays de l’Oncle Sam.

Pas d'impact sur l'emploi local

Voyons maintenant l’impact des droits de douane de Trump 1 sur la réindustrialisation. Les économistes David Autor, Anne Beck, David Dorn et Gordon Hanson ont estimé les conséquences de la guerre commerciale de 2018-2019 sur l’emploi au niveau des commuting zones (les zones où les individus vivent et travaillent) et ils ont constaté que les droits de douane de la première administration Trump n’ont pas eu d’effet sur l’emploi au niveau local.

Faible recette des droits de douane

Recettes douanières de l’État fédéral
Graphique 2. Recettes douanières de l’État fédéral de 2015 à 2024. US Treasury Fiscal Data

Quant aux recettes douanières, elles ont bien augmenté à partir de mai 2018, puis en mai 2019 (Graphique 2). Pourtant, elles ne représentent qu’une faible partie des recettes de l’État fédéral : environ 1 % en 2018, 2 % en 2019, loin derrière les revenus tirés de la taxation sur le revenu des ménages ou le bénéfice des sociétés. Augmenter davantage les recettes douanières pourrait se faire, mais seulement au prix de distorsions considérables. Nous avons démontré que le droit de douane maximisant les recettes douanières serait une taxe d’environ 80 % sur les importations de tous les produits en provenance de tous les pays. Elle équivaut à un peu plus de 800 milliards de dollars, soit 15,3 % des recettes totales de l’État fédéral en 2024.

Hausse de l’inflation

S’agissant de l’inflation, sujet sensible aux États-Unis, les droits de douane ont toutes les chances de l’accélérer. Comment ? Par les hausses de prix intérieurs qu’ils risquent fort d’engendrer, aussi bien pour les ménages que pour les entreprises achetant des biens nécessaires à leur activité. Les analyses empiriques montrent qu’il y a eu un pass-through des droits de douane aux prix des biens importés par les États-Unis en 2018-2019. Les entreprises répercutent directement la hausse de ces droits de douane sur leurs produits et services. Autrement dit, les prix avant droits de douane n’ont pas baissé.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le coût de ces droits a été quasi intégralement payé par les ménages américains. Mary Amiti, Stephen J. Redding et David E. Weinstein concluent que les droits de douane de l’administration Trump 1 ont augmenté le prix moyen des biens manufacturés aux États-Unis de 1 point de pourcentage. Les chercheurs Fajgelbaum, Goldberg, Kennedy et Khandelwal concluent à un pass-through complet. La perte de revenu réel pour les ménages et les entreprises qui achètent des produits importés a été de 51 milliards de dollars… soit de 0,27 % du PIB américain.

Baisse des importations chinoises, hausse des importations indiennes, vietnamiennes et mexicaines

Quant aux droits de douane, dont une partie a été mise en place au titre de la section 301 du Tariff Act de 1974, il semblerait qu’ils n’aient pas pleinement atteint leur objectif. Ils avaient été créés pour sanctionner la Chine après une enquête américaine sur les politiques du gouvernement chinois liées aux transferts de technologie. Selon certains observateurs, une autre raison : réduire les dépendances des chaînes de valeur américaines vis-à-vis de ce pays.


À lire aussi : « Tariffs are coming » : menace de taxes douanières et rapports de force sous Trump II


Si la part des exportations chinoises dans les importations états-uniennes de biens a bien baissé, l’évolution en valeur n’est pas claire. Les importations américaines en provenance de Chine ont en effet augmenté de 2016 à 2018, baissé en 2019 et 2020, puis de nouveau augmenté en 2022. À cette date, ils ont atteint 536 milliards de dollars et baissé à nouveau autour de 430-440 milliards sur les deux années suivantes.

En revanche les importations américaines ont clairement augmenté entre 2018 et 2024 en provenance de l’Inde – de 54 à 87 milliards de dollars –, du Mexique – de 344 à 506 milliards – et du Vietnam – de 49 à 137 milliards de dollars. Sur la période, la part de la Chine dans les importations états-uniennes a ainsi baissé de 21,5 % à 13,4 %, tandis que celle cumulée des trois autres pays augmentait de 16,9 % à 22,3 %.

Stratégie de contournement

Quelle explication potentielle à ces chiffres ? Des sociétés chinoises auraient pu installer des usines dans ces pays pour y fabriquer (ou y assembler ou y faire transiter) des produits traditionnellement fabriqués en Chine, pour les exporter ensuite vers les États-Unis. Cette stratégie contourne les droits de douane américains sur les biens en provenance (directe) de Chine.

Les chercheurs Alfaro et Chor ont constaté que des entreprises chinoises ont davantage investi, notamment au Vietnam et au Mexique. Ce moment coïncide avec l’imposition par les États-Unis de droits de douane discrétionnaires sur les importations en provenance de Chine. Ils ont également constaté une corrélation négative entre les variations de la part de la Chine dans les importations américaines par secteur et les variations de la part du Mexique et du Vietnam, mais aussi de l’Inde, de la Malaisie et de l’Indonésie : la baisse dans un secteur des exportations chinoises vers les États-Unis est corrélée au cours de cette période avec la hausse des exportations dans le même secteur de ces cinq pays vers les États-Unis.

Évolution des exportations en valeur de 2015 à 2023
Graphique 3. Évolution des exportations en valeur de 2015 à 2023. CEPII, Fourni par l'auteur

Le rôle de pays connecteurs (G5) joué par l’Inde, l’Indonésie, la Malaisie, le Mexique et le Vietnam peut s’observer à partir du graphique 3. Entre 2018 et 2020, les exportations chinoises vers les États-Unis baissent substantiellement, davantage que celles du reste du monde vers les États-Unis. Les exportations chinoises vers le groupe des cinq pays connecteurs (G5) augmentent fortement, davantage que celles vers le reste du monde. Au total, les exportations mondiales de la Chine n’ont pas diminué à la suite des droits de douane sous la première administration Trump. Elles ont au contraire augmenté de 32 % entre 2017 et 2021.

Dans le même temps on observe bien une réallocation des exportations chinoises, en particulier vers les pays connecteurs (G5). Quant à ces derniers, ils ont à partir de 2017 augmenté significativement leurs exportations vers les États-Unis, de 62 % entre 2017 et 2022. En parallèle, leurs exportations vers le reste du monde ne s’accroissaient que de 46 %.

Les États-Unis sont-ils moins dépendants de la Chine en 2021 par rapport à 2017 ? Clairement, si on considère une relation directe, moins si les relations indirectes sont prises en compte.

Électeurs trumpistes exposés aux droits de douane

Pour terminer, en ce qui concerne l’argument du tariff-jumping et l’impact des droits de douane sur les investissements étrangers aux États-Unis, aucune étude n’a tenté de le mesurer. À partir des seuls flux (Graphique 4), on observe plutôt un recul de ces investissements étrangers depuis 2016, hormis en 2021.

Investissement direct étranger aux États-Unis de 2010 à 2023
Graphique 4. Investissements directs étrangers aux États-Unis de 2010 à 2023. UNCTADSTAT

Ce que l’on sait, c’est que le coût des biens intermédiaires intervient dans les décisions des investisseurs. À cet égard, les droits de douane sur l’acier et l’aluminium ne jouent pas en faveur de l’implantation d’entreprises ayant besoin de ces biens dans leur processus de production.

Un argument qui pourrait justifier la décision de mettre en place des droits de douane : leur popularité, surtout auprès de ceux qui travaillent dans les secteurs où ces droits sont imposés. Les chercheurs du National Bureau of Economic Research (NBER) soulignent en effet que les habitants des régions les plus exposées aux droits de douane ont été plus susceptibles de voter pour la réélection de Donald Trump en 2020.

Un argument que ce dernier n’a pas mis en avant dans ses déclarations pour justifier sa « tarifmania », mais qui pourrait bien avoir pesé.

The Conversation

Antoine Bouët ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

03.04.2025 à 11:04

Réduire la vitesse, changer de revêtement… Quelles solutions contre la pollution sonore routière ?

David Ecotière, Chercheur en acoustique environnementale - Directeur adjoint de l’Unité Mixte de Recherche en Acoustique Environnementale (UMRAE), Cerema

Marie-Agnès Pallas, Chercheuse en acoustique environnementale, Université Gustave Eiffel

Le bruit routier est en France la première cause de nuisances sonores. Des travaux de recherche ont comparé l’efficacité des différentes options pour le diminuer.
Texte intégral (2378 mots)

Des chercheurs en acoustique ont comparé différentes options pour atténuer les nuisances sonores causées par le bruit routier. En fonction des situations, il peut être plus intéressant d’opter pour un moteur électrique plus silencieux, de changer le revêtement des routes ou d’optimiser la vitesse du trafic routier. Mais dans la plupart des cas, la solution optimale est plurielle.


Selon l’Organisation mondiale de la santé (OMS), le bruit est le deuxième facteur de risque environnemental en Europe en matière de morbidité, derrière la pollution de l’air. Il représente un problème majeur pour la santé publique, dont les répercussions socio-économiques globales, estimées à 147 milliards d’euros par an, en 2021, sont trop souvent négligées.

Le bruit des transports, en particulier le bruit routier, est en France la principale cause de ces nuisances. Différentes solutions peuvent pourtant être mises en œuvre pour limiter son impact. Modifier la propagation acoustique en interposant un obstacle de grande dimension entre la source et les riverains (bâtiments, écran acoustique, buttes naturelles…) peut être un moyen très efficace de réduire l’exposition sonore, mais n’est pas toujours techniquement ou financièrement envisageable et ne permet pas de couvrir toutes les situations possibles.

Améliorer l’isolation acoustique des bâtiments est également une très bonne solution technique, mais elle présente l’inconvénient de ne pas protéger les personnes situées à l’extérieur et de perdre en efficacité dès lors que portes ou fenêtres sont ouvertes. La meilleure des options reste ainsi, avant tout, de réduire l’émission sonore à la source.

Dans cette optique, des actions sont régulièrement mises en place, soit dans un cadre réglementaire (étude d’impact de nouvelles infrastructures, opérations de résorption des « points noirs du bruit » etc.), soit de façon volontariste par des collectivités ou des gestionnaires d’infrastructures routières pour lutter contre les nuisances sonores.

Des polémiques récentes sur la façon de réduire le bruit routier peuvent néanmoins brouiller le message auprès du citoyen et nuire ainsi à la crédibilité de ces solutions, dont le rôle reste avant tout de combattre ce fléau environnemental. Qu’en est-il exactement de leur efficacité et de leur pertinence techniques ?

Pourquoi le trafic routier est-il bruyant ?

Avant d’explorer les différentes solutions permettant la réduction du bruit routier à la source, il est important de comprendre les causes de ce bruit et les paramètres sur lesquels on peut agir pour le réduire. Les bruits de comportement, liés à un mode de conduite non conventionnel ou inadapté, contre lesquels des mesures de lutte sont en cours d’évaluation dans plusieurs villes, ne seront pas considérés ici.

Le son émis par un véhicule routier provient de deux principales sources :

  • le bruit de propulsion, dû au système mécanique (moteur, transmission, échappement),

  • et le bruit de roulement, dû au contact entre les pneumatiques en mouvement et la chaussée.

En conditions normales, le bruit de propulsion prédomine en dessous de 30 à 40 km/h pour les véhicules légers (VL) – ou de 40 à 50 km/h pour les poids lourds (PL) – tandis que le bruit de roulement l’emporte au-delà et augmente rapidement avec la vitesse.


Visuel d’illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu

Abonnez-vous dès aujourd’hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


Pour les véhicules actuels en fonctionnement standard, les autres sources potentielles de bruit (écoulement de l’air sur le véhicule…) sont négligeables par rapport au bruit de propulsion et au bruit de roulement.

Pour un bruit constant, il est communément admis que l’audition humaine ne perçoit une variation qu’à partir d’un écart de 2 décibels A (dBA) minimum. L’acousticien de l’environnement considère ainsi qu’un changement inférieur à ce seuil est « non significatif », car insuffisamment perceptible. Il utilise, en première approche, ce seuil comme repère pour juger de l’efficacité potentielle d’une solution de réduction du bruit.

Agir sur la motorisation

Agir sur la motorisation permet de diminuer les émissions sonores à basse vitesse. Les moteurs électriques sont ainsi généralement moins bruyants que les moteurs thermiques, avec une différence qui tend cependant à diminuer pour les véhicules thermiques neufs actuels, moins sonores que par le passé.

La réglementation oblige aussi les véhicules électriques à ajouter un son synthétique en dessous de 20 km/h pour améliorer la sécurité des piétons (dispositif AVAS). Une boîte de vitesse automatique contribue également à réduire l’émission sonore, car elle assure un régime du moteur thermique toujours adapté à l’allure et évite ainsi les excès de bruit dus à des conduites en surrégime.

Hors des restrictions d’accès imposées à certains cœurs de ville, agir sur la motorisation des véhicules n’est cependant généralement pas du ressort d’un gestionnaire d’infrastructure routière. Le changement d’une grande partie du parc roulant est en outre nécessaire pour produire un impact acoustique significatif, ce qui n’est efficace qu’à long terme.

Optimiser l’écoulement du trafic

Pour des effets à court terme, une deuxième option consiste à optimiser l’écoulement du trafic en modifiant le débit des véhicules ou leur vitesse. Les gains sonores attendus d’une réduction du débit suivent une loi logarithmique, où une division par 2 du nombre total de véhicules entraîne une diminution de 3 dBA. La diminution de la vitesse permet quant à elle de diminuer les émissions sonores en agissant sur le bruit de roulement.

Dans ce cas, au-delà de 40 km/h, les gains attendus sont de l’ordre de 1 à 1,5 dBA par tranche de réduction de 10 km/h. Toutefois, les émissions sonores des véhicules légers et des poids lourds n'étant pas équivalentes, l'émission sonore globale d'un trafic routier dépendra des proportions de ces véhicules qui y circulent et du revêtement de chaussée. Il est donc difficile de donner ici une estimation synthétique des gains potentiels dans toutes les situations.

L’application en ligne Motor développée par notre équipe permet à chacun de tester, en première approche, des scénarios de trafic en modifiant les différents paramètres d’influence du bruit afin de juger de leur efficacité potentielle sur la réduction de l’émission sonore d’une voirie routière.

Modifier le revêtement

Une troisième solution consiste à modifier le type de revêtement de chaussée afin d’agir sur le bruit de roulement.

On peut comparer les performances acoustiques de très nombreux revêtements de chaussées, par exemple à l’aide de notre application en ligne BDECHO, qui tire parti de la base nationale des performances acoustiques des revêtements de chaussées français.

Celle-ci montre ainsi que les revêtements les moins bruyants sont ceux dont la couche de surface est à faible granulométrie (enrobés à petits agrégats) et qui présentent une certaine porosité. À l’inverse, celle des plus bruyants a une plus forte granulométrie et n’est pas poreuse.

Si chaque solution peut contribuer à la réduction du bruit routier, chacune comporte également des inconvénients.

Quels avantages pour ces solutions ?

Changer un revêtement bruyant par un autre moins bruyant peut engendrer une réduction du bruit de 2 dBA à 10 dBA au maximum, et ce, dès 25 km/h pour les véhicules légers et dès 40 km/h pour les poids lourds.

Onéreuse, cette solution nécessite une mise en œuvre lourde et une intervention conséquente sur la voirie. Les performances acoustiques des revêtements ont aussi l’inconvénient d’évoluer au fil du temps, avec une dégradation des performances plus rapide pour les revêtements les moins bruyants. Une dispersion importante des performances (de l’ordre de plusieurs dBA) est également observée au sein de chaque catégorie de revêtement, ce qui entraîne une plus grande incertitude sur la prévision des performances attendues.

La réduction de vitesse, quant à elle, n’est pas toujours possible. Ou encore, son efficacité peut être limitée, par exemple si les vitesses de l’infrastructure existante sont déjà modérées ou que la réduction de vitesse ne peut pas être appliquée aux poids lourds, plus bruyants, et que ces derniers sont déjà en proportion non négligeable dans le trafic. Les gains attendus peuvent également être moindres qu’espérés si les vitesses pratiquées sont inférieures aux vitesses réglementaires de l’infrastructure, par exemple en situation chronique de ralentissements ou de congestion.

C’est ce qui a par exemple été constaté lors de mesures acoustiques récentes sur le périphérique parisien, où les gains théoriques ont été atteints uniquement la nuit, lorsque la circulation est fluide. Notons que ce type de solution peut cependant apporter des co-bénéfices intéressants en matière de pollution atmosphérique ou d’accidents de la route, sans nécessairement nuire significativement au temps de parcours perçu.

Combiner les différentes solutions

Réduction des vitesses, revêtements peu bruyants, restriction du trafic, changements de motorisation… quelle est finalement la meilleure méthode pour faire chuter les émissions sonores routières ?

Réduire le trafic global engendrera toujours une chute des émissions, audible sous réserve d’une baisse du trafic d’au moins 30 à 40 %, si la solution est appliquée seule.

Pour les autres options, en zone à vitesse réduite (inférieure à 40km/h), jouer sur la motorisation est la solution la plus efficace. Cela peut passer par l’incitation à l’adoption de véhicules électriques ou d’autres motorisations moins bruyantes, les méthodes agissant sur le bruit de roulement étant dans ce cas moins efficaces.

Dans des voiries où la vitesse moyenne des véhicules est plus élevée, les chaussées peu bruyantes ou la diminution des limites de vitesse peuvent apporter des réductions intéressantes. Mais leur pertinence devra être étudiée au cas par cas en amont, en fonction des propriétés initiales de l’infrastructure considérée (vitesse, structure du trafic, revêtement de chaussée existant, etc.).

Les trois solutions étant compatibles entre elles, l’idéal consiste bien entendu à les associer afin de cumuler avantageusement les gains apportés par chacune d’entre elles.

The Conversation

David Ecotière a reçu des subventions publiques du Ministère de la Transition écologique.

Marie-Agnès Pallas a reçu des financements du Ministère de la Transition écologique, de l’Union européenne et de BpiFrance.

02.04.2025 à 17:34

Tech startup culture is not as innovative as founders may think

Yeonsin Ahn, Professeur assistant, stratégie et politique d'entreprise, HEC Paris Business School

Founders often carry over aspects of old workplace culture into new businesses.
Texte intégral (1094 mots)

Eric Yuan was not happy at Cisco Systems even though he was making a salary in the high six figures, working as vice president of engineering on the videoconferencing software Cisco WebEx.

“I even did not want to go to the office to work,” Yuan told CNBC Make It in 2019.

Yuan was unhappy with the culture at Cisco, where new ideas were often shut down and change was slow. When he suggested building a new, mobile-friendly video platform from scratch, the idea was rejected by Cisco’s leadership. Frustrated by the resistance to innovation, Yuan left the company in 2011 and founded Zoom, whose value increased astronomically during the Covid pandemic years as it became the go-to app for remote work.

One might think that founders who, like Yuan, expressed unhappiness with their previous employers’ culture would establish new companies with very different values. However, we found that, on average, whether they want to or not, founders are likely to replicate the culture of their previous employer in their new venture.

Founders come from somewhere

Yuan’s story includes the idea that many people have of the lumbering tech giant versus the agile startup. Yet our research found that this distinction is actually not so clear.

More than 50 percent of US tech startup founders have previous experience in other companies, often in giants like Google or Meta. The work culture of these huge organizations is not always so easy to shake off when entrepreneurs go on to start their own companies.

In our research, we identified 30 different cultural elements of companies. These include cultures of work-life balance, teamwork, authority, innovation, and compensation-oriented vs customer-oriented culture, to name a few.

Previous research has shown that startup founders transfer knowledge and technology from former jobs. We found empirical evidence that they also transfer work culture.

Comparing organizational cultures of “parents”, “spawns” and “twins”

In our research, we identified startup founders and used their LinkedIn profiles to find companies where they had previously worked. Our team applied natural language processing, namely Latent Dirichlet allocation topic modelling, to text on Glassdoor, a site that allows current and former employees to anonymously review companies. We used the processed reviews to characterize the cultures of “parent” companies and startup companies, or “spawns”. We also identified a match or “twin” for the spawn organization that had a similar size, product and number of years in business.

Then, we compared the culture of each spawn startup to the culture of its parent organization, and the culture of each spawn’s “twin” to the culture of the same parent, in a given year. If a spawn was more similar to its parent than the twin was to the parent, this supported our hypothesis that founders tend to transfer their previous work cultures to their new ventures.

And we found that there are three conditions that favour such a transfer.

  • Length of employment

First, the longer years founders have been at an organization, the more likely they are to transfer its culture to their new startup, because they have become very familiar with that culture.

  • Congruency of culture

The second condition is the congruency of culture, i.e., the degree to which culture is composed of elements that are consistent in their meanings, and hence, have internal compatibility.

For example, in our data, there a cloud-based location services platform that has high congruency in its culture. The company has three highly salient cultural elements: it is adaptive, customer-oriented and demanding. These elements consistently point to a culture of customer responsiveness. Our data also includes an e-commerce clothing platform with two cultural elements – growth orientation and work-life balance – that are poorly aligned in their meanings, reducing the congruency of its culture.

We found that the more internally congruent a parent organization’s culture is – and thus, the easier it is to understand and learn – the more likely it is that founders will transfer its elements to their new companies.

  • Typicality of culture

Third, the more atypical an organization is – the more it stands out from others in its field – the more likely it is that its culture will be transferred to the startup.

In an atypical culture, it is easy for employees to identify cultural elements, and to remember and incorporate them once they found a startup. Because an atypical culture draws a stronger boundary that distinguishes an organization from others, employees become more aware that the organization has chosen them and that they have chosen to work in it. This creates a cognitive attachment in the employee toward the organization, and also increases how well they learn its culture.

In our study, each startup’s cultural atypicality was measured by calculating the cultural distances between all organizations within the same product category for a given year.

It’s common for founders to describe their culture as distinctive or one-of-a-kind. However, we found that’s not necessarily the case. Founders tend to replicate the culture of their previous employers because they’re accustomed to that way of working.

False perceptions?

Many students tell me they’re drawn to more creative and innovative work environments – something they often associate with startups rather than traditional, established companies.

But our research suggests this perception might not be entirely accurate.

Job seekers looking for unique or forward-thinking cultures may be surprised to find that startup environments resemble those of larger tech companies more often than expected.

And for founders – especially those who left previous roles because of frustrating workplace cultures – it can be a wake-up call to realize how easy it is to unintentionally recreate the very environments they may have hoped to avoid.

The Conversation

Yeonsin Ahn ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
  FIABILITÉ LIMITÉE
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓