LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

13.04.2025 à 13:07

L’effondrement des traités de limitation des armements met l’humanité entière en danger

Julien Pomarède, Associate professor in International Politics, Promoter of the WEAPONS Project (FNRS - 2025-2028) (Université de Liège) - Research Fellow REPI ULB. Promoter « WEAPONS » Research Project (FNRS - 2025-2028), Université de Liège

Tout l’édifice normatif construit depuis plus de soixante ans pour limiter ou interdire certains armements, notamment nucléaires, est en train de disparaître.
Texte intégral (3080 mots)

Ces dernières années, on observe un rapide délitement des conventions internationales interdisant ou encadrant les armements, nucléaires ou non. Exacerbé par les conflits récents, en particulier par la guerre d’Ukraine, ce processus, que les États justifient par leurs impératifs de sécurité immédiate, met en danger l’avenir de la sécurité internationale et, au-delà, rien de moins que l’habitabilité de notre planète.


Depuis la Seconde Guerre mondiale, les conventions internationales sur la limitation des armements ont joué un rôle clé dans la régulation des arsenaux militaires mondiaux. Certes, elles n’ont pas permis une abolition complète des armements particulièrement létaux et peu discriminants pour les civils. De même, les adhésions des États à ces conventions sont variables et leur transgression a été, et reste, régulière. Mais ces textes fournissent un cadre institutionnel, normatif, efficace et raisonnable dans les contraintes qu’ils font peser sur la marge de manœuvre des États à s’armer et à se défendre – un cadre qui subit aujourd’hui un délitement rapide.

Du TNP à New START, des décennies d’efforts de limitation des armements

Certaines des plus importantes de ces conventions ont été adoptées lors de la guerre froide, période historique inégalée en termes de prolifération des moyens physiques de destruction.

Sur le nucléaire, rappelons deux textes piliers : le Traité de non-prolifération des armes nucléaires (TNP, 1968), et le Traité sur les forces nucléaires à portée intermédiaire (INF, 1987), accord majeur passé entre les États-Unis et l’Union soviétique (puis la Russie).

En limitant la prolifération des armes nucléaires et en visant l’élimination des missiles à portée intermédiaire en Europe, ces accords ont permis de créer un environnement de contrôle et de réassurance entre les grandes puissances.

Les textes relatifs au contrôle des armes nucléaires ont également connu des évolutions significatives après la guerre froide, avec l’adoption du Traité sur l’interdiction des essais nucléaires (1996) et le New START (Start signifiant Strategic Arms Reduction Treaty, littéralement « traité de réduction des armes stratégiques »), signé en 2010 entre les États-Unis et la Russie, qui a pour objectif de limiter les arsenaux nucléaires stratégiques de chaque pays, en plafonnant surtout le nombre de têtes nucléaires déployées.

L’effet combiné de ces traités, dont ceux évoqués ne sont que des exemples d’un ensemble normatif plus vaste, a permis une réduction importante des stocks d’armes nucléaires, lesquels sont passés – pour le cumulé seul États-Unis/URSS puis Russie – d’un pic d’environ 63 000 au milieu des années 1980 à environ 11 130 en 2023.

Des efforts de désarmement dans d’autres secteurs ont été poursuivis après la fin de la guerre froide, comme la Convention d’Ottawa sur les mines anti-personnel (1997) et celle d’Oslo sur les bombes à sous-munitions (2008). Ces régimes se sont développés en raison surtout des pertes civiles causées par ces armements et de leur « violence lente ». Susceptibles de ne pas exploser au moment de leur utilisation, ces mines et munitions restent enterrées et actives après la période de guerre, ce qui tue et mutile des civils, pollue les souterrains, constitue un fardeau financier pour le déminage et freine voire empêche les activités socio-économiques (par exemple l’agriculture).

Une dégradation inquiétante

Le problème est que, dernièrement, tout cet édifice normatif construit ces soixante dernières années s’effrite et se trouve menacé de disparition.

En 2019-2020, les États-Unis se retirent des traités INF et Open Skies. Le traité Open Skies, signé en 1992, permet aux États membres d’effectuer des vols de surveillance non armés sur le territoire des autres signataires pour promouvoir la transparence militaire et renforcer la confiance mutuelle. En 2020-2021, la Russie rétorque en faisant de même.

Le New START a également connu une trajectoire accidentée. Lors de sa première présidence, Trump avait refusé à la Russie d’étendre la durée de validité de l’accord, le jugeant trop désavantageux pour les États-Unis. S’il fut ensuite étendu sous l’administration de Joe Biden, la participation de la Russie fait l’objet d’une suspension depuis février 2023, ce qui implique par exemple l’impossibilité d’effectuer des contrôles dans les installations russes (une des mesures de confiance prévues par le Traité). Au vu de la situation actuelle, le renouvellement de New START, prévu pour 2026, ne semble pas acquis.

Les effets de cette érosion normative ne sont pas moins inquiétants parmi les autres États dotés. Prenant acte de ces désengagements et en réaction aux livraisons d’armes des États-Unis à Taïwan, la Chine a fait savoir en juillet 2024 qu’elle suspendait ses pourparlers sur la non-prolifération nucléaire et a entamé une politique d’augmentation de ses arsenaux. Plus récemment encore, Emmanuel Macron a annoncé qu’une augmentation du volume des Forces aériennes stratégiques françaises serait à prévoir.

Le troisième âge nucléaire

Ces décisions ouvrent la voie à ce que certains qualifient de « troisième âge nucléaire ». Cette nouvelle ère, caractérisée par un effritement marqué de la confiance mutuelle, est d’ores et déjà marquée par une nouvelle course aux armements, qui allie politique de modernisation et augmentations quantitatives des arsenaux.

La reprise de la course aux armements ne fait qu’ajouter une couche d’incertitude supplémentaire et de tensions potentielles. Certaines de ces tensions, d’une ampleur plus vue depuis la fin de la guerre froide, se manifestent déjà ces dernières années : en 2017, les États-Unis et la Corée du Nord se sont mutuellement menacés de destruction nucléaire. Et depuis février 2022, la Russie a à multiples reprises brandi la menace d’un usage de la bombe nucléaire afin de dissuader les pays occidentaux de soutenir militairement l’Ukraine.

Dernier danger, non des moindres et qui se trouve décuplé par la reprise de la course aux armements : l’humanité n’est jamais à l’abri d’une défaillance technique des appareils de gestion et de contrôle de l’arme nucléaire.

On l’aura compris : agglomérés, ces facteurs nous font vivre dans une période particulièrement dangereuse. Et cela, d’autant plus que les évolutions concernant les autres types d’armements ne sont pas moins inquiétantes, en particulier dans le contexte des tensions entre la Russie et ses voisins directs liés à l’invasion de l’Ukraine. Certains pays ont quitté (Lituanie) et annoncé vouloir quitter (Pologne et les trois pays baltes) les conventions interdisant l’usage des mines anti-personnel et des bombes à sous-munitions. Même si, comme la Russie, les États-Unis n’ont pas adhéré à la convention d’Oslo, la livraison des bombes à sous-munitions à l’Ukraine consolide cette érosion normative globale en participant au déploiement de ces munitions sur les champs de bataille contemporains.

Un effondrement normatif injustifié à tous points de vue

Pour justifier le retrait ou la transgression des conventions internationales sur la limitation des armements (et des pratiques guerrières illégales plus généralement), l’argument principalement avancé est le suivant : cela permet de mieux dissuader et de mener la guerre plus efficacement.

Autrement dit, pourquoi prendre le risque de se mettre en position d’infériorité stratégique en s’astreignant à des limites que des pays qui nous sont hostiles ne se donnent pas la peine de respecter ? Pourquoi ne pas augmenter son seuil de brutalité, partant de l’idée que, dès lors, on aura plus de chances 1) de dissuader l’ennemi de nous déclarer la guerre et 2) si la dissuasion échoue, de sortir vainqueur du conflit ?

Cette réflexion, qui peut sembler cohérente au premier abord, repose en réalité sur une lecture simpliste des rapports politiques et des dynamiques guerrières. C’est une idée infondée et lourde de conséquences, à la fois pour la stabilité internationale, pour l’avenir de l’humanité et pour l’état environnemental de notre planète. Trois raisons permettent de donner corps à ce constat.

Tout d’abord, le fondement rationnel du démantèlement de cet appareil normatif est questionnable. Le nucléaire est un exemple frappant, à commencer par le Traité INF. Rappelons que, selon les estimations, l’usage de « quelques » centaines de bombes nucléaires suffirait à mettre en péril la quasi-entièreté de la vie sur Terre, par la combinaison de l’effet explosif et du cataclysme climatique qui s’en suivrait. En d’autres termes, les stocks post-guerre froide, même réduits à environ 13 000 aujourd’hui à l’échelle planétaire, sont déjà absurdes dans leur potentiel de destruction. Les augmenter l’est encore plus.

C’est pourquoi nombre d’experts estiment que la décision de Trump de retirer les États-Unis du Traité INF présente bien plus d’inconvénients que d’avantages, au premier rang desquels la reprise (devenue réalité) d’une course aux armements qui n’a pour conséquence que de dépenser inutilement des sommes astronomiques dans des arsenaux nucléaires (qui, rappelons-le, présentent la tragique ironie d’être produits pour ne jamais être utilisés) et de replonger l’humanité dans l’incertitude quant à sa propre survie.

Ajoutons à cela que l’on peut sérieusement douter de la capacité des États à gérer les effets d’une guerre nucléaire sur leurs populations. À cet égard, la comparaison avec l’épidémie de Covid-19 est instructive. Quand on voit que les gouvernements ont été incapables de contenir une pandémie infectieuse, en raison notamment des politiques de restriction budgétaire en matière de santé et de services publics plus généralement, on peine à croire qu’ils pourraient gérer la catastrophe sanitaire et médicale consécutive à des frappes nucléaires.

Passons maintenant au champ de bataille lui-même et à la remise en cause récente des accords sur les mines et les bombes à sous-munitions. S’affranchir de tels régimes n’a guère plus de sens, pour la simple raison que conduire la guerre plus « salement » n’a pas de lien avec une efficacité plus grande dans l’action militaire.

Les exemples historiques abondent, à commencer par les guerres récentes des grandes puissances. En Ukraine, l’armée russe est responsable d’un nombre incommensurable de crimes de guerre et utilise massivement des mines et des bombes à sous-munitions. Pourtant, cette litanie d’atrocités n’a pas amené plus de succès. La Russie s’est embourbée, sacrifie des soldats par dizaines de milliers, et du matériel en masse, pour des gains territoriaux qui restent limités au vu de la consommation en vies humaines et en ressources.

Le bilan de la guerre contre le terrorisme des États-Unis et de leurs alliés dans les années 2000-2010 n’est pas plus reluisant. Sans même compter le volume considérable de ressources allouées aux campagnes du contre-terrorisme militaire, la pratique étendue de la torture, les assassinats ciblés (par drones ou forces spéciales), le développement d’un archipel de centres de détention extra-légaux (type Guantanamo ou Black Sites (prisons secrètes) de la CIA), l’usage de munitions incendiaires en zone urbaine (bombes au phosphore blanc en Irak), tout ce déluge de violence n’a pas suffi à faire de la guerre contre la terreur autre chose qu’un échec cuisant aux conséquences encore aujourd’hui désastreuses.

En somme, effriter le régime d’interdiction des armes non discriminantes ne rend pas la guerre plus efficace mais la rend, pour sûr, plus meurtrière, plus atroce et étend ses effets létaux davantage au-delà de la guerre elle-même en blessant et en tuant encore plus de civils.

Enfin, la destruction de ces régimes de régulation engendrera des conséquences démesurées pour deux autres batailles bien plus essentielles à mener : le maintien de nos démocraties et de l’habitabilité de notre planète.

Éroder ces traités revient à s’aligner sur les pratiques sanglantes des régimes autoritaires, à commencer par la Russie ou même encore la Syrie qui, du temps de Bachar al-Assad et de la guerre civile, avait aussi fait un usage généralisé de mines et d’autres armes visées par ces conventions d’interdiction. Alors que la crédibilité internationale de nos normes démocratiques est déjà significativement écornée du fait de livraisons et soutiens militaires à des pays responsables de massacres, détruire ces régimes de régulation ne ferait qu’encourager plus largement le recours à ces types d’armes par tous les régimes, démocratiques ou non.

Se ressaisir avant qu’il ne soit trop tard

Enfin, et c’est au fond l’enjeu majeur, ces dynamiques augmentent l’inhospitalité de notre planète pour la vie humaine. Si les grandes puissances prenaient un tant soit peu au sérieux l’urgence climatique à laquelle nous sommes tous confrontés, un encadrement bien plus strict des activités militaires existerait dans le domaine.

Les institutions militaires sont responsables d’une pollution considérable et de destructions d’écosystèmes entiers, en raison des destructions environnementales provoquées par les armes/munitions elles-mêmes, de la consommation démesurée d’hydrocarbures et des activités entourant les armes nucléaires (extractions minières, tests, gestion des déchets). La remilitarisation qui s’annonce et l’effritement des traités de limitation des armements ne font qu’accélérer la catastrophe écologique vers laquelle on se dirige. À quoi bon continuer à militariser à outrance une planète qui tolère de moins en moins notre présence ?


À lire aussi : Guerre en Ukraine et destruction de l’environnement : que peut le droit international ?


Pour résumer, les conventions adoptées au cours des décennies passées ont permis de poser quelques limites raisonnables à une destruction humaine et environnementale de masse qui n’a fait que grossir, s’étendre et se normaliser depuis la seconde moitié du XIXe siècle.

Détruire ces régimes de régulation – sous le futile prétexte qu’on ne devrait pas s’imposer des limites que les autres ne se posent pas – ne présente que des désavantages.

Ce détricotage normatif va au-delà de la question seule des armements ; il reflète le mépris grandissant pour nos standards démocratiques et, au-delà, pour le vivant dans son ensemble.

The Conversation

Julien Pomarède a reçu des financements du Fonds National de la Recherche Scientifique (FNRS - Belgique).

13.04.2025 à 13:05

La semi-liberté, solution pour désengorger les prisons et réinsérer les détenus ?

Marion Vannier, Chercheuse en criminologie, Université Grenoble Alpes (UGA)

Le doublement des places en semi-liberté annoncé par Gérald Darmanin, ministre de la justice, interroge. Une politique de réinsertion sera-t-elle menée, ou s’agit-il uniquement de désengorger des prisons surpeuplées ?
Texte intégral (1835 mots)

Alors que la surpopulation carcérale pousse le gouvernement à élargir les dispositifs alternatifs, le doublement des places en semi-liberté annoncé en janvier 2025 interroge. Cette annonce sera-t-elle accompagnée de moyens humains, sociaux et territoriaux indispensables à la réinsertion des détenus ?


Le 23 janvier 2025, lors d’un déplacement à l’École nationale de l’administration pénitentiaire (Enap) à Agen, le garde des sceaux, Gérald Darmanin, a dévoilé deux mesures majeures. La première concerne l’ouverture, prévue pour le 31 juillet 2025, d’un établissement pénitentiaire de haute sécurité spécialement réservé aux narcotrafiquants. En parallèle, il a annoncé le doublement des places en semi-liberté d’ici à 2027, pour atteindre 3 000 places au total. Tandis que la première mesure répond à une logique sécuritaire de contrôle et d’isolement, la seconde est présentée comme une réponse pragmatique à la crise de la surpopulation carcérale. Ensemble, ces annonces traduisent une volonté politique de concilier fermeté pénale et ouverture limitée à la réinsertion.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Comment réduire la surpopulation carcérale ?

L’étude des politiques pénales états-unienne a permis d’identifier trois approches principales pour résoudre la surpopulation carcérale : la construction de nouvelles prisons, la libération anticipée des détenus et la modification des lois pour réduire le recours à l’incarcération.

Un exemple récent de cette logique se trouve au Royaume-Uni, avec le programme Standard Determinate Sentences, dit SDS40, qui permettait la libération anticipée de certains détenus après 40 % de leur peine. Les infractions graves, comme le meurtre ou le harcèlement criminel, sont exclues du dispositif. Ce phénomène, qualifié de « bifurcation », vise à concilier des objectifs contradictoires et offrir ainsi un compromis politique, où la volonté de réduire l’emprisonnement pour certains s’accompagne du maintien strict de l’incarcération pour d’autres.

La situation actuelle en France reflète ce mécanisme, à ceci près que l’élément prétendument progressiste, à savoir le doublement des places en semi-liberté, mérite un examen critique. Plutôt que de traduire un véritable engagement structurel en faveur de la réinsertion, le doublement des places en semi-liberté annoncé par Gérald Darmanin semble relever d’un ajustement ponctuel face à la crise carcérale.

Certes, le ministre évoque des moyens supplémentaires, mais les détails concrets sur l’accompagnement social, éducatif ou médical restent flous. En l’absence d’une réforme profonde des conditions de mise en œuvre de la semi-liberté, cette mesure s’apparente davantage à une réponse pragmatique court-termiste qu’à une stratégie cohérente de réintégration et de justice sociale.

Qu’est-ce que la semi-liberté ?

La semi-liberté est un aménagement de peine permettant aux condamnés de quitter un centre de détention à des horaires définis pour exercer des activités extérieures (travail, formation, soins, vie familiale, etc.). Elle est accordée par le juge de l’application des peines] sous certaines conditions, et constitue souvent une phase probatoire avant une libération conditionnelle. Toutefois, la personne demeure en prison : toute absence non autorisée est considérée comme une évasion. Cette procédure a démontré son efficacité en termes de prévention de la récidive.

Les places en semi-liberté se répartissent entre 9 centres de semi-liberté (CSL, établissements autonomes) et 22 quartiers de semi-liberté (QSL, rattachés à un établissement pénitentiaire) soit 1 635 places disponibles en France, d’après la direction de l’administration pénitentiaire (2025).

Selon cette dernière, au 1er janvier 2025, le taux d’occupation était de 88 %, en forte augmentation par rapport à 2021 (68,8 %), ce qui illustre l’essor de ce dispositif. Cependant, la répartition de ces établissements est inégale. Certains se situent en zone rurale, mal desservie par les transports, limitant ainsi les opportunités de réinsertion. D’autres, comme celui de Grenoble bénéficient d’un ancrage urbain facilitant la transition vers la vie civile.

L’octroi d’une mesure de semi-liberté repose sur l’implication active du condamné dans un parcours d’insertion, incluant la recherche de soins, la réparation des dommages, la recherche d’emploi ou la participation à une formation et le maintien des liens familiaux. Cependant, ces efforts individuels ne suffisent pas. Il apparaît évident que l’efficacité de la semi-liberté dépend avant tout d’un accompagnement structuré pour reconstruire une trajectoire stable.

Des services d’insertion et de probation sous-dotés

Cependant, les services pénitentiaires d’insertion et de probation (Spip) en France sont confrontés à une charge de travail excessive et à des ressources financières limitées, ce qui entrave leur capacité à accompagner efficacement les personnes en semi-liberté, comme le montre un rapport du Sénat). Selon les chiffres communiqués par la direction de l’administration pénitentiaire pour 2024, il manque 327 conseillers pénitentiaires d’insertion et de probation, 61 directeurs pénitentiaires d’insertion et de probation, 51 psychologues, 45 coordinateurs d’activités culturelles et 36 assistants de service social.

Bien que le budget de l’administration pénitentiaire ait connu des augmentations, une part significative de ces fonds est allouée à la construction de nouvelles places de prison. Par exemple, en 2023, plus de 680 millions d’euros ont été consacrés à la construction de 15 000 places supplémentaires, avec un coût total estimé à 4,5 milliards d’euros d’ici 2027. Le projet de loi de finances pour 2024 prévoyait une augmentation de 3,9 % des dépenses de fonctionnement des Spip, en lien avec la création de 1 500 emplois, entre 2018 et 2022. Mais le projet de loi des finances 2025, adopté le 14 février, prévoit une diminution du budget alloué aux Spip, passant de 123,2 millions d’euros en 2024 à 121,8 millions d’euros en 2025, suscitant nombre d’inquiétudes quant au fonctionnement des aménagements de peine et de la réinsertion efficace des personnes détenues.

Repenser les parcours de réinsertion

Par ailleurs, il est impératif d’assurer un ancrage local des structures et un accès facilité aux transports, en les implantant stratégiquement selon les opportunités d’emploi. La localisation des centres de semi-liberté ne doit donc pas être aléatoire, mais pensée pour maximiser l’insertion professionnelle et sociale. L’implication des collectivités et des citoyens] est aussi un facteur clé, car elle permet de commencer à tisser des liens qui perdureront entre les personnes détenues et la communauté qu’ils cherchent à réintégrer. La réussite de la semi-liberté repose sur la collaboration entre l’administration pénitentiaire, les acteurs sociaux et les entreprises locales.

Il est enfin crucial que cette collaboration soit conçue de manière à reconnaître les détenus non seulement comme des individus à réhabiliter, à reformer, mais aussi comme des acteurs capables d’autonomie et dotés d’expériences uniques, comme j’ai tenté de le montrer dans l’ouvrage Prisoner Leaders : Leadership as Experience and Institution.

Le débat sur la semi-liberté et le phénomène de bifurcation observé invitent à une réflexion plus large sur le format carcéral. Certaines initiatives internationales, telles que Rescaled et Working in Small Detention Houses (Wish), inspirées des modèles nordiques, montrent l’intérêt de structures spécialisées et intégrées localement. Ces approches favorisent un accompagnement plus personnalisé et une transition progressive vers la liberté.

En France, le programme pilote Inserre suit cette logique en prévoyant la création d’une nouvelle catégorie d’établissement pénitentiaire, axée sur la réinsertion par le travail. La première structure de ce type verra le jour à Arras, en 2026], et illustre une volonté d’adapter les infrastructures carcérales aux défis de la réinsertion.

S’il est essentiel de repenser la place de la réinsertion dans les politiques pénales, en évitant une approche purement punitive, il est crucial d’imaginer la prison non pas comme un espace géographiquement et symboliquement isolé, mais comme une institution intégrée à la communauté, favorisant des liens continus entre les personnes détenues et les acteurs sociaux tout au long de leur peine, et non uniquement à sa fin. Cette nouvelle conceptualisation est fondamentale pour une réinsertion efficace, pour la prévention de la récidive et pour le maintien de la cohésion sociale.


Article écrit avec la collaboration de Céline Bertetto, Patrick Malle, Marie-Odile Théoleyre, Bénédicte Fischer, et Jean-Charles Froment.

The Conversation

Marion Vannier a reçu des financements du fond 'UK Research & Innovation'.

13.04.2025 à 13:05

La flexibilité électrique, ou comment décaler nos usages pour optimiser la charge du réseau

Etienne Latimier, Ingénieur énergies renouvelables électriques et réseaux F/H, Ademe (Agence de la transition écologique)

La hausse à venir de notre consommation électrique ainsi que le développement des énergies renouvelables impliquent d’optimiser davantage l’équilibre entre offre et demande.
Texte intégral (1407 mots)

La « flexibilité électrique », c’est-à-dire la capacité à ajuster production, distribution et consommation sur le réseau électrique pour répondre aux fluctuations de la demande, n’est pas un enjeu nouveau. Ce concept revêt une importance nouvelle face à l’impératif de décarbonation de l’économie. Cela permet par exemple d’éviter que la charge de tous les véhicules électriques au même moment de la journée ne mette en péril la stabilité du réseau.


Les débats sur l’énergie en France voient monter en puissance, depuis quelques mois, la notion de flexibilité électrique. De plus en plus d’entreprises françaises développent des outils dédiés à mieux piloter la demande en électricité.

Comprendre pourquoi cette notion, pourtant ancienne, prend aujourd’hui une ampleur nouvelle, implique d’observer les deux grandes tendances qui dessinent l’avenir du système énergétique français : la décarbonation et le déploiement des énergies renouvelables.

D’un côté, la France poursuit son effort de décarbonation de l’économie dans le but d’atteindre au plus vite ses objectifs de réduction des émissions de gaz à effet de serre. La Stratégie nationale bas carbone (SNBC) vise la neutralité carbone à l’horizon 2050. Cet enjeu requiert d’électrifier un maximum d’usages qui utilisaient des énergies thermiques. En premier lieu la mobilité, en encourageant le passage des véhicules thermiques aux électriques, mais aussi l’industrie, qui s’appuie encore beaucoup sur les fossiles à des fins de production de chaleur, et enfin le chauffage, pour lequel le gaz concerne encore 15 millions de foyers en France.

Malgré des mesures d’efficacité énergétique permises par la rénovation et des gains de rendement menés en parallèle, les nouveaux usages liés à la décarbonation commencent à engendrer une progression globale de la consommation électrique du pays.

De l’autre côté, pour répondre à ces besoins, la France incite au développement rapide des énergies renouvelables, avantageuses sur les plans économique et environnemental.

La Programmation pluriannuelle de l’énergie (PPE), actuellement en consultation, table sur une évolution de la part des énergies renouvelables dans le mix de production électrique française qui passerait de 25 % en 2022 à 45 % environ en 2050.

Piloter l’offre et la demande

Ces énergies se caractérisent par une production plus variable. En ce qui concerne le photovoltaïque et l’éolien, ils ne produisent d’électricité que lorsqu’il y a du soleil ou du vent. L’électricité étant difficile à stocker, la marge de manœuvre pour répondre à cette variabilité temporelle consiste à agir sur l’offre et la demande.

Jusqu’ici, c’est surtout par l’offre que le pilotage s’opérait, en s’appuyant le volume de production nucléaire et en réalisant simplement un petit ajustement à l’aide des tarifs heures pleines/heures creuses. Désormais, l’enjeu est de piloter l’offre différemment et d’actionner davantage le levier de la demande.

D’où l’utilité de la flexibilité électrique, par lequel le consommateur jouera un rôle plus important par ses pratiques de consommation.

Décaler nos usages

Comme évoqué précédemment, la seule alternative à la flexibilité électrique est le stockage de l’électricité. Or cette méthode est moins vertueuse. Elle présente un coût économique élevé même si le prix des batteries a diminué. En effet leur production engendre, par la pollution qu’elle génère, un coût environnemental peu cohérent avec la démarche de décarbonation menée en parallèle. Sans parler des risques à venir en matière d’approvisionnement, certains des métaux intégrés aux batteries étant considérés comme critiques.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Privilégier la flexibilité la majorité du temps – et garder la possibilité du stockage pour pallier les variations de production intersaisonnières – apparaît donc comme l’option la plus pertinente. L’idée est d’adapter la consommation à l’offre, en évitant de faire transiter l’électricité par des intermédiaires de stockage. Concrètement, cela consiste à viser, lors du suivi, un équilibre constant entre l’offre et la demande, en incitant les usagers à consommer davantage lorsque la production est importante. En particulier, dans le cas du solaire, en pleine journée.

En effet, la production solaire atteint aujourd’hui en France un niveau significatif en journée, même en hiver. Celle-ci est même supérieure à nos besoins au milieu de certaines journées d’été. Le surplus est, dans la mesure du possible, envoyé à l’étranger, mais cela ne suffit pas toujours pour l’utiliser dans sa totalité. Pour résoudre ce problème, la flexibilité électrique consiste à développer la logique des heures pleines heures creuses, en créant d’autres périodes tarifaires qui intègrent de nouvelles heures creuses en cœur de journée. C’est ce que la Commission de régulation de l’énergie commence à mettre en place.

Il s’agit par exemple d’inciter les consommateurs à décaler la recharge du million de véhicules électriques déjà en circulation en France – 18 millions attendus en 2035 – pendant les périodes de production solaire. Dans l’édition 2023 de son bilan prévisionnel, RTE estime que la consommation annuelle des véhicules électriques s’élèvera en 2035 à 35 TWH, contre 1,3 TWh en 2023. Il faudra donc éviter que toutes les voitures se retrouvent à charger en même temps au retour de la journée de travail.

Inciter le consommateur à décaler ses consommations

Encourager de tels comportements implique une incitation économique qui peut passer par des offres de fourniture électrique. Tout comme le tarif heures pleines/heures creuses qui existe déjà, mais dont les horaires vont être petit à petit modifiés.

D’autres offres plus dynamiques, proposant des plages horaires plus précises encore, différenciées au sein de la semaine, de la journée et de l’année, commencent aussi à émerger. L’offre EDF Tempo, par exemple, permet de payer plus cher son électricité pendant une période qui concerne les heures pleines de 20 journées rouges dans l’année, tandis que le reste du temps est plus avantageux financièrement.

La flexibilité électrique existe depuis les années 1980 mais elle peine encore à se développer. En effet, les citoyens sont davantage sensibles à la maîtrise de leur consommation. Les deux sont pourtant complémentaires : il s’agit non seulement de consommer moins mais aussi mieux. Pour cela, il est crucial de rendre ce type d’offres disponibles et surtout le plus lisibles possible pour les consommateurs en montrant leur facilité d’utilisation, même si certaines resteront orientées vers un public plus averti que d’autres.

Pour le consommateur cela implique de prendre certaines habitudes, mais ce décalage partiel de nos usages – lorsque c’est possible – ne concerne pas l’année entière. Surtout, il permet de contribuer à éviter le gaspillage d’électricité tout en réalisant des économies.

The Conversation

Etienne Latimier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2025 à 13:03

African Credit Rating Agency : l’Afrique cherche à s’émanciper des agences de notation occidentales

Oussama Ben Hmiden, Professeur de finance, HDR, ESSCA School of Management

L’African Credit Rating Agency (Afcra) devient en 2025 la première agence africaine de notation financière. Une alternative aux grandes institutions comme Standard & Poor’s, Moody’s et Fitch ?
Texte intégral (2076 mots)
L’idée de l’Africa Credit Rating Agency (Afcra) est de construire une grille d’analyse qui épouse les réalités du continent, ses défis, mais aussi ses atouts souvent invisibilisés. StudioProX/Shutterstock

L’African Credit Rating Agency (Afcra), portée par l’Union africaine, devient en 2025 la première agence africaine de notation financière. Une alternative aux grandes institutions comme Standard & Poor’s, Moody’s et Fitch ?


L’année 2025 marque un tournant pour la finance africaine, avec le lancement attendu de l’African Credit Rating Agency (Afcra), portée par l’Union africaine. Prévue au second semestre, cette agence de notation continentale ambitionne de proposer des analyses de crédit sur mesure, alignées sur les réalités économiques du continent.

La notation de crédit est une évaluation de la capacité d’un émetteur – que ce soit une entreprise, une institution financière ou un État – à rembourser ses dettes. Elle constitue un instrument utile quant à la prise de décision de la part des fournisseurs de capitaux. Elle équivaut à un passeport pour le crédit offrant la possibilité d’accès à des capitaux étrangers. Dans le contexte d’une économie mondialisée, cet élargissement de l’accès au marché s’accompagne le plus souvent d’une diminution des coûts de financement, notamment au profit des émetteurs qui bénéficient d’une notation élevée.

Pourtant, le débat reste vif. Depuis des années, les notations des agences internationales Moody’s, Standard & Poor’s (S&P) ou Fitch, qui influencent directement le coût des emprunts des États africains, sont au cœur des polémiques. Alors que le continent cherche à attirer davantage d’investisseurs, une question s’impose : ces évaluations conçues à des milliers de kilomètres sont-elles vraiment adaptées aux défis et aux atouts uniques de l’Afrique ?

Oligopole mondial de la notation de crédit

Dans les années 1990, le paysage financier africain était marqué par une asymétrie frappante : seule l’Afrique du Sud arborait une notation souveraine. Quinze ans plus tard, en 2006, près de la moitié des 55 pays du continent – 28 États – restaient encore invisibles sur la carte des agences de notation. Si ces dernières présentent leurs analyses comme de simples opinions, leur impact est tangible : leurs notes influencent directement les décisions d’investissement et les taux d’intérêt appliqués aux États africains.

Leur domination oligopolistique soulève des critiques. Les notations, censées réduire l’asymétrie d’information entre investisseurs et États, sont jugées trop génériques. De nombreux experts et dirigeants africains critiquent des méthodologies de notation jugées inadaptées, car elles peinent à saisir les spécificités des économies locales. Fortement axées sur des données quantitatives, parfois biaisées, elles ne rendent pas toujours justice aux réalités africaines. Le manque de données locales fiables renforce cette limite, laissant place à une subjectivité accrue et à des évaluations menées par des experts souvent éloignés du contexte régional.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Prime de risque africaine

Sur le continent, une frustration grandit : celle d’une « prime de risque africaine ». Exagérée, imposée par des notations jugées trop sévères, elle ne refléterait pas les progrès économiques et structurels réalisés. Une étude du Programme des Nations unies pour le développement (Pnud) estime que cette surévaluation du risque entraînerait des surcoûts d’emprunt de plusieurs milliards de dollars par an pour les pays africains.

D’après ce rapport, la sous-évaluation des notations souveraines par les agences (S&P, Moody’s, Fitch) engendre un surcoût annuel estimé à 74,5 milliards de dollars pour les pays africains, dont, notamment, 14,2 milliards en surcoûts d’intérêts sur les dettes domestiques, 30,9 milliards en opportunités de financement manquées pour ces mêmes dettes et 28,3 milliards supplémentaires pour les eurobonds – des obligations ou titres de créance émis par un pays dans une monnaie différente de la sienne.

Variation entre les trois grandes agences de notation et les scores de la plate-forme Trading Economics
Variation entre les trois grandes agences de notation et les scores de la plateforme Trading Economics. UNDP

Les critiques portent sur deux aspects :

  • Les biais quantitatifs : les modèles standardisés ne reflètent pas toujours les réalités locales, en particulier l’impact des économies informelles. Ils sous-estiment le rôle essentiel des diasporas dans le financement des États. En 2024, selon un rapport de la Banque mondiale, les Africains vivant à l’étranger ont envoyé 100 milliards de dollars vers le continent, soit l’équivalent de 6 % du PIB africain.

  • Les lacunes qualitatives : le manque de données contextuelles conduit à des évaluations subjectives. En 2023, le Ghana a ainsi rejeté sa notation de Fitch, la qualifiant de « déconnectée des réformes en cours ». Plusieurs pays africains ont publiquement rejeté les notations qui leur ont été attribuées au cours des dix dernières années.

L’alternative : Africa Credit Rating Agency (Afcra)

Face à ces limites, une réponse Made in Africa a germé : la création de l’Africa Credit Rating Agency (Afcra), une agence de notation pensée par des Africains, pour des Africains. Portée par l’Union africaine, cette initiative ambitionne de réécrire les règles du jeu.

L’idée est de construire une grille d’analyse qui épouse les réalités du continent, ses défis, mais aussi ses atouts souvent invisibilisés. Au cœur du projet : des méthodes transparentes, nourries par des données locales et des indicateurs taillés sur mesure. Les indicateurs sur mesure pourraient inclure la valorisation des actifs naturels, la prise en compte du secteur informel et des mesures du risque africain réel plutôt que perçu. L’objectif est d’obtenir des notations plus complètes grâce à cette sensibilité contextuelle.

Asymétrie d’information

Les agences de notation se présentent traditionnellement comme des actrices clés pour atténuer les déséquilibres informationnels sur les marchés. Leur promesse est d’éclairer les investisseurs en évaluant les risques de crédit, permettant ainsi des décisions mieux informées. Cette légitimité, acquise au fil des décennies, repose sur un double pilier : l’innovation constante dans leurs méthodes d’analyse et une réputation forgée par leur influence historique sur les marchés.

Un paradoxe persiste. Le modèle économique dominant – où les émetteurs financent eux-mêmes leur notation – alimente des suspicions récurrentes de conflits d’intérêts.

Nos recherches interrogent cette tension à travers une analyse de l’évolution du secteur des agences de notation, des fondements théoriques de son existence et des risques liés à la concentration du pouvoir entre quelques acteurs.

Un constat émerge, l’opacité des critères méthodologiques et la technicité des modèles utilisés nourrissent autant la défiance que la dépendance des marchés. Les agences s’appuient sur des indicateurs quantitatifs – PIB, dette publique, inflation – et qualitatifs – risque politique, transparence gouvernementale –, dont les pondérations varient, aboutissant à des évaluations parfois incohérentes. Pour renforcer leur crédibilité, une exigence s’impose : rendre lisible l’invisible, en clarifiant les processus d’évaluation sans sacrifier leur nécessaire complexité.

Méthologies IA et ESG

Des recherches récentes explorent le potentiel des méthodologies d’intelligence artificielle (IA) et d’apprentissage automatique pour intégrer les facteurs ESG (environnementaux, sociaux et de gouvernance) dans l’évaluation du risque. Ces avancées visent à surpasser les limites des modèles traditionnels en capturant la complexité des relations entre les indicateurs ESG et le risque financier, avec pour objectif de renforcer la précision et la fiabilité des évaluations du risque pour favoriser une allocation du capital plus éclairée et durable.

Pour l’Afrique et l’Afcra, ces approches mettraient en lumière des atouts sous-estimés, comme la résilience du secteur informel ou certaines spécificités institutionnelles. Elles permettraient aussi de mieux comprendre les liens complexes entre les critères ESG et le risque financier propres au continent. L’objectif pour l’Afcra serait de créer des évaluations plus précises et adaptées, réduisant la « prime de risque africaine ».

L’essor d’agences régionales représente une avancée importante vers un système plus équilibré. Pour réussir, les gouvernements africains doivent coordonner leurs efforts, soutenir les initiatives locales et instaurer un dialogue constructif avec les agences internationales. L’Afrique est en marche vers une meilleure souveraineté financière. L’Afcra saura-t-elle relever le défi ?

The Conversation

Oussama Ben Hmiden ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2025 à 13:03

Le retour de Murakami : « La Cité aux murs incertains », une plongée troublante entre deux mondes

Anne Bayard-Sakai, Professeure émérite de littératrue japonaise, Institut national des langues et civilisations orientales (Inalco)

Sept ans après son dernier roman, Haruki Murakami revient avec un nouvel ouvrage, « la Cité aux murs incertains ».
Texte intégral (1797 mots)
Dans son nouveau roman, Murakami traite un des motifs qui l’obsèdent : les vies parallèles. Alma Pratt/Unsplash, CC BY

Sept ans après son dernier roman, Haruki Murakami revient avec un nouvel ouvrage, la Cité aux murs incertains, travaillant les motifs du réel, de l’irréel et des vies parallèles que nous pourrions mener.

Cet article contient des spoilers.


« Il me serait très délicat d’expliquer à quelqu’un qui mène une vie ordinaire que j’ai vécu pendant un certain temps dans une cité fortifiée. La tâche serait trop complexe », fait dire Haruki Murakami à son narrateur dans son dernier roman, la Cité aux murs incertains, dont la traduction française vient de paraître, deux ans après l’original en japonais. Et pourtant, dans le mouvement même où le narrateur renonce à cette tâche impossible, l’auteur, lui, s’y attelle, pour le plus grand plaisir de lecteurs qui dans l’ensemble mènent, probablement, des vies ordinaires.

Passer d’un monde à un autre, y rester, en revenir, y retourner, disparaître… S’il fallait résumer ce dont il est question ici, ce serait peut-être à cette succession de verbes qu’il faudrait recourir. Les fidèles de cet auteur majeur de la littérature mondiale en ce XXIe siècle le savent : la coexistence de mondes parallèles est l’un des thèmes centraux de son univers, et ce roman en offre une nouvelle exploration. Mais nouvelle, vraiment ? Ces mêmes lecteurs auront peut-être éprouvé en le découvrant une impression de familiarité un peu déconcertante, quelque chose qui relèverait de l’inquiétante étrangeté, l’« Unheimlich », chère à Freud.

« Selon Jorge Luis Borges, il n’existe qu’un nombre limité d’histoires qu’un écrivain peut véritablement raconter avec sincérité au cours de sa vie. En quelque sorte, nous ne sommes capables de traiter ce nombre limité de motifs que sous différentes formes et avec les moyens limités dont nous disposons », précise l’auteur dans une postface destinée à éclairer la genèse du roman.

Précision indispensable, car l’histoire qui nous est racontée ici, Murakami l’a déjà traitée à deux reprises. D’abord en 1980, dans une nouvelle jamais republiée depuis, qui porte le même titre que le roman de 2023 (à une virgule près, comme il l’indique). Puis en 1985, dans une œuvre particulièrement ambitieuse, la Fin des temps.

Abandonner sa propre ombre

Que partagent ces trois textes ? Un lieu hors du temps, une cité ceinte de hauts murs, à laquelle on ne peut accéder qu’en abandonnant sa propre ombre, et où le narrateur occupe la fonction de liseur de rêves. Mais cette matrice romanesque est prise dans des réseaux narratifs très différents, d’une complexité croissante. Si la nouvelle de 1980 est centrée sur la Cité, le roman de 1985 est construit sur deux lignes romanesques distinctes qui se développent dans des chapitres alternés et qui s’ancrent chacune dans un univers singulier dont l’un seulement correspond à la Cité entourée de remparts – toute la question étant de savoir comment ces lignes vont finir par se croiser.

Dans cette amplification ne se joue donc pas seulement une complexification du dispositif : c’est le lien même entre des univers différents qui s’affiche désormais au cœur du dispositif avec, en 2023, ce qui apparaît comme une intériorisation d’univers pluriels et comme introjectés.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le roman débute avec un amour entre deux adolescents. Celui-ci se noue autour du récit qu’avant de disparaître, la jeune fille fait d’une « cité entourée de hauts murs », dans laquelle vit son être véritable tandis que seule son ombre est présente devant le jeune homme. Pour rejoindre celle qu’il a perdue, celui-ci va donc passer dans la Cité, en acceptant de se séparer de son ombre. Mais il n’y restera finalement pas, revient dans le monde (où il devient directeur d’une bibliothèque – et on sait l’importance et la récurrence de ces lieux dans l’œuvre de l’auteur), jusqu’au moment où, de nouveau, il franchira le mur d’enceinte de la Cité, avant d’en repartir…

Le narrateur est ainsi toujours pris lui-même dans une incertitude, où sa propre identité est remise en question, où la réalité s’effrite : est-il lui-même ou son ombre ? Y a-t-il un monde plus réel que l’autre ? Le narrateur dit :

« Dans ma tête se déroulait un conflit acharné entre le réel et l’irréel. Je me trouvais enserré entre ces deux mondes, à l’interface subtile entre le conscient et le non-conscient. Il me fallait décider à quel monde je voulais appartenir. »

Comme toujours dans les romans de Murakami, il n’y a pas de choix, les personnages ne sont pas maîtres de leur destin, ils sont mis dans l’incapacité de trancher.

« C’est comme si nous nous contentions d’empiler les hypothèses les unes sur les autres jusqu’à ce que, à la fin, nous ne soyons plus capables de séparer les hypothèses des faits »,

dit, à un moment donné, l’ombre et le narrateur, plus loin, d’enchérir :

« Tandis que j’étais là, seul dans la neige blanche, que je contemplais au-dessus de moi le ciel d’un bleu profond, j’avais parfois l’impression de ne plus rien comprendre. À quel monde est-ce que j’appartenais, à présent ? »

cite aux murs incertains Murakami

La question se pose à lui avec d’autant plus d’insistance que cette Cité est une ville racontée, par la jeune fille, par le narrateur, par l’auteur lui-même, que son existence est d’abord celle d’un discours, d’une production imaginaire, d’une fiction.

Mais la vie du narrateur hors de la Cité est, elle aussi, une fiction, celle inventée par l’auteur, d’où, pourrait-on dire, une indétermination sur la teneur en réalité de chacun des mondes, indétermination qui sape les certitudes du lecteur tout autant que celles du narrateur : quel est, en somme, l’univers de référence ? Murakami se garde bien de le dire.

Dans une interview, donnée à plusieurs journaux nationaux à l’occasion de la sortie du roman, Murakami explique :

« Il y a de multiples bifurcations dans la vie. Souvent je me demande ce que je serais devenu si j’avais pris à tel moment tel autre chemin. Dans un autre univers, je serais peut-être toujours patron d’une boîte de jazz. Je ne peux pas m’empêcher de penser que le monde dans lequel je suis, là maintenant, et un autre, qui n’est pas celui-là, sont intimement liés. »

Et il ajoute :

« Conscient et inconscient. Le présent qui est là, et un autre présent. Aller et venir entre ces deux mondes, voilà ce qui est au cœur des histoires que j’écris, et qui ressurgit toujours. Écrire des romans, pour moi, c’est sortir de ma conscience actuelle pour entrer dans une autre conscience, si bien que l’acte d’écrire et le contenu de que j’écris ne font qu’un. »

Si la Cité aux murs incertains occupe une place si cruciale dans son imaginaire qu’il ne cesse d’y revenir, c’est bien en définitive parce qu’elle est l’incarnation même – la mise en mots – de cet ailleurs, du temps, de l’espace, de la conscience, qui est au fondement de sa vision du monde et de son projet d’écriture.

The Conversation

Anne Bayard-Sakai ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.04.2025 à 16:57

Le déficit commercial entre les États-Unis et l’Union européenne : un déséquilibre plus structurel qu’il n’y paraît

Charlie Joyez, Maitre de Conférence en économie, Université Côte d’Azur

Quelle est la réalité du déficit entre les États-Unis et l’Union européenne ? Quels biens sont concernés ? Y a-t-il des évolutions alarmantes ? Nos réponses en six graphiques.
Texte intégral (1698 mots)

Pour justifier sa politique unilatérale de droits de douane, le président des États-Unis Donald Trump mobilise le déficit commercial de son pays, notamment vis-à-vis de la « méchante » Union européenne. Quelle est la réalité de ce déficit ? Quels biens sont concernés ? Y a-t-il des évolutions alarmantes ?


L’aversion proclamée de Donald Trump pour les déficits commerciaux l’a rapidement poussé, dès le début de son second mandat, à dénoncer un déficit excessif (bien qu’exagéré) des États-Unis envers l’Union européenne (UE). Le taux historique de 20 % de droits de douane imposé aux importations européennes, annoncé en avril 2025 et suspendu depuis, vise tout d’abord à réduire ce déficit bilatéral. Malgré cette pause dans la politique des droits de douane, il convient d'étudier en détail la composition des causes du déficit entre les États-Unis et l'Union européenne.

Ce déséquilibre commercial entre les États-Unis et l’UE s’est en effet largement et rapidement dégradé ces dernières années, jusqu’à atteindre 169 milliards de dollars en 2023 (données de la base pour l’analyse du commerce international (Baci)), soit environ 0,6 % du PIB des États-Unis cette année-là.

Mais, au-delà de cette dégradation, il est possible de voir des changements structurels à l’œuvre qui sont inquiétants pour les États-Unis et pour leur compétitivité vis-à-vis du partenaire européen.

Aggravation récente du déficit

Le déficit commercial des États-Unis envers l’Union européenne n’est pas récent, et existe dès la création de l’UE au milieu des années 1990. Toutefois, il s’est largement aggravé ces dix dernières années, comme le montre la figure 1 ci-dessous. Cette détérioration s’explique facilement : la demande outre-Atlantique était stimulée par une croissance bien plus forte qu’en Europe.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


En effet, depuis 2008, la croissance cumulée des États-Unis atteint 27 % contre seulement 16 % dans l’UE. Une seconde raison est l’appréciation relative du dollar (inférieur à 0,8 € jusqu’en 2014, autour de 0,9 € depuis), rendant les biens européens moins chers pour le consommateur américain. Réciproquement, cet écart de taux de change limite la compétitivité des biens « Made in USA » sur le marché européen.

Cependant, cette évolution est également structurelle. Cela est visible si l’on regarde la composition des exportations de chacun, comme le reporte la figure 2, ci-dessous.

Les exportations européennes vers les États-Unis ne changent pas beaucoup sur la période, on remarque seulement une augmentation de la part de la section VI de la classification « Harmonized System » correspondant aux industries chimiques (et pharmaceutiques), de 20 % à 30 % du total. Les exportations européennes sont donc surtout concentrées sur les sections VI, XVI (machines et appareils) et XVII (matériel de transport) qui représentent, à elles seules, deux tiers des exportations européennes vers les États-Unis.

Fortes exportations de pétrole

À l’inverse, dans les exportations américaines vers l’UE, la part de l’industrie chimique se maintient (légèrement supérieure à 20 %), mais les autres points forts traditionnels (qui étaient, comme l’Europe, les sections XVI et XVII) diminuent assez sensiblement au profit des exportations de la section V (minéraux) et, tout particulièrement, de pétrole, depuis 2022.


À lire aussi : Décrochage de croissance entre la France, l’UE et les États-Unis : l’urgence d’un choc de productivité


Les exportations états-uniennes deviennent dès lors nettement plus concentrées que les exportations européennes, même si la tendance est notable dès 2020.

Cette concentration des exportations de chaque bloc dans leurs domaines respectifs va de pair avec une diminution du commerce intrabranche, c’est-à-dire de flux croisés (importations et exportations) de biens similaires, comme le montre l’indice de Grubel et Llyod :

Déficit en termes de valeur ajoutée

L’analyse ci-dessus, malgré son intérêt, reste profondément biaisée pour identifier ce qu’il y a d’« états-uniens » qui est consommé en Europe, et inversement. En effet, dans l’économie globalisée actuelle, les biens exportés des États-Unis vers l’UE ne sont pas forcément fabriqués aux États-Unis. À vrai dire, une part non négligeable de la valeur ajoutée de chaque exportation provient de l’étranger, et parfois même du pays « importateur ».

Ainsi une vision plus correcte des déficits bilatéraux consiste à regarder le déficit commercial non plus en valeur brute, mais en valeur ajoutée. C’est toute l’ambition du programme Trade in Value Added (Tiva) de l’OCDE. D’après ces données, qui s’arrêtent en 2020, le solde commercial en valeur ajoutée est encore plus à l’avantage de l’Union européenne à 27 que le solde commercial brut.

Ainsi, le solde commercial en valeur ajoutée diverge de plus en plus du solde commercial brut qui est au centre des discussions. En 2020, le déficit en valeur ajoutée est 1,79 fois supérieur au déficit observé en valeur brute, contre un rapport de 1,06 en 2000 !

Les consommateurs américains consomment donc de plus en plus de la valeur ajoutée créée en Europe – à travers la hausse des importations de l’UE, mais pas seulement. Et si la réciproque est vraie pour les consommateurs européens, jusqu’en 2019, la tendance est nettement moins marquée.

Complexité des biens échangés

Enfin, une dernière dimension à étudier est la qualité des exportations de chaque partenaire dans cette relation bilatérale. En effet, les spécialisations commerciales sont plus ou moins bénéfiques dans le sens qu’elles peuvent favoriser le pays exportateur ou, au contraire, se révéler perdantes pour lui.

Par exemple, un pays dont l’économie s’enferme dans une trop forte spécialisation en biens primaires risque de voir le déclin de l’industrie et à terme de la croissance, comme l’illustre l’exemple du « mal Hollandais » ou les « malédictions des ressources naturelles ».

Ce potentiel bénéfique des paniers de spécialisation a été labellisé « complexité économique ». Il se calcule à la fois pour chaque bien (un bien est-il plus ou moins « complexe » à produire ?), mais aussi au niveau des États (un pays exporte-t-il des biens complexes ou non ?).

Si, au début de la période observée, les scores de complexité des deux partenaires étaient similaires, et ce jusqu’en 2017 (voire supérieurs pour les États-Unis avant 2010), la complexité des biens exportés de l’UE vers les États-Unis augmente tendanciellement depuis 2015, quand elle baisse drastiquement depuis 2017 aux États-Unis. La forte spécialisation des États-Unis dans les combustibles fossiles et l’abandon relatif de la spécialisation dans l’industrie pèse donc sur la complexité des biens échangés.

Et les services ?

Les États-Unis voient donc leur déficit commercial avec l’Union européenne se dégrader fortement depuis dix ans. Cependant, ce déficit apparent est encore moins marqué que le décrochage du commerce en valeur ajoutée entre les deux blocs. Cela va de pair avec une réorientation structurelle des exportations américaines vers une plus grande part de ressources naturelles, qui explique une concentration des exportations, une plus faible part des échanges intrabranches dans le total et un décrochage de la complexité des exportations américaines, qui pourrait à terme profiter à l’Union européenne.

France 24, 2025.

Toutefois, il convient de noter que toutes ces observations ne prennent en compte que le solde du commerce en biens et ignorent la dimension du commerce de services.

On sait déjà que la prise en compte de ce commerce de services réduit des deux tiers le déficit commercial bilatéral des États-Unis avec l’Union européenne, grâce à leurs monopoles dans les nouvelles technologies.

Cependant, cela ne change pas notre conclusion principale, à savoir que ce décrochage dans le solde commercial des biens démontre un changement structurel profond des exportations américaines vers l’UE, qui abandonnent l’industrie de pointe pour se concentrer sur les deux autres extrémités du spectre : les ressources naturelles et les services numériques.

The Conversation

Charlie Joyez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

42 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
  FIABILITÉ LIMITÉE
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓