LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

▸ Les 50 dernières parutions

05.02.2026 à 11:36

Comment mesurer la précarité énergétique ?

Dorothée Charlier, Maîtresse de conférences en économie de l’énergie et de l’environnement, IREGE, IAE Savoie Mont Blanc

Bérangère Legendre, Professor, Université Savoie Mont Blanc

Selon la façon dont on mesure la précarité énergétique, certaines personnes peuvent ne pas être reconnues comme concernées et passer à côté des dispositifs d’aide.
Texte intégral (2548 mots)

La précarité énergétique est un phénomène bien réel, mais difficile à cerner précisément. Selon la manière dont elle est mesurée, certaines personnes peuvent ne pas être reconnues comme concernées et passer à côté des dispositifs d’aide, qu’il s’agisse de se chauffer correctement en hiver ou de se protéger de la chaleur en été.


Alors que la hausse durable des prix de l’énergie et le changement climatique accentuent les situations d’inconfort thermique, la précarité énergétique s’impose comme un enjeu social majeur en France et en Europe. Les chiffres abondent – ménages consacrant une part élevée de leurs revenus à l’énergie, ménages ayant eu froid chez eux, situations d’impayés ou de restrictions de chauffage – et nourrissent une inquiétude légitime.

Pourtant, cette visibilité croissante masque une réalité plus complexe : selon l’indicateur mobilisé, on ne désigne pas toujours les mêmes ménages comme « précaires », et une partie importante de la population demeure invisible aux yeux des politiques publiques. Alors comment bien mesurer la précarité énergétique ?

Définir la précarité énergétique : un consensus fragile

En France, la précarité énergétique fait l’objet d’une définition juridique depuis l’article 11 de la loi Grenelle II de 2010, qui la caractérise comme la difficulté pour un ménage de satisfaire ses besoins énergétiques essentiels en raison d’une combinaison de facteurs, notamment des revenus insuffisants, des logements peu performants sur le plan énergétique et des prix élevés de l’énergie.

Cette définition, reprise et largement mobilisée dans les travaux statistiques et les politiques publiques, est proche de celle retenue au niveau européen, qui insiste également sur l’incapacité des ménages à accéder à des services énergétiques essentiels à un coût abordable. Elle a le mérite de souligner le caractère fondamentalement multidimensionnel du phénomène.

Pourtant, dans la pratique, cette richesse conceptuelle est souvent réduite à un ou deux indicateurs simples, principalement fondés sur les dépenses énergétiques.

En France, un ménage est fréquemment considéré comme précaire lorsqu’il consacre plus de 8 ou 10 % de ses revenus à l’énergie et appartient aux ménages à bas revenus. Ces indicateurs présentent des avantages évidents, simplicité de calcul, comparabilité dans le temps et lisibilité pour le grand public. Mais leurs limites sont désormais bien établies. Ils mesurent les dépenses réalisées plutôt que les besoins réels, et ignorent les stratégies de restriction adoptées par de nombreux ménages en difficulté, dont les factures peuvent sembler modérées bien qu’ils subissent un inconfort élevé.

Par exemple, en France, près de 35 % des personnes déclarent avoir souffert du froid dans leur logement au cours de l’hiver 2024-2025, selon le dernier tableau de bord de l’Observatoire national de la précarité énergétique (ONPE).

QU’EST CE QUE L’ONPE ?

  • Créé en 2011 à la suite de la loi Grenelle II, l’Observatoire national de la précarité énergétique (ONPE) est une instance partenariale de référence chargée de produire une connaissance partagée, de suivre l’évolution de la précarité énergétique et d’éclairer les politiques publiques dans les domaines du logement et de la mobilité.

Dans la même édition, une proportion significative de ménages déclare avoir restreint volontairement le chauffage pour éviter des factures élevées, illustrant comment les stratégies d’adaptation peuvent rendre invisibles aux yeux des statistiques officielles des situations pourtant difficiles.

À l’inverse, certains ménages apparaissent comme précaires au regard de leurs dépenses, alors même qu’ils vivent dans des logements confortables mais énergivores, sans subir de privations. Il s’agit notamment de ménages aux revenus relativement élevés, vivant dans des logements gourmands en énergie pour lesquels une facture importante reste compatible avec le niveau de vie.

Plus généralement, ces situations rappellent que les indicateurs fondés sur des seuils, qu’il s’agisse de dépenses ou de température intérieure, sont imparfaits : une même température peut être vécue comme acceptable par certains, par choix ou par habitude, et comme inconfortable par d’autres, selon les préférences, l’âge ou l’état de santé.

Pour dépasser les limites des indicateurs fondés sur les dépenses, les indicateurs dits « subjectifs » ont progressivement pris de l’importance. Ils reposent sur le ressenti des ménages et sur des situations concrètes telles que le fait d’avoir eu froid chez soi, d’être en situation d’impayés ou de vivre dans un logement humide ou dégradé.

Leur principal avantage est de rendre visibles des formes de privation réelle, indépendamment du niveau de dépenses observé, et de capter des dimensions invisibles dans les données comptables, comme l’inconfort, le stress ou les effets sur la santé. Toutefois, ces indicateurs présentent eux aussi des limites, car les réponses dépendent fortement des normes sociales, des attentes individuelles et de la capacité à exprimer une difficulté, ce qui peut conduire à des sous ou sur déclarations selon les franges de la population.

Consciente de ces enjeux, la France a donc fait le choix de ne pas s’appuyer sur un indicateur unique, mais sur un panier d’indicateurs, à l’image du tableau de bord de l’ONPE. Celui-ci combine des indicateurs de dépenses, de restrictions, de ressenti et d’impayés, reconnaissant ainsi le caractère multidimensionnel de la précarité énergétique. Cette approche constitue un progrès important, mais elle soulève une difficulté persistante : comment interpréter simultanément ces signaux et les traduire en décisions opérationnelles lorsque les ménages ne sont concernés que par certaines dimensions et pas par d’autres ?

Le piège du binaire : une vision trop rigide d’un phénomène continu

Être précaire ou ne pas l’être ? La plupart des indicateurs actuels reposent sur une logique binaire : un ménage est classé soit comme précaire, soit comme non précaire, en fonction du dépassement d’un seuil. Cette approche est rassurante, car elle permet de compter, de comparer, de cibler. Mais elle repose sur une hypothèse implicite discutable : celle d’une frontière nette entre les ménages « en difficulté » et les autres.

Or, la réalité est bien différente. La précarité énergétique est un processus, non un état figé. Elle peut être transitoire, s’aggraver progressivement par exemple avec la hausse des prix de l’énergie, ou au contraire être contenue par des stratégies d’adaptation. De nombreux ménages se situent dans une zone intermédiaire : ils ne remplissent pas les critères statistiques de la précarité, mais ils vivent sous une contrainte permanente, exposés au moindre choc.

C’est dans ce contexte qu’émerge la notion de vulnérabilité énergétique. Elle ne désigne pas une situation actuelle de privation, mais un risque de basculer dans la précarité à la suite d’un événement : hausse des prix, perte de revenus, problème de santé, épisode climatique extrême. Cette approche permet de dépasser la logique du « tout ou rien » et de s’intéresser aux trajectoires des ménages. Elle met en lumière une population souvent invisible dans les statistiques classiques, mais pourtant essentielle à considérer si l’on veut prévenir plutôt que réparer.

L’importance des choix de mesure apparaît nettement lorsque l’on considère les ménages les plus modestes : en 2022, parmi les 10 % les plus pauvres de la population, près de 69 % des ménages seraient en situation de précarité énergétique en l’absence à la fois du bouclier tarifaire et du chèque énergie. Cette proportion tombe à 62 % avec le seul bouclier tarifaire, puis à environ 43 % lorsque le bouclier et les chèques énergie sont pris en compte, illustrant combien les dispositifs publics et les conventions de mesure modifient l’ampleur statistique du phénomène.

Mesurer autrement : apports des approches multidimensionnelles

Une première manière de renouveler la mesure de la précarité énergétique consiste donc à recourir à des indicateurs « dits » composites. L’idée est de ne plus se limiter à un seul critère, mais de regrouper plusieurs dimensions du problème dans un indicateur unique. Celui-ci peut par exemple prendre en compte à la fois le niveau de revenu des ménages, la qualité énergétique de leur logement, leurs difficultés à payer les factures, les restrictions de chauffage ou encore l’inconfort thermique ressenti.

Cette approche se distingue des méthodes qui juxtaposent plusieurs indicateurs séparés, comme celles utilisées par l’ONPE. Ici, les différentes dimensions de la précarité énergétique sont combinées dans un même outil, ce qui permet d’avoir une vision plus globale des situations.

Inspirée des travaux sur la pauvreté multidimensionnelle, cette méthode aide à mieux comparer les ménages entre eux et à identifier plus finement ceux qui sont les plus exposés.

L’INDICE DE PAUVRETÉ MULTIDIMENSIONNELLE

  • Mesurer la pauvreté avec un seul indice, par exemple le revenu, présente un risque : celui de n’avoir qu’une image partielle du phénomène. Pour ne pas invisibiliser certaines populations qui subissent ce fléau, l’indice de pauvreté multidimensionnelle, créé à l’Université d’Oxford en 2010 et utilisé dès cette année-là par le Programme des Nations unies pour le développement (PNUD), compile dix indices : la mortalité infantile, la nutrition, les années de scolarité, la sortie de scolarité, l’électricité, l’eau potable, les sanitaires, le sol de l’habitat, le combustible utilisé pour cuisiner, les biens mobiliers.

Par exemple, un ménage aux revenus modestes vivant dans un logement mal isolé, qui limite fortement son chauffage pour contenir ses factures et déclare un inconfort thermique, peut ne pas dépasser individuellement les seuils de dépenses ou de température retenus par les indicateurs classiques, mais apparaître clairement comme précaire lorsqu’on combine ces différentes dimensions au sein d’un indicateur composite.

Mais ces indicateurs ne sont pas sans limites. Ils reposent sur des choix normatifs, parfois peu visibles, notamment sur l’importance accordée à chaque dimension. Par exemple, le poids accordé aux dépenses énergétiques par rapport à l’inconfort thermique ou à la qualité du logement peut conduire à classer différemment deux ménages aux situations pourtant proches, selon que l’on privilégie une contrainte budgétaire, une privation ressentie ou une vulnérabilité structurelle. Ces choix donc restent en partie arbitraires et peuvent limiter l’appropriation de ces indicateurs par les acteurs publics et la compréhension du phénomène par le grand public.

Une autre manière d’aborder la précarité énergétique, de plus en plus utilisée en sciences sociales, consiste à recourir à des méthodes de classification statistique. Leur principe est simple : au lieu de décider à l’avance à partir de quel seuil un ménage est considéré comme « précaire », ces méthodes commencent par regrouper les ménages qui se ressemblent, en tenant compte simultanément de plusieurs dimensions de leur situation.

Concrètement, les ménages sont classés en fonction de caractéristiques observées comme le type de logement, le niveau des dépenses d’énergie, les difficultés de paiement, les restrictions de chauffage ou encore l’inconfort thermique. Les méthodes de classification rassemblent ainsi des personnes aux profils proches, sans imposer au préalable de seuils arbitraires sur chacun de ces indicateurs.

Ce n’est qu’ensuite que l’on interprète les groupes obtenus. On observe alors qu’ils correspondent assez clairement à des situations distinctes : des ménages sans difficulté particulière, des ménages vulnérables, et des ménages en situation de précarité énergétique avérée. Ces groupes présentent non seulement des points communs sur les critères utilisés pour les classer, mais aussi sur d’autres caractéristiques sociales ou économiques, comme la composition familiale ou le type de territoire.

Ces méthodes permettent ainsi de mieux comprendre les différentes formes de précarité énergétique, et de dépasser une approche trop rigide fondée uniquement sur des seuils souvent arbitraires.

Pourquoi mesurer la précarité énergétique restera toujours difficile

Même avec des outils plus sophistiqués, mesurer la précarité énergétique restera un exercice délicat. Les besoins énergétiques varient selon le climat, la composition du ménage, l’état de santé, l’âge, ou encore les normes culturelles. Ce qui constitue un inconfort pour certains peut être perçu comme acceptable pour d’autres.

Les ménages en difficulté effectuent souvent des arbitrages complexes entre différentes dépenses essentielles : se chauffer, se nourrir, se déplacer, se soigner. Ces arbitrages sont difficiles à observer dans les données et échappent en grande partie aux indicateurs traditionnels.

Plutôt que de chercher une mesure unique et définitive, l’enjeu est donc de construire des outils capables d’éclairer la diversité des situations et des trajectoires. Dans un contexte de transition énergétique et de dérèglement climatique, mieux mesurer la précarité énergétique devient moins une question de précision statistique qu’une nécessité pour anticiper, prévenir et adapter les politiques publiques.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

04.02.2026 à 16:14

Pourrait-on faire fonctionner des data centers dans l’espace ?

David Monniaux, Chercheur en informatique, Centre national de la recherche scientifique (CNRS), Université Grenoble Alpes (UGA)

Différents acteurs proposent d’utiliser des satellites pour faire des calculs. En d’autres termes, il s’agit d’envoyer des data centers dans l’espace. Est-ce réaliste ? Un informaticien fait le point.
Texte intégral (1698 mots)

Différents acteurs de la tech envisagent d’utiliser des satellites pour faire des calculs. En d’autres termes, il s’agit d’envoyer des data centers dans l’espace. Est-ce réaliste ? Un informaticien fait le point.


On parle de l’idée d’installer dans l’espace, en orbite, des data centers destinés à l’intelligence artificielle. Par exemple, en novembre 2025, Google annonçait son projet Suncatcher.

Quel crédit accorder à cette proposition ? Je vais d’abord expliquer les difficultés techniques qui font que cela semble très compliqué et coûteux pour un avantage peu clair, avant de formuler des hypothèses sur les raisons qui motivent ces annonces.

L’intelligence artificielle, c’est beaucoup de calcul

L’apprentissage automatique à grande échelle est au cœur des applications d’intelligences artificielles (IA) génératives (ChatGPT et consorts). Pour cela, il faut beaucoup de processeurs de calcul, qui consomment de l’électricité et rejettent sous forme de chaleur l’énergie ainsi consommée. Sur Terre, un grand data center de calculs d’intelligence artificielle peut consommer 100 mégawatts (MW) et au-delà ; on a même projeté la construction de data centers à 1 000 MW.

Dans l’espace, du point de vue technique, se posent alors quatre problèmes :

  • les composants électroniques sont irradiés par les rayons cosmiques, ce qui peut causer des pannes ;

  • il faut produire de l’électricité ;

  • il faut évacuer la chaleur produite ;

  • les installations ne sont pas aisément accessibles pour intervenir.

Les radiations perturbent les composants électroniques

Récemment, un Airbus A320 a fait une embardée dans le ciel, car son informatique de commande avait été touchée par des rayons cosmiques. En effet, dans l’espace et, dans une moindre mesure, en altitude (les avions de ligne volent à une dizaine de kilomètres d’altitude), l’électronique est soumise à un rude régime.

Les rayonnements cosmiques peuvent au pire détruire certains composants, au mieux perturber temporairement leur fonctionnement. Pour cette raison, les fournisseurs conçoivent pour équiper les engins spatiaux des processeurs spéciaux résistant aux rayonnements, par exemple le LEON et le NOEL-V, mais ceux-ci ont des performances de calcul modestes (par exemple, le NOEL-V, pourtant moderne, est environ dix fois plus lent qu’un seul cœur de mon ordinateur portable, qui en comporte 12). Si l’on utilise dans l’espace des composants destinés à des applications terrestres conventionnelles, les radiations peuvent provoquer des pannes qui nécessitent des redémarrages de chaque processeur, allant d’une fois toutes les quelques semaines à plusieurs fois par jour, suivant les conditions d’utilisation, d'autant plus fréquemment que le processeur est gravé finement (haute performance).

Produire suffisamment d’électricité

Les géants de la tech parlent actuellement de construire des data centers terrestres consommant de l’ordre de 1 000 MW. À titre de comparaison, les réacteurs de centrales nucléaires françaises ont des puissances électriques nominales (ce qu’elles peuvent produire à 100 % de leur puissance normale d’utilisation) entre 890 MW et 1 600 MW. En d’autres termes, un tel data center consommerait complètement la puissance d’un des petits réacteurs français.

Or, dans l’espace, pour produire de l’électricité, il faut utiliser des panneaux solaires ou des procédés plus exotiques et peu utilisés – microréacteur nucléaire ou générateur à radioéléments, ces derniers étant utilisés pour des sondes partant vers des régions éloignées du Soleil et où il serait donc difficile d’utiliser des panneaux solaires.

Aujourd’hui, les panneaux solaires de la Station spatiale internationale produisent environ 100 kilowatt (kW) de puissance, autrement dit 1 000 fois moins que ce que consomme un data center de 100 MW. Suivant l’orbite, il peut être nécessaire de gérer les périodes où le satellite passe dans l’ombre de la Terre avec des batteries (qui ont une durée de vie limitée), ou accepter que chaque satellite ne fonctionne qu’une partie du temps, ce qui pose d’autres problèmes.

Évacuer la chaleur

Il peut paraître surprenant, vu le froid de l’espace, qu’il soit difficile d’y évacuer de la chaleur. Sur Terre, nous évacuons la chaleur des data centers directement dans l’air, ou encore via des liquides pour ensuite restituer cette chaleur à l’air via une tour de refroidissement. Dans l’espace, il n’y a pas d’air à qui transférer de la chaleur, que ce soit par conduction ou par convection.

Ainsi, la seule façon d’évacuer de la chaleur dans l’espace est le rayonnement lumineux qu’émet tout objet. Quand un objet est très chaud, comme du fer chauffé à blanc, ce rayonnement est intense (et en lumière visible). En revanche, pour des objets tels qu’un ordinateur en fonctionnement ou un corps humain, ce rayonnement (en lumière infrarouge, invisible aux yeux humains mais visible à l’aide de caméras spéciales), est peu intense. Il faut donc de grandes surfaces de radiateurs pour disperser de la chaleur dans l’espace. Organiser l’évacuation de chaleur n’a rien d’évident dans un satellite…

Des problèmes très terre-à-terre

Venons-en à des problèmes plus pratiques. Quand on a un problème dans un data center sur Terre, on envoie un·e technicien·ne. Dans l’espace, cela impliquerait une mission spatiale. Certes, certaines tâches pourraient être accomplies par des robots, mais on est à des ordres de grandeur de complications par rapport à une maintenance dans un bâtiment terrestre. Or, les panneaux solaires et les autres composants ont une durée de vie limitée. Enfin, communiquer avec un satellite est plus compliqué et offre un moindre débit que d’installer un raccordement fibre optique dans une zone bien desservie sur Terre.

Bien entendu, il y aurait également la question de la masse considérable de matériel à transférer en orbite, celle du coût des lancements et de l’assemblage.

On peut également évoquer la pollution, pour l’observation astronomique, du ciel par le passage de constellations de satellites, ainsi que la pollution des orbites par les débris des satellites détruits.

En résumé, même s’il était éventuellement possible techniquement de faire des calculs d’intelligence artificielle dans un satellite en orbite (ou sur une base lunaire), cela serait à un coût considérable et au prix de grandes difficultés. Dans les propos de ceux qui annoncent des data centers spatiaux, on peine à trouver une bonne raison à tant de complications. Parmi certaines justifications avancées, celle d’échapper dans l’espace aux législations des États.

Pourquoi donc parler de mettre des data centers en orbite ?

La question intéressante, plutôt que de savoir s’il serait possible de faire un centre de calcul IA dans l’espace, est donc de savoir à qui cela profite de parler dans les médias de projets relevant plus de la science-fiction que du développement industriel réaliste. Il est bien entendu périlleux de prétendre identifier les objectifs derrière les actes de communication, mais nous pouvons fournir quelques hypothèses.

L’industrie spatiale états-unienne, notamment SpaceX, nourrit l’idée de l’espace comme dernière frontière, avec en ligne de mire l’installation sur Mars, voire la colonisation de cette planète – qu’importe qu’elle soit froide (- 63 °C en moyenne à l’équateur), à l’atmosphère très ténue, et sans protection contre le rayonnement cosmique, autrement dit très hostile à la vie.

L’industrie de l’intelligence artificielle, quant à elle, nourrit l’idée du dépassement du cerveau humain.

Ces deux industries ont un besoin intense de capitaux – par exemple, OpenAI a une dette de 96 milliards de dollars (81,2 milliards d’euros). Pour les attirer, elles ont besoin de récits qui font rêver. Toutes deux créent la « fear of missing out » (ou FOMO), la peur de passer à côté d’une évolution importante et de devenir obsolètes.

D’ailleurs, cette communication fonctionne. La preuve, j’ai rédigé cet article qui, même si c’est pour expliquer à quel point ces projets sont irréalistes, leur accorde une publicité supplémentaire…

The Conversation

David Monniaux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.02.2026 à 16:13

Laïcité à la française : un grand malentendu ?

Alain Policar, Chercheur associé en science politique (Cevipof), Sciences Po

Initialement pensée pour protéger la liberté de conscience, la laïcité est de plus en plus mobilisée comme norme identitaire. Une évolution aux effets politiques et sociaux profonds.
Texte intégral (1789 mots)

Principe juridique de neutralité de l’État, la laïcité a initialement été pensée pour protéger la liberté de conscience. Elle est aujourd’hui fréquemment mobilisée d’une manière qui contredit sa vocation première. Cette transformation n’est ni anodine ni sans effets sociaux et politiques. Comment un outil destiné à garantir la coexistence des libertés est-il devenu un levier de normalisation, ciblant certaines populations plus que d’autres ?


Alors qu’elle devait servir à la promotion de valeurs universelles, la laïcité apparaît désormais largement comme une expression nostalgique d’une identité majoritaire. Depuis l’affaire des foulards à Creil (Oise) en 1989, de principe organisant la coexistence des libertés, elle est devenue une valeur censée incarner la civilisation française.

Ce changement, dont les causes sont multiples, a transformé un outil de paix civile en instrument de contrôle des conduites. En témoignent les votes de nombreuses loi restrictives. Parmi celles-ci, celle du 15 mars 2004 sur l’interdiction des signes religieux ostensibles à l’école, qui rompt avec la recommandation du Conseil d’État, lequel, saisi en 1989 par le ministre de l’éducation nationale, Lionel Jospin, conditionnait l’interdiction à un comportement perturbateur. Ou encore celle d’août 2021, qui met l’accent sur le soupçon de séparatisme d’une partie de la population désignée par sa foi religieuse, réelle ou supposée.

Cette évolution est congruente avec le fait qu’un parti d’extrême droite, qui se pose en héraut de la laïcité, et dont le programme repose sur la préférence nationale, occupe désormais une place majeure dans notre vie politique. Pour le Rassemblement national, les bienfaits de l’État-providence ne doivent être destinés qu’au « vrai peuple », le populisme procédant d’une révolte contre le partage des acquis sociaux durement obtenus sur le long terme avec de nouveaux venus, lesquels ne les mériteraient pas.

La tolérance : une vertu politique

Dans sa conception moderne, la tolérance est une vertu politique fondamentale : la divergence de la norme est possible au nom de la liberté. C’est ce que souligne l’article XI de la Déclaration des droits de l’homme et du citoyen (1789) selon lequel « la libre communication des pensées et des opinions est un des droits les plus précieux de l’homme ». Ce droit sera affirmé plus nettement encore dans la Déclaration universelle de 1948, son exercice n’étant soumis qu’aux limitations légales destinées à assurer la reconnaissance et le respect des droits et libertés d’autrui.

La tolérance n’exige évidemment pas que nous renoncions à nos désaccords, mais que nous considérions comme des égaux celles et ceux qui ont des convictions différentes des nôtres.

Dès lors, l’intolérance consiste à revendiquer une place spécifique pour mes propres valeurs ou pour mon mode de vie et, pour cette raison, à vouloir les protéger jusqu’à limiter, voire supprimer, d’autres valeurs que les miennes, ce qui revient à refuser à celles et ceux qui les défendent le statut de membre à part entière de la société. C’est ce dont rend compte l’ouvrage d’Olivier Esteves, Alice Picard et Julien Talpin, à propos des musulmans français diplômés, lesquels se trouvent contraints, faute de reconnaissance de leurs compétences, de quitter la France pour des pays plus ouverts à la diversité.

À l’inverse, la tolérance consistera à insister sur notre appartenance commune à un ensemble social et à reconnaître que les autres ont tout autant que moi le droit de contribuer à en définir les normes.

Laïcité et islam

La France est-elle aussi laïque qu’elle le prétend, s’interrogeait déjà le sociologue François Dubet en 1996, « en refusant aux musulmans les droits qu’elle accorde aux autres, en idéalisant son passé républicain, comme si celui-ci ne procédait pas d’une longue tradition chrétienne » ? Et il concluait par cette mise en garde : « La laïcité ne peut être vécue par les musulmans que sous une forme antireligieuse. »

Ce diagnostic semble confirmé par le rapport 2025 sur les discriminations fondées sur la religion, du défenseur des droits :

« La très grande majorité des réclamations reçues par le défenseur des droits en matière de discriminations fondées sur la religion concerne la religion musulmane et, en particulier, les femmes musulmanes portant un voile […] Cette surreprésentation traduit la spécificité française du débat sur la religion et la laïcité, qui se focalise sur l’islam et, plus encore, sur ses expressions vestimentaires féminines : voile et abaya à l’école, voile porté par les accompagnatrices scolaires, voile dans le sport, burkini dans les piscines, voire, plus récemment, voile porté par les mineures dans l’espace public. Ainsi, malgré des formulations générales, les lois encadrant le port de signes religieux ont entendu viser les femmes musulmanes. »

Le rapport précise que, parmi les personnes se déclarant de religion musulmane ou perçues comme telles, 20 % déclarent avoir été « parfois » discriminées en raison de leur religion au cours des cinq dernières années et 14 % avoir « souvent » été discriminées pour ce motif. Notons que, parmi les personnes se déclarant chrétiennes ou perçues comme telles, 3 % déclarent avoir été « parfois » discriminées en raison de leur religion et 1 % l’avoir souvent été.

État laïc ou société laïque ?

La tentation de faire de la France non pas un État laïc mais un pays, une société qui serait laïque par nature, c’est-à-dire où l’application de ses règles ne serait plus limitée aux agents des services publics, est surreprésentée dans les médias et sur la scène politique. Jean-Michel Blanquer, alors ministre de l’éducation nationale, par exemple, n’hésitait pas à déclarer que « le voile n’est pas souhaitable dans la société tout entière ». Gabriel Attal, ancien premier ministre, veut interdire le port du voile aux moins de 15 ans dans l’espace public et Laurent Wauquiez, chef du groupe Les Républicains à l’Assemblée nationale, a déposé en novembre 2025 une proposition de loi allant dans ce sens, en élargissant l’interdiction à toutes les mineures dans l’espace public.

Certains partisans d’une laïcité impliquant des restrictions étendues considèrent sans doute l’interdiction du foulard islamique comme une manière de lutter contre les croyances incompatibles avec la pensée libre et la citoyenneté éclairée. Au-delà du caractère vraisemblablement inconstitutionnel de la chose, il serait infiniment improbable qu’ils parviennent ainsi à atteindre les objectifs invoqués. On peut même craindre un effet contre-productif, en raison de la récupération de ces interdictions par l’islamisme radical, chez des adolescents en quête d’identité.

Désormais, l’invocation de la laïcité, si l’on en juge par sa fréquence, semblerait en mesure de répondre à tout type de mise en cause des principes républicains, qu’il s’agisse des tenues vestimentaires de nos élèves ou des attaques terroristes dont la France a été victime. Pourtant, de 1982 (attentat de la rue des Rosiers, à Paris) jusqu’en 2012 (assassinat de quatre Juifs, dont trois enfants, par Mohammed Merah à Toulouse, en Haute-Garonne), nul n’avait songé à invoquer solennellement la laïcité, alors que l’on ne cesse désormais de le faire depuis 2015 ? S’agit-il d’une négligence malheureuse, aujourd’hui réparée ? Ou, plus vraisemblablement, d’une instrumentalisation dont on voit bien le profit que l’on pense en retirer ?

Libre expression des différences

Il serait utile de rappeler l’esprit de la Déclaration universelle sur la laïcité au XXIᵉ siècle : la laïcité, qui n’est pas une spécificité française, est la condition de la libre expression des différences. Peut-être aurions-nous alors accès à l’essentiel : si rien ne nous contraint à renoncer à nos fidélités singulières, la laïcité nous invite à les suspendre. Ce qui fait communauté, c’est précisément la suspension, évidemment provisoire, du sentiment d’appartenance. C’est encore la supposition qu’il y a, en tout autre être humain, la capacité à éprouver le même sentiment que moi.


Alain Policar est l’auteur de Laïcité : le grand malentendu, Flammarion, octobre 2025.

The Conversation

Alain Policar ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.02.2026 à 16:13

Protéger les biens culturels face aux pillages et aux trafics : ce que révèle l’exemple de la Chine

Elsa Valle, Doctorante, Institut catholique de Paris (ICP)

Le patrimoine chinois fait depuis des siècles l’objet de divers trafics.
Texte intégral (2075 mots)
Sculptures bouddhistes dans la galerie 17, exposition « La promesse du paradis » à la Freer Gallery of Art, Washington, DC. Smitshonian Museum

Civilisation millénaire à la richesse culturelle exceptionnelle, la Chine a produit d’innombrables œuvres d’art de grande valeur. Une bonne partie de ce patrimoine a été, au cours des siècles, vendue illégalement ou tout simplement pillée. Ce phénomène se poursuit à ce jour, malgré les efforts des autorités chinoises et de la communauté internationale.


« Si un objet est détruit, c’est un objet de moins. Si un État est anéanti, il peut se relever. Mais la perte de la culture est irrémédiable. »

Ce message, publié en 1933 par l’autorité centrale du Kuomintang (qui est à la tête de la République de Chine de 1928 à 1949), rappelle que, dans les périodes de crise, protéger le patrimoine ne se limite pas à la conservation matérielle : il s’agit aussi de préserver la mémoire d’une civilisation et la continuité de son histoire. À cette date, le Kuomintang prit une décision forte, qui ne fit d’ailleurs pas l’unanimité : déplacer les collections du Musée du Palais, créé en 1925 et installé dans la Cité interdite à Pékin, plus au sud, à Shanghai, afin de les protéger de l’invasion japonaise.

L’historienne Tsai-Yun Chan a qualifié, dans un article, cet épisode de « longue marche » des collections impériales constituées par 51 empereurs pendant près de neuf siècles. Cette « longue marche » souligne la fragilité du patrimoine en temps de guerre et sa vulnérabilité face aux convoitises.

Aujourd’hui, nous pouvons admirer, dans les vitrines des musées occidentaux ou dans les catalogues de ventes, des bronzes rituels, des sculptures funéraires, ou encore des vases impériaux. Ces objets chinois suscitent un intérêt à la fois scientifique, esthétique et marchand. Pourtant, derrière ces œuvres peuvent se dissimuler des trajectoires complexes, marquées par des conflits, des pillages et des circulations contraintes dans des contextes d’instabilité politique.

Depuis le XIXe siècle, une part du patrimoine chinois a quitté son territoire d’origine, alimentant collections privées et institutions publiques à travers le monde. Cette dispersion, antérieure à l’émergence du droit international du patrimoine, complique aujourd’hui les débats sur la légitimité des détentions et les politiques de protection des biens culturels.

L’exemple chinois apparaît ainsi comme un paradigme : il éclaire non seulement les enjeux du trafic illicite et les limites des mécanismes juridiques et diplomatiques, mais révèle aussi la valeur symbolique et émotionnelle que revêt le patrimoine pour une nation.

Quand des trésors chinois ont quitté la Chine : la circulation des biens culturels avant le droit international

La présence aujourd’hui d’œuvres d’art chinoises dans les collections occidentales s’explique par une histoire longue, parfois marquée par des épisodes de violence. Vient à l’esprit l’événement emblématique du sac du Palais d’Été en 1860, pendant la deuxième guerre de l’opium : des milliers d’objets impériaux furent alors pillés par les troupes britanniques et françaises puis dispersés, intégrant collections privées et musées, tel le « musée chinois » de l’impératrice Eugénie au château de Fontainebleau.

Pillage de l’ancien Palais d’Été par les troupes franco-britanniques en 1860 durant la seconde guerre de l’opium. L’Illustration, 22 décembre 1860

Au début du XXe siècle, cette dynamique s’amplifie dans un contexte d’instabilité politique chronique en Chine. Missions archéologiques, explorations scientifiques, fouilles plus ou moins contrôlées et achats sur place contribuent à la sortie massive d’objets.

Dès 1910, au retour d’une de ses missions, le sinologue français Paul Pelliot fait don de plusieurs objets chinois anciens au musée du Louvre. Dans les années 1920 et 1930, de nombreux artefacts arrivent en Occident, contribuant à la constitution des grandes collections d’art chinois ancien. Par exemple, l’archéologue et conservateur américain Carl Withing Bishop dirige deux expéditions en Chine, une première entre 1923 et 1927 puis une deuxième entre 1929 et 1934. Au cours de ces deux expéditions, il achète de nombreux objets qui vont enrichir les collections de la Freer Gallery à Washington.

Ces circulations ne relèvent pas toujours du pillage au sens strict, mais elles s’opèrent néanmoins dans un cadre juridique quasi inexistant, bien avant l’adoption des grandes conventions internationales de protection du patrimoine. Ce vide juridique historique pèse aujourd’hui sur les débats concernant la provenance et la protection des œuvres.

Un trafic illicite toujours actif

Le trafic d’antiquités chinoises demeure une réalité contemporaine, alimentée par la demande du marché international et par la vulnérabilité persistante de nombreux sites archéologiques. En Chine, malgré un cadre législatif national renforcé, les fouilles clandestines et les pillages continuent d’affecter des zones rurales et des sites difficilement surveillés. Selon l’Unesco, 1,6 million d’objets chinois seraient aujourd’hui dispersés à travers le monde.

Le Conseil international des musées (ICOM) créé en 1946, qui a pour but de promouvoir et de protéger le patrimoine culturel et naturel, a ainsi établi en 2010 une « liste rouge » des biens culturels de la Chine susceptibles de faire l’objet de transactions illicites sur le marché international des antiquités. Cette liste vise à aider musées, marchands, collectionneurs, officiers des douanes et de police, à identifier les objets potentiellement pillés et exportés illégalement de Chine.

Le cas chinois illustre donc les limites des dispositifs actuels de contrôle face à un trafic mondialisé et structuré.

Les limites du droit international du patrimoine

La lutte contre le trafic illicite et les demandes de restitution reposent aujourd’hui en grande partie sur le droit international du patrimoine, dont la pierre angulaire est la convention de l’Unesco de 1970. Celle-ci vise à prévenir l’importation, l’exportation et le transfert de propriété illicites des biens culturels. Toutefois, ce cadre juridique présente une limite majeure : son principe de non-rétroactivité. Les œuvres sorties de leur pays d’origine avant l’entrée en vigueur de la convention ne peuvent, en règle générale, être revendiquées sur cette base.

La Convention Unidroit de 1995 renforce ce dispositif en harmonisant les règles de droit privé relatives au commerce international de l’art. Elle permet notamment un traitement uniforme des demandes de restitution devant les juridictions nationales des États signataires.

La Chine a ratifié ces deux textes internationaux, ce qui s’explique sans doute par la recrudescence du trafic illicite des biens culturels sur le territoire chinois dans les années 1990. Il y a eu d’ailleurs une volonté politique de s’inspirer de ces instruments juridiques internationaux en ce qui concerne la législation chinoise sur la protection du patrimoine culturel.

Repenser la protection du patrimoine : les enseignements du cas chinois

Le cas chinois met en lumière les tensions qui traversent aujourd’hui la lutte contre le trafic illicite des œuvres d’art et les politiques de protection du patrimoine. Il révèle l’écart entre des cadres juridiques conçus pour répondre aux trafics contemporains et des collections constituées dans des contextes historiques marqués par la guerre, la domination et l’inégalité des rapports de force. Cette dissociation entre légalité et légitimité constitue l’un des principaux défis pour les acteurs du patrimoine.

Face à ces limites, la recherche de provenance, la coopération internationale et le dialogue entre historiens, archéologues, juristes et spécialistes des relations internationales apparaissent comme des leviers essentiels. Ensemble, ils permettent de mieux documenter les trajectoires des objets et de replacer la circulation de ceux-ci dans des contextes historiques, politiques et culturels plus larges.

Au-delà de ces outils traditionnels, la Chine adopte des pratiques visant à garantir une justice pour les sociétés d’origine des biens culturels, en s’impliquant dans la résolution internationale de conflits relatifs aux objets, en négociant le rapatriement de pièces dispersées comme les deux volumes du manuscrit de soie de Zidanku conservés au musée national des Arts asiatiques de Washington et restitués à la Chine en mai 2025, et en concluant des accords bilatéraux avec plus de vingt pays pour renforcer la lutte contre le pillage et l’exportation illégale d’objets culturels. Ces démarches, qui ne relèvent pas toutes du cadre juridique des restitutions internationales, s’inscrivent dans une dynamique plus large : la Chine formule des revendications explicites concernant certains biens culturels, les enjeux patrimoniaux participant d’une affirmation accrue de sa place sur la scène internationale.

Ces évolutions montrent que la protection du patrimoine ne relève plus seulement de la conservation matérielle ou du respect des cadres juridiques, mais implique une approche globale capable d’articuler histoire, droit, circulation des œuvres et enjeux contemporains du marché de l’art.

The Conversation

Elsa Valle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.02.2026 à 16:13

Is CEO activism threatening democracy?

Aurélien Feix, Professeur associé, EDHEC Business School

Georg Wernicke, Professeur assistant, HEC Paris Business School

Could Business leaders’ political involvement threaten democracy? And could similar dynamics emerge in Europe?
Texte intégral (2150 mots)

Intervening in the boardroom alone no longer seems to be enough for a good number of CEOs who are becoming increasingly vocal about politics. The most prominent example is Elon Musk, who publicly endorsed Donald Trump during the 2024 US presidential election campaign and later accepted a government role offered to him by the newly elected president. Is Musk an exception, or does his foray into politics reflect a broader trend among CEOs? Could the growing political involvement of business leaders threaten democracy? And could similar dynamics emerge in Europe?

During the 2024 US presidential campaign, Musk’s support for Donald Trump was hard to miss. The Tesla boss threw his full weight behind the Republican candidate on his social media platform X and at campaign rallies alike.

As is well known, the “bromance” between the two men came to a sudden end after Trump’s election, with Musk’s political engagement having mixed effects on his image and on the companies he leads. Soon afterwards, another media-savvy CEO, Marc Benioff, voiced support for Donald Trump’s agenda. The Salesforce CEO and owner of Time magazine praised Trump for doing “a great job” as president and backed his intention to deploy the National Guard in San Francisco, before partially backtracking.

A widespread phenomenon

This may surprise Europeans, who are used to their business leaders keeping a low profile on political matters. In the U.S., however, such interventions are far from unusual. They are part of a broader phenomenon that began attracting attention around ten years ago and has accelerated since then: CEO activism.

Our recent work focuses on this type of activism, examining how it can influence, and potentially jeopardise the proper functioning of democracy.

Early activist CEOs

Since the mid-2010s, a growing number of American business leaders have entered political debates. They do so either by expressing their views on divisive issues often unrelated to their companies’ core business or by openly advocating for one of the two major parties that dominate US politics.

However, it would be wrong to think this behaviour is entirely new. American history offers several corporate leaders who could be described as “activist”. One early example is Henry Ford, founder and CEO of the car manufacturer that bears his name. In the first half of the 20th century, he made his political ideas widely known, notably through his anti-Semitic writings, and joined the America First Committee, which campaigned against the U.S. entry into the war in the early 1940s.

A more recent example is Ross Perot, whom some see as a precursor to Trumpism. After founding Electronic Data Systems and amassing a fortune, Perot entered politics during Bush Sr.’s presidency. Styling himself as an outsider to the Washington elite, he ran twice as an independent presidential candidate, in 1992 and 1996.

New communication strategies

While CEO activism is not unique to our era, it has intensified in the U.S. over the past decade. This development has prompted substantial academic literature. Much of it examines how executives’ political statements affect corporate reputation and economic performance, but it also explores the implications on democratic life, as our work does.

Why are more and more CEOs “on a mission”?

Several forces may be driving the rise of CEO activism. One is generational: a new generation of business leaders appears more willing to speak publicly on political matters, partly to accumulate moral capital, and in turn, earn a reputation for virtue.

Another is technological: social media and its new modes of communication reward short, polarizing messages that generate attention, clicks, and shares.

Corporate sociopolitical activism

CEO activism is one facet of a broader phenomenon often described as “corporate sociopolitical activism”, which refers to economic actors of all kinds taking stands in sociopolitical debates. Executives are not the only ones to weigh in. At times, political statements are made in the name of entire companies or the brands they sell. The latter is labelled “brand activism”.

Although advertisements that resembled brand activism existed in the 1980s and 1990s – consider Benetton’s campaigns addressing issues such as racism or AIDS – brand activism has become especially visible in the U.S. over the past decade, mirroring the rise of CEO activism.

One notable example is Starbucks’ “Race Together” campaign against racism in 2015. Other examples are Nike’s “Dream Crazy” campaign in support of Black Lives Matter in 2018, and Gillette’s “The Best Men Can Be” campaign in 2019, which criticised toxic masculinity in the form of harassment and sexism.

These campaigns reflect, in part, consumers’ evolving expectations of the companies from which they buy goods. Some consumers now view purchasing as a political act in its own right and expect brands to uphold political values aligned with their own. US surveys suggest younger generations are, on average, more supportive of business activism than older ones.

But these campaigns also reflect economic opportunism. Amid culture wars and political polarisation, firms may exploit divisions in US society for commercial gain. Political messaging often provokes boycotts from opponents, yet companies bet on an even larger “anti-boycott” from supporters.

Nike’s “Dream Crazy” campaign, for instance, sparked a backlash. The hashtag #BurnYourNikes went viral, and the company’s share price and the brand’s approval rating initially fell. Ultimately, however, supportive customers helped the campaign succeed, boosting profitability. It appears that political emotions – attachment to a social cause or outrage at those who reject it – have become part of the emotional repertoire that capitalism can monetise.

The risks to democracy

Companies have long been political actors, seeking to influence public opinion and political decisions. Until recently, however, they largely operated behind the scenes through lobbying, campaign financing, astroturfing, and scientific disinformation.

Corporate activism is different: it is public by design. As a new form of corporate political action, it may pose new risks to democratic systems.

Because large corporations can amplify their messages with immense resources, ideas that serve their economic interests or align with the ideologies of their executives may gain disproportionate influence in the public sphere. There is also a risk that corporate sociopolitical activism further detoriates the already poor quality of public debate.

By appealing to their customers’ political emotions, economic actors inevitably contribute to making them more intense. This is notably true for emotions associated with what political psychologists call “affective polarisation”, such as hostility toward people identified with the opposing political camp. Such emotional responses increase susceptibility to misinformation and reduce willingness to engage constructively with those who hold different views.

These risks deserve deeper investigation, as do possible countermeasures. Unlike less conspicuous political practices such as lobbying, which are regulated by law (though to varying degrees depending on the country), corporate sociopolitical activism is currently subject to far less regulation.

Coming soon to Europe?

One could argue that the case for regulation is less urgent in Europe than in the U.S. In many European countries, most companies and their leaders remain reluctant to take overt political stances, at least for now.

France is a prime example: brand activism is still rare, and CEO activism remains marginal. Some may object by pointing to Vincent Bolloré, a businessman who has built a populist right-wing media empire. Yet, as concerning as the influence of this media conglomerate may be, Bolloré is not an “activist CEO” in the strict sense of the term: he remains secretive about his personal political views and intentions – much like the Australian-American media mogul Rupert Murdoch, to whom he is sometimes compared.

Even so, there are signs that corporate activism, including CEO activism, could spread in France in the coming years. Entrepreneur Pierre-Édouard Stérin, for example, has been open about the ideology behind his “Périclès” project, which aims to help right-wing parties gain power. Meanwhile, business leaders such as LVMH CEO Bernard Arnault are taking part in political debates more explicitly and assertively than in the past. Whether this develops into a sustained trend remains to be seen.

When it comes to CEO activism, Germany stands out in Europe: As the far-right party Alternative for Germany (AfD) has grown, several business leaders have decided to take a stance against right-wing extremism. These include Joe Kaeser, chair of the supervisory board at Siemens Energy and former Siemens CEO; Verena Pausder, founder of several companies in the digital sector and chair of the German Startup Association; and Stefan Traeger, CEO of the photonics company Jenoptik.

These public interventions have sparked a media debate in Germany about the effectiveness of such statements and the possibility that they could backfire and further strengthen the far right. There are also doubts about whether CEOs can be expected to continue opposing the AfD should it gain power in some German states. The U.S. experience is indeed sobering. During Trump’s first term, many people hoped that business leaders would be an effective check on executive overreach. They were enthusiastic about the fact that many CEOs were outspoken critics of Trump’s policies. However, their hopes were dashed in the second term when critical voices fell silent and supportive voices among business leaders became more common. In light of this development, it would be unwise to overestimate business executives’ commitment to protecting liberal democracy in Europe when push comes to shove.

The Conversation

Georg Wernicke a reçu des financements de HEC Foundation.

Aurélien Feix ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.02.2026 à 16:13

Expiration du traité New Start : vers une reprise de la course aux armements nucléaires ?

Tilman Ruff, Honorary Principal Fellow, School of Population and Global Health, The University of Melbourne

Le dernier traité russo-américain portant sur la réduction des arsenaux nucléaires vient d’arriver à expiration. Avec quelles conséquences ?
Texte intégral (2049 mots)

**Dans un contexte international extrêmement tendu, le traité New Start, signé en 2010 entre la Russie et les États-Unis, expire ce jeudi 5 février. Les termes du traité limitent à 700 le nombre de lanceurs nucléaires stratégiques déployés et à 1 550 le nombre de têtes nucléaires déployées sur ces lanceurs. Sans nouvel – et improbable à ce stade – accord, les deux parties pourront accroître leurs arsenaux, une perspective qui constitue une source d’inquiétude majeure.


Le traité New Start, le dernier accord visant à limiter le nombre d’armes nucléaires de la Russie et des États-Unis, arrive à son terme ce 5 février 2026. Aucune négociation n’est prévue pour prolonger sa durée. Comme l’a déclaré Donald Trump dans une interview récente, « S’il expire, il expire ».

On ne saurait trop insister sur l’importance du traité New Start. Après que d’autres traités relatifs au contrôle des armes nucléaires ont été abrogés ces dernières années, ce texte était le seul accord prévoyant des dispositifs de notification et d’inspection entre les États-Unis et la Russie. À eux deux, ces pays possèdent 87 % des armes nucléaires mondiales.

La fin du traité mettra un terme définitif à la retenue nucléaire entre les deux puissances. Elle risque également d’accélérer la course mondiale aux armements nucléaires.

Qu’est-ce que New Start ?

Le traité sur les mesures visant à réduire et limiter davantage les armes stratégiques offensives, dit « New Start » ou traité de Prague, a été signé le 8 avril 2010 à Prague, par les présidents Barack Obama et Dmitri Medvedev. Il est entré en vigueur l’année suivante.

Barack Obama et Dmitri Medvedev, après la signature du traité New Start, à Prague, le 8 avril 2010. Site Web de la présidence de la Fédération de Russie, CC BY-NC-SA

Il remplaçait un traité de 2002, le Strategic offensive reduction treaty (SORT), par lequel la Russie et les États-Unis s’étaient engagés à réduire en dix ans le nombre de leurs ogives nucléaires à une quantité comprise entre 1 700 et 2 200 têtes.

Avec New Start, signé pour une durée de dix ans, les deux pays promettaient de réduire leur nombre d’armes nucléaires à longue portée ; en outre, le texte apportait des précisions supplémentaires sur les différents types de lanceurs. Le traité limitait l’arsenal nucléaire à 700 missiles balistiques intercontinentaux (ICBM) et missiles mer-sol balistiques stratégiques (SLBM), 1 550 ogives nucléaires et 800 lanceurs (déployés et non déployés). Ces objectifs ont été atteints dès le 5 février 2018.

Le texte comportait également des dispositifs efficaces d’inspection et de vérification de la conformité des actions des deux parties prenantes aux termes du traité. Il prévoyait deux échanges annuels, ainsi qu’un système continu de notifications mutuelles concernant le mouvement des forces nucléaires stratégiques, qui avaient lieu presque quotidiennement. Les deux parties acceptaient l’inspection réciproque sur site des missiles, ogives et lanceurs couverts par le traité, ce qui fournissait à chacune d’entre elles des informations précieuses sur les déploiements nucléaires de l’autre.

Enfin, l’accord établissait une commission consultative bilatérale et des procédures claires pour la résolution de questions ou de disputes.

Les limitations de l’accord

À l’époque, le traité a été critiqué pour le caractère modeste des réductions qu’il imposait et pour le champ limité des types d’armes nucléaires qu’il couvrait.

Mais sa principale faiblesse était le prix politique qu’Obama avait payé pour obtenir sa ratification par le Sénat américain.

Afin d’obtenir un soutien suffisant de la part des républicains, le président démocrate avait accepté un programme à long terme, d’un coût de plus de 2 000 milliards de dollars, portant sur le renouvellement et la modernisation de l’arsenal nucléaire américain, ainsi que des installations et des programmes de production et d’entretien des armes nucléaires.

Conséquence : avec New Start, les États-Unis s’assuraient de continuer à disposer d’un arsenal nucléaire conséquent et sans cesse modernisé. Les perspectives d’un désarmement total s’évanouissaient.

À l’approche de l’expiration du traité, qui prenait fin en 2021, la Russie avait proposé d’en prolonger la validité de cinq ans, comme le permettaient les dispositions du texte. Donald Trump, qui effectuait alors son premier mandat présidentiel, avait refusé d’y donner suite.

Après sa victoire à l’élection présidentielle de 2020, Joe Biden a finalement accepté la prolongation du traité, le 3 février 2021, soit deux jours seulement avant son échéance. Aucune nouvelle prolongation n’est toutefois prévue par le traité.

En février 2023, la Russie a suspendu l’application de certains aspects clés de l’accord, parmi lesquels l’échange de données sur les stocks et les inspections sur site. Elle ne s’est cependant pas officiellement retirée du traité et s’est engagée à continuer de respecter les limites numériques concernant les ogives, missiles et lanceurs.

Et maintenant ?

En septembre 2025, à l’approche de l’expiration du traité, Vladimir Poutine a fait savoir qu’il était prêt à continuer à respecter les limites fixées pour une année supplémentaire, à condition que les États-Unis fassent de même.

Mis à part une remarque improvisée de Donald Trump – « Cela me paraît être une bonne idée » –, aucune réponse officielle n’a été apportée par Washington à cette proposition russe.

Trump a par ailleurs compliqué la situation en exigeant que toute future négociation sur le contrôle des armes nucléaires inclue la Chine. Or Pékin a toujours refusé cette participation. Il n’existe en outre aucun précédent de négociations trilatérales sur le désarmement ou le contrôle nucléaire, qui seraient longues et complexes. Et si l’arsenal chinois est en expansion, il ne représente aujourd’hui que 12 % de celui des États-Unis et moins de 11 % de celui de la Russie.

Le traité New Start semble désormais voué à expirer sans qu’aucun accord ne soit conclu pour maintenir ses limites jusqu’à la négociation d’un traité de remplacement.

Cela signifie que la Russie et les États-Unis pourraient augmenter, en l’espace de quelques mois, le nombre de leurs ogives déployées de 60 % et 110 % respectivement. Tous deux disposent en effet de la capacité à charger davantage d’ogives sur leurs missiles et bombardiers que ce n’est actuellement le cas. Ils conservent également d’importants stocks d’ogives en réserve ou destinées au démantèlement, mais encore intactes.

S’ils prenaient de telles mesures, les deux pays pourraient pratiquement doubler leurs arsenaux nucléaires stratégiques déployés.

La fin des processus d’échange de données, de vérification et de notification entraînerait une grande incertitude et une méfiance mutuelle. Cela pourrait à son tour conduire à un renforcement supplémentaire des capacités militaires des deux pays, déjà colossales.

Un avertissement inquiétant

L’aspect le plus préoccupant de cette évolution est sans doute le fait que le désarmement nucléaire est désormais moribond.

Aucune négociation sur le désarmement ou même sur la limitation des risques nucléaires n’est actuellement en cours. Aucune n’est prévue.

A minima, après l’expiration du traité de New Start cette semaine, la Russie et les États-Unis devraient convenir de respecter ses limites jusqu’à ce qu’ils négocient de nouvelles réductions.

Et cinquante-six ans après avoir pris, dans le cadre du Traité sur la non-prolifération des armes nucléaires (TNP), un engagement en faveur du désarmement, les deux puissances devraient œuvrer à la mise en place d’un accord entre l’ensemble des États dotés de l’arme nucléaire afin d’éliminer leurs arsenaux.

Mais la Russie, les États-Unis et les autres puissances nucléaires empruntent aujourd’hui la direction opposée.

Depuis son retour au pouvoir, Donald Trump a multiplié les actions – du bombardement de l’Iran à l’arrestation du dirigeant vénézuélien Nicolas Maduro – qui témoignent de son mépris pour le droit international et les traités. Elles confirment également sa volonté d’employer tous les leviers de puissance pour affirmer la suprématie américaine.

Vladimir Poutine, de son côté, a eu recours à un IRBM, le fameux Orechnik, contre l’Ukraine, multiplié les menaces de recours à l’arme nucléaire contre Kiev et l’Occident, et opté pour une approche sans précédent et extrêmement dangereuse vis-à-vis des centrales nucléaires ukrainiennes, autour desquelles les combats ont lieu régulièrement et qui fonctionnent désormais dans un environnement très dégradé, ce qui suscite des risques immenses.

Tout cela est de mauvais augure pour le désarmement nucléaire et, au-delà, pour la réduction de l’éventualité d’une guerre nucléaire.

The Conversation

Tilman Ruff est est affilié à l’Association internationale des médecins pour la prévention de la guerre nucléaire, à la Campagne internationale pour l’abolition des armes nucléaires, à l’Association médicale pour la prévention de la guerre, à Médecins pour l’environnement Australie et à l’Association australienne pour la santé publique.

PDF
6 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
AlterQuebec
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌓