26.04.2026 à 09:17
Pourquoi évaluer l’efficacité des aires protégées est plus difficile qu’il n’y paraît
Texte intégral (2799 mots)
Il ne suffit pas de créer des aires protégées : encore faut-il s’assurer qu’elles ont un effet positif sur la biodiversité. Comment réaliser ce suivi ? Les difficultés sont d’ordre méthodologique : comment avoir la certitude que ce que l’on observe est bien, et seulement, lié à la création de l’aire protégée ? Et comment pallier l’absence de données de suivi plusieurs décennies en arrière ? Éléments de réponse.
Dès 2020, la France s’est engagée au niveau international à couvrir 30 % de son territoire par des aires protégées, ce qui était l’un des objectifs fixés par les négociations internationales sur la biodiversité. Aujourd’hui, le chiffre visé est atteint : les aires protégées représentaient, en 2025, 33,5 % du territoire terrestre et maritime français.
Cependant, au-delà de la surface couverte, les textes internationaux demandent explicitement que ces aires soient « effectivement conservées et gérées », comprendre : que les aires protégées le soient réellement. En effet, désigner un espace ne suffit pas pour garantir qu’il produise des effets positifs sur la biodiversité.
Mais comment évaluer l’efficacité des aires protégées ? Intuitivement, on pourrait être tenté de comparer l’état des écosystèmes entre l’intérieur des aires protégées et le reste du territoire. Si les aires protégées sont « efficaces », alors on peut s’attendre à ce que cet état soit meilleur en leur sein.
Le problème, c’est qu’on peut certes considérer qu’une aire protégée n’est efficace que si cette différence existe, mais que la réciproque n’est pas vraie : les aires protégées ne sont jamais disposées au hasard. Des méthodes statistiques s’appuyant sur le suivi dans le temps de zones protégées et non protégées (sites témoins) permettent de s’affranchir de cette limite, mais ne sont pas parfaites pour autant. Il est donc urgent de multiplier les approches pour garantir la robustesse du suivi.
Quand comparer avec les zones non protégées ne suffit pas
Comparer l’intérieur et l’extérieur des aires protégées est nécessaire mais non suffisant. Cela peut paraître paradoxal, mais il y a plusieurs explications à cela :
- d’une part, les aires protégées sont généralement créées pour permettre la conservation d’un patrimoine naturel jugé remarquable, doté par conséquent d’une biodiversité plus riche ou abritant plus d’espèces rares que le reste du territoire. Il est donc logique que, dès leur création, et avant même qu’elles aient produit un effet, les écosystèmes s’y portent mieux qu’ailleurs.
- D’autre part, la création d’une aire protégée génère souvent des conflits avec certaines catégories d’acteurs, notamment économiques, qui s’attendent à ce que leurs activités y soient contraintes. Ces difficultés d’acceptabilité se traduisent par un évitement, lors de la mise en place des aires protégées, des zones à fort niveau d’activités humaines. Il a été démontré que les aires protégées étaient davantage présentes dans les secteurs reculés, ou peu peuplés, comme les régions montagneuses.
Ce second biais se traduit également par une biodiversité moins dégradée au sein des aires protégées dès leur création, renforçant la difficulté à tirer des conclusions d’une simple comparaison dedans/dehors.
À lire aussi : Pour préserver la biodiversité, ne délaissons pas les aires non protégées
Ce que l’évolution des milieux dit de l’efficacité des aires protégées
Comment s’affranchir des biais liés à la localisation des aires protégées pour évaluer leur efficacité ? En sciences expérimentales, cette difficulté se traite avec un dispositif spécifique, appelé BACI, acronyme de Before After Control Impact (soit en français : « avant après témoin traité »).
Le principe est simple : il s’agit non pas de comparer l’état actuel d’un site protégé avec celui d’un site non protégé, mais de suivre l’évolution dans le temps de chacun de ces deux sites, et ce, depuis la création de l’aire protégée.
Ainsi, un site protégé sera considéré comme « efficace » si son évolution depuis sa création est plus favorable que celle du site non protégé, dit « témoin ». Comme il n’y aurait pas de sens à comparer, par exemple, une aire protégée forestière avec un site témoin en plaine céréalière, on fait également en sorte que l’aire protégée suivie et la zone témoin soient aussi similaires que possible. L’objectif est de limiter l’incidence de facteurs d’influence autres que la création et la gestion de l’aire protégée.
En appliquant ce modèle au réseau Natura 2000 en France, il a pu être montré que l’évolution des populations d’oiseaux communs des milieux agricoles était plus favorable dans le réseau qu’au-dehors.
Nous savions déjà, grâce à une précédente étude, que ces populations étaient plus abondantes dans le réseau. Comme expliqué précédemment, cela montrait surtout que les sites Natura 2000 avaient été placés sur des territoires plus riches en oiseaux que la moyenne. Cela constitue d’ailleurs une condition préalable essentielle à ce que ces sites puissent jouer un rôle pour la conservation de ces espèces.
Il est intéressant de remarquer que l’étude mobilisant l’approche BACI pour le réseau Natura 2000 ne concluait pas que les populations d’oiseaux liés aux milieux agricoles augmentaient au sein des sites labellisés Natura 2000. C’est uniquement en comparant avec le reste du territoire, où la chute de ces mêmes populations était vertigineuse sur la période, que l’analyse a permis de conclure à une « efficacité » des sites Natura 2000.
À lire aussi : Protection de la biodiversité : retour sur l’évolution des « aires protégées » dans le monde
Savoir croiser les sources et prendre de la hauteur sur les chiffres
Pour autant, même lorsqu’il mobilise le BACI, ce type d’étude n’est pas exempt de limites. Souvent, on ne dispose pas de données remontant suffisamment loin dans le temps pour bien décrire l’évolution de la biodiversité. Même les données utilisées pour choisir les sites « témoins », qui doivent être similaires aux sites protégés au moment de leur création, sont trop parcellaires et manquent de précision.
Or, les aires protégées françaises sont, pour la plupart, très anciennes. Elles existent souvent depuis plusieurs décennies, parfois une centaine d’années, ce qui complique encore la donne.
Dans ces conditions, on peine à constituer un vrai BACI :
d’abord parce que l’image « avant » ne remonte que rarement à la date de création de la zone protégée et ne s’affranchit donc pas complètement des biais de localisation,
mais aussi parce que le « témoin » n’est que vaguement semblable à l’aire protégée, et cela, à une époque trop récente, pas nécessairement lors de sa création.
Ces difficultés sont difficiles à surmonter. Dans la plupart des cas, l’absence de données historiques environnementales ne peut pas être compensée.
À lire aussi : Les sites « naturels » classés : dépasser l’idée d'une nature musée ?
Ces résultats imparfaits sont-ils pour autant inutiles ? Non. Certes, ils doivent être interprétés avec prudence, mais ils livrent des informations précieuses, par exemple sur un effet plus marqué dans un type de milieu naturel ou d’espace protégé. Ainsi, l’effet de Natura 2000 démontré sur les oiseaux liés aux milieux agricoles n’a pas été observé sur les espèces forestières, ce qui peut indiquer un effort de gestion insuffisant sur ces milieux.
Ils ne constituent donc qu’une partie de l’évaluation et peuvent être utilement complétés avec d’autres approches, notamment qualitatives. Toujours au sein du réseau Natura 2000, de façon contre-intuitive, il a ainsi été mesuré que plus les sites étaient initialement soumis à des pressions humaines susceptibles de les dégrader, moins les moyens mis en place concernant ces pressions étaient importants.
Ce résultat ne présage pas entièrement de l’effet de la politique, mais il donne une information sur ce qui pourrait expliquer qu’il ne soit pas aussi important qu’attendu. Au-delà de la question de l’effet produit, on peut ainsi vérifier la pertinence des efforts de gestion menés dans les aires protégées.
Évaluer l’efficacité des aires protégées est donc difficile. Cet exercice doit composer avec toute la complexité des écosystèmes, mais également celle des sociétés avec lesquelles ils interagissent. Il s’agit pourtant d’un travail indispensable.
Plutôt que de se baser sur un modèle unique, forcément limité, il y aurait tout à gagner à multiplier les approches, les questions, les données et les disciplines scientifiques. C’est en construisant un faisceau d’indices en croisant les sources qu’on peut dessiner l’image la plus juste, mais aussi la plus utile, de l’effet qu’ont les aires protégées sur la biodiversité.
Paul Rouveyrol ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.04.2026 à 11:45
40 ans après la catastrophe nucléaire de Tchernobyl, l’insaisissable responsabilité
Texte intégral (3733 mots)
Le 26 avril 1986, la centrale nucléaire de Tchernobyl bascule dans l’histoire. Qui est responsable de la catastrophe la plus grave de l’histoire du nucléaire civil ? L’examen de la chaîne de responsabilités est complexe, entre défauts techniques et organisationnels et gouvernance politique partagée entre deux ministères. La catastrophe témoigne aussi d’une culture de la sûreté nucléaire bien différente de ce qu’elle est aujourd’hui en Occident.
Il y a quarante ans, à 1 h 23 du matin, le 26 avril 1986, le réacteur numéro 4 de la centrale nucléaire Vladimir-Ilitch-Lénine, située à Tchernobyl, en actuelle Ukraine, explose. Cet évènement représente la catastrophe nucléaire la plus grave de l’histoire nucléaire soviétique et mondiale.
L’accident se produit au cours d’un test de sécurité de l’unité n°4 de la centrale, qui s’emballe alors à plus de 100 fois sa puissance nominale, conduisant à la fusion du cœur du réacteur puis à l’explosion de celui-ci. En cause, une série de défaillances humaines et techniques. La catastrophe prend de court toutes les autorités soviétiques par son ampleur. Après avoir, dans un premier temps, minimisé la gravité de l’accident, celles-ci sont rapidement confrontées à la réalité du désastre.
À ce moment précis, il n’est pas certain que les dirigeants aient pleinement conscience de toutes les conséquences de l’accident. Mais les défauts du complexe nucléaire soviétique, tant en matière de conception que de procédures, étaient connus, en tout cas par certains dirigeants et scientifiques.
Peut-on retracer la chaîne des responsabilités ayant conduit à l’accident ? L’exercice est périlleux : la responsabilité de l’accident repose sur un concours de circonstances, permis par les failles d’un système technique et organisationnel très différent de celui qui structure aujourd’hui la sûreté nucléaire en Europe.
La technologie RBMK, instable par conception
La construction de la centrale nucléaire V.-I.-Lénine à Tchernobyl débute en 1970. Elle aboutit à la mise en service de quatre réacteurs entre 1978 et 1984. En 1986, année de la catastrophe, un cinquième réacteur est encore en cours de construction depuis 1981. La centrale est située dans le nord de l’Ukraine proche de Kiev et de la frontière avec la Biélorussie. Son refroidissement par eau est assuré par la rivière Pripiat, un affluent du Dniepr qui se jette dans la mer Noire.
Les réacteurs de la centrale sont de type RBMK (pour Reaktor Bolshoy Moshchnosti Kanalnyi, soit réacteur de grande puissance à tubes de force, en français) comme environ la moitié du parc nucléaire soviétique à cette période. Il s’agit d’un réacteur refroidi à l’eau et modéré au graphite.
Cette technologie, propre à l’Union soviétique, dispose d’avantages, notamment en termes de maintenance et d’approvisionnement en isotopes, puisqu’il permet de produire du plutonium, utile dans le cadre d’un programme nucléaire militaire. Mais sa conception le rend instable.
En effet, le réacteur RBMK est conçu en faisant appel à un coefficient de vide positif. Il permet de caractériser l’évolution de la réactivité dans le cœur en cas de diminution de la densité du fluide caloporteur, par exemple en cas de fuite. Le coefficient de vide décrit donc la tendance spontanée du réacteur à augmenter sa puissance (coefficient positif), à rester dans un état stable (coefficient nul), ou à diminuer spontanément sa puissance (coefficient négatif, soit l’arrêt progressif de la réaction en chaîne), ce qui est le cas des réacteurs à eau pressurisée français.
De par ce coefficient de vide positif, les réacteurs RBMK sont fondamentalement instables et doivent être régulés grâce à l’action des opérateurs. De ce fait, il existe un risque d’emballement de la réaction en chaîne, pouvant jusqu’à conduire à la fusion du combustible nucléaire, comme cela fut le cas à Tchernobyl. Les ingénieurs soviétiques se devaient donc d’être très soucieux de la stabilité du réacteur.
D’autres contraintes techniques pèsent sur les opérateurs, comme la présence de graphite à l’extrémité des barres de contrôle, qui est inflammable. Ceci augmente la réactivité dans le cœur du réacteur au début de leur insertion, ce qui peut devenir déstabilisant si un grand nombre sont insérés en même temps, comme lors d’un arrêt d’urgence.
Ce n’est pas tout : le bouton AZ5, qui permet de déclencher la procédure d’arrêt d’urgence de la centrale RBMK, met plus de vingt secondes à fonctionner, ce qui accroît encore les risques de perte de contrôle de la réaction en chaîne.
Au sein des centrales RBMK de l’époque, il existait une consigne informelle : ne pas diminuer la puissance du réacteur sous les 700 mégawatts (MW) thermiques de manière prolongée et toujours laisser trente barres de contrôle au minimum dans le cœur du réacteur. Ces consignes ont été outrepassées à Tchernobyl.
À lire aussi : Que sont devenus les réacteurs RBMK ?
En 1975 déjà, des incidents sur une centrale RBMK
Après la catastrophe de Tchernobyl, dans un contexte de réformes politiques, Mikhaïl Gorbatchev, veut encourager la transparence sur la situation. Le 14 mai 1986, lors d’une allocution télévisée, il prend la parole pour rendre compte de la situation sur place, signe fort d’un changement des usages politiques soviétiques.
Suite aux pressions internationales – et en particulier de l’Agence internationale de l’énergie atomique (AIEA) –, le comité central du parti communiste conduit alors, dès juillet 1986, une enquête partiellement publique afin d’identifier les causes des évènements survenus dans le réacteur n°4.
Cette enquête apporte des éléments de culpabilité, toutefois répartis entre les concepteurs, les opérateurs et les régulateurs, tout en démettant une série de responsables hiérarchiques, jusqu’à Efim Slavski, à la tête du ministère de l’ingénierie mécanique semi-lourde (Sredmash), alors partiellement en charge de l’énergie nucléaire, cette responsabilité étant partagée avec le ministre de l’énergie de l’électrification (Minenergo).
À la fin de l’été 1986, un sommet est organisé à Vienne par l’AIEA, où les soviétiques annoncent révéler l’intégralité de la catastrophe pour obtenir une expertise occidentale.
Les scientifiques soviétiques ont alors une consigne de transparence, à rebours de la culture du secret qui prévalait jusqu’alors. Une telle autorisation de divulguer des éléments techniques, tout en préservant l’industrie nucléaire comme élément stratégique au développement soviétique, est inédite pour l’URSS.
La délégation soviétique, dans le rapport qu’elle présente aux experts, pointe quatre facteurs déterminants qui ont conduit à la catastrophe :
des procédures suboptimales,
leur transgression par les opérateurs,
des conséquences radiologiques mal prises en compte,
ces dernières ayant mené à une évacuation tardive de la ville de Pripiat.
À la suite de la conférence, un groupe d’experts de l’AIEA est constitué. Il livre son rapport en septembre 1986. Par la suite, le rapport présenté par la délégation soviétique est classifié, après que certains passages aient été publiés dans la Pravda. Le rapport de l’AIEA y est également publié.
À noter que la technologie des réacteurs de type RBMK avait déjà été remise en cause plus de 10 ans avant la catastrophe. En 1975 déjà, plusieurs incidents étaient survenus sur la centrale de Leningrad, qui avaient alors été étouffés par les responsables locaux de la centrale. On retrouve des problèmes liés à la conception mais aussi à la qualité de la construction et à l’organisation.
Autrement dit : la délégation soviétique présente à la conférence de Vienne, en août 1986, ne peut dissimuler sa connaissance des problèmes soulevés par l’AIEA. Si la dimension technique est essentielle, couplée à l’enchaînement improbable des évènements, les experts de l’AIEA concluent que les principales causes de l’accident sont humaines et organisationnelles, même s’ils refusent dans le même temps de considérer qu’elles relèvent seulement de l’erreur humaine.
Culture du secret, absence de redondance… une approche différente de la sûreté nucléaire
Pour comprendre la catastrophe, il faut revenir sur la vision qu’a alors le système politique soviétique de la sûreté nucléaire.
La culture du secret, héritée du programme nucléaire militaire soviétique, n’a pas permis de récolter, comme ailleurs, les fruits des retours d’expérience d’incidents nucléaires. Au contraire, elle a créé une fracture importante dans la perception du risque entre les concepteurs et les opérateurs des centrales.
Ces derniers dépendent d’ailleurs de deux ministères distincts : les concepteurs des centrales dépendent du ministère de l’ingénierie mécanique semi-lourde (Sredmash) et les opérateurs du ministère de l’énergie et de l’électrification (Minenergo).
La culture du secret concerne surtout le premier (Sredmash), qui est l’héritier du programme nucléaire militaire. La rétention d’informations y est forte vis-à-vis du Minenergo. Or, l’industrie nucléaire soviétique s’est bâtie depuis les années 1950-1960 autour de la relation ambivalente de ces deux ministères, dont les chevauchements de compétences sont nombreux.
Le principe de redondance (qui consiste à doubler, voire tripler ou quadrupler les systèmes de sûreté pour faire face aux cas de dysfonctionnement) est globalement absent des centrales nucléaires soviétiques, tandis que de l’autre côté du rideau de fer, il en est une composante majeure.
La conception soviétique de la centrale nucléaire doit enfin être vue comme un système sociotechnique. De son élaboration à sa mise en œuvre opérationnelle, elle implique des méthodes de gestion très différentes de celles qui valent en Occident. Le facteur humain y est perçu comme une redondance dans le système de sûreté nucléaire permettant de pallier, grâce à l’existence de spécialistes à tous les échelons, les potentiels manquements de chacun d’entre eux.
Dans le même temps, la latitude d’intervention et de prise de décision laissée aux opérateurs des centrales est en réalité réduite par un carcan administratif rigide et contradictoire, conduisant à une relative impuissance de ces derniers.
À lire aussi : Three Mile Island, Tchernobyl, Fukushima : le rôle des accidents dans la gouvernance nucléaire
Les corrections apportées aux centrales RBMK
À la suite de la catastrophe de 1986, des améliorations palliatives sont apportées au design des réacteurs RBMK.
D’abord pour réduire les effets du coefficient de vide, qui reste toutefois toujours positif à l’issue de ces mesures.
Cela passe par l’addition entre 80 et 90 barres de contrôle inamovibles, qui remplacent une partie des crayons de combustible.
La consigne de laisser, au minimum, 26 à 30 barres de contrôle dans le cœur est relevée entre 43 et 48 barres.
Enfin le remplacement progressif du combustible est décidé pour augmenter sa qualité : il passe d’un enrichissement de 2 % à 2,4 % d’uranium.
Le système d’arrêt d’urgence est également modifié, avec un système d’arrêt rapide comprenant 24 nouvelles barres de contrôle et leur reconception.
De surcroît, de nouveaux systèmes d’alerte pour déclencher plus rapidement la procédure d’arrêt d’urgence sont installés. Le système de dépressurisation de la vapeur est aussi revu pour augmenter ses capacités de réduction de pression par condensation et évacuation.
Quarante ans après cette catastrophe, la Russie demeure le seul État à faire encore fonctionner des réacteurs RBMK, mais ce ne fut pas toujours le cas. L’Ukraine a interrompu la production électrique du dernier réacteur de Tchernobyl en l’an 2000, tandis que la Lituanie a fermé son dernier réacteur RBMK de la centrale d’Ignalina en 2009, dans le cadre de son adhésion à l’Union européenne.
À lire aussi : Plus de trois décennies après Tchernobyl, la Russie joue crânement la carte nucléaire
Weidmann Antoine a reçu des financements de l'Université Bordeaux Montaigne.
23.04.2026 à 16:15
Aujourd’hui, le droit protège les combustibles fossiles : une première conférence internationale veut briser ce verrouillage
Texte intégral (2409 mots)
Du 24 au 29 avril 2026 à Santa Marta, en Colombie, une conférence inédite entend placer la sortie des combustibles fossiles au cœur de l’agenda international. Dans un contexte de dépendance fossile et de tensions géopolitiques, l’enjeu dépasse la transition énergétique : il s’agit de tester la capacité des États à transformer en actes un objectif climatique indispensable qui n’est pas, aujourd’hui, engagé à la hauteur requise. En cause, un véritable verrouillage juridique, économique et financier qui protège le capitalisme fossile, et qu’il va falloir désarmer.
Les gouvernements de la Colombie et des Pays-Bas organisent, du 24 au 29 avril 2026, à Santa Marta (Colombie) la première conférence internationale consacrée à une sortie juste des combustibles fossiles. L’enjeu est clair : mettre la sortie des combustibles fossiles au cœur d’une feuille de route politique, juridique et financière, fondée sur la réduction des dépendances, la transformation de l’offre et de la demande et une coopération internationale renforcée.
Ce n’est pas un sommet de plus : c’est un test de crédibilité. En 2024, la demande mondiale d’énergie a encore progressé et les énergies fossiles occupent toujours une place centrale dans le mix énergétique mondial. Malgré les inflexions introduites sur la sortie du charbon lors de la COP26 à Glasgow en 2021, puis sur la sortie des énergies fossiles lors de la COP28 à Dubaï en 2023, le soutien aux énergies fossiles se poursuit et la transition énergétique reste lente. Les États continuent de projeter, à l’horizon 2030, des niveaux de production fossiles très au-delà de ce qui serait compatible avec une trajectoire à 1,5 °C.
Nous savons donc deux choses : la sortie fossile est indispensable ; or elle n’est actuellement pas engagée à la hauteur requise.
Ce rendez-vous intervient, en outre, dans un contexte international de « backlash climatique » et de réaffirmation brutale de l’ordre fossile.
Aux États-Unis, la devise « Drill, baby, drill » a relancé la production, tandis que les crises géopolitiques (Ukraine, Venezuela et, désormais, Iran) rendent plus que jamais urgente la nécessité de s’affranchir de la dépendance aux hydrocarbures.
L’« éléphant dans la pièce » des négociations climatiques tient en grande partie au fait que le cadre juridique international protège le capitalisme fossile. Le résultat : un véritable « verrouillage » juridique qui concourt au maintien du statu quo sur les énergies fossiles. En conséquence, les flux financiers restent encore massivement orientés vers les énergies fossiles, malgré les efforts des États, des institutions internationales et de certains acteurs privés. Il faut passer d’une logique de décarbonation partielle de la demande à une véritable refonte de l’architecture juridique, cohérente entre droit national, droit de l’Union européenne et droit international, pour la rendre compatible avec la sortie des énergies fossiles.
Comment fixer les priorités ? Nous développons, dans un policy brief consacré à la sortie fossile, un état des lieux ainsi que 14 propositions d’action concrète. Ici, nous exposons quelques-unes de ces propositions, que la conférence de Santa Marta peut être l’occasion de concrétiser.
La réduction de l’offre, dans l’angle mort du régime climatique international
Depuis trente ans, le régime climatique international s’est surtout construit autour de la réduction des émissions de gaz à effet de serre. Longtemps, la question de la réduction de l’offre fossile est restée au second plan. On a cherché à réduire les émissions sans organiser sérieusement la fermeture des infrastructures qui en sont responsables.
Dès lors, la conférence de Santa Marta devra mettre sur la table les questions que la diplomatie climatique traditionnelle a trop longtemps évitées. Comment sortir des dépendances fossiles à la fois énergétiques et industrielles ? Comment organiser la baisse de l’offre ? Comment lever les obstacles juridiques internationaux qui sécurisent encore le capital fossile, à commencer par l’arbitrage entre investisseurs et États, notamment dans le cadre du Traité sur la charte de l’énergie ?
Sur ce dernier point, 220 économistes et juristes ont récemment exhorté la Colombie, dans une lettre adressée au président Gustavo Petro, à se retirer du système de règlement des différends entre investisseurs et États (ISDS) et à fédérer une coalition d’États décidés à s’en désengager. Cette prise de position met en lumière un point décisif : la sortie des combustibles fossiles n’est pas seulement une question de politique climatique, mais aussi de désarmement des mécanismes juridiques qui sécurisent encore la rentabilité des investissements fossiles.
À lire aussi : Le droit international protège les investissements dans les énergies fossiles, et c’est un problème
L’ordre fossile, protégé par un « verrouillage » juridique, économique et financier
Le capitalisme fossile est ainsi porté par une construction juridique structurante. Les investisseurs fossiles sont protégés par des traités, peuvent consolider leurs droits dans des contrats de long terme, se voir favorisés par des régimes fiscaux, sécurisés par des assurances et soutenus par des financements publics et privés.
Privilégiés, les investisseurs fossiles peuvent encore attaquer, devant des tribunaux spéciaux, des États dans lesquels ils réalisent leurs activités si ces derniers, en s’avisant de corriger leur trajectoire carbone, portent atteinte à leurs droits. Les investisseurs fossiles sont, en effet, juridiquement protégés par de nombreux instruments juridiques. Il existe ainsi des milliers de traités bilatéraux d’investissements, des traités plurilatéraux, des contrats d’investissements, des codes d’investissements et miniers ainsi que des politiques d’assurances et de garanties contre les risques encourus par les investisseurs.
Citons, par exemple, parmi les traités plurilatéraux : le Traité sur la charte de l’énergie. Même dénoncé par de nombreux États européens, il continue de s’appliquer au titre de sa clause crépusculaire, qui impose un délai de vingt ans avant une sortie effective du traité.
La sortie fossile ne peut donc plus être pensée comme une simple transition technologique. Il faut s’attaquer aux structures juridiques, économiques et financières qui prolongent l’ordre fossile. Ce « verrouillage » fossile se traduit par un enchevêtrement d’infrastructures, de rentes, de chaînes de valeur, de subventions, de protections contractuelles et de garanties juridiques qui rendent la sortie à la fois nécessaire et politiquement coûteuse.
L’exploitation des combustibles fossiles ne saurait ignorer les limites planétaires, et le droit doit évoluer pour en tenir compte. Cela suppose de défaire des anticipations de rentabilité, de neutraliser les clauses de survie ou crépusculaires pérennisant les garanties offertes par les traités d’investissements dénoncés et de réorienter les flux financiers. Cela implique aussi d’assumer la conflictualité du désinvestissement, de traiter la question des actifs échoués et d’empêcher que la pétrochimie ne devienne le refuge stratégique des Carbon Majors.
À lire aussi : COP30 : Comment éviter que le plastique ne devienne le canot de sauvetage de l’industrie pétrolière ?
Les contentieux climatiques, nécessaires mais insuffisants
Par ailleurs, l’avis rendu par la Cour internationale de justice en 2025 a rappelé qu’un État qui ne prend pas les mesures appropriées pour protéger le système climatique peut engager sa responsabilité internationale. Et cela, y compris lorsqu’il favorise la production ou la consommation de combustibles fossiles, accorde des licences d’exploration ou maintient des subventions. La défossilisation n’est donc plus seulement un horizon souhaitable : elle devient un horizon légal et concret, sous la forme d’obligations préventives de diligence, d’efficacité, de cohérence et de coopération climatiques.
Les contentieux climatiques engagés à travers le monde participent déjà de ce déplacement. Ils ne se bornent plus à dénoncer l’inaction, mais mettent en cause les incohérences normatives, les soutiens publics et les dispositifs juridiques qui prolongent l’ordre juridique fossile. Toutefois, le juge, à lui seul, ne fermera ni les puits ni les terminaux gaziers. Il peut fissurer l’architecture du verrouillage juridique qui protège les énergies fossiles, au nom de la protection des droits humains ou du droit à un environnement sain. Mais il ne sera pas en mesure de prendre des décisions politiques, par exemple pour ordonner la fermeture de ces infrastructures.
C’est ici que Santa Marta peut devenir autre chose qu’une conférence supplémentaire. Cela pourrait être un moment de vérité sur la capacité des États à gouverner la fermeture des activités fossiles, au lieu de la repousser au nom d’un prétendu réalisme économique, alors même que ce réalisme produit un désordre climatique, financier, sanitaire et même démocratique toujours plus grand.
La question n’est donc plus de savoir s’il faut sortir des fossiles (la réponse est oui !), mais si les États accepteront enfin d’en assumer les conséquences normatives et de l’organiser d’une manière juste et efficace. Parce que sortir des fossiles exige bien davantage qu’un simple « verdissement » de l’existant. Il faut cesser d’autoriser l’expansion de secteurs incompatibles avec l’objectif de 1,5 °C, réorienter les flux financiers, intégrer la pétrochimie aux politiques de sortie, désactiver les verrous juridiques du capital fossile et organiser une transition juste. Autant de pistes que nous développons dans notre policy brief.
Il n’est plus possible de célébrer la transition tout en continuant à consolider l’économie fossile. À Santa Marta, l’enjeu sera de savoir quels États accepteront enfin de rompre avec ce verrouillage et d’organiser, en droit comme en politique, la sortie effective et juste des combustibles fossiles.
À lire aussi : Comment échapper à la malédiction de la rente fossile ?
Christel Cournil est administratrice de l'association Notre affaire à tous et vice-présidente de la SFDE Midi-Pyrénées.
Laurence Dubin est membre de l'association Intérêt à agir (IAA)
Sabrina Robert ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.