27.04.2026 à 15:54
Entre environnement et économie locale, faut-il choisir ? Le cas de l’exploitation du mica en Inde
Texte intégral (2285 mots)

Comment concilier environnement et développement économique ? Le cas de l’exploitation minière du mica, en Inde, montre les difficultés à arbitrer entre ces deux dimensions lorsque des populations vulnérables sont dépendantes des ressources économiques de l’exploitation minière. L’accompagnement des mines artisanales à petite échelle pourrait être une solution, tout du moins à certaines conditions.
Batteries de véhicules électriques, peintures automobiles, fards à paupières… ces objets du quotidien ont un point commun. Ils contiennent tous une famille de minéraux discrète mais pourtant stratégique : des micas. Bien que relativement méconnu, le mica est omniprésent dans les économies industrielles modernes.
De par ses propriétés électriques et thermiques, c’est un isolant courant en électronique. On le retrouve aussi bien dans les sèche-cheveux que les véhicules électriques. Ses caractéristiques physiques en font également une base pour certains pigments utilisés dans les peintures industrielles ainsi que de nombreux produits cosmétiques. Cela en fait un minéral clé, tant pour la décarbonation de l’économie que pour le développement du numérique.
Des gisements de mica existent dans le monde entier, mais le Bihar et le Jharkhand, deux États du nord-est de l’Inde, représentent près de 20 % de la production mondiale. L’extraction de mica y est aujourd’hui largement artisanale et à petite échelle, souvent située en zone forestière.
À ce double enjeu de transition énergétique et numérique répond également celui de transition environnementale, et notamment de lutte contre la déforestation. Comment concilier préservation de l’environnement et maintien d’une activité économique essentielle à la survie de populations vulnérables ? Cet article ébauche une réponse, en s’appuyant sur mon travail de thèse.
Des mines et des hommes
L’Inde est l’un des principaux producteurs mondiaux de mica, avec environ 100 000 tonnes exportées chaque année. 75 % de cette production provient de deux États du nord-est du pays situés en zone forestière : le Jharkhand et le Bihar. À noter que les chiffres officiels du Bureau indien des mines (Indian Bureau of Mines, ou IBM) n’intègrent pas la production de mica de ces deux États (comme en 2021 par exemple. En effet, celle-ci est majoritairement liée à des mines artisanales et à petite échelle informelle, non encore reconnues par l’État indien, et majoritairement illégale depuis les années 1980 pour les raisons qu’on expose dans les paragraphes qui suivent.
Dans ces deux États, l’exploitation du mica démarre à la fin du XIXᵉ siècle. L’industrie minière s’y développe alors en deux temps :
Jusqu’aux années 1980, l’exploitation du mica est légale, encadrée par la réglementation locale de l’État du Bihar – celui-ci a, en effet, été scindé en deux en 2000 pour former les actuels États du Bihar et du Jharkhand.
Puis, en 1980, l’adoption du Forest Conservation Act par le gouvernement central indien marque un tournant qui se solde par la désindustrialisation officielle de l’exploitation du mica. Mais dans les faits, l’activité ne s’est pas vraiment arrêtée : elle s’est poursuivie de manière informelle, accentuant davantage la vulnérabilité sociale des mineurs.
Commençons par la première période, sorte d’« âge d’or » de l’industrie minière du mica en Inde. Les écrits historiques, comme ce livre de 1951 ou celui-ci de 1995) décrivent des exploitations minières industrielles relativement bien tenues, où les travailleurs ont accès à des équipements de protection (port de casque et de chaussures de sécurité), avec des moyens d’extraction semi-mécaniques.
L’industrie minière est alors vue source de prospérité économique, en particulier pour les centres urbains de Giridih et de Koderma. Les conditions de travail ne sont pas pour autant idylliques : certains travailleurs sont des agriculteurs qui cherchent des revenus supplémentaires et travaillent dans la mine sans avoir été suffisamment formés, d’autres souffrent de maladies respiratoires…
Ce moment est marqué par ce que l’on peut appeler « conversion des ressources » par laquelle la forêt est « convertie » en ressources minérales. Il faut comprendre que la déforestation n’est pas ici le produit d’une exploitation illégale mais le résultat d’un compromis implicite : accepter une certaine dégradation environnementale en échange de revenus indispensables pour des communautés rurales marginalisées.
La seconde période s’ouvre en 1980 après l’adoption du Forest Conservation Act, où la priorité nationale est désormais de protéger les forêts. L’exploitation minière du mica devient alors majoritairement illégale et s’inscrit dès lors dans l’économie informelle. Elle est soit pratiquée par des artisans miniers individuels, soit dans des mines semi-industrielles, où les conditions de vie et de travail sont précaires. Citons par exemple : maladies musculosquelettiques récurrentes, travail des enfants, effondrements réguliers des galeries… Il n’existe pas de statistiques officielles, mais l’interdiction semble avoir eu des effets négatifs sur les conditions de travail et la santé des travailleurs, les sites étant devenus plus difficiles d’accès pour les organisations souhaitant accompagner les artisans miniers dans l’amélioration de leurs conditions de vie et de travail.
Contraints d’opérer dans l’informalité, les artisans miniers se retrouvent marginalisés, à plusieurs titres : économiquement, légalement et socialement. Ils ne sont pas en position de force pour négocier le prix du mica qu’ils vendent et souffrent ainsi d’une position de faiblesse dans la chaîne de valeur.
Les services de police des États du Bihar et du Jharkhand organisent régulièrement des raids pour stopper les opérations d’extraction et saisir le mica illégalement exploité. Ces opérations semblent n’avoir qu’un impact limité en matière de ralentissement de l’extraction du mica. En revanche, elles ont un effet bien réel auprès des artisans miniers puisqu’elles contribuent à les diaboliser, alors même que l’extraction du mica est devenue leur principale source de revenus.
À lire aussi : Faut-il rouvrir des mines en France et en Europe au nom de la souveraineté économique ?
Deux mouvements de conversion successifs
L’histoire récente du mica en Inde révèle donc deux dynamiques de conversion successives : une première phase de conversion de la forêt vers la ressource minérale, au nom du développement économique, suivie d’une phase de reconversion des espaces miniers vers la forêt, portée par des objectifs de protection environnementale.
Ces deux mouvements ont un point commun : ils produisent des effets territoriaux et humains profonds qui n’intègrent pas pleinement les besoins et les capacités d’adaptation des communautés locales. Pour les artisans miniers, il s’agit de maintenir une activité économique malgré son illégalité et son impact sur la forêt. Cette tension a des répercussions pour d’autres acteurs.
Pour les États, notamment ceux du Bihar et du Jharkhand, l’extraction du mica comprend également une double dimension politique. D’abord parce que les voix des 300 000 personnes impliquées dans l’extraction du mica représentent un enjeu électoral significatif, mais également dans la mesure où la loi visant à la conservation de la forêt émane du gouvernement fédéral, alors que les enjeux de développement local relèvent des États.
Pour les acteurs en aval des chaînes de valeur du mica, comme les marques de cosmétiques ou automobiles par exemple, cette situation pose de nouvelles questions. Il s’agit de savoir ce que ces acteurs veulent privilégier : le développement économique de populations marginalisées ou la protection de l’environnement ?
Par leurs choix de fournisseurs et engagement sur le terrain auprès des communautés d’artisans miniers, les entreprises de l’aval influencent les dynamiques locales de conversion de ressources. Un des enjeux clés est juridique : une partie de ces entreprises doivent se conformer aux exigences des réglementations en matière de devoir de diligence, comme la directive Omnibus I de l’Union européenne, par exemple). Le risque est enfin réputationnel : comment assumer de s’approvisionner en matières premières à partir de mines artisanales, tout en affirmant protéger les ressources forestières ?
À lire aussi : Politiques responsables et directive européenne : comment le devoir de vigilance s’invite dans les grandes entreprises
Formaliser les mines artisanales à petite échelle
Face à cette situation, une nouvelle approche a émergé il y a plusieurs dizaines d’années : la formalisation des mines artisanales à petite échelle, c’est-à-dire, entre autres, la reconnaissance des artisans miniers comme des acteurs légitimes des chaînes de valeur. Cette reconnaissance s’accompagne de programmes d’accompagnement pour améliorer les pratiques sociales et environnementales, les conditions de travail, et pour limiter le nombre d’accidents et de lutter contre le travail des enfants.
C’est dans cet esprit qu’a été créée, en 2017, la Responsible Mica Initiative (RMI), une initiative regroupant de grands acteurs de la chaîne de valeur du mica, notamment des industriels, mais également des ONG visant à rendre ces chaînes de valeur plus durables, équitables et responsables. La RMI fait ainsi émerger des solutions par consensus, et considère la formalisation des mines artisanales de mica dans toutes ses dimensions : techniques, administratives, légales, sociales et économiques.
Concrètement, la RMI a déjà engagé plusieurs actions, comme la structuration des mineurs en coopératives, la définition de standards de production responsable, ou encore la mise en place d’audits et de programmes d’accompagnement dans la mise en conformité.
Telle qu’elle est envisagée par la RMI, la formalisation des mines artisanales de mica vise ainsi à rééquilibrer les rapports de pouvoir au sein des chaînes de valeur, au bénéfice des artisans miniers et de leur milieu de vie.
L’arbitrage environnement-développement au cœur d’un espace de négociation
L’exemple de l’extraction minière du mica en Inde montre que des politiques environnementales produisent parfois des effets pervers. En cherchant à protéger les forêts, elles fragilisent davantage des communautés, sans faire disparaître les pratiques qu’elles visaient à encadrer.
La résolution des tensions qui en découlent passe par la mobilisation de tous les acteurs, ce qui suppose l’existence d’un espace de négociation. Sur cette base, les acteurs peuvent ensuite construire une vision commune et la mettre en œuvre dans des actions collectives.
Mais une telle dynamique ne peut émerger que si l’espace de négociation est aussi un espace de confiance, qui permet d’aborder et de résoudre les questions de gouvernance dans les chaînes de valeur. C’est précisément ce que cherche à mettre en place des projets tels que la Responsible Mica Initiative, en créant les conditions d’un dialogue structuré entre acteurs aux intérêts divergents.
Olivier Dubourdieu a travaillé pour la Responsible Mica Initiative entre 2019 et 2024.
26.04.2026 à 09:17
Pourquoi évaluer l’efficacité des aires protégées est plus difficile qu’il n’y paraît
Texte intégral (2799 mots)
Il ne suffit pas de créer des aires protégées : encore faut-il s’assurer qu’elles ont un effet positif sur la biodiversité. Comment réaliser ce suivi ? Les difficultés sont d’ordre méthodologique : comment avoir la certitude que ce que l’on observe est bien, et seulement, lié à la création de l’aire protégée ? Et comment pallier l’absence de données de suivi plusieurs décennies en arrière ? Éléments de réponse.
Dès 2020, la France s’est engagée au niveau international à couvrir 30 % de son territoire par des aires protégées, ce qui était l’un des objectifs fixés par les négociations internationales sur la biodiversité. Aujourd’hui, le chiffre visé est atteint : les aires protégées représentaient, en 2025, 33,5 % du territoire terrestre et maritime français.
Cependant, au-delà de la surface couverte, les textes internationaux demandent explicitement que ces aires soient « effectivement conservées et gérées », comprendre : que les aires protégées le soient réellement. En effet, désigner un espace ne suffit pas pour garantir qu’il produise des effets positifs sur la biodiversité.
Mais comment évaluer l’efficacité des aires protégées ? Intuitivement, on pourrait être tenté de comparer l’état des écosystèmes entre l’intérieur des aires protégées et le reste du territoire. Si les aires protégées sont « efficaces », alors on peut s’attendre à ce que cet état soit meilleur en leur sein.
Le problème, c’est qu’on peut certes considérer qu’une aire protégée n’est efficace que si cette différence existe, mais que la réciproque n’est pas vraie : les aires protégées ne sont jamais disposées au hasard. Des méthodes statistiques s’appuyant sur le suivi dans le temps de zones protégées et non protégées (sites témoins) permettent de s’affranchir de cette limite, mais ne sont pas parfaites pour autant. Il est donc urgent de multiplier les approches pour garantir la robustesse du suivi.
Quand comparer avec les zones non protégées ne suffit pas
Comparer l’intérieur et l’extérieur des aires protégées est nécessaire mais non suffisant. Cela peut paraître paradoxal, mais il y a plusieurs explications à cela :
- d’une part, les aires protégées sont généralement créées pour permettre la conservation d’un patrimoine naturel jugé remarquable, doté par conséquent d’une biodiversité plus riche ou abritant plus d’espèces rares que le reste du territoire. Il est donc logique que, dès leur création, et avant même qu’elles aient produit un effet, les écosystèmes s’y portent mieux qu’ailleurs.
- D’autre part, la création d’une aire protégée génère souvent des conflits avec certaines catégories d’acteurs, notamment économiques, qui s’attendent à ce que leurs activités y soient contraintes. Ces difficultés d’acceptabilité se traduisent par un évitement, lors de la mise en place des aires protégées, des zones à fort niveau d’activités humaines. Il a été démontré que les aires protégées étaient davantage présentes dans les secteurs reculés, ou peu peuplés, comme les régions montagneuses.
Ce second biais se traduit également par une biodiversité moins dégradée au sein des aires protégées dès leur création, renforçant la difficulté à tirer des conclusions d’une simple comparaison dedans/dehors.
À lire aussi : Pour préserver la biodiversité, ne délaissons pas les aires non protégées
Ce que l’évolution des milieux dit de l’efficacité des aires protégées
Comment s’affranchir des biais liés à la localisation des aires protégées pour évaluer leur efficacité ? En sciences expérimentales, cette difficulté se traite avec un dispositif spécifique, appelé BACI, acronyme de Before After Control Impact (soit en français : « avant après témoin traité »).
Le principe est simple : il s’agit non pas de comparer l’état actuel d’un site protégé avec celui d’un site non protégé, mais de suivre l’évolution dans le temps de chacun de ces deux sites, et ce, depuis la création de l’aire protégée.
Ainsi, un site protégé sera considéré comme « efficace » si son évolution depuis sa création est plus favorable que celle du site non protégé, dit « témoin ». Comme il n’y aurait pas de sens à comparer, par exemple, une aire protégée forestière avec un site témoin en plaine céréalière, on fait également en sorte que l’aire protégée suivie et la zone témoin soient aussi similaires que possible. L’objectif est de limiter l’incidence de facteurs d’influence autres que la création et la gestion de l’aire protégée.
En appliquant ce modèle au réseau Natura 2000 en France, il a pu être montré que l’évolution des populations d’oiseaux communs des milieux agricoles était plus favorable dans le réseau qu’au-dehors.
Nous savions déjà, grâce à une précédente étude, que ces populations étaient plus abondantes dans le réseau. Comme expliqué précédemment, cela montrait surtout que les sites Natura 2000 avaient été placés sur des territoires plus riches en oiseaux que la moyenne. Cela constitue d’ailleurs une condition préalable essentielle à ce que ces sites puissent jouer un rôle pour la conservation de ces espèces.
Il est intéressant de remarquer que l’étude mobilisant l’approche BACI pour le réseau Natura 2000 ne concluait pas que les populations d’oiseaux liés aux milieux agricoles augmentaient au sein des sites labellisés Natura 2000. C’est uniquement en comparant avec le reste du territoire, où la chute de ces mêmes populations était vertigineuse sur la période, que l’analyse a permis de conclure à une « efficacité » des sites Natura 2000.
À lire aussi : Protection de la biodiversité : retour sur l’évolution des « aires protégées » dans le monde
Savoir croiser les sources et prendre de la hauteur sur les chiffres
Pour autant, même lorsqu’il mobilise le BACI, ce type d’étude n’est pas exempt de limites. Souvent, on ne dispose pas de données remontant suffisamment loin dans le temps pour bien décrire l’évolution de la biodiversité. Même les données utilisées pour choisir les sites « témoins », qui doivent être similaires aux sites protégés au moment de leur création, sont trop parcellaires et manquent de précision.
Or, les aires protégées françaises sont, pour la plupart, très anciennes. Elles existent souvent depuis plusieurs décennies, parfois une centaine d’années, ce qui complique encore la donne.
Dans ces conditions, on peine à constituer un vrai BACI :
d’abord parce que l’image « avant » ne remonte que rarement à la date de création de la zone protégée et ne s’affranchit donc pas complètement des biais de localisation,
mais aussi parce que le « témoin » n’est que vaguement semblable à l’aire protégée, et cela, à une époque trop récente, pas nécessairement lors de sa création.
Ces difficultés sont difficiles à surmonter. Dans la plupart des cas, l’absence de données historiques environnementales ne peut pas être compensée.
À lire aussi : Les sites « naturels » classés : dépasser l’idée d'une nature musée ?
Ces résultats imparfaits sont-ils pour autant inutiles ? Non. Certes, ils doivent être interprétés avec prudence, mais ils livrent des informations précieuses, par exemple sur un effet plus marqué dans un type de milieu naturel ou d’espace protégé. Ainsi, l’effet de Natura 2000 démontré sur les oiseaux liés aux milieux agricoles n’a pas été observé sur les espèces forestières, ce qui peut indiquer un effort de gestion insuffisant sur ces milieux.
Ils ne constituent donc qu’une partie de l’évaluation et peuvent être utilement complétés avec d’autres approches, notamment qualitatives. Toujours au sein du réseau Natura 2000, de façon contre-intuitive, il a ainsi été mesuré que plus les sites étaient initialement soumis à des pressions humaines susceptibles de les dégrader, moins les moyens mis en place concernant ces pressions étaient importants.
Ce résultat ne présage pas entièrement de l’effet de la politique, mais il donne une information sur ce qui pourrait expliquer qu’il ne soit pas aussi important qu’attendu. Au-delà de la question de l’effet produit, on peut ainsi vérifier la pertinence des efforts de gestion menés dans les aires protégées.
Évaluer l’efficacité des aires protégées est donc difficile. Cet exercice doit composer avec toute la complexité des écosystèmes, mais également celle des sociétés avec lesquelles ils interagissent. Il s’agit pourtant d’un travail indispensable.
Plutôt que de se baser sur un modèle unique, forcément limité, il y aurait tout à gagner à multiplier les approches, les questions, les données et les disciplines scientifiques. C’est en construisant un faisceau d’indices en croisant les sources qu’on peut dessiner l’image la plus juste, mais aussi la plus utile, de l’effet qu’ont les aires protégées sur la biodiversité.
Paul Rouveyrol ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.04.2026 à 11:45
40 ans après la catastrophe nucléaire de Tchernobyl, l’insaisissable responsabilité
Texte intégral (3733 mots)
Le 26 avril 1986, la centrale nucléaire de Tchernobyl bascule dans l’histoire. Qui est responsable de la catastrophe la plus grave de l’histoire du nucléaire civil ? L’examen de la chaîne de responsabilités est complexe, entre défauts techniques et organisationnels et gouvernance politique partagée entre deux ministères. La catastrophe témoigne aussi d’une culture de la sûreté nucléaire bien différente de ce qu’elle est aujourd’hui en Occident.
Il y a quarante ans, à 1 h 23 du matin, le 26 avril 1986, le réacteur numéro 4 de la centrale nucléaire Vladimir-Ilitch-Lénine, située à Tchernobyl, en actuelle Ukraine, explose. Cet évènement représente la catastrophe nucléaire la plus grave de l’histoire nucléaire soviétique et mondiale.
L’accident se produit au cours d’un test de sécurité de l’unité n°4 de la centrale, qui s’emballe alors à plus de 100 fois sa puissance nominale, conduisant à la fusion du cœur du réacteur puis à l’explosion de celui-ci. En cause, une série de défaillances humaines et techniques. La catastrophe prend de court toutes les autorités soviétiques par son ampleur. Après avoir, dans un premier temps, minimisé la gravité de l’accident, celles-ci sont rapidement confrontées à la réalité du désastre.
À ce moment précis, il n’est pas certain que les dirigeants aient pleinement conscience de toutes les conséquences de l’accident. Mais les défauts du complexe nucléaire soviétique, tant en matière de conception que de procédures, étaient connus, en tout cas par certains dirigeants et scientifiques.
Peut-on retracer la chaîne des responsabilités ayant conduit à l’accident ? L’exercice est périlleux : la responsabilité de l’accident repose sur un concours de circonstances, permis par les failles d’un système technique et organisationnel très différent de celui qui structure aujourd’hui la sûreté nucléaire en Europe.
La technologie RBMK, instable par conception
La construction de la centrale nucléaire V.-I.-Lénine à Tchernobyl débute en 1970. Elle aboutit à la mise en service de quatre réacteurs entre 1978 et 1984. En 1986, année de la catastrophe, un cinquième réacteur est encore en cours de construction depuis 1981. La centrale est située dans le nord de l’Ukraine proche de Kiev et de la frontière avec la Biélorussie. Son refroidissement par eau est assuré par la rivière Pripiat, un affluent du Dniepr qui se jette dans la mer Noire.
Les réacteurs de la centrale sont de type RBMK (pour Reaktor Bolshoy Moshchnosti Kanalnyi, soit réacteur de grande puissance à tubes de force, en français) comme environ la moitié du parc nucléaire soviétique à cette période. Il s’agit d’un réacteur refroidi à l’eau et modéré au graphite.
Cette technologie, propre à l’Union soviétique, dispose d’avantages, notamment en termes de maintenance et d’approvisionnement en isotopes, puisqu’il permet de produire du plutonium, utile dans le cadre d’un programme nucléaire militaire. Mais sa conception le rend instable.
En effet, le réacteur RBMK est conçu en faisant appel à un coefficient de vide positif. Il permet de caractériser l’évolution de la réactivité dans le cœur en cas de diminution de la densité du fluide caloporteur, par exemple en cas de fuite. Le coefficient de vide décrit donc la tendance spontanée du réacteur à augmenter sa puissance (coefficient positif), à rester dans un état stable (coefficient nul), ou à diminuer spontanément sa puissance (coefficient négatif, soit l’arrêt progressif de la réaction en chaîne), ce qui est le cas des réacteurs à eau pressurisée français.
De par ce coefficient de vide positif, les réacteurs RBMK sont fondamentalement instables et doivent être régulés grâce à l’action des opérateurs. De ce fait, il existe un risque d’emballement de la réaction en chaîne, pouvant jusqu’à conduire à la fusion du combustible nucléaire, comme cela fut le cas à Tchernobyl. Les ingénieurs soviétiques se devaient donc d’être très soucieux de la stabilité du réacteur.
D’autres contraintes techniques pèsent sur les opérateurs, comme la présence de graphite à l’extrémité des barres de contrôle, qui est inflammable. Ceci augmente la réactivité dans le cœur du réacteur au début de leur insertion, ce qui peut devenir déstabilisant si un grand nombre sont insérés en même temps, comme lors d’un arrêt d’urgence.
Ce n’est pas tout : le bouton AZ5, qui permet de déclencher la procédure d’arrêt d’urgence de la centrale RBMK, met plus de vingt secondes à fonctionner, ce qui accroît encore les risques de perte de contrôle de la réaction en chaîne.
Au sein des centrales RBMK de l’époque, il existait une consigne informelle : ne pas diminuer la puissance du réacteur sous les 700 mégawatts (MW) thermiques de manière prolongée et toujours laisser trente barres de contrôle au minimum dans le cœur du réacteur. Ces consignes ont été outrepassées à Tchernobyl.
À lire aussi : Que sont devenus les réacteurs RBMK ?
En 1975 déjà, des incidents sur une centrale RBMK
Après la catastrophe de Tchernobyl, dans un contexte de réformes politiques, Mikhaïl Gorbatchev, veut encourager la transparence sur la situation. Le 14 mai 1986, lors d’une allocution télévisée, il prend la parole pour rendre compte de la situation sur place, signe fort d’un changement des usages politiques soviétiques.
Suite aux pressions internationales – et en particulier de l’Agence internationale de l’énergie atomique (AIEA) –, le comité central du parti communiste conduit alors, dès juillet 1986, une enquête partiellement publique afin d’identifier les causes des évènements survenus dans le réacteur n°4.
Cette enquête apporte des éléments de culpabilité, toutefois répartis entre les concepteurs, les opérateurs et les régulateurs, tout en démettant une série de responsables hiérarchiques, jusqu’à Efim Slavski, à la tête du ministère de l’ingénierie mécanique semi-lourde (Sredmash), alors partiellement en charge de l’énergie nucléaire, cette responsabilité étant partagée avec le ministre de l’énergie de l’électrification (Minenergo).
À la fin de l’été 1986, un sommet est organisé à Vienne par l’AIEA, où les soviétiques annoncent révéler l’intégralité de la catastrophe pour obtenir une expertise occidentale.
Les scientifiques soviétiques ont alors une consigne de transparence, à rebours de la culture du secret qui prévalait jusqu’alors. Une telle autorisation de divulguer des éléments techniques, tout en préservant l’industrie nucléaire comme élément stratégique au développement soviétique, est inédite pour l’URSS.
La délégation soviétique, dans le rapport qu’elle présente aux experts, pointe quatre facteurs déterminants qui ont conduit à la catastrophe :
des procédures suboptimales,
leur transgression par les opérateurs,
des conséquences radiologiques mal prises en compte,
ces dernières ayant mené à une évacuation tardive de la ville de Pripiat.
À la suite de la conférence, un groupe d’experts de l’AIEA est constitué. Il livre son rapport en septembre 1986. Par la suite, le rapport présenté par la délégation soviétique est classifié, après que certains passages aient été publiés dans la Pravda. Le rapport de l’AIEA y est également publié.
À noter que la technologie des réacteurs de type RBMK avait déjà été remise en cause plus de 10 ans avant la catastrophe. En 1975 déjà, plusieurs incidents étaient survenus sur la centrale de Leningrad, qui avaient alors été étouffés par les responsables locaux de la centrale. On retrouve des problèmes liés à la conception mais aussi à la qualité de la construction et à l’organisation.
Autrement dit : la délégation soviétique présente à la conférence de Vienne, en août 1986, ne peut dissimuler sa connaissance des problèmes soulevés par l’AIEA. Si la dimension technique est essentielle, couplée à l’enchaînement improbable des évènements, les experts de l’AIEA concluent que les principales causes de l’accident sont humaines et organisationnelles, même s’ils refusent dans le même temps de considérer qu’elles relèvent seulement de l’erreur humaine.
Culture du secret, absence de redondance… une approche différente de la sûreté nucléaire
Pour comprendre la catastrophe, il faut revenir sur la vision qu’a alors le système politique soviétique de la sûreté nucléaire.
La culture du secret, héritée du programme nucléaire militaire soviétique, n’a pas permis de récolter, comme ailleurs, les fruits des retours d’expérience d’incidents nucléaires. Au contraire, elle a créé une fracture importante dans la perception du risque entre les concepteurs et les opérateurs des centrales.
Ces derniers dépendent d’ailleurs de deux ministères distincts : les concepteurs des centrales dépendent du ministère de l’ingénierie mécanique semi-lourde (Sredmash) et les opérateurs du ministère de l’énergie et de l’électrification (Minenergo).
La culture du secret concerne surtout le premier (Sredmash), qui est l’héritier du programme nucléaire militaire. La rétention d’informations y est forte vis-à-vis du Minenergo. Or, l’industrie nucléaire soviétique s’est bâtie depuis les années 1950-1960 autour de la relation ambivalente de ces deux ministères, dont les chevauchements de compétences sont nombreux.
Le principe de redondance (qui consiste à doubler, voire tripler ou quadrupler les systèmes de sûreté pour faire face aux cas de dysfonctionnement) est globalement absent des centrales nucléaires soviétiques, tandis que de l’autre côté du rideau de fer, il en est une composante majeure.
La conception soviétique de la centrale nucléaire doit enfin être vue comme un système sociotechnique. De son élaboration à sa mise en œuvre opérationnelle, elle implique des méthodes de gestion très différentes de celles qui valent en Occident. Le facteur humain y est perçu comme une redondance dans le système de sûreté nucléaire permettant de pallier, grâce à l’existence de spécialistes à tous les échelons, les potentiels manquements de chacun d’entre eux.
Dans le même temps, la latitude d’intervention et de prise de décision laissée aux opérateurs des centrales est en réalité réduite par un carcan administratif rigide et contradictoire, conduisant à une relative impuissance de ces derniers.
À lire aussi : Three Mile Island, Tchernobyl, Fukushima : le rôle des accidents dans la gouvernance nucléaire
Les corrections apportées aux centrales RBMK
À la suite de la catastrophe de 1986, des améliorations palliatives sont apportées au design des réacteurs RBMK.
D’abord pour réduire les effets du coefficient de vide, qui reste toutefois toujours positif à l’issue de ces mesures.
Cela passe par l’addition entre 80 et 90 barres de contrôle inamovibles, qui remplacent une partie des crayons de combustible.
La consigne de laisser, au minimum, 26 à 30 barres de contrôle dans le cœur est relevée entre 43 et 48 barres.
Enfin le remplacement progressif du combustible est décidé pour augmenter sa qualité : il passe d’un enrichissement de 2 % à 2,4 % d’uranium.
Le système d’arrêt d’urgence est également modifié, avec un système d’arrêt rapide comprenant 24 nouvelles barres de contrôle et leur reconception.
De surcroît, de nouveaux systèmes d’alerte pour déclencher plus rapidement la procédure d’arrêt d’urgence sont installés. Le système de dépressurisation de la vapeur est aussi revu pour augmenter ses capacités de réduction de pression par condensation et évacuation.
Quarante ans après cette catastrophe, la Russie demeure le seul État à faire encore fonctionner des réacteurs RBMK, mais ce ne fut pas toujours le cas. L’Ukraine a interrompu la production électrique du dernier réacteur de Tchernobyl en l’an 2000, tandis que la Lituanie a fermé son dernier réacteur RBMK de la centrale d’Ignalina en 2009, dans le cadre de son adhésion à l’Union européenne.
À lire aussi : Plus de trois décennies après Tchernobyl, la Russie joue crânement la carte nucléaire
Weidmann Antoine a reçu des financements de l'Université Bordeaux Montaigne.