12.03.2026 à 16:55
Peut-on faire confiance aux sondages politiques ? Un statisticien nous donne les clés pour les décrypter
Texte intégral (2158 mots)
En vue de l’élection présidentielle de 2027, nous allons être matraqués de sondages. Quelle confiance accorder à ces chiffres ? Pour le comprendre, il faut se pencher sur les statistiques, déterminer comment elles sont construites et déterminer les biais et les incertitudes.
Le dimanche 7 juillet 2024, le verdict des urnes a balayé des semaines de « certitudes statistiques ». Alors que les instituts plaçaient le Rassemblement national (RN) et ses alliés en tête avec une fourchette de 170 à 230 sièges, les résultats définitifs ont figé le compteur à 143 sièges, reléguant le parti à la troisième place.
Comment un appareil statistique aussi sophistiqué a-t-il pu manquer la physionomie de l’Assemblée à ce point ? La réponse ne réside pas seulement dans de « mauvais chiffres », mais dans un décalage structurel entre ce que la loi encadre, ce que la statistique permet, et ce que le public entend.
Le « sondage » contrôlé contre la « projection » libre
Depuis la loi no 2016-508 du 25 avril 2016, la Commission des sondages est chargée de veiller au respect de la réglementation. Elle s’est dotée d’un site donnant accès aux notices explicatives de l’ensemble des sondages électoraux publiés, et publie régulièrement des communiqués. Le 18 juin 2024, à l’occasion des élections législatives, la commission alerte sur une distinction juridique fondamentale qui échappe souvent au grand public :
Le sondage (contrôlé) : une enquête statistique sur un échantillon représentatif de l’ensemble du territoire hexagonal. La commission exerce ici un contrôle systématique sur la méthode de sélection, les quotas et les redressements.
La projection en sièges (non contrôlée) : c’est un exercice de « traduction » du vote national en sièges parlementaires. La commission est formelle : elle n’exerce aucun contrôle sur ces chiffres et recommande la prudence.
Pourquoi ? Parce que la projection est tributaire de 577 réalités locales : offre politique spécifique, notoriété des candidats et, surtout, les configurations de seconds tours (triangulaires, désistements) qui dépendent du taux de participation. En somme, la loi encadre la « matière première » (l’intention de vote), mais laisse le « produit fini » (la projection en sièges) dans une zone grise méthodologique.
Le mirage des marges d’erreur
L’un des plus grands malentendus réside dans l’affichage des marges d’erreur, perçues à tort comme une mesure globale de la fiabilité. Depuis la loi de 2016, chaque première publication d’un sondage doit obligatoirement indiquer sa marge d’incertitude. Pourtant, la quasi-totalité des instituts français utilise la méthode des quotas, une technique sur laquelle la notion mathématique de marge d’erreur n’a techniquement « pas de sens », comme les instituts l’admettaient eux-mêmes devant le Sénat.
En « théorie des sondages », on distingue explicitement :
les sondages « aléatoires », où chaque individu de la population cible du sondage a une probabilité connue et non nulle de faire partie de l’échantillon de répondants, et on se sert de ces probabilités pour établir des marges d’erreur. Ici la « représentativité » est, par construction, indiscutable.
les sondages par « quotas » où il s’agit de contrôler que la structure de l’échantillon de répondants au sondage est similaire à celle de la population cible (essentiellement : sexe, âge, catégorie socioprofessionnelle, région de résidence et catégorie d’agglomération). Ici, la « représentativité » est seulement partiellement contrôlée, et la probabilité de chaque individu, d’appartenir à l’échantillon, est inconnue.
Pour comprendre l’origine de cette ambiguïté sur les marges d’erreur, il faut remonter au rapport no 54 du Sénat de 2010 qui a entériné un glissement sémantique majeur en estimant qu’il était « tout à fait possible » de considérer que les quotas génèrent des incertitudes « similaires » à la méthode aléatoire.
Or, Pascal Ardilly (inspecteur général de l’Insee et auteur de l’incontournable livre les Techniques de sondage), auditionné par le Sénat, précisait explicitement que faire l’hypothèse de marges d’erreur similaires pour les résultats d’un sondage, qu’il soit issu de la méthode des quotas ou de la méthode aléatoire, relevait d’une hypothèse très forte et non vérifiée d’absence de biais pour la méthode des quotas.
Un glissement analogue apparaît avec l’usage tronqué de la notion d’« échantillonnage contrôlé » attribuée à Jerzy Neyman (considéré comme l’un des fondateurs de la statistique moderne).
En omettant le mot « aléatoire » dans l’expression originelle « échantillonnage aléatoire contrôlé », on fait comme si le contrôle des quotas pouvait se substituer au hasard. Pourtant, scientifiquement, le mot « aléatoire » change tout : le « contrôlé » n’est pas une ambiance mais un hasard encadré par un plan de sélection rigoureux qui permet de construire mathématiquement des marges d’erreur.
C’est ce qui rend la notion de « représentativité » si exigeante : elle ne peut être revendiquée que si les marges d’erreur découlent scientifiquement du plan de sélection, ce que la méthode des quotas ne peut pas invoquer, en toute généralité. En reprenant une formulation de compromis – « les marges d’erreur… le cas échéant par référence à la méthode aléatoire » – la loi a figé des mots statistiques sans en figer les conditions de validité, laissant croire au public que la marge d’erreur affichée (en général, seulement lors de la première publication) est l’assurance tous risques d’un chiffre qui se veut destin.
Quand la convergence fabrique l’erreur collective
En science, il est souvent rassurant de constater que diverses études donnent des résultats « compatibles ». Malheureusement, il peut s’agir d’une hallucination collective !
En 2024, les principaux instituts de sondage dont les travaux étaient relayés dans les médias, donnaient, quelques jours avant le second tour, des projections très éloignées des résultats définitifs.
Ce phénomène est ce que j’appelle une « communauté de biais ». Lorsque plusieurs instituts utilisent des méthodes similaires et des redressements basés sur les mêmes hypothèses (comme le report de voix entre blocs), une erreur commune peut se produire. La stabilité des chiffres n’est alors pas un gage de fiabilité, mais le symptôme d’une confiance collective dans une erreur collective.
La présidentielle : un cadre « pur » qui n’élimine pas les biais
Dans le cadre de l’élection présidentielle, le dispositif semble pourtant idéal : on sort des incertitudes liées aux 577 scrutins locaux pour revenir au « sondage pur », tel que défini et strictement contrôlé par la commission. Cependant, il est impératif de comprendre que le contrôle réglementaire assure une transparence démocratique, mais ne garantit en rien une « vérité » statistique. Le malentendu principal réside dans la confusion entre la marge d’erreur théorique et la fiabilité globale.
Lors de l’élection présidentielle de 2012, par exemple, pour une intention de vote de 25 %, les marges d’erreur « théoriques » affichées étaient de l’ordre de 1,8 à 2,7 points (selon le nombre de répondants). Après analyse statistique des écarts des résultats de tous les candidats entre le scrutin et les dernières estimations, elles se situaient en réalité entre 4 et 6 points. Pour exemple, un candidat crédité de 25 % d’intention de vote était essentiellement prévu entre 23 % et 27 % alors que la précision sincère du sondage se situait entre 21 % et 29 %.
Ce décalage s’explique par la nature même de l’erreur totale, qui n’est pas qu’une simple variance (un flou lié à la taille de l’échantillon et sa variabilité), mais peut aussi être un biais (un décalage structurel). Ce biais est alimenté par la vie réelle des sondages : non-réponses, indécisions, modes de collecte ou ajustements méthodologiques plus ou moins assumés.
Lorsque tous les acteurs utilisent des méthodes de redressement et des panels « similaires » (électeurs recrutés essentiellement sur Internet et qui répondent régulièrement aux sondages qui leur sont soumis), ils peuvent produire une histoire cohérente… mais erronée dans la même direction.
Ce constat impose, il me semble, une véritable « hygiène du commentaire » : il faut cesser de considérer les « fourchettes » affichées (lorsqu’elles le sont) comme le curseur permettant de décider si une campagne « stagne », « bouge » ou « bascule ».
2027 : Vers une maturité de l’information électorale ?
À l’approche du double scrutin de 2027 – l’élection présidentielle suivie d’élections législatives – l’enjeu n’est pas seulement de savoir qui « gagnera », mais de définir comment nous acceptons d’être informés (voire influencés). La séquence de 2024 a servi de rappel brutal : un appareil « statistique », aussi sophistiqué soit-il, peut totalement manquer la physionomie d’une assemblée si l’on confond l’intention de vote nationale avec la projection locale en sièges.
Pour l’élection présidentielle de 2027, le défi sera de ne pas se laisser enfermer dans le confort d’un chiffre unique. Le cadre sera « pur » et contrôlé par la Commission des sondages, mais l’expérience de 2012 (et en réalité celle de bien d’autres) nous rappelle qu’une marge d’erreur « théorique » de deux points peut masquer une imprécision réelle de plus de cinq points une fois les biais potentiels intégrés. Il est temps que les médias et le public adoptent un « pacte de sobriété » : privilégier les fourchettes larges et admettre qu’à trois points (voire cinq points) d’écart, rien n’est clair.
Concernant les législatives qui suivront, la vigilance devra être redoublée sur les projections en sièges. Comme l’a souligné la Commission des sondages, ces exercices ne bénéficient d’aucun encadrement méthodologique strict et dépendent de paramètres locaux (offres politiques, désistements) qu’un sondage national ne peut saisir. Continuer à présenter ces projections comme des résultats scientifiques et fiables, c’est entretenir une « confiance collective dans une erreur collective ».
En définitive, mon propos appelle une alliance entre culture statistique et culture civique. La loi de 2016 a ouvert la « boîte noire » en imposant la transparence des notices. Il appartient désormais aux acteurs du débat public de transformer cette transparence en une véritable « hygiène du commentaire ».
Un chiffre n’est pas un destin, c’est une mesure ; et en démocratie, le destin n’appartient qu’au vote, une fois les hypothèses, les méthodes, les estimations et les projections remises à leur juste place.
Et pour les élections municipales ? Dans les grandes villes (Paris, Lyon, Marseille…), les instituts s’appuient le plus souvent sur leurs panels, puis filtrent les répondants pour ne retenir que les personnes inscrites sur les listes électorales de la commune (et, le cas échéant, de l’arrondissement/secteur). La méthode des quotas et les redressements restent les principaux outils statistiques mobilisés pour estimer les intentions de vote. Restons vigilants !
Léo Gerville-Réache ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.03.2026 à 16:49
Détecter les images générées par IA : la proposition des métadonnées C2PA
Texte intégral (1955 mots)
Il y a encore quelques années, on s’amusait des photos totalement fantaisistes générées par l’IA mais, aujourd’hui, il devient de plus en plus complexe de détecter le vrai du faux à l’œil nu. Une idée pourrait être de marquer les photos générées par IA. Cette solution pourrait être efficace, mais connaît encore de nombreuses limites.
En 2024, les hypertrucages vidéo (ou deepfakes) ont rejoint la panoplie des escrocs en imitant le visage et la voix d’un dirigeant pour mieux tromper la vigilance de ses employés. Ils s’invitent désormais en politique. Catherine Connolly, candidate à la présidentielle irlandaise, découvre avec stupeur une vidéo virale où elle annonce son retrait de la campagne. L’intelligence artificielle (IA) se prête aux fantaisies des partisans du premier ministre hongrois Viktor Orban pour mieux discréditer Péter Magyar, son principal opposant aux législatives.
Détecter l’artificialité d’une image ou d’une vidéo est devenu un enjeu démocratique et une urgence. Menée par les Gafam et la BBC, la coalition internationale C2PA, composée d’entreprises de technologies, de groupes de presse et de médias, propose un modèle de métadonnées permettant d’identifier la nature et l’origine des contenus du Web.
Bâtir la confiance à l’ère de l’IA
Les premières promptographies (images générées par IA) étaient célèbres pour leurs aberrations, mains à six doigts ou trombones aussi grands que des gratte-ciels. Mais, comme l’affirme le photographe Niels Ackermann en comparant les performances des générateurs d’images entre 2022 et 2024 : « Il y a deux ans, on ricanait encore en comptant les doigts en trop ou les dents dans les bouches […]. C’est fini ! »
Les progrès de DALL-E, de Midjourney et de leurs émules sont rapides, et il devient presque impossible de distinguer leurs productions des photographies à l’œil nu. Dans le monde de la vidéo, les visages clonés bougent presque comme les originaux, les mouvements de lèvres suivent les textes qu’on leur soumet, le clonage vocal imite les timbres, rythmes et intonations. Les portes s’ouvrent pour de stimulantes créations, mais aussi pour la production de deepfakes toujours plus sophistiqués.
La situation est source de malaise pour les usagers du Web qui redoutent les fake news, tandis que les entreprises de presse et de communication craignent de perdre la confiance de leurs usagers ou de leurs clients si des images artificielles se glissent dans leurs productions.
« Près de 9 consommateurs sur 10 dans le monde veulent savoir si une image a été créée à l’aide de l’IA », c’est ce qu’annonce le rapport « Bâtir la confiance à l’ère de l’IA », consolidé en mai 2024, par l’agence d’images Getty à partir des données collectées auprès des milliers de consommateurs de tous pays. Il rejoint la conclusion de l’enquête Ifop Opinion de mars 2024 : « Neuf Français sur dix seraient favorables à l’imposition d’une mention indiquant l’origine artificielle du contenu sur les deepfakes. »
Le règlement européen sur l’intelligence artificielle (AI Act) entre en application en août 2026. Il consacre son chapitre IV à l’obligation de transparence, c’est-à-dire l’obligation pour les fournisseurs et déployeurs de systèmes de signaler les contenus produits ou modifiés par IA (article 50, items 2 et 4). Il énonce également sous quelle forme cette information doit être disponible en parlant de résultats « marqués dans un format lisible par machine » et d’informations « fournies aux personnes physiques concernées de manière claire et distincte au plus tard au moment de la première interaction ou de la première exposition » (article 50, item 5). L’information doit donc, d’une part, pouvoir être lue et affichée par des logiciels et, d’autre part, être lisible par un humain dès l’affichage du contenu concerné.
En 2021, six entreprises du monde des médias, de l’électronique et de l’authentification des documents numériques (Adobe, Arm, la BBC, Intel, Microsoft et Truepic) fondent la Coalition for Content Provenance and Authenticity (C2PA, Coalition pour la provenance et l’authenticité des contenus). Leur objectif est de rétablir la confiance des marchés dans l’IA en produisant une méthode commune de marquage des fichiers numériques. C2PA promet aux usagers d’afficher la manière dont la photo, la vidéo, le son ou le texte qu’ils consultent a été produit et à quelle date, avec quel logiciel il a été modifié par la suite et la nature des modifications apportées.
Le principe se base sur des métadonnées, c’est-à-dire des informations de toutes sortes concernant un contenu. Par exemple, pour une photo numérique : la date, l’auteur et le lieu d’une prise de vue, le type d’appareil photo utilisé, le nom et la version du logiciel de retouche. Elles sont produites par les applications des éditeurs de contenus, les caméras ou les appareils photo, qu’ils s’appuient ou non sur l’IA. Ces métadonnées, intégrées aux fichiers, sont complétées à chaque nouvelle modification du contenu, même si elle est effectuée avec un autre logiciel. La solution de C2PA repose sur les Content Credentials, un format de métadonnées standard et ouvert, dont les spécifications sont publiées sur le site C2pa.org. Pour résister aux falsifications, ces données sont cryptées par un système de signature numérique qui garantit leur origine.
La coalition est en marche
Mais pour être efficace, le système doit être adopté par le plus grand nombre possible d’éditeurs et de producteurs de contenus afin de marginaliser les fichiers dépourvus de ces métadonnées d’authentification (un peu comme un consommateur qui se détournerait d’un produit qui n’affiche pas de Nutri-Score). Une fois largement diffusés, les Content Credentials agiront aussi comme un label de transparence.
L’enjeu est d’attirer dans la coalition le plus grand nombre d’entreprises influentes, et les résultats sont prometteurs. En 2022, un an après sa création, C2PA compte 200 membres internationaux. En février 2024, Meta, OpenAI et Google rejoignent la coalition… et en intègrent le comité directeur. Du côté des groupes de presse et de communication, Publicis, Springer Nature, Reuters, la RAI, Die Zeit ou The Wallstreet Journal ont suivi la BBC et, fin 2025, France Télévision a annoncé avoir lancé ses essais d’intégration du standard pour l’authentification de ses journaux. En 2025, C2PA affiche une communauté de plus 5 000 membres.
Les premières applications de Content Credentials sont sur le marché
Adobe poursuit depuis 2024 le déploiement des Content Credentials dans ses applications de traitement d’image, dont le célèbre Photoshop et le générateur « du texte à l’image » Firefly. En novembre 2025, OpenAI annonce que les informations d’identification du contenu sont automatiquement appliquées à toutes les images générées par DALL-E 3, GPT-image-1 et le modèle génératif d’audio et de vidéo SORA 2.
La guerre des « outils d’inspection » est lancée. En 2026, dans les smartphones Pixel10 sous Android 8, l’application Google Photo affiche le « Content Credentials pin », « Cr », qui signale la présence des métadonnées d’authentification dans les images téléchargées. La plateforme Adobe Content Authenticity est fonctionnelle en version bêta. Une extension de vérification Lense exclusivement destinée au navigateur Chrome est disponible sur les plates-formes de téléchargement.
Au début de l’année 2026, les tests que j’ai effectués pour illustrer cet article ont été plutôt laborieux : les images comportant les précieuses métadonnées sont encore rares sur le Web. Il faut donc générer une image de test avec DALL-E 3 (intégré à ChatGPT), lequel ne produit les métadonnées C2PA qu’à la condition qu’on le lui demande clairement. Mais ensuite l’outil d’inspection d’Adobe affiche vaillamment les métadonnées et détecte la signature d’Open AI. En revanche, le test effectué avec l’extension Lense pour Chrome a échoué.
Une initiative non dénuée de risques
Transparence, authenticité et confiance sont les maîtres mots des membres de la coalition C2PA. Pour prometteuse qu’elle soit, l’initiative soulève quelques critiques, tout d’abord techniques : les métadonnées peuvent disparaître lors des manipulations de l’image, c’est un point de fragilité avoué par les membres. On peut craindre également que des fraudeurs simulent le comportement des outils d’inspection pour authentifier abusivement des « fake », ou piratent les métadonnées d’un contenu pour les intégrer à un autre.
Le World Privacy Forum alerte sur le risque d’atteintes à la vie privée. La production non contrôlable des métadonnées peut conduire à diffuser des informations contre le gré de l’auteur du contenu : souhaite-t-il vraiment que ses photos, en circulant sur le Web, indiquent à tous le lieu où il se trouvait au moment de la prise de vue ? D’autant que le recoupement de ces données de provenance accumulées sur un temps long peut constituer un traçage de ses activités. La possibilité pour les éditeurs d’ajouter des métadonnées visant la désignation de groupes militants ou discriminés est également à craindre.
La composition même de la coalition, composée d’entreprises commerciale et gouvernée par les Gafam, constitue un outil d’influence et d’orientation des marchés considérable. La coalition fonctionne dans un entre-soi en proposant les outils sur leurs propres suites logicielles ou plateformes. La complexité d’implémentation du standard peut empêcher les plus petits acteurs de produire les métadonnées. L’effet de label de confiance du Content Credentials pin détournera alors le public de leurs produits et renforcera le monopole des grands groupes. Mais n’est-ce pas l’objectif caché de la coalition ?
Claire Scopsi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.03.2026 à 17:04
Quinze ans après l’accident nucléaire de Fukushima, les leçons d’une crise environnementale et sociale
Texte intégral (2570 mots)
En mars 2011, la catastrophe de Fukushima bouleversait le Japon. Quinze ans plus tard, les opérations de décontamination ont progressé, mais le retour à la normale reste incertain. Comment fixer le curseur de ce que serait un niveau de décontamination suffisant ? Les populations déplacées reviennent-elles vivre dans les villages évacués ? L’enjeu n’est plus seulement environnemental, il est également social, et révèle des fractures territoriales profondes.
C’est une date désormais bien ancrée dans les mémoires. Le 11 mars 2011, un tsunami suivi d’un séisme a dévasté 600 kilomètres de côtes au nord-est du Japon. Quelques jours plus tard, plusieurs explosions ont soufflé les enceintes de confinement de trois des six réacteurs de la centrale n°1 de la préfecture de Fukushima.
Les émissions radioactives qui s’ensuivirent furent rabattues par la neige sur les sols de la région, formant un panache radioactif qui a rendu nécessaire l’évacuation de plus de 160 000 habitants, selon les chiffres officiels.
Où en sont aujourd’hui les opérations de décontamination ? Quel bilan retenir de la gestion de la crise environnementale et sociale par les autorités japonaises : a-t-elle fonctionné ? Les habitants déplacés ont-ils pu revenir chez eux ? État des lieux, quinze ans après la catastrophe.
De quelle radioactivité parle-t-on ?
Parmi les produits radioactifs libérés lors de l’explosion de l’enceinte des réacteurs et qui subsistent sur le long terme dans l’environnement après leur émission, on retrouvait principalement deux isotopes radioactifs du césium :
le césium 134, dont la demi-vie, c’est-à-dire la durée nécessaire pour que la moitié des atomes se désintègrent, est de deux ans,
et le césium 137, dont la demi-vie est de trente ans.
On estime généralement qu’il faut 7 à 10 demi-vies pour qu’un isotope radioactif ait suffisamment décru pour que sa présence soit devenue négligeable, autrement dit, pour que la radioactivité résiduelle ne soit plus que de 1 à 7 % de son niveau initial.
C’est déjà quasiment le cas pour le césium 134, cette durée étant, pour ce radioisotope, de quatorze à vingt ans. Toutefois, il faudra encore patienter pour ce qui est du césium 137, le temps pour atteindre cet état étant de deux cent dix à trois cents ans. C’est sur ce dernier que se concentrent désormais toutes les attentions.
Le problème ? Le césium radioactif se fixe presque de façon presque irréversible sur les argiles des sols. Seule l’action humaine peut l’en déloger.
En 2011, la surface du territoire japonais la plus contaminée par le césium 137 – c'est-à-dire susceptible d’être décontaminée au vu des débits de dose radioactifs significatifs (supérieurs à 2 millisieverts par an) auxquels les habitants étaient à l’époque exposés– couvrait une surface comparable à celle de la Corse, soit environ 9 000 kilomètres carrés.
À lire aussi : Bombe atomique et accident nucléaire : voici leurs effets biologiques respectifs
Une politique de décontamination efficace mais partielle
Dans la région de Fukushima, où les paysages sont montagneux et majoritairement recouverts de forêts, les autorités japonaises ont mis en œuvre une vaste stratégie de décontamination. Celle-ci visait à décaper la surface des rizières et des autres sols cultivés situés dans les fonds de vallées et ceux des zones résidentielles.
Ces opérations très coûteuses – l’ensemble des coûts de remédiation, incluant la décontamination, était estimé par la Cour des comptes japonaise à 44 milliards d’euros en 2023 – ont permis de faire baisser les concentrations de césium 137 de 80 % en moyenne dans les sols concernés par la décontamination.
Dans les rivières qui drainent les territoires contaminés, les niveaux de radioactivité des sédiments qui y transitent ont également fortement baissé. Cette baisse est désormais d’environ 90 %, si on compare les niveaux de césium 137 mesurés en 2011 et dix ans plus tard.
Depuis lors, ces niveaux restent stables. Ceci peut s’expliquer par l’apport pérenne de radioactivité des forêts, qui n’ont pas été décontaminées. En effet, celles-ci couvrent 75 % de la surface de la zone affectée par le panache radioactif.
Les barrages de la région qui sont utilisés pour irriguer les rizières de la plaine côtière stockent d’ailleurs une quantité importante de sédiments radioactifs. Dans certaines conditions, le césium radioactif peut ainsi être remobilisé dans la colonne d’eau, et il peut alors être réabsorbé par les organismes vivants, par exemple les poissons.
À lire aussi : Fukushima : 12 ans après l’accident, une décontamination des sols au bilan mitigé
La déforestation, une prochaine étape qui interroge
Plus d’une décennie après l’accident, le césium radioactif retombé sur les forêts et intercepté par la canopée des arbres a été transféré dans la partie minérale des sols. Depuis le sol, une partie de ce césium peut alors être réabsorbée par les arbres et les plantes par l’intermédiaire des racines, ce qui rend impossible la commercialisation du bois dont la teneur en césium dépasse la limite autorisée.
Ces valeurs limites sont également souvent dépassées dans les champignons, le gibier et les poissons des rivières qui traversent ces forêts. Les autorités évoquent donc désormais la possibilité de couper les forêts afin d’achever la décontamination.
Pourtant, cette option interroge : les forêts se trouvent en effet sur les versants les plus pentus et l’érosion que la coupe des arbres engendrerait pourrait être massive, surtout en cas de typhon. Comme lors des événements cévenols en France, ces épisodes pluvieux intenses généreraient glissements de terrain, crues et débordements.
Ils occasionnent au passage une recontamination de certaines zones, en bas de versants et dans les vallées, qui avaient pourtant déjà été décontaminées à grands frais il y a quelques années. À ce risque, viennent s’ajouter la destruction des écosystèmes, la dégradation de la biodiversité et la destruction des habitats de nombreuses espèces.
En plus de la reconstruction et de la gestion des forêts, un autre problème se pose pour les autorités japonaises. Il s’agit de la redistribution sur le territoire japonais des terres issues de la décontamination, jusqu’ici stockées autour de la centrale, afin de rendre les terrains de stockage à leur propriétaire d’ici 2045.
Reconstruire les villes fantômes, mais avec quels habitants ?
Reste l’enjeu politique du retour des habitants dans les zones évacuées. Celles-ci concernaient 12 communes, dont certaines parties ont été progressivement rouvertes à l’habitat depuis 2017.
Sept zones de reconstruction prioritaires ont été délimitées dans la zone dite « difficile au retour », qui comprend les zones les plus contaminées après l’accident. La levée de l’ordre d’évacuation pour ces communes a engendré une suspension des soutiens financiers jusque là octroyés aux habitants déplacés, afin de les inciter au retour. Mais contrairement à ce qui était prévu par les autorités, 80 % des anciens habitants de ces communes ont exprimé leur intention de ne pas rentrer.
Pendant longtemps, la contamination encore élevée présente dans l’environnement leur a donné raison. Aujourd’hui toutefois, bien que des hotspots de contamination soient toujours observés, c’est la destruction des anciens lieux de vie qui en est la cause.
La reconstruction s’accompagne de la destruction de villages entiers, y compris des bâtiments datant parfois de plus d’un siècle. Les politiques de décontamination ont profondément modifié le paysage par la coupe des arbres ou l’arasement de montagnes. En outre, les autres membres de la famille ou les anciens voisins ont déménagé. En somme, ce ne sont pas seulement des villages et des lieux de vie qui ont été détruits, mais des communautés entières.
À ce défi déjà colossal vient s’ajouter l’absence des services territoriaux dans ces régions, et principalement du secteur hospitalier, qui fait cruellement défaut à une population vieillissante.
Enfin, quinze ans après, certains résidents sont décédés, alors que d’autres ont tout simplement refait leur vie ailleurs.
Attirer de nouvelles populations
Face à ce constat, le gouvernement japonais a décidé de financer le retour de nouvelles populations, pour lesquelles des villes nouvelles sont construites, aux dépens de la culture originelle des lieux.
Les nouveaux habitants se voient ainsi proposer des pavillons ou appartements dans des lotissements de ville nouvelle, avec les caractéristiques des espaces produits par la ville globale : homogénéisation des espaces, matériaux de construction légers, artificialisation des sols, en somme, une perte d’identité des lieux.
Pour ce faire, les autorités jouent la carte de l’incitation financière. L’habitat y est non seulement quasiment gratuit, mais chaque ménage reçoit également une somme d’argent conséquente pour venir habiter dans l’ancienne zone évacuée. À ce soutien financier s’ajoute un revenu complémentaire si les nouveaux venus sont capables de justifier d’un emploi dans la zone.
Outre la pollution potentielle, cette politique (construction de villes nouvelles à l’emplacement des anciens villages et implantation de populations venues d’ailleurs) conduit à l’effacement de l’histoire de villages séculaires. De fait, elle ne rencontre pas, pour l’instant, le succès escompté. La principale commune de la zone évacuée, Namie, compte aujourd’hui une population qui ne représente que 15 % de celle qui y vivait avant l’accident nucléaire. De même, la commune d’Iitate plafonne à 33 %, 23 % pour celle de Tomioka, 9 % pour celle d’Okuma et 3 % pour celle de Futaba. Ces niveaux de populations sont trop faibles pour faire tourner convenablement une économie locale.
Par ailleurs, les nouveaux habitants correspondent principalement à des personnes qui se trouvaient dans des situations de vulnérabilité sociale importante en provenance de différentes régions du Japon. Elles se retrouvent ainsi regroupées dans ces nouveaux quartiers.
Quelles seront les conséquences d’une telle ségrégation ? L’avenir le dira. Ces éléments montrent en tout cas que les traces les plus durables laissées par l’accident nucléaire de 2011 à Fukushima ne seront pas seulement d’ordre environnemental : elles seront aussi sociales.
Ces sujets, ainsi que le démantèlement total de la centrale, pour lequel la durée nécessaire est estimée à quarante ans par le gouvernement japonais, continue de faire l’objet de recherches interdisciplinaires, telles que celle que nous menons avec le laboratoire international MITATE Lab (CNRS, CEA, Université de Fukushima).
À lire aussi : Three Mile Island, Tchernobyl, Fukushima : le rôle des accidents dans la gouvernance nucléaire
Olivier Evrard a reçu des financements de l'ANR (TOFU_ANR-11-JAPN-0001), des Investissements d'Avenir de l'Etat français (AMORAD_11-RSNR-0002), du CNRS (IRP et IRL MITATE, NEEDS, EC2CO) et du CEA (via des financements de thèse notamment) pour mener ses recherches à Fukushima depuis 2011.
Cécile Asanuma-Brice, chercheur CNRS, est directrice du Laboratoire international Mitate lab. Post-Fukushima studies. Elle a reçu des financements divers depuis 2011 pour mener ses travaux pluridisciplnaire sur la gestion de la catastrophe nucléaire (ANR, NEEDS, PEPS-CNRS, etc.).