12.03.2026 à 16:53
Héloïse Nez, Professeure en sociologie, LIED/LCSP, Université Paris Cité
David Hamou, Docteur en sociologie de l'Université Paris-Nanterre, Universidade de Brasília (UnB)
En Espagne, des coalitions « municipalistes » issues des mouvements sociaux ont gouverné de nombreuses villes entre 2015 et 2023. Alors que les « listes participatives et citoyennes » se multiplient en France à la veille des élections municipales de mars 2026, que retenir de ces expériences ? Les cas de Madrid et Barcelone peuvent-ils constituer une source d’apprentissage pour ce mouvement en expansion ?
Les listes citoyennes revendiquent de s’affranchir des partis, en élisant des non-professionnels de la politique, afin de favoriser la participation et renouveler la démocratie à l’échelle locale. La coopérative Fréquence Commune, qui les accompagne, dénombre près de 700 « listes citoyennes et participatives » aux élections municipales de 2026, un chiffre en nette augmentation par rapport à 2020.
Si ce mouvement citoyen s’étend en France, des précédents existent ailleurs. C’est le cas de l’Espagne, où des coalitions dites « municipalistes » ont remporté de nombreuses grandes villes en 2015, et une poignée ont continué à gouverner entre 2019 et 2023. Quels sont les apprentissages de ces expériences qui continuent d’être une source d’inspiration, en France et ailleurs ? Plusieurs publications récentes dressent un bilan du municipalisme espagnol, en analysant à la fois le contenu des politiques adoptées et le renouvellement des manières de faire de la politique.
Les cas de Madrid et Barcelone sont particulièrement riches d’enseignements. Les deux plus grandes villes d’Espagne ont vu des coalitions municipalistes arriver au pouvoir en 2015 et y rester jusqu’en 2019 pour Madrid et 2023 pour Barcelone. Leur ambition affichée était de déborder les partis traditionnels, d’approfondir la démocratie locale, de renouveler les politiques publiques et de transformer les mairies de l’intérieur. Des différences ont également traversé ces deux expériences, autour de la conception de la participation, des liens avec les mouvements sociaux et de la dimension sociale des politiques menées.
Des dispositifs participatifs ont été mis en place dans les deux villes, pour associer les habitants à l’élaboration des politiques municipales. Si la participation présentielle et associative a davantage été promue à Barcelone, la participation numérique et individuelle a été privilégiée à Madrid. Les différents modèles participatifs adoptés par ces deux villes s’expliquent tant par des facteurs contextuels (de nombreux dispositifs participatifs étant déjà en place à Barcelone contrairement à Madrid) que par l’implantation des mouvements sociaux (avec une influence plus forte des Indignés à Madrid et des associations de quartier à Barcelone) et les trajectoires individuelles des élus à la participation.
Dans la capitale, plusieurs processus de démocratie directe ont été lancés sur la plateforme numérique Decide Madrid, comme les référendums d’initiative citoyenne inspirés des votations citoyennes suisses. Tous les résidents ayant plus de 16 ans pouvaient faire une proposition et voter, le soutien de 1 % des électeurs étant requis pour organiser un référendum décisionnel. Malgré les 26 000 propositions formulées au cours de la mandature, seulement deux ont obtenu le nombre de soutiens requis et fait l’objet d’un référendum, ce qui montre les limites de ces innovations démocratiques en partie déconnectées de la question sociale.
À Barcelone, si la démocratie participative n’a pas été absente, elle n’a pas constitué le cœur du projet de Barcelone en commun. Le municipalisme barcelonais, en complément de ces formes procédurales de participation, a mis en place une « démocratie mouvementiste ». Il s’agissait de créer de nouvelles alliances avec les mouvements sociaux, afin de permettre à ces derniers d’intervenir directement dans la politique locale. Loin d’être perçue comme une entrave à la politique institutionnelle, la pression constante de ces mobilisations populaires a été le principal moteur du changement à Barcelone. Des mesures emblématiques des mouvements sociaux ont ainsi été adoptées par le conseil municipal, comme l’obligation de consacrer 30 % des nouvelles constructions immobilières aux logements sociaux ; l’attribution d’une chapelle à un centre de santé de quartier au détriment d’une collection privée d’art ; ou la création d’une charte permettant de céder la gestion d’espaces et de terrains municipaux aux citoyens pour en faire des communs urbains.
La relation avec les mouvements sociaux a été moins centrale à Madrid, en raison notamment des origines des équipes municipalistes, qui provenaient directement de mouvements protestataires à Barcelone. Ada Colau, l’ex-activiste contre les expulsions immobilières, est devenue maire de Barcelone en étant elle-même issue des classes populaires, à la différence de la juge Manuela Carmena, devenue première édile de Madrid. De plus, Barcelone, qui a connu une longue tradition de mouvements sociaux et d’expériences d’autogestion, avait déjà eu de nombreux gouvernements de gauche modérée, là où la droite régnait à Madrid depuis plusieurs décennies.
Ce lien accru avec les mouvements sociaux a eu un impact important sur les politiques mises en place. Barcelone en commun a pris des mesures plus ambitieuses face à la crise du logement et a davantage investi dans les quartiers populaires en cherchant à lutter contre la ségrégation urbaine et la gentrification, alors que l’équipe d’Ahora Madrid a concentré son action sur les quartiers centraux de la capitale. En 2019, les quartiers populaires se sont moins mobilisés pour soutenir la candidature de Manuela Carmena, ce qui peut être lié aux priorités de son action municipale et expliquer sa non-réélection.
Cette différence est également perceptible dans l’attitude des deux équipes municipales vis-à-vis de grands projets urbanistiques. La gestion d’Ahora Madrid a été marquée par une certaine continuité avec les précédents gouvernements municipaux, symbolisée par l’approbation de l’opération « Chamartín ». Ce pharaonique projet d’aménagement immobilier a constitué une véritable pomme de discorde avec des mouvements sociaux qui y étaient fortement opposés.
Si Barcelone n’a pas mis fin aux grands Congrès attirant des flux d’investisseurs étrangers comme le World Mobile Congress, pourtant décrié avant les élections, Ada Colau s’est opposée à plusieurs grands projets urbains. La mairie a ainsi été une des voix les plus critiques contre l’extension de l’aéroport de Barcelone ou l’installation d’une filiale du musée de l’Ermitage (Saint-Pétersbourg, Russie) dans le quartier de Barceloneta, déjà exposé au surtourisme. Le bilan du municipalisme est également un bilan en négatif, qui doit prendre en compte les politiques spéculatives ou les projets urbains empêchés par les élus municipalistes.
Le retour de la droite à la tête de la capitale en 2019 a entraîné l’arrêt de la plupart des politiques mises en place par Ahora Madrid, comme les processus de démocratie directe, les politiques féministes ou les mesures anti-pollution. À Barcelone, le legs de Barcelona en commun, qui a eu deux mandats pour imprégner l’action publique municipale, est encore présent même si des remises en cause ont été amorcées par la nouvelle équipe socialiste. Pour l’instant, les mesures ayant le mieux résisté sont précisément celles qui avaient été promues directement par les mouvements sociaux, qui continuent d’exercer une pression pour les maintenir.
Alors que les projets municipalistes ou de listes participatives se développent, notamment en France, cette comparaison montre la diversité des expériences de municipalisme au-delà d’une unité affichée. Elle souligne l’importance d’un municipalisme non seulement politique mais aussi social, c’est-à-dire son ancrage dans le tissu associatif local, les mobilisations sociales et les quartiers populaires. En dépendent la radicalité des expériences, mais aussi la permanence des changements impulsés dans le temps.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
12.03.2026 à 16:53
Marco Cremaschi, Professeur d'urbanisme, Centre d’études européennes et École urbaine, Sciences Po

Sur l’île de Roatán, au large du Honduras, Próspera est une « ville-entreprise » créée en 2017 pour attirer des investisseurs étrangers et stimuler l’économie dans certaines zones du pays. Elle promet un territoire ultralibéral où les impôts sont faibles et les règles assouplies. Mais le projet, contesté par la gauche hondurienne, soulève des questions sur la souveraineté nationale.
À première vue, l’actualité latino-américaine semble dominée par des épisodes spectaculaires quoique contradictoires : alors que, début janvier, les États-Unis ont justifié l’enlèvement du président vénézuélien Nicolas Maduro par des accusations de narcotrafic à son égard, Donald Trump venait, un mois plus tôt, de gracier l’ancien président conservateur du Honduras Juan Orlando Hernández (Parti national), qui avait été condamné pour trafic de drogue en 2024 à une peine de quarante-cinq ans de prison qu’il purgeait en Virginie-Occidentale.
Ces événements, presque concomitants, révèlent toutefois une trame plus discrète mais politiquement significative, où se croisent intérêts géopolitiques, stratégies impériales et expérimentations institutionnelles radicales.
Le Honduras occupe, dans cette configuration, une position stratégique en Amérique centrale. Dans les années 1980, il fut la base arrière de l’offensive de l’administration Reagan contre le Nicaragua sandiniste ; plus récemment, il est devenu un point d’appui pour les politiques migratoires coercitives de l’administration Trump, notamment les déportations menées par l’ICE. Il constitue également un arrière-plan logistique et politique des ambitions états-uniennes à Caracas et, potentiellement, à Cuba.
Dans ce contexte, certains observateurs ont suggéré que de puissants soutiens financiers de Donald Trump ont exercé des pressions afin qu’il gracie Hernández et soutienne à la présidentielle du 30 novembre 2025 Nasry Asfura, ancien maire de Tegucigalpa et figure du Parti national. Celui-ci a bel et bien été élu président, devançant les candidats du Parti libéral et du Parti de gauche Libre.
Lors de la présidentielle précédente, tenue en 2022 à la suite de la destitution d’Hernández, Asfura avait été vaincu par la candidate de Libre, Xiomara Castro. Castro avait fait de l’abolition des zones économiques spéciales privées l’un des axes majeurs de son programme. Elle estimait que ces territoires, dotés de règles propres, ne respectaient pas la Constitution et affaiblissaient l’autorité de l’État hondurien sur son propre sol.
Après son élection, le Congrès hondurien abroge d’abord la loi autorisant ces zones, puis la Cour suprême les déclare contraires à la Constitution.
La réaction des investisseurs est immédiate : une procédure d’arbitrage international est engagée contre l’État hondurien pour un montant de dix milliards de dollars (8,6 milliards d’euros) – soit environ 40 % du produit intérieur brut (PIB) national – au motif d’une violation d’engagements envers les investisseurs.
Entre 2023 et 2025, le projet demeure suspendu dans une profonde incertitude juridique, tandis que le contentieux se poursuit et que la presse internationale, ainsi que plusieurs chercheurs, commencent à analyser le cas.
La victoire de Nasry Asfura à la fin de l’année 2025, avec le soutien de Trump, est perçue comme un signal susceptible de rassurer les milieux financiers.
Au cœur des débats politiques au Honduras on retrouve le projet Próspera, fondé en 2017 par une société enregistrée au Delaware.
Doté d’un capital initial d’environ 120 millions de dollars (103,9 millions d’euros), provenant notamment d’investisseurs de la Silicon Valley tels que Peter Thiel, Marc Andreessen et Sam Altman, il constitue l’une des expérimentations contemporaines les plus avancées de la charter city. La proposition des charter cities a été formulée en 2009 par l’économiste Paul Romer, futur Prix Nobel (2018), qui envisageait la possibilité pour des pays en développement de déléguer l’administration de territoires peu peuplés à des régimes institutionnels alternatifs afin de stimuler la croissance. Implanté sur l’île de Roatán au Honduras, dans le cadre juridique d’une ZEDE (Zone pour l’Emploi et le Développement économique), Próspera ambitionne de transformer un territoire d’environ le double de la superficie de Monaco en une « start-up city » fortement déréglementée.
L’origine institutionnelle de ce dispositif remonte au coup d’État hondurien de 2009, quand l’armée et les milieux d’affaires contraignent le président de gauche Manuel Zelaya à quitter le pouvoir et le remplacent par Roberto Micheletti (Parti libéral). Les gouvernements issus de cette rupture politique engagent une réflexion sur de nouveaux modèles de développement dans un pays marqué par la faiblesse des institutions et de fortes inégalités.
En 2013, une loi institue les ZEDE, territoires dotés d’une large autonomie normative, fiscale, administrative et judiciaire. À partir de 2016, le modèle attire l’intérêt de cercles technologiques et financiers américains d’orientation libertarienne. Honduras Próspera Inc. est créée dans ce contexte, avec Erick A. Brimen, financier vénézuélien, comme principal promoteur. En 2017, un accord est signé avec le gouvernement hondurien pour développer une ZEDE à proximité de la communauté afro-caribéenne de Crawfish Rock, héritage de la présence coloniale britannique.
Des précédents de charter cities comme Shenzhen, en Chine, illustrent le potentiel transformateur des zones spéciales, leur réussite dépendant de conditions étatiques et géopolitiques difficilement reproductibles. Romer s’est ultérieurement retiré de plusieurs collaborations, y compris au Honduras, invoquant un manque de transparence et des garanties démocratiques insuffisantes.
À lire aussi : Derrière la reconnaissance mondiale de Shenzhen, le succès des villes intelligentes chinoises
Formalisée en 2020, Próspera fonctionne comme une ville-entreprise. Le taux d’imposition peut descendre à 1 % sur le revenu brut des sociétés contre environ 25 % au niveau national. En cas de désaccords, les différends sont tranchés par un arbitrage privé en lieu et place des tribunaux étatiques. Elle peut également adopter des cadres réglementaires inspirés de trente-six ordres juridiques différents ou en élaborer de nouveaux. Elle dispose ainsi d’un système judiciaire séparé, sans juges honduriens.
L’obtention d’un statut de résident permanent coûte environ 1 000 dollars (plus de 826 euros). Les taxes perçues dans la zone sont réinvesties exclusivement dans son périmètre. La majorité des plus de deux cents entreprises enregistrées opèrent virtuellement, souvent dans le secteur des cryptomonnaies. Malgré cette autonomie, des incidents surviennent. En 2024, un décès survient sur un chantier, l’extraction de la pierre de corail aurait endommagé la côte.
Sur le plan urbain, la matérialisation demeure embryonnaire. Un seul immeuble résidentiel a été achevé. Pourtant, le plan initial prévoyait 38 000 habitants d’ici à 2030 et plus de 500 millions de dollars (433 millions d’euros) d’investissements à court terme. Sont annoncés une usine de maisons modulaires conçues par Zaha Hadid Architects, un café Bitcoin doté d’un centre éducatif, une clinique génétique, un centre de plongée sous-marine, ainsi qu’un service de livraison par drones.
Les tensions se cristallisent autour des projets d’expansion territoriale : des représentations promotionnelles montrant la côte transformée en un district de gratte-ciels et de marinas ont alimenté les craintes d’expropriation et de marginalisation des communautés locales, malgré l’insistance des promoteurs sur le caractère volontaire de l’adhésion.
Politiquement, ces projets s’inscrivent dans une transformation plus large des rapports entre capital et souveraineté. Soutenus par des réseaux financiers et idéologiques liés à la Silicon Valley, ils ne constituent pas seulement des expériences urbanistiques, mais des dispositifs remettant en cause le lien moderne entre le territoire, la citoyenneté et l’État.
La ville y est redéfinie comme plate-forme entrepreneuriale, la souveraineté comme variable négociable. Balaji Srinivasan, entrepreneur américain et figure du libertarianisme technologique, propose ainsi que des communautés numériques se structurent jusqu’à rivaliser avec les États nationaux, en substituant progressivement à la souveraineté territoriale des entités transnationales gouvernées selon des logiques d’optimisation réglementaire.
Toutefois, cette prétendue négation de l’État demeure paradoxale. Próspera et ses projets analogues dépendent du soutien d’États fragiles, d’élites politiques disposées à concéder des fragments de souveraineté et de contextes de crise institutionnelle, ainsi que de l’appui implicite ou explicite d’une puissance hégémonique. Les « techno-barons » aspirent à se libérer de l’État tout en s’appuyant sur la protection géopolitique qu’il garantit. Cette alliance, inédite et instable, constitue une contradiction structurelle.
D’autres limites concernent la rhétorique des finalités vertueuses : le développement, la lutte contre la pauvreté, la protection de l’environnement. L’argumentaire philanthropique masque souvent une dissociation croissante entre le capital global et les droits sociaux, entre la gouvernance algorithmique et la souveraineté démocratique. Si le droit formel reconnaît le salaire minimum et la liberté syndicale, des habitants dénoncent depuis 2020 des risques d’expropriation et d’exclusion des processus décisionnels. Les inégalités d’accès aux services à l’eau, aux infrastructures et à l’espace littoral nourrissent les tensions, tandis que les bénéfices demeurent concentrés.
Enfin, Próspera se présente comme « crypto, bio et robo » : un laboratoire déréglementé pour la finance numérique, la biotechnologie, la génétique et les technologies d’extension de la vie, avec un contrôle public minimal. L’expérimentation urbaine apparaît ainsi comme le vecteur spatial d’une accélération technologique au service d’une élite transnationale.
Plus qu’un simple litige juridique, Próspera constitue un cas exemplaire d’une géographie contemporaine faite de zones spéciales, d’enclaves et de corridors d’exception qui structurent le capitalisme global. Loin d’être marginal, ce modèle participe d’une reconfiguration normative de la ville et de la souveraineté au XXIe siècle – un processus dont les implications démocratiques et anthropologiques demeurent ouvertes et profondément controversées.
Marco Cremaschi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
12.03.2026 à 10:24
Bertrand Cassoret, Maître de conférences en génie électrique, Université d'Artois
Au-delà de l’enjeu urgent de la transition énergétique, tous les mix électriques ne se valent pas en termes d’impacts environnementaux. Nous avons procédé à l’analyse de cycle de vie des six scénarios proposés par RTE à l’horizon 2060, avec ou sans construction de nouvelles centrales nucléaires. Le résultat ? Hors risque d’accident, les scénarios comportant le plus de nucléaire apparaissent comme les moins mauvais pour l’environnement.
Quel mix de production d’électricité décarbonée est le plus écologique ? Répondre à cette question n’est pas si évident. La production d’énergie, à l’échelle d’un pays, ne s’improvise pas : la troisième programmation pluriannuelle de l’énergie (PPE3), dévoilée en février 2026, a en ce sens fixé un cadre pour les dix prochaines années.
Or, en fonction des choix de planification opérés et du mix électrique retenu (part de nucléaire, de renouvelables…), le kilowatt-heure n’aura pas la même empreinte environnementale. En nous appuyant sur les six scénarios (en fonction des sources d’énergie composant le mix électrique) retenus par RTE à l’horizon 2060, nous avons mené une analyse de cycle de vie (ACV) de chacun de ces scénarios, récemment publiée dans une revue scientifique.
Selon nos résultats, en fonctionnement normal (c’est-à-dire en excluant les risques de catastrophe environnementale, notamment nucléaire), ce sont les scénarios où la part du nucléaire est la plus élevée qui ont les impacts environnementaux les plus faibles. Pour comprendre ce résultat, il faut d’abord présenter sa construction.
Ils sont le premier élément déterminant du raisonnement. Pour prévoir les besoins de production électrique en France en 2060, RTE a pris pour hypothèse une hausse de consommation de 35 %, en lien avec les besoins d’électrification des usages tels que les transports, le chauffage ou l’industrie.
Parmi les six scénarios, les trois premiers (notés M sur le graphe ci-dessous) n’utilisent pas de nouvelles infrastructures nucléaires en remplacement des réacteurs actuels qui seront probablement fermés en 2060. Les trois scénarios suivants (notés N) s’appuient en revanche sur le « nouveau nucléaire », avec une part de nucléaire allant de 18 à 50 % dans le mix électrique. La part de l’hydroélectricité varie peu, mais l’éolien et le photovoltaïque jouent le rôle de variable d’ajustement entre les différents scénarios.
Pour un même niveau de consommation électrique, les scénarios sans nucléaire nécessitent davantage de puissance installée. Le scénario M1, qui s’appuie le plus sur le photovoltaïque, requiert plus de deux fois plus d’installations que le scénario N03, qui se base surtout sur le nucléaire. Ceci s’explique par deux raisons.
D’abord, parce que l’éolien et le photovoltaïque ne sont pas pilotables : leur production dépend de la météo. L’éolien et le photovoltaïque ont, en effet, un facteur de charge assez faible : le vent et le soleil ne permettent que rarement une production à pleine puissance. Par exemple, une installation photovoltaïque de 1 000 watts (W) va produire parfois cette puissance l’été, vers midi, mais en moyenne sur l’année, seulement environ 150 W. Il faut donc démultiplier les moyens.
La seconde raison tient au besoin de stockage de cette production intermittente, afin de répondre aux besoins au bon moment. La prospective de RTE considère le stockage par batteries ou par hydrogène, mais les rendements de conversion entraînent, dans les deux cas, des pertes qu’il faut compenser, là aussi en augmentant les capacités installées.
À noter enfin que la fabrication et le recyclage en fin de vie de ces moyens de stockage entraînent des impacts environnementaux supplémentaires.
À lire aussi : Les panneaux solaires, fer de lance de la transition ou casse-tête pour le recyclage ? Le vrai du faux
Les moyens de production envisagés par RTE ici sont l’éolien, le photovoltaïque, l’hydroélectrique et le nucléaire. Ils n’émettent pas – ou très peu – de polluants et de gaz à effet de serre lors de leur utilisation, comme en atteste le dernier rapport du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec). Ce dernier considère que l’éolien et le nucléaire émettent environ 12 g de CO₂ par kilowattheure (kWh) électrique produit, tandis que le photovoltaïque en émet entre 41 et 48.
Mais la seule comptabilité carbone ne suffit pas : ces sources d’électricité ont des impacts environnementaux notables liés à leur fabrication et leur fin de vie, dont il faut tenir compte. Des études suggèrent que le photovoltaïque au sol (à distinguer des panneaux solaires qui équipent les toitures) peut nécessiter autant de béton que le nucléaire, à production électrique égale. L’Agence internationale de l’énergie (AIE) soulignait par exemple, en 2022, que les panneaux solaires sont de grands consommateurs d’aluminium. Enfin, toujours à production d’électricité égale, il faut davantage d’acier pour l’électricité éolienne que le nucléaire.
Une synthèse d’études d’impacts réalisée en 2021 pour la Commission européenne suggère que l’énergie nucléaire est celle qui aurait le moins d’impacts environnementaux sur un certain nombre de critères.
Il faut enfin tenir compte de la durée de vie des moyens de production. On considère généralement qu’un barrage hydroélectrique dure quatre-vingts ans, une centrale nucléaire soixante ans (même s’il est probable qu’on ira au-delà), un panneau photovoltaïque trente ans et une éolienne vingt-cinq ans.
Reste aussi la question des déchets nucléaires, qui relève, en France, de l’agence nationale pour la gestion des déchets radioactifs (Andra), et que nous n’avons pas couverte dans notre étude.
L’analyse de cycle de vie est une méthode qui permet d’évaluer les impacts environnementaux depuis l’extraction des matières premières jusqu’à la fin de vie. Elle utilise des bases de données internationales qui permettent de quantifier les consommations de matières premières, énergie, surfaces, déchets. Nous avons utilisé, pour estimer l’impact environnemental de la production d’un kilowattheure d’électricité nucléaire, hydroélectrique, éolienne et enfin photovoltaïque, le logiciel Simapro, associé à la base de données Ecoinvent qui fait référence dans le domaine de l’ACV
Parmi les 11 critères retenus, on retrouve l’épuisement des ressources, le réchauffement climatique, la diminution de la couche d’ozone, la toxicité pour l’humain, les impacts sur l’eau de mer et l’eau douce, l’oxydation photochimique (en lien avec la pollution de l’air), l’acidification et l’eutrophisation des eaux.
Selon notre ACV, le photovoltaïque est l’énergie qui a le plus d’impacts environnementaux et l’hydroélectrique, celle qui en a le moins. Ces résultats sont largement liés aux quantités de matériaux utilisés et à la durée de vie des installations.
La prise en compte de certains de ces critères environnementaux spécifiques peut modifier ce classement : le nucléaire a davantage d’impacts si on considère les radiations ionisantes et l’eutrophisation marine, l’hydroélectricité nécessite davantage d’eau. Mais même en tenant compte de davantage de critères environnementaux, avec la méthode ReCiPe, qui en comporte 22, le photovoltaïque reste le plus mauvais élève pour 18 de ces critères.
Les impacts des six scénarios de RTE ont été comparés avec deux approches différentes mais complémentaires.
D’abord en fonction de l’énergie produite par les quatre sources d’électricité chaque année. À noter qu’avec cette méthode, les impacts de la production du combustible nucléaire et de la gestion des déchets sont inclus dans les bases de données, mais que les moyens de stockage de l’électricité sont ici négligés, ce qui sous-estime les impacts des scénarios sans nucléaire.
Puis en fonction de la puissance installée, en tenant compte de la durée de vie des installations – en négligeant cette fois les impacts liés au fonctionnement normal des infrastructures. Les impacts du stockage sont, alors, pris en compte.
Les résultats obtenus avec les deux méthodes sont très similaires : le scénario M1, qui s’appuie le plus sur le photovoltaïque, est celui qui a le plus d’impacts environnementaux sur tous les critères considérés. Le scénario qui a le moins d’impacts, à l’inverse, est celui qui compte le plus sur le nucléaire. Même dans le scénario N2, qui compte largement sur le nucléaire, la majorité des impacts environnementaux proviennent du photovoltaïque, alors qu’il ne représente que 16 % du mix électrique.
Il ne s’agit pas de dire que le photovoltaïque et l’éolien sont inutiles à la transition énergétique : ces sources renouvelables sont très utiles lorsqu’elles permettent d’éviter de produire de l’électricité avec du pétrole, du gaz ou du charbon. L’éolien et le photovoltaïque sont beaucoup moins polluants que ces énergies fossiles, qui n’ont pas été considérées ici.
Elles ont bien un rôle à jouer : RTE estime que le nucléaire et l’hydroélectricité ne permettront pas de produire suffisamment d’électricité pour l’électrification prévue dans le cadre de la Stratégie nationale bas carbone (SNBC). De plus, les technologies évoluent, et il est probable que les impacts du photovoltaïque et de l’éolien diminuent avec le temps.
À l’heure de choisir un mix électrique pour l’avenir qui s’appuie le moins possible sur les énergies fossiles, le nucléaire semble donc incontournable pour un mix le plus vert possible. Ces résultats montrent que plus la part du nucléaire est élevée dans le mix électrique, moins on a besoin d’installations en tous genres – consommateurs de matériaux –, moins on crée d’impacts environnementaux.
Notre étude a toutefois des limites, qui tiennent à ses hypothèses de départ : elle ne prend pas en compte le risque de catastrophe nucléaire. En effet, l’ACV ne considère que le fonctionnement normal des installations, et sa précision dépend de la fiabilité des données inscrites dans les bases de données.
Elle n’intègre pas non plus ni le risque d’explosion d’hydrogène stocké ni le risque de ruptures de barrages hydrauliques qui ont pourtant historiquement tué bien plus que les catastrophes de Tchernobyl et de Fukushima. Il est également supposé que la gestion des déchets nucléaires sera sans conséquences sur les générations futures.
Bertrand Cassoret est membre bénévole de l'Association Française pour l'Information Scientifique et de la Société Française d'Energie Nucléaire.
12.03.2026 à 10:24
Renaud Coulomb, Professor of Economics, Mines Paris - PSL
Yanos Zylberberg, Professor of Economics, University of Bristol
Depuis l’accident nucléaire de Fukushima en 2011, la perception du risque nucléaire a changé, et cela, bien au-delà des frontières du Japon. En Angleterre, une étude a montré que les logements situés à moins de 20 km des centrales ont perdu en moyenne 4,2 % de leur valeur à la suite de la catastrophe et connu une forte recomposition sociale. Un signal fort, à l’heure où la France et le Royaume-Uni relancent de vastes programmes nucléaires.
L’énergie nucléaire est aujourd’hui présentée comme un pilier de la décarbonation et de la sécurité énergétique européennes. Pourtant, si les arbitrages énergétiques se décident au niveau national, leur acceptabilité se joue souvent à l’échelle locale.
En mars 2011, l’accident nucléaire de Fukushima-Daiichi avait bouleversé la perception mondiale du risque nucléaire. Certains pays avaient alors réaffirmé leur engagement, comme le Royaume-Uni ou la France, qui a récemment replacé le nucléaire au cœur de la programmation pluriannuelle de l’énergie (PPE). D’autres, comme l’Allemagne, avaient mis leurs programmes en pause ou fait marche arrière.
À lire aussi : Three Mile Island, Tchernobyl, Fukushima : le rôle des accidents dans la gouvernance nucléaire
Entre la construction de nouveaux réacteurs pressurisés européens (EPR) – la PPE française prévoit la construction de six nouveaux réacteurs EPR2, avec huit en option – et l’émergence de nouveaux concepts comme les petits réacteurs modulaires (Small Modular Reactors, ou SMR), la dynamique actuelle est celle d’un regain des investissements.
Mais au-delà des choix technologiques et politiques, un facteur demeure déterminant pour l’avenir de l’industrie : l’acceptation du public. Nous avons mené une étude portant sur l’évolution des marchés immobiliers et la composition socio-économique des quartiers en Angleterre après l’accident de Fukushima.
Nos travaux montrent comment la perception d’un risque accru peut transformer les communautés vivant à proximité des centrales. À la clé, vague de départ des ménages, baisse des prix immobiliers et accroissement de la pauvreté, et cela au Royaume-Uni, pays où l’énergie nucléaire bénéficie d’un fort soutien au niveau national.
Parmi les nouvelles options technologiques, les SMR suscitent un intérêt croissant. Conçus en usine, transportés puis assemblés sur site, ces réacteurs de petite taille (d’une puissance pouvant aller jusqu’à 300 mégawatts) promettent des chantiers plus rapides et des coûts mieux maîtrisés.
Nécessitant moins de foncier et d’eau, ils peuvent être implantés sur des sites plus variés, au plus près des besoins en électricité et en chaleur. Ils pourraient par exemple remplacer les centrales à charbon ou à gaz en fin de vie en réutilisant les raccordements existants au réseau, tout en préservant les emplois qualifiés et les recettes fiscales locales, ce qui favoriserait leur acceptation politique.
Plus de 80 modèles de SMR sont aujourd’hui en cours de développement dans 18 pays. La Russie et la Chine en ont déjà construit, tandis que les États-Unis, le Royaume-Uni, le Canada, la France, le Japon et la Corée du Sud mènent des projets pilotes. Le Royaume-Uni, notamment, mise sur les SMR pour accroître son parc d’ici 2050, en complément de ses chantiers EPR, comme Hinkley Point C et Sizewell C.
En France, malgré un fort soutien institutionnel au nucléaire, rien ne garantit que le nucléaire connaîtra un rebond sans accroc après 2035, et ce, pour trois raisons principales.
Premièrement, la plupart des nouveaux EPR2 et SMR ne seront pas opérationnels avant les années 2030, une projection encore fragilisée par l’historique de l’industrie en matière de retards. L’exemple de l’EPR de Flamanville (Manche), lancé en 2007 et raccordé au réseau seulement en 2024, reste éloquent.
Deuxièmement, la gestion des déchets reste un défi non résolu. Des travaux récents suggèrent même que plusieurs modèles de SMR produiraient davantage de déchets radioactifs par unité d’énergie que les grandes centrales, ce qui pourrait alourdir leur coût réel.
Enfin, et surtout, les porteurs de projets devront obtenir l’adhésion des communautés locales s’ils souhaitent s’implanter dans de nouveaux territoires.
Les enquêtes d’opinion post-Fukushima montrent un soutien national très variable d’un pays à l’autre, et que cette énergie est rarement la source préférée d’électricité.
Surtout, une attitude favorable au niveau national ne garantit pas son acceptation au niveau local. La logique du « not in my backyard » (« pas dans mon arrière-cour ») peut bloquer des projets pourtant viables au plan économique. C’est particulièrement vrai lorsque les risques sont perçus comme très concentrés, tandis que les bénéfices semblent largement diffus.
À lire aussi : Réacteurs nucléaires « SMR » : de quoi s’agit-il ? Sont-ils moins risqués ?
Notre étude a analysé comment ces changements de perception du risque nucléaire se traduisaient concrètement et s’inscrivaient dans une dynamique plus large de l’évolution des populations autour des sites nucléaires au fil des décennies.
À partir d’un registre exhaustif des transactions immobilières en Angleterre de 2007 à 2014, nous avons comparé l’évolution des prix dans un rayon de 20 km autour des centrales nucléaires à celle observée entre 20 et 100 km, avant et après Fukushima.
Le seuil des 20 km correspond à la distance de sécurité massivement relayée par les médias britanniques à la suite de l’instauration par le gouvernement japonais d’une zone d’évacuation dans un rayon de 20 km autour du site accidenté.
Nos résultats sont clairs. En moyenne, les logements proches des centrales anglaises ont perdu plus de 4 % de leur valeur foncière après Fukushima, par rapport à des biens similaires situés plus loin.
Cette moyenne cache toutefois des disparités importantes. La chute des prix a été nettement plus marquée dans les zones où la main-d’œuvre est très mobile. Cela ne signifie donc pas que la perception du risque nucléaire n’a pas changé dans les zones proches des centrales où la mobilité des ménages est restée limitée, mais plutôt que celle-ci ne s’est pas traduite par un ajustement à court terme des prix de l’immobilier.
Le cas anglais est particulièrement révélateur. Contrairement à l’Allemagne ou au Japon, le Royaume-Uni, comme la France, a maintenu son programme nucléaire après 2011, en engageant un renouvellement du parc. La baisse de l’immobilier y reflète donc bien une véritable crainte environnementale locale, et non l’anticipation d’une fermeture des centrales nucléaires.
Au-delà des prix de l’immobilier, la composition sociale des quartiers a également évolué. Entre 2010 et 2019, la pauvreté s’est accrue autour des sites nucléaires, surtout dans les zones à forte mobilité résidentielle. Ainsi, même dans un cadre de soutien politique fort et de réglementation stricte, un accident lointain a engendré des effets socio-économiques durables sur le territoire britannique.
Bien sûr, les dynamiques passées éclairent aussi ces résultats. Dans les années 1970, lors de la mise en service des centrales étudiées, les zones situées à moins de 20 km avaient déjà connu une première vague de déclin démographique et de précarisation.
À lire aussi : Quel avenir pour les territoires du nucléaire en France ?
Si le choix politique actuel est celui d’une expansion durable du nucléaire, il est crucial d’obtenir le consentement local, autant que national, des populations.
Pour les ménages, soutenir la décarbonation ou la souveraineté énergétique à l’échelle d’un pays ne signifie pas accepter un réacteur au bout de sa rue. Il faut engager un dialogue transparent, le plus tôt possible, avec des informations accessibles sur les risques d’accident, les plans d’urgence, les règles de responsabilité et la gestion à long terme des déchets, etc.
Surtout, les communautés exposées à des risques concentrés doivent bénéficier d’avantages concentrés : fonds spécifiques, réductions sur les factures d’énergie, investissements dans les infrastructures, programmes de formation ou encore priorité à la sous-traitance locale. Ces contreparties doivent être mises en place dès la phase de planification et durer tout au long de l’exploitation.
Loin de contourner cet obstacle, les SMR l’accentuent. Leur intérêt premier réside en effet dans leur flexibilité d’implantation géographique. Ainsi, nombre de sites envisagés devraient se situer dans des régions nouvelles pour le nucléaire, où les populations n’ont pas eu le temps de « s’auto-sélectionner » selon leur tolérance au risque nucléaire. De plus, la viabilité économique des SMR exige une production en série et des commandes groupées : un véritable défi organisationnel vu les contraintes de sites et de licences.
Le processus de sélection des sites, l’implication réelle des habitants et l’équité dans la répartition des bénéfices seront donc déterminants. On peut toutefois s’attendre à d’importants ajustements socio-économiques et démographiques à proximité des futurs projets. Sans mécanismes crédibles de partage des bénéfices, l’expansion du nucléaire en Europe pourrait accroître les inégalités territoriales.
Renaud Coulomb déclare ne pas être en situation de conflit d’intérêts. Il ne fournit pas de services de conseil et ne détient aucune participation financière dans des entreprises du secteur énergétique, ni dans des entreprises susceptibles de bénéficier des analyses ou des conclusions présentées dans cette tribune. La recherche citée dans cet article a bénéficié du soutien financier de l'Ecole d'Economie de Paris et de l’Université de Melbourne. Certains des projets de recherche de l'auteur ont pu bénéficier de financements supplémentaires de Mines Paris – PSL University et de la Fondation Mines Paris dans le cadre de la Chaire de Mécénat ENG, en partenariat avec l’Université Paris-Dauphine, la Toulouse School of Economics et CentraleSupélec.
Yanos Zylberberg ne fournit pas de services de conseil et ne détient aucune participation financière dans des entreprises du secteur énergétique, ni dans des entreprises susceptibles de bénéficier des analyses ou des conclusions présentées dans cette tribune. Certains projets de recherche (qui digitalisent des cartes historiques) ont reçu des financements de l'ESRC.
12.03.2026 à 09:57
Franck Courchamp, Directeur de recherche CNRS, Université Paris-Saclay
Laís Carneiro, Postdoc, Université Paris-Saclay
Many of the most damaging invasions do not simply subtract species; they fundamentally remodel the environment, altering habitats, rewiring interactions and shifting processes in ways that species lists alone cannot reveal.
Consider the goat, the horse or the deer, introduced to many islands around the world. While their voracious grazing can indeed drive native flora towards local extinction, the legacy is etched deeper into the land.
These invasive herbivores compact the earth, accelerate erosion, open up the undergrowth and modify fire regimes, scarring the landscape long after the herds are gone. These systemic changes threaten biodiversity just as profoundly as the loss of any single species.
To navigate this complexity, invasion scientists have increasingly turned to the Environmental Impact Classification for Alien Taxa (EICAT). This pioneering framework marked a significant leap forward, offering a transparent, evidence-based method to rank “invaders” by the severity of their toll on native species, from negligible effects to local extinctions.
However, EICAT operates with a specific blind spot: it is strictly species-orientated. It assigns a single global severity score to an invader, usually based on the worst-case scenario recorded in its invasive ranges. While powerful for global prioritisation, this approach can overlook the complexities in specific, local ecosystems, each with unique vulnerabilities. As a recent study published in PLOS biology illustrates, there is cause for further investigation.
In addition, biological invasions generate a spectrum of impacts extending far beyond direct effects on native species seen in typical assessments. In our recent synthesis published in 2025, we catalogued 19 distinct types of environmental impacts.
When examining all of the well-documented impacts, it became obvious that most structural changes operate at the level of communities, ecosystems or physical processes.
Crucially, twelve of these categories concern scales broader than the actual species: nutrient cycling, habitat structure, or the physical properties of soil and water, for instance whose impacts are therefore underestimated.
Three distinctive levels of structural changes can be distinguished:
individuals and populations,
ecosystem functioning, or abiotic conditions – in other words non-living physical or chemical parts of the environment that affect living organisms such as pollination and fire regimes.
Despite being widespread and well documented, these structural changes remain largely unclassified by frameworks that focus ultimately on native species loss.
This omission is critical because many invasive species act as “ecosystem engineers,” organisms that do not merely live in an environment but actively modify it, influencing the fate of entire communities.
To capture this nuance, from our recent research we developed a complementary assessment tool: EEICAT, the Extended Environmental Impact Classification for Alien Taxa.
EEICAT is not a replacement but an evolution. It brings a necessary expansion in impact assessments, while seeking simplicity and integration. It is based on EICAT, but it shifts the unit of assessment from the invasive species to the invasion event. Under this framework, all 19 impact types can now be considered and an invasive population can be assigned one or multiple severity categories, at any ecological level. Under EEICAT, the loose threads of evidence from multiple impacts can now be woven to reflect the unique tapestry of effects on native species, communities, processes and even abiotic conditions.
The necessity of this distinction is vivid in aquatic systems invaded by zebra mussels (Dreissena spp.). In too many lakes, these molluscs threaten native mussel populations through competition and biofouling, a classic impact well captured by standard assessments. Yet, simultaneously, they are transforming the environment itself: filtering water, lowering turbidity, altering nutrient cycles, and triggering cascading shifts in vegetation and food webs. EEICAT allows us to map both the direct blow to native biodiversity and the systemic reengineering of the lake, within a single framework.
A similar logic applies to the terrestrial realm. The Argentine ant (Linepithema humile) is notorious for displacing native ants, simplifying communities into ghost towns, devoid of the usually numerous native ant species. But its influence ripples further. By disrupting mutualisms between plants and insects, these invaders alter seed dispersal, pollination, invertebrate assemblages, and even soil processes. These indirect, community-level impacts often differ in severity across invasion events, depending on climate, habitat integrity and recipient ecosystems. You can therefore assess several impacts per invasion, and characterise the specificities of each invasion: with a case-based approach.
The plant kingdom offers some of the clearest arguments for an event-based approach. Acacia species, introduced globally, act as ecological chameleons. In South Africa, they are aggressive suppressors of native flora, or Fynbos, and transformers of soil chemistry through nitrogen enrichment.
In Mediterranean Europe, the same Acacia dealbata species, commonly known as mimosa, may exert moderate competitive pressure but still alter fire regimes, litter accumulation and hydrology.
EEICAT provides a straightforward way to document these contrasts, where all evidence counts in helping to assess the severity of each particular invasion.
Importantly, adopting EEICAT does not mean starting from scratch. We can leverage decades of existing impact studies, and even previous EICAT impact assessments could be adapted. The framework simply translates qualitative ecological evidence into a broader set of categories that span biological, community and abiotic levels. It even uses the same five levels of severity, from “minimal concern” to “massive concern,” with the same guiding decision rules. This compatibility allows us to reinterpret the history of invasion ecology through a wider lens.
Because EEICAT is case-specific, it enables us to track how a single species behaves differently across regions, or how multiple invaders compound pressure on a single ecosystem. It reveals patterns of cumulative stress and ecosystem vulnerability that global scores simply cannot articulate.
Biological invasions are not merely about losing species; they are also about the silent rewriting of ecosystems. From the chemistry of the soil to the rhythms of wildfires, their impacts ripple through the environment long after their arrival. By embracing the Extended EICAT framework, we can finally capture the full scope of how invasive species really impact ecosystems and tailor management strategies to the complex realities of the living world, with each invasion, one by one.
Created in 2007 to help accelerate and share scientific knowledge on key societal issues, the Axa Research Fund – now part of the Axa Foundation for Human Progress – has supported over 700 projects around the world with researchers from 38 countries on key environmental, health & socioeconomic risks, like this project led by Franck Courchamp. To learn more, visit the website of the AXA Research Fund or follow @ AXAResearchFund on LinkedIn.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Franck Courchamp received funding from The AXA Research Fund.
Laís Carneiro received funding from AXA Research Fund.
11.03.2026 à 16:49
Claire Scopsi, Professeur en sciences de l'information et de la documentation, Conservatoire national des arts et métiers (CNAM)
Il y a encore quelques années, on s’amusait des photos totalement fantaisistes générées par l’IA mais, aujourd’hui, il devient de plus en plus complexe de détecter le vrai du faux à l’œil nu. Une idée pourrait être de marquer les photos générées par IA. Cette solution pourrait être efficace, mais connaît encore de nombreuses limites.
En 2024, les hypertrucages vidéo (ou deepfakes) ont rejoint la panoplie des escrocs en imitant le visage et la voix d’un dirigeant pour mieux tromper la vigilance de ses employés. Ils s’invitent désormais en politique. Catherine Connolly, candidate à la présidentielle irlandaise, découvre avec stupeur une vidéo virale où elle annonce son retrait de la campagne. L’intelligence artificielle (IA) se prête aux fantaisies des partisans du premier ministre hongrois Viktor Orban pour mieux discréditer Péter Magyar, son principal opposant aux législatives.
Détecter l’artificialité d’une image ou d’une vidéo est devenu un enjeu démocratique et une urgence. Menée par les Gafam et la BBC, la coalition internationale C2PA, composée d’entreprises de technologies, de groupes de presse et de médias, propose un modèle de métadonnées permettant d’identifier la nature et l’origine des contenus du Web.
Les premières promptographies (images générées par IA) étaient célèbres pour leurs aberrations, mains à six doigts ou trombones aussi grands que des gratte-ciels. Mais, comme l’affirme le photographe Niels Ackermann en comparant les performances des générateurs d’images entre 2022 et 2024 : « Il y a deux ans, on ricanait encore en comptant les doigts en trop ou les dents dans les bouches […]. C’est fini ! »
Les progrès de DALL-E, de Midjourney et de leurs émules sont rapides, et il devient presque impossible de distinguer leurs productions des photographies à l’œil nu. Dans le monde de la vidéo, les visages clonés bougent presque comme les originaux, les mouvements de lèvres suivent les textes qu’on leur soumet, le clonage vocal imite les timbres, rythmes et intonations. Les portes s’ouvrent pour de stimulantes créations, mais aussi pour la production de deepfakes toujours plus sophistiqués.
La situation est source de malaise pour les usagers du Web qui redoutent les fake news, tandis que les entreprises de presse et de communication craignent de perdre la confiance de leurs usagers ou de leurs clients si des images artificielles se glissent dans leurs productions.
« Près de 9 consommateurs sur 10 dans le monde veulent savoir si une image a été créée à l’aide de l’IA », c’est ce qu’annonce le rapport « Bâtir la confiance à l’ère de l’IA », consolidé en mai 2024, par l’agence d’images Getty à partir des données collectées auprès des milliers de consommateurs de tous pays. Il rejoint la conclusion de l’enquête Ifop Opinion de mars 2024 : « Neuf Français sur dix seraient favorables à l’imposition d’une mention indiquant l’origine artificielle du contenu sur les deepfakes. »
Le règlement européen sur l’intelligence artificielle (AI Act) entre en application en août 2026. Il consacre son chapitre IV à l’obligation de transparence, c’est-à-dire l’obligation pour les fournisseurs et déployeurs de systèmes de signaler les contenus produits ou modifiés par IA (article 50, items 2 et 4). Il énonce également sous quelle forme cette information doit être disponible en parlant de résultats « marqués dans un format lisible par machine » et d’informations « fournies aux personnes physiques concernées de manière claire et distincte au plus tard au moment de la première interaction ou de la première exposition » (article 50, item 5). L’information doit donc, d’une part, pouvoir être lue et affichée par des logiciels et, d’autre part, être lisible par un humain dès l’affichage du contenu concerné.
En 2021, six entreprises du monde des médias, de l’électronique et de l’authentification des documents numériques (Adobe, Arm, la BBC, Intel, Microsoft et Truepic) fondent la Coalition for Content Provenance and Authenticity (C2PA, Coalition pour la provenance et l’authenticité des contenus). Leur objectif est de rétablir la confiance des marchés dans l’IA en produisant une méthode commune de marquage des fichiers numériques. C2PA promet aux usagers d’afficher la manière dont la photo, la vidéo, le son ou le texte qu’ils consultent a été produit et à quelle date, avec quel logiciel il a été modifié par la suite et la nature des modifications apportées.
Le principe se base sur des métadonnées, c’est-à-dire des informations de toutes sortes concernant un contenu. Par exemple, pour une photo numérique : la date, l’auteur et le lieu d’une prise de vue, le type d’appareil photo utilisé, le nom et la version du logiciel de retouche. Elles sont produites par les applications des éditeurs de contenus, les caméras ou les appareils photo, qu’ils s’appuient ou non sur l’IA. Ces métadonnées, intégrées aux fichiers, sont complétées à chaque nouvelle modification du contenu, même si elle est effectuée avec un autre logiciel. La solution de C2PA repose sur les Content Credentials, un format de métadonnées standard et ouvert, dont les spécifications sont publiées sur le site C2pa.org. Pour résister aux falsifications, ces données sont cryptées par un système de signature numérique qui garantit leur origine.
Mais pour être efficace, le système doit être adopté par le plus grand nombre possible d’éditeurs et de producteurs de contenus afin de marginaliser les fichiers dépourvus de ces métadonnées d’authentification (un peu comme un consommateur qui se détournerait d’un produit qui n’affiche pas de Nutri-Score). Une fois largement diffusés, les Content Credentials agiront aussi comme un label de transparence.
L’enjeu est d’attirer dans la coalition le plus grand nombre d’entreprises influentes, et les résultats sont prometteurs. En 2022, un an après sa création, C2PA compte 200 membres internationaux. En février 2024, Meta, OpenAI et Google rejoignent la coalition… et en intègrent le comité directeur. Du côté des groupes de presse et de communication, Publicis, Springer Nature, Reuters, la RAI, Die Zeit ou The Wallstreet Journal ont suivi la BBC et, fin 2025, France Télévision a annoncé avoir lancé ses essais d’intégration du standard pour l’authentification de ses journaux. En 2025, C2PA affiche une communauté de plus 5 000 membres.
Adobe poursuit depuis 2024 le déploiement des Content Credentials dans ses applications de traitement d’image, dont le célèbre Photoshop et le générateur « du texte à l’image » Firefly. En novembre 2025, OpenAI annonce que les informations d’identification du contenu sont automatiquement appliquées à toutes les images générées par DALL-E 3, GPT-image-1 et le modèle génératif d’audio et de vidéo SORA 2.
La guerre des « outils d’inspection » est lancée. En 2026, dans les smartphones Pixel10 sous Android 8, l’application Google Photo affiche le « Content Credentials pin », « Cr », qui signale la présence des métadonnées d’authentification dans les images téléchargées. La plateforme Adobe Content Authenticity est fonctionnelle en version bêta. Une extension de vérification Lense exclusivement destinée au navigateur Chrome est disponible sur les plates-formes de téléchargement.
Au début de l’année 2026, les tests que j’ai effectués pour illustrer cet article ont été plutôt laborieux : les images comportant les précieuses métadonnées sont encore rares sur le Web. Il faut donc générer une image de test avec DALL-E 3 (intégré à ChatGPT), lequel ne produit les métadonnées C2PA qu’à la condition qu’on le lui demande clairement. Mais ensuite l’outil d’inspection d’Adobe affiche vaillamment les métadonnées et détecte la signature d’Open AI. En revanche, le test effectué avec l’extension Lense pour Chrome a échoué.
Transparence, authenticité et confiance sont les maîtres mots des membres de la coalition C2PA. Pour prometteuse qu’elle soit, l’initiative soulève quelques critiques, tout d’abord techniques : les métadonnées peuvent disparaître lors des manipulations de l’image, c’est un point de fragilité avoué par les membres. On peut craindre également que des fraudeurs simulent le comportement des outils d’inspection pour authentifier abusivement des « fake », ou piratent les métadonnées d’un contenu pour les intégrer à un autre.
Le World Privacy Forum alerte sur le risque d’atteintes à la vie privée. La production non contrôlable des métadonnées peut conduire à diffuser des informations contre le gré de l’auteur du contenu : souhaite-t-il vraiment que ses photos, en circulant sur le Web, indiquent à tous le lieu où il se trouvait au moment de la prise de vue ? D’autant que le recoupement de ces données de provenance accumulées sur un temps long peut constituer un traçage de ses activités. La possibilité pour les éditeurs d’ajouter des métadonnées visant la désignation de groupes militants ou discriminés est également à craindre.
La composition même de la coalition, composée d’entreprises commerciale et gouvernée par les Gafam, constitue un outil d’influence et d’orientation des marchés considérable. La coalition fonctionne dans un entre-soi en proposant les outils sur leurs propres suites logicielles ou plateformes. La complexité d’implémentation du standard peut empêcher les plus petits acteurs de produire les métadonnées. L’effet de label de confiance du Content Credentials pin détournera alors le public de leurs produits et renforcera le monopole des grands groupes. Mais n’est-ce pas l’objectif caché de la coalition ?
Claire Scopsi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.